JP2023168967A - 判定装置、管理システムおよび判定方法 - Google Patents

判定装置、管理システムおよび判定方法 Download PDF

Info

Publication number
JP2023168967A
JP2023168967A JP2022080385A JP2022080385A JP2023168967A JP 2023168967 A JP2023168967 A JP 2023168967A JP 2022080385 A JP2022080385 A JP 2022080385A JP 2022080385 A JP2022080385 A JP 2022080385A JP 2023168967 A JP2023168967 A JP 2023168967A
Authority
JP
Japan
Prior art keywords
taxi
target
gesture
target person
determination device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022080385A
Other languages
English (en)
Inventor
達哉 濱岡
Tatsuya Hamaoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2022080385A priority Critical patent/JP2023168967A/ja
Publication of JP2023168967A publication Critical patent/JP2023168967A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】対象者によるタクシーの乗車意志を精度よく判定すること。【解決手段】実施形態に係る判定装置は、撮影された画像情報を取得し、画像情報から対象ジェスチャーを行う対象者を検出し、前記対象ジェスチャーを行う前記対象者の周辺状況を認識し、認識した前記周辺状況に基づき、対象者による対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する制御部を備える。【選択図】図2

Description

本発明は、判定装置、管理システムおよび判定方法に関する。
従来、タクシーの周囲を撮影した画像情報からタクシーを拾うための特定のジェスチャーを行う人物を検出する技術がある。たとえば、かかる技術では、自車両に乗客がいる場合には、空車である他のタクシーに対して配車要求を行うことが開示されている(たとえば、特許文献1参照)。
特開2018-180987号公報
しかしながら、従来技術では、周辺状況については考慮されておらず、対象者によるタクシーの乗車意志を精度よく判定するうえで改善の余地があった。たとえば、従来技術では、実際には歩行者が横断歩道を渡るために行った挙手動作を特定のジェスチャーとして検出するなど、誤検出してしまう恐れがあった。
本発明は、上記に鑑みてなされたものであって、対象者によるタクシーの乗車意志を精度よく判定することができる判定装置、管理システムおよび判定方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る判定装置は、撮影された画像情報を取得し、前記画像情報から対象ジェスチャーを行う対象者を検出し、前記対象ジェスチャーを行う前記対象者の周辺状況を認識し、認識した前記周辺状況に基づき、前記対象者による前記対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する制御部を備える。
本発明によれば、対象者によるタクシーの乗車意志を精度よく判定することができる。
図1は、管理システムの概要を示す図である。 図2は、判定方法の概要を示す図である。 図3は、判定装置のブロック図である。 図4は、判定基準記憶部の一例を示す図である。 図5は、管理装置のブロック図である。 図6は、乗客情報データベースの一例を示す図である。 図7は、集計情報データベースの一例を示す図である。 図8は、判定装置が実行する処理手順を示すフローチャートである。 図9は、管理装置が実行する処理手順を示すフローチャートである。 図10は、管理装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する判定装置、管理システムおよび判定方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。
まず、図1および図2を用いて、実施形態に係る判定装置、管理システムおよび判定方法の概要について説明する。図1は、管理システムの概要を示す図である。図2は、判定方法の概要を示す図である。
図1に示すように、実施形態に係る管理システムSは、タクシーの配車システムである。図1に示すように、管理システムSは、複数の判定装置50と、管理装置100とを有する。
判定装置50は、たとえば、通信機能を有するドライブレコーダであり、一般車両C1~Cn(以下、一般車両Cとも記載)や、タクシー車両T1~Tn(以下、タクシー車両Tとも記載)に搭載される。なお、判定装置50は、ドライブレコーダあるいは車両の周囲を撮影するカメラシステムと連携し、ドライブレコーダやカメラシステムによって撮影された画像情報に基づいて後述する判定処理を行うようにしてもよい。また、判定装置50は、一般車両Cやタクシー車両Tなどの車両に搭載される場合に限定されず、たとえば、管理装置100等の外部装置が機能の一部またはすべてを担うことにしてもよい。この場合、外部装置となる判定装置50は、たとえば、各車両から取得した画像情報に基づき、後述する判定処理を行うことになる。また、画像情報は、車両で撮影されたものに限定されるものではなく、たとえば、スマートフォン、防犯カメラなどによって撮影されたものであってもよい。
判定装置50は、自車両の周囲を撮影した画像情報から、タクシーを探している人物(以下、見込み客とも記載する)を検出する装置である。後述するように、判定装置50は、画像情報に基づき、見込み客に特徴的な対象ジェスチャーを検出することで、見込み客を検出する。
管理装置100は、たとえば、各タクシー車両Tの稼働状況や位置情報を管理する管理装置である。たとえば、管理装置100は、各判定装置50から通知される情報に基づき、タクシー車両Tに対して配車指示を行う。
図1に示すように、一般車両Cおよびタクシー車両Tに搭載される判定装置50が見込み客を検出した場合、管理装置100は、当該見込み客の位置情報等に関する乗客情報を受信する(ステップS1)。また、管理装置100は、タクシー車両Tに搭載される判定装置50からは各乗客情報に加え、各タクシー車両Tの稼働情報を受信する(ステップS2)。
そして、管理装置100は、各判定装置50から受信した乗客情報および稼働情報に基づき、配車指示を出すタクシー車両Tを選択する選択処理を行い(ステップS3)、選択したタクシー車両Tに対して配車指示を行う(ステップS4)。
たとえば、一般車両Cで見込み客を検出した場合、あるいは、乗客を既に乗せている(すなわち、賃走中)タクシー車両Tで見込み客を検出した場合、管理装置100は、当該見込み客に対して空車のタクシー車両Tを手配することになる。
これにより、実施形態に係る管理システムSでは、タクシーの需要に対して素早くタクシーを供給することができる。
ところで、上述したように、判定装置50では、タクシーへの乗車を求める対象ジェスチャーを行う対象者を検出する。しかしながら、対象者による対象ジェスチャーが、タクシーへの乗車を求めるために行ったか否かについては、周辺状況を考慮する必要がある。
具体的な例を挙げると、たとえば、横断歩道を歩行するために行った挙手動作を対象ジェスチャーとして検出することも想定される。このように、単にジェスチャーに基づき、見込み客を検出すると、タクシーへの乗車意志を適切に判断することが困難である。
そこで、実施形態に係る判定装置50では、対象ジェスチャーを行う対象者の周辺状況を考慮して、対象者によるタクシーの乗車意志を判定することとした。
具体的には、図2に示すように、実施形態に係る判定装置50は、まず、画像情報Iに対する画像解析によって、対象ジェスチャーを行う対象者Gを検出する(ステップS11)。たとえば、対象ジェスチャーは、タクシーへの乗車を求める際に行われる特徴的なジェスチャーである。
たとえば、判定装置50は、画像情報Iから歩道、路側帯、路肩などといった歩行者が存在する対象領域を検出し、当該対象領域に存在する人物およびその体の向きを検出する。
つづいて、判定装置50は、対象領域に存在する人物のうち、車道側を向いている人物を対象ジェスチャーの検出対象者として選択する。そして、判定装置50は、検出対象者による対象ジェスチャーを検出した場合に、当該検出対象者について対象ジェスチャーを行う対象者Gとして検出する。
このように、判定装置50では、対象領域や人物の体の向きによって対象ジェスチャーの検出対象者を絞りこむことで、対象者Gを精度よく検出することができる。仮に、画像情報Iに含まれるすべての人物を対象ジェスチャーの検出対象者とする場合、たとえば、タクシーに何ら関与しない人物の動作を対象ジェスチャーとして誤検出する恐れがある。
また、判定装置50は、対象領域や人物の体の向きによって対象ジェスチャーの検出対象者を絞りこむことで、画像情報Iに含まれるすべての人物を対象ジェスチャーの検出対象者とする場合に比べて、対象ジェスチャーの検出処理に関する処理負荷を削減することも可能である。
その後、判定装置50は、ステップS11の処理において対象者Gを検出すると、対象者Gの周辺状況を認識する(ステップS12)。たとえば、判定装置50は、画像情報Iや地図情報に基づき、対象者Gの周辺に存在するタクシーの有無、あるいは、横断歩道の有無を周辺状況として認識する。
そして、判定装置50は、ステップS12において認識した周辺状況に基づき、ステップS11にて検出した対象者Gの対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する(ステップS13)。
たとえば、判定装置50は、対象者Gの周辺にタクシーが存在する場合、あるいは、自車両がタクシー車両Tである場合、対象者Gによる対象ジェスチャーは当該タクシーへの乗車を求めるジェスチャーである確度が高いと判定する。
また、判定装置50は、対象者Gの周辺に横断歩道が存在する場合、対象者Gによる対象ジェスチャーが横断歩道を渡るためのジェスチャーであるとし、タクシーを拾うためのジェスチャーである確度が低いと判定する。
このように、判定装置50は、周辺状況を認識したうえで、当該周辺状況を考慮して対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する。そして、判定装置50では、判定した確度が所定値を超える場合に、対象者Gがタクシーへ乗車する乗車意思があると判定し、判定した確度が所定値以下であれば、対象者Gがタクシーへ乗車する乗車意思がないと判定する。
つまり、判定装置50は、周辺状況に応じて、対象者Gによる対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定することによって、対象者Gによるタクシーへの乗車意志を精度よく判定することができる。
また、実施形態に係る判定装置50は、たとえば、ドライブレコーダであるため、図1に示したようにタクシー車両Tのみならず、一般車両Cにも搭載される。つまり、判定装置50を一般車両Cへ搭載することによって、見込み客をより効率的に探索することができる。
次に、図3を用いて、実施形態に係る判定装置50の構成例について説明する。図3は、判定装置50のブロック図である。図3に示すように、判定装置50は、通信部51と、撮像部52と、制御部53と、記憶部54とを備える。
通信部51は、たとえば、例えばNIC(Network Interface Card)等によって実現される。通信部51は、所定の通信ネットワークに双方向通信可能に接続され、管理装置100との間で情報の送受信を行う。
撮像部52は、各種撮像素子を備え、たとえば、自車両の前方を撮像する。なお、撮像部52は、自車両の周囲を撮像する構成であってもよい。
記憶部54は、たとえば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される記憶部である。図3に示すように、記憶部54は、画像情報記憶部54a、モデル情報記憶部54b、地図情報記憶部54c、周辺状況記憶部54d、判定基準記憶部54eおよび自車両情報記憶部54fを有する。
画像情報記憶部54aは、撮像部52によって撮像された画像情報を記憶する。モデル情報記憶部54bは、モデル情報を記憶する。ここで、モデル情報は、画像情報から歩道、路側帯、路肩など人物を検出するための対象領域を検出するための対象領域検出モデル、人物の体の向きを検出するための体向き検出モデル、画像情報からタクシーを停車させるための対象ジェスチャーを検出するためのジェスチャー検出モデルに関する情報等が含まれる。
ここで、対象ジェスチャーは、タクシーへの乗車を求める(タクシーを停車させるための)特徴的なジェスチャーであり、一例として、片手を上げる、あるいは、上げた手を振るなどといったジェスチャーがある。ジェスチャー検出モデルは、これらの対象ジェスチャーに関する画像(あるいは映像)を基に機械学習によって生成される。なお、たとえば、対象ジェスチャーは、地域などによって異なる場合もあるので、ジェスチャー検出モデルについては、地域別に生成し、画像情報が撮影された位置に応じて適宜使い分けることが好ましい。
また、モデル情報記憶部54bには、周辺状況を認識するためのモデル情報が記憶される。ここでの周辺状況を認識するためのモデル情報として、たとえば、画像情報からタクシーを検知するためのモデルに関する情報が挙げられる。
その他、モデル情報記憶部54bには、対象者G(図2参照)の属性を識別するためのモデルに関する情報を記憶しておくことにしてもよい。ここで、属性には、たとえば、対象者Gの性別、年齢、服装が含まれる。また、モデル情報記憶部54bには、たとえば、対象者Gの持ち物の有無や、持ち物の種別を識別するモデルを格納しておくことにしてもよい。
地図情報記憶部54cは、地図情報を記憶する。ここでの地図情報は、たとえば、道路地図に関する情報である。たとえば、地図情報には、横断歩道の位置に関する情報、周辺施設に関する情報などが含まれる。なお、判定装置50は、地図情報については、クラウドシステムなどから適宜取得するようにしてもよい。
周辺状況記憶部54dは、対象者Gの周辺状況を記憶する記憶部である。判定基準記憶部54eは、判定基準を記憶する。ここで、判定基準とは、対象者Gによる対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する際の基準である。
図4は、確度に関する判定基準の一例を示す図である。図4に示すように、たとえば、判定基準は、周辺状況因子と、属性因子とに大別される。そして、判定基準記憶部54eには、基準ID、判定情報、係数などといった項目を互いに対応付けて記憶する。
基準IDは、各判定基準を識別するための識別子であり、判定情報は、対応する基準IDによって識別される判定基準の判定内容に関する情報である。また、係数は、対応する基準IDによって識別される判定基準に係る係数である。
図4の例では、周辺状況因子として、「(対象者Gの)周辺(たとえば、周囲5m以内)に横断歩道あり」や「(対象者Gの)周辺(たとえば、周囲20m以内)にタクシーあり」などといった判定情報が含まれる場合を示す。たとえば、対象者Gの周辺に横断歩道がある場合、対象者Gによる対象ジェスチャーが横断歩道を渡るために取ったジェスチャーであることを考慮して、たとえば、係数α11<1となる。すなわち、係数α11は、確度が低くなるような値が設定される。
一方、たとえば、対象者Gの周辺にタクシーが走行している場合には、対象者Gによる対象ジェスチャーは当該タクシーを拾うためのジェスチャーである可能性が高く、たとえば、係数α12>1となる。すなわち、係数α12は、確度が高くなるような値が設定される。
なお、その他の周辺状況因子として、たとえば、特定の施設の有無が挙げられる。ここで、特定の施設とは、たとえば、送迎が行われる施設である。より具体的な例を挙げると、塾、スイミングスクールなどの習い事の送迎を自家用車で行う場合、対応する施設周辺においては、自家用車に気付いてもらうために歩行者が対象ジェスチャーを行うケースがある。
このようなケースにおいては、対象ジェスチャーは、自家用車を停車させるために行われるジェスチャーであり、タクシー車両Tを拾うためのジェスチャーである可能性は低くなる。そのため、たとえば、特定の施設が周辺に存在する場合には、係数を低く設定するようにしてもよい。
また、図4の例では、属性因子として、「(対象者Gの)荷物あり」や「(対象者Gが)子供でない」などいった判定情報が含まれる場合を示す。たとえば、対象者Gがキャリーバックなどといった荷物を持っている場合には、荷物を持っていない場合に比べ、タクシーの利用確率が高いことが想定され、係数β11>1となる。
また、たとえば、対象者Gが子供である場合(特に周囲に大人がいない場合)には、対象者Gがタクシーを一人で利用することは稀であるので、係数β12<1となる。
なお、その他、たとえば、天候や対象者Gの位置情報に応じた確度に関する係数を設定するようにしてもよく、周辺の交通量に応じた確度に関する係数を設定するようにしてもよい。
たとえば、天候が雨、雪などといった気象条件を満たす場合や、気温が所定値(たとえば、10度)以下あるいは所定値(たとえば、30度)以上などといった気象条件を満たす場合には、歩行による移動が困難となるので、通常に比べて、高い係数を設定するようにしてもよい。
また、たとえば、位置情報に応じて係数を設定する場合には、たとえば、過去のタクシーの履歴を用いて、タクシーが頻繁に拾われている位置においては、タクシーの利用頻度が少ない位置に比べて、高い係数を設定するようにしてもよい。より具体的な例を挙げると、たとえば、オフィス街や駅周辺など、タクシーの利用客が一定数見込まれるエリアについては、相対的に高い係数を設定するようにしてもよい。なお、この場合には、たとえば、時間帯によって動的に係数を設定するようにしてもよい。たとえば、タクシーの利用頻度が高い時間帯においては、利用頻度が低い時間帯に比べて高い係数を設定するようにしてもよい。
また、たとえば、交通量が所定値を超えるエリアあるいは通りにおいては、高い係数を設定するようにしてもよい。これは、たとえば、交通量が多いエリアでは、タクシーが直ぐ見つかることを前提として、タクシーが周囲にいない状況であっても、対象者Gが対象ジェスチャーを予め取っていることを想定したものである。
図3の説明に戻り、自車両情報記憶部54fについて説明する。自車両情報記憶部54fは、自車両情報を記憶する。ここで、自車両情報は、たとえば、判定装置50が搭載される車両に関する情報である。
たとえば、自車両情報は、自車両が一般車両Cまたはタクシー車両T(図1参照)のどちらであるかに関する自車両の属性に関する情報である。また、自車両がタクシー車両Tである場合、自車両情報には、タクシー車両Tの稼働状況に関する稼働情報が含まれる。なお、稼働情報は、賃走中、予約中、空車中などいったタクシー車両Tの稼働に関する情報である。たとえば、判定装置50は、稼働情報に関し、図示しないタクシーメータから取得するようにしてもよい。
制御部53は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって機能する。
制御部53は、取得部53a、検出部53b、認識部53c、判定部53dおよび送信部53eを備える。取得部53aは、撮像部52から画像情報を取得し、画像情報記憶部54aに格納する。また、取得部53aは、図示しない位置検出部(GPSモジュール)から自車両の位置情報を取得する。
また、取得部53aは、図示しないGセンサから自車両に生じる加速度に関する加速度情報を取得する。たとえば、制御部53は、取得部53aが取得した加速度情報が示す加速度が所定値を超える場合、画像情報記憶部54aに記憶された画像情報を保護する。
検出部53bは、画像情報からタクシーを停車させる対象ジェスチャーを行う対象者G(図2参照)を検出する。検出部53bは、画像情報記憶部54aから画像情報を取得し、モデル情報記憶部54bに記憶されたモデル情報を用いて、対象者Gを検出する。
まず、検出部53bは、対象領域検出モデルを用いて、画像情報から対象領域を検出する。つづいて、検出部53bは、体向き検出モデルを用いて、対象領域から車道を向いている人物を対象ジェスチャーの検出対象者として検出する。
つづいて、検出部53bは、ジェスチャー検出モデルを用いて、検出対象者を対象として、対象ジェスチャーを検出する。そして、検出部53bは、これら一連の処理によって、対象ジェスチャーを検出した場合に、当該対象ジェスチャーを行った人物を対象者Gとして検出する。
検出部53bは、対象者Gを検出すると、たとえば、対象者Gの位置情報を算出し、算出した位置情報を含む対象者情報を認識部53cへ渡す。
認識部53cは、検出部53bによって検出された対象者Gの周辺状況を認識する。たとえば、認識部53cは、周辺状況として、タクシーの有無や、横断歩道の有無を認識する。
たとえば、認識部53cは、撮像部52から受け取った画像情報に対する機械学習を用いた画像処理によって、タクシーの有無を認識し、地図情報記憶部54cに記憶された地図情報を参照し、対象者G周辺の横断歩道の有無を認識する。
また、この際、自車両情報記憶部54fに記憶された自車両情報に基づき、自車両がタクシー車両Tである場合、認識部53cは、自車両を対象者Gの周囲に存在するタクシーとして認識するようにしてもよい。
また、認識部53cは、たとえば、画像情報に対する各種画像処理によって、対象者Gの属性因子(図4参照)を認識する。たとえば、認識部53cは、対象者Gの荷物の有無や、対象者Gが成人(あるいは子供)か否かなどといった属性因子を認識する。
そして、認識部53cは、これらの認識処理を終えると、認識結果に関する情報を判定部53dへ渡す。
判定部53dは、認識部53cによって認識された周辺状況に基づき、検出部53bによって検出された対象者Gが行った対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する。
たとえば、判定部53dは、判定基準記憶部54eに記憶された判定基準を参照し、認識部53cから受け取った認識結果に関する情報に基づいて、対象者Gが行った対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する。たとえば、判定部53dは、認識結果に関する情報と判定基準とを照合し、判定情報に応じた係数を乗算することで、確度を判定する。
そして、判定部53dは、判定した確度が所定値を超える場合に、対象者Gがタクシーに乗る乗車意志を有していると判定し、当該確度が所定値以下である場合、対象者Gがタクシーに乗る乗車意志を有していないと判定する。
その後、判定部53dは、乗車意志を有していると判定した対象者G、すなわち、見込み客に関する情報を送信部53eに渡す。なお、判定部53dは、確度について2値で判定するようにしてもよい。たとえば、判定部53dは、対象者Gの周辺に横断歩道がある場合、対象者Gが取った対象ジェスチャーは横断歩道を渡るためのジェスチャーであるとし、確度を「0」として判定し、周辺にタクシーが走行している場合、対象者Gが取った対象ジェスチャーは当該タクシーへの乗車を求めるジェスチャーとして、確度を「1」と判定するようにしてもよい。
送信部53eは、判定部53dから受け取った見込み客に関する情報を乗員情報として管理装置100へ送信する。たとえば、送信部53eが送信する乗員情報には、見込み客である対象者Gの位置情報や、対象者Gに関する画像情報および対象者Gの周辺情報等が含まれる。
次に、図5を用いて、実施形態に係る管理装置100の構成例について説明する。図5は、管理装置100のブロック図である。管理装置100は、通信部110と、制御部120と、記憶部130とを備える。
通信部110は、たとえば、例えばNIC(Network Interface Card)等によって実現される。通信部110は、所定の通信ネットワークに双方向通信可能に接続され、判定装置50との間で情報の送受信を行う。
記憶部130は、たとえば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される記憶部である。図5に示すように、記憶部130は、乗客情報データベース130a、稼働情報データベース130bおよび集計情報データベース130cを有する。
乗客情報データベース130aは、各判定装置50から送信される乗客情報を格納するデータベースである。図6は、乗客情報データベース130aの一例を示す図である。図6に示すように、乗客情報データベース130aは、たとえば、日時、車両IDおよびエリア情報といった項目の情報を互いに対応付けて記憶する。
日時は、判定装置50が見込み客を検出した日時を示す。車両IDは、判定装置50が搭載される各車両を識別するための識別子である。エリア情報は、判定装置50がタクシーを探している対象者Gを検出したエリア(位置)に関する情報である。
図6の例では、日時「T11」において、車両ID「C01」で識別される車両に搭載された判定装置50によって、エリア情報「AR1」で示されるエリアで、見込み客である対象者Gが検出されたことを示す。
図5の説明に戻り、稼働情報データベース130bについて説明する。稼働情報データベース130bは、各タクシー車両T(図1参照)の稼働情報を格納するデータベースである。たとえば、稼働情報データベース130bには、各タクシー車両Tの位置情報および賃走中、予約中、空車中などいった情報を格納する。
集計情報データベース130cは、乗客情報を集計した集計情報を格納するデータベースである。図7は、集計情報データベース130cの一例を示す図である。図7に示すように、たとえば、集計情報データベース130cは、エリア、日時、需要数などといった項目を互いに対応付けて記憶する。
エリアおよび日時は、それぞれ集計対象となるエリアおよび日時を示し、需要数は、対応するエリアおよび日時におけるタクシーの需要数を示す。すなわち、図7の例では、「AR11」にて識別されるエリアにおいて、日時「T11」におけるタクシーの需要数が「PA11」であったことを示す。
図5の説明に戻り、制御部120について説明する。制御部120は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって機能する。
図5に示すように、制御部120は、取得部120a、選択部120b、集計部120dおよび生成部120eを備える。取得部120aは、各車両に搭載された判定装置50から送信される乗客情報を取得し、さらに、タクシー車両Tに搭載された判定装置50から稼働情報を取得する。
また、取得部120aは、乗客情報の取得毎に、取得した乗客情報を乗客情報データベース130aに格納し、稼働情報の取得毎に、取得した稼働情報を稼働情報データベース130bに格納する。
選択部120bは、取得部120aによって取得された乗客情報および稼働情報に基づいて、配車指示を出すタクシー車両Tを選択する。たとえば、選択部120bは、見込み客の位置情報およびタクシー車両Tの位置情報に基づき、配車指示を出すタクシー車両Tの絞り込みを行う。
つづいて、選択部120bは、絞り込み後のタクシー車両Tの稼働情報を参照し、稼働状況が見込み客に最も早く到達可能な空車中のタクシー車両Tを選択する。この際、選択部120bは、たとえば、乗客情報を送信した判定装置50が搭載される車両がタクシー車両Tであり、かつ、空車である場合には、当該タクシー車両Tを選択するようにしてもよい。そして、選択部120bは、選択したタクシー車両Tに対して配車指示を行う。
集計部120cは、乗客情報を集計し、集計結果を集計情報データベース130cに格納する。たとえば、集計部120cは、所定の周期、あるいは、管理者による指示などに任意にタイミングで、乗客情報データベース130aに格納された乗客情報を集計する。
たとえば、集計部120cは、たとえば、図7に示したように、エリア/日時単位で各エリアにおける各日時のタクシーの需要数を集計する。そして、集計部120cは、集計の結果、たとえば、エリアにおける現在の需要数が所定値を超えるか否かを判定し、需要数が所定値を超えるエリアがあれば、当該エリアに関する情報を選択部120bに対して渡す。
この場合、選択部120bは、集計部120cからエリアに関する情報を受け取ると、対応するエリアに対して配車指示を出すタクシー車両Tを選択し、配車指示を出す。これにより、効率的に配車指示を出すことができる。
生成部120dは、集計部120cによる集計結果に基づいて、予測情報を生成する。ここで、予測情報とは、エリア/日時単位で予測されるタクシーの需要に関する情報であり、たとえば、エリア/日時単位のタクシーに対する需要発生確率が含まれる。
たとえば、生成部120dは、集計部120cによる集計結果に対して、平均移動法などといった各種統計処理を行うことで、予測情報を生成する。生成部120dによって生成された予測情報は、たとえば、タクシー車両Tのドライバーや、各タクシー車両Tの配車計画を生成する配車計画システム(不図示)へ通知される。
これにより、たとえば、各タクシー車両Tのドライバーは、予測情報に基づき、効率よく営業を行うことができる。
次に、図8を用いて、実施形態に係る判定装置50が実行する処理手順について説明する。図8は、判定装置50が実行する処理手順を示すフローチャートである。
図8に示すように、判定装置50は、画像情報の取得を開始すると(ステップS101)、対象領域である歩道領域の人物および体の向きを検出する(ステップS102)。つづいて、判定装置50は、ステップS102の処理結果、条件を満たす該当者(検出対象者)が存在するか否かを判定する(ステップS103)。
判定装置50は、該当者が存在すると判定した場合(ステップS103,Yes)、該当者による対象ジェスチャーを検出する(ステップS104)。つづいて、判定装置50は、検出対象者のうち、対象ジェスチャーを行っている該当者が存在するか否かを判定する(ステップS105)。
判定装置50は、ステップS105の判定において、該当者ありと判定した場合(ステップS105,Yes)、該当者の周辺状況を認識し(ステップS106)、認識結果に基づいて対象者Gによる対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する(ステップS107)。
そして、判定装置50は、処理を終了する。また、判定装置50は、ステップS103およびステップS105の判定において、それぞれ該当者がいないと判定した場合には(ステップS103/ステップS105,No)、処理を終了する。
次に、図9および図10を用いて、管理装置100が実行する処理手順について説明する。図9および図10は、管理装置100が実行する処理手順を示すフローチャートである。
まず、図9を用いて、配車指示に関する処理手順について説明する。図9に示すように、管理装置100は、各車両(一般車両Cおよびタクシー車両T)に搭載された判定装置50から通知情報(乗員情報および/または稼働情報)を受信する(ステップS201)。
つづいて、管理装置100は、通知情報の送信元がタクシーであるか否かを判定し(ステップS202)、送信元がタクシーであると判定した場合(ステップS202,Yes)、当該タクシーに乗客が乗車中か否かを判定する(ステップS203)。
また、管理装置100は、ステップS202の判定において、送信元が一般車両Cであると判定した場合(ステップS202,No)、ステップS204の処理へ進む。管理装置100は、ステップS203の判定において、タクシーに乗客が乗車中であると判定した場合(ステップS203,Yes)、周辺の空車タクシーを選択する(ステップS204)。
その後、管理装置100は、ステップS204にて選択した空車タクシーに対して配車指示を出す(ステップS205)。そして、管理装置100は、処理を終了する。また、管理装置100は、ステップS203の判定において、送信元のタクシーが空車タクシーである場合には(ステップS203,No)、当該タクシーに対して見込み客を乗車させるようにピックアップ指示を出す(ステップS206)。
次に、図10を用いて、管理装置100による集計処理について説明する。図10に示すように、管理装置100は、エリア毎に日時毎の乗員情報を集計する(ステップS211)。
つづいて、管理装置100は、直近にタクシーの需要が増加している需要増加エリアが存在するか否かを判定する(ステップS212)。管理装置100は、直近に需要増加エリアがあると判定した場合(ステップS212,Yes)、当該エリアに向かうようにタクシーに対して配車指示を行う(ステップS213)。
また、管理装置100は、ステップS212の判定において、直近に需要増加エリアがないと判定した場合には(ステップS212,No)、ステップS214の処理へ進み、エリア毎に日時毎の需要発生確率を算出する(ステップS214)。
その後、管理装置100は、需要発生確率を含む予測情報を配車計画システムへ出力し(ステップS215)、処理を終了する。
上述したように、実施形態に係る判定装置50は、撮影された画像情報を取得し、画像情報から対象ジェスチャーを行う対象者を検出し、対象ジェスチャーを行う前記対象者の周辺状況を認識し、認識した周辺状況に基づき、対象者による対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する制御部を備える。したがって、実施形態に係る判定装置50によれば、対象者Gによるタクシーの乗車意志を精度よく判定することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
50 判定装置
51 通信部
52 撮像部
53 制御部
53a 取得部
53b 検出部
53c 認識部
53d 判定部
53e 送信部
54a 画像情報記憶部
54b モデル情報記憶部
54c 地図情報記憶部
54d 周辺状況記憶部
54e 判定基準記憶部
54f 自車両情報記憶部
100 管理装置
120a 取得部
120b 選択部
120c 集計部
120d 生成部
120e 生成部
130a 乗客情報データベース
130b 稼働情報データベース
130c 集計情報データベース

Claims (10)

  1. 撮影された画像情報を取得し、
    前記画像情報から対象ジェスチャーを行う対象者を検出し、
    前記対象ジェスチャーを行う前記対象者の周辺状況を認識し、
    認識した前記周辺状況に基づき、前記対象者による前記対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する制御部を備える、
    判定装置。
  2. 前記制御部は、
    前記周辺状況として、前記対象者の周辺に存在するタクシーを認識し、
    前記タクシーの有無に応じて、前記確度を判定する、
    請求項1に記載の判定装置。
  3. 前記制御部は、
    前記周辺状況として、前記対象者の周辺に存在する横断歩道を認識し、
    前記横断歩道の有無に応じて、前記確度を判定する、
    請求項1に記載の判定装置。
  4. 前記制御部は、
    前記周辺状況として、前記対象者の周辺に存在する特定の施設を認識し、
    前記特定の施設の有無に応じて、前記確度を判定する、
    請求項1に記載の判定装置。
  5. 前記制御部は、
    前記画像情報から前記対象者の属性を認識し、
    前記属性に応じて、前記確度を判定する、
    請求項1に記載の判定装置。
  6. 前記制御部は、
    前記画像情報から前記対象者の持ち物を認識し、
    前記持ち物に応じて、前記確度を判定する、
    請求項1に記載の判定装置。
  7. 前記制御部は、
    判定した前記確度が所定値を超える場合に、前記対象者の存在をタクシーの配車システムへ通知する、
    請求項1に記載の判定装置。
  8. 前記制御部は、
    車両で撮影された前記画像情報を取得し、当該車両がタクシーか否かに応じて、前記確度を判定する、
    請求項1に記載の判定装置。
  9. 請求項1に記載の判定装置と、
    前記判定装置によって判定された前記確度が所定値を超える前記対象者に関する情報を集約して管理する管理装置と
    を備える、管理システム。
  10. コンピュータが実行する判定方法であって、
    撮影された画像情報を取得し、
    前記画像情報から対象ジェスチャーを行う対象者を検出し、
    前記対象ジェスチャーを行う前記対象者の周辺状況を認識し、
    認識した前記周辺状況に基づき、前記対象者による前記対象ジェスチャーがタクシーへの乗車を求めるジェスチャーである確度を判定する、
    判定方法。
JP2022080385A 2022-05-16 2022-05-16 判定装置、管理システムおよび判定方法 Pending JP2023168967A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022080385A JP2023168967A (ja) 2022-05-16 2022-05-16 判定装置、管理システムおよび判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022080385A JP2023168967A (ja) 2022-05-16 2022-05-16 判定装置、管理システムおよび判定方法

Publications (1)

Publication Number Publication Date
JP2023168967A true JP2023168967A (ja) 2023-11-29

Family

ID=88923430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022080385A Pending JP2023168967A (ja) 2022-05-16 2022-05-16 判定装置、管理システムおよび判定方法

Country Status (1)

Country Link
JP (1) JP2023168967A (ja)

Similar Documents

Publication Publication Date Title
US10552687B2 (en) Visual monitoring of queues using auxillary devices
US20200209011A1 (en) Vehicle system, autonomous vehicle, vehicle control method, and program
US9483944B2 (en) Prediction of free parking spaces in a parking area
US11776401B2 (en) Boarding position setting method, boarding position setting device, and boarding position setting system
CN109311622B (zh) 电梯系统以及轿厢呼叫估计方法
US20190042857A1 (en) Information processing system and information processing method
US20210081906A1 (en) Information notification apparatus
CN112997211B (zh) 数据分发系统、传感器装置和服务器
US11625706B2 (en) System and method for location-based passive payments
KR102289181B1 (ko) 영상 기반 주차 관리 시스템, 장치 및 방법
CN107111940B (zh) 交通违章管理系统和交通违章管理方法
KR102289182B1 (ko) 영상 기반 주차 관리 시스템, 장치 및 방법
CN114446056A (zh) 车辆信息码的生成以及车辆通行控制方法、装置及设备
US20220301315A1 (en) Image processing device and image processing method
KR20210110456A (ko) 공유 차량, 공유 차량 서비스 제공 장치, 공유 차량 서비스 관리 서버, 공유 차량 서비스 제공 시스템, 공유 차량 서비스 제공 방법
Awaisi et al. Deep reinforcement learning approach towards a smart parking architecture
CN114677848B (zh) 感知预警系统、方法、装置及计算机程序产品
US20220215309A1 (en) Information processing apparatus, information processing system, information processing method, and terminal apparatus
KR20130035824A (ko) Cpa 방식을 이용한 온/오프라인 통합 홍보/마케팅 시스템
JP2023168967A (ja) 判定装置、管理システムおよび判定方法
CN113508606A (zh) 根据噪声多模态数据自动确定针对兴趣点的最优运输服务位置
KR102484407B1 (ko) 인공지능을 이용한 택시 승차확인시스템
JP7448509B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR102484412B1 (ko) 인공지능을 이용한 택시 배차시스템
JP7545878B2 (ja) 駐車場管制装置、駐車場管制システム、駐車場管制プログラム及び駐車場管制方法