JP2022079320A - Getting on and off determining device and getting on and off determining method - Google Patents
Getting on and off determining device and getting on and off determining method Download PDFInfo
- Publication number
- JP2022079320A JP2022079320A JP2020190445A JP2020190445A JP2022079320A JP 2022079320 A JP2022079320 A JP 2022079320A JP 2020190445 A JP2020190445 A JP 2020190445A JP 2020190445 A JP2020190445 A JP 2020190445A JP 2022079320 A JP2022079320 A JP 2022079320A
- Authority
- JP
- Japan
- Prior art keywords
- person
- bus
- information
- terminal device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims description 14
- 210000003128 head Anatomy 0.000 description 36
- 238000010586 diagram Methods 0.000 description 25
- 230000006854 communication Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Seats For Vehicles (AREA)
- Passenger Equipment (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、乗降判定装置および乗降判定方法に関する。 The present invention relates to a boarding / alighting determination device and a boarding / alighting determination method.
従来、例えばバスなどの乗り物において、乗降した乗客の人数を算出する技術が種々提案されている(例えば、特許文献1参照)。従来技術にあっては、乗り口および降り口にそれぞれカメラが設置され、かかるカメラによって撮像された乗客の撮像画像を用いて乗客の人数(乗客数)を算出するようにしている。 Conventionally, various techniques for calculating the number of passengers getting on and off a vehicle such as a bus have been proposed (see, for example, Patent Document 1). In the prior art, cameras are installed at the entrance and the exit, respectively, and the number of passengers (number of passengers) is calculated using the images of the passengers captured by the cameras.
しかしながら、上記した撮像画像には、例えば乗り物の乗り口の外側に立っているだけで実際には乗車しない人物などが写り込むことがある。従来技術にあっては、かかる人物を乗り物に乗車する乗客として誤判定するおそれがあり、改善の余地があった。なお、乗り物の降り口側でも、実際には降車しない乗客を乗り物から降車したと誤判定することが起こりうる。 However, the above-mentioned captured image may include, for example, a person who is standing outside the entrance of the vehicle but does not actually get on the vehicle. In the prior art, there is a risk of erroneously determining such a person as a passenger riding a vehicle, and there is room for improvement. It should be noted that even on the exit side of the vehicle, it may be erroneously determined that a passenger who does not actually get off is disembarked from the vehicle.
本発明は、上記に鑑みてなされたものであって、乗り物の乗降口付近に存在する人物の乗り物に対する乗降を精度よく判定することができる乗降判定装置および乗降判定方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an boarding / alighting determination device and a boarding / alighting determination method capable of accurately determining boarding / alighting of a person existing near the boarding / alighting port of a vehicle. do.
上記課題を解決し、目的を達成するために、本発明は、乗降判定装置において、検出部と、判定部とを備える。検出部は、乗り物の乗降口付近に存在する人物の頭の位置を検出する。判定部は、前記検出部によって検出された前記人物の頭の位置に基づいて前記人物の前記乗り物に対する乗降を判定する。 In order to solve the above problems and achieve the object, the present invention includes a detection unit and a determination unit in the boarding / alighting determination device. The detection unit detects the position of the head of a person who is near the entrance / exit of the vehicle. The determination unit determines whether the person gets on and off the vehicle based on the position of the head of the person detected by the detection unit.
本発明によれば、乗り物の乗降口付近に存在する人物の乗り物に対する乗降を精度よく判定することができる。 According to the present invention, it is possible to accurately determine the boarding / alighting of a person who exists near the boarding / alighting port of a vehicle with respect to the vehicle.
以下、添付図面を参照して、本願の開示する乗降判定装置および乗降判定方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of the boarding / alighting determination device and the boarding / alighting determination method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.
<乗降判定装置による乗降判定方法の概要>
以下では先ず、実施形態に係る乗降判定装置による乗降判定方法の概要について図1を参照して説明する。図1は、実施形態に係る乗降判定方法の概要を示す図である。
<Outline of boarding / alighting judgment method by boarding / alighting judgment device>
Hereinafter, the outline of the boarding / alighting determination method by the boarding / alighting determination device according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of a boarding / alighting determination method according to an embodiment.
実施形態に係る乗降判定方法は、例えば乗り物の乗降口付近に存在する人物の乗り物に対する乗降の判定などを行うことができる。上記した乗降口は、乗り物の乗り口2aおよび降り口2bの一方あるいは両方を含むものとする。なお、以下では、乗降判定方法が、例えば乗り物の乗り口2a付近に存在する人物の乗り物に対する乗車の判定を行う場合を例に挙げて説明する。
The boarding / alighting determination method according to the embodiment can, for example, determine boarding / alighting of a person present near the boarding / alighting port of the vehicle. The above-mentioned entrance / exit shall include one or both of the
また、ここでは乗り物の一例としてバス1を挙げて説明するが、乗り物の種類はこれに限定されるものではない。すなわち、乗り物は、例えば鉄道車両や航空機、船舶などその他の種類の乗り物であってもよい。
Further, although the
図1に示すように、バス1には、バス端末装置10が搭載され、かかるバス端末装置10が乗降判定装置として機能する。具体的に説明すると、バス端末装置10は、乗り口端末装置10aと、降り口端末装置10bとを備える。
As shown in FIG. 1, a
乗り口端末装置10aは、バス1の乗り口2aに設置される。乗り口端末装置10aは、第1カメラ11aを備える。例えば、第1カメラ11aは、バス1の乗り口2aであって、かつ、バス1の中(バス車内)に設けられる。第1カメラ11aは、乗り口2a付近に存在する人物Pの撮像画像Aを撮像する。なお、図1では、最初に撮像された人物Pを実線で示し、その後人物Pが移動した後に撮像された人物Pを破線で示している。
The
乗り口端末装置10aは、第1カメラ11aから撮像画像Aを取得し、撮像画像Aから乗り口2a付近に存在する人物Pの頭Paの位置を検出する(ステップS1)。次いで、乗り口端末装置10aは、検出された人物Pの頭Paの位置に基づいて人物Pのバス1に対する乗車を判定する(ステップS2)。これにより、乗り口端末装置10aは、人物Pのバス1に対する乗車を精度よく判定することができる。
The
詳しく説明すると、例えば人物Pがバス1の車外から車内に入って乗車する場合、バス1の乗り口2aにある段差3を上る必要があるため、人物Pの頭Paの位置は、人物Pの移動前後で相対的に上がる。そこで、本実施形態に係る乗り口端末装置10aにあっては、人物Pの頭Paの位置が、矢印Dで示すように、人物Pの移動前後において相対的に上がった場合、人物Pがバス1に乗車したと判定するようにした。
To explain in detail, for example, when the person P enters the vehicle from the outside of the
これにより、乗り口端末装置10aは、人物Pのバス1に対する乗車を精度よく判定することができる。言い換えると、乗り口端末装置10aは、例えばバス1の乗り口2aの外側に立っているだけで実際には乗車しない人物が撮像画像に写り込んだ場合であっても、人物の頭の位置は相対的に上がらないため、バス1に乗車したと判定しない。これにより、乗り口端末装置10aは、乗り口2aの外側に立っているだけの人物をバス1に乗車する乗客として誤判定してしまうことを抑制することができる。
As a result, the
なお、本実施形態にあっては、乗り口端末装置10aによって人物Pがバス1に乗車したと判定した場合、人物Pは乗車者となることから、かかる乗車者(人物P)が撮像された撮像画像を乗車者撮像画像として、乗客数の算出などの処理に利用する。
In the present embodiment, when it is determined by the
なお、降り口端末装置10bは、バス1の降り口2bに設置される。降り口端末装置10bは、第2カメラ11bを備える。例えば、第2カメラ11bは、バス1の降り口2bであって、かつ、バス1の中(バス車内)に設けられる。
The
<情報処理システムの構成>
次に、実施形態に係るバス端末装置(乗降判定装置)10を備えた情報処理システムの構成について、図2を用いて説明する。図2は、バス端末装置10を備えた情報処理システム100の構成例を示すブロック図である。
<Information processing system configuration>
Next, the configuration of the information processing system including the bus terminal device (boarding / alighting determination device) 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of an
図2に示すように、情報処理システム100は、上記したバス端末装置10と、管理サーバ200と、バス事業者端末装置300と、ユーザ端末装置400とを含み、これらはインターネット網などの通信ネットワークNを介して通信可能に接続される。
As shown in FIG. 2, the
バス端末装置10は、上記したように、乗り口端末装置10aおよび降り口端末装置10bを備える。乗り口端末装置10aと降り口端末装置10bとは、例えばWi-Fi(登録商標)などの近距離無線通信を介して通信可能に接続されるが、これに限られず、近距離無線通信に加えて、あるいは代えて通信ネットワークNなどを介して通信可能に接続されてもよい。なお、乗り口端末装置10aの詳細な構成については、図3等を用いて後述する。また、降り口端末装置10bの詳細な構成については、図6等を用いて後述する。
As described above, the
管理サーバ200は、バス端末装置10から送信される乗車者情報や降車者情報(いずれも後述)、バス1の乗客数の情報を含む乗客情報などを管理するサーバ装置である。管理サーバ200は、乗客情報などをバス事業者端末装置300へ提供することができる。また、管理サーバ200は、バス1の乗客数の情報に基づいてバス1の混雑度を算出し、算出された混雑度を示す混雑度情報をユーザ端末装置400へ提供することができる。なお、管理サーバ200の詳細な構成については、図8を用いて後述する。
The
バス事業者端末装置300は、バス1を運行するバス事業者が使用する端末装置である。バス事業者端末装置300としては、例えばPC(Personal Computer)、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。かかるバス事業者端末装置300には、管理サーバ200から乗客情報などが送信されて表示される。これにより、バス事業者は、例えば乗客情報などに応じたバス1の運行計画を立てることが可能になる。
The bus
ユーザ端末装置400は、バス1を利用するユーザ、正確にはバス1をこれから利用するユーザが使用する端末装置である。なお、ユーザ端末装置400としては、例えばスマートフォンやタブレット端末、PCなどを用いることができるが、これに限定されるものではない。かかるユーザ端末装置400には、管理サーバ200からバス1の混雑度情報が送信されて表示される。これにより、ユーザは、例えばバス1の混雑度を乗車前に確認することが可能になる。なお、図2では、図示の簡略化のため、ユーザ端末装置400を2つ示したが、これに限られず、1つであっても3つ以上であってもよい。
The
<乗り口端末装置の構成>
次いで、乗り口端末装置10aの構成について図3等を参照して説明する。図3は、乗り口端末装置10aの構成例を示すブロック図である。なお、図3を含む各ブロック図では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
<Configuration of entrance terminal device>
Next, the configuration of the
換言すれば、図3等のブロック図に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in the block diagram of FIG. 3 or the like is a functional concept and does not necessarily have to be physically configured as shown in the figure. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or part of it is functionally or physically distributed in any unit according to various loads and usage conditions. -It is possible to integrate and configure.
図3に示すように、乗り口端末装置10aは、第1カメラ11aと、測位部12aと、制御部20aと、記憶部30aとを備える。なお、乗り口端末装置10aとしては、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。
As shown in FIG. 3, the
第1カメラ11aは、例えばレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えるカメラである。第1カメラ11aは、バス1の乗り口2a(図1参照)であって、かつ、バス1の中(バス車内)に設けられる。詳しくは、第1カメラ11aは、少なくとも乗り口2aから乗車する乗車者(乗客)の顔を含む範囲をバス車内から撮像可能な位置に設けられる。第1カメラ11aは、乗り口2a付近に存在する人物(乗車者を含む)の撮像画像を撮像し、撮像された撮像画像を制御部20aへ出力する。
The
測位部12aは、バス1の位置情報(例えば、緯度および経度)を取得する。例えば、測位部12aは、GPS(Global Positioning System)衛星から送出される電波を受信し、受信した電波に基づいてバス1の位置情報を取得し、取得された位置情報を制御部20aへ出力する。なお、測位部12aは、バス1が停留所に停止しているときに取得されたバス1の位置情報を、バス1が停止している停留所の位置情報として出力してもよい。
The positioning unit 12a acquires the position information (for example, latitude and longitude) of the
制御部20aは、取得部21aと、検出部22aと、判定部23aと、登録部24aと、出力部25aとを備え、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポートなどを有するコンピュータや各種の回路を含む。
The control unit 20a includes an acquisition unit 21a, a
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部20aの取得部21a、検出部22a、判定部23a、登録部24aおよび出力部25aとして機能する。
The CPU of the computer functions as the acquisition unit 21a, the
また、制御部20aの取得部21a、検出部22a、判定部23a、登録部24aおよび出力部25aの少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
Further, at least a part or all of the acquisition unit 21a, the
また、記憶部30aは、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部30aには、乗車者情報31aおよび各種プログラムなどが記憶される。
Further, the storage unit 30a is a storage unit composed of a storage device such as a non-volatile memory or a data flash.
乗車者情報31aは、乗車者に関する情報である。ここで、図4を用いて、乗車者情報31aについて説明する。図4は、乗車者情報31aの一例を示す図である。図4に示すように、乗車者情報31aには、「乗車者ID」、「乗車者画像」、「特徴点」、「性別」、「年齢」、「年齢層」および「乗車した停留所」等の項目が含まれ、各項目は互いに関連付けられている。
The
「乗車者ID」は、乗車者を識別する識別情報である。「乗車者画像」は、乗車者撮像画像の情報である。乗車者撮像画像は、上記したように、乗り口端末装置10aによって、乗り口2a付近に存在する人物がバス1に乗車したと判定された場合に、かかる人物(乗車者)が写っている撮像画像である。なお、図4に示す例では、便宜上、「乗車者画像」を「画像E01」といったように抽象的な記載とするが、「画像E01」には具体的な情報が記憶されるものとする。以下、他の情報についても抽象的に記載する場合がある。
The "passenger ID" is identification information that identifies the passenger. The "passenger image" is information of the passenger captured image. As described above, the passenger image is an image of the person (passenger) when it is determined by the
「特徴点」は、乗車者撮像画像に写った乗車者の顔の特徴点情報であり、顔情報の一例である。特徴点情報には、例えば乗車者撮像画像に写った乗車者の顔における目(目頭、目尻など)、鼻や口などの特徴点の位置などが含まれるが、これに限定されるものではない。 The "feature point" is the feature point information of the occupant's face captured in the image captured by the occupant, and is an example of the face information. The feature point information includes, but is not limited to, for example, the position of the feature points such as the eyes (inner corners of eyes, outer corners of eyes, etc.), nose, mouth, etc. on the passenger's face in the image captured by the passenger. ..
「性別」は、乗車者撮像画像に写った乗車者の性別を示す情報である。「年齢」は、乗車者撮像画像に写った乗車者の年齢を示す情報であり、「年齢層」は、かかる乗車者の年齢層を示す情報である。なお、上記した性別や年齢、年齢層などの情報は、乗車者の属性情報の一例である。「乗車した停留所」は、乗車者が乗車した停留所を示す情報である。 The "gender" is information indicating the gender of the occupant in the image captured by the occupant. The "age" is information indicating the age of the passenger in the image captured by the passenger, and the "age group" is information indicating the age group of the passenger. The above-mentioned information such as gender, age, and age group is an example of the attribute information of the passenger. "Bus stop" is information indicating the bus stop on which the passenger boarded.
図4に示す例では、乗車者ID「P01」で識別される乗車者のデータは、乗車者画像が「画像E01」、特徴点が「特徴点F01」、性別が「男性」、年齢が「年齢G01」、年齢層が「大人」、乗車した停留所が「停留所H01」であることを示している。 In the example shown in FIG. 4, the passenger data identified by the passenger ID "P01" has a passenger image of "image E01", a feature point of "feature point F01", a gender of "male", and an age of "male". It indicates that "age G01", the age group is "adult", and the bus stop where you boarded is "stop H01".
図3の説明に戻ると、制御部20aの取得部21aは、第1カメラ11aから、バス1の乗り口2a付近に存在する人物(乗車者を含む)の撮像画像を取得する。例えば、取得部21aは、バス1が停留所で停止しているときに撮像画像を取得するが、取得のタイミングはこれに限定されるものではない。取得部21aは、取得された撮像画像を検出部22aへ出力する。
Returning to the description of FIG. 3, the acquisition unit 21a of the control unit 20a acquires a captured image of a person (including a passenger) existing in the vicinity of the
検出部22aは、撮像画像に基づいて、バス1の乗り口2a付近に存在する人物の頭の位置を検出する。なお、頭の位置は、任意に設定可能であり、例えば頭全体の位置、頭の中心位置、頭の上端の位置や下端の位置など頭の種々の部位に設定可能である。さらに、検出部22aは、撮像画像に基づいて、バス1の乗り口2a付近に存在する人物の顔の大きさを検出する。検出部22aは、検出された頭の位置を示す情報および顔の大きさを示す情報を判定部23aへ出力する。
The
また、検出部22aは、撮像画像に写っている人物が乗車者であった場合、撮像画像である乗車者撮像画像から乗車者の顔情報(詳しくは顔の特徴点情報)を検出する。例えば、検出部22aは、乗車者撮像画像から、目(目頭、目尻など)、鼻や口、輪郭などの特徴点を抽出し、抽出された特徴点の位置を特徴点情報として検出する。
Further, when the person in the captured image is the occupant, the
検出部22aは、乗車者撮像画像から乗車者の性別や年齢、年齢層などの属性情報を検出する。なお、特徴点情報および属性情報の検出手法は、任意に設定可能である。検出部22aは、検出された特徴点情報および属性情報を登録部24aへ出力する。
The
判定部23aは、撮像画像に写った人物のバス1に対する乗車を判定する。この乗車の判定処理について、図5Aおよび図5Bを参照しつつ説明する。図5Aおよび図5Bは、乗車の判定処理を説明するための図である。
The
なお、図5Aでは、撮像画像A1を示し、図5Bでは、撮像画像A1より後に撮像された撮像画像A2を示している。また、図5Aでは、図1と同様、最初に撮像された人物Pを実線で示し、その後人物Pが移動した後に撮像された人物Pを破線で示している。図5Bでは、図5Aにおいて破線で示されていた人物Pが、さらに移動した後に撮像された人物Pを一点鎖線あるいは二点鎖線で示している。 Note that FIG. 5A shows the captured image A1, and FIG. 5B shows the captured image A2 captured after the captured image A1. Further, in FIG. 5A, as in FIG. 1, the person P imaged first is shown by a solid line, and then the person P imaged after the person P moves is shown by a broken line. In FIG. 5B, the person P shown by the broken line in FIG. 5A shows the person P imaged after further moving by a one-dot chain line or a two-dot chain line.
図5Aに示すように、判定部23aは、検出された人物Pの頭Paの位置に基づいて人物Pのバス1に対する乗車を判定する。例えば、判定部23aは、人物Pの頭Paの位置が、矢印D1で示すように、人物Pの移動前後において相対的に上がった場合、人物Pがバス1に乗車したと判定するようにした。これにより、本実施形態にあっては、人物Pのバス1に対する乗車を精度よく判定することができることは、既に述べた通りである。
As shown in FIG. 5A, the
例えば、判定部23aは、実線で示す人物Pの移動前の頭Paの位置が、所定値以上上がって、破線で示す人物Pの移動後の頭Paの位置になった場合、人物Pがバス1に乗車したと判定してもよい。ここで、所定値は、例えばバス1が停車している路面から段差3(図1参照)までの高さに応じて設定される。これにより、人物Pが段差3を上ってバス1に乗車したことを精度よく判定することが可能になる。なお、上記では、所定値が段差3の高さに応じて設定されるようにしたが、これは例示であって限定されるものではなく、任意の値に設定されてもよい。
For example, in the
また、図5Bに示すように、判定部23aは、破線で示される人物Pのように、頭Paの位置が人物の移動前後において相対的に上がった後に、一点鎖線で示される人物Pのように、顔の大きさが人物Pの移動前後において相対的に大きくなった場合、人物Pがバス1に乗車したと判定してもよい(矢印D2参照)。
Further, as shown in FIG. 5B, the
このように、顔の大きさが人物Pの移動前後において相対的に大きくなったということは、人物Pがバス1の中に設けられた第1カメラ11aに近づき、バス1に乗車したことを示していることから、判定部23aは、人物Pのバス1に対する乗車をより精度よく判定することができる。
In this way, the fact that the size of the face became relatively large before and after the movement of the person P means that the person P approached the
なお、判定部23aは、人物Pの顔の大きさが人物Pの移動前後において相対的に大きくなった後、さらに人物Pが撮像画像A2からフェードアウトした場合に、人物Pがバス1に乗車したと判定してもよい。
In the
一方、判定部23aは、破線で示される人物Pのように、頭Paの位置が人物の移動前後において相対的に上がった後に、二点鎖線で示される人物Pのように、頭の位置が人物の移動前後において相対的に下がり、かつ、人物Pの顔の大きさが人物Pの移動前後において相対的に小さくなった場合、人物Pはバス1に乗車していないと判定してもよい(矢印D3参照)。
On the other hand, in the
これにより、バス1に乗車しない人物Pを乗車者(乗客)として誤判定してしまうことを抑制することができる。すなわち、二点鎖線で示される人物Pの動作は、例えばバス1の車内に一旦入ったものの、バス1の行先が所望する行先と違っていたなどの理由でバス1から降りるような動作である。
As a result, it is possible to prevent the person P who does not get on the
判定部23aは、かかる動作を行った人物Pについてバス1に乗車していないと判定することから、バス1の車内に一旦入ったものの、実際にはバス1に乗車しない人物Pを乗車者(乗客)として誤判定してしまうことを抑制することができる。
Since the
図3の説明を続けると、判定部23aは、判定結果を登録部24aに出力する。登録部24aは、乗り口2a付近に存在する人物がバス1に乗車したと判定された場合に、かかる人物(乗車者)が写っている撮像画像を乗車者撮像画像とする。そして、登録部24aは、乗車者撮像画像を含む各種の情報(特徴点情報や属性情報)を記憶部30aに乗車者情報31a(図4参照)として登録する。このとき、登録部24aは、測位部12aのバス1の位置情報に基づいて、乗車者撮像画像が撮像された停留所、すなわち、乗車者が乗車した停留所の情報を乗車者情報31aに付加してもよい。
Continuing the description of FIG. 3, the
出力部25aは、記憶部30aにアクセスし、乗車者情報31aを降り口端末装置10bへ出力する。これにより、本実施形態に係る乗り口端末装置10aにあっては、実際に乗車した乗車者に即した乗車者情報31a、すなわち正確な乗車者情報31aを降り口端末装置10bへ出力することができる。
The output unit 25a accesses the storage unit 30a and outputs the
なお、出力部25aは、バス1が停留所を出発してから次の停留所に到着するまでの間に出力処理を実行するが、出力のタイミングはこれに限定されるものではない。
The output unit 25a executes the output process between the time when the
<降り口端末装置の構成>
次いで、降り口端末装置10bの構成について図6等を参照して説明する。図6は、降り口端末装置10bの構成例を示すブロック図である。
<Configuration of exit terminal device>
Next, the configuration of the
図6に示すように、降り口端末装置10bは、第2カメラ11bと、測位部12bと、制御部20bと、記憶部30bとを備える。なお、降り口端末装置10bとしては、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。
As shown in FIG. 6, the
第2カメラ11bは、例えばレンズと、CCDやCMOSなどの撮像素子とを備えるカメラである。第2カメラ11bは、バス1の降り口2b(図1参照)であって、かつ、バス1の中(バス車内)に設けられる。詳しくは、第2カメラ11bは、少なくとも降り口2bから降車する降車者(乗客)の顔を含む範囲をバス車内から撮像可能な位置に設けられる。第2カメラ11bは、降車者の降車者撮像画像を撮像し、撮像された降車者撮像画像を制御部20bへ出力する。
The
測位部12bは、例えばGPS衛星から送出される電波に基づいてバス1の位置情報を取得し、取得された位置情報を制御部20bへ出力する。なお、測位部12bは、バス1が停留所に停止しているときに取得されたバス1の位置情報を、バス1が停止している停留所の位置情報として出力してもよい。
The
制御部20bは、取得部21bと、検出部22bと、登録部23bと、照合部24bと、算出部25bと、送信部26bとを備え、例えば、CPU、ROM、RAM、入出力ポートなどを有するコンピュータや各種の回路を含む。
The
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部20bの取得部21b、検出部22b、登録部23b、照合部24b、算出部25bおよび送信部26bとして機能する。
The CPU of the computer functions as, for example, the
また、制御部20bの取得部21b、検出部22b、登録部23b、照合部24b、算出部25bおよび送信部26bの少なくともいずれか一部または全部をASICやFPGA等のハードウェアで構成することもできる。
Further, at least a part or all of the
また、記憶部30bは、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部30bには、乗車者情報31b、降車者情報32b、乗降カウンタ33bおよび各種プログラムなどが記憶される。
Further, the storage unit 30b is a storage unit composed of a storage device such as a non-volatile memory or a data flash. The
乗車者情報31bは、乗り口端末装置10aから出力された乗車者情報31aと同じ情報であるため、ここでの説明を省略する(図4参照)。
Since the
降車者情報32bは、降車者に関する情報である。ここで、図7を用いて、降車者情報32bについて説明する。図7は、降車者情報32bの一例を示す図である。図7に示すように、降車者情報32bには、「降車者ID」、「降車者画像」、「特徴点」、「性別」、「年齢」、「年齢層」、「降車した停留所」および「照合結果」等の項目が含まれ、各項目は互いに関連付けられている。
The
「降車者ID」は、降車者を識別する識別情報である。「降車者画像」は、降車者撮像画像の情報である。「特徴点」は、顔の特徴点情報である。かかる特徴点情報には、例えば降車者撮像画像に写った降車者の顔における目、鼻や口などの特徴点の位置などが含まれるが、これに限定されるものではない。 The "get-off ID" is identification information for identifying the get-off person. The "get-off person image" is information of the get-off person captured image. The "feature point" is the feature point information of the face. The feature point information includes, but is not limited to, for example, the positions of feature points such as eyes, nose, and mouth on the face of the disembarkator in the image captured by the disembarkant.
「性別」は、降車者撮像画像に写った降車者の性別を示す情報である。「年齢」は、降車者撮像画像に写った降車者の年齢を示す情報であり、「年齢層」は、かかる降車者の年齢層を示す情報である。 The "gender" is information indicating the gender of the disembarking person in the image captured by the disembarking person. The "age" is information indicating the age of the disembarking person in the image captured by the disembarking person, and the "age group" is information indicating the age group of the disembarking person.
「降車した停留所」は、降車者が乗車した停留所を示す情報である。「照合結果」は、後述する照合部24bによって乗車者情報31bと降車者情報32bとが照合されたときの照合結果を示す情報である。「照合結果」には、例えば降車者情報32bと一致した乗車者情報31bの乗車者IDに関する情報が含まれるが、これに限定されるものではない。
The "bus stop where you got off" is information indicating the bus stop where the person who got off the bus got on. The "collation result" is information indicating a collation result when the
図7に示す例では、降車者ID「Q01」で識別される降車者のデータは、降車者画像が「画像E11」、特徴点が「特徴点F01」、性別が「男性」、年齢が「年齢G01」、年齢層が「大人」、降車した停留所が「停留所H11」、照合結果が「乗車者ID[P01]と一致」であることを示している。 In the example shown in FIG. 7, the data of the disembarkation person identified by the disembarkation person ID "Q01" is "image E11" for the disembarkation person image, "feature point F01" for the feature point, "male" for the gender, and "male" for the age. It indicates that "age G01", the age group is "adult", the stop where the bus got off is "stop H11", and the collation result is "match with the passenger ID [P01]".
図6の説明に戻ると、乗降カウンタ33bは、バス1の現在の乗客数をカウントするカウンタである。
Returning to the description of FIG. 6, the boarding / alighting
制御部20bの取得部21bは、第2カメラ11bから、バス1から降車する人物(降車者)が撮像された降車者撮像画像を取得する。例えば、取得部21bは、バス1が停留所で停止しているときに降車者撮像画像を取得するが、取得のタイミングはこれに限定されるものではない。取得部21bは、取得された降車者撮像画像を検出部22bへ出力する。
The
また、取得部21bは、乗り口端末装置10aから出力された乗車者情報を取得し、記憶部30bに乗車者情報31b(図4参照)として登録する。
Further, the
検出部22bは、降車者撮像画像から降車者の顔情報(詳しくは顔の特徴点情報)を検出する。例えば、検出部22bは、降車者撮像画像から、目、鼻や口、輪郭などの特徴点を抽出し、抽出された特徴点の位置を特徴点情報として検出する。
The
検出部22bは、降車者撮像画像から降車者の性別や年齢、年齢層などの属性情報を検出する。検出部22bは、検出された特徴点情報および属性情報を降車者撮像画像とともに、登録部23bへ出力する。
The
登録部23bは、降車者撮像画像、特徴点情報および属性情報を含む各種の情報を記憶部30bに降車者情報32b(図7参照)として登録する。このとき、登録部23bは、測位部12bのバス1の位置情報に基づいて、降車者撮像画像が撮像された停留所、すなわち、降車者が降車した停留所の情報を降車者情報32bに付加してもよい。
The
照合部24bは、乗車者情報31bと降車者情報32bとを照合する。例えば、照合部24bは、記憶部30bの乗車者情報31bと降車者情報32bにアクセスし、降車者の特徴点情報や属性情報が、乗車者の特徴点情報や属性情報と一致あるいは略一致するか否かの照合を行う。照合部24bは、降車者の特徴点情報等が乗車者の特徴点情報等と一致あるいは略一致する場合、かかる照合結果を、降車者情報32b(図7参照)の「照合結果」に登録する。ここでは、照合部24bは、降車者ID「Q01」の降車者の特徴点情報や属性情報が、乗車者ID「P01」の情報の特徴点情報や属性情報と一致したことを示している。
The
算出部25bは、乗車者情報31bと降車者情報32bとに基づいてバス1の乗客数を算出する。例えば、算出部25bは、乗車者情報31bに乗車者の顔情報や属性情報が新たに登録されたときに乗車者の人数を1人加算する、詳しくは乗降カウンタ33bをインクリメントする。
The calculation unit 25b calculates the number of passengers on the
また、算出部25bは、降車者情報32bに、乗車者の特徴点情報や属性情報と一致あるいは略一致する降車者の情報が登録された場合に、かかる特徴点情報等の乗客がバス1から降車したと推定し、乗車者の人数から降車者を1人減算して得た値をバス1の現在の乗客数として算出する、詳しくは乗降カウンタ33bをデクリメントする。
Further, in the calculation unit 25b, when the information of the disembarkation person who matches or substantially matches the feature point information and the attribute information of the passenger is registered in the
このように、算出部25bは、正確な乗車者情報31bを用いることから、バス1の乗客数を精度よく算出することができる。なお、算出部25bは、バス1が停留所を出発して次の停留所に到着するまでの間に算出処理を実行するが、算出のタイミングはこれに限定されるものではない。
As described above, since the calculation unit 25b uses the
送信部26bは、乗車者情報31bや降車者情報32bの一部あるいは全部と、乗降カウンタ33bの値であるバス1の乗客数の情報とを含む乗客情報を、管理サーバ200へ送信する。
The
なお、送信部26bは、バス1が停留所を出発して算出部25bでの算出処理等が完了してから次の停留所に到着するまでの間に送信処理を実行するが、送信のタイミングはこれに限定されるものではない。
The
<管理サーバの構成>
次いで、管理サーバ200の構成について図8を参照して説明する。図8は、管理サーバ200の構成例を示すブロック図である。
<Management server configuration>
Next, the configuration of the
図8に示すように、管理サーバ200は、通信部201と、制御部210と、記憶部220とを備える。通信部201は、通信ネットワークNに双方向通信可能に接続する通信インターフェイスであり、バス端末装置10やバス事業者端末装置300、ユーザ端末装置400等との間で情報の送受信を行う。
As shown in FIG. 8, the
制御部210は、取得部211と、混雑度算出部212と、提供部213とを備え、例えば、CPU、ROM、RAM、入出力ポートなどを有するコンピュータや各種の回路を含む。
The
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部210の取得部211、混雑度算出部212および提供部213として機能する。
The CPU of the computer functions as the
また、制御部210の取得部211、混雑度算出部212および提供部213の少なくともいずれか一部または全部をASICやFPGA等のハードウェアで構成することもできる。
Further, at least a part or all of the
また、記憶部220は、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部220には、乗客情報221、バス情報222および各種プログラムなどが記憶される。 Further, the storage unit 220 is a storage unit composed of a storage device such as a non-volatile memory or a data flash. Passenger information 221 and bus information 222, various programs, and the like are stored in the storage unit 220.
乗客情報221は、降り口端末装置10bから送信された、バス1の乗客に関する情報である。乗客情報221には、上記したように、乗車者情報31bや降車者情報32bの一部あるいは全部と、乗降カウンタ33bの値であるバス1の乗客数の情報とが含まれる。
The passenger information 221 is information about the passengers of the
バス情報222は、バス1に関する情報である。バス情報222には、例えばバス1の定員を示す定員情報などが含まれるが、これに限られず、バス1の運行計画情報などその他の情報が含まれてもよい。なお、バス情報222は、予め記憶部220に記憶されるが、これに限定されるものではなく、例えばバス事業者端末装置300など外部端末から送信されて記憶部220に記憶されてもよい。
Bus information 222 is information about
制御部210の取得部211は、降り口端末装置10bから送信された情報を取得し、取得された情報を記憶部220に乗客情報221として記憶させる。
The
混雑度算出部212は、バス1の混雑度、詳しくはバス1の現在の混雑度を算出する。混雑度は、バス1の混雑状況の度合いを示す指標値であり、例えばバス1の定員に対する乗客数等に応じた数段階のレベルで示される値である。
The congestion
例えば、混雑度算出部212は、乗客情報221に含まれるバス1の現在の乗客数の情報と、バス情報222に含まれるバス1の定員情報とに基づいて、バス1の現在の混雑度を算出する。混雑度算出部212は、算出された混雑度を示す混雑度情報を提供部213へ出力する。
For example, the congestion
提供部213は、かかる混雑度情報を通信部201を介して、例えばユーザ端末装置400やバス事業者端末装置300へ提供することができる。また、提供部213は、乗客情報221を通信部201を介して、例えばバス事業者端末装置300へ提供することができる。
The providing
<実施形態に係る情報処理システムの制御処理>
次に、実施形態に係るバス端末装置10を含む情報処理システム100が実行する処理手順について、図9を用いて説明する。図9は、実施形態に係るバス端末装置10を含む情報処理システム100が実行する処理シーケンスの一例を示す図である。
<Control processing of the information processing system according to the embodiment>
Next, a processing procedure executed by the
図9に示すように、先ず乗り口端末装置10aは、第1カメラ11aから、バス1の乗り口2a付近に存在する人物の撮像画像を取得する(ステップS10)。次いで、乗り口端末装置10aは、撮像画像に写った人物の頭の位置に基づいて人物のバス1に対する乗車を判定する(ステップS11)。
As shown in FIG. 9, first, the
乗り口端末装置10aは、バス1に乗車したと判定された人物が写った撮像画像(乗車者撮像画像)を含む乗車者情報を記憶部30aに登録する(ステップS12)。そして、乗り口端末装置10aは、乗車者情報を降り口端末装置10bへ出力する(ステップS13)。
The
降り口端末装置10bは、第2カメラ11bから降車者撮像画像を取得する(ステップS14)。次いで、降り口端末装置10bは、降車者撮像画像を含む降車者情報を記憶部30bに登録する(ステップS15)。ここで、記憶部30bには、以前の処理で乗り口端末装置10aから出力された乗車者情報が登録されているものとする。
The
次いで、降り口端末装置10bは、乗車者情報と降車者情報とを照合する(ステップS16)。例えば、降り口端末装置10bは、降車者情報における降車者の特徴点情報や属性情報が、乗車者情報における乗車者の特徴点情報や属性情報と一致あるいは略一致するか否かの照合を行う。
Next, the
降り口端末装置10bは、乗車者情報、降車者情報および照合結果などに基づいて、バス1の乗客数を算出する(ステップS17)。また、降り口端末装置10bは、乗り口端末装置10aから乗車者情報が新たに出力された場合、記憶部30bの乗車者情報を更新する(ステップS18)。
The
そして、降り口端末装置10bは、乗車者情報や降車者情報、バス1の乗客数などを含む乗客情報を管理サーバ200へ送信する(ステップS19)。
Then, the
管理サーバ200は、バス1の乗客数の情報などに基づいてバス1の混雑度を算出する(ステップS20)。そして、管理サーバ200は、混雑度情報や乗客情報などを、バス事業者端末装置300やユーザ端末装置400へ提供する(ステップS21)。
The
上述してきたように、実施形態に係るバス端末装置10(乗降判定装置の一例)は、検出部22aと、判定部23aとを備える。検出部22aは、バス1の乗降口(乗り口2a)付近に存在する人物の頭の位置を検出する。判定部23aは、検出部22aによって検出された人物の頭の位置に基づいて人物の乗り物に対する乗降を判定する。これにより、実施形態にあっては、乗り物の乗降口付近に存在する人物の乗り物に対する乗降を精度よく判定することができる。
As described above, the bus terminal device 10 (an example of the boarding / alighting determination device) according to the embodiment includes a
<変形例>
次に、変形例について説明する。変形例では、降り口端末装置10bが、例えばバス1の降り口2b(図1参照)付近に存在する人物の乗り物からの降車の判定を行うようにした。
<Modification example>
Next, a modification will be described. In the modified example, the
図10は、変形例に係る降り口端末装置10bの構成例を示すブロック図である。なお、以下においては、実施形態と共通の構成については、同一の符号を付して説明を省略する。
FIG. 10 is a block diagram showing a configuration example of the
図10に示すように、変形例に係る降り口端末装置10bの制御部20bは、判定部27bをさらに備える。
As shown in FIG. 10, the
制御部20bの取得部21bは、第2カメラ11bから、バス1の降り口2b付近に存在する人物(降車者を含む)の撮像画像を取得する。取得部21bは、取得された撮像画像を検出部22bへ出力する。
The
検出部22bは、撮像画像に基づいて、バス1の降り口2b付近に存在する人物の頭の位置を検出する。検出部22bは、検出された頭の位置を示す情報を判定部27bへ出力する。
The
判定部27bは、撮像画像に写った人物のバス1からの降車を判定する。この降車の判定処理について、図11を参照しつつ説明する。図11は、降車の判定処理を説明するための図である。なお、図11では、撮像画像B1を示し、最初に撮像された人物Pを実線で示し、その後人物Pが移動した後に撮像された人物Pを破線で示している。
The determination unit 27b determines that the person in the captured image gets off the
図11に示すように、判定部27bは、検出された人物Pの頭Pbの位置に基づいて人物Pのバス1からの降車を判定する。例えば、判定部27bは、人物Pの頭Pbの位置が、矢印D4で示すように、人物Pの移動前後において相対的に下がった場合、人物Pがバス1から降車したと判定するようにした。これにより、変形例にあっては、人物Pのバス1からの降車を精度よく判定することができる。
As shown in FIG. 11, the determination unit 27b determines that the person P gets off the
詳しく説明すると、例えば人物Pがバス1の車内から車外に降りて降車する場合、バス1の降り口2bにある段差4(図1参照)を下りる必要があるため、人物Pの頭Pbの位置は、人物Pの移動前後で相対的に下がる。そこで、変形例に係る降り口端末装置10bにあっては、人物Pの頭Pbの位置が、人物Pの移動前後において相対的に下がった場合、人物Pがバス1から降車したと判定するようにした。
More specifically, for example, when the person P gets off from the inside of the
これにより、変形例に係る降り口端末装置10bは、人物Pのバス1からの降車を精度よく判定することができる。言い換えると、降り口端末装置10bは、例えば降り口2b付近に立っているだけで実際には降車しない人物が撮像画像に写り込んだ場合であっても、人物の頭の位置は相対的に下がらないため、バス1から降車したと判定しない。これにより、降り口端末装置10bは、降り口2b付近に立っているだけの人物をバス1から降車する降車者として誤判定してしまうことを抑制することができる。
As a result, the
例えば、判定部27bは、実線で示す人物Pの移動前の頭Pbの位置が、第2所定値以上下がって、破線で示す人物Pの移動後の頭Pbの位置になった場合、人物Pがバス1から降車したと判定してもよい。ここで、第2所定値は、例えばバス1が停車している路面から段差4(図1参照)までの高さに応じて設定される。これにより、人物Pが段差4を下りてバス1から降車したことを精度よく判定することが可能になる。なお、上記では、第2所定値が段差4の高さに応じて設定されるようにしたが、これは例示であって限定されるものではなく、任意の値に設定されてもよい。
For example, in the determination unit 27b, when the position of the head Pb before the movement of the person P shown by the solid line is lowered by a second predetermined value or more and becomes the position of the head Pb after the movement of the person P shown by the broken line, the person P May be determined to have disembarked from
なお、登録部23bは、降り口2b付近に存在する人物がバス1から降車したと判定された場合に、かかる人物(降車者)が写っている撮像画像を降車者撮像画像とする。そして、登録部24aは、降車者撮像画像を含む各種の情報(特徴点情報や属性情報)を記憶部30bに降車者情報32bとして登録する。
When it is determined that a person existing near the
なお、上記した変形例では、判定部27bは、人物の頭の位置に基づいて人物の降車を判定するようにしたが、これに限定されるものではなく、頭の位置に加え、あるいは代えて人物の顔の大きさに基づいて人物の降車を判定してもよい。すなわち、図示は省略するが、判定部27bは、頭の位置が人物の移動前後において相対的に下がった後に、顔の大きさが人物の移動前後において相対的に小さくなった場合、人物がバス1に降車したと判定してもよい。このように、顔の大きさが人物の移動前後において相対的に小さくなったということは、人物がバス1の中に設けられた第2カメラ11bから離れ、バス1から降車したことを示していることから、判定部27bは、人物のバス1からの降車をより精度よく判定することができる。
In the above-mentioned modification, the determination unit 27b determines the disembarkation of the person based on the position of the head of the person, but the present invention is not limited to this, and the determination unit 27b is added to or replaced with the position of the head. The disembarkation of a person may be determined based on the size of the person's face. That is, although not shown, in the determination unit 27b, when the position of the head is relatively lowered before and after the movement of the person and then the size of the face is relatively small before and after the movement of the person, the person is busted. It may be determined that the vehicle has disembarked at 1. In this way, the fact that the size of the face became relatively small before and after the movement of the person indicates that the person left the
なお、バス端末装置10は、上記した乗車の判定および降車の判定の両方を行ってもよいし、いずれか一方を行ってもよい。
In addition, the
なお、上記した実施形態および変形例において、乗り口端末装置10a、降り口端末装置10bおよび管理サーバ200がそれぞれ、各種の処理を行うようにしたが、各種の処理が行われる装置は、上記に限定されるものではない。
In the above-described embodiments and modifications, the
すなわち、乗り口端末装置10aで行われる処理の一部あるいは全部が、降り口端末装置10bあるいは管理サーバ200で行われるようにしてもよい。また、降り口端末装置10bで行われる処理の一部あるいは全部が、乗り口端末装置10aあるいは管理サーバ200で行われるようにしてもよい。また、管理サーバ200で行われる処理の一部あるいは全部が、乗り口端末装置10aあるいは降り口端末装置10bで行われるようにしてもよい。
That is, a part or all of the processing performed by the
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments described and described above. Thus, various modifications can be made without departing from the spirit or scope of the overall concept of the invention as defined by the appended claims and their equivalents.
1 バス
10 バス端末装置
10a 乗り口端末装置
10b 降り口端末装置
11a 第1カメラ
11b 第2カメラ
22a 検出部
23a 判定部
100 情報処理システム
200 管理サーバ
1
Claims (6)
前記検出部によって検出された前記人物の頭の位置に基づいて前記人物の前記乗り物に対する乗降を判定する判定部と
を備えることを特徴とする乗降判定装置。 A detector that detects the position of a person's head near the entrance of a vehicle,
A boarding / alighting determination device including a determination unit that determines boarding / alighting of the person with respect to the vehicle based on the position of the head of the person detected by the detection unit.
前記人物の頭の位置が前記人物の移動前後において相対的に上がった場合、前記人物が前記乗り物に乗車したと判定すること
を特徴とする請求項1に記載の乗降判定装置。 The determination unit
The boarding / alighting determination device according to claim 1, wherein when the position of the head of the person is relatively raised before and after the movement of the person, it is determined that the person has boarded the vehicle.
前記乗り物の乗降口であって、かつ、前記乗り物の中に設けられるカメラによって撮像された前記人物の撮像画像に基づいて、前記人物の顔の大きさを検出し、
前記判定部は、
前記人物の頭の位置が前記人物の移動前後において相対的に上がった後に、前記人物の顔の大きさが前記人物の移動前後において相対的に大きくなった場合、前記人物が前記乗り物に乗車したと判定すること
を特徴とする請求項1または2に記載の乗降判定装置。 The detector is
The size of the face of the person is detected based on the captured image of the person, which is the entrance / exit of the vehicle and is captured by the camera provided in the vehicle.
The determination unit
When the size of the face of the person becomes relatively large before and after the movement of the person after the position of the head of the person rises relatively before and after the movement of the person, the person gets on the vehicle. The boarding / alighting determination device according to claim 1 or 2, wherein the determination is made.
前記人物の頭の位置が前記人物の移動前後において相対的に上がった後に、前記人物の頭の位置が前記人物の移動前後において相対的に下がり、かつ、前記人物の顔の大きさが前記人物の移動前後において相対的に小さくなった場合、前記人物は前記乗り物に乗車していないと判定すること
を特徴とする請求項3に記載の乗降判定装置。 The determination unit
After the position of the head of the person is relatively raised before and after the movement of the person, the position of the head of the person is relatively lowered before and after the movement of the person, and the size of the face of the person is the person. The boarding / alighting determination device according to claim 3, wherein when the person becomes relatively small before and after the movement of the vehicle, it is determined that the person is not on the vehicle.
前記人物の頭の位置が前記人物の移動前後において相対的に下がった場合、前記人物が前記乗り物から降車したと判定すること
を特徴とする請求項1~4のいずれか一つに記載の乗降判定装置。 The determination unit
The boarding / alighting according to any one of claims 1 to 4, wherein when the position of the head of the person is relatively lowered before and after the movement of the person, it is determined that the person has disembarked from the vehicle. Judgment device.
前記検出工程によって検出された前記人物の頭の位置に基づいて前記人物の前記乗り物に対する乗降を判定する判定工程と
を含むことを特徴とする乗降判定方法。 A detection process that detects the position of a person's head near the entrance of a vehicle,
A method for determining boarding / alighting, which comprises a determination step of determining boarding / alighting of the person with respect to the vehicle based on the position of the head of the person detected by the detection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190445A JP2022079320A (en) | 2020-11-16 | 2020-11-16 | Getting on and off determining device and getting on and off determining method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190445A JP2022079320A (en) | 2020-11-16 | 2020-11-16 | Getting on and off determining device and getting on and off determining method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022079320A true JP2022079320A (en) | 2022-05-26 |
Family
ID=81707547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020190445A Pending JP2022079320A (en) | 2020-11-16 | 2020-11-16 | Getting on and off determining device and getting on and off determining method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022079320A (en) |
-
2020
- 2020-11-16 JP JP2020190445A patent/JP2022079320A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6145210B1 (en) | Passenger management device and passenger management method | |
US10768636B2 (en) | Automatic vehicle dispatching system and server device | |
CN112997227B (en) | Traffic support system, server, method, vehicle-mounted device, method of operating vehicle-mounted device, recording medium, computer, and semiconductor integrated circuit | |
CN109311622B (en) | Elevator system and car call estimation method | |
US20170068863A1 (en) | Occupancy detection using computer vision | |
RU2017131863A (en) | SYSTEMS AND METHODS FOR PASSENGER INSPECTION | |
US11880899B2 (en) | Proximity-based shared transportation reservations | |
US20220063609A1 (en) | Vehicle accident surrounding information link apparatus | |
CN112084824A (en) | Passenger reminding method and device, electronic equipment and storage medium | |
JP2022079320A (en) | Getting on and off determining device and getting on and off determining method | |
JP7109905B2 (en) | Routing device and routing method | |
JP2020077166A (en) | Vehicle and vehicle operation method | |
JP6563283B2 (en) | Monitoring system | |
JP2022102710A (en) | Information processing device and information processing method | |
JP2022079321A (en) | Computation device and computation method | |
JP2022079319A (en) | Information processing device and information processing method | |
JP2023037801A (en) | Information processing device and information processing method | |
JP7400975B2 (en) | Face recognition method | |
JP2023037802A (en) | Information processing apparatus and information processing method | |
JP2023037803A (en) | Control device and control method | |
JP7415327B2 (en) | Mobile terminal control method, mobile terminal control device, program | |
CN113283328A (en) | Control method and device for moving equipment to elevator and storage medium | |
JP2022102712A (en) | Air-conditioning control device and air-conditioning method | |
CN112001831A (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
JP7305698B2 (en) | Vehicle congestion determination method and vehicle congestion determination system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240507 |