JP2022079320A - Getting on and off determining device and getting on and off determining method - Google Patents

Getting on and off determining device and getting on and off determining method Download PDF

Info

Publication number
JP2022079320A
JP2022079320A JP2020190445A JP2020190445A JP2022079320A JP 2022079320 A JP2022079320 A JP 2022079320A JP 2020190445 A JP2020190445 A JP 2020190445A JP 2020190445 A JP2020190445 A JP 2020190445A JP 2022079320 A JP2022079320 A JP 2022079320A
Authority
JP
Japan
Prior art keywords
person
bus
information
terminal device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020190445A
Other languages
Japanese (ja)
Inventor
麻由 加茂
Mayu Kamo
智春 片岡
Tomoharu Kataoka
斉 ▲濱▼上
Hitoshi Hamaue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2020190445A priority Critical patent/JP2022079320A/en
Publication of JP2022079320A publication Critical patent/JP2022079320A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Seats For Vehicles (AREA)
  • Passenger Equipment (AREA)
  • Image Analysis (AREA)

Abstract

To provide a getting on and off determining device that can accurately determine whether a person who is present near an entrance of a vehicle gets on or off the vehicle, and to provide a getting on and off determining method.SOLUTION: A getting on and off determining device includes a detection part and a determination part. The detection part detects a head position of a person who is present near an entrance of a vehicle. The determination part determines whether the person gets on or off the vehicle on the basis of the head position of the person that is detected by the detection part.SELECTED DRAWING: Figure 1

Description

本発明は、乗降判定装置および乗降判定方法に関する。 The present invention relates to a boarding / alighting determination device and a boarding / alighting determination method.

従来、例えばバスなどの乗り物において、乗降した乗客の人数を算出する技術が種々提案されている(例えば、特許文献1参照)。従来技術にあっては、乗り口および降り口にそれぞれカメラが設置され、かかるカメラによって撮像された乗客の撮像画像を用いて乗客の人数(乗客数)を算出するようにしている。 Conventionally, various techniques for calculating the number of passengers getting on and off a vehicle such as a bus have been proposed (see, for example, Patent Document 1). In the prior art, cameras are installed at the entrance and the exit, respectively, and the number of passengers (number of passengers) is calculated using the images of the passengers captured by the cameras.

特開2014-219913号公報Japanese Unexamined Patent Publication No. 2014-219913

しかしながら、上記した撮像画像には、例えば乗り物の乗り口の外側に立っているだけで実際には乗車しない人物などが写り込むことがある。従来技術にあっては、かかる人物を乗り物に乗車する乗客として誤判定するおそれがあり、改善の余地があった。なお、乗り物の降り口側でも、実際には降車しない乗客を乗り物から降車したと誤判定することが起こりうる。 However, the above-mentioned captured image may include, for example, a person who is standing outside the entrance of the vehicle but does not actually get on the vehicle. In the prior art, there is a risk of erroneously determining such a person as a passenger riding a vehicle, and there is room for improvement. It should be noted that even on the exit side of the vehicle, it may be erroneously determined that a passenger who does not actually get off is disembarked from the vehicle.

本発明は、上記に鑑みてなされたものであって、乗り物の乗降口付近に存在する人物の乗り物に対する乗降を精度よく判定することができる乗降判定装置および乗降判定方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an boarding / alighting determination device and a boarding / alighting determination method capable of accurately determining boarding / alighting of a person existing near the boarding / alighting port of a vehicle. do.

上記課題を解決し、目的を達成するために、本発明は、乗降判定装置において、検出部と、判定部とを備える。検出部は、乗り物の乗降口付近に存在する人物の頭の位置を検出する。判定部は、前記検出部によって検出された前記人物の頭の位置に基づいて前記人物の前記乗り物に対する乗降を判定する。 In order to solve the above problems and achieve the object, the present invention includes a detection unit and a determination unit in the boarding / alighting determination device. The detection unit detects the position of the head of a person who is near the entrance / exit of the vehicle. The determination unit determines whether the person gets on and off the vehicle based on the position of the head of the person detected by the detection unit.

本発明によれば、乗り物の乗降口付近に存在する人物の乗り物に対する乗降を精度よく判定することができる。 According to the present invention, it is possible to accurately determine the boarding / alighting of a person who exists near the boarding / alighting port of a vehicle with respect to the vehicle.

図1は、実施形態に係る乗降判定方法の概要を示す図である。FIG. 1 is a diagram showing an outline of a boarding / alighting determination method according to an embodiment. 図2は、バス端末装置を備えた情報処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of an information processing system including a bus terminal device. 図3は、乗り口端末装置の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the entrance terminal device. 図4は、乗車者情報の一例を示す図である。FIG. 4 is a diagram showing an example of passenger information. 図5Aは、乗車の判定処理を説明するための図である。FIG. 5A is a diagram for explaining a boarding determination process. 図5Bは、乗車の判定処理を説明するための図である。FIG. 5B is a diagram for explaining a boarding determination process. 図6は、降り口端末装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the exit terminal device. 図7は、降車者情報の一例を示す図である。FIG. 7 is a diagram showing an example of disembarkation information. 図8は、管理サーバの構成例を示すブロック図である。FIG. 8 is a block diagram showing a configuration example of the management server. 図9は、情報処理システムが実行する処理シーケンスの一例を示す図である。FIG. 9 is a diagram showing an example of a processing sequence executed by the information processing system. 図10は、変形例に係る降り口端末装置の構成例を示すブロック図である。FIG. 10 is a block diagram showing a configuration example of the exit terminal device according to the modified example. 図11は、降車の判定処理を説明するための図である。FIG. 11 is a diagram for explaining a disembarkation determination process.

以下、添付図面を参照して、本願の開示する乗降判定装置および乗降判定方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of the boarding / alighting determination device and the boarding / alighting determination method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.

<乗降判定装置による乗降判定方法の概要>
以下では先ず、実施形態に係る乗降判定装置による乗降判定方法の概要について図1を参照して説明する。図1は、実施形態に係る乗降判定方法の概要を示す図である。
<Outline of boarding / alighting judgment method by boarding / alighting judgment device>
Hereinafter, the outline of the boarding / alighting determination method by the boarding / alighting determination device according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of a boarding / alighting determination method according to an embodiment.

実施形態に係る乗降判定方法は、例えば乗り物の乗降口付近に存在する人物の乗り物に対する乗降の判定などを行うことができる。上記した乗降口は、乗り物の乗り口2aおよび降り口2bの一方あるいは両方を含むものとする。なお、以下では、乗降判定方法が、例えば乗り物の乗り口2a付近に存在する人物の乗り物に対する乗車の判定を行う場合を例に挙げて説明する。 The boarding / alighting determination method according to the embodiment can, for example, determine boarding / alighting of a person present near the boarding / alighting port of the vehicle. The above-mentioned entrance / exit shall include one or both of the entrance 2a and the exit 2b of the vehicle. In the following, an example will be described in which the boarding / alighting determination method determines boarding of a person's vehicle existing near the vehicle entrance 2a.

また、ここでは乗り物の一例としてバス1を挙げて説明するが、乗り物の種類はこれに限定されるものではない。すなわち、乗り物は、例えば鉄道車両や航空機、船舶などその他の種類の乗り物であってもよい。 Further, although the bus 1 will be described here as an example of the vehicle, the type of the vehicle is not limited to this. That is, the vehicle may be another type of vehicle, such as a railroad vehicle, an aircraft, or a ship.

図1に示すように、バス1には、バス端末装置10が搭載され、かかるバス端末装置10が乗降判定装置として機能する。具体的に説明すると、バス端末装置10は、乗り口端末装置10aと、降り口端末装置10bとを備える。 As shown in FIG. 1, a bus terminal device 10 is mounted on the bus 1, and the bus terminal device 10 functions as a boarding / alighting determination device. Specifically, the bus terminal device 10 includes an entrance terminal device 10a and an exit terminal device 10b.

乗り口端末装置10aは、バス1の乗り口2aに設置される。乗り口端末装置10aは、第1カメラ11aを備える。例えば、第1カメラ11aは、バス1の乗り口2aであって、かつ、バス1の中(バス車内)に設けられる。第1カメラ11aは、乗り口2a付近に存在する人物Pの撮像画像Aを撮像する。なお、図1では、最初に撮像された人物Pを実線で示し、その後人物Pが移動した後に撮像された人物Pを破線で示している。 The entrance terminal device 10a is installed at the entrance 2a of the bus 1. The entrance terminal device 10a includes a first camera 11a. For example, the first camera 11a is the entrance 2a of the bus 1 and is provided inside the bus 1 (inside the bus). The first camera 11a captures the captured image A of the person P existing in the vicinity of the entrance 2a. In FIG. 1, the person P imaged first is shown by a solid line, and then the person P imaged after the person P moves is shown by a broken line.

乗り口端末装置10aは、第1カメラ11aから撮像画像Aを取得し、撮像画像Aから乗り口2a付近に存在する人物Pの頭Paの位置を検出する(ステップS1)。次いで、乗り口端末装置10aは、検出された人物Pの頭Paの位置に基づいて人物Pのバス1に対する乗車を判定する(ステップS2)。これにより、乗り口端末装置10aは、人物Pのバス1に対する乗車を精度よく判定することができる。 The entrance terminal device 10a acquires the captured image A from the first camera 11a, and detects the position of the head Pa of the person P existing in the vicinity of the entrance 2a from the captured image A (step S1). Next, the entrance terminal device 10a determines that the person P is on the bus 1 based on the position of the detected head Pa of the person P (step S2). As a result, the entrance terminal device 10a can accurately determine the boarding of the person P on the bus 1.

詳しく説明すると、例えば人物Pがバス1の車外から車内に入って乗車する場合、バス1の乗り口2aにある段差3を上る必要があるため、人物Pの頭Paの位置は、人物Pの移動前後で相対的に上がる。そこで、本実施形態に係る乗り口端末装置10aにあっては、人物Pの頭Paの位置が、矢印Dで示すように、人物Pの移動前後において相対的に上がった場合、人物Pがバス1に乗車したと判定するようにした。 To explain in detail, for example, when the person P enters the vehicle from the outside of the bus 1 and gets on the bus, it is necessary to climb the step 3 at the entrance 2a of the bus 1, so that the position of the head Pa of the person P is the position of the person P. It rises relatively before and after the move. Therefore, in the entrance terminal device 10a according to the present embodiment, when the position of the head Pa of the person P rises relatively before and after the movement of the person P as shown by the arrow D, the person P becomes a bus. It is determined that the passenger has boarded 1.

これにより、乗り口端末装置10aは、人物Pのバス1に対する乗車を精度よく判定することができる。言い換えると、乗り口端末装置10aは、例えばバス1の乗り口2aの外側に立っているだけで実際には乗車しない人物が撮像画像に写り込んだ場合であっても、人物の頭の位置は相対的に上がらないため、バス1に乗車したと判定しない。これにより、乗り口端末装置10aは、乗り口2aの外側に立っているだけの人物をバス1に乗車する乗客として誤判定してしまうことを抑制することができる。 As a result, the entrance terminal device 10a can accurately determine the boarding of the person P on the bus 1. In other words, the entrance terminal device 10a has the position of the head of the person even when a person who is only standing outside the entrance 2a of the bus 1 and does not actually get on the bus is reflected in the captured image. Since it does not rise relatively, it is not determined that the bus 1 has been boarded. As a result, the entrance terminal device 10a can prevent a person who is only standing outside the entrance 2a from being erroneously determined as a passenger boarding the bus 1.

なお、本実施形態にあっては、乗り口端末装置10aによって人物Pがバス1に乗車したと判定した場合、人物Pは乗車者となることから、かかる乗車者(人物P)が撮像された撮像画像を乗車者撮像画像として、乗客数の算出などの処理に利用する。 In the present embodiment, when it is determined by the entrance terminal device 10a that the person P has boarded the bus 1, the person P is a passenger, so that the passenger (person P) is imaged. The captured image is used as a passenger captured image for processing such as calculation of the number of passengers.

なお、降り口端末装置10bは、バス1の降り口2bに設置される。降り口端末装置10bは、第2カメラ11bを備える。例えば、第2カメラ11bは、バス1の降り口2bであって、かつ、バス1の中(バス車内)に設けられる。 The exit terminal device 10b is installed at the exit 2b of the bus 1. The exit terminal device 10b includes a second camera 11b. For example, the second camera 11b is provided at the exit 2b of the bus 1 and inside the bus 1 (inside the bus).

<情報処理システムの構成>
次に、実施形態に係るバス端末装置(乗降判定装置)10を備えた情報処理システムの構成について、図2を用いて説明する。図2は、バス端末装置10を備えた情報処理システム100の構成例を示すブロック図である。
<Information processing system configuration>
Next, the configuration of the information processing system including the bus terminal device (boarding / alighting determination device) 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of an information processing system 100 provided with a bus terminal device 10.

図2に示すように、情報処理システム100は、上記したバス端末装置10と、管理サーバ200と、バス事業者端末装置300と、ユーザ端末装置400とを含み、これらはインターネット網などの通信ネットワークNを介して通信可能に接続される。 As shown in FIG. 2, the information processing system 100 includes the above-mentioned bus terminal device 10, a management server 200, a bus operator terminal device 300, and a user terminal device 400, which are communication networks such as an Internet network. It is connected so that it can communicate via N.

バス端末装置10は、上記したように、乗り口端末装置10aおよび降り口端末装置10bを備える。乗り口端末装置10aと降り口端末装置10bとは、例えばWi-Fi(登録商標)などの近距離無線通信を介して通信可能に接続されるが、これに限られず、近距離無線通信に加えて、あるいは代えて通信ネットワークNなどを介して通信可能に接続されてもよい。なお、乗り口端末装置10aの詳細な構成については、図3等を用いて後述する。また、降り口端末装置10bの詳細な構成については、図6等を用いて後述する。 As described above, the bus terminal device 10 includes an entrance terminal device 10a and an exit terminal device 10b. The entrance terminal device 10a and the exit terminal device 10b are connected to each other so as to be communicable via short-range wireless communication such as Wi-Fi (registered trademark), but the present invention is not limited to this, and in addition to short-range wireless communication. Alternatively, or instead, they may be connected so as to be communicable via the communication network N or the like. The detailed configuration of the entrance terminal device 10a will be described later with reference to FIG. 3 and the like. The detailed configuration of the exit terminal device 10b will be described later with reference to FIG. 6 and the like.

管理サーバ200は、バス端末装置10から送信される乗車者情報や降車者情報(いずれも後述)、バス1の乗客数の情報を含む乗客情報などを管理するサーバ装置である。管理サーバ200は、乗客情報などをバス事業者端末装置300へ提供することができる。また、管理サーバ200は、バス1の乗客数の情報に基づいてバス1の混雑度を算出し、算出された混雑度を示す混雑度情報をユーザ端末装置400へ提供することができる。なお、管理サーバ200の詳細な構成については、図8を用いて後述する。 The management server 200 is a server device that manages passenger information transmitted from the bus terminal device 10, passenger information (all of which will be described later), passenger information including information on the number of passengers on the bus 1. The management server 200 can provide passenger information and the like to the bus operator terminal device 300. Further, the management server 200 can calculate the congestion degree of the bus 1 based on the information of the number of passengers of the bus 1 and provide the congestion degree information indicating the calculated congestion degree to the user terminal device 400. The detailed configuration of the management server 200 will be described later with reference to FIG.

バス事業者端末装置300は、バス1を運行するバス事業者が使用する端末装置である。バス事業者端末装置300としては、例えばPC(Personal Computer)、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。かかるバス事業者端末装置300には、管理サーバ200から乗客情報などが送信されて表示される。これにより、バス事業者は、例えば乗客情報などに応じたバス1の運行計画を立てることが可能になる。 The bus operator terminal device 300 is a terminal device used by the bus operator that operates the bus 1. As the bus operator terminal device 300, for example, a PC (Personal Computer), a smartphone, a tablet terminal, or the like can be used, but the bus operator terminal device 300 is not limited thereto. Passenger information and the like are transmitted from the management server 200 to the bus operator terminal device 300 and displayed. This enables the bus operator to make an operation plan for the bus 1 according to, for example, passenger information.

ユーザ端末装置400は、バス1を利用するユーザ、正確にはバス1をこれから利用するユーザが使用する端末装置である。なお、ユーザ端末装置400としては、例えばスマートフォンやタブレット端末、PCなどを用いることができるが、これに限定されるものではない。かかるユーザ端末装置400には、管理サーバ200からバス1の混雑度情報が送信されて表示される。これにより、ユーザは、例えばバス1の混雑度を乗車前に確認することが可能になる。なお、図2では、図示の簡略化のため、ユーザ端末装置400を2つ示したが、これに限られず、1つであっても3つ以上であってもよい。 The user terminal device 400 is a terminal device used by a user who uses the bus 1, to be exact, a user who will use the bus 1 from now on. As the user terminal device 400, for example, a smartphone, a tablet terminal, a PC, or the like can be used, but the user terminal device 400 is not limited thereto. Congestion degree information of bus 1 is transmitted from the management server 200 to the user terminal device 400 and displayed. This allows the user to check, for example, the degree of congestion of the bus 1 before boarding. In FIG. 2, two user terminal devices 400 are shown for the sake of simplification of illustration, but the present invention is not limited to this, and the number may be one or three or more.

<乗り口端末装置の構成>
次いで、乗り口端末装置10aの構成について図3等を参照して説明する。図3は、乗り口端末装置10aの構成例を示すブロック図である。なお、図3を含む各ブロック図では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
<Configuration of entrance terminal device>
Next, the configuration of the entrance terminal device 10a will be described with reference to FIG. 3 and the like. FIG. 3 is a block diagram showing a configuration example of the entrance terminal device 10a. In each block diagram including FIG. 3, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図3等のブロック図に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in the block diagram of FIG. 3 or the like is a functional concept and does not necessarily have to be physically configured as shown in the figure. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or part of it is functionally or physically distributed in any unit according to various loads and usage conditions. -It is possible to integrate and configure.

図3に示すように、乗り口端末装置10aは、第1カメラ11aと、測位部12aと、制御部20aと、記憶部30aとを備える。なお、乗り口端末装置10aとしては、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。 As shown in FIG. 3, the entrance terminal device 10a includes a first camera 11a, a positioning unit 12a, a control unit 20a, and a storage unit 30a. As the entrance terminal device 10a, a smartphone, a tablet terminal, or the like can be used, but the present invention is not limited to this.

第1カメラ11aは、例えばレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えるカメラである。第1カメラ11aは、バス1の乗り口2a(図1参照)であって、かつ、バス1の中(バス車内)に設けられる。詳しくは、第1カメラ11aは、少なくとも乗り口2aから乗車する乗車者(乗客)の顔を含む範囲をバス車内から撮像可能な位置に設けられる。第1カメラ11aは、乗り口2a付近に存在する人物(乗車者を含む)の撮像画像を撮像し、撮像された撮像画像を制御部20aへ出力する。 The first camera 11a is a camera including, for example, a lens and an image pickup element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The first camera 11a is the entrance 2a of the bus 1 (see FIG. 1) and is provided inside the bus 1 (inside the bus). Specifically, the first camera 11a is provided at a position where at least a range including the face of a passenger (passenger) who gets on the bus from the entrance 2a can be imaged from inside the bus. The first camera 11a captures an image of a person (including a passenger) existing in the vicinity of the entrance 2a, and outputs the captured image to the control unit 20a.

測位部12aは、バス1の位置情報(例えば、緯度および経度)を取得する。例えば、測位部12aは、GPS(Global Positioning System)衛星から送出される電波を受信し、受信した電波に基づいてバス1の位置情報を取得し、取得された位置情報を制御部20aへ出力する。なお、測位部12aは、バス1が停留所に停止しているときに取得されたバス1の位置情報を、バス1が停止している停留所の位置情報として出力してもよい。 The positioning unit 12a acquires the position information (for example, latitude and longitude) of the bus 1. For example, the positioning unit 12a receives radio waves transmitted from a GPS (Global Positioning System) satellite, acquires the position information of the bus 1 based on the received radio waves, and outputs the acquired position information to the control unit 20a. .. The positioning unit 12a may output the position information of the bus 1 acquired when the bus 1 is stopped at the bus stop as the position information of the bus stop where the bus 1 is stopped.

制御部20aは、取得部21aと、検出部22aと、判定部23aと、登録部24aと、出力部25aとを備え、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 20a includes an acquisition unit 21a, a detection unit 22a, a determination unit 23a, a registration unit 24a, and an output unit 25a. For example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM ( Random Access Memory), including computers with input / output ports and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部20aの取得部21a、検出部22a、判定部23a、登録部24aおよび出力部25aとして機能する。 The CPU of the computer functions as the acquisition unit 21a, the detection unit 22a, the determination unit 23a, the registration unit 24a, and the output unit 25a of the control unit 20a by reading and executing the program stored in the ROM, for example.

また、制御部20aの取得部21a、検出部22a、判定部23a、登録部24aおよび出力部25aの少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 Further, at least a part or all of the acquisition unit 21a, the detection unit 22a, the determination unit 23a, the registration unit 24a, and the output unit 25a of the control unit 20a are ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), or the like. It can also be configured with the hardware of.

また、記憶部30aは、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部30aには、乗車者情報31aおよび各種プログラムなどが記憶される。 Further, the storage unit 30a is a storage unit composed of a storage device such as a non-volatile memory or a data flash. Passenger information 31a, various programs, and the like are stored in the storage unit 30a.

乗車者情報31aは、乗車者に関する情報である。ここで、図4を用いて、乗車者情報31aについて説明する。図4は、乗車者情報31aの一例を示す図である。図4に示すように、乗車者情報31aには、「乗車者ID」、「乗車者画像」、「特徴点」、「性別」、「年齢」、「年齢層」および「乗車した停留所」等の項目が含まれ、各項目は互いに関連付けられている。 The passenger information 31a is information about the passenger. Here, the passenger information 31a will be described with reference to FIG. FIG. 4 is a diagram showing an example of passenger information 31a. As shown in FIG. 4, the passenger information 31a includes "passenger ID", "passenger image", "characteristic point", "gender", "age", "age group", "bus stop" and the like. Items are included, and each item is associated with each other.

「乗車者ID」は、乗車者を識別する識別情報である。「乗車者画像」は、乗車者撮像画像の情報である。乗車者撮像画像は、上記したように、乗り口端末装置10aによって、乗り口2a付近に存在する人物がバス1に乗車したと判定された場合に、かかる人物(乗車者)が写っている撮像画像である。なお、図4に示す例では、便宜上、「乗車者画像」を「画像E01」といったように抽象的な記載とするが、「画像E01」には具体的な情報が記憶されるものとする。以下、他の情報についても抽象的に記載する場合がある。 The "passenger ID" is identification information that identifies the passenger. The "passenger image" is information of the passenger captured image. As described above, the passenger image is an image of the person (passenger) when it is determined by the entrance terminal device 10a that a person existing in the vicinity of the entrance 2a has boarded the bus 1. It is an image. In the example shown in FIG. 4, for convenience, the "passenger image" is described as an abstract description such as "image E01", but specific information is stored in the "image E01". Hereinafter, other information may be described in an abstract manner.

「特徴点」は、乗車者撮像画像に写った乗車者の顔の特徴点情報であり、顔情報の一例である。特徴点情報には、例えば乗車者撮像画像に写った乗車者の顔における目(目頭、目尻など)、鼻や口などの特徴点の位置などが含まれるが、これに限定されるものではない。 The "feature point" is the feature point information of the occupant's face captured in the image captured by the occupant, and is an example of the face information. The feature point information includes, but is not limited to, for example, the position of the feature points such as the eyes (inner corners of eyes, outer corners of eyes, etc.), nose, mouth, etc. on the passenger's face in the image captured by the passenger. ..

「性別」は、乗車者撮像画像に写った乗車者の性別を示す情報である。「年齢」は、乗車者撮像画像に写った乗車者の年齢を示す情報であり、「年齢層」は、かかる乗車者の年齢層を示す情報である。なお、上記した性別や年齢、年齢層などの情報は、乗車者の属性情報の一例である。「乗車した停留所」は、乗車者が乗車した停留所を示す情報である。 The "gender" is information indicating the gender of the occupant in the image captured by the occupant. The "age" is information indicating the age of the passenger in the image captured by the passenger, and the "age group" is information indicating the age group of the passenger. The above-mentioned information such as gender, age, and age group is an example of the attribute information of the passenger. "Bus stop" is information indicating the bus stop on which the passenger boarded.

図4に示す例では、乗車者ID「P01」で識別される乗車者のデータは、乗車者画像が「画像E01」、特徴点が「特徴点F01」、性別が「男性」、年齢が「年齢G01」、年齢層が「大人」、乗車した停留所が「停留所H01」であることを示している。 In the example shown in FIG. 4, the passenger data identified by the passenger ID "P01" has a passenger image of "image E01", a feature point of "feature point F01", a gender of "male", and an age of "male". It indicates that "age G01", the age group is "adult", and the bus stop where you boarded is "stop H01".

図3の説明に戻ると、制御部20aの取得部21aは、第1カメラ11aから、バス1の乗り口2a付近に存在する人物(乗車者を含む)の撮像画像を取得する。例えば、取得部21aは、バス1が停留所で停止しているときに撮像画像を取得するが、取得のタイミングはこれに限定されるものではない。取得部21aは、取得された撮像画像を検出部22aへ出力する。 Returning to the description of FIG. 3, the acquisition unit 21a of the control unit 20a acquires a captured image of a person (including a passenger) existing in the vicinity of the entrance 2a of the bus 1 from the first camera 11a. For example, the acquisition unit 21a acquires the captured image when the bus 1 is stopped at the bus stop, but the acquisition timing is not limited to this. The acquisition unit 21a outputs the acquired captured image to the detection unit 22a.

検出部22aは、撮像画像に基づいて、バス1の乗り口2a付近に存在する人物の頭の位置を検出する。なお、頭の位置は、任意に設定可能であり、例えば頭全体の位置、頭の中心位置、頭の上端の位置や下端の位置など頭の種々の部位に設定可能である。さらに、検出部22aは、撮像画像に基づいて、バス1の乗り口2a付近に存在する人物の顔の大きさを検出する。検出部22aは、検出された頭の位置を示す情報および顔の大きさを示す情報を判定部23aへ出力する。 The detection unit 22a detects the position of the head of a person existing in the vicinity of the entrance 2a of the bus 1 based on the captured image. The position of the head can be arbitrarily set, and can be set at various parts of the head such as the position of the entire head, the center position of the head, the position of the upper end and the lower end of the head. Further, the detection unit 22a detects the size of the face of a person existing in the vicinity of the entrance 2a of the bus 1 based on the captured image. The detection unit 22a outputs the detected information indicating the position of the head and the information indicating the size of the face to the determination unit 23a.

また、検出部22aは、撮像画像に写っている人物が乗車者であった場合、撮像画像である乗車者撮像画像から乗車者の顔情報(詳しくは顔の特徴点情報)を検出する。例えば、検出部22aは、乗車者撮像画像から、目(目頭、目尻など)、鼻や口、輪郭などの特徴点を抽出し、抽出された特徴点の位置を特徴点情報として検出する。 Further, when the person in the captured image is the occupant, the detection unit 22a detects the occupant's face information (specifically, facial feature point information) from the occupant's captured image which is the captured image. For example, the detection unit 22a extracts feature points such as eyes (inner corners of eyes, outer corners of eyes, etc.), nose, mouth, contour, etc. from the image captured by the passenger, and detects the positions of the extracted feature points as feature point information.

検出部22aは、乗車者撮像画像から乗車者の性別や年齢、年齢層などの属性情報を検出する。なお、特徴点情報および属性情報の検出手法は、任意に設定可能である。検出部22aは、検出された特徴点情報および属性情報を登録部24aへ出力する。 The detection unit 22a detects attribute information such as the gender, age, and age group of the passenger from the image captured by the passenger. The method for detecting feature point information and attribute information can be arbitrarily set. The detection unit 22a outputs the detected feature point information and attribute information to the registration unit 24a.

判定部23aは、撮像画像に写った人物のバス1に対する乗車を判定する。この乗車の判定処理について、図5Aおよび図5Bを参照しつつ説明する。図5Aおよび図5Bは、乗車の判定処理を説明するための図である。 The determination unit 23a determines that the person in the captured image is on the bus 1. This boarding determination process will be described with reference to FIGS. 5A and 5B. 5A and 5B are diagrams for explaining a boarding determination process.

なお、図5Aでは、撮像画像A1を示し、図5Bでは、撮像画像A1より後に撮像された撮像画像A2を示している。また、図5Aでは、図1と同様、最初に撮像された人物Pを実線で示し、その後人物Pが移動した後に撮像された人物Pを破線で示している。図5Bでは、図5Aにおいて破線で示されていた人物Pが、さらに移動した後に撮像された人物Pを一点鎖線あるいは二点鎖線で示している。 Note that FIG. 5A shows the captured image A1, and FIG. 5B shows the captured image A2 captured after the captured image A1. Further, in FIG. 5A, as in FIG. 1, the person P imaged first is shown by a solid line, and then the person P imaged after the person P moves is shown by a broken line. In FIG. 5B, the person P shown by the broken line in FIG. 5A shows the person P imaged after further moving by a one-dot chain line or a two-dot chain line.

図5Aに示すように、判定部23aは、検出された人物Pの頭Paの位置に基づいて人物Pのバス1に対する乗車を判定する。例えば、判定部23aは、人物Pの頭Paの位置が、矢印D1で示すように、人物Pの移動前後において相対的に上がった場合、人物Pがバス1に乗車したと判定するようにした。これにより、本実施形態にあっては、人物Pのバス1に対する乗車を精度よく判定することができることは、既に述べた通りである。 As shown in FIG. 5A, the determination unit 23a determines that the person P is on the bus 1 based on the position of the detected head Pa of the person P. For example, the determination unit 23a determines that the person P has boarded the bus 1 when the position of the head Pa of the person P rises relatively before and after the movement of the person P as shown by the arrow D1. .. As a result, as described above, in the present embodiment, the boarding of the person P on the bus 1 can be accurately determined.

例えば、判定部23aは、実線で示す人物Pの移動前の頭Paの位置が、所定値以上上がって、破線で示す人物Pの移動後の頭Paの位置になった場合、人物Pがバス1に乗車したと判定してもよい。ここで、所定値は、例えばバス1が停車している路面から段差3(図1参照)までの高さに応じて設定される。これにより、人物Pが段差3を上ってバス1に乗車したことを精度よく判定することが可能になる。なお、上記では、所定値が段差3の高さに応じて設定されるようにしたが、これは例示であって限定されるものではなく、任意の値に設定されてもよい。 For example, in the determination unit 23a, when the position of the head Pa before the movement of the person P shown by the solid line rises by a predetermined value or more and becomes the position of the head Pa after the movement of the person P shown by the broken line, the person P becomes a bus. It may be determined that the passenger has boarded 1. Here, the predetermined value is set according to, for example, the height from the road surface where the bus 1 is stopped to the step 3 (see FIG. 1). This makes it possible to accurately determine that the person P has climbed the step 3 and boarded the bus 1. In the above, the predetermined value is set according to the height of the step 3, but this is an example and is not limited, and may be set to an arbitrary value.

また、図5Bに示すように、判定部23aは、破線で示される人物Pのように、頭Paの位置が人物の移動前後において相対的に上がった後に、一点鎖線で示される人物Pのように、顔の大きさが人物Pの移動前後において相対的に大きくなった場合、人物Pがバス1に乗車したと判定してもよい(矢印D2参照)。 Further, as shown in FIG. 5B, the determination unit 23a is like the person P shown by the alternate long and short dash line after the position of the head Pa is relatively raised before and after the movement of the person, like the person P shown by the broken line. In addition, when the size of the face becomes relatively large before and after the movement of the person P, it may be determined that the person P has boarded the bus 1 (see arrow D2).

このように、顔の大きさが人物Pの移動前後において相対的に大きくなったということは、人物Pがバス1の中に設けられた第1カメラ11aに近づき、バス1に乗車したことを示していることから、判定部23aは、人物Pのバス1に対する乗車をより精度よく判定することができる。 In this way, the fact that the size of the face became relatively large before and after the movement of the person P means that the person P approached the first camera 11a provided in the bus 1 and got on the bus 1. From the above, the determination unit 23a can determine the boarding of the person P on the bus 1 with higher accuracy.

なお、判定部23aは、人物Pの顔の大きさが人物Pの移動前後において相対的に大きくなった後、さらに人物Pが撮像画像A2からフェードアウトした場合に、人物Pがバス1に乗車したと判定してもよい。 In the determination unit 23a, when the size of the face of the person P becomes relatively large before and after the movement of the person P, and then the person P fades out from the captured image A2, the person P gets on the bus 1. May be determined.

一方、判定部23aは、破線で示される人物Pのように、頭Paの位置が人物の移動前後において相対的に上がった後に、二点鎖線で示される人物Pのように、頭の位置が人物の移動前後において相対的に下がり、かつ、人物Pの顔の大きさが人物Pの移動前後において相対的に小さくなった場合、人物Pはバス1に乗車していないと判定してもよい(矢印D3参照)。 On the other hand, in the determination unit 23a, the position of the head is changed like the person P shown by the two-dot chain line after the position of the head Pa is relatively raised before and after the movement of the person like the person P shown by the broken line. If the size of the face of the person P is relatively small before and after the movement of the person, and the size of the face of the person P is relatively small before and after the movement of the person, it may be determined that the person P is not on the bus 1. (See arrow D3).

これにより、バス1に乗車しない人物Pを乗車者(乗客)として誤判定してしまうことを抑制することができる。すなわち、二点鎖線で示される人物Pの動作は、例えばバス1の車内に一旦入ったものの、バス1の行先が所望する行先と違っていたなどの理由でバス1から降りるような動作である。 As a result, it is possible to prevent the person P who does not get on the bus 1 from being erroneously determined as a passenger (passenger). That is, the action of the person P indicated by the two-dot chain line is, for example, an action of entering the bus 1 once, but getting off the bus 1 because the destination of the bus 1 is different from the desired destination. ..

判定部23aは、かかる動作を行った人物Pについてバス1に乗車していないと判定することから、バス1の車内に一旦入ったものの、実際にはバス1に乗車しない人物Pを乗車者(乗客)として誤判定してしまうことを抑制することができる。 Since the determination unit 23a determines that the person P who has performed such an operation is not on the bus 1, the passenger (the person P) who has once entered the bus 1 but does not actually get on the bus 1 ( It is possible to prevent misjudgment as a passenger).

図3の説明を続けると、判定部23aは、判定結果を登録部24aに出力する。登録部24aは、乗り口2a付近に存在する人物がバス1に乗車したと判定された場合に、かかる人物(乗車者)が写っている撮像画像を乗車者撮像画像とする。そして、登録部24aは、乗車者撮像画像を含む各種の情報(特徴点情報や属性情報)を記憶部30aに乗車者情報31a(図4参照)として登録する。このとき、登録部24aは、測位部12aのバス1の位置情報に基づいて、乗車者撮像画像が撮像された停留所、すなわち、乗車者が乗車した停留所の情報を乗車者情報31aに付加してもよい。 Continuing the description of FIG. 3, the determination unit 23a outputs the determination result to the registration unit 24a. When it is determined that a person existing in the vicinity of the entrance 2a has boarded the bus 1, the registration unit 24a uses a captured image of the person (passenger) as a passenger captured image. Then, the registration unit 24a registers various information (feature point information and attribute information) including the passenger captured image in the storage unit 30a as the passenger information 31a (see FIG. 4). At this time, the registration unit 24a adds the information of the stop where the passenger image is captured, that is, the stop where the passenger got on, to the passenger information 31a based on the position information of the bus 1 of the positioning unit 12a. May be good.

出力部25aは、記憶部30aにアクセスし、乗車者情報31aを降り口端末装置10bへ出力する。これにより、本実施形態に係る乗り口端末装置10aにあっては、実際に乗車した乗車者に即した乗車者情報31a、すなわち正確な乗車者情報31aを降り口端末装置10bへ出力することができる。 The output unit 25a accesses the storage unit 30a and outputs the passenger information 31a to the exit terminal device 10b. As a result, in the entrance terminal device 10a according to the present embodiment, the passenger information 31a corresponding to the passenger actually boarded, that is, the accurate passenger information 31a can be output to the exit terminal device 10b. can.

なお、出力部25aは、バス1が停留所を出発してから次の停留所に到着するまでの間に出力処理を実行するが、出力のタイミングはこれに限定されるものではない。 The output unit 25a executes the output process between the time when the bus 1 departs from one stop and the time when the bus 1 arrives at the next stop, but the output timing is not limited to this.

<降り口端末装置の構成>
次いで、降り口端末装置10bの構成について図6等を参照して説明する。図6は、降り口端末装置10bの構成例を示すブロック図である。
<Configuration of exit terminal device>
Next, the configuration of the exit terminal device 10b will be described with reference to FIG. 6 and the like. FIG. 6 is a block diagram showing a configuration example of the exit terminal device 10b.

図6に示すように、降り口端末装置10bは、第2カメラ11bと、測位部12bと、制御部20bと、記憶部30bとを備える。なお、降り口端末装置10bとしては、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。 As shown in FIG. 6, the exit terminal device 10b includes a second camera 11b, a positioning unit 12b, a control unit 20b, and a storage unit 30b. As the exit terminal device 10b, a smartphone, a tablet terminal, or the like can be used, but the exit terminal device 10b is not limited to this.

第2カメラ11bは、例えばレンズと、CCDやCMOSなどの撮像素子とを備えるカメラである。第2カメラ11bは、バス1の降り口2b(図1参照)であって、かつ、バス1の中(バス車内)に設けられる。詳しくは、第2カメラ11bは、少なくとも降り口2bから降車する降車者(乗客)の顔を含む範囲をバス車内から撮像可能な位置に設けられる。第2カメラ11bは、降車者の降車者撮像画像を撮像し、撮像された降車者撮像画像を制御部20bへ出力する。 The second camera 11b is a camera including, for example, a lens and an image pickup element such as a CCD or CMOS. The second camera 11b is the exit 2b of the bus 1 (see FIG. 1) and is provided inside the bus 1 (inside the bus). Specifically, the second camera 11b is provided at a position where at least a range including the face of a disembarking person (passenger) getting off from the exit 2b can be imaged from inside the bus. The second camera 11b captures an image of the person getting off the vehicle and outputs the captured image of the person getting off the vehicle to the control unit 20b.

測位部12bは、例えばGPS衛星から送出される電波に基づいてバス1の位置情報を取得し、取得された位置情報を制御部20bへ出力する。なお、測位部12bは、バス1が停留所に停止しているときに取得されたバス1の位置情報を、バス1が停止している停留所の位置情報として出力してもよい。 The positioning unit 12b acquires the position information of the bus 1 based on the radio wave transmitted from the GPS satellite, for example, and outputs the acquired position information to the control unit 20b. The positioning unit 12b may output the position information of the bus 1 acquired when the bus 1 is stopped at the bus stop as the position information of the bus stop where the bus 1 is stopped.

制御部20bは、取得部21bと、検出部22bと、登録部23bと、照合部24bと、算出部25bと、送信部26bとを備え、例えば、CPU、ROM、RAM、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 20b includes an acquisition unit 21b, a detection unit 22b, a registration unit 23b, a collation unit 24b, a calculation unit 25b, and a transmission unit 26b, and includes, for example, a CPU, ROM, RAM, input / output port, and the like. Includes computers and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部20bの取得部21b、検出部22b、登録部23b、照合部24b、算出部25bおよび送信部26bとして機能する。 The CPU of the computer functions as, for example, the acquisition unit 21b, the detection unit 22b, the registration unit 23b, the collation unit 24b, the calculation unit 25b, and the transmission unit 26b of the control unit 20b by reading and executing the program stored in the ROM. do.

また、制御部20bの取得部21b、検出部22b、登録部23b、照合部24b、算出部25bおよび送信部26bの少なくともいずれか一部または全部をASICやFPGA等のハードウェアで構成することもできる。 Further, at least a part or all of the acquisition unit 21b, the detection unit 22b, the registration unit 23b, the collation unit 24b, the calculation unit 25b, and the transmission unit 26b of the control unit 20b may be configured by hardware such as ASIC or FPGA. can.

また、記憶部30bは、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部30bには、乗車者情報31b、降車者情報32b、乗降カウンタ33bおよび各種プログラムなどが記憶される。 Further, the storage unit 30b is a storage unit composed of a storage device such as a non-volatile memory or a data flash. The passenger information 31b, the disembarkation information 32b, the boarding / alighting counter 33b, various programs, and the like are stored in the storage unit 30b.

乗車者情報31bは、乗り口端末装置10aから出力された乗車者情報31aと同じ情報であるため、ここでの説明を省略する(図4参照)。 Since the passenger information 31b is the same information as the passenger information 31a output from the entrance terminal device 10a, the description thereof is omitted here (see FIG. 4).

降車者情報32bは、降車者に関する情報である。ここで、図7を用いて、降車者情報32bについて説明する。図7は、降車者情報32bの一例を示す図である。図7に示すように、降車者情報32bには、「降車者ID」、「降車者画像」、「特徴点」、「性別」、「年齢」、「年齢層」、「降車した停留所」および「照合結果」等の項目が含まれ、各項目は互いに関連付けられている。 The disembarkation information 32b is information about the disembarkation person. Here, the disembarkation information 32b will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of disembarkation information 32b. As shown in FIG. 7, the disembarkation information 32b includes "disembarkation ID", "disembarkation person image", "characteristic point", "gender", "age", "age group", "disembarkation stop" and Items such as "collation result" are included, and each item is associated with each other.

「降車者ID」は、降車者を識別する識別情報である。「降車者画像」は、降車者撮像画像の情報である。「特徴点」は、顔の特徴点情報である。かかる特徴点情報には、例えば降車者撮像画像に写った降車者の顔における目、鼻や口などの特徴点の位置などが含まれるが、これに限定されるものではない。 The "get-off ID" is identification information for identifying the get-off person. The "get-off person image" is information of the get-off person captured image. The "feature point" is the feature point information of the face. The feature point information includes, but is not limited to, for example, the positions of feature points such as eyes, nose, and mouth on the face of the disembarkator in the image captured by the disembarkant.

「性別」は、降車者撮像画像に写った降車者の性別を示す情報である。「年齢」は、降車者撮像画像に写った降車者の年齢を示す情報であり、「年齢層」は、かかる降車者の年齢層を示す情報である。 The "gender" is information indicating the gender of the disembarking person in the image captured by the disembarking person. The "age" is information indicating the age of the disembarking person in the image captured by the disembarking person, and the "age group" is information indicating the age group of the disembarking person.

「降車した停留所」は、降車者が乗車した停留所を示す情報である。「照合結果」は、後述する照合部24bによって乗車者情報31bと降車者情報32bとが照合されたときの照合結果を示す情報である。「照合結果」には、例えば降車者情報32bと一致した乗車者情報31bの乗車者IDに関する情報が含まれるが、これに限定されるものではない。 The "bus stop where you got off" is information indicating the bus stop where the person who got off the bus got on. The "collation result" is information indicating a collation result when the passenger information 31b and the disembarkation information 32b are collated by the collation unit 24b described later. The “collation result” includes, for example, information regarding the passenger ID of the passenger information 31b that matches the disembarkation information 32b, but is not limited thereto.

図7に示す例では、降車者ID「Q01」で識別される降車者のデータは、降車者画像が「画像E11」、特徴点が「特徴点F01」、性別が「男性」、年齢が「年齢G01」、年齢層が「大人」、降車した停留所が「停留所H11」、照合結果が「乗車者ID[P01]と一致」であることを示している。 In the example shown in FIG. 7, the data of the disembarkation person identified by the disembarkation person ID "Q01" is "image E11" for the disembarkation person image, "feature point F01" for the feature point, "male" for the gender, and "male" for the age. It indicates that "age G01", the age group is "adult", the stop where the bus got off is "stop H11", and the collation result is "match with the passenger ID [P01]".

図6の説明に戻ると、乗降カウンタ33bは、バス1の現在の乗客数をカウントするカウンタである。 Returning to the description of FIG. 6, the boarding / alighting counter 33b is a counter that counts the current number of passengers on the bus 1.

制御部20bの取得部21bは、第2カメラ11bから、バス1から降車する人物(降車者)が撮像された降車者撮像画像を取得する。例えば、取得部21bは、バス1が停留所で停止しているときに降車者撮像画像を取得するが、取得のタイミングはこれに限定されるものではない。取得部21bは、取得された降車者撮像画像を検出部22bへ出力する。 The acquisition unit 21b of the control unit 20b acquires an image of a person getting off the bus 1 (a person getting off the bus) from the second camera 11b. For example, the acquisition unit 21b acquires an image captured by a person getting off the bus when the bus 1 is stopped at a stop, but the timing of acquisition is not limited to this. The acquisition unit 21b outputs the acquired image of the person getting off the vehicle to the detection unit 22b.

また、取得部21bは、乗り口端末装置10aから出力された乗車者情報を取得し、記憶部30bに乗車者情報31b(図4参照)として登録する。 Further, the acquisition unit 21b acquires the passenger information output from the entrance terminal device 10a and registers it in the storage unit 30b as the passenger information 31b (see FIG. 4).

検出部22bは、降車者撮像画像から降車者の顔情報(詳しくは顔の特徴点情報)を検出する。例えば、検出部22bは、降車者撮像画像から、目、鼻や口、輪郭などの特徴点を抽出し、抽出された特徴点の位置を特徴点情報として検出する。 The detection unit 22b detects the face information of the person getting off (specifically, the feature point information of the face) from the captured image of the person getting off. For example, the detection unit 22b extracts feature points such as eyes, nose, mouth, and contour from the image captured by the person getting off the vehicle, and detects the positions of the extracted feature points as feature point information.

検出部22bは、降車者撮像画像から降車者の性別や年齢、年齢層などの属性情報を検出する。検出部22bは、検出された特徴点情報および属性情報を降車者撮像画像とともに、登録部23bへ出力する。 The detection unit 22b detects attribute information such as the gender, age, and age group of the disembarking person from the captured image of the disembarking person. The detection unit 22b outputs the detected feature point information and attribute information to the registration unit 23b together with the image captured by the person getting off the vehicle.

登録部23bは、降車者撮像画像、特徴点情報および属性情報を含む各種の情報を記憶部30bに降車者情報32b(図7参照)として登録する。このとき、登録部23bは、測位部12bのバス1の位置情報に基づいて、降車者撮像画像が撮像された停留所、すなわち、降車者が降車した停留所の情報を降車者情報32bに付加してもよい。 The registration unit 23b registers various information including a disembarkation person captured image, feature point information, and attribute information in the storage unit 30b as disembarkation person information 32b (see FIG. 7). At this time, the registration unit 23b adds the information of the stop where the image of the disembarking person is captured, that is, the stop where the disembarking person got off, to the disembarking person information 32b based on the position information of the bus 1 of the positioning unit 12b. May be good.

照合部24bは、乗車者情報31bと降車者情報32bとを照合する。例えば、照合部24bは、記憶部30bの乗車者情報31bと降車者情報32bにアクセスし、降車者の特徴点情報や属性情報が、乗車者の特徴点情報や属性情報と一致あるいは略一致するか否かの照合を行う。照合部24bは、降車者の特徴点情報等が乗車者の特徴点情報等と一致あるいは略一致する場合、かかる照合結果を、降車者情報32b(図7参照)の「照合結果」に登録する。ここでは、照合部24bは、降車者ID「Q01」の降車者の特徴点情報や属性情報が、乗車者ID「P01」の情報の特徴点情報や属性情報と一致したことを示している。 The collation unit 24b collates the passenger information 31b with the disembarkation information 32b. For example, the collation unit 24b accesses the passenger information 31b and the disembarkation information 32b of the storage unit 30b, and the feature point information and the attribute information of the disembarkator match or substantially match the feature point information and the attribute information of the passenger. Check whether or not. When the collation unit 24b matches or substantially matches the feature point information of the occupant with the feature point information of the occupant, the collation unit 24b registers the collation result in the "collation result" of the disembarkation information 32b (see FIG. 7). .. Here, the collation unit 24b indicates that the feature point information and the attribute information of the disembarkator of the disembarkation ID “Q01” match the feature point information and the attribute information of the information of the passenger ID “P01”.

算出部25bは、乗車者情報31bと降車者情報32bとに基づいてバス1の乗客数を算出する。例えば、算出部25bは、乗車者情報31bに乗車者の顔情報や属性情報が新たに登録されたときに乗車者の人数を1人加算する、詳しくは乗降カウンタ33bをインクリメントする。 The calculation unit 25b calculates the number of passengers on the bus 1 based on the passenger information 31b and the disembarkation information 32b. For example, the calculation unit 25b adds one passenger to the passenger information 31b when the passenger's face information and attribute information are newly registered, and specifically increments the boarding / alighting counter 33b.

また、算出部25bは、降車者情報32bに、乗車者の特徴点情報や属性情報と一致あるいは略一致する降車者の情報が登録された場合に、かかる特徴点情報等の乗客がバス1から降車したと推定し、乗車者の人数から降車者を1人減算して得た値をバス1の現在の乗客数として算出する、詳しくは乗降カウンタ33bをデクリメントする。 Further, in the calculation unit 25b, when the information of the disembarkation person who matches or substantially matches the feature point information and the attribute information of the passenger is registered in the disembarkation information 32b, the passenger such as the feature point information is transferred from the bus 1. It is estimated that the passengers have disembarked, and the value obtained by subtracting one passenger from the number of passengers is calculated as the current number of passengers on the bus 1. Specifically, the boarding / alighting counter 33b is decremented.

このように、算出部25bは、正確な乗車者情報31bを用いることから、バス1の乗客数を精度よく算出することができる。なお、算出部25bは、バス1が停留所を出発して次の停留所に到着するまでの間に算出処理を実行するが、算出のタイミングはこれに限定されるものではない。 As described above, since the calculation unit 25b uses the accurate passenger information 31b, the number of passengers on the bus 1 can be calculated accurately. The calculation unit 25b executes the calculation process until the bus 1 departs from one stop and arrives at the next stop, but the timing of the calculation is not limited to this.

送信部26bは、乗車者情報31bや降車者情報32bの一部あるいは全部と、乗降カウンタ33bの値であるバス1の乗客数の情報とを含む乗客情報を、管理サーバ200へ送信する。 The transmission unit 26b transmits passenger information including a part or all of the passenger information 31b and the disembarkation information 32b and information on the number of passengers of the bus 1 which is the value of the boarding / alighting counter 33b to the management server 200.

なお、送信部26bは、バス1が停留所を出発して算出部25bでの算出処理等が完了してから次の停留所に到着するまでの間に送信処理を実行するが、送信のタイミングはこれに限定されるものではない。 The transmission unit 26b executes the transmission process from the time when the bus 1 departs from the bus stop and the calculation process or the like in the calculation unit 25b is completed until the bus 1 arrives at the next stop. Not limited to.

<管理サーバの構成>
次いで、管理サーバ200の構成について図8を参照して説明する。図8は、管理サーバ200の構成例を示すブロック図である。
<Management server configuration>
Next, the configuration of the management server 200 will be described with reference to FIG. FIG. 8 is a block diagram showing a configuration example of the management server 200.

図8に示すように、管理サーバ200は、通信部201と、制御部210と、記憶部220とを備える。通信部201は、通信ネットワークNに双方向通信可能に接続する通信インターフェイスであり、バス端末装置10やバス事業者端末装置300、ユーザ端末装置400等との間で情報の送受信を行う。 As shown in FIG. 8, the management server 200 includes a communication unit 201, a control unit 210, and a storage unit 220. The communication unit 201 is a communication interface that connects to the communication network N so as to be capable of bidirectional communication, and transmits / receives information to / from the bus terminal device 10, the bus operator terminal device 300, the user terminal device 400, and the like.

制御部210は、取得部211と、混雑度算出部212と、提供部213とを備え、例えば、CPU、ROM、RAM、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 210 includes an acquisition unit 211, a congestion degree calculation unit 212, and a provision unit 213, and includes, for example, a computer having a CPU, ROM, RAM, input / output ports, and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部210の取得部211、混雑度算出部212および提供部213として機能する。 The CPU of the computer functions as the acquisition unit 211, the congestion degree calculation unit 212, and the provision unit 213 of the control unit 210, for example, by reading and executing the program stored in the ROM.

また、制御部210の取得部211、混雑度算出部212および提供部213の少なくともいずれか一部または全部をASICやFPGA等のハードウェアで構成することもできる。 Further, at least a part or all of the acquisition unit 211, the congestion degree calculation unit 212, and the provision unit 213 of the control unit 210 may be configured by hardware such as ASIC or FPGA.

また、記憶部220は、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部220には、乗客情報221、バス情報222および各種プログラムなどが記憶される。 Further, the storage unit 220 is a storage unit composed of a storage device such as a non-volatile memory or a data flash. Passenger information 221 and bus information 222, various programs, and the like are stored in the storage unit 220.

乗客情報221は、降り口端末装置10bから送信された、バス1の乗客に関する情報である。乗客情報221には、上記したように、乗車者情報31bや降車者情報32bの一部あるいは全部と、乗降カウンタ33bの値であるバス1の乗客数の情報とが含まれる。 The passenger information 221 is information about the passengers of the bus 1 transmitted from the exit terminal device 10b. As described above, the passenger information 221 includes a part or all of the passenger information 31b and the disembarkation information 32b, and information on the number of passengers on the bus 1, which is the value of the boarding / alighting counter 33b.

バス情報222は、バス1に関する情報である。バス情報222には、例えばバス1の定員を示す定員情報などが含まれるが、これに限られず、バス1の運行計画情報などその他の情報が含まれてもよい。なお、バス情報222は、予め記憶部220に記憶されるが、これに限定されるものではなく、例えばバス事業者端末装置300など外部端末から送信されて記憶部220に記憶されてもよい。 Bus information 222 is information about bus 1. The bus information 222 includes, for example, capacity information indicating the capacity of the bus 1, but is not limited to this, and may include other information such as operation plan information of the bus 1. The bus information 222 is stored in the storage unit 220 in advance, but is not limited to this, and may be transmitted from an external terminal such as a bus operator terminal device 300 and stored in the storage unit 220.

制御部210の取得部211は、降り口端末装置10bから送信された情報を取得し、取得された情報を記憶部220に乗客情報221として記憶させる。 The acquisition unit 211 of the control unit 210 acquires the information transmitted from the exit terminal device 10b, and stores the acquired information in the storage unit 220 as passenger information 221.

混雑度算出部212は、バス1の混雑度、詳しくはバス1の現在の混雑度を算出する。混雑度は、バス1の混雑状況の度合いを示す指標値であり、例えばバス1の定員に対する乗客数等に応じた数段階のレベルで示される値である。 The congestion degree calculation unit 212 calculates the congestion degree of the bus 1, specifically, the current congestion degree of the bus 1. The degree of congestion is an index value indicating the degree of congestion of the bus 1, and is a value indicated in several levels according to, for example, the number of passengers with respect to the capacity of the bus 1.

例えば、混雑度算出部212は、乗客情報221に含まれるバス1の現在の乗客数の情報と、バス情報222に含まれるバス1の定員情報とに基づいて、バス1の現在の混雑度を算出する。混雑度算出部212は、算出された混雑度を示す混雑度情報を提供部213へ出力する。 For example, the congestion degree calculation unit 212 determines the current congestion degree of the bus 1 based on the information on the current number of passengers of the bus 1 included in the passenger information 221 and the capacity information of the bus 1 included in the bus information 222. calculate. The congestion degree calculation unit 212 outputs the congestion degree information indicating the calculated congestion degree to the provision unit 213.

提供部213は、かかる混雑度情報を通信部201を介して、例えばユーザ端末装置400やバス事業者端末装置300へ提供することができる。また、提供部213は、乗客情報221を通信部201を介して、例えばバス事業者端末装置300へ提供することができる。 The providing unit 213 can provide such congestion degree information to, for example, a user terminal device 400 or a bus operator terminal device 300 via the communication unit 201. Further, the providing unit 213 can provide the passenger information 221 to, for example, the bus operator terminal device 300 via the communication unit 201.

<実施形態に係る情報処理システムの制御処理>
次に、実施形態に係るバス端末装置10を含む情報処理システム100が実行する処理手順について、図9を用いて説明する。図9は、実施形態に係るバス端末装置10を含む情報処理システム100が実行する処理シーケンスの一例を示す図である。
<Control processing of the information processing system according to the embodiment>
Next, a processing procedure executed by the information processing system 100 including the bus terminal device 10 according to the embodiment will be described with reference to FIG. FIG. 9 is a diagram showing an example of a processing sequence executed by the information processing system 100 including the bus terminal device 10 according to the embodiment.

図9に示すように、先ず乗り口端末装置10aは、第1カメラ11aから、バス1の乗り口2a付近に存在する人物の撮像画像を取得する(ステップS10)。次いで、乗り口端末装置10aは、撮像画像に写った人物の頭の位置に基づいて人物のバス1に対する乗車を判定する(ステップS11)。 As shown in FIG. 9, first, the entrance terminal device 10a acquires a captured image of a person existing in the vicinity of the entrance 2a of the bus 1 from the first camera 11a (step S10). Next, the entrance terminal device 10a determines that the person is on the bus 1 based on the position of the head of the person in the captured image (step S11).

乗り口端末装置10aは、バス1に乗車したと判定された人物が写った撮像画像(乗車者撮像画像)を含む乗車者情報を記憶部30aに登録する(ステップS12)。そして、乗り口端末装置10aは、乗車者情報を降り口端末装置10bへ出力する(ステップS13)。 The entrance terminal device 10a registers the passenger information including the captured image (passenger captured image) of the person determined to have boarded the bus 1 in the storage unit 30a (step S12). Then, the entrance terminal device 10a outputs the passenger information to the exit terminal device 10b (step S13).

降り口端末装置10bは、第2カメラ11bから降車者撮像画像を取得する(ステップS14)。次いで、降り口端末装置10bは、降車者撮像画像を含む降車者情報を記憶部30bに登録する(ステップS15)。ここで、記憶部30bには、以前の処理で乗り口端末装置10aから出力された乗車者情報が登録されているものとする。 The exit terminal device 10b acquires an image captured by the person getting off the vehicle from the second camera 11b (step S14). Next, the exit terminal device 10b registers the disembarkation person information including the disembarkation person captured image in the storage unit 30b (step S15). Here, it is assumed that the passenger information output from the entrance terminal device 10a in the previous process is registered in the storage unit 30b.

次いで、降り口端末装置10bは、乗車者情報と降車者情報とを照合する(ステップS16)。例えば、降り口端末装置10bは、降車者情報における降車者の特徴点情報や属性情報が、乗車者情報における乗車者の特徴点情報や属性情報と一致あるいは略一致するか否かの照合を行う。 Next, the exit terminal device 10b collates the passenger information with the disembarkation information (step S16). For example, the exit terminal device 10b collates whether or not the feature point information and the attribute information of the disembarkator in the disembarkation information match or substantially match the feature point information and the attribute information of the occupant in the occupant information. ..

降り口端末装置10bは、乗車者情報、降車者情報および照合結果などに基づいて、バス1の乗客数を算出する(ステップS17)。また、降り口端末装置10bは、乗り口端末装置10aから乗車者情報が新たに出力された場合、記憶部30bの乗車者情報を更新する(ステップS18)。 The exit terminal device 10b calculates the number of passengers on the bus 1 based on the passenger information, the disembarkation information, the collation result, and the like (step S17). Further, the exit terminal device 10b updates the passenger information of the storage unit 30b when the passenger information is newly output from the entrance terminal device 10a (step S18).

そして、降り口端末装置10bは、乗車者情報や降車者情報、バス1の乗客数などを含む乗客情報を管理サーバ200へ送信する(ステップS19)。 Then, the exit terminal device 10b transmits passenger information including passenger information, passenger information, the number of passengers on the bus 1, and the like to the management server 200 (step S19).

管理サーバ200は、バス1の乗客数の情報などに基づいてバス1の混雑度を算出する(ステップS20)。そして、管理サーバ200は、混雑度情報や乗客情報などを、バス事業者端末装置300やユーザ端末装置400へ提供する(ステップS21)。 The management server 200 calculates the degree of congestion of the bus 1 based on the information on the number of passengers of the bus 1 (step S20). Then, the management server 200 provides congestion degree information, passenger information, and the like to the bus operator terminal device 300 and the user terminal device 400 (step S21).

上述してきたように、実施形態に係るバス端末装置10(乗降判定装置の一例)は、検出部22aと、判定部23aとを備える。検出部22aは、バス1の乗降口(乗り口2a)付近に存在する人物の頭の位置を検出する。判定部23aは、検出部22aによって検出された人物の頭の位置に基づいて人物の乗り物に対する乗降を判定する。これにより、実施形態にあっては、乗り物の乗降口付近に存在する人物の乗り物に対する乗降を精度よく判定することができる。 As described above, the bus terminal device 10 (an example of the boarding / alighting determination device) according to the embodiment includes a detection unit 22a and a determination unit 23a. The detection unit 22a detects the position of the head of a person existing near the entrance / exit (entrance 2a) of the bus 1. The determination unit 23a determines whether the person gets on and off the vehicle based on the position of the head of the person detected by the detection unit 22a. Thereby, in the embodiment, it is possible to accurately determine the boarding / alighting of a person existing near the boarding / alighting port of the vehicle with respect to the vehicle.

<変形例>
次に、変形例について説明する。変形例では、降り口端末装置10bが、例えばバス1の降り口2b(図1参照)付近に存在する人物の乗り物からの降車の判定を行うようにした。
<Modification example>
Next, a modification will be described. In the modified example, the exit terminal device 10b determines to disembark from the vehicle of a person existing near the exit 2b (see FIG. 1) of the bus 1, for example.

図10は、変形例に係る降り口端末装置10bの構成例を示すブロック図である。なお、以下においては、実施形態と共通の構成については、同一の符号を付して説明を省略する。 FIG. 10 is a block diagram showing a configuration example of the exit terminal device 10b according to the modified example. In the following, the same reference numerals will be given to the configurations common to the embodiments, and the description thereof will be omitted.

図10に示すように、変形例に係る降り口端末装置10bの制御部20bは、判定部27bをさらに備える。 As shown in FIG. 10, the control unit 20b of the exit terminal device 10b according to the modified example further includes a determination unit 27b.

制御部20bの取得部21bは、第2カメラ11bから、バス1の降り口2b付近に存在する人物(降車者を含む)の撮像画像を取得する。取得部21bは、取得された撮像画像を検出部22bへ出力する。 The acquisition unit 21b of the control unit 20b acquires a captured image of a person (including a person getting off) existing near the exit 2b of the bus 1 from the second camera 11b. The acquisition unit 21b outputs the acquired captured image to the detection unit 22b.

検出部22bは、撮像画像に基づいて、バス1の降り口2b付近に存在する人物の頭の位置を検出する。検出部22bは、検出された頭の位置を示す情報を判定部27bへ出力する。 The detection unit 22b detects the position of the head of a person existing near the exit 2b of the bus 1 based on the captured image. The detection unit 22b outputs information indicating the detected head position to the determination unit 27b.

判定部27bは、撮像画像に写った人物のバス1からの降車を判定する。この降車の判定処理について、図11を参照しつつ説明する。図11は、降車の判定処理を説明するための図である。なお、図11では、撮像画像B1を示し、最初に撮像された人物Pを実線で示し、その後人物Pが移動した後に撮像された人物Pを破線で示している。 The determination unit 27b determines that the person in the captured image gets off the bus 1. This disembarkation determination process will be described with reference to FIG. FIG. 11 is a diagram for explaining a disembarkation determination process. In FIG. 11, the captured image B1 is shown, the first captured person P is shown by a solid line, and then the person P imaged after the person P moves is shown by a broken line.

図11に示すように、判定部27bは、検出された人物Pの頭Pbの位置に基づいて人物Pのバス1からの降車を判定する。例えば、判定部27bは、人物Pの頭Pbの位置が、矢印D4で示すように、人物Pの移動前後において相対的に下がった場合、人物Pがバス1から降車したと判定するようにした。これにより、変形例にあっては、人物Pのバス1からの降車を精度よく判定することができる。 As shown in FIG. 11, the determination unit 27b determines that the person P gets off the bus 1 based on the position of the detected head Pb of the person P. For example, the determination unit 27b determines that the person P has disembarked from the bus 1 when the position of the head Pb of the person P is relatively lowered before and after the movement of the person P as shown by the arrow D4. .. As a result, in the modified example, it is possible to accurately determine the disembarkation of the person P from the bus 1.

詳しく説明すると、例えば人物Pがバス1の車内から車外に降りて降車する場合、バス1の降り口2bにある段差4(図1参照)を下りる必要があるため、人物Pの頭Pbの位置は、人物Pの移動前後で相対的に下がる。そこで、変形例に係る降り口端末装置10bにあっては、人物Pの頭Pbの位置が、人物Pの移動前後において相対的に下がった場合、人物Pがバス1から降車したと判定するようにした。 More specifically, for example, when the person P gets off from the inside of the bus 1 and gets off, it is necessary to go down the step 4 (see FIG. 1) at the exit 2b of the bus 1, so that the position of the head Pb of the person P Decreases relatively before and after the movement of the person P. Therefore, in the exit terminal device 10b according to the modified example, when the position of the head Pb of the person P is relatively lowered before and after the movement of the person P, it is determined that the person P has disembarked from the bus 1. I made it.

これにより、変形例に係る降り口端末装置10bは、人物Pのバス1からの降車を精度よく判定することができる。言い換えると、降り口端末装置10bは、例えば降り口2b付近に立っているだけで実際には降車しない人物が撮像画像に写り込んだ場合であっても、人物の頭の位置は相対的に下がらないため、バス1から降車したと判定しない。これにより、降り口端末装置10bは、降り口2b付近に立っているだけの人物をバス1から降車する降車者として誤判定してしまうことを抑制することができる。 As a result, the exit terminal device 10b according to the modified example can accurately determine the disembarkation of the person P from the bus 1. In other words, in the exit terminal device 10b, even if a person who is standing near the exit 2b but does not actually get off is reflected in the captured image, the position of the head of the person is relatively lowered. Since there is no such thing, it is not determined that the bus has disembarked from bus 1. As a result, the exit terminal device 10b can prevent a person who is only standing in the vicinity of the exit 2b from being erroneously determined as a person getting off the bus 1.

例えば、判定部27bは、実線で示す人物Pの移動前の頭Pbの位置が、第2所定値以上下がって、破線で示す人物Pの移動後の頭Pbの位置になった場合、人物Pがバス1から降車したと判定してもよい。ここで、第2所定値は、例えばバス1が停車している路面から段差4(図1参照)までの高さに応じて設定される。これにより、人物Pが段差4を下りてバス1から降車したことを精度よく判定することが可能になる。なお、上記では、第2所定値が段差4の高さに応じて設定されるようにしたが、これは例示であって限定されるものではなく、任意の値に設定されてもよい。 For example, in the determination unit 27b, when the position of the head Pb before the movement of the person P shown by the solid line is lowered by a second predetermined value or more and becomes the position of the head Pb after the movement of the person P shown by the broken line, the person P May be determined to have disembarked from bus 1. Here, the second predetermined value is set according to, for example, the height from the road surface where the bus 1 is stopped to the step 4 (see FIG. 1). This makes it possible to accurately determine that the person P has descended the step 4 and got off the bus 1. In the above, the second predetermined value is set according to the height of the step 4, but this is an example and is not limited, and may be set to any value.

なお、登録部23bは、降り口2b付近に存在する人物がバス1から降車したと判定された場合に、かかる人物(降車者)が写っている撮像画像を降車者撮像画像とする。そして、登録部24aは、降車者撮像画像を含む各種の情報(特徴点情報や属性情報)を記憶部30bに降車者情報32bとして登録する。 When it is determined that a person existing near the exit 2b has disembarked from the bus 1, the registration unit 23b uses an image captured by the person (disembarking person) as an image captured by the disembarking person. Then, the registration unit 24a registers various information (feature point information and attribute information) including the image captured by the disembarkator in the storage unit 30b as the disembarkation information 32b.

なお、上記した変形例では、判定部27bは、人物の頭の位置に基づいて人物の降車を判定するようにしたが、これに限定されるものではなく、頭の位置に加え、あるいは代えて人物の顔の大きさに基づいて人物の降車を判定してもよい。すなわち、図示は省略するが、判定部27bは、頭の位置が人物の移動前後において相対的に下がった後に、顔の大きさが人物の移動前後において相対的に小さくなった場合、人物がバス1に降車したと判定してもよい。このように、顔の大きさが人物の移動前後において相対的に小さくなったということは、人物がバス1の中に設けられた第2カメラ11bから離れ、バス1から降車したことを示していることから、判定部27bは、人物のバス1からの降車をより精度よく判定することができる。 In the above-mentioned modification, the determination unit 27b determines the disembarkation of the person based on the position of the head of the person, but the present invention is not limited to this, and the determination unit 27b is added to or replaced with the position of the head. The disembarkation of a person may be determined based on the size of the person's face. That is, although not shown, in the determination unit 27b, when the position of the head is relatively lowered before and after the movement of the person and then the size of the face is relatively small before and after the movement of the person, the person is busted. It may be determined that the vehicle has disembarked at 1. In this way, the fact that the size of the face became relatively small before and after the movement of the person indicates that the person left the second camera 11b provided in the bus 1 and got off the bus 1. Therefore, the determination unit 27b can more accurately determine that a person is getting off the bus 1.

なお、バス端末装置10は、上記した乗車の判定および降車の判定の両方を行ってもよいし、いずれか一方を行ってもよい。 In addition, the bus terminal device 10 may perform both the determination of boarding and the determination of disembarkation described above, or may perform either one.

なお、上記した実施形態および変形例において、乗り口端末装置10a、降り口端末装置10bおよび管理サーバ200がそれぞれ、各種の処理を行うようにしたが、各種の処理が行われる装置は、上記に限定されるものではない。 In the above-described embodiments and modifications, the entrance terminal device 10a, the exit terminal device 10b, and the management server 200 each perform various processes, but the devices on which the various processes are performed are described above. Not limited.

すなわち、乗り口端末装置10aで行われる処理の一部あるいは全部が、降り口端末装置10bあるいは管理サーバ200で行われるようにしてもよい。また、降り口端末装置10bで行われる処理の一部あるいは全部が、乗り口端末装置10aあるいは管理サーバ200で行われるようにしてもよい。また、管理サーバ200で行われる処理の一部あるいは全部が、乗り口端末装置10aあるいは降り口端末装置10bで行われるようにしてもよい。 That is, a part or all of the processing performed by the entrance terminal device 10a may be performed by the exit terminal device 10b or the management server 200. Further, a part or all of the processing performed by the exit terminal device 10b may be performed by the entrance terminal device 10a or the management server 200. Further, a part or all of the processing performed by the management server 200 may be performed by the entrance terminal device 10a or the exit terminal device 10b.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments described and described above. Thus, various modifications can be made without departing from the spirit or scope of the overall concept of the invention as defined by the appended claims and their equivalents.

1 バス
10 バス端末装置
10a 乗り口端末装置
10b 降り口端末装置
11a 第1カメラ
11b 第2カメラ
22a 検出部
23a 判定部
100 情報処理システム
200 管理サーバ
1 Bus 10 Bus terminal device 10a Exit terminal device 10b Exit terminal device 11a 1st camera 11b 2nd camera 22a Detection unit 23a Judgment unit 100 Information processing system 200 Management server

Claims (6)

乗り物の乗降口付近に存在する人物の頭の位置を検出する検出部と、
前記検出部によって検出された前記人物の頭の位置に基づいて前記人物の前記乗り物に対する乗降を判定する判定部と
を備えることを特徴とする乗降判定装置。
A detector that detects the position of a person's head near the entrance of a vehicle,
A boarding / alighting determination device including a determination unit that determines boarding / alighting of the person with respect to the vehicle based on the position of the head of the person detected by the detection unit.
前記判定部は、
前記人物の頭の位置が前記人物の移動前後において相対的に上がった場合、前記人物が前記乗り物に乗車したと判定すること
を特徴とする請求項1に記載の乗降判定装置。
The determination unit
The boarding / alighting determination device according to claim 1, wherein when the position of the head of the person is relatively raised before and after the movement of the person, it is determined that the person has boarded the vehicle.
前記検出部は、
前記乗り物の乗降口であって、かつ、前記乗り物の中に設けられるカメラによって撮像された前記人物の撮像画像に基づいて、前記人物の顔の大きさを検出し、
前記判定部は、
前記人物の頭の位置が前記人物の移動前後において相対的に上がった後に、前記人物の顔の大きさが前記人物の移動前後において相対的に大きくなった場合、前記人物が前記乗り物に乗車したと判定すること
を特徴とする請求項1または2に記載の乗降判定装置。
The detector is
The size of the face of the person is detected based on the captured image of the person, which is the entrance / exit of the vehicle and is captured by the camera provided in the vehicle.
The determination unit
When the size of the face of the person becomes relatively large before and after the movement of the person after the position of the head of the person rises relatively before and after the movement of the person, the person gets on the vehicle. The boarding / alighting determination device according to claim 1 or 2, wherein the determination is made.
前記判定部は、
前記人物の頭の位置が前記人物の移動前後において相対的に上がった後に、前記人物の頭の位置が前記人物の移動前後において相対的に下がり、かつ、前記人物の顔の大きさが前記人物の移動前後において相対的に小さくなった場合、前記人物は前記乗り物に乗車していないと判定すること
を特徴とする請求項3に記載の乗降判定装置。
The determination unit
After the position of the head of the person is relatively raised before and after the movement of the person, the position of the head of the person is relatively lowered before and after the movement of the person, and the size of the face of the person is the person. The boarding / alighting determination device according to claim 3, wherein when the person becomes relatively small before and after the movement of the vehicle, it is determined that the person is not on the vehicle.
前記判定部は、
前記人物の頭の位置が前記人物の移動前後において相対的に下がった場合、前記人物が前記乗り物から降車したと判定すること
を特徴とする請求項1~4のいずれか一つに記載の乗降判定装置。
The determination unit
The boarding / alighting according to any one of claims 1 to 4, wherein when the position of the head of the person is relatively lowered before and after the movement of the person, it is determined that the person has disembarked from the vehicle. Judgment device.
乗り物の乗降口付近に存在する人物の頭の位置を検出する検出工程と、
前記検出工程によって検出された前記人物の頭の位置に基づいて前記人物の前記乗り物に対する乗降を判定する判定工程と
を含むことを特徴とする乗降判定方法。
A detection process that detects the position of a person's head near the entrance of a vehicle,
A method for determining boarding / alighting, which comprises a determination step of determining boarding / alighting of the person with respect to the vehicle based on the position of the head of the person detected by the detection step.
JP2020190445A 2020-11-16 2020-11-16 Getting on and off determining device and getting on and off determining method Pending JP2022079320A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020190445A JP2022079320A (en) 2020-11-16 2020-11-16 Getting on and off determining device and getting on and off determining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020190445A JP2022079320A (en) 2020-11-16 2020-11-16 Getting on and off determining device and getting on and off determining method

Publications (1)

Publication Number Publication Date
JP2022079320A true JP2022079320A (en) 2022-05-26

Family

ID=81707547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020190445A Pending JP2022079320A (en) 2020-11-16 2020-11-16 Getting on and off determining device and getting on and off determining method

Country Status (1)

Country Link
JP (1) JP2022079320A (en)

Similar Documents

Publication Publication Date Title
JP6145210B1 (en) Passenger management device and passenger management method
US10768636B2 (en) Automatic vehicle dispatching system and server device
CN112997227B (en) Traffic support system, server, method, vehicle-mounted device, method of operating vehicle-mounted device, recording medium, computer, and semiconductor integrated circuit
CN109311622B (en) Elevator system and car call estimation method
US20170068863A1 (en) Occupancy detection using computer vision
RU2017131863A (en) SYSTEMS AND METHODS FOR PASSENGER INSPECTION
US11880899B2 (en) Proximity-based shared transportation reservations
US20220063609A1 (en) Vehicle accident surrounding information link apparatus
CN112084824A (en) Passenger reminding method and device, electronic equipment and storage medium
JP2022079320A (en) Getting on and off determining device and getting on and off determining method
JP7109905B2 (en) Routing device and routing method
JP2020077166A (en) Vehicle and vehicle operation method
JP6563283B2 (en) Monitoring system
JP2022102710A (en) Information processing device and information processing method
JP2022079321A (en) Computation device and computation method
JP2022079319A (en) Information processing device and information processing method
JP2023037801A (en) Information processing device and information processing method
JP7400975B2 (en) Face recognition method
JP2023037802A (en) Information processing apparatus and information processing method
JP2023037803A (en) Control device and control method
JP7415327B2 (en) Mobile terminal control method, mobile terminal control device, program
CN113283328A (en) Control method and device for moving equipment to elevator and storage medium
JP2022102712A (en) Air-conditioning control device and air-conditioning method
CN112001831A (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP7305698B2 (en) Vehicle congestion determination method and vehicle congestion determination system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240507