JP2022102710A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2022102710A
JP2022102710A JP2020217599A JP2020217599A JP2022102710A JP 2022102710 A JP2022102710 A JP 2022102710A JP 2020217599 A JP2020217599 A JP 2020217599A JP 2020217599 A JP2020217599 A JP 2020217599A JP 2022102710 A JP2022102710 A JP 2022102710A
Authority
JP
Japan
Prior art keywords
information
passenger
camera
bus
passenger information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020217599A
Other languages
Japanese (ja)
Inventor
智春 片岡
Tomoharu Kataoka
麻由 加茂
Mayu Kamo
斉 ▲濱▼上
Hitoshi Hamaue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2020217599A priority Critical patent/JP2022102710A/en
Publication of JP2022102710A publication Critical patent/JP2022102710A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

To provide an information processing device and an information processing method, capable of improving accuracy of passenger information.SOLUTION: An information processing device according to one aspect of the embodiment includes a first detection unit, a second detection unit and a storage processing unit. The first detection unit is configured to be able to detect passenger information on passengers in a vehicle on the basis of an image captured by a first camera provided in a loading port of the vehicle. The second detection unit is configured to be able to detect passenger information on passengers in the vehicle on the basis of an image captured by a second camera provided in the loading port of the vehicle. The storage processing unit, when the passenger information is detected by each of the first detection unit and the second detection unit, allows the storage unit to store the passenger information detected based on the captured image of one of the first camera and the second camera, which has more favorable imaging conditions.SELECTED DRAWING: Figure 1A

Description

本発明は、情報処理装置および情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method.

従来、例えばバスなどの乗り物において、乗降した乗客の人数を算出する技術が種々提案されている(例えば、特許文献1参照)。従来技術にあっては、乗り口および降り口にそれぞれカメラが設置され、かかるカメラによって撮像された乗客の撮像画像を用いて乗客の人数(乗客数)を算出するようにしている。 Conventionally, various techniques for calculating the number of passengers getting on and off a vehicle such as a bus have been proposed (see, for example, Patent Document 1). In the prior art, cameras are installed at the entrance and the exit, respectively, and the number of passengers (number of passengers) is calculated using the images of the passengers captured by the cameras.

特開2014-219913号公報Japanese Unexamined Patent Publication No. 2014-219913

ところで、上記した乗客の撮像画像に基づいて、例えば乗客の年齢や性別など乗客に関する乗客情報を検出する技術がある。しかしながら、従来技術には、かかる乗客情報の精度を向上させるという点で、改善の余地があった。 By the way, there is a technique for detecting passenger information about a passenger, such as the age and gender of the passenger, based on the above-mentioned captured image of the passenger. However, there is room for improvement in the prior art in terms of improving the accuracy of such passenger information.

本発明は、上記に鑑みてなされたものであって、乗客情報の精度を向上させることができる情報処理装置および情報処理方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing apparatus and an information processing method capable of improving the accuracy of passenger information.

上記課題を解決し、目的を達成するために、本発明は、情報処理装置において、第1検出部と、第2検出部と、記憶処理部とを備える。第1検出部は、乗り物の乗り口に設けられた第1カメラによって撮像された撮像画像に基づいて前記乗り物の乗客に関する乗客情報を検出可能に構成される。第2検出部は、前記乗り物の降り口に設けられた第2カメラによって撮像された撮像画像に基づいて前記乗客に関する前記乗客情報を検出可能に構成される。記憶処理部は、前記第1検出部および前記第2検出部によってそれぞれ前記乗客情報が検出された場合、前記第1カメラおよび前記第2カメラのうち撮像条件が有利な一方のカメラの撮像画像に基づいて検出された前記乗客情報を記憶部に記憶させる。 In order to solve the above problems and achieve the object, the present invention includes a first detection unit, a second detection unit, and a storage processing unit in the information processing apparatus. The first detection unit is configured to be able to detect passenger information about the passengers of the vehicle based on the captured image captured by the first camera provided at the entrance of the vehicle. The second detection unit is configured to be able to detect the passenger information regarding the passenger based on the captured image captured by the second camera provided at the exit of the vehicle. When the passenger information is detected by the first detection unit and the second detection unit, respectively, the storage processing unit obtains an image captured by one of the first camera and the second camera, which has an advantageous imaging condition. The passenger information detected based on the above is stored in the storage unit.

本発明によれば、乗客情報の精度を向上させることができる。 According to the present invention, the accuracy of passenger information can be improved.

図1Aは、実施形態に係る情報処理方法の概要を示す図である。FIG. 1A is a diagram showing an outline of an information processing method according to an embodiment. 図1Bは、記憶部に記憶される乗客情報を説明するための図である。FIG. 1B is a diagram for explaining passenger information stored in the storage unit. 図2は、バス端末装置を備えた情報処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of an information processing system including a bus terminal device. 図3は、乗り口端末装置の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the entrance terminal device. 図4は、乗客情報の一例を示す図である。FIG. 4 is a diagram showing an example of passenger information. 図5は、撮像状況情報の一例を示す図である。FIG. 5 is a diagram showing an example of imaging status information. 図6は、降り口端末装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the exit terminal device. 図7は、乗客情報の一例を示す図である。FIG. 7 is a diagram showing an example of passenger information. 図8は、撮像状況情報の一例を示す図である。FIG. 8 is a diagram showing an example of imaging status information. 図9は、管理サーバの構成例を示すブロック図である。FIG. 9 is a block diagram showing a configuration example of the management server. 図10は、情報処理システムが実行する処理シーケンスの一例を示す図である。FIG. 10 is a diagram showing an example of a processing sequence executed by the information processing system. 図11は、変形例に係るバス端末装置が実行する処理手順を示すフローチャートである。FIG. 11 is a flowchart showing a processing procedure executed by the bus terminal device according to the modified example.

以下、添付図面を参照して、本願の開示する情報処理装置および情報処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of the information processing apparatus and information processing method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.

(実施形態)
<情報処理装置による情報処理方法の概要>
以下では先ず、実施形態に係る情報処理装置による情報処理方法の概要について図1A等を参照して説明する。図1Aは、実施形態に係る情報処理方法の概要を示す図である。
(Embodiment)
<Outline of information processing method by information processing device>
Hereinafter, the outline of the information processing method by the information processing apparatus according to the embodiment will be described with reference to FIG. 1A and the like. FIG. 1A is a diagram showing an outline of an information processing method according to an embodiment.

実施形態に係る情報処理方法は、例えば乗り物の乗客に関する乗客情報を検出して記憶部に記憶させる処理や乗客数を算出する処理などを行うことができる。なお、以下では乗り物の一例としてバス1を挙げて説明するが、乗り物の種類はこれに限定されるものではない。すなわち、乗り物は、例えば鉄道車両や航空機、船舶などその他の種類の乗り物であってもよい。 The information processing method according to the embodiment can perform, for example, a process of detecting passenger information about passengers of a vehicle and storing it in a storage unit, a process of calculating the number of passengers, and the like. In the following, the bus 1 will be described as an example of the vehicle, but the type of the vehicle is not limited to this. That is, the vehicle may be another type of vehicle, such as a railroad vehicle, an aircraft, or a ship.

図1Aに示すように、バス1には、バス端末装置10が搭載され、かかるバス端末装置10が情報処理装置として機能する。具体的に説明すると、バス端末装置10は、乗り口端末装置10aと、降り口端末装置10bとを備える。 As shown in FIG. 1A, a bus terminal device 10 is mounted on the bus 1, and the bus terminal device 10 functions as an information processing device. Specifically, the bus terminal device 10 includes an entrance terminal device 10a and an exit terminal device 10b.

乗り口端末装置10aは、バス1の乗り口2aに設置される。乗り口端末装置10aは、第1カメラ11aを備える。例えば、第1カメラ11aは、バス1の乗り口2aであって、かつ、バス1の中(バス車内)に設けられ、バス1に乗車する乗客である乗車者の乗車者撮像画像を撮像する。乗り口端末装置10aは、かかる乗車者撮像画像から顔情報が検出されることで乗車者を検知することができる。 The entrance terminal device 10a is installed at the entrance 2a of the bus 1. The entrance terminal device 10a includes a first camera 11a. For example, the first camera 11a is the entrance 2a of the bus 1 and is provided in the bus 1 (inside the bus) to capture a passenger image of a passenger who is a passenger on the bus 1. .. The entrance terminal device 10a can detect the occupant by detecting the face information from the occupant captured image.

降り口端末装置10bは、バス1の降り口2bに設置される。降り口端末装置10bは、第2カメラ11bを備える。例えば、第2カメラ11bは、バス1の降り口2bであって、かつ、バス1の中(バス車内)に設けられ、バス1から降車する乗客である降車者の降車者撮像画像を撮像する。降り口端末装置10bは、かかる降車者撮像画像から顔情報が検出されることで降車者を検知することができる。 The exit terminal device 10b is installed at the exit 2b of the bus 1. The exit terminal device 10b includes a second camera 11b. For example, the second camera 11b is provided at the exit 2b of the bus 1 and is provided in the bus 1 (inside the bus), and captures an image captured by the disembarking passenger who is a passenger disembarking from the bus 1. .. The exit terminal device 10b can detect a person getting off by detecting face information from the image captured by the person getting off the vehicle.

そして、バス端末装置10は、乗り口端末装置10aによって検知された乗車者に関する乗客情報と降り口端末装置10bによって検知された降車者に関する乗客情報とに基づき、乗客数の算出を行うことができる。なお、乗客数の算出については後述する。 Then, the bus terminal device 10 can calculate the number of passengers based on the passenger information about the passenger detected by the entrance terminal device 10a and the passenger information about the passenger detected by the exit terminal device 10b. .. The calculation of the number of passengers will be described later.

ところで、上記した乗客情報には、例えば乗客の年齢や性別、乗車した停留所、降車した停留所など乗客に関する種々の情報が含まれる。そのため、バス端末装置10は、かかる乗客情報を記憶しておき、バス事業者は、バス端末装置10に記憶された乗客情報を分析することで、バス1に関する各種の適切な対応を行うことができる。例えば、バス事業者は、乗客情報に応じて車内広告の内容や車内アナウンスの内容を変更したり、乗客情報に応じて運行計画を調整してバス1を効率的に運行させたりするなどの対応を行うことができる。 By the way, the above-mentioned passenger information includes various information about passengers such as the age and gender of passengers, the bus stop where they got on, and the bus stop where they got off. Therefore, the bus terminal device 10 stores such passenger information, and the bus operator can take various appropriate measures regarding the bus 1 by analyzing the passenger information stored in the bus terminal device 10. can. For example, the bus operator may change the content of the in-vehicle advertisement or the content of the in-vehicle announcement according to the passenger information, or adjust the operation plan according to the passenger information to operate the bus 1 efficiently. It can be performed.

しかしながら、従来技術には、乗客情報の精度を向上させるという点で、改善の余地があった。具体的に説明すると、従来技術において、乗り口端末装置10aは、第1カメラ11aの乗車者撮像画像に基づいて乗客情報(以下「第1乗客情報」と記載する場合がある)を検出する。降り口端末装置10bは、第2カメラ11bの降車者撮像画像に基づいて乗客情報(以下「第2乗客情報」と記載する場合がある)を検出する。従来技術にあっては、上記した第1乗客情報を記憶部30bに記憶させ、その後第1乗客情報において不足している情報(例えば降車した停留所の情報)を第2乗客情報で補完するようにしていた。 However, there is room for improvement in the prior art in terms of improving the accuracy of passenger information. Specifically, in the prior art, the entrance terminal device 10a detects passenger information (hereinafter, may be referred to as "first passenger information") based on the passenger captured image of the first camera 11a. The exit terminal device 10b detects passenger information (hereinafter, may be referred to as "second passenger information") based on the image captured by the person getting off the second camera 11b. In the prior art, the above-mentioned first passenger information is stored in the storage unit 30b, and then the information lacking in the first passenger information (for example, the information of the stop where the passenger got off) is supplemented with the second passenger information. Was there.

ここで、上記した第1カメラ11aと第2カメラ11bとでは、撮像条件が異なるが、従来技術では、かかる撮像条件の差異が考慮されておらず、結果として乗客情報の精度の低下を招くおそれがあった。 Here, although the imaging conditions are different between the first camera 11a and the second camera 11b described above, the conventional technique does not consider the difference in the imaging conditions, and as a result, the accuracy of passenger information may be deteriorated. was there.

そこで、本実施形態に係るバス端末装置(情報処理装置)10にあっては、乗客情報の精度を向上させることができるような構成とした。 Therefore, the bus terminal device (information processing device) 10 according to the present embodiment is configured so as to be able to improve the accuracy of passenger information.

具体的には、バス端末装置10の乗り口端末装置10aは、先ず、第1カメラ11aから、バス1に乗車する乗客(乗車者)が撮像された乗車者撮像画像を取得する(ステップS1)。 Specifically, the entrance terminal device 10a of the bus terminal device 10 first acquires a passenger image taken by a passenger (passenger) getting on the bus 1 from the first camera 11a (step S1). ..

次いで、乗り口端末装置10aは、第1カメラ11aによって撮像された乗車者撮像画像に基づいて第1乗客情報を検出する(ステップS2)。次いで、乗り口端末装置10aは、検出された第1乗客情報を降り口端末装置10bへ出力する(ステップS3)。 Next, the entrance terminal device 10a detects the first passenger information based on the passenger image captured by the first camera 11a (step S2). Next, the entrance terminal device 10a outputs the detected first passenger information to the exit terminal device 10b (step S3).

降り口端末装置10bは、乗り口端末装置10aから出力された第1乗客情報を記憶部30bに記憶させる(ステップS4)。 The exit terminal device 10b stores the first passenger information output from the entrance terminal device 10a in the storage unit 30b (step S4).

次いで、降り口端末装置10bは、第2カメラ11bから、バス1から降車する乗客(降車者)の降車者撮像画像を取得する(ステップS5)。次いで、第2カメラ11bによって撮像された降車者撮像画像に基づいて第2乗客情報を検出する(ステップS6)。 Next, the exit terminal device 10b acquires a captured image of a passenger (getting off) getting off from the bus 1 from the second camera 11b (step S5). Next, the second passenger information is detected based on the image captured by the getting-off person captured by the second camera 11b (step S6).

ここで、降り口端末装置10bは、検出された第2乗客情報を記憶部30bに記憶させるが、その際、本実施形態においては、第1カメラ11aと第2カメラ11bとの撮像条件の差異に応じて記憶させるようにした。 Here, the exit terminal device 10b stores the detected second passenger information in the storage unit 30b, but at that time, in the present embodiment, the difference in the imaging conditions between the first camera 11a and the second camera 11b. I tried to memorize it according to.

先ず、各カメラ11a,11bの撮像条件について具体的に説明すると、第1カメラ11aは、乗り口2aにおいて乗車の妨げにならないような位置、例えば乗り口2aの手すりにおいて利用されない下方の位置等に設置される。また、乗客は、例えば乗り口2aの階段を上って乗車するため、頭部が上下方向や左右方向に動きやすい。そのため、第1カメラ11aは、乗客の顔などを正面から撮像しにくく、顔情報が得られにくいことがある。また、第1カメラ11aは、車内から車外に向けて撮像するため、例えば逆光などにより、乗車者撮像画像の乗客の顔が暗くなって顔情報が得られにくくなるなど、外部環境による影響も受けやすい。このような各種の要因により、第1カメラ11aの撮像条件は、比較的に不利なものといえる。 First, the imaging conditions of the cameras 11a and 11b will be specifically described. The first camera 11a is located at a position that does not interfere with boarding at the entrance 2a, for example, a lower position that is not used at the handrail of the entrance 2a. Will be installed. Further, since the passenger gets on the stairs of the entrance 2a, for example, the head easily moves in the vertical direction and the horizontal direction. Therefore, it may be difficult for the first camera 11a to capture a passenger's face or the like from the front, and it may be difficult to obtain face information. Further, since the first camera 11a captures images from the inside of the vehicle to the outside of the vehicle, it is also affected by the external environment, for example, the passenger's face in the passenger's captured image becomes dark and it becomes difficult to obtain face information due to backlight or the like. Cheap. Due to these various factors, it can be said that the imaging conditions of the first camera 11a are relatively disadvantageous.

他方、第2カメラ11bは、降り口2bへ移動する乗客を撮像できればよいため、例えば降り口2bから車内へ向くようにし、乗客の顔の高さ付近に設置可能である。また、乗客は、例えば降り口2bへ向けて車内を移動するだけであるため、頭部は上下方向や左右方向にあまり動かないことが多い。そのため、第2カメラ11bは、乗客の顔などを正面から撮像しやすく、顔情報が得られやすい。また、第2カメラ11bは、車内に設置されて車内に向けて撮像するため、上記した外部環境による影響を受けにくい。従って、第2カメラ11bの撮像条件は、第1カメラ11aの撮像条件と比べて有利であるといえる。 On the other hand, since the second camera 11b only needs to be able to capture an image of a passenger moving to the exit 2b, the second camera 11b can be installed near the height of the passenger's face, for example, so as to face the inside of the vehicle from the exit 2b. Further, since the passenger only moves in the vehicle toward the exit 2b, for example, the head often does not move much in the vertical direction or the horizontal direction. Therefore, the second camera 11b can easily capture a passenger's face or the like from the front, and can easily obtain face information. Further, since the second camera 11b is installed in the vehicle and takes an image toward the inside of the vehicle, it is not easily affected by the above-mentioned external environment. Therefore, it can be said that the imaging conditions of the second camera 11b are more advantageous than the imaging conditions of the first camera 11a.

そのため、撮像条件が有利な第2カメラ11bの撮像画像に基づいて検出された第2乗客情報の精度は、撮像条件が不利な第1カメラ11aの撮像画像に基づいて検出された第1乗客情報の精度より高くなる可能性が高い。 Therefore, the accuracy of the second passenger information detected based on the captured image of the second camera 11b in which the imaging condition is advantageous is the first passenger information detected based on the captured image of the first camera 11a in which the imaging condition is unfavorable. Is likely to be higher than the accuracy of.

従って、本実施形態に係る降り口端末装置10bは、第1乗客情報に比べて精度が高い第2乗客情報を記憶部30bに優先的に記憶させるようにした。詳しくは、降り口端末装置10bは、第1乗客情報および第2乗客情報が検出された場合、第1カメラ11aおよび第2カメラ11bのうち撮像条件が有利な一方のカメラ(ここでは第2カメラ11b)の撮像画像に基づいて検出された乗客情報(第2乗客情報)を記憶部30bに記憶させる(ステップS7)。 Therefore, the exit terminal device 10b according to the present embodiment preferentially stores the second passenger information, which is more accurate than the first passenger information, in the storage unit 30b. Specifically, the exit terminal device 10b is one of the first camera 11a and the second camera 11b, which has an advantageous imaging condition when the first passenger information and the second passenger information are detected (here, the second camera). The passenger information (second passenger information) detected based on the captured image of 11b) is stored in the storage unit 30b (step S7).

このステップS7の処理等について、図1Bを参照しつつ詳説する。図1Bは、記憶部30bに記憶される乗客情報を説明するための図である。図1Bにおいては、乗客情報に含まれるデータ項目と、対応するデータ項目のデータ(情報)を検出した端末装置との関係を示している。なお、図1Bに示す乗客情報に含まれるデータ項目の内容は、あくまでも例示であって限定されるものではない。 The process of step S7 and the like will be described in detail with reference to FIG. 1B. FIG. 1B is a diagram for explaining passenger information stored in the storage unit 30b. FIG. 1B shows the relationship between the data items included in the passenger information and the terminal device that has detected the data (information) of the corresponding data items. The contents of the data items included in the passenger information shown in FIG. 1B are merely examples and are not limited.

また、図1Bでは、左図は第2乗客情報が検出される前であって、ステップS4の処理で第1乗客情報が記憶された記憶部30bの乗客情報を示し、右図は第2乗客情報が検出され、ステップS7の処理で第2乗客情報が記憶された記憶部30bの乗客情報を示している。 Further, in FIG. 1B, the left figure shows the passenger information of the storage unit 30b in which the first passenger information is stored in the process of step S4 before the second passenger information is detected, and the right figure shows the second passenger. The information is detected, and the passenger information of the storage unit 30b in which the second passenger information is stored in the process of step S7 is shown.

図1Bの左図に示すように、降り口端末装置10bは、先ず、乗り口端末装置10aによって検出された第1乗客情報を記憶部30bに記憶させる。なお、第1乗客情報は、バス1に乗る乗客(乗車者)に関する情報であるため、降車した停留所の情報を含んでいない。 As shown in the left figure of FIG. 1B, the exit terminal device 10b first stores the first passenger information detected by the entrance terminal device 10a in the storage unit 30b. Since the first passenger information is information about passengers (passengers) getting on the bus 1, it does not include information on the stop where the bus got off.

その後、降り口端末装置10bは、第2乗客情報が検出され、第1、第2乗客情報の両方が検出された場合、撮像条件が有利な一方のカメラ(ここでは第2カメラ11b)の撮像画像に基づいて検出された乗客情報(第2乗客情報)を記憶部30bに記憶させる、言い換えると、第2乗客情報を用いて更新する。なお、上記した撮像条件および撮像条件が有利な一方のカメラは、予め設定されるが、これに限定されるものではない。 After that, when the second passenger information is detected and both the first and second passenger information are detected, the exit terminal device 10b takes an image of one camera (here, the second camera 11b) having favorable imaging conditions. The passenger information (second passenger information) detected based on the image is stored in the storage unit 30b, in other words, the second passenger information is used for updating. It should be noted that the camera on which the above-mentioned imaging conditions and imaging conditions are advantageous is set in advance, but is not limited thereto.

一例としては、図1Bの右図に示すように、降り口端末装置10bは、乗り口端末装置10aによって検出された第1乗客情報であったデータ項目「年齢」および「性別」について、降り口端末装置10bによって検出された第2乗客情報に上書きする。 As an example, as shown in the right figure of FIG. 1B, the exit terminal device 10b has an exit for the data items "age" and "gender" which are the first passenger information detected by the entrance terminal device 10a. The second passenger information detected by the terminal device 10b is overwritten.

なお、第2乗客情報は、バス1から降りる乗客(降車者)に関する情報であるため、乗車した停留所の情報を含まず、降車した停留所の情報を含む。そのため、データ項目「乗車した停留所」は、第1乗客情報のままであり、データ項目「降車した停留所」には、第2乗客情報が記憶される。 Since the second passenger information is information about passengers (getting off) getting off from bus 1, it does not include information on the bus stop where they got on, but includes information on the bus stop where they got off. Therefore, the data item "boarding stop" remains the first passenger information, and the data item "getting off stop" stores the second passenger information.

このように、本実施形態にあっては、撮像条件が有利な第2カメラ11bの撮像画像に基づいて検出された乗客情報(第2乗客情報)を記憶部30bに記憶させることで、乗客情報の精度を向上させることができる。 As described above, in the present embodiment, passenger information is stored in the storage unit 30b by storing the passenger information (second passenger information) detected based on the image captured by the second camera 11b, which has favorable imaging conditions. The accuracy of can be improved.

すなわち、例えば仮に、第2乗客情報が検出された後、データ項目「年齢」および「性別」について第1乗客情報のままとした場合、乗客情報の精度が低下するおそれがあるが、上記したように第1乗客情報より精度の高い第2乗客情報に上書きすることで、乗客情報(例えばデータ項目「年齢」および「性別」など)の精度を向上させることができる。 That is, for example, if the data items "age" and "gender" are left as the first passenger information after the second passenger information is detected, the accuracy of the passenger information may decrease, as described above. By overwriting the second passenger information, which is more accurate than the first passenger information, the accuracy of the passenger information (for example, the data items "age" and "gender") can be improved.

<情報処理システムの構成>
次に、実施形態に係るバス端末装置(情報処理装置)10を備えた情報処理システムの構成について、図2を用いて説明する。図2は、バス端末装置10を備えた情報処理システム100の構成例を示すブロック図である。
<Information processing system configuration>
Next, the configuration of the information processing system including the bus terminal device (information processing device) 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of an information processing system 100 provided with a bus terminal device 10.

図2に示すように、情報処理システム100は、上記したバス端末装置10と、管理サーバ200と、バス事業者端末装置300と、ユーザ端末装置400とを含み、これらはインターネット網などの通信ネットワークNを介して通信可能に接続される。 As shown in FIG. 2, the information processing system 100 includes the above-mentioned bus terminal device 10, a management server 200, a bus operator terminal device 300, and a user terminal device 400, which are communication networks such as an Internet network. It is connected so that it can communicate via N.

バス端末装置10は、上記したように、乗り口端末装置10aおよび降り口端末装置10bを備える。乗り口端末装置10aと降り口端末装置10bとは、例えばWi-Fi(登録商標)などの近距離無線通信を介して通信可能に接続されるが、これに限られず、近距離無線通信に加えて、あるいは代えて通信ネットワークNなどを介して通信可能に接続されてもよい。なお、乗り口端末装置10aの詳細な構成については、図3等を用いて後述する。また、降り口端末装置10bの詳細な構成については、図6等を用いて後述する。 As described above, the bus terminal device 10 includes an entrance terminal device 10a and an exit terminal device 10b. The entrance terminal device 10a and the exit terminal device 10b are connected to each other so as to be communicable via short-range wireless communication such as Wi-Fi (registered trademark), but the present invention is not limited to this, and in addition to short-range wireless communication. Alternatively, or instead, they may be connected so as to be communicable via the communication network N or the like. The detailed configuration of the entrance terminal device 10a will be described later with reference to FIG. 3 and the like. The detailed configuration of the exit terminal device 10b will be described later with reference to FIG. 6 and the like.

管理サーバ200は、バス端末装置10から送信される、バス1の乗客数の情報を含む乗客情報などを管理するサーバ装置である。管理サーバ200は、乗客情報などをバス事業者端末装置300へ提供することができる。また、管理サーバ200は、バス1の乗客数の情報に基づいてバス1の混雑度を算出し、算出された混雑度を示す混雑度情報をユーザ端末装置400へ提供することができる。なお、管理サーバ200の詳細な構成については、図9を用いて後述する。 The management server 200 is a server device that manages passenger information including information on the number of passengers on the bus 1 transmitted from the bus terminal device 10. The management server 200 can provide passenger information and the like to the bus operator terminal device 300. Further, the management server 200 can calculate the congestion degree of the bus 1 based on the information of the number of passengers of the bus 1 and provide the congestion degree information indicating the calculated congestion degree to the user terminal device 400. The detailed configuration of the management server 200 will be described later with reference to FIG.

バス事業者端末装置300は、バス1を運行するバス事業者が使用する端末装置である。バス事業者端末装置300としては、例えばPC(Personal Computer)、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。かかるバス事業者端末装置300には、管理サーバ200から乗客情報などが送信されて表示される。これにより、バス事業者は、例えば乗客情報などに応じた車内広告の内容や車内アナウンスの内容を変更したり、乗客情報などに応じたバス1の運行計画を立てたりすることが可能になる。 The bus operator terminal device 300 is a terminal device used by the bus operator that operates the bus 1. As the bus operator terminal device 300, for example, a PC (Personal Computer), a smartphone, a tablet terminal, or the like can be used, but the bus operator terminal device 300 is not limited thereto. Passenger information and the like are transmitted from the management server 200 to the bus operator terminal device 300 and displayed. As a result, the bus operator can change the content of the in-vehicle advertisement and the content of the in-vehicle announcement according to the passenger information and the like, and can make an operation plan of the bus 1 according to the passenger information and the like.

ユーザ端末装置400は、バス1を利用するユーザ、正確にはバス1をこれから利用するユーザが使用する端末装置である。なお、ユーザ端末装置400としては、例えばスマートフォンやタブレット端末、PCなどを用いることができるが、これに限定されるものではない。かかるユーザ端末装置400には、管理サーバ200からバス1の混雑度情報が送信されて表示される。これにより、ユーザは、例えばバス1の混雑度を乗車前に確認することが可能になる。なお、図2では、図示の簡略化のため、ユーザ端末装置400を2つ示したが、これに限られず、1つであっても3つ以上であってもよい。 The user terminal device 400 is a terminal device used by a user who uses the bus 1, to be exact, a user who will use the bus 1 from now on. As the user terminal device 400, for example, a smartphone, a tablet terminal, a PC, or the like can be used, but the user terminal device 400 is not limited thereto. Congestion degree information of bus 1 is transmitted from the management server 200 to the user terminal device 400 and displayed. This allows the user to check, for example, the degree of congestion of the bus 1 before boarding. In FIG. 2, two user terminal devices 400 are shown for the sake of simplification of illustration, but the present invention is not limited to this, and the number may be one or three or more.

<乗り口端末装置の構成>
次いで、乗り口端末装置10aの構成について図3等を参照して説明する。図3は、乗り口端末装置10aの構成例を示すブロック図である。なお、図3を含む各ブロック図では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
<Configuration of entrance terminal device>
Next, the configuration of the entrance terminal device 10a will be described with reference to FIG. 3 and the like. FIG. 3 is a block diagram showing a configuration example of the entrance terminal device 10a. In each block diagram including FIG. 3, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図3等のブロック図に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in the block diagram of FIG. 3 or the like is a functional concept and does not necessarily have to be physically configured as shown in the figure. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or part of it is functionally or physically distributed in any unit according to various loads and usage conditions. -It is possible to integrate and configure.

図3に示すように、乗り口端末装置10aは、第1カメラ11aと、測位部12aと、制御部20aと、記憶部30aとを備える。なお、乗り口端末装置10aとしては、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。 As shown in FIG. 3, the entrance terminal device 10a includes a first camera 11a, a positioning unit 12a, a control unit 20a, and a storage unit 30a. As the entrance terminal device 10a, a smartphone, a tablet terminal, or the like can be used, but the present invention is not limited to this.

第1カメラ11aは、例えばレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えるカメラである。第1カメラ11aは、バス1の乗り口2a(図1A参照)であって、かつ、バス1の中(バス車内)に設けられる。詳しくは、第1カメラ11aは、少なくとも乗り口2aから乗車する乗車者(乗客)の顔を含む範囲をバス車内から撮像可能な位置に設けられる。第1カメラ11aは、乗車者の乗車者撮像画像を撮像し、撮像された乗車者撮像画像を制御部20aへ出力する。 The first camera 11a is a camera including, for example, a lens and an image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The first camera 11a is the entrance 2a of the bus 1 (see FIG. 1A) and is provided inside the bus 1 (inside the bus). Specifically, the first camera 11a is provided at a position where at least a range including the face of a passenger (passenger) who gets on the bus from the entrance 2a can be imaged from inside the bus. The first camera 11a captures a passenger image captured by the passenger and outputs the captured image captured by the passenger to the control unit 20a.

測位部12aは、バス1の位置情報(例えば、緯度および経度)を取得する。例えば、測位部12aは、GPS(Global Positioning System)衛星から送出される電波を受信し、受信した電波に基づいてバス1の位置情報を取得し、取得された位置情報を制御部20aへ出力する。なお、測位部12aは、バス1が停留所に停止しているときに取得されたバス1の位置情報を、バス1が停止している停留所の位置情報として出力してもよい。 The positioning unit 12a acquires the position information (for example, latitude and longitude) of the bus 1. For example, the positioning unit 12a receives radio waves transmitted from a GPS (Global Positioning System) satellite, acquires the position information of the bus 1 based on the received radio waves, and outputs the acquired position information to the control unit 20a. .. The positioning unit 12a may output the position information of the bus 1 acquired when the bus 1 is stopped at the bus stop as the position information of the bus stop where the bus 1 is stopped.

制御部20aは、取得部21aと、検出部22aと、登録部23aと、出力部24aとを備え、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 20a includes an acquisition unit 21a, a detection unit 22a, a registration unit 23a, and an output unit 24a. For example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Includes computers with input / output ports and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部20aの取得部21a、検出部22a、登録部23aおよび出力部24aとして機能する。 The CPU of the computer functions as the acquisition unit 21a, the detection unit 22a, the registration unit 23a, and the output unit 24a of the control unit 20a by reading and executing the program stored in the ROM, for example.

また、制御部20aの取得部21a、検出部22a、登録部23aおよび出力部24aの少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 Further, at least a part or all of the acquisition unit 21a, the detection unit 22a, the registration unit 23a, and the output unit 24a of the control unit 20a are used by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). It can also be configured.

また、記憶部30aは、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部30aには、乗客情報31a、撮像状況情報32aおよび各種プログラムなどが記憶される。 Further, the storage unit 30a is a storage unit composed of a storage device such as a non-volatile memory or a data flash. Passenger information 31a, imaging status information 32a, various programs, and the like are stored in the storage unit 30a.

乗客情報31aは、バス1に乗る乗客(乗車者)に関する情報である。ここで、図4を用いて、乗客情報31aについて説明する。図4は、乗客情報31aの一例を示す図である。図4に示すように、乗客情報31aには、「乗客ID」、「乗車者画像」、「特徴点」、「性別」、「年齢」、「年齢層」、「マスクの有無」、「乗車した停留所」および「降車した停留所」等の項目が含まれ、各項目は互いに関連付けられている。 Passenger information 31a is information about passengers (passengers) who get on the bus 1. Here, the passenger information 31a will be described with reference to FIG. FIG. 4 is a diagram showing an example of passenger information 31a. As shown in FIG. 4, the passenger information 31a includes "passenger ID", "passenger image", "feature point", "gender", "age", "age group", "presence / absence of mask", and "boarding". It includes items such as "stops where you got off" and "stops where you got off", and each item is related to each other.

「乗客ID」は、乗客を識別する識別情報である。「乗車者画像」は、乗車者撮像画像の情報である。なお、図4に示す例では、便宜上、「乗車者画像」を「画像E01」といったように抽象的な記載とするが、「画像E01」には具体的な情報が記憶されるものとする。以下、他の情報についても抽象的に記載する場合がある。 The "passenger ID" is identification information that identifies a passenger. The "passenger image" is information of the passenger captured image. In the example shown in FIG. 4, for convenience, the "passenger image" is described as an abstract description such as "image E01", but specific information is stored in the "image E01". Hereinafter, other information may be described in an abstract manner.

「特徴点」は、乗車者撮像画像に写った乗車者の顔の特徴点情報であり、顔情報の一例である。特徴点情報には、例えば乗車者撮像画像に写った乗車者の顔における目(目頭、目尻など)、鼻や口などの特徴点の位置などが含まれるが、これに限定されるものではない。 The "feature point" is the feature point information of the occupant's face captured in the image captured by the occupant, and is an example of the face information. The feature point information includes, but is not limited to, for example, the position of the feature points such as the eyes (inner corners of eyes, outer corners of eyes, etc.), nose, mouth, etc. on the passenger's face in the image captured by the passenger. ..

「性別」は、乗車者撮像画像に写った乗車者の性別を示す情報である。「年齢」は、乗車者撮像画像に写った乗車者の年齢を示す情報であり、「年齢層」は、かかる乗車者の年齢層を示す情報である。「マスクの有無」は、乗車者撮像画像に写った乗車者がマスクを着用しているか否かを示す情報である。なお、上記した性別や年齢、年齢層およびマスクの有無などの情報は、乗車者の属性情報の一例である。 The "gender" is information indicating the gender of the occupant in the image captured by the occupant. The "age" is information indicating the age of the passenger in the image captured by the passenger, and the "age group" is information indicating the age group of the passenger. "Presence / absence of mask" is information indicating whether or not the passenger in the image captured by the passenger is wearing a mask. The above-mentioned information such as gender, age, age group, and presence / absence of a mask is an example of the attribute information of the passenger.

「乗車した停留所」は、乗客(乗車者)が乗車した停留所を示す情報である。「降車した停留所」は、乗客が降車した停留所を示す情報である。なお、乗り口端末装置10aの記憶部30aには、バス1に乗る乗客(乗車者)に関する情報が記憶されるため、降車した停留所の情報は記憶されていない。 The "bus stop" is information indicating the bus stop where the passenger (passenger) boarded. The "bus stop where the passenger got off" is information indicating the bus stop where the passenger got off. Since the storage unit 30a of the entrance terminal device 10a stores information about the passengers (passengers) who get on the bus 1, the information about the bus stop where they got off is not stored.

「第1確度」は、乗車者撮像画像に基づいて検出された、属性情報を含む乗客情報の確度を示す情報である。「第1確度」は、例えば検出部22aによって算出されるが、これについては後述する。 The "first accuracy" is information indicating the accuracy of passenger information including attribute information, which is detected based on the image captured by the passenger. The "first accuracy" is calculated by, for example, the detection unit 22a, which will be described later.

図4に示す例では、乗客ID「P01」で識別される乗客のデータは、乗車者画像が「画像E01」、特徴点が「特徴点F01」、性別が「男性」、年齢が「年齢G01」、年齢層が「大人」、マスクの有無が「無し」、乗車した停留所が「停留所H01」、第1確度が「確度I01」であることを示している。 In the example shown in FIG. 4, the passenger data identified by the passenger ID "P01" has a passenger image of "image E01", a feature point of "feature point F01", a gender of "male", and an age of "age G01". , The age group is "adult", the presence or absence of a mask is "none", the boarding stop is "stop H01", and the first probability is "probability I01".

図3の説明に戻ると、撮像状況情報32aは、第1カメラ11aの撮像条件や第1カメラ11aで乗車者撮像画像を撮像したときの状況などを示す情報である。 Returning to the description of FIG. 3, the image pickup status information 32a is information indicating the image pickup conditions of the first camera 11a, the situation when the passenger image is captured by the first camera 11a, and the like.

ここで、図5を用いて、撮像状況情報32aについて説明する。図5は、撮像状況情報32aの一例を示す図である。図5に示すように、撮像状況情報32aには、「状況ID」、「第1カメラの設置位置」、「第1カメラの設置角度」、「停留所」、「日時」および「天候」等の項目が含まれ、各項目は互いに関連付けられている。 Here, the imaging status information 32a will be described with reference to FIG. FIG. 5 is a diagram showing an example of imaging status information 32a. As shown in FIG. 5, the imaging status information 32a includes "status ID", "first camera installation position", "first camera installation angle", "stop", "date and time", "weather" and the like. Items are included and each item is associated with each other.

「状況ID」は、撮像状況情報を識別する識別情報である。「第1カメラの設置位置」は、乗り口2aにおいて第1カメラ11aが設置される位置を示す情報である。「第1カメラの設置位置」には、例えば第1カメラ11aが設置される場所(例えば車内の手すり、座席など)、第1カメラ11aが設置される高さなどの情報が含まれるが、これらに限定されるものではない。 The "situation ID" is identification information that identifies the imaging status information. The “first camera installation position” is information indicating a position where the first camera 11a is installed at the entrance 2a. The "installation position of the first camera" includes, for example, information such as a place where the first camera 11a is installed (for example, a handrail in a car, a seat, etc.), a height at which the first camera 11a is installed, and the like. Not limited to.

「第1カメラの設置角度」は、第1カメラ11aが設置される角度を示す情報である。「第1カメラの設置角度」には、例えば乗り口2aに対する第1カメラ11aの取り付け角度であるが、これに限られず、第1カメラ11aの画角などその他の情報が含まれてもよい。 The “first camera installation angle” is information indicating the angle at which the first camera 11a is installed. The "installation angle of the first camera" is, for example, the mounting angle of the first camera 11a with respect to the entrance 2a, but is not limited to this, and may include other information such as the angle of view of the first camera 11a.

「停留所」は、乗車者撮像画像が撮像された停留所を示す情報である。「日時」および「天候」はそれぞれ、乗車者撮像画像が撮像されたときの日時を示す情報、および、天候を示す情報である。 The "bus stop" is information indicating a bus stop in which a passenger image is captured. The "date and time" and the "weather" are information indicating the date and time when the passenger image was captured and information indicating the weather, respectively.

図5に示す例では、状況ID「J01」で識別される撮像状況のデータは、第1カメラ11aの設置位置が「位置K01」、第1カメラ11aの設置角度が「角度L01」、停留所が「停留所M01」、日時が「日時N01」、天候が「晴れ」であることを示している。 In the example shown in FIG. 5, the image pickup status data identified by the status ID “J01” is such that the installation position of the first camera 11a is “position K01”, the installation angle of the first camera 11a is “angle L01”, and the stop is. It indicates that "stop M01", the date and time is "date and time N01", and the weather is "sunny".

なお、第1カメラ11aの撮像条件は、上記した各項目のうち、「第1カメラの設置位置」および「第1カメラの設置角度」であり、記憶部30aに予め設定(登録)されているものとするが、これに限られない。すなわち、第1カメラ11aの撮像条件は、「第1カメラの設置位置」および「第1カメラの設置角度」の一方であってもよいし、「停留所」、「日時」および「天候」などその他の情報が含まれてもよく、任意に設定可能である。 The imaging conditions of the first camera 11a are "the installation position of the first camera" and "the installation angle of the first camera" among the above items, and are set (registered) in advance in the storage unit 30a. However, it is not limited to this. That is, the imaging condition of the first camera 11a may be one of "the installation position of the first camera" and "the installation angle of the first camera", "stop", "date and time", "weather" and the like. Information may be included and can be set arbitrarily.

図3の説明に戻ると、制御部20aの取得部21aは、第1カメラ11aから、バス1に乗車する乗客(乗車者)が撮像された乗車者撮像画像を取得する。例えば、取得部21aは、バス1が停留所で停止しているときに乗車者撮像画像を取得するが、取得のタイミングはこれに限定されるものではない。取得部21aは、取得された乗車者撮像画像を検出部22aへ出力する。 Returning to the description of FIG. 3, the acquisition unit 21a of the control unit 20a acquires a passenger image captured by the passenger (passenger) who gets on the bus 1 from the first camera 11a. For example, the acquisition unit 21a acquires the passenger captured image when the bus 1 is stopped at the bus stop, but the acquisition timing is not limited to this. The acquisition unit 21a outputs the acquired occupant captured image to the detection unit 22a.

検出部22aは、乗車者撮像画像に基づいて乗客(乗車者)に関する乗客情報を検出することができる。なお、検出部22aは、第1検出部の一例である。 The detection unit 22a can detect passenger information about a passenger (passenger) based on a passenger captured image. The detection unit 22a is an example of the first detection unit.

例えば、検出部22aは、乗車者撮像画像から乗客(乗車者)の顔情報(詳しくは顔の特徴点情報)を検出する。例えば、検出部22aは、乗車者撮像画像から、目(目頭、目尻など)、鼻や口、輪郭などの特徴点を抽出し、抽出された特徴点の位置を特徴点情報として検出する。検出部22aは、検出された特徴点情報を乗車者撮像画像とともに、登録部23aへ出力する。 For example, the detection unit 22a detects the face information of the passenger (passenger) (specifically, the feature point information of the face) from the image captured by the passenger. For example, the detection unit 22a extracts feature points such as eyes (inner corners of eyes, outer corners of eyes, etc.), nose, mouth, contour, etc. from the image captured by the passenger, and detects the positions of the extracted feature points as feature point information. The detection unit 22a outputs the detected feature point information to the registration unit 23a together with the passenger captured image.

検出部22aは、乗車者撮像画像から乗車者の属性情報を検出する。例えば、検出部22aは、乗車者撮像画像における特徴点情報に基づいて性別や年齢、年齢層、マスクの有無などの属性情報を検出する。そして、検出部22aは、検出された属性情報を登録部23aへ出力する。 The detection unit 22a detects the attribute information of the occupant from the captured image of the occupant. For example, the detection unit 22a detects attribute information such as gender, age, age group, and presence / absence of a mask based on the feature point information in the passenger captured image. Then, the detection unit 22a outputs the detected attribute information to the registration unit 23a.

また、検出部22aは、乗車者撮像画像に基づいて検出された、属性情報を含む乗客情報の確度を示す第1確度を算出することができる。例えば、検出部22aは、乗車者撮像画像に基づいて検出された特徴点の多寡や、撮像画像の鮮明度合いなど種々の情報に基づいて、乗客情報の確からしさを示す確度(ここでは第1確度)を算出することができる。例えば検出部22aは、検出された特徴点が多くなるにつれて、第1確度が高くなるようにして算出する。検出部22aは、算出された第1確度を示す情報を登録部23aへ出力する。 In addition, the detection unit 22a can calculate the first accuracy indicating the accuracy of the passenger information including the attribute information detected based on the image captured by the passenger. For example, the detection unit 22a indicates the accuracy of the passenger information (here, the first accuracy) based on various information such as the number of feature points detected based on the passenger captured image and the sharpness of the captured image. ) Can be calculated. For example, the detection unit 22a calculates so that the first accuracy increases as the number of detected feature points increases. The detection unit 22a outputs the calculated information indicating the first accuracy to the registration unit 23a.

なお、上記した特徴点情報および属性情報の検出手法、乗客情報の確度の算出手法は、任意に設定可能である。 The above-mentioned method for detecting feature point information and attribute information and the method for calculating the accuracy of passenger information can be arbitrarily set.

登録部23aは、検出部22aによって検出された特徴点情報および属性情報、算出された第1確度を示す情報を乗車者撮像画像とともに、記憶部30aに乗客情報31a(図4参照)として登録する(記憶させる)。このとき、登録部23aは、測位部12aのバス1の位置情報に基づいて、乗車者撮像画像が撮像された停留所、すなわち、乗車者が乗車した停留所の情報を乗客情報31aに付加してもよい。 The registration unit 23a registers the feature point information and the attribute information detected by the detection unit 22a, and the information indicating the calculated first accuracy in the storage unit 30a together with the passenger image as the passenger information 31a (see FIG. 4). (Remember). At this time, even if the registration unit 23a adds the information of the stop where the passenger image is captured, that is, the stop where the passenger got on, to the passenger information 31a based on the position information of the bus 1 of the positioning unit 12a. good.

また、登録部23aは、乗車者撮像画像が撮像された停留所、日時および天候などの撮像状況を示す情報を、記憶部30aに撮像状況情報32a(図5参照)として登録してもよい。なお、天候などを示す情報は、図示しない外部サーバなどから取得されて登録されるが、これに限定されるものではない。 Further, the registration unit 23a may register information indicating the imaging status such as the stop where the passenger captured image is captured, the date and time, and the weather as the imaging status information 32a (see FIG. 5) in the storage unit 30a. Information indicating weather and the like is acquired from an external server (not shown) and registered, but is not limited to this.

出力部24aは、記憶部30aにアクセスし、乗客情報31aを降り口端末装置10bへ出力する。なお、出力部24aは、バス1が停留所を出発して登録部23aでの登録処理等が完了してから次の停留所に到着するまでの間に出力処理を実行するが、出力のタイミングはこれに限定されるものではない。 The output unit 24a accesses the storage unit 30a and outputs the passenger information 31a to the exit terminal device 10b. The output unit 24a executes the output process from the time when the bus 1 departs from the bus stop and the registration process or the like at the registration unit 23a is completed until the bus 1 arrives at the next bus stop. Not limited to.

<降り口端末装置の構成>
次いで、降り口端末装置10bの構成について図6等を参照して説明する。図6は、降り口端末装置10bの構成例を示すブロック図である。
<Configuration of exit terminal device>
Next, the configuration of the exit terminal device 10b will be described with reference to FIG. 6 and the like. FIG. 6 is a block diagram showing a configuration example of the exit terminal device 10b.

図6に示すように、降り口端末装置10bは、第2カメラ11bと、測位部12bと、制御部20bと、記憶部30bとを備える。なお、降り口端末装置10bとしては、スマートフォンやタブレット端末などを用いることができるが、これに限定されるものではない。 As shown in FIG. 6, the exit terminal device 10b includes a second camera 11b, a positioning unit 12b, a control unit 20b, and a storage unit 30b. As the exit terminal device 10b, a smartphone, a tablet terminal, or the like can be used, but the exit terminal device 10b is not limited to this.

第2カメラ11bは、例えばレンズと、CCDやCMOSなどの撮像素子とを備えるカメラである。第2カメラ11bは、バス1の降り口2b(図1A参照)であって、かつ、バス1の中(バス車内)に設けられる。詳しくは、第2カメラ11bは、少なくとも降り口2bから降車する降車者(乗客)の顔を含む範囲をバス車内から撮像可能な位置に設けられる。第2カメラ11bは、降車者の降車者撮像画像を撮像し、撮像された降車者撮像画像を制御部20bへ出力する。 The second camera 11b is a camera including, for example, a lens and an image pickup element such as a CCD or CMOS. The second camera 11b is the exit 2b of the bus 1 (see FIG. 1A) and is provided inside the bus 1 (inside the bus). Specifically, the second camera 11b is provided at a position where at least a range including the face of a disembarking person (passenger) getting off from the exit 2b can be imaged from inside the bus. The second camera 11b captures an image of the person getting off the vehicle and outputs the captured image of the person getting off the vehicle to the control unit 20b.

測位部12bは、例えばGPS衛星から送出される電波に基づいてバス1の位置情報を取得し、取得された位置情報を制御部20bへ出力する。なお、測位部12bは、バス1が停留所に停止しているときに取得されたバス1の位置情報を、バス1が停止している停留所の位置情報として出力してもよい。 The positioning unit 12b acquires the position information of the bus 1 based on the radio wave transmitted from the GPS satellite, for example, and outputs the acquired position information to the control unit 20b. The positioning unit 12b may output the position information of the bus 1 acquired when the bus 1 is stopped at the bus stop as the position information of the bus stop where the bus 1 is stopped.

制御部20bは、取得部21bと、検出部22bと、照合部23bと、登録部24bと、算出部25bと、送信部26bとを備え、例えば、CPU、ROM、RAM、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 20b includes an acquisition unit 21b, a detection unit 22b, a collation unit 23b, a registration unit 24b, a calculation unit 25b, and a transmission unit 26b, and includes, for example, a CPU, ROM, RAM, input / output port, and the like. Includes computers and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部20bの取得部21b、検出部22b、照合部23b、登録部24b、算出部25bおよび送信部26bとして機能する。 The CPU of the computer functions as, for example, the acquisition unit 21b, the detection unit 22b, the collation unit 23b, the registration unit 24b, the calculation unit 25b, and the transmission unit 26b of the control unit 20b by reading and executing the program stored in the ROM. do.

また、制御部20bの取得部21b、検出部22b、照合部23b、登録部24b、算出部25bおよび送信部26bの少なくともいずれか一部または全部をASICやFPGA等のハードウェアで構成することもできる。 Further, at least a part or all of the acquisition unit 21b, the detection unit 22b, the collation unit 23b, the registration unit 24b, the calculation unit 25b, and the transmission unit 26b of the control unit 20b may be configured by hardware such as ASIC or FPGA. can.

また、記憶部30bは、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部30bには、乗客情報31b、撮像状況情報32b、乗降カウンタ33bおよび各種プログラムなどが記憶される。 Further, the storage unit 30b is a storage unit composed of a storage device such as a non-volatile memory or a data flash. Passenger information 31b, image pickup status information 32b, boarding / alighting counter 33b, various programs, and the like are stored in the storage unit 30b.

乗客情報31bは、バス1に乗る乗客(乗車者および降車者を含む)に関する情報である。ここで、図7を用いて、乗客情報31bについて説明する。図7は、乗客情報31bの一例を示す図である。図7に示すように、乗客情報31bには、「乗客ID」、「降車者画像」、「特徴点」、「性別」、「年齢」、「年齢層」、「マスクの有無」、「乗車した停留所」、「降車した停留所」、「履歴情報」および「第2確度」等の項目が含まれ、各項目は互いに関連付けられている。 Passenger information 31b is information about passengers (including passengers and disembarking passengers) who get on the bus 1. Here, the passenger information 31b will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of passenger information 31b. As shown in FIG. 7, the passenger information 31b includes "passenger ID", "getting off person image", "characteristic point", "gender", "age", "age group", "presence / absence of mask", and "boarding". Items such as "stopped", "stopped off", "history information" and "second accuracy" are included, and each item is associated with each other.

「乗客ID」は、乗客を識別する識別情報である。なお、図7において、乗客IDが「P01」の乗客は、図4に示す乗客情報31aにおける乗客IDが「P01」の乗客と同じ人物(同じ乗客)であることを示している。 The "passenger ID" is identification information that identifies a passenger. In addition, in FIG. 7, it is shown that the passenger whose passenger ID is "P01" is the same person (same passenger) as the passenger whose passenger ID is "P01" in the passenger information 31a shown in FIG.

「降車者画像」は、降車者撮像画像の情報である。「特徴点」は、顔の特徴点情報である。かかる特徴点情報には、例えば降車者撮像画像に写った降車者の顔における目、鼻や口などの特徴点の位置などが含まれるが、これに限定されるものではない。 The "get-off person image" is information of the get-off person captured image. The "feature point" is the feature point information of the face. The feature point information includes, but is not limited to, for example, the positions of feature points such as eyes, nose, and mouth on the face of the disembarkator in the image captured by the disembarkant.

「性別」は、降車者撮像画像に写った降車者の性別を示す情報である。「年齢」は、降車者撮像画像に写った降車者の年齢を示す情報であり、「年齢層」は、かかる降車者の年齢層を示す情報である。「マスクの有無」は、降車者撮像画像に写った降車者がマスクを着用しているか否かを示す情報である。 The "gender" is information indicating the gender of the disembarking person in the image captured by the disembarking person. The "age" is information indicating the age of the disembarking person in the image captured by the disembarking person, and the "age group" is information indicating the age group of the disembarking person. "Presence / absence of mask" is information indicating whether or not the disembarkation person in the image taken by the disembarkation person is wearing a mask.

「乗車した停留所」は、乗客が乗車した停留所を示す情報である。「降車した停留所」は、乗客(降車者)が降車した停留所を示す情報である。 The "bus stop" is information indicating the bus stop on which the passenger boarded. The "bus stop where the passenger got off" is information indicating the bus stop where the passenger (the person who got off) got off.

「履歴情報」は、更新前の乗客情報を示す履歴情報である。詳しくは、上記したように、降り口端末装置10bの記憶部30bには、乗車者撮像画像に基づいて検出される第1乗客情報が記憶され、その後、降車者撮像画像に基づいて第2乗客情報が検出されると、第2乗客情報が優先的に記憶される、すなわち乗客情報31bが更新される(図1B参照)。上記した「履歴情報」は、更新前の乗客情報を示す情報であり、詳しくは上書きされた第1乗客情報を示す情報(更新履歴情報)である。 The "history information" is history information indicating passenger information before the update. Specifically, as described above, the storage unit 30b of the exit terminal device 10b stores the first passenger information detected based on the passenger image, and then the second passenger based on the passenger image. When the information is detected, the second passenger information is preferentially stored, that is, the passenger information 31b is updated (see FIG. 1B). The above-mentioned "history information" is information indicating passenger information before update, and more specifically, information indicating overwritten first passenger information (update history information).

なお、履歴情報には、上書きされた第1乗客情報の全てあるいは一部が含まれているものとする。すなわち、例えば履歴情報の「履歴Q01」には、特徴点が「特徴点F01」、性別が「男性」、年齢が「年齢G01」、年齢層が「大人」、マスクの有無が「無し」などの属性情報を含む第1乗客情報が含まれるものとする。 It is assumed that the history information includes all or part of the overwritten first passenger information. That is, for example, in the history information "history Q01", the feature point is "feature point F01", the gender is "male", the age is "age G01", the age group is "adult", and the presence or absence of a mask is "none". It is assumed that the first passenger information including the attribute information of is included.

「第2確度」は、降車者撮像画像に基づいて検出された、属性情報を含む乗客情報の確度を示す情報である。「第2確度」は、例えば検出部22bによって算出されるが、これについては後述する。 The "second accuracy" is information indicating the accuracy of the passenger information including the attribute information detected based on the image captured by the person getting off the vehicle. The "second accuracy" is calculated by, for example, the detection unit 22b, which will be described later.

図7に示す例では、降車者ID「Q01」で識別される降車者のデータは、降車者画像が「画像E11」、特徴点が「特徴点F11」、性別が「男性」、年齢が「年齢G11」、年齢層が「大人」、マスクの有無が「無し」、乗車した停留所が「停留所H01」、降車した停留所が「停留所H11」、履歴情報が「履歴Q01」、第2確度が「確度R01」であることを示している。 In the example shown in FIG. 7, the data of the disembarkation person identified by the disembarkation person ID "Q01" is "image E11" for the disembarkation person image, "feature point F11" for the feature point, "male" for the gender, and "male" for the age. "Age G11", age group is "adult", presence or absence of mask is "none", boarding stop is "stop H01", getting off stop is "stop H11", history information is "history Q01", second accuracy is "stop H01" It shows that the accuracy is R01.

図6の説明に戻ると、撮像状況情報32bは、第2カメラ11bの撮像条件や第2カメラ11bで降車者撮像画像を撮像したときの状況などを示す情報である。 Returning to the description of FIG. 6, the image pickup status information 32b is information indicating the image pickup conditions of the second camera 11b, the situation when the disembarkation person image captured image is captured by the second camera 11b, and the like.

ここで、撮像状況情報32bについて説明する。図8は、撮像状況情報32bの一例を示す図である。図8に示すように、撮像状況情報32bには、「状況ID」、「第2カメラの設置位置」、「第2カメラの設置角度」、「停留所」、「日時」および「天候」等の項目が含まれ、各項目は互いに関連付けられている。 Here, the image pickup status information 32b will be described. FIG. 8 is a diagram showing an example of the imaging status information 32b. As shown in FIG. 8, the imaging status information 32b includes "status ID", "second camera installation position", "second camera installation angle", "stop", "date and time", "weather", and the like. Items are included and each item is associated with each other.

「状況ID」は、撮像状況情報を識別する識別情報である。「第2カメラの設置位置」は、降り口2bにおいて第2カメラ11bが設置される位置を示す情報である。「第2カメラの設置位置」には、例えば第2カメラ11bが設置される場所(例えば車内の手すり、座席など)、第2カメラ11bが設置される高さなどの情報が含まれるが、これらに限定されるものではない。 The "situation ID" is identification information that identifies the imaging status information. The "second camera installation position" is information indicating a position where the second camera 11b is installed at the exit 2b. The "installation position of the second camera" includes information such as the place where the second camera 11b is installed (for example, a handrail in a car, a seat, etc.), the height at which the second camera 11b is installed, and the like. Not limited to.

「第2カメラの設置角度」は、第2カメラ11bが設置される角度を示す情報である。「第2カメラの設置角度」には、例えば降り口2bに対する第2カメラ11bの取り付け角度であるが、これに限られず、第2カメラ11bの画角などその他の情報が含まれてもよい。 The “second camera installation angle” is information indicating the angle at which the second camera 11b is installed. The "installation angle of the second camera" is, for example, the mounting angle of the second camera 11b with respect to the exit 2b, but is not limited to this, and may include other information such as the angle of view of the second camera 11b.

「停留所」は、降車者撮像画像が撮像された停留所を示す情報である。「日時」および「天候」はそれぞれ、降車者撮像画像が撮像されたときの日時を示す情報、および、天候を示す情報である。 The "bus stop" is information indicating the bus stop where the image of the person getting off the bus is captured. The "date and time" and the "weather" are information indicating the date and time when the image taken by the person getting off the vehicle was captured, and information indicating the weather, respectively.

図8に示す例では、状況ID「S01」で識別される撮像状況のデータは、第2カメラ11bの設置位置が「位置T01」、第2カメラ11bの設置角度が「角度U01」、停留所が「停留所M01」、日時が「日時N01」、天候が「晴れ」であることを示している。 In the example shown in FIG. 8, the image pickup status data identified by the status ID “S01” is such that the installation position of the second camera 11b is “position T01”, the installation angle of the second camera 11b is “angle U01”, and the stop is. It indicates that "stop M01", the date and time is "date and time N01", and the weather is "sunny".

なお、第2カメラ11bの撮像条件は、上記した各項目のうち、「第2カメラの設置位置」および「第2カメラの設置角度」であり、記憶部30aに予め設定(登録)されているものとするが、これに限られない。すなわち、第2カメラ11bの撮像条件は、「第2カメラの設置位置」および「第2カメラの設置角度」の一方であってもよいし、「停留所」、「日時」および「天候」などその他の情報が含まれてもよく、任意に設定可能である。 The imaging conditions of the second camera 11b are "the installation position of the second camera" and "the installation angle of the second camera" among the above items, and are set (registered) in advance in the storage unit 30a. However, it is not limited to this. That is, the imaging condition of the second camera 11b may be one of "the installation position of the second camera" and "the installation angle of the second camera", "stop", "date and time", "weather" and the like. Information may be included and can be set arbitrarily.

図6の説明に戻ると、乗降カウンタ33bは、バス1の現在の乗客数をカウントするカウンタである。 Returning to the description of FIG. 6, the boarding / alighting counter 33b is a counter that counts the current number of passengers on the bus 1.

制御部20bの取得部21bは、乗り口端末装置10aから出力された乗客情報(第1乗客情報)を取得し、取得された第1乗客情報を登録部24bへ出力する。なお、登録部24bは、第1乗客情報を記憶部30bに乗客情報31a(図7参照)として登録する。なお、第1乗客情報の記憶部30bへの登録は、取得部21bが行ってもよい。 The acquisition unit 21b of the control unit 20b acquires the passenger information (first passenger information) output from the entrance terminal device 10a, and outputs the acquired first passenger information to the registration unit 24b. The registration unit 24b registers the first passenger information in the storage unit 30b as passenger information 31a (see FIG. 7). The acquisition unit 21b may register the first passenger information in the storage unit 30b.

また、取得部21bは、第2カメラ11bから、バス1から降車する乗客(降車者)が撮像された降車者撮像画像を取得する。例えば、取得部21bは、バス1が停留所で停止しているときに降車者撮像画像を取得するが、取得のタイミングはこれに限定されるものではない。取得部21bは、取得された降車者撮像画像を検出部22bへ出力する。 Further, the acquisition unit 21b acquires an image captured by the passenger (getting off) getting off from the bus 1 from the second camera 11b. For example, the acquisition unit 21b acquires an image captured by a person getting off the bus when the bus 1 is stopped at a stop, but the timing of acquisition is not limited to this. The acquisition unit 21b outputs the acquired image of the person getting off the vehicle to the detection unit 22b.

検出部22bは、降車者撮像画像に基づいて乗客(降車者)に関する乗客情報を検出することができる。なお、検出部22bは、第2検出部の一例である。 The detection unit 22b can detect passenger information about passengers (getting off) based on the captured image of the getting off. The detection unit 22b is an example of the second detection unit.

例えば、検出部22bは、降車者撮像画像から乗客(降車者)の顔情報(詳しくは顔の特徴点情報)を検出する。例えば、検出部22bは、降車者撮像画像から、目、鼻や口、輪郭などの特徴点を抽出し、抽出された特徴点の位置を特徴点情報として検出する。検出部22aは、検出された特徴点情報を降車者撮像画像とともに、照合部23bおよび登録部24bへ出力する。 For example, the detection unit 22b detects the face information (specifically, the feature point information of the face) of the passenger (getting off) from the image captured by the getting off person. For example, the detection unit 22b extracts feature points such as eyes, nose, mouth, and contour from the image captured by the person getting off the vehicle, and detects the positions of the extracted feature points as feature point information. The detection unit 22a outputs the detected feature point information to the collation unit 23b and the registration unit 24b together with the image captured by the person getting off the vehicle.

検出部22bは、降車者撮像画像から降車者の属性情報を検出する。例えば、検出部22aは、降車者撮像画像における特徴点情報に基づいて性別や年齢、年齢層、マスクの有無などの属性情報を検出する。そして、検出部22aは、検出された属性情報を照合部23bおよび登録部23aへ出力する。 The detection unit 22b detects the attribute information of the disembarking person from the captured image of the disembarking person. For example, the detection unit 22a detects attribute information such as gender, age, age group, and presence / absence of a mask based on the feature point information in the image of the person getting off the vehicle. Then, the detection unit 22a outputs the detected attribute information to the collation unit 23b and the registration unit 23a.

また、検出部22bは、降車者撮像画像に基づいて検出された、属性情報を含む乗客情報の確度を示す第2確度を算出することができる。例えば、検出部22bは、降車者撮像画像に基づいて検出された特徴点の多寡など種々の情報に基づいて、乗客情報の第2確度を算出することができる。例えば検出部22bは、検出された特徴点が多くなるにつれて、第2確度が高くなるようにして算出する。検出部22bは、算出された第2確度を示す情報を登録部24bへ出力する。 Further, the detection unit 22b can calculate a second accuracy indicating the accuracy of the passenger information including the attribute information detected based on the image captured by the person getting off the vehicle. For example, the detection unit 22b can calculate the second accuracy of the passenger information based on various information such as the number of feature points detected based on the image captured by the getting-off person. For example, the detection unit 22b calculates so that the second accuracy increases as the number of detected feature points increases. The detection unit 22b outputs the calculated information indicating the second accuracy to the registration unit 24b.

照合部23bは、記憶部30bに記憶される第1乗客情報である乗客情報と、検出部22bによって検出された第2乗客情報とを照合する。詳しくは、照合部23bは、第1乗客情報で示される乗車者と、第2乗客情報で示される降車者とが同じ乗客であるか否かの照合を行う。 The collation unit 23b collates the passenger information, which is the first passenger information stored in the storage unit 30b, with the second passenger information detected by the detection unit 22b. Specifically, the collating unit 23b collates whether or not the passenger indicated by the first passenger information and the disembarking passenger indicated by the second passenger information are the same passenger.

例えば、照合部23bは、第2乗客情報における降車者の特徴点情報や属性情報が、第1乗客情報における乗車者の特徴点情報や属性情報と一致あるいは略一致するか否かの照合を行う。照合部23bは、降車者の特徴点情報等が乗車者の特徴点情報等と一致あるいは略一致する場合、第1乗客情報で示される乗車者と第2乗客情報で示される降車者とが同じ乗客である旨の照合結果を、登録部24bへ出力する。 For example, the collation unit 23b collates whether or not the characteristic point information and attribute information of the passenger in the second passenger information match or substantially match the characteristic point information and attribute information of the passenger in the first passenger information. .. In the collation unit 23b, when the feature point information of the disembarkator matches or substantially matches the feature point information of the passenger, the passenger indicated by the first passenger information and the disembarkator indicated by the second passenger information are the same. The collation result indicating that the passenger is a passenger is output to the registration unit 24b.

登録部24bは、第2乗客情報で示される降車者が第1乗客情報で示される乗車者と同じ乗客である旨の照合結果が入力された場合、第2乗客情報を記憶部30bに乗客情報31b(図7参照)として登録する(記憶させる)。なお、登録部24bは、記憶処理部の一例である。 When the collation result indicating that the disembarking person indicated by the second passenger information is the same passenger as the passenger indicated by the first passenger information is input, the registration unit 24b stores the second passenger information in the storage unit 30b. Register (store) as 31b (see FIG. 7). The registration unit 24b is an example of a storage processing unit.

言い換えると、例えば登録部24bは、同じ乗客について第1乗客情報および第2乗客情報が検出された場合、第1カメラ11aおよび第2カメラ11bのうち撮像条件が有利な一方のカメラ(ここでは第2カメラ11b)の撮像画像に基づいて検出された乗客情報(第2乗客情報)を記憶部30bに記憶させる。別言すれば、登録部24bは、撮像条件が有利な第2カメラ11bの降車者撮像画像に基づいて検出された第2乗客情報で、記憶部30bに記憶されていた第1乗客情報を更新する(上書きする)。 In other words, for example, when the first passenger information and the second passenger information are detected for the same passenger, the registration unit 24b is one of the first camera 11a and the second camera 11b, which has an advantageous imaging condition (here, the first camera). Passenger information (second passenger information) detected based on the captured image of the 2 camera 11b) is stored in the storage unit 30b. In other words, the registration unit 24b updates the first passenger information stored in the storage unit 30b with the second passenger information detected based on the image captured by the disembarkator of the second camera 11b, which has favorable imaging conditions. (Overwrite).

このように、本実施形態にあっては、撮像条件が有利な第2カメラ11bの撮像画像に基づいて検出された乗客情報(第2乗客情報)を記憶部30bに記憶させることで、乗客情報の精度を向上させることができる。すなわち、記憶部30bの乗客情報を、上記したように第1乗客情報より精度の高い第2乗客情報で上書きすることで、記憶部30bの乗客情報の精度を向上させることができる。 As described above, in the present embodiment, passenger information is stored in the storage unit 30b by storing the passenger information (second passenger information) detected based on the image captured by the second camera 11b, which has favorable imaging conditions. The accuracy of can be improved. That is, by overwriting the passenger information of the storage unit 30b with the second passenger information having higher accuracy than the first passenger information as described above, the accuracy of the passenger information of the storage unit 30b can be improved.

また、登録部24bは、特徴点情報および属性情報を含む第2乗客情報を記憶部30bに記憶させる際、算出された第2確度を示す情報を降車者撮像画像とともに、記憶部30aに乗客情報31b(図7参照)として登録する。また、登録部24bは、測位部12bのバス1の位置情報に基づいて、降車者撮像画像が撮像された停留所、すなわち、降車者が降車した停留所の情報を乗客情報31bに付加してもよい。 Further, when the registration unit 24b stores the second passenger information including the feature point information and the attribute information in the storage unit 30b, the registration unit 24b stores the calculated second accuracy information in the storage unit 30a together with the disembarkation person captured image. Register as 31b (see FIG. 7). Further, the registration unit 24b may add to the passenger information 31b the information of the stop where the image of the disembarking person is captured, that is, the stop where the disembarking person got off, based on the position information of the bus 1 of the positioning unit 12b. ..

また、登録部24bは、更新前の乗客情報(第1乗客情報)を履歴情報として記憶部30bに記憶させてもよい。詳しくは、登録部24bは、第1カメラ11aおよび第2カメラ11bのうち撮像条件が有利な一方のカメラ(ここでは第2カメラ11b)とは異なる他方のカメラ(ここでは第1カメラ11a)の撮像画像(乗車者撮像画像)に基づいて検出された乗客情報(第1乗客情報)を記憶した記憶部30bに対して、一方のカメラ(第2カメラ11b)の撮像画像(降車者撮像画像)に基づいて検出された乗客情報(第2乗客情報)を記憶させて更新した場合、更新前の乗客情報(第1乗客情報)を履歴情報として記憶部30bに記憶させてもよい。 Further, the registration unit 24b may store the passenger information (first passenger information) before the update in the storage unit 30b as history information. Specifically, the registration unit 24b is of a camera (here, the first camera 11a) different from one of the first camera 11a and the second camera 11b, which has an advantageous image pickup condition (here, the second camera 11b). An image captured by one camera (second camera 11b) (image captured by a passenger) with respect to a storage unit 30b that stores passenger information (first passenger information) detected based on an captured image (image captured by a passenger). When the passenger information (second passenger information) detected based on the above is stored and updated, the passenger information (first passenger information) before the update may be stored in the storage unit 30b as history information.

このように、履歴情報を記憶部30bに記憶させておくことで、例えば第1カメラ11aの撮像条件の向上を図ることができる。すなわち、例えば、登録部24bは、記憶部30bに記憶される乗客情報(第2乗客情報)と履歴情報(第1乗客情報)との差分を算出し、算出された差分が予め設定された所定値以上である場合、第1カメラ11aの設置位置などが適切ではない可能性がある旨の通知を出力してもよい。なお、上記した差分として用いる情報は、任意に設定可能であり、一例としては第1確度と第2確度との差分を用いることができる。また、所定値は、第1乗客情報と第2乗客情報とが比較的大きく乖離していることを示す値に設定されるが、これに限られず、任意の値に設定可能である。 By storing the history information in the storage unit 30b in this way, for example, it is possible to improve the imaging conditions of the first camera 11a. That is, for example, the registration unit 24b calculates the difference between the passenger information (second passenger information) and the history information (first passenger information) stored in the storage unit 30b, and the calculated difference is set in advance. If it is equal to or more than the value, a notification may be output to the effect that the installation position of the first camera 11a may not be appropriate. The information used as the above-mentioned difference can be arbitrarily set, and as an example, the difference between the first accuracy and the second accuracy can be used. Further, the predetermined value is set to a value indicating that the first passenger information and the second passenger information are relatively largely different from each other, but the present invention is not limited to this, and any value can be set.

詳しくは、第1乗客情報と第2乗客情報との間に比較的大きな差異がある場合、言い換えると、精度が高い第2乗客情報に対して第1乗客情報が乖離しているような場合、第1カメラ11aの設置位置や設置角度などが適切ではない可能性がある。そこで、本実施にあっては、履歴情報を記憶部30bに記憶させておくことで、上記した通知などを出力することが可能になる。そして、例えばバス事業者は、かかる通知に応じて、第1カメラ11aの設置位置や設置角度などを適切に変更することが可能となり、結果として第1カメラ11aの撮像条件の向上を図ることができる。 Specifically, when there is a relatively large difference between the first passenger information and the second passenger information, in other words, when the first passenger information deviates from the highly accurate second passenger information. There is a possibility that the installation position and installation angle of the first camera 11a are not appropriate. Therefore, in this implementation, by storing the history information in the storage unit 30b, it is possible to output the above-mentioned notification and the like. Then, for example, the bus operator can appropriately change the installation position, installation angle, etc. of the first camera 11a in response to the notification, and as a result, the imaging conditions of the first camera 11a can be improved. can.

逆に言えば、第1乗客情報と第2乗客情報との間に比較的大きな差異がない場合、言い換えると、精度が高い第2乗客情報に対して第1乗客情報が乖離していないような場合、第1カメラ11aの設置位置や設置角度などが適切であると推定することが可能になる。 Conversely, if there is no relatively large difference between the first passenger information and the second passenger information, in other words, it seems that the first passenger information does not deviate from the highly accurate second passenger information. In this case, it is possible to estimate that the installation position, installation angle, and the like of the first camera 11a are appropriate.

また、登録部23aは、降車者撮像画像が撮像された停留所、日時および天候などの撮像状況を示す情報を、記憶部30bに撮像状況情報32b(図5参照)として登録してもよい。 Further, the registration unit 23a may register information indicating the imaging status such as the stop where the disembarking person's captured image was captured, the date and time, and the weather as the imaging status information 32b (see FIG. 5) in the storage unit 30b.

このように、第1カメラ11aの撮像状況情報32aや第2カメラ11bの撮像状況情報32bなどを記憶しておくことで、例えば第1乗客情報と第2乗客情報との間に比較的大きな差異がない場合、各カメラ11a,11bの現在の設置位置や設置角度、日時および天候などを含めた撮像状況が適切であると推定することが可能になる。 By storing the image pickup status information 32a of the first camera 11a, the image pickup status information 32b of the second camera 11b, and the like in this way, for example, there is a relatively large difference between the first passenger information and the second passenger information. If there is no such camera, it is possible to estimate that the current installation position, installation angle, date and time, weather, and the like of each camera 11a and 11b are appropriate.

また、履歴情報を記憶部30bに記憶させておくことで、例えばマスク無しで乗車した乗客がマスクを着用して降車したなど、乗客の行動変化を確認することも可能となる。 Further, by storing the history information in the storage unit 30b, it is possible to confirm the change in the behavior of the passenger, for example, the passenger who got on without the mask wears the mask and gets off.

算出部25bは、乗客情報31bなどに基づいてバス1の乗客数を算出する。例えば、算出部25bは、乗客情報31bに乗車者の顔情報や属性情報を含む第1乗客情報が新たに登録されたときに乗車者の人数を1人加算する、詳しくは乗降カウンタ33bをインクリメントする。 The calculation unit 25b calculates the number of passengers on the bus 1 based on the passenger information 31b and the like. For example, the calculation unit 25b adds one passenger number when the first passenger information including the passenger's face information and attribute information is newly registered in the passenger information 31b, and specifically increments the boarding / alighting counter 33b. do.

また、算出部25bは、乗客情報31bに、乗車者の特徴点情報や属性情報と一致あるいは略一致する降車者の情報を含む第2乗客情報が登録された場合に、かかる特徴点情報等の乗客がバス1から降車したと推定し、乗車者の人数から降車者を1人減算して得た値をバス1の現在の乗客数として算出する、詳しくは乗降カウンタ33bをデクリメントする。 Further, when the second passenger information including the information of the disembarking person who matches or substantially matches the feature point information and the attribute information of the passenger is registered in the passenger information 31b, the calculation unit 25b obtains the feature point information and the like. It is estimated that the passengers got off the bus 1, and the value obtained by subtracting one person from the number of passengers is calculated as the current number of passengers on the bus 1. Specifically, the boarding / alighting counter 33b is decremented.

なお、算出部25bは、バス1が停留所を出発して次の停留所に到着するまでの間に算出処理を実行するが、算出のタイミングはこれに限定されるものではない。 The calculation unit 25b executes the calculation process until the bus 1 departs from one stop and arrives at the next stop, but the timing of the calculation is not limited to this.

送信部26bは、乗客情報31bの一部あるいは全部と、乗降カウンタ33bの値であるバス1の乗客数の情報とを含む乗客情報を、管理サーバ200へ送信する。 The transmission unit 26b transmits passenger information including a part or all of the passenger information 31b and information on the number of passengers on the bus 1, which is the value of the boarding / alighting counter 33b, to the management server 200.

なお、送信部26bは、バス1が停留所を出発して算出部25bでの算出処理等が完了してから次の停留所に到着するまでの間に送信処理を実行するが、送信のタイミングはこれに限定されるものではない。 The transmission unit 26b executes the transmission process from the time when the bus 1 departs from the bus stop and the calculation process or the like in the calculation unit 25b is completed until the bus 1 arrives at the next stop. Not limited to.

<管理サーバの構成>
次いで、管理サーバ200の構成について図9を参照して説明する。図9は、管理サーバ200の構成例を示すブロック図である。
<Management server configuration>
Next, the configuration of the management server 200 will be described with reference to FIG. FIG. 9 is a block diagram showing a configuration example of the management server 200.

図9に示すように、管理サーバ200は、通信部201と、制御部210と、記憶部220とを備える。通信部201は、通信ネットワークNに双方向通信可能に接続する通信インターフェイスであり、バス端末装置10やバス事業者端末装置300、ユーザ端末装置400等との間で情報の送受信を行う。 As shown in FIG. 9, the management server 200 includes a communication unit 201, a control unit 210, and a storage unit 220. The communication unit 201 is a communication interface that connects to the communication network N so as to be capable of bidirectional communication, and transmits / receives information to / from the bus terminal device 10, the bus operator terminal device 300, the user terminal device 400, and the like.

制御部210は、取得部211と、混雑度算出部212と、提供部213とを備え、例えば、CPU、ROM、RAM、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 210 includes an acquisition unit 211, a congestion degree calculation unit 212, and a provision unit 213, and includes, for example, a computer having a CPU, ROM, RAM, input / output ports, and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部210の取得部211、混雑度算出部212および提供部213として機能する。 The CPU of the computer functions as the acquisition unit 211, the congestion degree calculation unit 212, and the provision unit 213 of the control unit 210, for example, by reading and executing the program stored in the ROM.

また、制御部210の取得部211、混雑度算出部212および提供部213の少なくともいずれか一部または全部をASICやFPGA等のハードウェアで構成することもできる。 Further, at least a part or all of the acquisition unit 211, the congestion degree calculation unit 212, and the provision unit 213 of the control unit 210 may be configured by hardware such as ASIC or FPGA.

また、記憶部220は、例えば、不揮発性メモリやデータフラッシュといった記憶デバイスで構成される記憶部である。かかる記憶部220には、乗客情報221、バス情報222および各種プログラムなどが記憶される。 Further, the storage unit 220 is a storage unit composed of a storage device such as a non-volatile memory or a data flash. Passenger information 221 and bus information 222, various programs, and the like are stored in the storage unit 220.

乗客情報221は、降り口端末装置10bから送信された、バス1の乗客に関する情報である。乗客情報221には、上記したように、乗客情報31bの一部あるいは全部と、乗降カウンタ33bの値であるバス1の乗客数の情報とが含まれる。 The passenger information 221 is information about the passengers of the bus 1 transmitted from the exit terminal device 10b. As described above, the passenger information 221 includes a part or all of the passenger information 31b and information on the number of passengers on the bus 1, which is the value of the boarding / alighting counter 33b.

バス情報222は、バス1に関する情報である。バス情報222には、例えばバス1の定員を示す定員情報などが含まれるが、これに限られず、バス1の運行計画情報などその他の情報が含まれてもよい。なお、バス情報222は、予め記憶部220に記憶されるが、これに限定されるものではなく、例えばバス事業者端末装置300など外部端末から送信されて記憶部220に記憶されてもよい。 Bus information 222 is information about bus 1. The bus information 222 includes, for example, capacity information indicating the capacity of the bus 1, but is not limited to this, and may include other information such as operation plan information of the bus 1. The bus information 222 is stored in the storage unit 220 in advance, but is not limited to this, and may be transmitted from an external terminal such as the bus operator terminal device 300 and stored in the storage unit 220.

制御部210の取得部211は、降り口端末装置10bから送信された情報を取得し、取得された情報を記憶部220に乗客情報221として記憶させる。 The acquisition unit 211 of the control unit 210 acquires the information transmitted from the exit terminal device 10b, and stores the acquired information in the storage unit 220 as passenger information 221.

混雑度算出部212は、バス1の混雑度、詳しくはバス1の現在の混雑度を算出する。混雑度は、バス1の混雑状況の度合いを示す指標値であり、例えばバス1の定員に対する乗客数等に応じた数段階のレベルで示される値である。 The congestion degree calculation unit 212 calculates the congestion degree of the bus 1, specifically, the current congestion degree of the bus 1. The degree of congestion is an index value indicating the degree of congestion of the bus 1, and is a value indicated in several levels according to, for example, the number of passengers with respect to the capacity of the bus 1.

例えば、混雑度算出部212は、乗客情報221に含まれるバス1の現在の乗客数の情報と、バス情報222に含まれるバス1の定員情報とに基づいて、バス1の現在の混雑度を算出する。混雑度算出部212は、算出された混雑度を示す混雑度情報を提供部213へ出力する。 For example, the congestion degree calculation unit 212 determines the current congestion degree of the bus 1 based on the information on the current number of passengers of the bus 1 included in the passenger information 221 and the capacity information of the bus 1 included in the bus information 222. calculate. The congestion degree calculation unit 212 outputs the congestion degree information indicating the calculated congestion degree to the provision unit 213.

提供部213は、かかる混雑度情報を通信部201を介して、例えばユーザ端末装置400やバス事業者端末装置300へ提供することができる。また、提供部213は、乗客情報221を通信部201を介して、例えばバス事業者端末装置300へ提供することができる。 The providing unit 213 can provide such congestion degree information to, for example, a user terminal device 400 or a bus operator terminal device 300 via the communication unit 201. Further, the providing unit 213 can provide the passenger information 221 to, for example, the bus operator terminal device 300 via the communication unit 201.

<実施形態に係る情報処理システムの制御処理>
次に、実施形態に係るバス端末装置10を含む情報処理システム100が実行する処理手順について、図10を用いて説明する。図10は、実施形態に係るバス端末装置10を含む情報処理システム100が実行する処理シーケンスの一例を示す図である。
<Control processing of the information processing system according to the embodiment>
Next, a processing procedure executed by the information processing system 100 including the bus terminal device 10 according to the embodiment will be described with reference to FIG. FIG. 10 is a diagram showing an example of a processing sequence executed by the information processing system 100 including the bus terminal device 10 according to the embodiment.

図10に示すように、先ず乗り口端末装置10aは、第1カメラ11aから乗車者撮像画像を取得する(ステップS10)。次いで、乗り口端末装置10aは、乗車者撮像画像に基づいて乗客情報(第1乗客情報)を検出する(ステップS11)。次いで、乗り口端末装置10aは、検出された乗客情報を記憶部30aに登録する(ステップS12)。 As shown in FIG. 10, first, the entrance terminal device 10a acquires a passenger captured image from the first camera 11a (step S10). Next, the entrance terminal device 10a detects passenger information (first passenger information) based on the image captured by the passenger (step S11). Next, the entrance terminal device 10a registers the detected passenger information in the storage unit 30a (step S12).

そして、乗り口端末装置10aは、検出された乗客情報を降り口端末装置10bへ出力する(ステップS13)。 Then, the entrance terminal device 10a outputs the detected passenger information to the exit terminal device 10b (step S13).

降り口端末装置10bは、乗り口端末装置10aから出力された乗客情報を記憶部30bに登録する(ステップS14)。次いで、降り口端末装置10bは、第2カメラ11bから降車者撮像画像を取得する(ステップS15)。次いで、降り口端末装置10bは、降車者撮像画像に基づいて乗客情報(第2乗客情報)を検出する(ステップS16)。 The exit terminal device 10b registers the passenger information output from the entrance terminal device 10a in the storage unit 30b (step S14). Next, the exit terminal device 10b acquires an image captured by the person getting off the vehicle from the second camera 11b (step S15). Next, the exit terminal device 10b detects passenger information (second passenger information) based on the image captured by the getting-off person (step S16).

次いで、降り口端末装置10bは、記憶部30aに記憶された乗客情報(第1乗客情報)と、降車者撮像画像に基づいて検出された乗客情報(第2乗客情報)とを照合する(ステップS17)。例えば、降り口端末装置10bは、降車者撮像画像に基づいて検出された第2乗客情報における降車者の特徴点情報や属性情報が、記憶部30aに記憶された第1乗客情報における乗車者の特徴点情報や属性情報と一致あるいは略一致するか否かの照合を行う。 Next, the exit terminal device 10b collates the passenger information (first passenger information) stored in the storage unit 30a with the passenger information (second passenger information) detected based on the image captured by the disembarking person (step). S17). For example, in the exit terminal device 10b, the feature point information and the attribute information of the disembarkator in the second passenger information detected based on the image captured by the disembarkator are stored in the storage unit 30a of the passenger in the first passenger information. It is collated whether or not it matches or substantially matches the feature point information and attribute information.

次いで、降り口端末装置10bは、第2乗客情報で示される降車者が第1乗客情報で示される乗車者と同じ乗客である旨の照合結果である場合、第2乗客情報を記憶部30bに乗客情報として登録(更新)する(ステップS18)。 Next, when the exit terminal device 10b is a collation result indicating that the disembarking person indicated by the second passenger information is the same passenger as the passenger indicated by the first passenger information, the second passenger information is stored in the storage unit 30b. Register (update) as passenger information (step S18).

次いで、降り口端末装置10bは、乗客情報などに基づいて、バス1の乗客数を算出する(ステップS19)。そして、降り口端末装置10bは、乗客情報の一部または全部、バス1の乗客数などを含む乗客情報を管理サーバ200へ送信する(ステップS20)。 Next, the exit terminal device 10b calculates the number of passengers on the bus 1 based on passenger information and the like (step S19). Then, the exit terminal device 10b transmits passenger information including a part or all of the passenger information, the number of passengers on the bus 1, and the like to the management server 200 (step S20).

管理サーバ200は、バス1の乗客数の情報などに基づいてバス1の混雑度を算出する(ステップS21)。そして、管理サーバ200は、混雑度情報や乗客情報などを、バス事業者端末装置300やユーザ端末装置400へ提供する(ステップS22)。 The management server 200 calculates the degree of congestion of the bus 1 based on the information on the number of passengers of the bus 1 (step S21). Then, the management server 200 provides the congestion degree information, passenger information, and the like to the bus operator terminal device 300 and the user terminal device 400 (step S22).

上述してきたように、実施形態に係るバス端末装置10(情報処理装置の一例)は、検出部22a(第1検出部の一例)と、検出部22b(第2検出部の一例)と、登録部24b(記憶処理部の一例)とを備える。検出部22aは、バス1の乗り口2aに設けられた第1カメラ11aによって撮像された乗車者撮像画像に基づいて乗り物の乗客に関する乗客情報(第1乗客情報)を検出可能に構成される。検出部22bは、バス1の降り口2bに設けられた第2カメラ11bによって撮像された降車者撮像画像に基づいて乗客に関する乗客情報(第2乗客情報)を検出可能に構成される。登録部24bは、検出部22aおよび検出部22bによってそれぞれ乗客情報(第1、第2乗客情報)が検出された場合、第1カメラ11aおよび第2カメラ11bのうち撮像条件が有利な一方のカメラ(ここでは第2カメラ11b)の撮像画像に基づいて検出された乗客情報(第2乗客情報)を記憶部30bに記憶させる。これにより、実施形態にあっては、乗客情報の精度を向上させることができる。 As described above, the bus terminal device 10 (an example of an information processing device) according to the embodiment is registered with a detection unit 22a (an example of a first detection unit) and a detection unit 22b (an example of a second detection unit). A unit 24b (an example of a storage processing unit) is provided. The detection unit 22a is configured to be able to detect passenger information (first passenger information) regarding passengers of the vehicle based on the passenger image captured by the first camera 11a provided at the entrance 2a of the bus 1. The detection unit 22b is configured to be able to detect passenger information (second passenger information) regarding passengers based on a passenger image captured by a second camera 11b provided at the exit 2b of the bus 1. When passenger information (first and second passenger information) is detected by the detection unit 22a and the detection unit 22b, the registration unit 24b is one of the first camera 11a and the second camera 11b, which has an advantageous imaging condition. Passenger information (second passenger information) detected based on the captured image of (here, the second camera 11b) is stored in the storage unit 30b. Thereby, in the embodiment, the accuracy of passenger information can be improved.

また、第2カメラ11bが、撮像条件が有利な一方のカメラである。このように、乗り口2aと比較して、乗客の顔などを正面から撮像しやすい位置に設置可能な降り口2bに設置される第2カメラ11bを、撮像条件が有利な一方のカメラとすることで、第2カメラ11bの撮像画像によって検出される第2乗客情報を、確実に精度の高い情報にすることが可能になる。 Further, the second camera 11b is one of the cameras having favorable imaging conditions. In this way, the second camera 11b installed at the exit 2b, which can be installed at a position where the passenger's face and the like can be easily imaged from the front as compared with the entrance 2a, is a camera whose imaging conditions are advantageous. This makes it possible to reliably convert the second passenger information detected by the captured image of the second camera 11b into highly accurate information.

(変形例)
次に、変形例に係るバス端末装置10について説明する。上記した実施形態においては、第1乗客情報および第2乗客情報が検出された場合、第2カメラ11bの撮像画像に基づいて検出された第2乗客情報を記憶部30bに記憶させるようにした。変形例では、これに限られず、所定の条件を満たした場合に、第2乗客情報ではなく、第1乗客情報を記憶部30bに記憶させるようにした。
(Modification example)
Next, the bus terminal device 10 according to the modified example will be described. In the above-described embodiment, when the first passenger information and the second passenger information are detected, the second passenger information detected based on the captured image of the second camera 11b is stored in the storage unit 30b. In the modified example, not limited to this, when a predetermined condition is satisfied, the first passenger information is stored in the storage unit 30b instead of the second passenger information.

具体的に説明すると、上記したように、第2カメラ11bは撮像条件が有利であるため、第2カメラ11bの撮像画像に基づいて検出された第2乗客情報の精度は高くなる可能性が高い。しかしながら、第2カメラ11bにおいて、例えば天候などを含めて撮像条件に何らかの変化があったり、乗客の姿勢によって乗客を正面から撮像できなかったりする場合がある。かかる場合、第2乗客情報の精度が低下することがある。そこで、変形例にあっては、第2乗客情報の精度が低下するようなとき、第1乗客情報を記憶部30bに記憶させるようにした、別言すれば、第2乗客情報を記憶部30bに登録することを禁止するようにした。 Specifically, as described above, since the second camera 11b has advantageous imaging conditions, the accuracy of the second passenger information detected based on the image captured by the second camera 11b is likely to be high. .. However, in the second camera 11b, there may be some changes in the imaging conditions including, for example, the weather, or the passenger may not be able to image from the front depending on the posture of the passenger. In such a case, the accuracy of the second passenger information may decrease. Therefore, in the modified example, when the accuracy of the second passenger information is lowered, the first passenger information is stored in the storage unit 30b. In other words, the second passenger information is stored in the storage unit 30b. It is prohibited to register in.

一例として、登録部24bは、第2乗客情報を記憶部30bに登録するか否かの判定を、第1確度および第2確度を用いて行うことができる。例えば、登録部24bは、第1乗客情報の確度である第1確度と、第2乗客情報の確度である第2確度とを比較する。そして、登録部24bは、第1確度と第2確度との比較結果が予め設定された所定条件を満たした場合、第1乗客情報を記憶部30bに記憶させる。なお、所定条件は、任意に設定可能であるが、例えば、第2確度が第1確度未満であることなどの条件が設定可能である。 As an example, the registration unit 24b can determine whether or not to register the second passenger information in the storage unit 30b by using the first accuracy and the second accuracy. For example, the registration unit 24b compares the first accuracy, which is the accuracy of the first passenger information, with the second accuracy, which is the accuracy of the second passenger information. Then, when the comparison result between the first accuracy and the second accuracy satisfies a predetermined condition set in advance, the registration unit 24b stores the first passenger information in the storage unit 30b. The predetermined condition can be arbitrarily set, but for example, a condition such that the second accuracy is less than the first accuracy can be set.

これにより、例えば第2乗客情報の精度が低下した場合には、記憶部30bに登録されないため、記憶部30bの乗客情報の精度が低下することを抑制することが可能になる。 As a result, for example, when the accuracy of the second passenger information is lowered, it is not registered in the storage unit 30b, so that it is possible to suppress the deterioration of the accuracy of the passenger information of the storage unit 30b.

次に、変形例に係るバス端末装置10における具体的な処理手順について図11を用いて説明する。図11は、変形例に係るバス端末装置10が実行する処理手順を示すフローチャートである。 Next, a specific processing procedure in the bus terminal device 10 according to the modified example will be described with reference to FIG. FIG. 11 is a flowchart showing a processing procedure executed by the bus terminal device 10 according to the modified example.

図11に示すように、バス端末装置10(乗り口端末装置10a)の制御部20aは、第1カメラ11aの乗車者撮像画像に基づいて検出された第1乗客情報の確度を示す第1確度を算出する(ステップS100)。 As shown in FIG. 11, the control unit 20a of the bus terminal device 10 (gateway terminal device 10a) has a first accuracy indicating the accuracy of the first passenger information detected based on the passenger image captured by the first camera 11a. Is calculated (step S100).

次いで、バス端末装置10(降り口端末装置10b)の制御部20bは、第2カメラ11bの降車者撮像画像に基づいて検出された第2乗客情報の確度を示す第2確度を算出する(ステップS101)。 Next, the control unit 20b of the bus terminal device 10 (exit terminal device 10b) calculates a second accuracy indicating the accuracy of the second passenger information detected based on the image captured by the getting-off person of the second camera 11b (step). S101).

次いで、制御部20bは、算出された第1確度と第2確度とを比較する(ステップS102)。次いで、制御部20bは、比較結果が上記した所定条件を満たすか否かを判定する(ステップS103)。 Next, the control unit 20b compares the calculated first accuracy and the second accuracy (step S102). Next, the control unit 20b determines whether or not the comparison result satisfies the above-mentioned predetermined condition (step S103).

制御部20bは、比較結果が所定条件を満たさないと判定された場合(ステップS103,No)、第2カメラ11bの降車者撮像画像に基づいて検出された第2乗客情報を記憶部30bに記憶させる(ステップS104)。 When it is determined that the comparison result does not satisfy the predetermined condition (step S103, No), the control unit 20b stores the second passenger information detected based on the image captured by the disembarkator of the second camera 11b in the storage unit 30b. (Step S104).

他方、制御部20bは、比較結果が所定条件を満たすと判定された場合(ステップS103,Yes)、第1カメラ11aの乗車者撮像画像に基づいて検出された第1乗客情報を記憶部30bに記憶させる(ステップS105)。 On the other hand, when it is determined that the comparison result satisfies a predetermined condition (step S103, Yes), the control unit 20b stores the first passenger information detected based on the passenger image captured by the first camera 11a in the storage unit 30b. Store it (step S105).

なお、上記では、第2カメラ11bが、撮像条件が有利な一方のカメラであるようにしたが、これに限定されるものではない。すなわち、第1カメラ11aが、撮像条件が有利な一方のカメラであってもよい。 In the above, the second camera 11b is set to be one of the cameras having favorable imaging conditions, but the present invention is not limited to this. That is, the first camera 11a may be one of the cameras having favorable imaging conditions.

また、上記では、乗り口端末装置10a、降り口端末装置10bおよび管理サーバ200がそれぞれ、各種の処理を行うようにしたが、各種の処理が行われる装置は、上記に限定されるものではない。 Further, in the above, the entrance terminal device 10a, the exit terminal device 10b, and the management server 200 each perform various processes, but the device on which the various processes are performed is not limited to the above. ..

すなわち、乗り口端末装置10aで行われる処理の一部あるいは全部が、降り口端末装置10bあるいは管理サーバ200で行われるようにしてもよい。また、降り口端末装置10bで行われる処理の一部あるいは全部が、乗り口端末装置10aあるいは管理サーバ200で行われるようにしてもよい。また、管理サーバ200で行われる処理の一部あるいは全部が、乗り口端末装置10aあるいは降り口端末装置10bで行われるようにしてもよい。 That is, a part or all of the processing performed by the entrance terminal device 10a may be performed by the exit terminal device 10b or the management server 200. Further, a part or all of the processing performed by the exit terminal device 10b may be performed by the entrance terminal device 10a or the management server 200. Further, a part or all of the processing performed by the management server 200 may be performed by the entrance terminal device 10a or the exit terminal device 10b.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments described and described above. Thus, various modifications can be made without departing from the spirit or scope of the overall concept of the invention as defined by the appended claims and their equivalents.

1 バス
10 バス端末装置
10a 乗り口端末装置
10b 降り口端末装置
11a 第1カメラ
11b 第2カメラ
22a 検出部
22b 検出部
24b 登録部
100 情報処理システム
200 管理サーバ
1 Bus 10 Bus terminal device 10a Exit terminal device 10b Exit terminal device 11a 1st camera 11b 2nd camera 22a Detection unit 22b Detection unit 24b Registration unit 100 Information system 200 Management server

Claims (5)

乗り物の乗り口に設けられた第1カメラによって撮像された撮像画像に基づいて前記乗り物の乗客に関する乗客情報を検出可能な第1検出部と、
前記乗り物の降り口に設けられた第2カメラによって撮像された撮像画像に基づいて前記乗客に関する前記乗客情報を検出可能な第2検出部と、
前記第1検出部および前記第2検出部によってそれぞれ前記乗客情報が検出された場合、前記第1カメラおよび前記第2カメラのうち撮像条件が有利な一方のカメラの撮像画像に基づいて検出された前記乗客情報を記憶部に記憶させる記憶処理部と
を備えることを特徴とする情報処理装置。
A first detection unit capable of detecting passenger information regarding passengers of the vehicle based on an image captured by a first camera provided at the entrance of the vehicle.
A second detection unit capable of detecting the passenger information regarding the passenger based on an image captured by the second camera provided at the exit of the vehicle, and a second detection unit.
When the passenger information is detected by the first detection unit and the second detection unit, respectively, it is detected based on the image captured by one of the first camera and the second camera, which has an advantageous imaging condition. An information processing device including a storage processing unit that stores passenger information in a storage unit.
前記記憶処理部は、
前記第1カメラおよび前記第2カメラのうち前記一方のカメラとは異なる他方のカメラの撮像画像に基づいて検出された前記乗客情報を記憶した前記記憶部に対して、前記一方のカメラの撮像画像に基づいて検出された前記乗客情報を記憶させて更新した場合、更新前の前記乗客情報を履歴情報として前記記憶部に記憶させること
を特徴とする請求項1に記載の情報処理装置。
The storage processing unit is
An image captured by the one camera with respect to the storage unit that stores the passenger information detected based on the image captured by the other camera different from the one camera of the first camera and the second camera. The information processing apparatus according to claim 1, wherein when the passenger information detected based on the above is stored and updated, the passenger information before the update is stored in the storage unit as history information.
前記第2カメラが、前記一方のカメラであること
を特徴とする請求項1または2に記載の情報処理装置。
The information processing apparatus according to claim 1 or 2, wherein the second camera is one of the cameras.
前記第1検出部は、
前記第1カメラの撮像画像に基づいて検出された前記乗客情報の確度を示す第1確度を算出し、
前記第2検出部は、
前記第2カメラの撮像画像に基づいて検出された前記乗客情報の確度を示す第2確度を算出し、
前記記憶処理部は、
前記第1検出部によって算出された前記第1確度と前記第2検出部によって算出された前記第2確度とを比較し、比較結果が所定条件を満たす場合、前記一方のカメラとは異なる他方のカメラの撮像画像に基づいて検出された前記乗客情報を前記記憶部に記憶させること
を特徴とする請求項1~3のいずれか一つに記載の情報処理装置。
The first detection unit is
The first accuracy indicating the accuracy of the passenger information detected based on the image captured by the first camera was calculated.
The second detection unit is
A second accuracy indicating the accuracy of the passenger information detected based on the image captured by the second camera was calculated.
The storage processing unit is
The first accuracy calculated by the first detection unit is compared with the second accuracy calculated by the second detection unit, and if the comparison result satisfies a predetermined condition, the other camera is different from the one camera. The information processing apparatus according to any one of claims 1 to 3, wherein the passenger information detected based on an image captured by a camera is stored in the storage unit.
乗り物の乗り口に設けられた第1カメラによって撮像された撮像画像に基づいて前記乗り物の乗客に関する乗客情報を検出可能な第1検出工程と、
前記乗り物の降り口に設けられた第2カメラによって撮像された撮像画像に基づいて前記乗客に関する前記乗客情報を検出可能な第2検出工程と、
前記第1検出工程および前記第2検出工程によってそれぞれ前記乗客情報が検出された場合、前記第1カメラおよび前記第2カメラのうち撮像条件が有利な一方のカメラの撮像画像に基づいて検出された前記乗客情報を記憶部に記憶させる記憶処理工程と
を含むことを特徴とする情報処理方法。
A first detection step capable of detecting passenger information regarding passengers of the vehicle based on an image captured by a first camera provided at the entrance of the vehicle.
A second detection step capable of detecting the passenger information regarding the passenger based on an image captured by a second camera provided at the exit of the vehicle.
When the passenger information is detected by the first detection step and the second detection step, respectively, it is detected based on the captured image of one of the first camera and the second camera, which has an advantageous imaging condition. An information processing method including a storage processing step of storing passenger information in a storage unit.
JP2020217599A 2020-12-25 2020-12-25 Information processing device and information processing method Pending JP2022102710A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020217599A JP2022102710A (en) 2020-12-25 2020-12-25 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020217599A JP2022102710A (en) 2020-12-25 2020-12-25 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2022102710A true JP2022102710A (en) 2022-07-07

Family

ID=82273356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020217599A Pending JP2022102710A (en) 2020-12-25 2020-12-25 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2022102710A (en)

Similar Documents

Publication Publication Date Title
US11094193B2 (en) Real-time vehicle-based data gathering
US10445950B1 (en) Vehicle monitoring system
CN109311622B (en) Elevator system and car call estimation method
US10891515B2 (en) Vehicle accident image processing method and apparatus
WO2020111133A1 (en) Traffic assistance system, server and method, in-vehicle device and operation method thereof, computer program, recording medium, computer, and semiconductor integrated circuit
US20130307982A1 (en) Onboard camera automatic calibration apparatus
US11507960B2 (en) System and method for handling lost item in autonomous vehicle
KR20150039851A (en) Public transportation navigator
US20210342601A1 (en) Information processing system, method of information processing, and program
JP6539395B1 (en) Prediction apparatus and prediction method
JP2022102710A (en) Information processing device and information processing method
CN111159529B (en) Information processing system, server, non-transitory computer readable storage medium, and method for processing information
CN113508606B (en) Automatic determination of optimal transport service location for points of interest from noisy multimodal data
JP2022079320A (en) Getting on and off determining device and getting on and off determining method
US20220157148A1 (en) Health advisory alert systems, mobile computing units having the same, and health advisory alert methods
CN114999222B (en) Abnormal behavior notification device, notification system, notification method, and recording medium
JP2022079319A (en) Information processing device and information processing method
JP2022079321A (en) Computation device and computation method
JP7415327B2 (en) Mobile terminal control method, mobile terminal control device, program
JP2023037803A (en) Control device and control method
US10708719B2 (en) Matching device, terminal, sensor network system, matching method, and matching program
JP2022102712A (en) Air-conditioning control device and air-conditioning method
US20190297253A1 (en) Imaging device and imaging system
WO2023276089A1 (en) Information provision system, information provision method, and program recording medium
KR102450272B1 (en) Local visit information statistical processing method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521