JP2022158041A - Vehicle interior monitoring system and vehicle operation management system - Google Patents

Vehicle interior monitoring system and vehicle operation management system Download PDF

Info

Publication number
JP2022158041A
JP2022158041A JP2021062657A JP2021062657A JP2022158041A JP 2022158041 A JP2022158041 A JP 2022158041A JP 2021062657 A JP2021062657 A JP 2021062657A JP 2021062657 A JP2021062657 A JP 2021062657A JP 2022158041 A JP2022158041 A JP 2022158041A
Authority
JP
Japan
Prior art keywords
unit
vehicle
vehicle interior
person
congestion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021062657A
Other languages
Japanese (ja)
Inventor
貴裕 伊津野
Takahiro Izuno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021062657A priority Critical patent/JP2022158041A/en
Publication of JP2022158041A publication Critical patent/JP2022158041A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a vehicle interior monitoring system and a vehicle operation management system that can determine whether or not there is space to ease congestion in a vehicle interior.SOLUTION: A ceiling center camera 18 (first imaging unit) images a plan view image of a vehicle interior from a center of a ceiling in the vehicle interior. A side camera 19 (second imaging unit) images a side view image of the vehicle interior from a peripheral edge of the ceiling or a side of a vehicle interior 40. A vehicle interior image recognition unit 36 recognizes a person and luggage included in the plan view image and the side view image. A congestion estimation unit 37 obtains, on the basis of the recognized person and luggage, a congestion rate of the vehicle interior. The vehicle interior image recognition unit 36 obtains a plan view section of the person and luggage recognized in the plan view image, and obtains a side view section of the person and luggage recognized in the side view image. A volume calculation unit 37E obtains, on the basis of the plan view section and the side view section of the person and luggage, volume of the person and luggage. A congestion rate calculation unit 37G calculates a congestion rate on the basis of a difference between total volume of the person and luggage and volume of the vehicle interior 40.SELECTED DRAWING: Figure 2

Description

本明細書では、車室内監視システム及び当該システムを含む車両の運行管理システムが開示される。 Disclosed herein is a vehicle interior monitoring system and a vehicle operation management system including the system.

例えば特許文献1や特許文献2には、列車やバス等の乗合車両における乗車率を算出する監視システムが開示されている。このシステムでは、車両の上方に複数の監視カメラが設けられる。これらの監視カメラは等間隔に配置されており、それぞれ上方から真下を撮像するように設置されている。 For example, Patent Literature 1 and Patent Literature 2 disclose a monitoring system for calculating the boarding ratio of passenger vehicles such as trains and buses. In this system, multiple surveillance cameras are provided above the vehicle. These surveillance cameras are arranged at regular intervals, and are installed so as to capture images from above to directly below.

そして、各監視カメラにより撮像された映像データから人物が検出され、さらにその人物が占有している車両内の面積の割合(占有率)が算出される。それぞれの監視カメラの映像データに基づく占有率から、車両全体での占有率が求められる。 Then, a person is detected from the image data captured by each surveillance camera, and the ratio of the area in the vehicle occupied by the person (occupancy rate) is calculated. The occupancy rate of the entire vehicle is obtained from the occupancy rate based on the image data of each surveillance camera.

特開2013-25523号公報JP 2013-25523 A 特開2012-146022号公報JP 2012-146022 A

ところで、例えば車室内にある荷物が、背の低い短身荷物である場合には、移動させて立位客の足の間に挟むなどすれば、車内の占有率の低下、言い換えると混雑緩和が期待できる。しかしながら、車室上方から見下ろすようにして車内を撮像する平面視画像には、乗客や荷物等の高さ情報が反映されない。 By the way, for example, if the luggage in the passenger compartment is short and short, moving it and placing it between the legs of the standing passengers will reduce the occupancy rate of the passenger compartment, in other words, alleviate congestion. I can expect it. However, height information of passengers, luggage, and the like is not reflected in a planar view image of the inside of the vehicle, which is captured by looking down from above the vehicle compartment.

そこで本明細書では、車室内の混雑緩和の余地の有無を判定可能な、車室内監視システム及び当該システムを含む車両の運行管理システムが開示される。 Therefore, in this specification, a vehicle interior monitoring system and a vehicle operation management system including the system are disclosed, which can determine whether or not there is room for alleviating congestion in the vehicle interior.

本明細書では、車室内監視システムが開示される。このシステムは、第一撮像器、第二撮像器、画像認識部、及び混雑推定部を備える。第一撮像器は、車室の天井の中央部から車室内の平面視画像を撮像する。第二撮像器は、天井の周縁部または車室の側面から車室内の側面視画像を撮像する。画像認識部は、平面視画像及び側面視画像に含まれる人物及び荷物を認識する。混雑推定部は、認識された人物及び荷物に基づいて、車室の混雑率を求める。画像認識部は、平面視画像で認識された人物及び荷物の平面視区画を求めるとともに、側面視画像で認識された人物及び荷物の側面視区画を求める。混雑推定部は、体積算出部及び混雑率算出部を備える。体積算出部は、人物及び荷物の平面視区画及び側面視区画に基づいて、人物及び荷物の体積を求める。混雑率算出部は、人物及び荷物の体積の総和と車室の容積との差異に基づいて、混雑率を求める。 A vehicle interior monitoring system is disclosed herein. The system comprises a first imager, a second imager, an image recognizer, and a congestion estimator. The first imaging device captures a planar view image of the interior of the vehicle from the central portion of the ceiling of the vehicle. The second imaging device captures a side-view image of the vehicle interior from the peripheral edge of the ceiling or the side of the vehicle interior. The image recognition unit recognizes a person and luggage included in the plan view image and the side view image. The congestion estimating unit obtains the congestion rate of the passenger compartment based on the recognized persons and luggage. The image recognition unit obtains a plan view section of the person and the package recognized in the plan view image, and obtains a side view section of the person and package recognized in the side view image. The congestion estimation unit includes a volume calculation unit and a congestion rate calculation unit. The volume calculation unit obtains the volume of the person and the package based on the plan view section and the side view section of the person and the package. The congestion rate calculation unit obtains the congestion rate based on the difference between the total volume of people and luggage and the volume of the passenger compartment.

上記構成によれば、人物及び荷物の平面視における占有面積に加えて、高さ情報が加味された体積ベースでの混雑率が求められる。この混雑率の算出過程で、特に荷物の側面視区画から高さ情報が得られることで、短身荷物の抽出が可能となる。 According to the above configuration, in addition to the area occupied by people and luggage in a plan view, the volume-based congestion rate that takes into account height information is obtained. In the process of calculating the congestion rate, it is possible to extract short luggage by obtaining height information especially from the side view section of the luggage.

また上記構成において、混雑推定部は、奥行情報取得部及び座標変換部を備えてもよい。奥行情報取得部は、人物及び荷物の平面視区画の、第一撮像器の光軸に沿った奥行情報を取得するとともに、人物及び荷物の側面視区画の、第二撮像器の光軸に沿った奥行情報を取得する。座標変換部は、平面視区画及び側面視区画の平面座標及び奥行情報に基づくカメラ座標系上の3次元座標を、車室内空間の座標系であるワールド座標系上の3次元座標に変換する。体積算出部は、ワールド座標系に変換された平面視区画及び側面視区画に基づいて、人物及び荷物の体積を求める。 Moreover, in the above configuration, the congestion estimation unit may include a depth information acquisition unit and a coordinate conversion unit. The depth information acquisition unit acquires depth information of the plane view section of the person and the package along the optical axis of the first imaging device, and obtains depth information of the side view section of the person and the package along the optical axis of the second imaging device. depth information. The coordinate transformation unit transforms the plane coordinates of the plan view section and the side view section and the three-dimensional coordinates on the camera coordinate system based on the depth information into the three-dimensional coordinates on the world coordinate system, which is the coordinate system of the vehicle interior space. The volume calculator obtains the volume of the person and the package based on the plan view section and the side view section transformed into the world coordinate system.

平面視画像及び側面視画像では、相対的に第一撮像器及び第二撮像器の近くにいる人物及び荷物は、相対的にこれらの撮像器から遠くにいる人物及び荷物よりも大きく写される。この第一/第二撮像器に対する距離に起因する、人物及び荷物の像の大小が、カメラ座標系をワールド座標系に変換することで解消される。 In the two-dimensional image and the side view image, persons and items relatively close to the first imager and second imager appear larger than persons and items relatively far from these imagers. . The size of the images of the person and the luggage due to the distance to the first/second imaging device is eliminated by transforming the camera coordinate system into the world coordinate system.

また上記構成において、画像認識部は、SSD(Single Shot Multibox Detector)アルゴリズムに基づいて求められた、人物及び荷物を囲む矩形領域であるバウンディングボックスを平面視区画及び側面視区画に設定してもよい。 Further, in the above configuration, the image recognition unit may set bounding boxes, which are rectangular areas surrounding the person and the luggage, obtained based on an SSD (Single Shot Multibox Detector) algorithm in the plan view section and the side view section. .

上記構成によれば、既存のアルゴリズムを用いて、人物及び荷物の体積を求めることができる。 According to the above configuration, it is possible to obtain the volume of the person and the package using an existing algorithm.

また上記構成において、混雑推定部は、近接荷物抽出部を備えてもよい。近接荷物抽出部は、ワールド座標系の空間内で人物の体積に所定割合以上体積が重複する荷物である近接荷物を抽出する。混雑率算出部は、抽出された近接荷物を、混雑率の算出対象から除外する。 Further, in the above configuration, the congestion estimation unit may include an adjacent baggage extraction unit. The proximate luggage extraction unit extracts proximate luggage, which is luggage whose volume overlaps the volume of the person by a predetermined ratio or more in the space of the world coordinate system. The congestion rate calculation unit excludes the extracted proximate parcels from the congestion rate calculation target.

人物や荷物が、それらの輪郭により体積領域が求められる場合とは異なり、バウンディングボックスで囲まれる場合に、人物と荷物が近接していると、お互いの体積領域に重複が生じる。重複領域が多い荷物が混雑率の算出対象から除外されることで、混雑率が過度に高くなることを抑制可能となる。 Unlike the case where the volumetric regions of a person or a package are determined by their contours, when surrounded by a bounding box, if the person and the package are close to each other, their volumetric regions overlap each other. By excluding parcels with a large number of overlapped areas from the calculation of the congestion rate, it is possible to prevent the congestion rate from becoming excessively high.

また上記構成において、混雑推定部は、短身荷物探索部を備えてもよい。短身荷物探索部は、混雑率算出部により求められた混雑率が所定の上限閾値を超過する場合に、混雑率の算出対象となった荷物の、ワールド座標系に変換された側面視区画における高さ成分に基づいて、所定の閾値高さ以下の荷物を探索する。 Further, in the above configuration, the congestion estimation section may include a short baggage search section. When the congestion rate obtained by the congestion rate calculation section exceeds a predetermined upper limit threshold, the short baggage search section searches for the baggage for which the congestion rate is calculated in the side view section converted to the world coordinate system. Based on the height component, parcels with a height equal to or less than a predetermined threshold are searched.

上記構成によれば、立位客の両足間に移動可能な短身荷物の有無が判定可能となる。 According to the above configuration, it is possible to determine whether or not there is short luggage that can be moved between the legs of the standing passenger.

また上記構成において、混雑推定部は、所定の閾値高さ以下の荷物が探索された場合に、荷物の移動を促すアナウンスを車室内に出力させる、アナウンス制御部を備えてもよい。 Further, in the above configuration, the congestion estimation unit may include an announcement control unit that outputs an announcement prompting the movement of the baggage into the vehicle interior when the baggage having a height equal to or lower than a predetermined threshold is found.

上記構成によれば、アナウンスの出力により、混雑緩和が促される。 According to the above configuration, the output of the announcement promotes congestion relief.

また本明細書では、上述の車室内監視システムと、当該車室内監視システムと通信可能な運行スケジュール調整部を備える、車両の運行管理システムが開示される。運行スケジュール調整部は、複数の車両のそれぞれに搭載された車室内監視システムの混雑推定部と通信可能となっている。また運行スケジュール調整部は、それぞれの混雑推定部から受信した混雑率に基づいて、次に停車する予定の停留所を通過するような運行スケジュールの変更可否を判定する。 Further, in this specification, a vehicle operation management system is disclosed that includes the vehicle interior monitoring system described above and an operation schedule adjustment section that can communicate with the vehicle interior monitoring system. The operation schedule adjusting unit can communicate with the congestion estimating unit of the vehicle interior monitoring system installed in each of the plurality of vehicles. Further, the operation schedule adjustment unit determines whether or not the operation schedule can be changed so that the train will pass through the stop at which the train is scheduled to stop next, based on the congestion rate received from each congestion estimation unit.

上記構成によれば、高い混雑率の車両に対して停車予定の停留所を通過させる等の、混雑率に応じた運行が可能となる。 According to the above configuration, it is possible to operate according to the congestion rate, such as allowing a vehicle with a high congestion rate to pass through a stop scheduled to stop.

本明細書で開示される車室内監視システム及び当該システムを含む車両の運行管理システムによれば、車室内の混雑緩和の余地の有無が判定可能となる。 According to the vehicle interior monitoring system disclosed in this specification and the vehicle operation management system including the system, it is possible to determine whether or not there is room for alleviating congestion in the vehicle interior.

本実施形態に係る車室内監視システム及び運行管理システムが搭載された、乗合車両利用システムの概略図である。1 is a schematic diagram of a shared vehicle utilization system equipped with a vehicle interior monitoring system and an operation management system according to the present embodiment; FIG. 図1の乗合車両利用システムの機能ブロックが例示された図である。FIG. 2 is a diagram illustrating functional blocks of the shared vehicle utilization system of FIG. 1; 混雑推定部を構成するサブユニットを例示する機能ブロック図である。FIG. 3 is a functional block diagram illustrating subunits forming a congestion estimator; 乗合車両の外観を例示する斜視図である。1 is a perspective view illustrating an appearance of a passenger vehicle; FIG. 乗合車両の車室を例示する透視図(パース)である。It is a perspective view (perspective) which illustrates the passenger compartment of a passenger vehicle. 乗合車両の車室内のカメラ配置を説明する図である。It is a figure explaining camera arrangement in the vehicle interior of a passenger vehicle. 本実施形態に係る車室内監視システムにより実行される、混雑率推定フロー(1/2)である。It is a congestion rate estimation flow (1/2) performed by the vehicle interior monitoring system which concerns on this embodiment. 本実施形態に係る車室内監視システムにより実行される、混雑率推定フロー(2/2)である。2 is a congestion rate estimation flow (2/2) executed by the vehicle interior monitoring system according to the present embodiment. 側面視撮像画像を例示する図である。It is a figure which illustrates a side view captured image. 側面視撮像画像に対してSSDアルゴリズムに基づく画像認識を実行したときの例を示す図である。It is a figure which shows the example when image recognition based on an SSD algorithm is performed with respect to the side view captured image. 平面視撮像画像を例示する図である。It is a figure which illustrates a planar view captured image. 平面視撮像画像に対してSSDアルゴリズムに基づく画像認識を実行したときの例を示す図である。It is a figure which shows the example when image recognition based on an SSD algorithm is performed with respect to a planar view captured image. 平面視撮像画像から抽出されたバウンディングボックスと、正面視撮像画像から抽出されたバウンディングボックスの、車室内空間における傾きを説明する図である。FIG. 4 is a diagram for explaining inclinations in a vehicle interior space of a bounding box extracted from a planar-view captured image and a bounding box extracted from a front-view captured image; バウンディングボックスから体積を求める過程について説明する図である。FIG. 4 is a diagram explaining a process of obtaining a volume from a bounding box; 本実施形態に係る運行管理システムにより実行される、運行調整フローを例示する図である。It is a figure which illustrates an operation adjustment flow performed by the operation management system concerning this embodiment. 平面視撮像画像から認識された人物及び荷物と、正面視撮像画像から認識された人物及び荷物との対応付け過程の別例について説明する図(背面図)である。It is a figure (rear view) explaining another example of the matching process of the person and the luggage|packaging recognized from the planar view captured image, and the person and luggage|load recognized from the front view captured image. 平面視撮像画像から認識された人物及び荷物と、正面視撮像画像から認識された人物及び荷物との対応付け過程の別例について説明する図(平面図)である。FIG. 11 is a diagram (plan view) explaining another example of the process of associating the person and the package recognized from the planar view captured image with the person and package recognized from the front view captured image. 本実施形態の別例に係る車室内監視システム及び運行管理システムが搭載された、乗合車両利用システムの機能ブロック図である。FIG. 11 is a functional block diagram of a system for utilizing shared vehicles, in which a vehicle interior monitoring system and an operation management system according to another example of the present embodiment are installed; 本実施形態の別例に係る運行管理システムにより実行される、運行調整フローを例示する図である。It is a figure which illustrates an operation adjustment flow performed by the operation management system concerning another example of this embodiment.

以下に、本発明の実施形態が図面を用いて説明される。以下で説明する形状、材料、個数、及び数値は、説明のための例示であって、車室内監視システム及び当該システムを備える車両の運行管理システムの仕様に応じて適宜変更することができる。また以下ではすべての図面において同等の要素には同一の符号が付される。 Embodiments of the present invention are described below with reference to the drawings. The shapes, materials, numbers, and numerical values described below are examples for explanation, and can be changed as appropriate according to the specifications of the vehicle interior monitoring system and the vehicle operation management system including the system. In the following, like elements are given the same reference numerals in all drawings.

<全体構成>
図1には、本実施形態に係る車室内監視システム及び車両の運行管理システムを含む、乗合車両利用システムの全体構成が例示される。また図2には、乗合車両利用システムの機能ブロックが例示される。乗合車両利用システムは、乗合車両10、センターサーバ50、及び携帯端末70を含んで構成される。乗合車両10、センターサーバ50、及び携帯端末70は、インターネット95等の通信手段を用いて互いに通信可能となっている。
<Overall composition>
FIG. 1 illustrates the overall configuration of a shared vehicle utilization system including a vehicle interior monitoring system and a vehicle operation management system according to this embodiment. Further, FIG. 2 illustrates functional blocks of the passenger vehicle utilization system. The shared vehicle utilization system includes a shared vehicle 10 , a center server 50 , and a mobile terminal 70 . The passenger vehicle 10, the center server 50, and the mobile terminal 70 can communicate with each other using communication means such as the Internet 95 or the like.

以下に詳細に説明されるが、乗合車両10は予め規定された路線を走行し、路線に沿って設けられた停留所で停車する。乗合車両10には車室内監視システムが搭載される。図1、図2に例示されるように、車室内監視システムは天井中央カメラ18、側方カメラ19、車室内画像認識部36、及び混雑推定部37を含んで構成される。 As will be described in detail below, the passenger vehicle 10 travels along a predetermined route and stops at stops provided along the route. The passenger vehicle 10 is equipped with a vehicle interior monitoring system. As illustrated in FIGS. 1 and 2 , the vehicle interior monitoring system includes a ceiling center camera 18 , a side camera 19 , a vehicle interior image recognition section 36 and a congestion estimation section 37 .

後述されるように、車室内監視システムにより、車室内の混雑率が算出される。この混雑率は、センターサーバ50を経由して携帯端末70の運行スケジュール表示部82(図2参照)に送信される。携帯端末70に混雑率が送信されることで、携帯端末70のユーザは、乗車前に乗合車両10への乗車可否を判断できる。 As will be described later, the vehicle interior monitoring system calculates the congestion rate in the vehicle interior. This congestion rate is transmitted to the operation schedule display section 82 (see FIG. 2) of the mobile terminal 70 via the center server 50 . By transmitting the congestion rate to the mobile terminal 70, the user of the mobile terminal 70 can determine whether or not to board the shared vehicle 10 before boarding.

またセンターサーバ50では、運行スケジュール調整部61が、受信した混雑率に基づいて、次に停車する予定の停留所を通過するような運行スケジュールの変更の可否を判定する。例えば運行スケジュール調整部61は、高い混雑率の乗合車両10に対して、次に停車する予定の停留所を通過させるように運行スケジュールを変更する。これにより混雑率の更なる増加が抑制される。 In the center server 50, the operation schedule adjusting unit 61 determines whether or not to change the operation schedule so that the train will pass through the next stop, based on the received congestion rate. For example, the operation schedule adjustment unit 61 changes the operation schedule so that the passenger vehicle 10 with a high congestion rate is allowed to pass through the stop at which it is scheduled to stop next. This suppresses a further increase in the congestion rate.

車室内監視システムでは、乗合車両10の車室内に設けられた天井中央カメラ18により、車室内の平面視画像が撮像される。また当該システムでは、乗合車両10の車室内に設けられた側方カメラ19により車室内の側面視画像が撮像される。これらの平面視画像及び側面視画像に基づいて、人物(乗客)及び荷物の占有体積が求められる。さらに求められた人物及び荷物の占有体積の総和と、車室の容積との差異に基づいて、混雑率(体積混雑率)が求められる。 In the vehicle interior monitoring system, a ceiling center camera 18 provided in the vehicle interior of the passenger vehicle 10 captures a planar view image of the vehicle interior. Further, in this system, a side view image of the interior of the passenger compartment is captured by the side camera 19 provided in the interior of the passenger vehicle 10 . The occupied volume of the person (passenger) and luggage is obtained based on these planar view images and side view images. Furthermore, the congestion rate (volumetric congestion rate) is determined based on the difference between the sum of the occupied volumes of the people and luggage thus determined and the volume of the passenger compartment.

加えて、本実施形態に係る車室内監視システムでは、比較的背の低い短身荷物が探索される。そして混雑率が高い場合に、立位客の両足の間への、短身荷物の移動を促すアナウンスが車室内に出力される。このような短身荷物の移動により、それまで短身荷物が占めていた車室内領域が空きスペースとなり、混雑緩和が図られる。 In addition, the vehicle interior monitoring system according to the present embodiment searches for short luggage that is relatively short. Then, when the congestion rate is high, an announcement is output in the passenger compartment prompting the movement of short luggage between the legs of standing passengers. Due to such movement of short luggage, the space in the passenger compartment previously occupied by short luggage becomes free space, thereby reducing congestion.

<携帯端末>
携帯端末70は、乗合車両10の利用者であるユーザに所持される。携帯端末70は、例えばスマートフォンであってよく、そのハードウェア構成として、データの入出力を制御する入出力コントローラ71を備える。また携帯端末70は、演算装置として、CPU72を備え、記憶部として、ROM75、RAM76、及びストレージデバイス77を備える。ストレージデバイス77は、例えばSSD(Solid State Drive)であってよい。
<mobile terminal>
The mobile terminal 70 is possessed by a user who is a user of the passenger vehicle 10 . The mobile terminal 70 may be, for example, a smartphone, and includes an input/output controller 71 that controls data input/output as its hardware configuration. The portable terminal 70 also includes a CPU 72 as an arithmetic device, and a ROM 75, a RAM 76, and a storage device 77 as storage units. The storage device 77 may be, for example, an SSD (Solid State Drive).

さらに携帯端末70は、入力部73及び表示部74を備える。例えば入力部73と表示部74が一体化されたタッチパネルが携帯端末70に設けられる。さらに携帯端末70は測位部78及び時計80を備える。測位部78は、例えばGNSS(Global Navigation Satellite System)における衛星からの測位信号を受信する受信機である。携帯端末70の各種ハードウェア部品は内部バス79に接続される。 The mobile terminal 70 further includes an input section 73 and a display section 74 . For example, the mobile terminal 70 is provided with a touch panel in which the input unit 73 and the display unit 74 are integrated. Further, the mobile terminal 70 has a positioning section 78 and a clock 80 . The positioning unit 78 is, for example, a receiver that receives positioning signals from satellites in GNSS (Global Navigation Satellite System). Various hardware components of the mobile terminal 70 are connected to the internal bus 79 .

記憶装置であるROM75及びストレージデバイス77の少なくとも一方にはプログラムが記憶され、このプログラムをCPU72が実行することで、携帯端末70には図2に例示されるバスアプリケーション81が構成される。バスアプリケーション81は、運行スケジュール表示部82及び混雑率表示部83を備える。 At least one of the ROM 75 and the storage device 77, which are storage devices, stores a program, and the CPU 72 executes the program to configure the bus application 81 illustrated in FIG. The bus application 81 has an operation schedule display section 82 and a congestion rate display section 83 .

運行スケジュール表示部82は、乗合車両10の運行スケジュールを表示する。例えば測位部78が受信した携帯端末70の現在位置に最も近い停留所の運行スケジュールが表示される。例えば時計80から取得した現在時刻から1時間後までの運行スケジュールが表示される。また後述されるように、運行スケジュール表示部82は、混雑率の高い乗合車両10について、停留所を通過する旨のメッセージを表示する。 The operation schedule display unit 82 displays the operation schedule of the shared vehicle 10 . For example, the operation schedule of the nearest stop to the current position of the mobile terminal 70 received by the positioning unit 78 is displayed. For example, an operation schedule for one hour after the current time obtained from the clock 80 is displayed. Further, as will be described later, the operation schedule display unit 82 displays a message to the effect that the shared vehicle 10 with a high congestion rate will pass through the stop.

混雑率表示部83は、乗合車両10の混雑率を表示する。例えば運行中の全ての乗合車両10の混雑率が表示される。運行スケジュールと併せて混雑率が表示されることで、乗車予定の停留所における直近の乗合車両10の混雑率や、その次に停車する乗合車両10の混雑率をユーザが閲覧可能となり、混雑率に応じた乗合車両10の乗車可否の判断が可能となる。 The congestion rate display section 83 displays the congestion rate of the shared vehicle 10 . For example, the congestion rate of all the passenger cars 10 in operation is displayed. By displaying the congestion rate together with the operation schedule, the user can view the congestion rate of the nearest passenger vehicle 10 at the stop where the passenger is scheduled to board, and the congestion rate of the passenger vehicle 10 that stops next. It is possible to determine whether or not to board the passenger vehicle 10 according to the request.

<センターサーバ>
図1を参照して、センターサーバ50は、例えば複数の乗合車両10を使ったバス運行サービスを提供する管理会社に設置される。センターサーバ50は、例えばコンピュータ(電子計算機)から構成される。図1を参照して、センターサーバ50は、そのハードウェア構成として、データの入出力を制御する入出力コントローラ51を備える。またセンターサーバ50は、CPU52、入力部53、表示部54、ROM55、RAM56、及びハードディスクドライブ57(HDD)、時計59を備える。なお、ハードディスクドライブ57の代わりに、SSD(Solid State Drive)等の記憶装置が用いられてもよい。これらの構成部品は内部バス58に接続される。
<Center server>
Referring to FIG. 1, center server 50 is installed, for example, in a management company that provides a bus operation service using a plurality of passenger vehicles 10 . The center server 50 is composed of, for example, a computer (electronic computer). Referring to FIG. 1, center server 50 includes an input/output controller 51 for controlling data input/output as its hardware configuration. The center server 50 also includes a CPU 52 , an input section 53 , a display section 54 , a ROM 55 , a RAM 56 , a hard disk drive 57 (HDD), and a clock 59 . A storage device such as an SSD (Solid State Drive) may be used instead of the hard disk drive 57 . These components are connected to internal bus 58 .

記憶装置であるROM55及びハードディスクドライブ57の少なくとも一方には、運行管理を行うためのプログラムが記憶される。上記プログラムがセンターサーバ50のCPU52等により実行されることで、センターサーバ50には、図2に例示されるような機能ブロックが形成される。 At least one of the ROM 55 and the hard disk drive 57, which are storage devices, stores a program for managing operation. Execution of the program by the CPU 52 of the center server 50 or the like forms functional blocks in the center server 50 as illustrated in FIG.

すなわちセンターサーバ50は、記憶部として、運行スケジュール記憶部65及びダイナミックマップ記憶部66を備える。またセンターサーバ50は、機能部として、運行スケジュール調整部61、運行スケジュール作成部62、運行スケジュール提供部63、及び運行ルート作成部64を備える。 That is, the center server 50 includes an operation schedule storage unit 65 and a dynamic map storage unit 66 as storage units. The center server 50 also includes an operation schedule adjustment unit 61, an operation schedule creation unit 62, an operation schedule provision unit 63, and an operation route creation unit 64 as functional units.

ここで、運行スケジュール調整部61、運行スケジュール作成部62、運行スケジュール提供部63、及び運行ルート作成部64、運行スケジュール記憶部65、及びダイナミックマップ記憶部66の各部と、上述した乗合車両10に搭載された車室内監視システムが、本実施形態に係る車両の運行管理システムに含まれる。 Here, each part of the operation schedule adjustment unit 61, the operation schedule creation unit 62, the operation schedule provision unit 63, the operation route creation unit 64, the operation schedule storage unit 65, and the dynamic map storage unit 66, and the above-described passenger vehicle 10 The onboard vehicle interior monitoring system is included in the vehicle operation management system according to the present embodiment.

ダイナミックマップ記憶部66には、地図データであるダイナミックマップデータが記憶される。ダイナミックマップは、3次元地図であって、例えば車道の位置及び形状(3次元形状)が記憶される。車道の3次元形状とは、例えば勾配や幅員等が含まれる。また車道に引かれた車線、横断歩道、停止線等の位置もダイナミックマップに記憶される。加えて、道路周辺の停留所、建物、信号機等の構造物の位置及び形状(3次元形状)もダイナミックマップに記憶される。さらに、駐車場の位置及び形状もダイナミックマップに記憶される。 Dynamic map data, which is map data, is stored in the dynamic map storage unit 66 . A dynamic map is a three-dimensional map, and stores, for example, the position and shape (three-dimensional shape) of a roadway. The three-dimensional shape of the roadway includes, for example, slope and width. The locations of lanes drawn on the roadway, pedestrian crossings, stop lines, etc. are also stored in the dynamic map. In addition, the positions and shapes (three-dimensional shapes) of structures such as stops, buildings, and traffic lights around the road are also stored in the dynamic map. In addition, parking lot locations and shapes are also stored in the dynamic map.

例えばダイナミックマップでは、緯度及び経度を含む地理座標系が用いられる。乗合車両10が自動運転走行する際には、運行ルート作成部64がダイナミックマップ記憶部66からダイナミックマップデータを抽出して、走行路線及び停留所位置を含む運行地図データを作成する。 For example, dynamic maps use a geographic coordinate system that includes latitude and longitude. When the shared vehicle 10 automatically runs, the operation route creation unit 64 extracts dynamic map data from the dynamic map storage unit 66 and creates operation map data including travel routes and stop positions.

運行スケジュール作成部62は、乗合車両10の運行スケジュール(言い換えると運行ダイヤ)を作成する。例えば運行ルート作成部64から運行地図データを受信すると、運行スケジュール作成部62は、走行路線、乗合車両10の定格速度、及び停留所での標準停車時間等に基づいて、各停留所の到着予定時刻及び出発予定時刻を含む運行スケジュールを作成する。作成された運行スケジュールは運行スケジュール提供部63を介して乗合車両10に送信される。 The operation schedule creation unit 62 creates an operation schedule (in other words, operation schedule) for the shared vehicle 10 . For example, when receiving the operation map data from the operation route creation unit 64, the operation schedule creation unit 62 calculates the estimated arrival time and Create an operational schedule that includes scheduled departure times. The created operation schedule is transmitted to the passenger vehicle 10 via the operation schedule providing unit 63 .

運行スケジュール調整部61は、複数の乗合車両10のそれぞれに搭載された車室内監視システムと通信可能となっている。運行スケジュール調整部61は、これらの車室内監視システムの混雑推定部37から受信した混雑率に基づいて、それぞれの乗合車両10が次に停車する予定の停留所を通過するような、運行スケジュールの変更の可否を判定する。 The operation schedule adjusting unit 61 is capable of communicating with a vehicle interior monitoring system installed in each of the plurality of passenger vehicles 10 . Based on the congestion rate received from the congestion estimation unit 37 of the vehicle interior monitoring system, the operation schedule adjustment unit 61 changes the operation schedule such that each passenger vehicle 10 passes through the next stop scheduled to stop. determine whether or not

例えば運行スケジュール調整部61は、受信した混雑率A%が上限閾値B%を超過する場合に、当該混雑率A%を送信した乗合車両10に対して、次に停車予定の停留所を通過するように、運行スケジュールを変更する。変更後の運行スケジュールは運行スケジュール提供部63を介して、変更対象の乗合車両10に送信される。 For example, when the received congestion rate A% exceeds the upper limit threshold B%, the operation schedule adjustment unit 61 instructs the passenger vehicle 10 that has transmitted the congestion rate A% to pass through the next stop scheduled to stop. to change the operating schedule. The changed operation schedule is transmitted to the passenger vehicle 10 to be changed via the operation schedule providing unit 63 .

<乗合車両>
図4-図6には、乗合車両10の構造を説明する図が例示される。なお、図4-図6において、車体前後方向が記号FRで表される軸で示され、車幅方向が記号RW(Right Width)で表される軸で示される。また、車高方向が記号UPで表される軸で示される。
<Shared vehicle>
4 to 6 illustrate diagrams for explaining the structure of the passenger vehicle 10. FIG. 4 to 6, the longitudinal direction of the vehicle body is indicated by an axis indicated by symbol FR, and the vehicle width direction is indicated by an axis indicated by symbol RW (Right Width). Also, the vehicle height direction is indicated by an axis represented by symbol UP.

図4には、乗合車両10の前方及び左側面の外観を表す斜視図が例示される。乗合車両10は乗合バスとして利用され、左側面には乗降口となる一対のドア41,41が設けられる。 FIG. 4 illustrates a perspective view showing the external appearance of the front and left sides of the passenger vehicle 10. As shown in FIG. The passenger vehicle 10 is used as a passenger bus, and is provided with a pair of doors 41, 41 serving as an entrance/exit on the left side.

また、車両前方には車外表示器41Aが設けられる。車外表示器41Aはいわゆるデジタルサイネージとも呼ばれ、液晶ディスプレイまたはLEDディスプレイから構成される。後述されるように、乗合車両10の混雑率A%が所定の上限閾値B%を超過するときには、その混雑率A%が車外表示器41Aに表示される。また停車予定であった停留所を通過する旨のメッセージが車外表示器41Aに表示される。 In addition, an exterior indicator 41A is provided in front of the vehicle. The vehicle exterior display 41A is also called a so-called digital signage, and is composed of a liquid crystal display or an LED display. As will be described later, when the congestion rate A% of the passenger vehicle 10 exceeds a predetermined upper limit threshold value B%, the congestion rate A% is displayed on the outside display 41A. Also, a message to the effect that the vehicle will pass through the stop at which the vehicle was scheduled to stop is displayed on the display outside the vehicle 41A.

図5には乗合車両10の車室40内の様子が例示される。車室40内には、その壁面に沿って、乗客用の座席42が複数設けられる。また立位客の支持のため、天井には複数の吊り手44が設けられる。また車室40の側壁には手摺46が設けられる。 FIG. 5 illustrates the inside of the passenger compartment 40 of the passenger vehicle 10. As shown in FIG. A plurality of seats 42 for passengers are provided along the wall surface in the passenger compartment 40 . A plurality of hangers 44 are provided on the ceiling to support standing guests. A handrail 46 is provided on the side wall of the compartment 40 .

手摺46は車室の側壁から上方に延びて天井面を伝うように設けられる。この手摺46の天井部分の車幅方向中央部分に基準マーク48が設けられる。基準マーク48は後述されるワールド座標系における3次元座標系の原点位置を示すものである。 A handrail 46 is provided so as to extend upward from the side wall of the compartment and run along the ceiling surface. A reference mark 48 is provided at the vehicle width direction central portion of the ceiling portion of the handrail 46 . A reference mark 48 indicates the origin position of a three-dimensional coordinate system in a world coordinate system, which will be described later.

基準マーク48は、天井中央カメラ18及び側方カメラ19(図6参照)による撮像画像中の当該マークを、車室内画像認識部36(図2参照)が認識可能な寸法となるように形成される。例えば、天井中央カメラ18及び側方カメラ19のうち低い方の撮像分解能でも撮像可能な寸法となるように、基準マーク48の寸法が定められる。 The reference mark 48 is formed to have a size that allows the vehicle interior image recognition unit 36 (see FIG. 2) to recognize the mark in the images captured by the central ceiling camera 18 and the side cameras 19 (see FIG. 6). be. For example, the dimension of the reference mark 48 is determined so that it can be imaged even with the lower imaging resolution of the central ceiling camera 18 and the side cameras 19 .

ドア41,41の上方には車内表示器41Bが設けられる。車内表示器41Bは、車外表示器41Aと同様に、液晶ディスプレイまたはLEDディスプレイから構成される。後述されるように、混雑時には立位客の両足の間への短身荷物の移動を促すメッセージ文書が車内表示器41Bに表示される。さらに、車室40の天井には車内スピーカ45が設けられる。後述されるように、混雑時には立位客の両足の間への短身荷物の移動を促すメッセージ音声が車内スピーカ45から出力される。 Above the doors 41, 41, an in-vehicle indicator 41B is provided. The in-vehicle indicator 41B is composed of a liquid crystal display or an LED display, like the out-of-vehicle indicator 41A. As will be described later, during congestion, a message is displayed on the in-vehicle display 41B to prompt standing passengers to move short luggage between their legs. Furthermore, an in-vehicle speaker 45 is provided on the ceiling of the vehicle compartment 40 . As will be described later, during congestion, a voice message is output from the in-vehicle speaker 45 urging standing passengers to move short luggage between their legs.

また、車室40の天井の中央部には、天井中央カメラ18(第一撮像器)が設けられる。例えば車室40の車幅方向中央かつ車両前後方向中央に、天井中央カメラ18が設けられる。例えば天井中央カメラ18は、CMOSセンサやCCDセンサ等のイメージセンサを備える。 A central ceiling camera 18 (first image pickup device) is provided in the central portion of the ceiling of the passenger compartment 40 . For example, the ceiling center camera 18 is provided at the center of the vehicle interior 40 in the vehicle width direction and at the center in the vehicle front-rear direction. For example, the ceiling center camera 18 has an image sensor such as a CMOS sensor or a CCD sensor.

例えば天井中央カメラ18は、いわゆる360°カメラであってよく、車室40の乗客用空間全体を撮像可能となっている。例えば天井中央カメラ18は、車室40の床43全体を視野に含む。 For example, the ceiling center camera 18 may be a so-called 360° camera, and is capable of capturing an image of the entire passenger space of the passenger compartment 40 . For example, the central ceiling camera 18 includes the entire floor 43 of the passenger compartment 40 in its field of view.

天井中央カメラ18は、車室40の平面視画像を撮像する。例えば後述される図11のような、真上から車室40を見下ろしたアングルの平面視画像が天井中央カメラ18によって撮像される。後述されるように、この平面視画像から人物(乗客)及び荷物の画像領域が認識される。さらに認識された人物及び荷物の平面視区画が求められる。 The ceiling center camera 18 captures a plan view image of the vehicle interior 40 . For example, as shown in FIG. 11 to be described later, a plan view image of an angle looking down on the passenger compartment 40 from directly above is captured by the ceiling center camera 18 . As will be described later, image areas of a person (passenger) and luggage are recognized from this planar view image. In addition, planar sections of recognized persons and packages are determined.

図6を参照して、車室40には天井中央カメラ18の他に側方カメラ19(第二撮像器)が設けられる。側方カメラ19は、車室40の天井の周縁部または車室40の側面から車室40内の側面視画像を撮像する。例えば側方カメラ19は、CMOSセンサやCCDセンサ等のイメージセンサを備える。 Referring to FIG. 6 , a vehicle interior 40 is provided with a side camera 19 (second imaging device) in addition to the ceiling center camera 18 . The side camera 19 captures a side view image of the interior of the vehicle interior 40 from the peripheral edge of the ceiling of the vehicle interior 40 or from the side surface of the vehicle interior 40 . For example, the side camera 19 has an image sensor such as a CMOS sensor or a CCD sensor.

なお以下では側面視とは、車幅方向(RW軸方向)に沿った視点には限定されない。要するに車室40内を略水平方向に見る態様が側面視として捉えられる。幾何学的には、UP軸、RW軸、FR軸の3軸を用いて、UP軸との成す角よりも、RW軸及びFR軸との成す角が小さくなるような、つまりRW軸またはFR軸側に傾いているような視線軸が広く側面視として捉えられる。したがって、側方カメラ19は、その光軸がFR軸及びRW軸に対して傾斜しているものの、その傾斜角がUP軸に対する傾斜角より小さいため、側方カメラ19による撮像画像は側面視画像として扱われる。 Note that the side view hereinafter is not limited to the viewpoint along the vehicle width direction (RW axis direction). In short, a mode in which the inside of the passenger compartment 40 is viewed in a substantially horizontal direction can be regarded as a side view. Geometrically, the three axes of UP, RW, and FR are used so that the angle formed with the RW and FR axes is smaller than the angle formed with the UP axis, that is, the RW or FR axis. A line-of-sight axis that seems to be tilted toward the axis side is widely perceived as a side view. Therefore, although the optical axis of the side camera 19 is inclined with respect to the FR axis and the RW axis, the angle of inclination is smaller than the angle of inclination with respect to the UP axis. treated as

図6の例では、側方カメラ19は、車室40の前方に設けられ、側面視画像として正面視画像を撮像する。例えば後述される図9のような側面視画像が側方カメラ19によって撮像される。後述されるように、この側面視画像から人物(乗客)及び荷物の画像領域が認識される。さらに認識された人物及び荷物の側面視区画が求められる。 In the example of FIG. 6, the side camera 19 is provided in front of the vehicle interior 40 and captures a front view image as a side view image. For example, a side view image as shown in FIG. 9 to be described later is captured by the side camera 19 . As will be described later, the image areas of the person (passenger) and luggage are recognized from this side view image. Additionally, a side view section of the recognized person and package is sought.

<乗合車両の自動運転制御機構>
図1、図2を参照して、乗合車両10は、例えば自動運転機能を備える自動運転車両である。例えば米国の自動車技術会(SAE)による基準に基づいて、乗合車両10は、レベル0(運転者がすべての操作を行う)からレベル5(完全運転自動化)までの運行が可能となっている。例えば乗合車両10の運行時には、自動運転のレベルは例えばレベル4またはレベル5に設定される。
<Automatic driving control mechanism for shared vehicles>
Referring to FIGS. 1 and 2, passenger vehicle 10 is, for example, an automatic driving vehicle having an automatic driving function. For example, based on the standards of the Society of Automotive Engineers (SAE) of the United States, the passenger vehicle 10 is capable of operating from level 0 (driver performs all operations) to level 5 (fully automated). For example, when the passenger vehicle 10 is in operation, the level of automatic driving is set to level 4 or level 5, for example.

乗合車両10は、予め規定された運行経路を自動運転で走行しながら、停留所にて停車して乗客が乗り降りする乗り合いバスとして利用される。乗合車両10は、回転電機17(モータ)を駆動源とし、図示しないバッテリを電源とする電動車両である。また乗合車両10は、走行制御機構として、操舵機構14B、ブレーキ機構14A、及び回転電機17の出力を制御するインバータ14Cを備える。 The shared vehicle 10 is used as a shared bus that stops at a stop and allows passengers to get on and off while automatically driving along a predetermined operation route. The passenger vehicle 10 is an electric vehicle that uses a rotating electric machine 17 (motor) as a drive source and a battery (not shown) as a power source. The passenger vehicle 10 also includes a steering mechanism 14B, a brake mechanism 14A, and an inverter 14C that controls the output of the rotating electric machine 17 as a travel control mechanism.

さらに、乗合車両10は、自車位置の取得や周辺状況の把握のための機構として、車外カメラ11A、ライダーユニット11B、近接センサ12、測位部13、及び制御部20を備える。 Furthermore, the passenger vehicle 10 includes an exterior camera 11A, a rider unit 11B, a proximity sensor 12, a positioning unit 13, and a control unit 20 as mechanisms for acquiring the position of the vehicle and grasping surrounding conditions.

例えば乗合車両10には、その前面、後面、及び両側面に、センサユニット11が設けられる。センサユニット11は、車外カメラ11A及びライダーユニット11Bを含んで構成される。 For example, a passenger vehicle 10 is provided with sensor units 11 on its front surface, rear surface, and both side surfaces. The sensor unit 11 includes an exterior camera 11A and a lidar unit 11B.

ライダーユニット11Bは、自動運転走行用のセンサユニットであり、自車周辺の物体と自車との距離を測定可能な測距部である。ライダーユニット11Bでは、ライダー(LiDAR、Light Detection and Ranging)、すなわちレーザー光を用いて周辺物体との距離を測定する技術が用いられる。ライダーユニット11Bは、赤外線のレーザー光を車外に向かって照射するエミッタと、その反射光を受光するレシーバ、ならびにエミッタ及びレシーバを回転させるモータを含んで構成される。 The rider unit 11B is a sensor unit for automatic driving, and is a distance measuring unit capable of measuring the distance between the vehicle and objects around the vehicle. The lidar unit 11B uses LiDAR (Light Detection and Ranging), that is, a technique for measuring the distance to surrounding objects using laser light. The lidar unit 11B includes an emitter that emits infrared laser light toward the outside of the vehicle, a receiver that receives the reflected light, and a motor that rotates the emitter and receiver.

例えば、エミッタは車外に向かって赤外線のレーザー光を照射する。エミッタから照射されたレーザー光が乗合車両10の周辺の物体に当たると、その反射光がレシーバに受信される。エミッタの照射からレシーバの受光までに係る時間に基づいて、反射点とレシーバとの距離が求められる。またエミッタ及びレシーバがモータにより回動させられることで、水平方向及び鉛直方向にレーザー光線が走査され、これにより、乗合車両10の周辺環境についての3次元点群データを得ることが出来る。 For example, the emitter emits infrared laser light toward the outside of the vehicle. When the laser light emitted from the emitter strikes an object around the passenger car 10, the reflected light is received by the receiver. The distance between the reflection point and the receiver is determined based on the time from illumination of the emitter to reception of light by the receiver. The emitter and receiver are rotated by a motor to scan the laser beam horizontally and vertically, thereby obtaining three-dimensional point cloud data about the surrounding environment of the passenger vehicle 10 .

車外カメラ11Aは、ライダーユニット11Bと同様の視野を撮像する。車外カメラ11Aは、例えばCMOSセンサやCCDセンサ等のイメージセンサを備える。近接センサ12は、例えば赤外線センサであって、例えば平面視で乗合車両10の四隅に設けられる。例えば乗合車両10が乗車地に到着する際に、近接センサ12が歩道の縁石等の突出物を検出する。この検出により、乗合車両10を縁石に近接させて停車させる正着制御が可能となる。測位部13は人工衛星によって測位を行うシステムであって、例えば携帯端末と同様のGNSSが用いられる。 The exterior camera 11A captures the same field of view as the lidar unit 11B. The vehicle exterior camera 11A includes an image sensor such as a CMOS sensor or a CCD sensor. The proximity sensors 12 are infrared sensors, for example, and are provided at the four corners of the passenger vehicle 10 in plan view, for example. For example, when the shared vehicle 10 arrives at the boarding place, the proximity sensor 12 detects a projecting object such as a sidewalk curbstone. This detection enables correct arrival control to stop the passenger vehicle 10 close to the curb. The positioning unit 13 is a system that performs positioning using artificial satellites, and uses, for example, GNSS similar to mobile terminals.

制御部20は、例えば乗合車両10の電子コントロールユニット(ECU)であってよく、コンピュータ(電子計算機)から構成される。制御部20は、そのハードウェア構成として、データの入出力を制御する入出力コントローラ21を備える。また制御部20は、演算装置として、CPU22、GPU23(Graphics Processing Unit)、及びDLA24(Deep Learning Accelerators)を備える。また制御部20は、記憶部として、ROM25、RAM26、及びハードディスクドライブ27(HDD)を備える。なお、ハードディスクドライブ27の代わりに、SSD(Solid State Drive)等の記憶装置が用いられてもよい。これらの構成部品は内部バス28に接続される。 The control unit 20 may be, for example, an electronic control unit (ECU) of the passenger vehicle 10, and is composed of a computer (electronic calculator). As its hardware configuration, the control unit 20 includes an input/output controller 21 that controls data input/output. Moreover, the control part 20 is provided with CPU22, GPU23 (Graphics Processing Unit), and DLA24 (Deep Learning Accelerators) as an arithmetic unit. The control unit 20 also includes a ROM 25, a RAM 26, and a hard disk drive 27 (HDD) as storage units. A storage device such as an SSD (Solid State Drive) may be used instead of the hard disk drive 27 . These components are connected to internal bus 28 .

記憶装置であるROM25及びハードディスクドライブ27の少なくとも一方には、乗合車両10の自動運転制御を行うためのプログラムが記憶される。上記プログラムが制御部20のCPU22等により実行されることで、制御部20には、図2に例示されるような機能ブロックが形成される。 At least one of the ROM 25 and the hard disk drive 27, which are storage devices, stores a program for performing automatic operation control of the passenger vehicle 10. FIG. As the program is executed by the CPU 22 and the like of the control unit 20, functional blocks such as those illustrated in FIG. 2 are formed in the control unit 20. FIG.

すなわち制御部20は、自動運転制御を行うための機能ブロックとして、スキャンデータ解析部30、自己位置推定部31、及び自律走行制御部33を備える。また制御部20は、記憶部として、ダイナミックマップ記憶部34及び運行スケジュール記憶部35を備える。 That is, the control unit 20 includes a scan data analysis unit 30, a self-position estimation unit 31, and an autonomous driving control unit 33 as functional blocks for performing automatic driving control. The control unit 20 also includes a dynamic map storage unit 34 and an operation schedule storage unit 35 as storage units.

スキャンデータ解析部30は、車外カメラ11Aが撮像した撮像画像を取得する。スキャンデータ解析部30は、取得した撮像画像に対して、既知のディープラーニング手法を利用した画像認識を行う。この画像認識により、撮像画像内の物体検出とその属性(車両、通行人、構造物等)認識が行われる。 The scan data analysis unit 30 acquires an image captured by the exterior camera 11A. The scan data analysis unit 30 performs image recognition using a known deep learning method on the acquired captured image. By this image recognition, object detection and its attribute (vehicle, passerby, structure, etc.) recognition within the captured image are performed.

またスキャンデータ解析部30は、ライダーユニット11Bから3次元点群データを取得する。さらにスキャンデータ解析部30は、画像認識済みの撮像画像と3次元点群データの座標を重ね合わせた周辺データを作成する。周辺データにより、どのような属性の物体が、乗合車両10からどれだけ離隔しているかを検出することが出来る。この周辺データは、自律走行制御部33に送られる。 The scan data analysis unit 30 also acquires three-dimensional point cloud data from the lidar unit 11B. Further, the scan data analysis unit 30 creates peripheral data by superimposing the coordinates of the image-recognized captured image and the three-dimensional point cloud data. Peripheral data makes it possible to detect what kind of attribute an object is and how far it is from the passenger vehicle 10 . This peripheral data is sent to the autonomous travel control unit 33 .

自己位置推定部31は、測位部13から自己位置情報(緯度、経度)を取得する。例えば自己位置推定部31は人工衛星から自己位置情報を取得する。このようにして得られた自己位置情報(自車位置情報)は、自律走行制御部33に送られる。 The self-position estimation unit 31 acquires self-position information (latitude, longitude) from the positioning unit 13 . For example, the self-position estimation unit 31 acquires self-position information from an artificial satellite. Self-position information (self-vehicle position information) thus obtained is sent to the autonomous driving control unit 33 .

ダイナミックマップ記憶部34には、センターサーバ50の運行ルート作成部64が作成した運行経路地図データが記憶される。この運行経路地図データにはダイナミックマップデータが含まれる。また運行スケジュール記憶部35には、センターサーバ50の運行スケジュール提供部63が作成した運行スケジュールが記憶される。 The dynamic map storage unit 34 stores operation route map data created by the operation route creation unit 64 of the center server 50 . This operational route map data includes dynamic map data. The operation schedule storage unit 35 also stores the operation schedule created by the operation schedule providing unit 63 of the center server 50 .

自律走行制御部33は、ダイナミックマップ記憶部34に記憶された運行経路地図データ、自己位置推定部31から送信された自己位置情報(自車位置情報)、及び、スキャンデータ解析部30から送信された周辺データに基づいて、乗合車両10の走行制御を行う。また停留所に到着すると、乗合車両10は運行スケジュールに沿った時間に亘って停車する。 The autonomous driving control unit 33 uses the operation route map data stored in the dynamic map storage unit 34, the self-location information (vehicle location information) transmitted from the self-location estimation unit 31, and the information transmitted from the scan data analysis unit 30. Travel control of the passenger vehicle 10 is performed based on the acquired peripheral data. Also, when arriving at the stop, the shared vehicle 10 stops for a time according to the operation schedule.

<車室内監視システム>
乗合車両10には車室内監視システムが搭載される。当該システムのハードウェア構成として、天井中央カメラ18(第一撮像器)、側方カメラ19(第二撮像器)、及び制御部20が含まれる。制御部20の記憶装置であるROM25及びハードディスクドライブ27の少なくとも一方には、車室内監視や混雑率推定を行うためのプログラムが記憶される。上記プログラムが制御部20のCPU22等により実行されることで、制御部20には、図2に例示されるような機能ブロックが形成される。すなわち制御部20は、車室内監視システムの一部として、車室内画像認識部36及び混雑推定部37を備える。
<In-vehicle monitoring system>
The passenger vehicle 10 is equipped with a vehicle interior monitoring system. The hardware configuration of the system includes a central ceiling camera 18 (first image pickup device), a side camera 19 (second image pickup device), and a control section 20 . At least one of the ROM 25 and the hard disk drive 27, which are storage devices of the control unit 20, stores a program for monitoring the vehicle interior and estimating the congestion rate. As the program is executed by the CPU 22 and the like of the control unit 20, functional blocks such as those illustrated in FIG. 2 are formed in the control unit 20. FIG. That is, the control unit 20 includes a vehicle interior image recognition unit 36 and a congestion estimation unit 37 as part of the vehicle interior monitoring system.

車室内画像認識部36は、天井中央カメラ18が撮像した平面視画像及び側方カメラ19が撮像した側面視画像から、人物(乗客)及び荷物の画像領域を認識する。例えば車室内画像認識部36には、画像認識アルゴリズムとして、教師有り学習を用いたSSD(Single Shot Multibox Detector)が実装される。 The vehicle interior image recognition unit 36 recognizes the image areas of the person (passenger) and luggage from the plan view image captured by the ceiling center camera 18 and the side view image captured by the side camera 19 . For example, in the vehicle interior image recognition unit 36, an SSD (Single Shot Multibox Detector) using supervised learning is implemented as an image recognition algorithm.

SSDアルゴリズムは既知の技術であるため、ここでは簡潔に説明される。SSDアルゴリズムでは、撮像画像内の位置推定及びクラス推定が行われる。つまり、画像内のどの位置に物体がいるのか、及びその物体の属性(クラス)は何か、という2種類の推定が同時並行で、つまり、ニューラルネットワークを用いた一回の演算で(Single Shotで)行われる。 Since the SSD algorithm is a known technology, it is briefly described here. The SSD algorithm performs position estimation and class estimation within the captured image. In other words, two types of estimation, ie, where the object is located in the image and what the attribute (class) of the object is, can be made in parallel, that is, in a single operation using a neural network (Single Shot ) is done.

SSDアルゴリズムでは、人物及び荷物の検出に当たり、その人物及び荷物と外部との境界線を抽出する代わりに、図10に例示されるような矩形領域の「バウンディングボックス」により、人物及び荷物の境界が画定される。例えばSSDアルゴリズムでは、位置推定に当たり、画像上に大きさや形の異なる複数の(例えば1万個弱の)デフォルトボックスと呼ばれる矩形枠が当て嵌められ、そのいずれの枠が物体を過不足なく含められるかが演算される。さらに各バウンディングボックスには、当該ボックスに捉えられた物体の属性(クラス)が表示される。 In the SSD algorithm, instead of extracting the boundary line between the person and the package and the outside when detecting the person and the package, the boundary of the person and the package is defined by a rectangular area "bounding box" as illustrated in FIG. defined. For example, in the SSD algorithm, when estimating the position, a plurality of (for example, less than 10,000) rectangular frames with different sizes and shapes called default boxes are fitted on the image, and any of these frames can contain the object without excess or deficiency. is calculated. Furthermore, each bounding box displays the attribute (class) of the object captured in that box.

例えば図9の側面視画像に対してSSDアルゴリズムによる画像認識処理を行った、図10の例によれば、人物100A~100Cに対してクラス「human」のバウンディングボックス104A~104C(側面視区画)が設定される。さらに荷物102A~102Cに対してクラス「baggage」のバウンディングボックス106A~106C(側面視区画)が設定される。 For example, according to the example of FIG. 10, in which image recognition processing is performed by the SSD algorithm on the side view image of FIG. is set. Further, bounding boxes 106A-106C (side view sections) of class "baggage" are set for the packages 102A-102C.

また例えば図11の平面視画像に対してSSDアルゴリズムによる画像認識処理を行った、図12の例によれば、人物100A~100Cに対してクラス「human」のバウンディングボックス108A~108C(平面視区画)が設定される。さらに荷物102A~102Cに対してクラス「baggage」のバウンディングボックス110A~110C(平面視区画)が設定される。 Further, for example, according to the example of FIG. 12, in which image recognition processing is performed by the SSD algorithm on the monoscopic image of FIG. 11, bounding boxes 108A to 108C (monoscopic section ) is set. Further, bounding boxes 110A-110C (planar view partitions) of class "baggage" are set for the packages 102A-102C.

各バウンディングボックスには位置パラメータが与えられる。すなわち、ボックスの中心座標C[Cx,Cy]、ボックス幅W、及びボックス高さHがバウンディングボックスの位置パラメータとして与えられる。なお、この位置パラメータは、画像平面上の座標系、つまりカメラ座標系上の値が用いられる。 Each bounding box is given a position parameter. That is, the box center coordinates C[Cx, Cy], the box width W, and the box height H are given as the position parameters of the bounding box. For this position parameter, a coordinate system on the image plane, that is, a value on the camera coordinate system is used.

また例えばSSDアルゴリズムの教師データは、人物画像を入力データとし、クラス「人物(Human)」及び人物を囲むバウンディングボックスの位置パラメータを出力データとする一対の教師データを複数備える。さらに教師データは、荷物画像を入力データとし、クラス「荷物(Baggage)」及び荷物を囲むバウンディングボックスの位置パラメータを出力データとする一対の教師データを複数備える。 Also, for example, the teacher data for the SSD algorithm includes a plurality of pairs of teacher data, each of which has a person image as input data and a class "Human" and a position parameter of a bounding box surrounding the person as output data. Further, the teacher data includes a plurality of pairs of teacher data, each of which has a package image as input data and a class "baggage" and a position parameter of a bounding box surrounding the package as output data.

なお、車室内画像認識部36は、平面視画像の画像認識用のSSDアルゴリズムが実装されたニューラルネットワークと、側面視画像の画像認識用のSSDアルゴリズムが実装されたニューラルネットワークを備えてもよい。この場合、前者の教師データとして、平面視、つまり上から見たときの人物及び荷物の画像が入力データとして用いられ、後者の教師データとして、側面視、つまり横から見たときの人物及び荷物の画像が入力データとして用いられる。 The vehicle interior image recognition unit 36 may include a neural network implemented with an SSD algorithm for image recognition of planar images and a neural network implemented with an SSD algorithm for image recognition of side-view images. In this case, as training data for the former, images of a person and luggage viewed from above are used as input data. image is used as input data.

車室内画像認識部36は、人物及び荷物を囲む矩形領域であるバウンディングボックスを、人物及び荷物の平面視区画及び側面視区画に設定する。設定されたバウンディングボックスは、混雑率の推定に用いられる。 The vehicle interior image recognition unit 36 sets a bounding box, which is a rectangular area surrounding the person and the baggage, in the plan view section and side view section of the person and the baggage. The set bounding box is used for estimating the congestion rate.

図2に戻り、混雑推定部37は、車室内画像認識部36により認識された人物及び荷物に基づいて、車室40の混雑率を求める。混雑推定部37は、図3に例示されるような複数のサブユニットを備える。すなわち混雑推定部37は、歪曲/傾き補正部37A、奥行情報取得部37B、座標変換部37C、ボックス組合せ抽出部37D、体積算出部37E、近接荷物抽出部37F、混雑率算出部37G、短身荷物探索部37H、及びアナウンス制御部37Iを備える。 Returning to FIG. 2 , the congestion estimation unit 37 obtains the congestion rate of the vehicle interior 40 based on the persons and luggage recognized by the vehicle interior image recognition unit 36 . The congestion estimator 37 comprises a plurality of subunits as exemplified in FIG. That is, the congestion estimation unit 37 includes a distortion/inclination correction unit 37A, a depth information acquisition unit 37B, a coordinate conversion unit 37C, a box combination extraction unit 37D, a volume calculation unit 37E, an adjacent luggage extraction unit 37F, a congestion rate calculation unit 37G, a short It has a baggage search section 37H and an announcement control section 37I.

歪曲/傾き補正部37Aは、いわゆるカメラキャリブレーションとして歪曲補正及び傾き補正を行う。例えば図11には、天井中央カメラ18により撮像された平面視画像が例示される。天井中央カメラ18のレンズ特性等に起因して、この平面視画像には、樽状の歪みが生じる。この歪みは、天井中央カメラ18のレンズ特性に基づくアフィン補正等の既知の歪曲補正処理により解消される。 The distortion/tilt correction unit 37A performs distortion correction and tilt correction as so-called camera calibration. For example, FIG. 11 illustrates a planar image captured by the central ceiling camera 18 . Due to the lens characteristics of the central ceiling camera 18 and the like, barrel-shaped distortion occurs in this planar view image. This distortion is eliminated by known distortion correction processing such as affine correction based on the lens characteristics of the central ceiling camera 18 .

さらに歪曲/傾き補正部37Aは、傾き補正を行う。図13に例示されるように、天井中央カメラ18による撮像領域120及び側方カメラ19による撮像領域122は、天井中央カメラ18であれば真上からのアングルから傾き、側方カメラ19であれば真横からのアングルとは異なる。 Further, the distortion/tilt correction section 37A performs tilt correction. As illustrated in FIG. 13 , an imaging area 120 captured by the central ceiling camera 18 and an imaging area 122 captured by the side cameras 19 are tilted from an angle directly above if the central ceiling camera 18 is used, and if the side cameras 19 It is different from the angle from the side.

例えば車室40の床面に真円が描かれていた場合に、天井中央カメラ18が図13のようなアングルで撮像領域120を撮像した場合、床面の真円は撮像領域120では楕円として表示される。この楕円を真円に変形するような変換行列を用いることで、平面視画像に含まれる傾きが補正される。 For example, when a perfect circle is drawn on the floor of the passenger compartment 40 and the central ceiling camera 18 captures an image of the imaging area 120 at an angle as shown in FIG. Is displayed. By using a conversion matrix that transforms this ellipse into a perfect circle, the tilt included in the planar image is corrected.

同様にして、車室床面に垂直に立てた壁に真円が描かれていた場合に、側方カメラ19が図13のようなアングルで撮像領域122を撮像した場合、壁の真円は撮像領域122では楕円として表示される。この楕円を真円に変形するような変換行列を用いることで、側面視画像に含まれる傾きが補正される。 Similarly, when a perfect circle is drawn on a wall erected perpendicularly to the floor of the passenger compartment, when the side camera 19 captures an image of the imaging area 122 at an angle as shown in FIG. 13, the perfect circle of the wall is It is displayed as an ellipse in the imaging area 122 . By using a transformation matrix that transforms this ellipse into a perfect circle, the tilt included in the side view image is corrected.

歪曲/傾き補正部37Aは、天井中央カメラ18が撮像した平面視画像及び側方カメラ19が撮像した側面視画像に対して歪曲補正及び傾き補正を行う。補正後の平面視画像及び側面視画像は車室内画像認識部36(図2参照)に送信され、上述したSSDアルゴリズムに基づく人物及び荷物の画像認識が実行される。 The distortion/tilt correction unit 37A performs distortion correction and tilt correction on the plan view image captured by the ceiling center camera 18 and the side view image captured by the side camera 19 . The corrected plan view image and side view image are sent to the vehicle interior image recognition unit 36 (see FIG. 2), and image recognition of the person and luggage is executed based on the SSD algorithm described above.

奥行情報取得部37Bは、車室内画像認識部36により認識された、各バウンディングボックスの奥行情報を取得する。例えばこの奥行情報とは、撮像画像平面に直交する軸に沿った位置情報を指す。より具体的には、平面視画像から抽出されたバウンディングボックス(平面視区画)については、天井中央カメラ18(第一撮像器)の光軸に沿った、当該カメラからの離隔距離が奥行情報に相当する。同様にして、側面視画像から抽出されたバウンディングボックス(側面視区画)については、側方カメラ19(第二撮像器)の光軸に沿った、当該カメラからの離隔距離が奥行情報に相当する。 The depth information acquisition unit 37B acquires depth information of each bounding box recognized by the vehicle interior image recognition unit 36 . For example, this depth information refers to position information along an axis orthogonal to the captured image plane. More specifically, for the bounding box (planar view section) extracted from the plan view image, the separation distance from the camera along the optical axis of the ceiling center camera 18 (first imaging device) is used as the depth information. Equivalent to. Similarly, for the bounding box (side view section) extracted from the side view image, the separation distance from the side camera 19 (second imaging device) along the optical axis corresponds to the depth information. .

このような奥行情報の取得は、例えば既知のステレオカメラ法が用いられる。例えば天井中央カメラ18と側方カメラ19とで車室40内の同一点を撮像した場合に、三角測量の原理を用いて、天井中央カメラ18及び側方カメラ19から上記点までの距離を求めることが出来る。 Acquisition of such depth information uses, for example, a known stereo camera method. For example, when the central ceiling camera 18 and the side cameras 19 capture the same point in the vehicle interior 40, the distance from the central ceiling camera 18 and the side cameras 19 to the point is obtained using the principle of triangulation. can do

奥行情報取得部37Bは、このようなステレオカメラ法を用いて、バウンディングボックス内の任意の点の奥行情報を取得する。例えば奥行情報取得部37Bは、カメラ座標系の平面座標である、バウンディングボックスの中心点C[Cx,Cy]における奥行情報を取得して、これをバウンディングボックス全体の奥行情報とする。この奥行情報と、上述したバウンディングボックスの位置パラメータにより、各バウンディングボックスのカメラ座標系における3次元座標が得られる。 The depth information acquisition unit 37B acquires depth information of an arbitrary point within the bounding box using such a stereo camera method. For example, the depth information acquisition unit 37B acquires depth information at the center point C[Cx, Cy] of the bounding box, which is the plane coordinates of the camera coordinate system, and uses this as the depth information of the entire bounding box. The three-dimensional coordinates of each bounding box in the camera coordinate system can be obtained from this depth information and the position parameters of the bounding boxes described above.

座標変換部37Cは、各バウンディングボックスのカメラ座標系における3次元座標を、車室内空間の座標系であるワールド座標系の3次元座標に変換する。 The coordinate transformation unit 37C transforms the three-dimensional coordinates of each bounding box in the camera coordinate system into three-dimensional coordinates in the world coordinate system, which is the coordinate system of the vehicle interior space.

現実空間をカメラで撮像するという行為を、座標系の変換との観点から捉えると、ワールド座標系における3次元空間が、カメラ座標系における2次元平面に変換(転写)されたと考えることが出来る。この変換時に捨象された奥行情報は、上述の通り奥行情報取得部37Bにより取得され、その結果カメラ座標系における3次元座標が得られる。 From the perspective of coordinate system transformation, the action of capturing an image of a real space with a camera can be considered as transforming (transferring) a three-dimensional space in the world coordinate system to a two-dimensional plane in the camera coordinate system. The depth information abstracted during this conversion is acquired by the depth information acquiring section 37B as described above, and as a result three-dimensional coordinates in the camera coordinate system are obtained.

座標変換部37Cでは、カメラの撮像時とは逆の変換を行うことで、バウンディングボックスの、カメラ座標系における3次元座標が、ワールド座標系の3次元座標に変換される。ここで、カメラ座標系における3次元座標とは、平面視区画及び側面視区画の平面座標に奥行情報を加えたものを指す。またこの座標系の変換は、情報処理工学分野等における既存の座標変換理論を用いて実行可能である。 The coordinate conversion unit 37C converts the three-dimensional coordinates of the bounding box in the camera coordinate system into the three-dimensional coordinates in the world coordinate system by performing conversion inverse to that performed when the camera captures the image. Here, the three-dimensional coordinates in the camera coordinate system refer to plane coordinates of the plan view section and the side view section plus depth information. Further, the transformation of this coordinate system can be executed using the existing coordinate transformation theory in the field of information processing engineering and the like.

例えば図9の側面視画像を参照して、この画像では、側方カメラ19から相対的に近い位置にいる人物100Aは、当該カメラから相対的に遠い位置にいる人物100Cよりも大きくなる。このような遠近に基づく像の大小に基づいて、後述する体積混雑率を求めると、各人物の正確な体積から乖離した混雑率が算出されるおそれがある。そこで座標変換部37Cにおいて、カメラ座標系をワールド座標系に変換することで、遠近に起因した像の大小が解消される。 For example, referring to the side view image of FIG. 9, in this image, a person 100A relatively close to the side camera 19 is larger than a person 100C relatively far from the camera. If a volumetric congestion rate, which will be described later, is obtained based on the size of an image based on such perspective, there is a risk that the congestion rate will be calculated that deviates from the accurate volume of each person. Therefore, by transforming the camera coordinate system into the world coordinate system in the coordinate transformation unit 37C, the size of the image caused by the perspective is eliminated.

車室40内の空間座標系であるワールド座標系では、例えば上述した基準マーク48(図9参照)が原点として設定される。さらに図14に例示されるように、側面視画像におけるバウンディングボックス126では、その中心点Csがワールド座標系における座標[CFR,CRW,CUP]で示される。さらに幅WsはRW軸上の長さとして示され、さらに高さHsはUP軸上の長さとして示される。 In the world coordinate system, which is the spatial coordinate system in the vehicle interior 40, for example, the reference mark 48 (see FIG. 9) described above is set as the origin. Further, as illustrated in FIG. 14, in the bounding box 126 in the side view image, its center point Cs is indicated by coordinates [ CFR , CRW , CUP ] in the world coordinate system. Furthermore, the width Ws is indicated as the length on the RW axis, and the height Hs is indicated as the length on the UP axis.

また平面視画像におけるバウンディングボックス124では、その中心点Cpがワールド座標系における座標[CFR,CRW,CUP]で示され、幅WpはFR軸上の長さとして示され、高さHpはRW軸上の長さとして示される。以降の演算には、ワールド座標系に変換後のバウンディングボックスの位置パラメータが用いられる。 In the bounding box 124 in the planar image, the center point Cp is indicated by the coordinates [CFR, CRW , CUP ] in the world coordinate system, the width Wp is indicated as the length on the FR axis, and the height Hp is shown as the length on the RW axis. The position parameters of the bounding box transformed into the world coordinate system are used for subsequent calculations.

ボックス組合せ抽出部37Dは、人物及び荷物の体積を求めるための、平面視画像におけるバウンディングボックスと、側面視画像におけるバウンディングボックスとのペアを抽出する。 The box combination extraction unit 37D extracts a pair of a bounding box in the plan view image and a bounding box in the side view image for obtaining the volume of the person and the package.

まずボックス組合せ抽出部37Dは、複数のバウンディングボックスのうち、クラス「人物」のバウンディングボックスのみを抽出する。さらにボックス組合せ抽出部37Dは、クラス抽出されたバウンディングボックスの位置パラメータを利用して、バウンディングボックスのペアを抽出する。 First, the box combination extraction unit 37D extracts only the bounding boxes of the class "person" among the plurality of bounding boxes. Furthermore, the box combination extraction unit 37D extracts a pair of bounding boxes using the position parameters of the bounding boxes extracted as classes.

例えば図14を参照して、ボックス組合せ抽出部37Dは、平面視画像のバウンディングボックス124の中心点CpのFR軸座標CFRを中心とした、CFR-1/2WからCFR+1/2Wまでの範囲を設定する。さらにボックス組合せ抽出部37Dは、中心点CpのRW軸座標CRWを中心とした、CRW-1/2HからCRW+1/2Hまでの範囲を設定する。次にボックス組合せ抽出部37Dは、これら2つの範囲条件を満たす中心点Csが含まれる、側面視画像内のバウンディングボックス126を抽出し、これらのバウンディングボックス124,126をペアとして抽出する。 For example, referring to FIG. 14, the box combination extraction unit 37D extracts C FR −1/2W P to C FR +1/2W centered on the FR axis coordinate C FR of the center point Cp of the bounding box 124 of the planar image. Set the range up to P. Further, the box combination extractor 37D sets a range from C RW -1/2H P to C RW +1/2H P centered on the RW axis coordinate C RW of the center point Cp. Next, the box combination extractor 37D extracts the bounding box 126 in the side view image that includes the center point Cs that satisfies these two range conditions, and extracts these bounding boxes 124 and 126 as a pair.

クラス「人物」のバウンディングボックスの対応付け(ペアリング)が完了すると、ボックス組合せ抽出部37Dは、クラス「荷物」のバウンディングボックスを抽出して、上述の人物と同様の対応付け(ペアリング)を実行する。 When the matching (pairing) of the bounding boxes of the class "person" is completed, the box combination extraction unit 37D extracts the bounding boxes of the class "luggage" and performs the same matching (pairing) as for the person described above. Run.

体積算出部37Eは、ボックス組合せ抽出部37Dによりペアとなった、平面視画像のバウンディングボックス(平面視区画)と、側面視画像のバウンディングボックス(側面視区画)から、人物及び荷物の体積を求める。なお、体積算出に当たり、ワールド座標系に変換後のバウンディングボックスが用いられる。 The volume calculation unit 37E obtains the volume of the person and the baggage from the bounding box (planar view section) of the plan view image and the bounding box (side view section) of the side view image paired by the box combination extraction unit 37D. . Note that the bounding box converted to the world coordinate system is used for the volume calculation.

ここで、SSDアルゴリズムによるバウンディングボックスの抽出精度や、天井中央カメラ18及び側方カメラ19の倍率の差等に起因して、図14に例示されるように、平面視のバウンディングボックス124と側面視のバウンディングボックス126とで寸法が相違する場合がある。 Here, due to the accuracy of bounding box extraction by the SSD algorithm, the difference in magnification between the central ceiling camera 18 and the side cameras 19, etc., as illustrated in FIG. may have different dimensions from the bounding box 126 of .

そこで体積算出部37Eは、2種類の異なる方法で体積を求め、さらに平均化することでボックス体積を求めてもよい。例えば体積算出部37Eは、平面視のバウンディングボックス124における幅Wpと高さHp、及び側面視のバウンディングボックス126における高さHsをそれぞれ掛けた第1体積V1を求める。次に体積算出部37Eは、側面視のバウンディングボックス126における幅Wsと高さHs、及び平面視のバウンディングボックス124における幅Wpをそれぞれ掛けた第2体積V2を求める。最後に体積算出部37Eは第1体積V1と第2体積V2の和を2で割る。これによりボックス体積Vbが得られる。さらにボックス体積Vbの位置パラメータとして、中心点Cv[CV_FR,CV_RW,CV_UP]と、長さLFR、幅WRW、高さHUPが求められる。 Therefore, the volume calculation unit 37E may obtain the volume of the box by obtaining the volume by two different methods and then averaging them. For example, the volume calculator 37E obtains the first volume V1 by multiplying the width Wp and the height Hp of the bounding box 124 in plan view and the height Hs of the bounding box 126 in side view. Next, the volume calculator 37E obtains a second volume V2 by multiplying the width Ws and the height Hs of the bounding box 126 in side view by the width Wp of the bounding box 124 in plan view. Finally, the volume calculator 37E divides the sum of the first volume V1 and the second volume V2 by two. This gives the box volume Vb. Further, as position parameters of the box volume Vb, the center point Cv[ CV_FR , CV_RW , CV_UP ], the length LFR , the width WRW , and the height HUP are obtained.

近接荷物抽出部37Fは、人物に近接した荷物を、体積混雑率の算出対象から除外する。例えば近接荷物抽出部37Fは、ワールド座標系の空間内で、人物の体積に所定割合(例えば30%)以上体積が重複する荷物を抽出する。抽出された荷物(近接荷物)は、混雑率算出部37Gにより、体積混雑率の算出対象から除外される。 The proximity baggage extraction unit 37F excludes baggage that is close to a person from objects for calculating the volumetric congestion rate. For example, the close parcel extraction unit 37F extracts parcels whose volume overlaps a person's volume by a predetermined ratio (for example, 30%) or more within the space of the world coordinate system. The extracted parcels (proximate parcels) are excluded from volumetric congestion rate calculation targets by the congestion rate calculator 37G.

例えばSSDアルゴリズムによる画像認識では、バウンディングボックスに応じた位置推定が行われ、人物及び荷物に加えて周辺の空間もバウンディングボックスに取り込まれることから、このような体積の重複が起こり得る。このような体積の重複を許容して体積混雑率を算出すると、体積混雑率が過度に高くなるおそれがある。このため、一般的に人物よりも体積の小さい荷物が、体積混雑率の算出対象から除外される。 For example, in image recognition using the SSD algorithm, position estimation is performed according to the bounding box, and the surrounding space is also captured in the bounding box in addition to the person and package, so such volume overlap can occur. If the volumetric congestion rate is calculated while allowing such volume overlap, the volumetric congestion rate may become excessively high. For this reason, luggage that is generally smaller in volume than a person is excluded from the calculation target of the volumetric congestion rate.

また、後述される、立位客の両足の間への短身荷物の移動を促すに際して、既に両足の間に移動されている短身荷物は、十分に人物と近接していることから、近接荷物の抽出プロセスを経て、体積混雑率の算出対象から除外される。後述されるように、体積混雑率の算出対象から、立位客の両足の間への移動対象となる短身荷物が抽出されるが、既に両足の間に移動されている短身荷物は、近接荷物の抽出プロセスの際に、予め抽出対象から除外される。 In addition, when prompting the movement of the short baggage between the legs of the standing passenger, which will be described later, the short baggage that has already been moved between the legs is sufficiently close to the person. Through the baggage extraction process, the baggage is excluded from the volume congestion rate calculation target. As will be described later, the short baggage to be moved between the legs of the standing customer is extracted from the calculation target of the volumetric congestion rate. In the process of extracting adjacent packages, they are excluded from extraction targets in advance.

混雑率算出部37Gは、体積算出部37Eによって算出され、また近接荷物であることを理由にした除外を免れた、ボックス体積の総和を求める。さらに混雑率算出部37Gは、ボックス体積の総和ΣVbと車室40の容積Vcとの差異に基づいて、体積混雑率A[%]を求める。例えば体積混雑率Aは、(ΣVb/Vc)×100から求められる。 The congestion rate calculation unit 37G obtains the total volume of boxes calculated by the volume calculation unit 37E and which are not excluded on the grounds that they are proximate packages. Furthermore, the congestion rate calculator 37G obtains the volumetric congestion rate A [%] based on the difference between the total box volume ΣVb and the volume Vc of the passenger compartment 40 . For example, the volumetric congestion rate A is obtained from (ΣVb/Vc)×100.

短身荷物探索部37Hは、体積混雑率Aが上限閾値B[%]を超過する場合に、短身荷物を探索する。上限閾値Bは、例えば80%以上100%以下の値に設定される。短身荷物の探索には、側面視画像のバウンディングボックスが用いられる。具体的には、クラス「荷物」が与えられた、側面視画像中の(ワールド座標系に変換された)バウンディングボックスの高さ成分Hs(図14参照)が参照される。短身荷物探索部37Hは、この高さ成分Hsが所定の閾値高さHth以下である荷物(短身荷物)を抽出する。例えば閾値高さHthは、50cmに設定される。 The short baggage search unit 37H searches for short baggage when the volumetric congestion rate A exceeds the upper limit threshold value B [%]. The upper threshold value B is set to a value of 80% or more and 100% or less, for example. The bounding box of the side-view image is used to search for short luggage. Specifically, reference is made to the height component Hs (see FIG. 14) of the bounding box (transformed to the world coordinate system) in the side-view image given the class "luggage". The short baggage search unit 37H extracts baggage (short baggage) whose height component Hs is equal to or less than a predetermined threshold height Hth. For example, the threshold height Hth is set to 50 cm.

アナウンス制御部37Iは、体積混雑率Aが上限閾値B[%]を超過し、かつ、短身荷物が抽出された際に、立位客の両足の間に短身荷物を移動することを促すメッセージを車室内に出力させる。例えば車内スピーカ45(図5参照)から音声メッセージが出力され、車内表示器41Bからメッセージテキストが表示される。 When the volumetric congestion rate A exceeds the upper limit threshold value B [%] and short luggage is extracted, the announcement control unit 37I prompts the standing customer to move the short luggage between their legs. Output a message inside the vehicle. For example, a voice message is output from the in-vehicle speaker 45 (see FIG. 5), and the message text is displayed from the in-vehicle display 41B.

<混雑率推定フロー>
図7、図8には、本実施形態に係る車室内監視システムにより実行される、混雑率推定フローが例示される。混雑推定部37の歪曲/傾き補正部37A(図3参照)は、側方カメラ19から車室40の側面視画像(図9参照)を取得する(S10)。次に混雑推定部37の歪曲/傾き補正部37Aは、上述した歪曲補正処理及び傾き補正処理を側面視画像に対して実行する(S11)。補正後の側面視画像が車室内画像認識部36に送信される。
<Congestion rate estimation flow>
7 and 8 illustrate congestion rate estimation flows executed by the vehicle interior monitoring system according to the present embodiment. The distortion/inclination correction unit 37A (see FIG. 3) of the congestion estimation unit 37 acquires a side view image (see FIG. 9) of the vehicle interior 40 from the side camera 19 (S10). Next, the distortion/tilt correction unit 37A of the congestion estimation unit 37 performs the above-described distortion correction processing and tilt correction processing on the side view image (S11). The corrected side view image is transmitted to the vehicle interior image recognition section 36 .

車室内画像認識部36は、補正後の側面視画像内の人物及び荷物を囲むバウンディングボックス(側面視区画)を、上述のSSDアルゴリズムを用いて認識する(S12)。さらに奥行情報取得部37Bは、上述のステレオカメラ法を用いて、各バウンディングボックスの奥行情報を取得する(S13)。 The vehicle interior image recognition unit 36 recognizes the bounding box (side view section) surrounding the person and luggage in the corrected side view image using the SSD algorithm described above (S12). Furthermore, the depth information acquisition unit 37B acquires depth information of each bounding box using the stereo camera method described above (S13).

例えば上述したように、平面視画像中のバウンディングボックスの中心点について、天井中央カメラ18からの離隔距離が奥行情報として得られる。この離隔距離はバウンディングボックスの全ての座標点における奥行情報として適用される。 For example, as described above, the separation distance from the central ceiling camera 18 is obtained as depth information for the central point of the bounding box in the planar image. This separation is applied as depth information at all coordinate points of the bounding box.

さらに座標変換部37Cは、バウンディングボックスの中心点及び4頂点の、カメラ座標系における3次元座標(画像平面座標+奥行情報)を、上述した変換処理により、車室内の空間座標系であるワールド座標系における3次元座標に変換する(S14)。 Furthermore, the coordinate transformation unit 37C transforms the three-dimensional coordinates (image plane coordinates + depth information) of the center point and four vertices of the bounding box in the camera coordinate system into the world coordinates, which are the space coordinate system in the vehicle compartment, by the above-described transformation process. Convert to three-dimensional coordinates in the system (S14).

次に、混雑推定部37は、天井中央カメラ18から、平面視画像(図11参照)を取得する(S15)。さらに当該画像に対して、車室内画像認識部36及び混雑推定部37は、側面視画像と同様の画像処理を実行する。すなわち、歪曲/角度補正(S16)、人物及び荷物を囲むバウンディングボックス(平面視区画)の画像認識(S17)、バウンディングボックスの奥行情報取得(S18)、及び、カメラ座標系からワールド座標系への変換(S19)といった各種処理が、平面視画像に対して実行される。 Next, the congestion estimation unit 37 acquires a planar view image (see FIG. 11) from the central ceiling camera 18 (S15). Further, the vehicle interior image recognition unit 36 and the congestion estimation unit 37 perform the same image processing as that for the side view image on the image. That is, distortion/angle correction (S16), image recognition of a bounding box (planar view section) surrounding a person and luggage (S17), depth information acquisition of the bounding box (S18), and conversion from the camera coordinate system to the world coordinate system. Various processes such as transformation (S19) are performed on the monoscopic image.

さらにボックス組合せ抽出部37Dは、上述したように、ワールド座標に変換後のバウンディングボックスの位置パラメータに基づいて、側面視のバウンディングボックスと平面視のバウンディングボックスとのペアを求める(S20)。 Furthermore, as described above, the box combination extraction unit 37D obtains a pair of a side view bounding box and a planar view bounding box based on the positional parameters of the bounding boxes after conversion into world coordinates (S20).

次に体積算出部37Eは、ペアとなった側面視のバウンディングボックスと平面視のバウンディングボックスの、ワールド座標系上の位置パラメータを用いて、上述したようにボックス体積を求める(S21)。体積算出部37Eは、ボックス組合せ抽出部37Dにより抽出された人物及び荷物の全てのペアに対してボックス体積Vbを求める。 Next, the volume calculator 37E calculates the box volume as described above using the positional parameters of the paired side-view bounding box and planar-view bounding box on the world coordinate system (S21). The volume calculation unit 37E obtains the box volume Vb for all pairs of person and package extracted by the box combination extraction unit 37D.

さらに近接荷物抽出部37Fは、上述したように、人物と所定割合でボックス体積Vbが重複する荷物を抽出し、当該荷物(近接荷物)を混雑率算定対象から除外する(S22)。さらに混雑率算出部37Gは、算定対象となったボックス体積Vbの総和ΣVbを求める(S23)。さらに混雑率算出部37Gは、車室容積Vcに対する、ボックス体積Vbの総和ΣVbの割合である、体積混雑率Aを求める(S24)。 Furthermore, as described above, the close baggage extracting unit 37F extracts baggage whose box volume Vb overlaps that of the person at a predetermined ratio, and excludes the baggage (close baggage) from the congestion rate calculation target (S22). Further, the congestion rate calculation unit 37G obtains the total sum ΣVb of the box volumes Vb that are objects of calculation (S23). Further, the congestion rate calculator 37G obtains a volumetric congestion rate A, which is the ratio of the total sum ΣVb of the box volume Vb to the passenger compartment volume Vc (S24).

短身荷物探索部37Hは、ステップS24で求められた体積混雑率Aが上限閾値Bを超過しているか否かを判定する(S25)。体積混雑率Aが上限閾値B以下である場合には、体積混雑率Aをセンターサーバ50(図2参照)の運行スケジュール調整部61に送信する(S29)。さらにアナウンス制御部37Iは、体積混雑率Aを、車内表示器41Bに表示させる(S30)。 The short baggage search unit 37H determines whether or not the volumetric congestion rate A obtained in step S24 exceeds the upper limit threshold value B (S25). If the volumetric congestion rate A is equal to or less than the upper limit threshold value B, the volumetric congestion rate A is transmitted to the operation schedule adjustment unit 61 of the center server 50 (see FIG. 2) (S29). Furthermore, the announcement control unit 37I causes the in-vehicle display 41B to display the volume congestion rate A (S30).

一方、ステップS25にて体積混雑率Aが上限閾値Bを超過している場合、短身荷物探索部37Hは、図10を参照して、体積混雑率Aの算出対象となった荷物の側面視画像のバウンディングボックス106A~106Cから、(ワールド座標系に変換後の)位置パラメータを参照して、高さHsを抽出する。そして短身荷物探索部37Hは、高さHsが、所定の閾値高さHth以下である短身荷物があるか否かを判定する(S26)。 On the other hand, if the volumetric congestion rate A exceeds the upper limit threshold value B in step S25, the short baggage searching unit 37H refers to FIG. The height Hs is extracted from the image bounding boxes 106A-106C with reference to the position parameter (after transformation to the world coordinate system). Then, the short baggage search unit 37H determines whether or not there is a short baggage whose height Hs is equal to or less than a predetermined threshold height Hth (S26).

抽出された高さHsが、いずれも所定の閾値高さHthを超過する場合、短身荷物探索部37Hは、ステップS24にて求められた体積混雑率Aを、センターサーバ50(図2参照)の運行スケジュール調整部61に送信する(S29)。 If all of the extracted heights Hs exceed the predetermined threshold height Hth, the short baggage search unit 37H sends the volumetric congestion rate A obtained in step S24 to the center server 50 (see FIG. 2). to the operation schedule adjusting unit 61 (S29).

一方、ステップS26にて、高さHsが、所定の閾値高さHth以下である短身荷物が抽出されると、アナウンス制御部37Iは、抽出された短身荷物の、立位客の両足の間への移動を促すメッセージを、車内表示器41B(図5参照)及び車内スピーカ45から出力させる(S27)。さらに所定時間待機後(S28)、フローはステップS10まで戻り、アナウンス後の側面視画像及び平面視画像に基づいた体積混雑率が算出される。 On the other hand, in step S26, when the short baggage whose height Hs is equal to or less than the predetermined threshold height Hth is extracted, the announcement control unit 37I controls the height of the standing customer's feet of the extracted short baggage. A message urging the user to move between is output from the in-vehicle indicator 41B (see FIG. 5) and the in-vehicle speaker 45 (S27). Further, after waiting for a predetermined time (S28), the flow returns to step S10, and the volume congestion rate is calculated based on the side view image and the plan view image after the announcement.

このように、本実施形態に係る車室内監視システムでは、体積混雑率Aが上限閾値Bを超過する場合に、短身荷物が探索されるとともに当該荷物の、立位客の両足の間への移動が促される。これにより、移動前に短身荷物が占めていた領域が空きスペースとなって、混雑緩和が図られる。 As described above, in the vehicle interior monitoring system according to the present embodiment, when the volumetric congestion rate A exceeds the upper limit threshold value B, short luggage is searched for and the luggage is placed between the legs of the standing passenger. encouraged to move. As a result, the area occupied by the short baggage before the movement becomes an empty space, and congestion can be alleviated.

<運行調整フロー>
図15には、混雑推定部37(図2参照)から体積混雑率Aを受信したときの、センターサーバ50の運行スケジュール調整部61による、運行調整フローが例示される。なお、各ステップにはその実行主体としてセンターサーバ50を示す符号(S)が付される。
<Operation adjustment flow>
FIG. 15 illustrates an operation adjustment flow by the operation schedule adjustment unit 61 of the center server 50 when the volumetric congestion rate A is received from the congestion estimation unit 37 (see FIG. 2). Each step is given a symbol (S) indicating the center server 50 as its executing entity.

運行スケジュール調整部61は、混雑推定部37の混雑率算出部37Gから体積混雑率Aを取得する(S30)。次に運行スケジュール調整部61は、取得した体積混雑率Aが、所定の上限閾値Bを超過するか否かを判定する(S32)。この上限閾値Bは、図8のステップS25で用いられた上限閾値Bと同一の値であってよい。 The operation schedule adjustment unit 61 acquires the volume congestion rate A from the congestion rate calculation unit 37G of the congestion estimation unit 37 (S30). Next, the operation schedule adjustment unit 61 determines whether or not the acquired volumetric congestion rate A exceeds a predetermined upper limit threshold value B (S32). This upper limit threshold B may be the same value as the upper limit threshold B used in step S25 of FIG.

体積混雑率A≦上限閾値Bである場合、運行スケジュール調整部61は、既に設定された運行スケジュールをそのまま維持する。さらに運行スケジュール調整部61は、体積混雑率Aを携帯端末70のバスアプリケーション81に送信する(S34)。 When the volumetric congestion rate A≦the upper limit threshold B, the operation schedule adjusting unit 61 maintains the already set operation schedule as it is. Further, the operation schedule adjusting unit 61 transmits the volume congestion rate A to the bus application 81 of the mobile terminal 70 (S34).

一方、ステップS32にて、体積混雑率A>上限閾値Bである場合、運行スケジュール調整部61は、この体積混雑率Aを送信した乗合車両10の運行スケジュールを参照する。さらに運行スケジュール調整部61は、当該乗合車両10が次に停車予定の停留所を通過させるように、運行スケジュールを変更する(S36)。変更後の運行スケジュールは、運行スケジュール提供部63から対象の乗合車両10に送信される。 On the other hand, in step S32, if the volumetric congestion rate A>the upper limit threshold B, the operation schedule adjusting unit 61 refers to the operation schedule of the passenger vehicle 10 that has transmitted the volumetric congestion rate A. Furthermore, the operation schedule adjustment unit 61 changes the operation schedule so that the passenger vehicle 10 passes through the next stop scheduled to stop (S36). The changed operation schedule is transmitted from the operation schedule providing unit 63 to the target passenger vehicle 10 .

また運行スケジュール調整部61は、体積混雑率A及び変更後の運行スケジュールを、携帯端末70のバスアプリケーション81に送信する(S38)。これにより携帯端末70のユーザは、乗合車両10が停留所を停まらずに通過することを、事前に知ることができる。 The operation schedule adjusting unit 61 also transmits the volumetric congestion rate A and the changed operation schedule to the bus application 81 of the mobile terminal 70 (S38). Thereby, the user of the portable terminal 70 can know in advance that the shared vehicle 10 will pass through the stop without stopping.

<奥行情報の取得方法の別例>
上述の実施形態では、奥行情報取得部37B(図3参照)は、天井中央カメラ18及び側方カメラ19を用いたステレオカメラ法により、バウンディングボックスの奥行情報を取得していたが、本実施形態に係る車室内監視システムは、この形態に限られない。
<Another example of depth information acquisition method>
In the above-described embodiment, the depth information acquisition unit 37B (see FIG. 3) acquires the depth information of the bounding box by the stereo camera method using the central ceiling camera 18 and the side cameras 19. is not limited to this form.

例えば図16及び図17に例示されるように、車室40の床43が、複数の対象領域(Region of Interest)に仮想的に区分けされる。図16、図17の例示では床43が10個の領域に分けられる。 For example, as illustrated in FIGS. 16 and 17, the floor 43 of the passenger compartment 40 is virtually divided into a plurality of regions of interest. In the illustration of FIGS. 16 and 17, the floor 43 is divided into 10 areas.

そして奥行情報取得部37Bは、例えば側面視画像及び平面視画像において、人物及び荷物が床43のどの領域にいるかを判定する。そして各領域に割り当てられた奥行情報が、それぞれの領域に居る人物及び荷物に割り当てられる。 Then, the depth information acquisition unit 37B determines in which area of the floor 43 the person and the package are located, for example, in the side view image and the plan view image. The depth information assigned to each area is then assigned to the person and package in each area.

または、ステレオカメラ法に代わり、天井中央カメラ18及び側方カメラ19を、RGB-Dカメラ等の3Dカメラが用いられてもよい。例えばTOF(Time of Flight)方式の3Dカメラでは、短パルスのレーザーが照射され、物体で反射して受光素子に戻るまでの時間に基づいて、カメラと物体との離隔距離(つまり奥行情報)が求められる。 Alternatively, instead of the stereo camera method, the ceiling central camera 18 and the side cameras 19 may be used with 3D cameras such as RGB-D cameras. For example, in a TOF (Time of Flight) 3D camera, a short-pulse laser is irradiated, and based on the time it takes for the object to reflect and return to the light-receiving element, the distance between the camera and the object (i.e., depth information) is obtained. Desired.

<平面視画像と側面視画像との対応付けの別例>
上述の実施形態では、ボックス組合せ抽出部37D(図3参照)は、図14のようにバウンディングボックスの位置パラメータを用いて、平面視画像のバウンディングボックスと側面視画像のバウンディングボックスの対応付け(ペアリング)を行っていた。しかしながら本実施形態に係る車室内監視システムは、この形態に限られない。
<Another example of associating a plan view image and a side view image>
In the above-described embodiment, the box combination extraction unit 37D (see FIG. 3) uses the positional parameters of the bounding boxes as shown in FIG. ring). However, the vehicle interior monitoring system according to this embodiment is not limited to this form.

例えばいわゆるオプティカルフロー法を用いたトラッキングが用いられてもよい。例えば人物(乗客)が乗合車両10のドア41,41から乗車したときに、車室内画像認識部36により人物及び荷物の画像認識が実行される。認識された人物及び荷物には固有のIDが付される。さらにボックス組合せ抽出部37Dは、IDが付された人物及び荷物の特徴点の動き(軌跡)を追跡する。これにより、平面視画像及び側面視画像上で同一の人物および荷物の軌跡を追うことが出来る。その結果ボックス組合せ抽出部37Dは、IDをキーとして、それぞれの人物及び荷物の対応付け(ペアリング)が実行可能となる。 For example, tracking using the so-called optical flow method may be used. For example, when a person (passenger) gets into the passenger vehicle 10 from the doors 41, 41, the vehicle interior image recognition unit 36 executes image recognition of the person and luggage. A unique ID is assigned to each recognized person and package. Furthermore, the box combination extraction unit 37D traces the movement (trajectory) of the feature points of the person and package to which the ID is assigned. As a result, the trajectory of the same person and luggage can be traced on the two-dimensional image and the side view image. As a result, the box combination extraction unit 37D can execute association (pairing) of each person and package using the ID as a key.

<乗合車両利用システムの別例>
図18には、図2に例示された乗合車両利用システムの別例が示される。図18では、図2ではセンターサーバ50に設けられていた運行スケジュール調整部61が、乗合車両10内に設けられる。その他の構成は図2と同様である。
<Another example of a shared vehicle utilization system>
FIG. 18 shows another example of the shared vehicle utilization system illustrated in FIG. In FIG. 18 , the operation schedule adjustment unit 61 provided in the center server 50 in FIG. 2 is provided in the passenger vehicle 10 . Other configurations are the same as those in FIG.

図19には、乗合車両10に設けられた運行スケジュール調整部61による、運行調整フローが例示される。このフローの各ステップは、処理内容としては図15の各ステップと同様である。具体的には、図15のステップS30,S32,S34,S36,S38は、図19のステップS130,S132,S134,S136,S138に対応している。ただし、各ステップの実行主体が、センターサーバ50を示す符号(S)から、乗合車両10を示す符号(B)に置き換えられている。また、ステップS134、S138では、混雑率及び変更後の運行スケジュールの送信先が、携帯端末70のバスアプリケーション81からセンターサーバ50に置き換えられる。 FIG. 19 illustrates an operation adjustment flow by the operation schedule adjustment unit 61 provided in the passenger vehicle 10. As shown in FIG. Each step of this flow is the same as each step in FIG. 15 as processing content. Specifically, steps S30, S32, S34, S36 and S38 in FIG. 15 correspond to steps S130, S132, S134, S136 and S138 in FIG. However, the execution subject of each step is replaced from the code (S) indicating the center server 50 to the code (B) indicating the passenger vehicle 10 . Further, in steps S134 and S138, the transmission destination of the congestion rate and the changed operation schedule is changed from the bus application 81 of the mobile terminal 70 to the center server 50. FIG.

10 乗合車両、18 天井中央カメラ、19 側方カメラ、20 制御部、36 車室内画像認識部、37 混雑推定部、37A 傾き補正部、37B 奥行情報取得部、37C 座標変換部、37D ボックス組合せ抽出部、37E 体積算出部、37F 近接荷物抽出部、37G 混雑率算出部、37H 短身荷物探索部、37I アナウンス制御部、40 車室、41A 車外表示器、41B 車内表示器、45 車内スピーカ、48 基準マーク、50 センターサーバ、61 運行スケジュール調整部、62 運行スケジュール作成部、63 運行スケジュール提供部、64 運行ルート作成部、65 運行スケジュール記憶部、66 ダイナミックマップ記憶部、70 携帯端末、81 バスアプリケーション、82 運行スケジュール表示部、83 混雑率表示部、104A~104C,106A~106C,108A~108C,110A~110C バウンディングボックス。
10 passenger vehicle, 18 ceiling center camera, 19 side camera, 20 control unit, 36 vehicle interior image recognition unit, 37 congestion estimation unit, 37A tilt correction unit, 37B depth information acquisition unit, 37C coordinate conversion unit, 37D box combination extraction Section 37E Volume Calculation Section 37F Proximity Baggage Extraction Section 37G Congestion Rate Calculation Section 37H Short Baggage Search Section 37I Announcement Control Section 40 Vehicle Interior 41A Outside Display 41B Inside Display 45 Inside Speaker 48 reference mark, 50 center server, 61 operation schedule adjustment unit, 62 operation schedule creation unit, 63 operation schedule provision unit, 64 operation route creation unit, 65 operation schedule storage unit, 66 dynamic map storage unit, 70 mobile terminal, 81 bus application , 82 operation schedule display section, 83 congestion rate display section, 104A to 104C, 106A to 106C, 108A to 108C, 110A to 110C bounding box.

Claims (7)

車室の天井の中央部から前記車室内の平面視画像を撮像する第一撮像器と、
前記天井の周縁部または前記車室の側面から前記車室内の側面視画像を撮像する第二撮像器と、
前記平面視画像及び前記側面視画像に含まれる人物及び荷物を認識する画像認識部と、
前記認識された人物及び荷物に基づいて、前記車室の混雑率を求める混雑推定部と、
を備え、
前記画像認識部は、前記平面視画像で前記認識された人物及び荷物の平面視区画を求めるとともに、前記側面視画像で前記認識された人物及び荷物の側面視区画を求め、
前記混雑推定部は、
人物及び荷物の前記平面視区画及び前記側面視区画に基づいて、人物及び荷物の体積を求める体積算出部と、
人物及び荷物の体積の総和と前記車室の容積との差異に基づいて、前記混雑率を求める混雑率算出部と、
を備える、
車室内監視システム。
a first imaging device that captures a planar image of the interior of the vehicle from the center of the ceiling of the vehicle;
a second imaging device that captures a side-view image of the inside of the vehicle interior from the peripheral edge of the ceiling or the side surface of the vehicle interior;
an image recognition unit that recognizes a person and luggage included in the planar view image and the side view image;
a congestion estimation unit that obtains a congestion rate of the vehicle compartment based on the recognized person and baggage;
with
The image recognition unit obtains a plan view section of the recognized person and package in the plan view image, and obtains a side view section of the recognized person and package in the side view image,
The congestion estimation unit,
a volume calculation unit that obtains the volume of the person and the package based on the plan view section and the side view section of the person and the package;
a congestion rate calculation unit that calculates the congestion rate based on the difference between the total volume of people and luggage and the volume of the vehicle compartment;
comprising a
In-vehicle monitoring system.
請求項1に記載の車室内監視システムであって、
前記混雑推定部は、奥行情報取得部及び座標変換部を備え、
前記奥行情報取得部は、人物及び荷物の前記平面視区画の、前記第一撮像器の光軸に沿った奥行情報を取得するとともに、人物及び荷物の前記側面視区画の、前記第二撮像器の光軸に沿った奥行情報を取得し、
前記座標変換部は、前記平面視区画及び前記側面視区画の平面座標及び奥行情報に基づくカメラ座標系上の3次元座標を、車室内空間の座標系であるワールド座標系上の3次元座標に変換し、
前記体積算出部は、前記ワールド座標系に変換された前記平面視区画及び前記側面視区画に基づいて、人物及び荷物の体積を求める、
車室内監視システム。
The vehicle interior monitoring system according to claim 1,
The congestion estimation unit includes a depth information acquisition unit and a coordinate conversion unit,
The depth information acquisition unit acquires depth information along the optical axis of the first imaging device of the planar view section of the person and the package, and acquires depth information of the side view section of the person and the package from the second imaging device. acquire depth information along the optical axis of
The coordinate transformation unit converts three-dimensional coordinates on a camera coordinate system based on plane coordinates and depth information of the planar view section and the side view section into three-dimensional coordinates on a world coordinate system, which is the coordinate system of the vehicle interior space. Converted,
The volume calculation unit obtains the volume of the person and the baggage based on the plan view section and the side view section converted into the world coordinate system;
In-vehicle monitoring system.
請求項2に記載の車室内監視システムであって、
前記画像認識部は、SSD(Single Shot Multibox Detector)アルゴリズムに基づいて求められた、人物及び荷物を囲む矩形領域であるバウンディングボックスを前記平面視区画及び前記側面視区画に設定する、
車室内監視システム。
The vehicle interior monitoring system according to claim 2,
The image recognition unit sets a bounding box, which is a rectangular area surrounding a person and a package, obtained based on an SSD (Single Shot Multibox Detector) algorithm in the plan view section and the side view section.
In-vehicle monitoring system.
請求項3に記載の車室内監視システムであって、
前記混雑推定部は、近接荷物抽出部を備え、
前記近接荷物抽出部は、前記ワールド座標系の空間内で人物の体積に所定割合以上体積が重複する荷物である近接荷物を抽出し、
前記混雑率算出部は、抽出された近接荷物を、前記混雑率の算出対象から除外する、
車室内監視システム。
The vehicle interior monitoring system according to claim 3,
The congestion estimating unit includes an adjacent luggage extracting unit,
The proximate luggage extracting unit extracts proximate luggage, which is luggage whose volume overlaps the volume of the person by a predetermined ratio or more in the space of the world coordinate system,
The congestion rate calculation unit excludes the extracted adjacent parcels from a target for calculating the congestion rate.
In-vehicle monitoring system.
請求項4に記載の車室内監視システムであって、
前記混雑推定部は、短身荷物探索部を備え、
前記短身荷物探索部は、前記混雑率算出部により求められた前記混雑率が所定の上限閾値を超過する場合に、前記混雑率の算出対象となった荷物の、前記ワールド座標系に変換された前記側面視区画における高さ成分に基づいて、所定の閾値高さ以下の荷物を探索する、
車室内監視システム。
The vehicle interior monitoring system according to claim 4,
The congestion estimation unit includes a short luggage search unit,
When the congestion rate obtained by the congestion rate calculation section exceeds a predetermined upper limit threshold, the short baggage search section converts the baggage for which the congestion rate is calculated into the world coordinate system. Searching for packages having a height equal to or less than a predetermined threshold height based on the height component in the side view section;
In-vehicle monitoring system.
請求項5に記載の車室内監視システムであって、
前記混雑推定部は、前記所定の閾値高さ以下の荷物が探索された場合に、荷物の移動を促すアナウンスを前記車室内に出力させる、アナウンス制御部を備える、
車室内監視システム。
The vehicle interior monitoring system according to claim 5,
The congestion estimating unit includes an announcement control unit that outputs an announcement urging the movement of luggage to the vehicle interior when a luggage having a height equal to or lower than the predetermined threshold height is searched,
In-vehicle monitoring system.
請求項1から6の何れか一項に記載の車室内監視システムと、当該車室内監視システムと通信可能な運行スケジュール調整部を備える、車両の運行管理システムであって、
前記運行スケジュール調整部は、複数の車両のそれぞれに搭載された前記車室内監視システムの前記混雑推定部と通信可能となっており、それぞれの前記混雑推定部から受信した前記混雑率に基づいて、次に停車する予定の停留所を通過するような運行スケジュールの変更可否を判定する、
車両の運行管理システム。
A vehicle operation management system comprising: the vehicle interior monitoring system according to any one of claims 1 to 6; and an operation schedule adjusting unit capable of communicating with the vehicle interior monitoring system,
The operation schedule adjusting unit can communicate with the congestion estimating unit of the vehicle interior monitoring system installed in each of a plurality of vehicles, and based on the congestion rate received from each of the congestion estimating units, Determining whether to change the operation schedule so that the train will pass through the next scheduled stop,
Vehicle operation management system.
JP2021062657A 2021-04-01 2021-04-01 Vehicle interior monitoring system and vehicle operation management system Pending JP2022158041A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021062657A JP2022158041A (en) 2021-04-01 2021-04-01 Vehicle interior monitoring system and vehicle operation management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021062657A JP2022158041A (en) 2021-04-01 2021-04-01 Vehicle interior monitoring system and vehicle operation management system

Publications (1)

Publication Number Publication Date
JP2022158041A true JP2022158041A (en) 2022-10-14

Family

ID=83560056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021062657A Pending JP2022158041A (en) 2021-04-01 2021-04-01 Vehicle interior monitoring system and vehicle operation management system

Country Status (1)

Country Link
JP (1) JP2022158041A (en)

Similar Documents

Publication Publication Date Title
CN108572663B (en) Target tracking
CN108693876B (en) Object tracking system and method for vehicle with control component
US11217012B2 (en) System and method for identifying travel way features for autonomous vehicle motion control
US11181902B2 (en) Remote operation system, transportation system, and remote operation method
AU2021203701B2 (en) Recognizing assigned passengers for autonomous vehicles
US10551207B2 (en) Autonomous vehicle sensor data and map integration
US20190101649A1 (en) Systems, devices, and methods for autonomous vehicle localization
JP2019028861A (en) Signal processor, signal processing method, program, and moving object
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
US20200086764A1 (en) Vehicle control system, vehicle control method, and vehicle control program
WO2016161104A1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
US11501461B2 (en) Controller, control method, and program
JP2020073915A (en) Information processor, information processing method, and program
JPWO2019181284A1 (en) Information processing equipment, mobile devices, and methods, and programs
US20230343208A1 (en) Pedestrian device, information collection device, base station device, positioning method, user management method, information collection method, and facility monitoring method
CN111731304B (en) Vehicle control device, vehicle control method, and storage medium
CN116724214A (en) Method and system for generating a lane-level map of a region of interest for navigation of an autonomous vehicle
CN110794821B (en) Vehicle-mounted control device, field end positioning device, vehicle control system and vehicle
JP2022158041A (en) Vehicle interior monitoring system and vehicle operation management system
JP2019117214A (en) Object data structure
CN111837012A (en) Vehicle control system, vehicle control method, program, and information processing device
JP2019095875A (en) Vehicle control device, vehicle control method, and program
JP2021047609A (en) Periphery recognition device, periphery recognition method, and program
JP2019117052A (en) Display control device
JP2019117432A (en) Display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240117