JP2022158041A - Vehicle interior monitoring system and vehicle operation management system - Google Patents
Vehicle interior monitoring system and vehicle operation management system Download PDFInfo
- Publication number
- JP2022158041A JP2022158041A JP2021062657A JP2021062657A JP2022158041A JP 2022158041 A JP2022158041 A JP 2022158041A JP 2021062657 A JP2021062657 A JP 2021062657A JP 2021062657 A JP2021062657 A JP 2021062657A JP 2022158041 A JP2022158041 A JP 2022158041A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- vehicle
- vehicle interior
- person
- congestion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 45
- 238000004364 calculation method Methods 0.000 claims abstract description 34
- 238000003384 imaging method Methods 0.000 claims abstract description 20
- 230000002093 peripheral effect Effects 0.000 claims abstract description 8
- 239000000284 extract Substances 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 22
- 238000012937 correction Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000007405 data analysis Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本明細書では、車室内監視システム及び当該システムを含む車両の運行管理システムが開示される。 Disclosed herein is a vehicle interior monitoring system and a vehicle operation management system including the system.
例えば特許文献1や特許文献2には、列車やバス等の乗合車両における乗車率を算出する監視システムが開示されている。このシステムでは、車両の上方に複数の監視カメラが設けられる。これらの監視カメラは等間隔に配置されており、それぞれ上方から真下を撮像するように設置されている。 For example, Patent Literature 1 and Patent Literature 2 disclose a monitoring system for calculating the boarding ratio of passenger vehicles such as trains and buses. In this system, multiple surveillance cameras are provided above the vehicle. These surveillance cameras are arranged at regular intervals, and are installed so as to capture images from above to directly below.
そして、各監視カメラにより撮像された映像データから人物が検出され、さらにその人物が占有している車両内の面積の割合(占有率)が算出される。それぞれの監視カメラの映像データに基づく占有率から、車両全体での占有率が求められる。 Then, a person is detected from the image data captured by each surveillance camera, and the ratio of the area in the vehicle occupied by the person (occupancy rate) is calculated. The occupancy rate of the entire vehicle is obtained from the occupancy rate based on the image data of each surveillance camera.
ところで、例えば車室内にある荷物が、背の低い短身荷物である場合には、移動させて立位客の足の間に挟むなどすれば、車内の占有率の低下、言い換えると混雑緩和が期待できる。しかしながら、車室上方から見下ろすようにして車内を撮像する平面視画像には、乗客や荷物等の高さ情報が反映されない。 By the way, for example, if the luggage in the passenger compartment is short and short, moving it and placing it between the legs of the standing passengers will reduce the occupancy rate of the passenger compartment, in other words, alleviate congestion. I can expect it. However, height information of passengers, luggage, and the like is not reflected in a planar view image of the inside of the vehicle, which is captured by looking down from above the vehicle compartment.
そこで本明細書では、車室内の混雑緩和の余地の有無を判定可能な、車室内監視システム及び当該システムを含む車両の運行管理システムが開示される。 Therefore, in this specification, a vehicle interior monitoring system and a vehicle operation management system including the system are disclosed, which can determine whether or not there is room for alleviating congestion in the vehicle interior.
本明細書では、車室内監視システムが開示される。このシステムは、第一撮像器、第二撮像器、画像認識部、及び混雑推定部を備える。第一撮像器は、車室の天井の中央部から車室内の平面視画像を撮像する。第二撮像器は、天井の周縁部または車室の側面から車室内の側面視画像を撮像する。画像認識部は、平面視画像及び側面視画像に含まれる人物及び荷物を認識する。混雑推定部は、認識された人物及び荷物に基づいて、車室の混雑率を求める。画像認識部は、平面視画像で認識された人物及び荷物の平面視区画を求めるとともに、側面視画像で認識された人物及び荷物の側面視区画を求める。混雑推定部は、体積算出部及び混雑率算出部を備える。体積算出部は、人物及び荷物の平面視区画及び側面視区画に基づいて、人物及び荷物の体積を求める。混雑率算出部は、人物及び荷物の体積の総和と車室の容積との差異に基づいて、混雑率を求める。 A vehicle interior monitoring system is disclosed herein. The system comprises a first imager, a second imager, an image recognizer, and a congestion estimator. The first imaging device captures a planar view image of the interior of the vehicle from the central portion of the ceiling of the vehicle. The second imaging device captures a side-view image of the vehicle interior from the peripheral edge of the ceiling or the side of the vehicle interior. The image recognition unit recognizes a person and luggage included in the plan view image and the side view image. The congestion estimating unit obtains the congestion rate of the passenger compartment based on the recognized persons and luggage. The image recognition unit obtains a plan view section of the person and the package recognized in the plan view image, and obtains a side view section of the person and package recognized in the side view image. The congestion estimation unit includes a volume calculation unit and a congestion rate calculation unit. The volume calculation unit obtains the volume of the person and the package based on the plan view section and the side view section of the person and the package. The congestion rate calculation unit obtains the congestion rate based on the difference between the total volume of people and luggage and the volume of the passenger compartment.
上記構成によれば、人物及び荷物の平面視における占有面積に加えて、高さ情報が加味された体積ベースでの混雑率が求められる。この混雑率の算出過程で、特に荷物の側面視区画から高さ情報が得られることで、短身荷物の抽出が可能となる。 According to the above configuration, in addition to the area occupied by people and luggage in a plan view, the volume-based congestion rate that takes into account height information is obtained. In the process of calculating the congestion rate, it is possible to extract short luggage by obtaining height information especially from the side view section of the luggage.
また上記構成において、混雑推定部は、奥行情報取得部及び座標変換部を備えてもよい。奥行情報取得部は、人物及び荷物の平面視区画の、第一撮像器の光軸に沿った奥行情報を取得するとともに、人物及び荷物の側面視区画の、第二撮像器の光軸に沿った奥行情報を取得する。座標変換部は、平面視区画及び側面視区画の平面座標及び奥行情報に基づくカメラ座標系上の3次元座標を、車室内空間の座標系であるワールド座標系上の3次元座標に変換する。体積算出部は、ワールド座標系に変換された平面視区画及び側面視区画に基づいて、人物及び荷物の体積を求める。 Moreover, in the above configuration, the congestion estimation unit may include a depth information acquisition unit and a coordinate conversion unit. The depth information acquisition unit acquires depth information of the plane view section of the person and the package along the optical axis of the first imaging device, and obtains depth information of the side view section of the person and the package along the optical axis of the second imaging device. depth information. The coordinate transformation unit transforms the plane coordinates of the plan view section and the side view section and the three-dimensional coordinates on the camera coordinate system based on the depth information into the three-dimensional coordinates on the world coordinate system, which is the coordinate system of the vehicle interior space. The volume calculator obtains the volume of the person and the package based on the plan view section and the side view section transformed into the world coordinate system.
平面視画像及び側面視画像では、相対的に第一撮像器及び第二撮像器の近くにいる人物及び荷物は、相対的にこれらの撮像器から遠くにいる人物及び荷物よりも大きく写される。この第一/第二撮像器に対する距離に起因する、人物及び荷物の像の大小が、カメラ座標系をワールド座標系に変換することで解消される。 In the two-dimensional image and the side view image, persons and items relatively close to the first imager and second imager appear larger than persons and items relatively far from these imagers. . The size of the images of the person and the luggage due to the distance to the first/second imaging device is eliminated by transforming the camera coordinate system into the world coordinate system.
また上記構成において、画像認識部は、SSD(Single Shot Multibox Detector)アルゴリズムに基づいて求められた、人物及び荷物を囲む矩形領域であるバウンディングボックスを平面視区画及び側面視区画に設定してもよい。 Further, in the above configuration, the image recognition unit may set bounding boxes, which are rectangular areas surrounding the person and the luggage, obtained based on an SSD (Single Shot Multibox Detector) algorithm in the plan view section and the side view section. .
上記構成によれば、既存のアルゴリズムを用いて、人物及び荷物の体積を求めることができる。 According to the above configuration, it is possible to obtain the volume of the person and the package using an existing algorithm.
また上記構成において、混雑推定部は、近接荷物抽出部を備えてもよい。近接荷物抽出部は、ワールド座標系の空間内で人物の体積に所定割合以上体積が重複する荷物である近接荷物を抽出する。混雑率算出部は、抽出された近接荷物を、混雑率の算出対象から除外する。 Further, in the above configuration, the congestion estimation unit may include an adjacent baggage extraction unit. The proximate luggage extraction unit extracts proximate luggage, which is luggage whose volume overlaps the volume of the person by a predetermined ratio or more in the space of the world coordinate system. The congestion rate calculation unit excludes the extracted proximate parcels from the congestion rate calculation target.
人物や荷物が、それらの輪郭により体積領域が求められる場合とは異なり、バウンディングボックスで囲まれる場合に、人物と荷物が近接していると、お互いの体積領域に重複が生じる。重複領域が多い荷物が混雑率の算出対象から除外されることで、混雑率が過度に高くなることを抑制可能となる。 Unlike the case where the volumetric regions of a person or a package are determined by their contours, when surrounded by a bounding box, if the person and the package are close to each other, their volumetric regions overlap each other. By excluding parcels with a large number of overlapped areas from the calculation of the congestion rate, it is possible to prevent the congestion rate from becoming excessively high.
また上記構成において、混雑推定部は、短身荷物探索部を備えてもよい。短身荷物探索部は、混雑率算出部により求められた混雑率が所定の上限閾値を超過する場合に、混雑率の算出対象となった荷物の、ワールド座標系に変換された側面視区画における高さ成分に基づいて、所定の閾値高さ以下の荷物を探索する。 Further, in the above configuration, the congestion estimation section may include a short baggage search section. When the congestion rate obtained by the congestion rate calculation section exceeds a predetermined upper limit threshold, the short baggage search section searches for the baggage for which the congestion rate is calculated in the side view section converted to the world coordinate system. Based on the height component, parcels with a height equal to or less than a predetermined threshold are searched.
上記構成によれば、立位客の両足間に移動可能な短身荷物の有無が判定可能となる。 According to the above configuration, it is possible to determine whether or not there is short luggage that can be moved between the legs of the standing passenger.
また上記構成において、混雑推定部は、所定の閾値高さ以下の荷物が探索された場合に、荷物の移動を促すアナウンスを車室内に出力させる、アナウンス制御部を備えてもよい。 Further, in the above configuration, the congestion estimation unit may include an announcement control unit that outputs an announcement prompting the movement of the baggage into the vehicle interior when the baggage having a height equal to or lower than a predetermined threshold is found.
上記構成によれば、アナウンスの出力により、混雑緩和が促される。 According to the above configuration, the output of the announcement promotes congestion relief.
また本明細書では、上述の車室内監視システムと、当該車室内監視システムと通信可能な運行スケジュール調整部を備える、車両の運行管理システムが開示される。運行スケジュール調整部は、複数の車両のそれぞれに搭載された車室内監視システムの混雑推定部と通信可能となっている。また運行スケジュール調整部は、それぞれの混雑推定部から受信した混雑率に基づいて、次に停車する予定の停留所を通過するような運行スケジュールの変更可否を判定する。 Further, in this specification, a vehicle operation management system is disclosed that includes the vehicle interior monitoring system described above and an operation schedule adjustment section that can communicate with the vehicle interior monitoring system. The operation schedule adjusting unit can communicate with the congestion estimating unit of the vehicle interior monitoring system installed in each of the plurality of vehicles. Further, the operation schedule adjustment unit determines whether or not the operation schedule can be changed so that the train will pass through the stop at which the train is scheduled to stop next, based on the congestion rate received from each congestion estimation unit.
上記構成によれば、高い混雑率の車両に対して停車予定の停留所を通過させる等の、混雑率に応じた運行が可能となる。 According to the above configuration, it is possible to operate according to the congestion rate, such as allowing a vehicle with a high congestion rate to pass through a stop scheduled to stop.
本明細書で開示される車室内監視システム及び当該システムを含む車両の運行管理システムによれば、車室内の混雑緩和の余地の有無が判定可能となる。 According to the vehicle interior monitoring system disclosed in this specification and the vehicle operation management system including the system, it is possible to determine whether or not there is room for alleviating congestion in the vehicle interior.
以下に、本発明の実施形態が図面を用いて説明される。以下で説明する形状、材料、個数、及び数値は、説明のための例示であって、車室内監視システム及び当該システムを備える車両の運行管理システムの仕様に応じて適宜変更することができる。また以下ではすべての図面において同等の要素には同一の符号が付される。 Embodiments of the present invention are described below with reference to the drawings. The shapes, materials, numbers, and numerical values described below are examples for explanation, and can be changed as appropriate according to the specifications of the vehicle interior monitoring system and the vehicle operation management system including the system. In the following, like elements are given the same reference numerals in all drawings.
<全体構成>
図1には、本実施形態に係る車室内監視システム及び車両の運行管理システムを含む、乗合車両利用システムの全体構成が例示される。また図2には、乗合車両利用システムの機能ブロックが例示される。乗合車両利用システムは、乗合車両10、センターサーバ50、及び携帯端末70を含んで構成される。乗合車両10、センターサーバ50、及び携帯端末70は、インターネット95等の通信手段を用いて互いに通信可能となっている。
<Overall composition>
FIG. 1 illustrates the overall configuration of a shared vehicle utilization system including a vehicle interior monitoring system and a vehicle operation management system according to this embodiment. Further, FIG. 2 illustrates functional blocks of the passenger vehicle utilization system. The shared vehicle utilization system includes a shared
以下に詳細に説明されるが、乗合車両10は予め規定された路線を走行し、路線に沿って設けられた停留所で停車する。乗合車両10には車室内監視システムが搭載される。図1、図2に例示されるように、車室内監視システムは天井中央カメラ18、側方カメラ19、車室内画像認識部36、及び混雑推定部37を含んで構成される。
As will be described in detail below, the
後述されるように、車室内監視システムにより、車室内の混雑率が算出される。この混雑率は、センターサーバ50を経由して携帯端末70の運行スケジュール表示部82(図2参照)に送信される。携帯端末70に混雑率が送信されることで、携帯端末70のユーザは、乗車前に乗合車両10への乗車可否を判断できる。
As will be described later, the vehicle interior monitoring system calculates the congestion rate in the vehicle interior. This congestion rate is transmitted to the operation schedule display section 82 (see FIG. 2) of the
またセンターサーバ50では、運行スケジュール調整部61が、受信した混雑率に基づいて、次に停車する予定の停留所を通過するような運行スケジュールの変更の可否を判定する。例えば運行スケジュール調整部61は、高い混雑率の乗合車両10に対して、次に停車する予定の停留所を通過させるように運行スケジュールを変更する。これにより混雑率の更なる増加が抑制される。
In the
車室内監視システムでは、乗合車両10の車室内に設けられた天井中央カメラ18により、車室内の平面視画像が撮像される。また当該システムでは、乗合車両10の車室内に設けられた側方カメラ19により車室内の側面視画像が撮像される。これらの平面視画像及び側面視画像に基づいて、人物(乗客)及び荷物の占有体積が求められる。さらに求められた人物及び荷物の占有体積の総和と、車室の容積との差異に基づいて、混雑率(体積混雑率)が求められる。
In the vehicle interior monitoring system, a
加えて、本実施形態に係る車室内監視システムでは、比較的背の低い短身荷物が探索される。そして混雑率が高い場合に、立位客の両足の間への、短身荷物の移動を促すアナウンスが車室内に出力される。このような短身荷物の移動により、それまで短身荷物が占めていた車室内領域が空きスペースとなり、混雑緩和が図られる。 In addition, the vehicle interior monitoring system according to the present embodiment searches for short luggage that is relatively short. Then, when the congestion rate is high, an announcement is output in the passenger compartment prompting the movement of short luggage between the legs of standing passengers. Due to such movement of short luggage, the space in the passenger compartment previously occupied by short luggage becomes free space, thereby reducing congestion.
<携帯端末>
携帯端末70は、乗合車両10の利用者であるユーザに所持される。携帯端末70は、例えばスマートフォンであってよく、そのハードウェア構成として、データの入出力を制御する入出力コントローラ71を備える。また携帯端末70は、演算装置として、CPU72を備え、記憶部として、ROM75、RAM76、及びストレージデバイス77を備える。ストレージデバイス77は、例えばSSD(Solid State Drive)であってよい。
<mobile terminal>
The
さらに携帯端末70は、入力部73及び表示部74を備える。例えば入力部73と表示部74が一体化されたタッチパネルが携帯端末70に設けられる。さらに携帯端末70は測位部78及び時計80を備える。測位部78は、例えばGNSS(Global Navigation Satellite System)における衛星からの測位信号を受信する受信機である。携帯端末70の各種ハードウェア部品は内部バス79に接続される。
The
記憶装置であるROM75及びストレージデバイス77の少なくとも一方にはプログラムが記憶され、このプログラムをCPU72が実行することで、携帯端末70には図2に例示されるバスアプリケーション81が構成される。バスアプリケーション81は、運行スケジュール表示部82及び混雑率表示部83を備える。
At least one of the
運行スケジュール表示部82は、乗合車両10の運行スケジュールを表示する。例えば測位部78が受信した携帯端末70の現在位置に最も近い停留所の運行スケジュールが表示される。例えば時計80から取得した現在時刻から1時間後までの運行スケジュールが表示される。また後述されるように、運行スケジュール表示部82は、混雑率の高い乗合車両10について、停留所を通過する旨のメッセージを表示する。
The operation
混雑率表示部83は、乗合車両10の混雑率を表示する。例えば運行中の全ての乗合車両10の混雑率が表示される。運行スケジュールと併せて混雑率が表示されることで、乗車予定の停留所における直近の乗合車両10の混雑率や、その次に停車する乗合車両10の混雑率をユーザが閲覧可能となり、混雑率に応じた乗合車両10の乗車可否の判断が可能となる。
The congestion
<センターサーバ>
図1を参照して、センターサーバ50は、例えば複数の乗合車両10を使ったバス運行サービスを提供する管理会社に設置される。センターサーバ50は、例えばコンピュータ(電子計算機)から構成される。図1を参照して、センターサーバ50は、そのハードウェア構成として、データの入出力を制御する入出力コントローラ51を備える。またセンターサーバ50は、CPU52、入力部53、表示部54、ROM55、RAM56、及びハードディスクドライブ57(HDD)、時計59を備える。なお、ハードディスクドライブ57の代わりに、SSD(Solid State Drive)等の記憶装置が用いられてもよい。これらの構成部品は内部バス58に接続される。
<Center server>
Referring to FIG. 1,
記憶装置であるROM55及びハードディスクドライブ57の少なくとも一方には、運行管理を行うためのプログラムが記憶される。上記プログラムがセンターサーバ50のCPU52等により実行されることで、センターサーバ50には、図2に例示されるような機能ブロックが形成される。
At least one of the
すなわちセンターサーバ50は、記憶部として、運行スケジュール記憶部65及びダイナミックマップ記憶部66を備える。またセンターサーバ50は、機能部として、運行スケジュール調整部61、運行スケジュール作成部62、運行スケジュール提供部63、及び運行ルート作成部64を備える。
That is, the
ここで、運行スケジュール調整部61、運行スケジュール作成部62、運行スケジュール提供部63、及び運行ルート作成部64、運行スケジュール記憶部65、及びダイナミックマップ記憶部66の各部と、上述した乗合車両10に搭載された車室内監視システムが、本実施形態に係る車両の運行管理システムに含まれる。
Here, each part of the operation
ダイナミックマップ記憶部66には、地図データであるダイナミックマップデータが記憶される。ダイナミックマップは、3次元地図であって、例えば車道の位置及び形状(3次元形状)が記憶される。車道の3次元形状とは、例えば勾配や幅員等が含まれる。また車道に引かれた車線、横断歩道、停止線等の位置もダイナミックマップに記憶される。加えて、道路周辺の停留所、建物、信号機等の構造物の位置及び形状(3次元形状)もダイナミックマップに記憶される。さらに、駐車場の位置及び形状もダイナミックマップに記憶される。
Dynamic map data, which is map data, is stored in the dynamic
例えばダイナミックマップでは、緯度及び経度を含む地理座標系が用いられる。乗合車両10が自動運転走行する際には、運行ルート作成部64がダイナミックマップ記憶部66からダイナミックマップデータを抽出して、走行路線及び停留所位置を含む運行地図データを作成する。
For example, dynamic maps use a geographic coordinate system that includes latitude and longitude. When the shared
運行スケジュール作成部62は、乗合車両10の運行スケジュール(言い換えると運行ダイヤ)を作成する。例えば運行ルート作成部64から運行地図データを受信すると、運行スケジュール作成部62は、走行路線、乗合車両10の定格速度、及び停留所での標準停車時間等に基づいて、各停留所の到着予定時刻及び出発予定時刻を含む運行スケジュールを作成する。作成された運行スケジュールは運行スケジュール提供部63を介して乗合車両10に送信される。
The operation
運行スケジュール調整部61は、複数の乗合車両10のそれぞれに搭載された車室内監視システムと通信可能となっている。運行スケジュール調整部61は、これらの車室内監視システムの混雑推定部37から受信した混雑率に基づいて、それぞれの乗合車両10が次に停車する予定の停留所を通過するような、運行スケジュールの変更の可否を判定する。
The operation
例えば運行スケジュール調整部61は、受信した混雑率A%が上限閾値B%を超過する場合に、当該混雑率A%を送信した乗合車両10に対して、次に停車予定の停留所を通過するように、運行スケジュールを変更する。変更後の運行スケジュールは運行スケジュール提供部63を介して、変更対象の乗合車両10に送信される。
For example, when the received congestion rate A% exceeds the upper limit threshold B%, the operation
<乗合車両>
図4-図6には、乗合車両10の構造を説明する図が例示される。なお、図4-図6において、車体前後方向が記号FRで表される軸で示され、車幅方向が記号RW(Right Width)で表される軸で示される。また、車高方向が記号UPで表される軸で示される。
<Shared vehicle>
4 to 6 illustrate diagrams for explaining the structure of the
図4には、乗合車両10の前方及び左側面の外観を表す斜視図が例示される。乗合車両10は乗合バスとして利用され、左側面には乗降口となる一対のドア41,41が設けられる。
FIG. 4 illustrates a perspective view showing the external appearance of the front and left sides of the
また、車両前方には車外表示器41Aが設けられる。車外表示器41Aはいわゆるデジタルサイネージとも呼ばれ、液晶ディスプレイまたはLEDディスプレイから構成される。後述されるように、乗合車両10の混雑率A%が所定の上限閾値B%を超過するときには、その混雑率A%が車外表示器41Aに表示される。また停車予定であった停留所を通過する旨のメッセージが車外表示器41Aに表示される。
In addition, an
図5には乗合車両10の車室40内の様子が例示される。車室40内には、その壁面に沿って、乗客用の座席42が複数設けられる。また立位客の支持のため、天井には複数の吊り手44が設けられる。また車室40の側壁には手摺46が設けられる。
FIG. 5 illustrates the inside of the
手摺46は車室の側壁から上方に延びて天井面を伝うように設けられる。この手摺46の天井部分の車幅方向中央部分に基準マーク48が設けられる。基準マーク48は後述されるワールド座標系における3次元座標系の原点位置を示すものである。
A
基準マーク48は、天井中央カメラ18及び側方カメラ19(図6参照)による撮像画像中の当該マークを、車室内画像認識部36(図2参照)が認識可能な寸法となるように形成される。例えば、天井中央カメラ18及び側方カメラ19のうち低い方の撮像分解能でも撮像可能な寸法となるように、基準マーク48の寸法が定められる。
The
ドア41,41の上方には車内表示器41Bが設けられる。車内表示器41Bは、車外表示器41Aと同様に、液晶ディスプレイまたはLEDディスプレイから構成される。後述されるように、混雑時には立位客の両足の間への短身荷物の移動を促すメッセージ文書が車内表示器41Bに表示される。さらに、車室40の天井には車内スピーカ45が設けられる。後述されるように、混雑時には立位客の両足の間への短身荷物の移動を促すメッセージ音声が車内スピーカ45から出力される。
Above the
また、車室40の天井の中央部には、天井中央カメラ18(第一撮像器)が設けられる。例えば車室40の車幅方向中央かつ車両前後方向中央に、天井中央カメラ18が設けられる。例えば天井中央カメラ18は、CMOSセンサやCCDセンサ等のイメージセンサを備える。
A central ceiling camera 18 (first image pickup device) is provided in the central portion of the ceiling of the
例えば天井中央カメラ18は、いわゆる360°カメラであってよく、車室40の乗客用空間全体を撮像可能となっている。例えば天井中央カメラ18は、車室40の床43全体を視野に含む。
For example, the
天井中央カメラ18は、車室40の平面視画像を撮像する。例えば後述される図11のような、真上から車室40を見下ろしたアングルの平面視画像が天井中央カメラ18によって撮像される。後述されるように、この平面視画像から人物(乗客)及び荷物の画像領域が認識される。さらに認識された人物及び荷物の平面視区画が求められる。
The
図6を参照して、車室40には天井中央カメラ18の他に側方カメラ19(第二撮像器)が設けられる。側方カメラ19は、車室40の天井の周縁部または車室40の側面から車室40内の側面視画像を撮像する。例えば側方カメラ19は、CMOSセンサやCCDセンサ等のイメージセンサを備える。
Referring to FIG. 6 , a
なお以下では側面視とは、車幅方向(RW軸方向)に沿った視点には限定されない。要するに車室40内を略水平方向に見る態様が側面視として捉えられる。幾何学的には、UP軸、RW軸、FR軸の3軸を用いて、UP軸との成す角よりも、RW軸及びFR軸との成す角が小さくなるような、つまりRW軸またはFR軸側に傾いているような視線軸が広く側面視として捉えられる。したがって、側方カメラ19は、その光軸がFR軸及びRW軸に対して傾斜しているものの、その傾斜角がUP軸に対する傾斜角より小さいため、側方カメラ19による撮像画像は側面視画像として扱われる。
Note that the side view hereinafter is not limited to the viewpoint along the vehicle width direction (RW axis direction). In short, a mode in which the inside of the
図6の例では、側方カメラ19は、車室40の前方に設けられ、側面視画像として正面視画像を撮像する。例えば後述される図9のような側面視画像が側方カメラ19によって撮像される。後述されるように、この側面視画像から人物(乗客)及び荷物の画像領域が認識される。さらに認識された人物及び荷物の側面視区画が求められる。
In the example of FIG. 6, the
<乗合車両の自動運転制御機構>
図1、図2を参照して、乗合車両10は、例えば自動運転機能を備える自動運転車両である。例えば米国の自動車技術会(SAE)による基準に基づいて、乗合車両10は、レベル0(運転者がすべての操作を行う)からレベル5(完全運転自動化)までの運行が可能となっている。例えば乗合車両10の運行時には、自動運転のレベルは例えばレベル4またはレベル5に設定される。
<Automatic driving control mechanism for shared vehicles>
Referring to FIGS. 1 and 2,
乗合車両10は、予め規定された運行経路を自動運転で走行しながら、停留所にて停車して乗客が乗り降りする乗り合いバスとして利用される。乗合車両10は、回転電機17(モータ)を駆動源とし、図示しないバッテリを電源とする電動車両である。また乗合車両10は、走行制御機構として、操舵機構14B、ブレーキ機構14A、及び回転電機17の出力を制御するインバータ14Cを備える。
The shared
さらに、乗合車両10は、自車位置の取得や周辺状況の把握のための機構として、車外カメラ11A、ライダーユニット11B、近接センサ12、測位部13、及び制御部20を備える。
Furthermore, the
例えば乗合車両10には、その前面、後面、及び両側面に、センサユニット11が設けられる。センサユニット11は、車外カメラ11A及びライダーユニット11Bを含んで構成される。
For example, a
ライダーユニット11Bは、自動運転走行用のセンサユニットであり、自車周辺の物体と自車との距離を測定可能な測距部である。ライダーユニット11Bでは、ライダー(LiDAR、Light Detection and Ranging)、すなわちレーザー光を用いて周辺物体との距離を測定する技術が用いられる。ライダーユニット11Bは、赤外線のレーザー光を車外に向かって照射するエミッタと、その反射光を受光するレシーバ、ならびにエミッタ及びレシーバを回転させるモータを含んで構成される。
The
例えば、エミッタは車外に向かって赤外線のレーザー光を照射する。エミッタから照射されたレーザー光が乗合車両10の周辺の物体に当たると、その反射光がレシーバに受信される。エミッタの照射からレシーバの受光までに係る時間に基づいて、反射点とレシーバとの距離が求められる。またエミッタ及びレシーバがモータにより回動させられることで、水平方向及び鉛直方向にレーザー光線が走査され、これにより、乗合車両10の周辺環境についての3次元点群データを得ることが出来る。
For example, the emitter emits infrared laser light toward the outside of the vehicle. When the laser light emitted from the emitter strikes an object around the
車外カメラ11Aは、ライダーユニット11Bと同様の視野を撮像する。車外カメラ11Aは、例えばCMOSセンサやCCDセンサ等のイメージセンサを備える。近接センサ12は、例えば赤外線センサであって、例えば平面視で乗合車両10の四隅に設けられる。例えば乗合車両10が乗車地に到着する際に、近接センサ12が歩道の縁石等の突出物を検出する。この検出により、乗合車両10を縁石に近接させて停車させる正着制御が可能となる。測位部13は人工衛星によって測位を行うシステムであって、例えば携帯端末と同様のGNSSが用いられる。
The
制御部20は、例えば乗合車両10の電子コントロールユニット(ECU)であってよく、コンピュータ(電子計算機)から構成される。制御部20は、そのハードウェア構成として、データの入出力を制御する入出力コントローラ21を備える。また制御部20は、演算装置として、CPU22、GPU23(Graphics Processing Unit)、及びDLA24(Deep Learning Accelerators)を備える。また制御部20は、記憶部として、ROM25、RAM26、及びハードディスクドライブ27(HDD)を備える。なお、ハードディスクドライブ27の代わりに、SSD(Solid State Drive)等の記憶装置が用いられてもよい。これらの構成部品は内部バス28に接続される。
The
記憶装置であるROM25及びハードディスクドライブ27の少なくとも一方には、乗合車両10の自動運転制御を行うためのプログラムが記憶される。上記プログラムが制御部20のCPU22等により実行されることで、制御部20には、図2に例示されるような機能ブロックが形成される。
At least one of the
すなわち制御部20は、自動運転制御を行うための機能ブロックとして、スキャンデータ解析部30、自己位置推定部31、及び自律走行制御部33を備える。また制御部20は、記憶部として、ダイナミックマップ記憶部34及び運行スケジュール記憶部35を備える。
That is, the
スキャンデータ解析部30は、車外カメラ11Aが撮像した撮像画像を取得する。スキャンデータ解析部30は、取得した撮像画像に対して、既知のディープラーニング手法を利用した画像認識を行う。この画像認識により、撮像画像内の物体検出とその属性(車両、通行人、構造物等)認識が行われる。
The scan
またスキャンデータ解析部30は、ライダーユニット11Bから3次元点群データを取得する。さらにスキャンデータ解析部30は、画像認識済みの撮像画像と3次元点群データの座標を重ね合わせた周辺データを作成する。周辺データにより、どのような属性の物体が、乗合車両10からどれだけ離隔しているかを検出することが出来る。この周辺データは、自律走行制御部33に送られる。
The scan
自己位置推定部31は、測位部13から自己位置情報(緯度、経度)を取得する。例えば自己位置推定部31は人工衛星から自己位置情報を取得する。このようにして得られた自己位置情報(自車位置情報)は、自律走行制御部33に送られる。
The self-
ダイナミックマップ記憶部34には、センターサーバ50の運行ルート作成部64が作成した運行経路地図データが記憶される。この運行経路地図データにはダイナミックマップデータが含まれる。また運行スケジュール記憶部35には、センターサーバ50の運行スケジュール提供部63が作成した運行スケジュールが記憶される。
The dynamic
自律走行制御部33は、ダイナミックマップ記憶部34に記憶された運行経路地図データ、自己位置推定部31から送信された自己位置情報(自車位置情報)、及び、スキャンデータ解析部30から送信された周辺データに基づいて、乗合車両10の走行制御を行う。また停留所に到着すると、乗合車両10は運行スケジュールに沿った時間に亘って停車する。
The autonomous
<車室内監視システム>
乗合車両10には車室内監視システムが搭載される。当該システムのハードウェア構成として、天井中央カメラ18(第一撮像器)、側方カメラ19(第二撮像器)、及び制御部20が含まれる。制御部20の記憶装置であるROM25及びハードディスクドライブ27の少なくとも一方には、車室内監視や混雑率推定を行うためのプログラムが記憶される。上記プログラムが制御部20のCPU22等により実行されることで、制御部20には、図2に例示されるような機能ブロックが形成される。すなわち制御部20は、車室内監視システムの一部として、車室内画像認識部36及び混雑推定部37を備える。
<In-vehicle monitoring system>
The
車室内画像認識部36は、天井中央カメラ18が撮像した平面視画像及び側方カメラ19が撮像した側面視画像から、人物(乗客)及び荷物の画像領域を認識する。例えば車室内画像認識部36には、画像認識アルゴリズムとして、教師有り学習を用いたSSD(Single Shot Multibox Detector)が実装される。
The vehicle interior
SSDアルゴリズムは既知の技術であるため、ここでは簡潔に説明される。SSDアルゴリズムでは、撮像画像内の位置推定及びクラス推定が行われる。つまり、画像内のどの位置に物体がいるのか、及びその物体の属性(クラス)は何か、という2種類の推定が同時並行で、つまり、ニューラルネットワークを用いた一回の演算で(Single Shotで)行われる。 Since the SSD algorithm is a known technology, it is briefly described here. The SSD algorithm performs position estimation and class estimation within the captured image. In other words, two types of estimation, ie, where the object is located in the image and what the attribute (class) of the object is, can be made in parallel, that is, in a single operation using a neural network (Single Shot ) is done.
SSDアルゴリズムでは、人物及び荷物の検出に当たり、その人物及び荷物と外部との境界線を抽出する代わりに、図10に例示されるような矩形領域の「バウンディングボックス」により、人物及び荷物の境界が画定される。例えばSSDアルゴリズムでは、位置推定に当たり、画像上に大きさや形の異なる複数の(例えば1万個弱の)デフォルトボックスと呼ばれる矩形枠が当て嵌められ、そのいずれの枠が物体を過不足なく含められるかが演算される。さらに各バウンディングボックスには、当該ボックスに捉えられた物体の属性(クラス)が表示される。 In the SSD algorithm, instead of extracting the boundary line between the person and the package and the outside when detecting the person and the package, the boundary of the person and the package is defined by a rectangular area "bounding box" as illustrated in FIG. defined. For example, in the SSD algorithm, when estimating the position, a plurality of (for example, less than 10,000) rectangular frames with different sizes and shapes called default boxes are fitted on the image, and any of these frames can contain the object without excess or deficiency. is calculated. Furthermore, each bounding box displays the attribute (class) of the object captured in that box.
例えば図9の側面視画像に対してSSDアルゴリズムによる画像認識処理を行った、図10の例によれば、人物100A~100Cに対してクラス「human」のバウンディングボックス104A~104C(側面視区画)が設定される。さらに荷物102A~102Cに対してクラス「baggage」のバウンディングボックス106A~106C(側面視区画)が設定される。
For example, according to the example of FIG. 10, in which image recognition processing is performed by the SSD algorithm on the side view image of FIG. is set. Further, bounding
また例えば図11の平面視画像に対してSSDアルゴリズムによる画像認識処理を行った、図12の例によれば、人物100A~100Cに対してクラス「human」のバウンディングボックス108A~108C(平面視区画)が設定される。さらに荷物102A~102Cに対してクラス「baggage」のバウンディングボックス110A~110C(平面視区画)が設定される。
Further, for example, according to the example of FIG. 12, in which image recognition processing is performed by the SSD algorithm on the monoscopic image of FIG. 11, bounding
各バウンディングボックスには位置パラメータが与えられる。すなわち、ボックスの中心座標C[Cx,Cy]、ボックス幅W、及びボックス高さHがバウンディングボックスの位置パラメータとして与えられる。なお、この位置パラメータは、画像平面上の座標系、つまりカメラ座標系上の値が用いられる。 Each bounding box is given a position parameter. That is, the box center coordinates C[Cx, Cy], the box width W, and the box height H are given as the position parameters of the bounding box. For this position parameter, a coordinate system on the image plane, that is, a value on the camera coordinate system is used.
また例えばSSDアルゴリズムの教師データは、人物画像を入力データとし、クラス「人物(Human)」及び人物を囲むバウンディングボックスの位置パラメータを出力データとする一対の教師データを複数備える。さらに教師データは、荷物画像を入力データとし、クラス「荷物(Baggage)」及び荷物を囲むバウンディングボックスの位置パラメータを出力データとする一対の教師データを複数備える。 Also, for example, the teacher data for the SSD algorithm includes a plurality of pairs of teacher data, each of which has a person image as input data and a class "Human" and a position parameter of a bounding box surrounding the person as output data. Further, the teacher data includes a plurality of pairs of teacher data, each of which has a package image as input data and a class "baggage" and a position parameter of a bounding box surrounding the package as output data.
なお、車室内画像認識部36は、平面視画像の画像認識用のSSDアルゴリズムが実装されたニューラルネットワークと、側面視画像の画像認識用のSSDアルゴリズムが実装されたニューラルネットワークを備えてもよい。この場合、前者の教師データとして、平面視、つまり上から見たときの人物及び荷物の画像が入力データとして用いられ、後者の教師データとして、側面視、つまり横から見たときの人物及び荷物の画像が入力データとして用いられる。
The vehicle interior
車室内画像認識部36は、人物及び荷物を囲む矩形領域であるバウンディングボックスを、人物及び荷物の平面視区画及び側面視区画に設定する。設定されたバウンディングボックスは、混雑率の推定に用いられる。
The vehicle interior
図2に戻り、混雑推定部37は、車室内画像認識部36により認識された人物及び荷物に基づいて、車室40の混雑率を求める。混雑推定部37は、図3に例示されるような複数のサブユニットを備える。すなわち混雑推定部37は、歪曲/傾き補正部37A、奥行情報取得部37B、座標変換部37C、ボックス組合せ抽出部37D、体積算出部37E、近接荷物抽出部37F、混雑率算出部37G、短身荷物探索部37H、及びアナウンス制御部37Iを備える。
Returning to FIG. 2 , the
歪曲/傾き補正部37Aは、いわゆるカメラキャリブレーションとして歪曲補正及び傾き補正を行う。例えば図11には、天井中央カメラ18により撮像された平面視画像が例示される。天井中央カメラ18のレンズ特性等に起因して、この平面視画像には、樽状の歪みが生じる。この歪みは、天井中央カメラ18のレンズ特性に基づくアフィン補正等の既知の歪曲補正処理により解消される。
The distortion/
さらに歪曲/傾き補正部37Aは、傾き補正を行う。図13に例示されるように、天井中央カメラ18による撮像領域120及び側方カメラ19による撮像領域122は、天井中央カメラ18であれば真上からのアングルから傾き、側方カメラ19であれば真横からのアングルとは異なる。
Further, the distortion/
例えば車室40の床面に真円が描かれていた場合に、天井中央カメラ18が図13のようなアングルで撮像領域120を撮像した場合、床面の真円は撮像領域120では楕円として表示される。この楕円を真円に変形するような変換行列を用いることで、平面視画像に含まれる傾きが補正される。
For example, when a perfect circle is drawn on the floor of the
同様にして、車室床面に垂直に立てた壁に真円が描かれていた場合に、側方カメラ19が図13のようなアングルで撮像領域122を撮像した場合、壁の真円は撮像領域122では楕円として表示される。この楕円を真円に変形するような変換行列を用いることで、側面視画像に含まれる傾きが補正される。
Similarly, when a perfect circle is drawn on a wall erected perpendicularly to the floor of the passenger compartment, when the
歪曲/傾き補正部37Aは、天井中央カメラ18が撮像した平面視画像及び側方カメラ19が撮像した側面視画像に対して歪曲補正及び傾き補正を行う。補正後の平面視画像及び側面視画像は車室内画像認識部36(図2参照)に送信され、上述したSSDアルゴリズムに基づく人物及び荷物の画像認識が実行される。
The distortion/
奥行情報取得部37Bは、車室内画像認識部36により認識された、各バウンディングボックスの奥行情報を取得する。例えばこの奥行情報とは、撮像画像平面に直交する軸に沿った位置情報を指す。より具体的には、平面視画像から抽出されたバウンディングボックス(平面視区画)については、天井中央カメラ18(第一撮像器)の光軸に沿った、当該カメラからの離隔距離が奥行情報に相当する。同様にして、側面視画像から抽出されたバウンディングボックス(側面視区画)については、側方カメラ19(第二撮像器)の光軸に沿った、当該カメラからの離隔距離が奥行情報に相当する。
The depth
このような奥行情報の取得は、例えば既知のステレオカメラ法が用いられる。例えば天井中央カメラ18と側方カメラ19とで車室40内の同一点を撮像した場合に、三角測量の原理を用いて、天井中央カメラ18及び側方カメラ19から上記点までの距離を求めることが出来る。
Acquisition of such depth information uses, for example, a known stereo camera method. For example, when the
奥行情報取得部37Bは、このようなステレオカメラ法を用いて、バウンディングボックス内の任意の点の奥行情報を取得する。例えば奥行情報取得部37Bは、カメラ座標系の平面座標である、バウンディングボックスの中心点C[Cx,Cy]における奥行情報を取得して、これをバウンディングボックス全体の奥行情報とする。この奥行情報と、上述したバウンディングボックスの位置パラメータにより、各バウンディングボックスのカメラ座標系における3次元座標が得られる。
The depth
座標変換部37Cは、各バウンディングボックスのカメラ座標系における3次元座標を、車室内空間の座標系であるワールド座標系の3次元座標に変換する。
The coordinate
現実空間をカメラで撮像するという行為を、座標系の変換との観点から捉えると、ワールド座標系における3次元空間が、カメラ座標系における2次元平面に変換(転写)されたと考えることが出来る。この変換時に捨象された奥行情報は、上述の通り奥行情報取得部37Bにより取得され、その結果カメラ座標系における3次元座標が得られる。
From the perspective of coordinate system transformation, the action of capturing an image of a real space with a camera can be considered as transforming (transferring) a three-dimensional space in the world coordinate system to a two-dimensional plane in the camera coordinate system. The depth information abstracted during this conversion is acquired by the depth
座標変換部37Cでは、カメラの撮像時とは逆の変換を行うことで、バウンディングボックスの、カメラ座標系における3次元座標が、ワールド座標系の3次元座標に変換される。ここで、カメラ座標系における3次元座標とは、平面視区画及び側面視区画の平面座標に奥行情報を加えたものを指す。またこの座標系の変換は、情報処理工学分野等における既存の座標変換理論を用いて実行可能である。
The coordinate
例えば図9の側面視画像を参照して、この画像では、側方カメラ19から相対的に近い位置にいる人物100Aは、当該カメラから相対的に遠い位置にいる人物100Cよりも大きくなる。このような遠近に基づく像の大小に基づいて、後述する体積混雑率を求めると、各人物の正確な体積から乖離した混雑率が算出されるおそれがある。そこで座標変換部37Cにおいて、カメラ座標系をワールド座標系に変換することで、遠近に起因した像の大小が解消される。
For example, referring to the side view image of FIG. 9, in this image, a
車室40内の空間座標系であるワールド座標系では、例えば上述した基準マーク48(図9参照)が原点として設定される。さらに図14に例示されるように、側面視画像におけるバウンディングボックス126では、その中心点Csがワールド座標系における座標[CFR,CRW,CUP]で示される。さらに幅WsはRW軸上の長さとして示され、さらに高さHsはUP軸上の長さとして示される。
In the world coordinate system, which is the spatial coordinate system in the
また平面視画像におけるバウンディングボックス124では、その中心点Cpがワールド座標系における座標[CFR,CRW,CUP]で示され、幅WpはFR軸上の長さとして示され、高さHpはRW軸上の長さとして示される。以降の演算には、ワールド座標系に変換後のバウンディングボックスの位置パラメータが用いられる。
In the
ボックス組合せ抽出部37Dは、人物及び荷物の体積を求めるための、平面視画像におけるバウンディングボックスと、側面視画像におけるバウンディングボックスとのペアを抽出する。
The box
まずボックス組合せ抽出部37Dは、複数のバウンディングボックスのうち、クラス「人物」のバウンディングボックスのみを抽出する。さらにボックス組合せ抽出部37Dは、クラス抽出されたバウンディングボックスの位置パラメータを利用して、バウンディングボックスのペアを抽出する。
First, the box
例えば図14を参照して、ボックス組合せ抽出部37Dは、平面視画像のバウンディングボックス124の中心点CpのFR軸座標CFRを中心とした、CFR-1/2WPからCFR+1/2WPまでの範囲を設定する。さらにボックス組合せ抽出部37Dは、中心点CpのRW軸座標CRWを中心とした、CRW-1/2HPからCRW+1/2HPまでの範囲を設定する。次にボックス組合せ抽出部37Dは、これら2つの範囲条件を満たす中心点Csが含まれる、側面視画像内のバウンディングボックス126を抽出し、これらのバウンディングボックス124,126をペアとして抽出する。
For example, referring to FIG. 14, the box
クラス「人物」のバウンディングボックスの対応付け(ペアリング)が完了すると、ボックス組合せ抽出部37Dは、クラス「荷物」のバウンディングボックスを抽出して、上述の人物と同様の対応付け(ペアリング)を実行する。
When the matching (pairing) of the bounding boxes of the class "person" is completed, the box
体積算出部37Eは、ボックス組合せ抽出部37Dによりペアとなった、平面視画像のバウンディングボックス(平面視区画)と、側面視画像のバウンディングボックス(側面視区画)から、人物及び荷物の体積を求める。なお、体積算出に当たり、ワールド座標系に変換後のバウンディングボックスが用いられる。
The
ここで、SSDアルゴリズムによるバウンディングボックスの抽出精度や、天井中央カメラ18及び側方カメラ19の倍率の差等に起因して、図14に例示されるように、平面視のバウンディングボックス124と側面視のバウンディングボックス126とで寸法が相違する場合がある。
Here, due to the accuracy of bounding box extraction by the SSD algorithm, the difference in magnification between the
そこで体積算出部37Eは、2種類の異なる方法で体積を求め、さらに平均化することでボックス体積を求めてもよい。例えば体積算出部37Eは、平面視のバウンディングボックス124における幅Wpと高さHp、及び側面視のバウンディングボックス126における高さHsをそれぞれ掛けた第1体積V1を求める。次に体積算出部37Eは、側面視のバウンディングボックス126における幅Wsと高さHs、及び平面視のバウンディングボックス124における幅Wpをそれぞれ掛けた第2体積V2を求める。最後に体積算出部37Eは第1体積V1と第2体積V2の和を2で割る。これによりボックス体積Vbが得られる。さらにボックス体積Vbの位置パラメータとして、中心点Cv[CV_FR,CV_RW,CV_UP]と、長さLFR、幅WRW、高さHUPが求められる。
Therefore, the
近接荷物抽出部37Fは、人物に近接した荷物を、体積混雑率の算出対象から除外する。例えば近接荷物抽出部37Fは、ワールド座標系の空間内で、人物の体積に所定割合(例えば30%)以上体積が重複する荷物を抽出する。抽出された荷物(近接荷物)は、混雑率算出部37Gにより、体積混雑率の算出対象から除外される。
The proximity
例えばSSDアルゴリズムによる画像認識では、バウンディングボックスに応じた位置推定が行われ、人物及び荷物に加えて周辺の空間もバウンディングボックスに取り込まれることから、このような体積の重複が起こり得る。このような体積の重複を許容して体積混雑率を算出すると、体積混雑率が過度に高くなるおそれがある。このため、一般的に人物よりも体積の小さい荷物が、体積混雑率の算出対象から除外される。 For example, in image recognition using the SSD algorithm, position estimation is performed according to the bounding box, and the surrounding space is also captured in the bounding box in addition to the person and package, so such volume overlap can occur. If the volumetric congestion rate is calculated while allowing such volume overlap, the volumetric congestion rate may become excessively high. For this reason, luggage that is generally smaller in volume than a person is excluded from the calculation target of the volumetric congestion rate.
また、後述される、立位客の両足の間への短身荷物の移動を促すに際して、既に両足の間に移動されている短身荷物は、十分に人物と近接していることから、近接荷物の抽出プロセスを経て、体積混雑率の算出対象から除外される。後述されるように、体積混雑率の算出対象から、立位客の両足の間への移動対象となる短身荷物が抽出されるが、既に両足の間に移動されている短身荷物は、近接荷物の抽出プロセスの際に、予め抽出対象から除外される。 In addition, when prompting the movement of the short baggage between the legs of the standing passenger, which will be described later, the short baggage that has already been moved between the legs is sufficiently close to the person. Through the baggage extraction process, the baggage is excluded from the volume congestion rate calculation target. As will be described later, the short baggage to be moved between the legs of the standing customer is extracted from the calculation target of the volumetric congestion rate. In the process of extracting adjacent packages, they are excluded from extraction targets in advance.
混雑率算出部37Gは、体積算出部37Eによって算出され、また近接荷物であることを理由にした除外を免れた、ボックス体積の総和を求める。さらに混雑率算出部37Gは、ボックス体積の総和ΣVbと車室40の容積Vcとの差異に基づいて、体積混雑率A[%]を求める。例えば体積混雑率Aは、(ΣVb/Vc)×100から求められる。
The congestion
短身荷物探索部37Hは、体積混雑率Aが上限閾値B[%]を超過する場合に、短身荷物を探索する。上限閾値Bは、例えば80%以上100%以下の値に設定される。短身荷物の探索には、側面視画像のバウンディングボックスが用いられる。具体的には、クラス「荷物」が与えられた、側面視画像中の(ワールド座標系に変換された)バウンディングボックスの高さ成分Hs(図14参照)が参照される。短身荷物探索部37Hは、この高さ成分Hsが所定の閾値高さHth以下である荷物(短身荷物)を抽出する。例えば閾値高さHthは、50cmに設定される。
The short
アナウンス制御部37Iは、体積混雑率Aが上限閾値B[%]を超過し、かつ、短身荷物が抽出された際に、立位客の両足の間に短身荷物を移動することを促すメッセージを車室内に出力させる。例えば車内スピーカ45(図5参照)から音声メッセージが出力され、車内表示器41Bからメッセージテキストが表示される。
When the volumetric congestion rate A exceeds the upper limit threshold value B [%] and short luggage is extracted, the announcement control unit 37I prompts the standing customer to move the short luggage between their legs. Output a message inside the vehicle. For example, a voice message is output from the in-vehicle speaker 45 (see FIG. 5), and the message text is displayed from the in-
<混雑率推定フロー>
図7、図8には、本実施形態に係る車室内監視システムにより実行される、混雑率推定フローが例示される。混雑推定部37の歪曲/傾き補正部37A(図3参照)は、側方カメラ19から車室40の側面視画像(図9参照)を取得する(S10)。次に混雑推定部37の歪曲/傾き補正部37Aは、上述した歪曲補正処理及び傾き補正処理を側面視画像に対して実行する(S11)。補正後の側面視画像が車室内画像認識部36に送信される。
<Congestion rate estimation flow>
7 and 8 illustrate congestion rate estimation flows executed by the vehicle interior monitoring system according to the present embodiment. The distortion/
車室内画像認識部36は、補正後の側面視画像内の人物及び荷物を囲むバウンディングボックス(側面視区画)を、上述のSSDアルゴリズムを用いて認識する(S12)。さらに奥行情報取得部37Bは、上述のステレオカメラ法を用いて、各バウンディングボックスの奥行情報を取得する(S13)。
The vehicle interior
例えば上述したように、平面視画像中のバウンディングボックスの中心点について、天井中央カメラ18からの離隔距離が奥行情報として得られる。この離隔距離はバウンディングボックスの全ての座標点における奥行情報として適用される。
For example, as described above, the separation distance from the
さらに座標変換部37Cは、バウンディングボックスの中心点及び4頂点の、カメラ座標系における3次元座標(画像平面座標+奥行情報)を、上述した変換処理により、車室内の空間座標系であるワールド座標系における3次元座標に変換する(S14)。
Furthermore, the coordinate
次に、混雑推定部37は、天井中央カメラ18から、平面視画像(図11参照)を取得する(S15)。さらに当該画像に対して、車室内画像認識部36及び混雑推定部37は、側面視画像と同様の画像処理を実行する。すなわち、歪曲/角度補正(S16)、人物及び荷物を囲むバウンディングボックス(平面視区画)の画像認識(S17)、バウンディングボックスの奥行情報取得(S18)、及び、カメラ座標系からワールド座標系への変換(S19)といった各種処理が、平面視画像に対して実行される。
Next, the
さらにボックス組合せ抽出部37Dは、上述したように、ワールド座標に変換後のバウンディングボックスの位置パラメータに基づいて、側面視のバウンディングボックスと平面視のバウンディングボックスとのペアを求める(S20)。
Furthermore, as described above, the box
次に体積算出部37Eは、ペアとなった側面視のバウンディングボックスと平面視のバウンディングボックスの、ワールド座標系上の位置パラメータを用いて、上述したようにボックス体積を求める(S21)。体積算出部37Eは、ボックス組合せ抽出部37Dにより抽出された人物及び荷物の全てのペアに対してボックス体積Vbを求める。
Next, the
さらに近接荷物抽出部37Fは、上述したように、人物と所定割合でボックス体積Vbが重複する荷物を抽出し、当該荷物(近接荷物)を混雑率算定対象から除外する(S22)。さらに混雑率算出部37Gは、算定対象となったボックス体積Vbの総和ΣVbを求める(S23)。さらに混雑率算出部37Gは、車室容積Vcに対する、ボックス体積Vbの総和ΣVbの割合である、体積混雑率Aを求める(S24)。
Furthermore, as described above, the close
短身荷物探索部37Hは、ステップS24で求められた体積混雑率Aが上限閾値Bを超過しているか否かを判定する(S25)。体積混雑率Aが上限閾値B以下である場合には、体積混雑率Aをセンターサーバ50(図2参照)の運行スケジュール調整部61に送信する(S29)。さらにアナウンス制御部37Iは、体積混雑率Aを、車内表示器41Bに表示させる(S30)。
The short
一方、ステップS25にて体積混雑率Aが上限閾値Bを超過している場合、短身荷物探索部37Hは、図10を参照して、体積混雑率Aの算出対象となった荷物の側面視画像のバウンディングボックス106A~106Cから、(ワールド座標系に変換後の)位置パラメータを参照して、高さHsを抽出する。そして短身荷物探索部37Hは、高さHsが、所定の閾値高さHth以下である短身荷物があるか否かを判定する(S26)。
On the other hand, if the volumetric congestion rate A exceeds the upper limit threshold value B in step S25, the short
抽出された高さHsが、いずれも所定の閾値高さHthを超過する場合、短身荷物探索部37Hは、ステップS24にて求められた体積混雑率Aを、センターサーバ50(図2参照)の運行スケジュール調整部61に送信する(S29)。
If all of the extracted heights Hs exceed the predetermined threshold height Hth, the short
一方、ステップS26にて、高さHsが、所定の閾値高さHth以下である短身荷物が抽出されると、アナウンス制御部37Iは、抽出された短身荷物の、立位客の両足の間への移動を促すメッセージを、車内表示器41B(図5参照)及び車内スピーカ45から出力させる(S27)。さらに所定時間待機後(S28)、フローはステップS10まで戻り、アナウンス後の側面視画像及び平面視画像に基づいた体積混雑率が算出される。
On the other hand, in step S26, when the short baggage whose height Hs is equal to or less than the predetermined threshold height Hth is extracted, the announcement control unit 37I controls the height of the standing customer's feet of the extracted short baggage. A message urging the user to move between is output from the in-
このように、本実施形態に係る車室内監視システムでは、体積混雑率Aが上限閾値Bを超過する場合に、短身荷物が探索されるとともに当該荷物の、立位客の両足の間への移動が促される。これにより、移動前に短身荷物が占めていた領域が空きスペースとなって、混雑緩和が図られる。 As described above, in the vehicle interior monitoring system according to the present embodiment, when the volumetric congestion rate A exceeds the upper limit threshold value B, short luggage is searched for and the luggage is placed between the legs of the standing passenger. encouraged to move. As a result, the area occupied by the short baggage before the movement becomes an empty space, and congestion can be alleviated.
<運行調整フロー>
図15には、混雑推定部37(図2参照)から体積混雑率Aを受信したときの、センターサーバ50の運行スケジュール調整部61による、運行調整フローが例示される。なお、各ステップにはその実行主体としてセンターサーバ50を示す符号(S)が付される。
<Operation adjustment flow>
FIG. 15 illustrates an operation adjustment flow by the operation
運行スケジュール調整部61は、混雑推定部37の混雑率算出部37Gから体積混雑率Aを取得する(S30)。次に運行スケジュール調整部61は、取得した体積混雑率Aが、所定の上限閾値Bを超過するか否かを判定する(S32)。この上限閾値Bは、図8のステップS25で用いられた上限閾値Bと同一の値であってよい。
The operation
体積混雑率A≦上限閾値Bである場合、運行スケジュール調整部61は、既に設定された運行スケジュールをそのまま維持する。さらに運行スケジュール調整部61は、体積混雑率Aを携帯端末70のバスアプリケーション81に送信する(S34)。
When the volumetric congestion rate A≦the upper limit threshold B, the operation
一方、ステップS32にて、体積混雑率A>上限閾値Bである場合、運行スケジュール調整部61は、この体積混雑率Aを送信した乗合車両10の運行スケジュールを参照する。さらに運行スケジュール調整部61は、当該乗合車両10が次に停車予定の停留所を通過させるように、運行スケジュールを変更する(S36)。変更後の運行スケジュールは、運行スケジュール提供部63から対象の乗合車両10に送信される。
On the other hand, in step S32, if the volumetric congestion rate A>the upper limit threshold B, the operation
また運行スケジュール調整部61は、体積混雑率A及び変更後の運行スケジュールを、携帯端末70のバスアプリケーション81に送信する(S38)。これにより携帯端末70のユーザは、乗合車両10が停留所を停まらずに通過することを、事前に知ることができる。
The operation
<奥行情報の取得方法の別例>
上述の実施形態では、奥行情報取得部37B(図3参照)は、天井中央カメラ18及び側方カメラ19を用いたステレオカメラ法により、バウンディングボックスの奥行情報を取得していたが、本実施形態に係る車室内監視システムは、この形態に限られない。
<Another example of depth information acquisition method>
In the above-described embodiment, the depth
例えば図16及び図17に例示されるように、車室40の床43が、複数の対象領域(Region of Interest)に仮想的に区分けされる。図16、図17の例示では床43が10個の領域に分けられる。
For example, as illustrated in FIGS. 16 and 17, the
そして奥行情報取得部37Bは、例えば側面視画像及び平面視画像において、人物及び荷物が床43のどの領域にいるかを判定する。そして各領域に割り当てられた奥行情報が、それぞれの領域に居る人物及び荷物に割り当てられる。
Then, the depth
または、ステレオカメラ法に代わり、天井中央カメラ18及び側方カメラ19を、RGB-Dカメラ等の3Dカメラが用いられてもよい。例えばTOF(Time of Flight)方式の3Dカメラでは、短パルスのレーザーが照射され、物体で反射して受光素子に戻るまでの時間に基づいて、カメラと物体との離隔距離(つまり奥行情報)が求められる。
Alternatively, instead of the stereo camera method, the ceiling
<平面視画像と側面視画像との対応付けの別例>
上述の実施形態では、ボックス組合せ抽出部37D(図3参照)は、図14のようにバウンディングボックスの位置パラメータを用いて、平面視画像のバウンディングボックスと側面視画像のバウンディングボックスの対応付け(ペアリング)を行っていた。しかしながら本実施形態に係る車室内監視システムは、この形態に限られない。
<Another example of associating a plan view image and a side view image>
In the above-described embodiment, the box
例えばいわゆるオプティカルフロー法を用いたトラッキングが用いられてもよい。例えば人物(乗客)が乗合車両10のドア41,41から乗車したときに、車室内画像認識部36により人物及び荷物の画像認識が実行される。認識された人物及び荷物には固有のIDが付される。さらにボックス組合せ抽出部37Dは、IDが付された人物及び荷物の特徴点の動き(軌跡)を追跡する。これにより、平面視画像及び側面視画像上で同一の人物および荷物の軌跡を追うことが出来る。その結果ボックス組合せ抽出部37Dは、IDをキーとして、それぞれの人物及び荷物の対応付け(ペアリング)が実行可能となる。
For example, tracking using the so-called optical flow method may be used. For example, when a person (passenger) gets into the
<乗合車両利用システムの別例>
図18には、図2に例示された乗合車両利用システムの別例が示される。図18では、図2ではセンターサーバ50に設けられていた運行スケジュール調整部61が、乗合車両10内に設けられる。その他の構成は図2と同様である。
<Another example of a shared vehicle utilization system>
FIG. 18 shows another example of the shared vehicle utilization system illustrated in FIG. In FIG. 18 , the operation
図19には、乗合車両10に設けられた運行スケジュール調整部61による、運行調整フローが例示される。このフローの各ステップは、処理内容としては図15の各ステップと同様である。具体的には、図15のステップS30,S32,S34,S36,S38は、図19のステップS130,S132,S134,S136,S138に対応している。ただし、各ステップの実行主体が、センターサーバ50を示す符号(S)から、乗合車両10を示す符号(B)に置き換えられている。また、ステップS134、S138では、混雑率及び変更後の運行スケジュールの送信先が、携帯端末70のバスアプリケーション81からセンターサーバ50に置き換えられる。
FIG. 19 illustrates an operation adjustment flow by the operation
10 乗合車両、18 天井中央カメラ、19 側方カメラ、20 制御部、36 車室内画像認識部、37 混雑推定部、37A 傾き補正部、37B 奥行情報取得部、37C 座標変換部、37D ボックス組合せ抽出部、37E 体積算出部、37F 近接荷物抽出部、37G 混雑率算出部、37H 短身荷物探索部、37I アナウンス制御部、40 車室、41A 車外表示器、41B 車内表示器、45 車内スピーカ、48 基準マーク、50 センターサーバ、61 運行スケジュール調整部、62 運行スケジュール作成部、63 運行スケジュール提供部、64 運行ルート作成部、65 運行スケジュール記憶部、66 ダイナミックマップ記憶部、70 携帯端末、81 バスアプリケーション、82 運行スケジュール表示部、83 混雑率表示部、104A~104C,106A~106C,108A~108C,110A~110C バウンディングボックス。
10 passenger vehicle, 18 ceiling center camera, 19 side camera, 20 control unit, 36 vehicle interior image recognition unit, 37 congestion estimation unit, 37A tilt correction unit, 37B depth information acquisition unit, 37C coordinate conversion unit, 37D box
Claims (7)
前記天井の周縁部または前記車室の側面から前記車室内の側面視画像を撮像する第二撮像器と、
前記平面視画像及び前記側面視画像に含まれる人物及び荷物を認識する画像認識部と、
前記認識された人物及び荷物に基づいて、前記車室の混雑率を求める混雑推定部と、
を備え、
前記画像認識部は、前記平面視画像で前記認識された人物及び荷物の平面視区画を求めるとともに、前記側面視画像で前記認識された人物及び荷物の側面視区画を求め、
前記混雑推定部は、
人物及び荷物の前記平面視区画及び前記側面視区画に基づいて、人物及び荷物の体積を求める体積算出部と、
人物及び荷物の体積の総和と前記車室の容積との差異に基づいて、前記混雑率を求める混雑率算出部と、
を備える、
車室内監視システム。 a first imaging device that captures a planar image of the interior of the vehicle from the center of the ceiling of the vehicle;
a second imaging device that captures a side-view image of the inside of the vehicle interior from the peripheral edge of the ceiling or the side surface of the vehicle interior;
an image recognition unit that recognizes a person and luggage included in the planar view image and the side view image;
a congestion estimation unit that obtains a congestion rate of the vehicle compartment based on the recognized person and baggage;
with
The image recognition unit obtains a plan view section of the recognized person and package in the plan view image, and obtains a side view section of the recognized person and package in the side view image,
The congestion estimation unit,
a volume calculation unit that obtains the volume of the person and the package based on the plan view section and the side view section of the person and the package;
a congestion rate calculation unit that calculates the congestion rate based on the difference between the total volume of people and luggage and the volume of the vehicle compartment;
comprising a
In-vehicle monitoring system.
前記混雑推定部は、奥行情報取得部及び座標変換部を備え、
前記奥行情報取得部は、人物及び荷物の前記平面視区画の、前記第一撮像器の光軸に沿った奥行情報を取得するとともに、人物及び荷物の前記側面視区画の、前記第二撮像器の光軸に沿った奥行情報を取得し、
前記座標変換部は、前記平面視区画及び前記側面視区画の平面座標及び奥行情報に基づくカメラ座標系上の3次元座標を、車室内空間の座標系であるワールド座標系上の3次元座標に変換し、
前記体積算出部は、前記ワールド座標系に変換された前記平面視区画及び前記側面視区画に基づいて、人物及び荷物の体積を求める、
車室内監視システム。 The vehicle interior monitoring system according to claim 1,
The congestion estimation unit includes a depth information acquisition unit and a coordinate conversion unit,
The depth information acquisition unit acquires depth information along the optical axis of the first imaging device of the planar view section of the person and the package, and acquires depth information of the side view section of the person and the package from the second imaging device. acquire depth information along the optical axis of
The coordinate transformation unit converts three-dimensional coordinates on a camera coordinate system based on plane coordinates and depth information of the planar view section and the side view section into three-dimensional coordinates on a world coordinate system, which is the coordinate system of the vehicle interior space. Converted,
The volume calculation unit obtains the volume of the person and the baggage based on the plan view section and the side view section converted into the world coordinate system;
In-vehicle monitoring system.
前記画像認識部は、SSD(Single Shot Multibox Detector)アルゴリズムに基づいて求められた、人物及び荷物を囲む矩形領域であるバウンディングボックスを前記平面視区画及び前記側面視区画に設定する、
車室内監視システム。 The vehicle interior monitoring system according to claim 2,
The image recognition unit sets a bounding box, which is a rectangular area surrounding a person and a package, obtained based on an SSD (Single Shot Multibox Detector) algorithm in the plan view section and the side view section.
In-vehicle monitoring system.
前記混雑推定部は、近接荷物抽出部を備え、
前記近接荷物抽出部は、前記ワールド座標系の空間内で人物の体積に所定割合以上体積が重複する荷物である近接荷物を抽出し、
前記混雑率算出部は、抽出された近接荷物を、前記混雑率の算出対象から除外する、
車室内監視システム。 The vehicle interior monitoring system according to claim 3,
The congestion estimating unit includes an adjacent luggage extracting unit,
The proximate luggage extracting unit extracts proximate luggage, which is luggage whose volume overlaps the volume of the person by a predetermined ratio or more in the space of the world coordinate system,
The congestion rate calculation unit excludes the extracted adjacent parcels from a target for calculating the congestion rate.
In-vehicle monitoring system.
前記混雑推定部は、短身荷物探索部を備え、
前記短身荷物探索部は、前記混雑率算出部により求められた前記混雑率が所定の上限閾値を超過する場合に、前記混雑率の算出対象となった荷物の、前記ワールド座標系に変換された前記側面視区画における高さ成分に基づいて、所定の閾値高さ以下の荷物を探索する、
車室内監視システム。 The vehicle interior monitoring system according to claim 4,
The congestion estimation unit includes a short luggage search unit,
When the congestion rate obtained by the congestion rate calculation section exceeds a predetermined upper limit threshold, the short baggage search section converts the baggage for which the congestion rate is calculated into the world coordinate system. Searching for packages having a height equal to or less than a predetermined threshold height based on the height component in the side view section;
In-vehicle monitoring system.
前記混雑推定部は、前記所定の閾値高さ以下の荷物が探索された場合に、荷物の移動を促すアナウンスを前記車室内に出力させる、アナウンス制御部を備える、
車室内監視システム。 The vehicle interior monitoring system according to claim 5,
The congestion estimating unit includes an announcement control unit that outputs an announcement urging the movement of luggage to the vehicle interior when a luggage having a height equal to or lower than the predetermined threshold height is searched,
In-vehicle monitoring system.
前記運行スケジュール調整部は、複数の車両のそれぞれに搭載された前記車室内監視システムの前記混雑推定部と通信可能となっており、それぞれの前記混雑推定部から受信した前記混雑率に基づいて、次に停車する予定の停留所を通過するような運行スケジュールの変更可否を判定する、
車両の運行管理システム。 A vehicle operation management system comprising: the vehicle interior monitoring system according to any one of claims 1 to 6; and an operation schedule adjusting unit capable of communicating with the vehicle interior monitoring system,
The operation schedule adjusting unit can communicate with the congestion estimating unit of the vehicle interior monitoring system installed in each of a plurality of vehicles, and based on the congestion rate received from each of the congestion estimating units, Determining whether to change the operation schedule so that the train will pass through the next scheduled stop,
Vehicle operation management system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021062657A JP2022158041A (en) | 2021-04-01 | 2021-04-01 | Vehicle interior monitoring system and vehicle operation management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021062657A JP2022158041A (en) | 2021-04-01 | 2021-04-01 | Vehicle interior monitoring system and vehicle operation management system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022158041A true JP2022158041A (en) | 2022-10-14 |
Family
ID=83560056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021062657A Pending JP2022158041A (en) | 2021-04-01 | 2021-04-01 | Vehicle interior monitoring system and vehicle operation management system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022158041A (en) |
-
2021
- 2021-04-01 JP JP2021062657A patent/JP2022158041A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108572663B (en) | Target tracking | |
CN108693876B (en) | Object tracking system and method for vehicle with control component | |
US11217012B2 (en) | System and method for identifying travel way features for autonomous vehicle motion control | |
US11181902B2 (en) | Remote operation system, transportation system, and remote operation method | |
AU2021203701B2 (en) | Recognizing assigned passengers for autonomous vehicles | |
US10551207B2 (en) | Autonomous vehicle sensor data and map integration | |
US20190101649A1 (en) | Systems, devices, and methods for autonomous vehicle localization | |
JP2019028861A (en) | Signal processor, signal processing method, program, and moving object | |
US20170359561A1 (en) | Disparity mapping for an autonomous vehicle | |
US20200086764A1 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
WO2016161104A1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
US11501461B2 (en) | Controller, control method, and program | |
JP2020073915A (en) | Information processor, information processing method, and program | |
JPWO2019181284A1 (en) | Information processing equipment, mobile devices, and methods, and programs | |
US20230343208A1 (en) | Pedestrian device, information collection device, base station device, positioning method, user management method, information collection method, and facility monitoring method | |
CN111731304B (en) | Vehicle control device, vehicle control method, and storage medium | |
CN116724214A (en) | Method and system for generating a lane-level map of a region of interest for navigation of an autonomous vehicle | |
CN110794821B (en) | Vehicle-mounted control device, field end positioning device, vehicle control system and vehicle | |
JP2022158041A (en) | Vehicle interior monitoring system and vehicle operation management system | |
JP2019117214A (en) | Object data structure | |
CN111837012A (en) | Vehicle control system, vehicle control method, program, and information processing device | |
JP2019095875A (en) | Vehicle control device, vehicle control method, and program | |
JP2021047609A (en) | Periphery recognition device, periphery recognition method, and program | |
JP2019117052A (en) | Display control device | |
JP2019117432A (en) | Display control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240117 |