JP7329925B2 - Vehicle information providing device - Google Patents

Vehicle information providing device Download PDF

Info

Publication number
JP7329925B2
JP7329925B2 JP2019001245A JP2019001245A JP7329925B2 JP 7329925 B2 JP7329925 B2 JP 7329925B2 JP 2019001245 A JP2019001245 A JP 2019001245A JP 2019001245 A JP2019001245 A JP 2019001245A JP 7329925 B2 JP7329925 B2 JP 7329925B2
Authority
JP
Japan
Prior art keywords
bus
user
information
control device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019001245A
Other languages
Japanese (ja)
Other versions
JP2020112866A (en
Inventor
隆史 松本
雄哉 五十嵐
元明 山崎
理人 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Corp
Original Assignee
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Corp filed Critical Shimizu Corp
Priority to JP2019001245A priority Critical patent/JP7329925B2/en
Priority to PCT/JP2020/000327 priority patent/WO2020145312A1/en
Publication of JP2020112866A publication Critical patent/JP2020112866A/en
Priority to JP2023041235A priority patent/JP2023073301A/en
Application granted granted Critical
Publication of JP7329925B2 publication Critical patent/JP7329925B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station

Description

本発明は、乗り物情報提供装置に関する。 The present invention relates to a vehicle information providing device .

公共交通機関の停留所、例えばバス停留所において、バスの接近情報などを表示するシステムがある。また、乗客においては、携帯端末のアプリケーションプログラムを使い、乗換、乗継情報や経路、運賃の検索ができるサービスがある。さらに、携帯端末の位置情報を用いたタクシーの配車アプリケーションや、公共交通以外の自家用車を共有するライドシェアのための携帯端末アプリケーションなども利用できるようになっている。また、利用者の誘導などの仕組みは、現状、ペイントやリボンなどの物理的な手法が主である。また、特許文献1には、画像を分析して、イベント会場での待ち行列を管理するものが提案されている。 2. Description of the Related Art There are systems for displaying information such as approaching buses at public transportation stops, such as bus stops. For passengers, there is a service that allows users to search for transfers, transfer information, routes, and fares using application programs on mobile terminals. Furthermore, it is now possible to use a taxi dispatch application that uses the location information of a mobile terminal, and a mobile terminal application for ride sharing that shares a private car other than public transportation. At present, physical methods such as paint and ribbons are the main methods used to guide users. Further, Japanese Patent Application Laid-Open No. 2002-200002 proposes a method for analyzing an image and managing a queue at an event venue.

特開2013-109395号公報JP 2013-109395 A

公共交通機関と連動した待合スペースでの情報提示技術は、現状、ディスプレイやサイネージなどの限定された情報表示とインタラクション方法によって提示されている。利用者の誘導などの仕組みは、現状、ペイントやリボンなどの物理的な手法が主である。そのため、滞留する利用者の状況等が変化した場合には、物理的な手法での情報提示では対応することができない。また、利用者に対する公共交通機関等の情報提示は、個別の利用者に特化した情報を携帯端末等に提示されることが主であり、停留所の混雑度合いなどを考慮した情報を提示できた方が望ましい。 Information presentation technology in waiting spaces linked to public transportation is currently presented by limited information display and interaction methods such as displays and signage. Mechanisms such as user guidance are currently mainly based on physical techniques such as paint and ribbons. Therefore, when the situation of staying users changes, it is not possible to respond by presenting information by a physical method. In addition, information on public transportation, etc., is presented to users mainly by presenting information specialized for individual users on mobile terminals, etc.; It is preferable to

上述の課題を鑑み、本発明は、利用者の状況やニーズに応じてダイナミックに変化するような利便性の高いサービスを提供できるようにした乗り物情報提供装置を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a vehicle information providing apparatus capable of providing highly convenient services that dynamically change according to the user's situation and needs.

上述の課題を鑑み、本発明の一態様に係る乗り物情報提供装置は、り物を利用するために滞留可能な場所である滞留場所の滞留状況を検出する滞留状況検出部と、記滞留状況検出部の検出結果に基づいて、前記滞留場所を利用する利用者から視認可能な壁、床面、天井の少なくとも1つに情報を表示すべく出力を行う出力制御部と、を有し、前記出力制御部は、前記滞留状況検出部の検出結果に基づいて、前記滞留場所にアシストが必要な利用者がいるか否かを判定し、アシストが必要な利用者がいる場合には、前記滞留場所に、一般の行列とは異なる行列を形成するよう案内する案内情報を出力する。 In view of the above-described problems, a vehicle information providing apparatus according to an aspect of the present invention includes: a stay state detection unit that detects a stay state of a stay place, which is a place where a person can stay for using a vehicle ; an output control unit that outputs information to be displayed on at least one of a wall, a floor surface, and a ceiling visible to the user using the staying place, based on the detection result of the situation detection unit. Then, the output control unit determines whether or not there is a user who needs assistance at the staying place based on the detection result of the stay situation detection unit, and if there is a user who needs assistance, Guidance information is output that guides the people to form a queue at the staying place that is different from a general queue .

本発明によれば、待合スペースで待っている利用者の人数や状況を把握することが可能であり、全面が表示面となっている壁面に、乗り物の運行状況等を映像で動的に提示することができる。また、待合スペースで待っている利用者の人数や状況を、乗り物側に知らせることができる。また、行列の誘導等を、滞留する利用者の状況やニーズに応じてダイナミックに変更して提示できる。これにより、利用者に、より利便性の高いサービスを提供することができる。 According to the present invention, it is possible to grasp the number of users waiting in the waiting space and the situation, and dynamically display the operation status of vehicles, etc. on the wall whose entire surface is a display surface. can do. In addition, it is possible to notify the vehicle side of the number of users waiting in the waiting space and the situation. In addition, it is possible to dynamically change and present queue guidance, etc., according to the situation and needs of staying users. This makes it possible to provide users with more convenient services.

本発明の第1の実施形態に係る乗り物情報提供装置の概要の説明図である。1 is an explanatory diagram of an overview of a vehicle information providing device according to a first embodiment of the present invention; FIG. 第1の実施形態に係るバス停留所に設けられた制御装置の概要を示すブロック図である。It is a block diagram which shows the outline|summary of the control apparatus provided in the bus stop which concerns on 1st Embodiment. 第1の実施形態に係るバス停留所の表示の一例の説明図である。FIG. 4 is an explanatory diagram of an example of display of a bus stop according to the first embodiment; 第1の実施形態に係るバス停留所の表示の一例の説明図である。FIG. 4 is an explanatory diagram of an example of display of a bus stop according to the first embodiment; 第1の実施形態に係るバス停留所の表示の一例の説明図である。FIG. 4 is an explanatory diagram of an example of display of a bus stop according to the first embodiment; 本発明の第1の実施形態に係るバス停留所での処理を示すフローチャートである。It is a flowchart which shows the process in a bus stop based on the 1st Embodiment of this invention. 第1の実施形態に係るバス停留所での処理を示すフローチャートである。It is a flow chart which shows processing at a bus stop concerning a 1st embodiment. 第1の実施形態に係るバス停留所での処理を示すフローチャートである。It is a flow chart which shows processing at a bus stop concerning a 1st embodiment. バス停留所において利用者を誘導する概念を表す図である。It is a figure showing the concept which guides a user in a bus stop. 第1の実施形態に係るバス停留所での処理を示すフローチャートである。It is a flow chart which shows processing at a bus stop concerning a 1st embodiment. 第1の実施形態に係るバス停留所での処理を示すフローチャートである。It is a flow chart which shows processing at a bus stop concerning a 1st embodiment. 本発明による乗り物情報提供装置の基本構成を示す概略ブロック図である。1 is a schematic block diagram showing the basic configuration of a vehicle information providing device according to the present invention; FIG.

以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本発明の第1の実施形態に係る乗り物情報提供装置1の概要の説明図である。この例では、乗り物としてバス、待合スペースとしてバス停留所の例が示されている。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an explanatory diagram of an overview of a vehicle information providing device 1 according to a first embodiment of the present invention. This example shows a bus as the vehicle and a bus stop as the waiting space.

図1に示すように、バス停留所10は、バス40の発着場所として利用されるとともに、バス40を待っている利用者16の待合スペースとして利用される。バス停留所10は、床面11と、壁面12と、天井13とからなる。床面11及び壁面12はその全体が表示面となっている。床面11及び壁面12の全体を表示面とすることは、プロジェクションやLED(Light Emitting Diode)モジュールなどにより実現可能である。
床面11及び壁面12の表示面は、利用者16が視認可能であり、利用者16にバスの運行状況等、利用者に必要な情報を提供するのに用いられる。この床面11及び壁面12の表示面に映し出す情報は、バスの運行状況や利用者のニーズに応じて、ダイナミックに変化させることができる。
天井13には、カメラ15が取り付けられている。カメラ15は、利用者の動きのセンシングや、平面との接触をセンシングすることにより、バス停留所10における滞留状況を収集するのに用いられる。なお、さらに、バス停留所10は、バス停留所10の滞留状況を取得するために、3Dスキャナを設けるようにしてもよい。また、バス停留所10は、天井13全体についても、表示面としてもよい。
As shown in FIG. 1 , the bus stop 10 is used as a departure and arrival place for the bus 40 and as a waiting space for the users 16 waiting for the bus 40 . A bus stop 10 consists of a floor surface 11, a wall surface 12 and a ceiling 13. - 特許庁The entirety of the floor surface 11 and the wall surface 12 serves as a display surface. Using the entire floor surface 11 and wall surface 12 as the display surface can be realized by a projection, an LED (Light Emitting Diode) module, or the like.
The display surfaces of the floor surface 11 and the wall surface 12 can be visually recognized by the user 16, and are used to provide the user 16 with necessary information such as the operation status of the bus. The information displayed on the display surfaces of the floor surface 11 and the wall surface 12 can be dynamically changed according to the operation status of the bus and the needs of the users.
A camera 15 is attached to the ceiling 13 . The camera 15 is used to collect the stay situation at the bus stop 10 by sensing the user's movement and contact with a plane. Furthermore, the bus stop 10 may be provided with a 3D scanner in order to acquire the stay status of the bus stop 10 . In addition, the bus stop 10 may use the entire ceiling 13 as a display surface.

なお、本実施形態でサービスが提供できるバス停留所10のスペースは、床面11、壁面12が表示面として利用可能であり、表示面が空間的な規模で配置されている。ここで言う空間的とは、複数の人数がそのディスプレイの範囲内に滞在できるということであり、例えば、床面11においては2平方メートル、壁面12においては2m幅を超える規模のものが相当する。また、床面11、壁面12の表示面は、それぞれ別個に(離間して)構成されてもよいが、お互いに接していることが望ましい。 In the space of the bus stop 10 where the service can be provided in this embodiment, the floor surface 11 and the wall surface 12 can be used as display surfaces, and the display surfaces are arranged on a spatial scale. Spatial here means that a plurality of people can stay within the range of the display. Further, the display surfaces of the floor surface 11 and the wall surface 12 may be configured separately (separated) from each other, but are preferably in contact with each other.

また、床面11及び壁面12の表示面には、プロジェクションやLEDモジュール以外の表示技術を用いるようにしてもよい。本実施形態においては、表示面に影ができないものが好ましく、また、床面11においては加重や摩耗の影響を受けにくいものが好ましい。 Display technologies other than projection or LED modules may be used for the display surfaces of the floor surface 11 and the wall surface 12 . In this embodiment, it is preferable that the display surface is not shaded, and that the floor surface 11 is less susceptible to load and wear.

バス停留所10には、制御装置20が設けられる。床面11及び壁面12の表示面には、制御装置20からの映像信号により、各種情報が表示される。また、制御装置20は、カメラ15によって撮像することで得られる撮像結果に基づいて、ユーザの位置を特定し、特定された位置に応じた床面11又は床面11と壁面12の位置に情報を表示する。たとえば、ユーザの位置を特定し、床面11を用いユーザの足元部分に情報を表示したり、ユーザが壁面12に近接した際に、壁面12を用いてユーザの手元部分に情報を表示したりすることができる。また、また、制御装置20は、カメラ15によって撮像することで得られる撮像結果に基づいて、壁面12の近傍に存在するユーザの動作を検出し、その検出結果を用いるか、または、壁面12の近傍に存在するユーザの動作を検出した検出結果を後述するモーションセンサから取得し、取得した検出結果を用いることで、ユーザの動作に応じた内容を表示することも可能である。また、制御装置20は、ネットワーク30を介して、バス40の端末装置51と通信を行うことができる。 A control device 20 is provided at the bus stop 10 . Various types of information are displayed on the display surfaces of the floor surface 11 and the wall surface 12 by video signals from the control device 20 . In addition, the control device 20 identifies the position of the user based on the imaging result obtained by imaging with the camera 15, and provides information on the positions of the floor surface 11 or the floor surface 11 and the wall surface 12 according to the identified position. display. For example, the user's position is identified and information is displayed at the user's feet using the floor surface 11, or information is displayed at the user's hand using the wall surface 12 when the user approaches the wall surface 12. can do. In addition, the control device 20 detects the motion of the user present near the wall surface 12 based on the imaging result obtained by imaging with the camera 15, and uses the detection result, or the motion of the wall surface 12. It is also possible to display the contents according to the user's motion by acquiring the detection result of detecting the motion of the user existing in the vicinity from a motion sensor described later and using the acquired detection result. Also, the control device 20 can communicate with the terminal device 51 of the bus 40 via the network 30 .

図2は、本発明の第1の実施形態に係るバス停留所10に設けられた制御装置20の概要を示すブロック図である。図2に示すように、制御装置20は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23、ストレージデバイス24、及び通信部25を含んで構成される。CPU21は、コマンドを解釈して、実行を行う。ROM22には、ブートプログラムが記憶されている。RAM23は、メインメモリとして用いられる。ストレージデバイス24は、HDD(Hard Disk Drive)やSSD(Solid State Drive)からなり、OS(Operating System)やアプリケーションのプログラムやデータが記録される。通信部25は、ネットワーク30を介して、バス40側の端末装置51と通信を行う。 FIG. 2 is a block diagram showing an overview of the control device 20 provided at the bus stop 10 according to the first embodiment of the present invention. As shown in FIG. 2, the control device 20 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a storage device 24, and a communication section 25. . The CPU 21 interprets the command and executes it. A boot program is stored in the ROM 22 . A RAM 23 is used as a main memory. The storage device 24 is composed of a HDD (Hard Disk Drive) or SSD (Solid State Drive), and stores an OS (Operating System), application programs, and data. The communication unit 25 communicates with the terminal device 51 on the bus 40 side via the network 30 .

制御装置20には、表示部26、モーションセンサ27、カメラ15が接続される。表示部26は例えばプロジェクタあるいはLEDモジュールであり、カメラ15によって撮像することで得られる撮像結果に基づいて制御装置20によって特定されるユーザの位置に対応した床面11又は床面11と壁面12の位置に床面11や壁面12の全面または一部の領域に画像を投写する。カメラ15は、床面11や壁面12を撮像し、撮像結果を制御装置20に出力する。制御装置20は、この撮像結果に基づいて画像処理を行うことで、撮像領域に存在するユーザの動きを検出することができる。制御装置20は、ユーザの動きを検出した結果に応じた画像を表示部26によって床面11や壁面12に表示する。なお、撮像結果に基づいてユーザの動きを検出する処理は、カメラ15が行い、その検出結果を制御装置20に出力するようにしてもよい。
ここでは、カメラ15の撮像結果に基づいて、ユーザの動きを検出することができるが、モーションセンサ27を用いることもできる。モーションセンサ27は、赤外線またはレーザー光等の所定の波長の光を出射し、その反射光を受光することで、周囲に存在する物体を検出する。また、モーションセンサ27は、物体を検出した検出結果に基づいて、物体の動きを検出する。モーションセンサ27は、物体を検出した検出結果や、物体の動きを検出した結果をCPU21に出力する。モーションセンサ27は、例えば、バス停留所10の天井または天井近傍の壁面に取り付けられる。このようなカメラ15やモーションセンサを用いる場合には、ユーザがどこに居るか(床面と接触)、ユーザが壁面に対してどの程度近接しているか(壁面とは非接触)、ユーザが壁面のどこをタッチしているか(壁面と接触)のいずれについても取得することができる。また、カメラ15やモーションセンサを用いる場合には、ユーザの移動や、ユーザの壁や表示領域への近接度合による状況的判断、タッチによる明示的な操作等に基づくインタラクションを実現することができる。また、カメラ15の撮像結果やモーションセンサ27の検出結果の他に、3Dスキャナによる検出結果に基づいてユーザの動きを検出してもよい。また、壁面12にタッチパネルを設けた場合には、タッチ操作が行われたか否かを直接検出することができるので、検出精度を向上させることができる。
A display unit 26 , a motion sensor 27 and a camera 15 are connected to the control device 20 . The display unit 26 is, for example, a projector or an LED module, and displays the floor surface 11 or the floor surface 11 and the wall surface 12 corresponding to the position of the user specified by the control device 20 based on the imaging result obtained by imaging with the camera 15. An image is projected on the entire area or a partial area of the floor surface 11 or the wall surface 12 at the position. The camera 15 images the floor surface 11 and the wall surface 12 and outputs the imaging result to the control device 20 . The control device 20 can detect the movement of the user existing in the imaging area by performing image processing based on the imaging result. The control device 20 causes the display unit 26 to display an image corresponding to the detection result of the user's movement on the floor surface 11 or the wall surface 12 . Note that the camera 15 may perform the process of detecting the movement of the user based on the imaging result, and output the detection result to the control device 20 .
Here, the motion of the user can be detected based on the imaging result of the camera 15, but the motion sensor 27 can also be used. The motion sensor 27 emits light of a predetermined wavelength, such as infrared rays or laser light, and receives the reflected light to detect objects in the surroundings. Also, the motion sensor 27 detects the motion of the object based on the detection result of the object. The motion sensor 27 outputs to the CPU 21 the result of detecting the object and the result of detecting the movement of the object. The motion sensor 27 is attached to, for example, the ceiling of the bus stop 10 or a wall surface near the ceiling. When using such a camera 15 or motion sensor, it is necessary to determine where the user is (in contact with the floor surface), how close the user is to the wall surface (not in contact with the wall surface), and how close the user is to the wall surface. It is also possible to obtain information on where the user is touching (contact with the wall surface). In addition, when the camera 15 or motion sensor is used, it is possible to realize interaction based on user movement, situational determination based on the user's proximity to a wall or display area, explicit operation by touch, and the like. In addition to the imaging result of the camera 15 and the detection result of the motion sensor 27, the motion of the user may be detected based on the detection result of a 3D scanner. Further, when a touch panel is provided on the wall surface 12, it is possible to directly detect whether or not a touch operation has been performed, so detection accuracy can be improved.

図1において、バス40は、バス停留所10を停留所として運行する。バス40は、端末装置51、カメラ52、表示部53が設けられている。端末装置51は、このカメラ52の撮像画像から、バス40の乗客55の状況を取得できる。また、端末装置51は、カメラ52の撮像画像を画像認識することで、乗客55の数、空いている席の数等の情報を取得できる。端末装置51は、ネットワーク30を介して、バス停留所10の制御装置20と通信を行うことができる。これにより、端末装置51は、バス停留所10で待っている利用者16の人数等の情報を制御装置20から取得できる。また、端末装置51には、表示部53が接続される。表示部53は、例えば、液晶表示装置であり、次の停車場の名称や料金(運賃)を表示するとともに、混雑度合いや、遅延状態を表示する。また、表示部53には、バス停留所10(次に停車する停留所)で乗り込む乗客の数や、車椅子等が必要であるか否かの情報等を表示する。
なお、ここで例示したバスのような不特定多数の様々な属性の人が予約等を行うことなく乗り込むことが可能な乗り物の場合には、カメラ52の撮像画像から、乗客55の利用状況(人数、空席等)を把握することができる。一方、専用アプリケーションによって、空席検索や予約をすることが可能なライドシェア・配車アプリ・自動運転サービスなどの場合は、それらのアプリケーションから登録された予約情報を参照することで、直接的に(カメラ52の撮像画像を用いることなく)運行経路上における乗客の利用状況を把握することが可能である。また、アプリケーションから登録された予約情報と、カメラ52によって検出された情報との両方を参照するようにした場合には、推定の精度を向上させることも可能である。
In FIG. 1, a bus 40 operates at a bus stop 10 as a stop. The bus 40 is provided with a terminal device 51 , a camera 52 and a display section 53 . The terminal device 51 can acquire the situation of the passengers 55 on the bus 40 from the image captured by the camera 52 . In addition, the terminal device 51 can acquire information such as the number of passengers 55 and the number of vacant seats by recognizing the image captured by the camera 52 . The terminal device 51 can communicate with the control device 20 of the bus stop 10 via the network 30 . Thereby, the terminal device 51 can acquire information such as the number of users 16 waiting at the bus stop 10 from the control device 20 . A display unit 53 is also connected to the terminal device 51 . The display unit 53 is, for example, a liquid crystal display device, and displays the name and fare (fare) of the next stop, as well as the degree of congestion and the delay state. The display unit 53 also displays information such as the number of passengers boarding at the bus stop 10 (the next bus stop) and whether or not a wheelchair is required.
In the case of a vehicle such as the bus exemplified here, which can be boarded by an unspecified number of people with various attributes without making a reservation, etc., the usage status of the passengers 55 ( number of people, vacant seats, etc.). On the other hand, in the case of ride-sharing, dispatch apps, and self-driving services that allow you to search for vacant seats and make reservations using dedicated applications, you can refer to the reservation information registered from those applications directly (camera It is possible to grasp the usage status of passengers on the operation route without using the captured image of 52). Moreover, when both the reservation information registered from the application and the information detected by the camera 52 are referred to, it is possible to improve the accuracy of the estimation.

カメラ15は、バス40(乗り物)の混雑度合いの運行状況を検出する運行状況検出部として機能する。また、制御装置20におけるカメラ15は、バス40を利用するために滞留可能な場所であるバス停留所10の滞留状況を検出する滞留状況検出部として機能する。すなわち、制御装置20でカメラ15の撮像画像から人を認識し、その認識結果から人の数をカウントすることで、バス40を利用するために待っている人の数を検出できる。 The camera 15 functions as an operation status detection unit that detects the operation status of the degree of congestion of the bus 40 (vehicle). In addition, the camera 15 in the control device 20 functions as a stay state detection unit that detects the stay state of the bus stop 10, which is a place where the bus 40 can stay for using the bus 40. FIG. That is, the number of people waiting to use the bus 40 can be detected by recognizing people from the captured image of the camera 15 by the control device 20 and counting the number of people from the recognition result.

制御装置20は、バス40の混雑度合いの運行状況の検出結果と、バス停留所10の混雑度合いの運行状況の検出結果とに基づいて、混雑状況、遅延状況等の情報を、床面11、壁面12等、利用者16から視認可能な場所に出力(表示)する。また、制御装置20は、混雑状況、遅延状況等の情報を、バス40内の端末装置51へ出力し、表示部53に表示する。また、制御装置20は、バス40の空き状況を判定し、この判定結果を表示部26により、壁面12に表示させる。すなわち、制御装置20は、バス40の運行状況の検出結果とバス停留所10の滞留状況の検出結果とに基づいて、運行状況の検出結果を壁面12や床面11に表示する出力(第1の出力)と、このバス停留所10の滞留状況の検出結果に応じた情報をバス40の端末装置51へ出力(第2の出力)とを行う。 Based on the detection result of the operation status of the degree of congestion of the bus 40 and the detection result of the operation status of the degree of congestion of the bus stop 10, the control device 20 displays information such as congestion status and delay status on the floor surface 11 and the wall surface. 12 or the like, which is output (displayed) at a location visible to the user 16 . In addition, the control device 20 outputs information such as congestion status and delay status to the terminal device 51 in the bus 40 and displays it on the display section 53 . The control device 20 also determines the availability of the bus 40 and causes the display unit 26 to display the determination result on the wall surface 12 . That is, the control device 20 outputs the detection result of the operation status on the wall surface 12 or the floor surface 11 (first output), and output (second output) to the terminal device 51 of the bus 40 the information corresponding to the detection result of the stay status of the bus stop 10 .

また、制御装置20は、カメラ15の画像を解析して、バス停留所10にアシストが必要な利用者16がいるか否かを判定し、アシストが必要な利用者16がいる場合には、バス停留所10の床面11に、一般の行列とは異なる行列を形成するよう案内を出力する。アシストが必要な利用者としては、例えば、車椅子を利用している利用者、ベビーカーを押す利用者、大きな荷物を持つ利用者などである。 In addition, the control device 20 analyzes the image of the camera 15 to determine whether or not there is a user 16 requiring assistance at the bus stop 10, and if there is a user 16 requiring assistance, the bus stop Guidance is output to 10 floors 11 to form a matrix different from the general matrix. Users who need assistance include, for example, users using wheelchairs, users pushing strollers, and users carrying large luggage.

図1に示すように、本発明の第1の実施形態では、床面11及び壁面12はその全面を表示面として利用することが可能である。また、天井13にカメラ15が取り付けられており、制御装置20は、カメラ15から得られる撮像画像を画像認識することで、バス停留所10で待つ利用者16の情報を取得できる。また、制御装置20は、ネットワーク30を介して、バス40側と通信を行うことができる。これにより、バス停留所10では、以下のような処理が行える。 As shown in FIG. 1, in the first embodiment of the present invention, the entire floor surface 11 and wall surface 12 can be used as display surfaces. A camera 15 is attached to the ceiling 13 , and the control device 20 can acquire information about the user 16 waiting at the bus stop 10 by recognizing the captured image obtained from the camera 15 . Also, the control device 20 can communicate with the bus 40 via the network 30 . Accordingly, at the bus stop 10, the following processing can be performed.

バス停留所10は、天井13に取り付けられたカメラ15の撮像画像から、画像判定、3次元スキャンにより、バス停留所10に滞在する利用者16の数や位置を取得することができる。また、制御装置20は、カメラ15の撮像結果に基づいて検出された複数の利用者16のバス停留所10内での滞在位置や動きから、乗車しようとしている人の列を推定することができる。
なお、上述したように、この例ではバスのような不特定多数の様々な属性の人が予約等を行うことなく乗り込むことが可能な乗り物の場合には、カメラ15の撮像画像から、利用者16の滞在状況(人数、整列状況等)を把握することができる。一方、専用アプリケーションによって、空席検索や予約をすることが可能なライドシェア・配車アプリ・自動運転サービスなどにおける乗り場の場合は、それらのアプリケーションから登録された予約情報を参照することで、直接的に(カメラ15の撮像画像を用いることなく)乗り場における利用者の滞在状況を把握することが可能である。また、アプリケーションから登録された予約情報と、カメラ15によって撮像された撮像結果に基づく利用者の滞在状況との両方を参照するようにした場合には、推定の精度を向上させることも可能である。
また、バス停留所10は、床面11や壁面12に情報表示させることにより、利用者16に整列してもらうために必要な情報を提示することができる。整列してもらうために必要な情報は、バスの運行状況に応じて、ダイナミックに変更できる。また、バス停留所10は、利用者16の位置をトラッキングし、各利用者16の足元にそれぞれ個別の情報であって必要な誘導情報を表示することができる。
The bus stop 10 can acquire the number and positions of users 16 staying at the bus stop 10 by image determination and three-dimensional scanning from images taken by a camera 15 attached to the ceiling 13 . Also, the control device 20 can estimate the line of people who are going to get on from the staying positions and movements of the plurality of users 16 in the bus stop 10 detected based on the imaging result of the camera 15. - 特許庁
As described above, in this example, in the case of a vehicle such as a bus in which many and unspecified people with various attributes can board without making a reservation, the user 16 stay status (number of people, line-up status, etc.) can be grasped. On the other hand, in the case of a boarding point for a ride-sharing, dispatch application, or self-driving service, where it is possible to search for vacant seats and make reservations using a dedicated application, by referring to the reservation information registered from those applications, it is possible to directly It is possible to grasp the stay situation of the user at the boarding point (without using the captured image of the camera 15). In addition, if both the reservation information registered from the application and the stay status of the user based on the imaging result captured by the camera 15 are referred to, it is possible to improve the accuracy of the estimation. .
In addition, the bus stop 10 can present information necessary for the users 16 to line up by displaying information on the floor surface 11 and the wall surface 12 . The information necessary for lining up can be changed dynamically according to the bus operation status. In addition, the bus stop 10 can track the location of the users 16 and display necessary guidance information, which is individual information, at the feet of each user 16 .

また、バス停留所10は、カメラ15によって撮像することで得られる撮像結果に基づいて制御装置20によって特定されるユーザの位置に対応した床面11又は床面11と壁面12の位置に情報を表示させることにより、バスに並ぶ列の先頭を誘導することができる。誘導は、列とみなされた複数の利用者間に、それが列と認識されていることを、床面の線表示等によって提示することで行える。さらに、行列の最後尾の利用者の足元近傍には、それがどの行列の最後尾であるかの情報を表示し、新たに到来した利用者にその行列に並ぶかどうかを促すことができる。 In addition, the bus stop 10 displays information on the floor 11 or the position of the floor 11 and the wall 12 corresponding to the position of the user specified by the control device 20 based on the imaging result obtained by imaging with the camera 15. By doing so, it is possible to guide the head of the line lined up on the bus. Guidance can be performed by presenting the fact that it is recognized as a line between a plurality of users who are regarded as a line, such as by line display on the floor surface. In addition, near the feet of the user at the end of the line, information indicating which line the user is at the end of the line can be displayed to prompt a newly arriving user to join the line.

また、制御装置20は、行列に属さない利用者に対して、その足元に情報を提示し、行列に並ぶか、壁面等に表示された時刻表等の情報を確認するか、促すことができる。 In addition, the control device 20 can present information at the feet of users who do not belong to the queue, and prompt them to line up in the queue or to check the information such as the timetable displayed on the wall or the like. .

また、バス停留所10は、壁面12の表示機能により、時刻表や経路などを表示できる。これにより、利用者は時刻や経路を確認できる。時刻表や経路などは、バスの運行状況に応じて、ダイナミックに変更できる。また、壁面12のタッチ操作による制御装置20への入力を可能にし、経路検索など、スマートフォンで個人向けに実現されているアプリケーションも実装可能である。 Moreover, the bus stop 10 can display a timetable, a route, etc. by the display function of the wall surface 12 . This allows the user to check the time and route. Timetables and routes can be changed dynamically according to the status of bus operations. In addition, it is possible to input to the control device 20 by touch operation on the wall surface 12, and it is possible to implement applications such as route search, which are realized for individuals on smartphones.

また、バス停留所10は、カメラ15の撮像画像を画像認識することで、利用者16の中に、アシストが必要な利用者がいるか否かを判定できる。バス停留所10は、利用者にアシストが必要な人がいる場合、それを判別し、すでに構築された行列とは別の位置に必要なレーン(例えば、優先レーン)を床面11に表示する。 Further, the bus stop 10 can determine whether or not there is a user who needs assistance among the users 16 by recognizing the image captured by the camera 15 . A bus stop 10 discriminates when there is a user who needs assistance, and displays a necessary lane (for example, a priority lane) on a floor 11 at a position different from the line already constructed.

また、バス停留所10は、カメラ15の撮像画像を画像認識することで、その停留所における、利用者の人数や、アシストの必要の有無などを、検知できる。そして、制御装置20は、利用者の人数や、アシストの必要の有無などを、その停留所に接近するバス40に事前に通知できる。 In addition, the bus stop 10 can detect the number of users at the bus stop and whether or not assistance is required by recognizing the image captured by the camera 15 . Then, the control device 20 can notify in advance the number of users, whether or not assistance is required, etc. to the bus 40 approaching the stop.

また、バス停留所10は、バス40側と通信を行い、バス40の車内の混雑状況を取得することができる。バス停留所10は、その停留所に接近するバス40の混雑状況を確認し、床面11や壁面12の表示機能を使って、その情報を利用者に提示できる。そして、バス停留所10は、例えば、次のバスは約何分後に到着し、空席予想は約何席である、というような情報を、床面11や壁面12に表示できる。 Also, the bus stop 10 can communicate with the bus 40 side and acquire the congestion status inside the bus 40 . A bus stop 10 can confirm the congestion status of buses 40 approaching the bus stop and present the information to users by using the display functions of the floor 11 and the wall 12. - 特許庁The bus stop 10 can display information such as, for example, about how many minutes the next bus will arrive and about how many seats are available.

図3A及び図3Bは、本発明の第1の実施形態に係るバス停留所10の表示の一例の説明図である。前述したように、本実施形態では、床面11及び壁面12が全面ディスプレイとして用いられる。図3Aに示すように、壁面12には、時刻表101、バスの運行状況(現在どこを進行中か、遅延があるか等)102が表示される。時刻表101の情報は、バスの出発時刻や目的地が表示される。バスの運行状況102の情報は、運行中のバス40と通信を行うことで、そのバスの現在位置を取得することで、現在位置を図形上に重ねて表示される。また、壁面12には、壁面インターフェース103が表示される。この壁面インターフェース103は、経路検索やバスの情報取得等を行うためのユーザーインターフェースである。利用者16が壁面12に近づくと、壁面インターフェース103が利用できるようになり、壁面インターフェース103に対してタッチ操作をすることで、各種情報を壁面12において表示することができる。 3A and 3B are explanatory diagrams of an example of the display of the bus stop 10 according to the first embodiment of the present invention. As described above, in this embodiment, the floor surface 11 and the wall surface 12 are used as a full-screen display. As shown in FIG. 3A, the wall surface 12 displays a timetable 101 and a bus operation status (where the bus is currently traveling, whether there is a delay, etc.) 102 . The information of the timetable 101 displays the departure time and destination of the bus. Information on the bus operation status 102 is obtained by communicating with the bus 40 in operation to acquire the current position of the bus, and the current position is displayed by being superimposed on the graphic. A wall interface 103 is also displayed on the wall 12 . This wall interface 103 is a user interface for performing route search, bus information acquisition, and the like. When the user 16 approaches the wall surface 12 , the wall surface interface 103 becomes available, and by performing a touch operation on the wall surface interface 103 , various information can be displayed on the wall surface 12 .

また、図3Bに示すように、床面11には、整列ポイント(先頭が並ぶ場所を案内する位置)と、整列ポイントを基準にして並ぶ列を誘導するためレーンが表示される。この例では、整列ポイントには行き先名「横浜行」や「東京行」等が表示される。この場合、床面11には、「横浜行」の整列ポイント104a及び「横浜行」の乗客を誘導するためのレーン105aと、「東京行」の整列ポイント104b及び「東京行」の乗客を誘導するためのレーン105bとが表示される。さらに、車椅子やベビーカーを使用している乗客を誘導するための優先レーン105cが表示される。優先レーン105cは、制御装置20によって、例えば、カメラ15の撮像画像から、バス停留所10で待っている利用者の中に車椅子を使っている人がいることを検出すると、表示部26によって表示される。また、レーンに沿って並ぶ利用者の数をカメラ15の撮像画像から検出することで、この検出された利用者の数が、その行き先名に対応するバス40が制御装置20によって特定された上で、当該制御装置20からバス40の端末装置51に送信される。 Also, as shown in FIG. 3B, on the floor surface 11, alignment points (positions for guiding where the heads line up) and lanes are displayed to guide the lines to line up based on the alignment points. In this example, the destination names such as "To Yokohama" and "To Tokyo" are displayed at the alignment points. In this case, on the floor 11, there are a line-up point 104a "bound for Yokohama" and a lane 105a for guiding passengers "bound for Yokohama", a line-up point 104b "bound for Tokyo" and a lane 105a for guiding passengers "bound for Tokyo". A lane 105b for doing is displayed. Furthermore, a priority lane 105c is displayed for guiding passengers using wheelchairs and strollers. The priority lane 105c is displayed by the display unit 26 when the control device 20 detects, for example, from the image captured by the camera 15 that there is a person using a wheelchair among the users waiting at the bus stop 10. be. In addition, by detecting the number of users lined up along the lane from the captured image of the camera 15, the detected number of users is determined by the control device 20 after the bus 40 corresponding to the destination name is specified. , and is transmitted from the control device 20 to the terminal device 51 on the bus 40 .

また、図3Cに示すように、床面11には、列の最後尾が表示される(表示画像107)。すなわち、一群で並んでいる人が検出されると、そこに並んでいる人の最後尾が検出される。この例では、「東京行」の整列ポイント104bから、レーン105bに沿って、複数の利用者16が並んでいる。そして、この行列の最後尾に、「東京行」の行き先名とともに行列の最後尾を示す「東京行最後尾」との文字列が表示画像107として表示される。なお、最後尾のユーザの近傍、または表示画像107には、その行列がどこへ向かうバスであるかを示す行き先と、そのバスの混雑度合いと、座れる確率等を表示するようにしてもよい。
なお、図3A、図3B、図3Cにおいて、バス停留所10では、運行ルートが決まったバス路線について情報を表示する場合には、行き先名等が表示されるが、乗り合い自動運転のライドシェア等のサービスについて情報を表示する場合には、アプリケーションを用いて予約された、特定の車両を示す固有情報(ナンバープレートに記載された情報、ナンバープレートの画像、あるいはアイコン等)を表示するようにしてもよい。
Further, as shown in FIG. 3C, the end of the row is displayed on the floor surface 11 (display image 107). That is, when a group of people lined up is detected, the tail end of the people lined up there is detected. In this example, a plurality of users 16 are lined up along the lane 105b from the line-up point 104b "bound for Tokyo". At the end of the matrix, the destination name of "Tokyo line" and the character string "Tokyo line last" indicating the end of the procession are displayed as the display image 107. FIG. In addition, in the vicinity of the last user or in the display image 107, the destination indicating where the bus in the queue is heading, the degree of congestion of the bus, the probability of being seated, and the like may be displayed.
In addition, in FIGS. 3A, 3B, and 3C, at the bus stop 10, when displaying information about a bus route whose operation route is determined, the destination name and the like are displayed. When displaying information about the service, it is also possible to display unique information (information written on the license plate, image of the license plate, icon, etc.) that indicates the specific vehicle reserved using the application. good.

図4から図8は、本発明の第1の実施形態に係るバス停留所10において行われる処理を示すフローチャートである。図4は、全体的な処理を示す。 4 to 8 are flow charts showing the processing performed at the bus stop 10 according to the first embodiment of the present invention. FIG. 4 shows the overall processing.

図4に示すように、バス停留所10において、制御装置20は、オブジェクトの認識処理(ステップS1)と、移動しているオブジェクトの認識処理(ステップS2)と、オブジェクトの群の認識処理(ステップS3)と、カウント処理(ステップS4)とを行う。 As shown in FIG. 4, at the bus stop 10, the control device 20 performs object recognition processing (step S1), moving object recognition processing (step S2), and object group recognition processing (step S3). ) and count processing (step S4).

先ず、オブジェクトの認識処理(ステップS1)から説明する。オブジェクトの認識処理(ステップS1)は、バス停留所10で何かのオブジェクトが検出されたときの処理である。図5は、オブジェクトの認識処理(ステップS1)での処理を示すフローチャートである。
(ステップS101)制御装置20は、カメラ15の撮像画像を解析して、オブジェクトを検出する。制御装置20は、オブジェクトを検出したら、処理をステップS102に進める。
(ステップS102)制御装置20は、カメラ15の解析画像から、オブジェクトの種類を判別して、処理をステップS103に進める。
First, the object recognition processing (step S1) will be described. The object recognition processing (step S1) is processing when some object is detected at the bus stop 10. FIG. FIG. 5 is a flowchart showing processing in the object recognition processing (step S1).
(Step S101) The control device 20 analyzes the image captured by the camera 15 and detects an object. After detecting the object, the control device 20 advances the process to step S102.
(Step S102) The control device 20 determines the type of object from the analysis image of the camera 15, and advances the process to step S103.

(ステップS103)制御装置20は、検出されたオブジェクトが人か否かを判別する。制御装置20は、検出されたオブジェクトが人でなければ(ステップS103:No)、処理をステップS104に進め、検出されたオブジェクトが人なら(ステップS103:Yes)、処理をステップS105に進める。 (Step S103) The control device 20 determines whether the detected object is a person. If the detected object is not a person (step S103: No), the control device 20 advances the process to step S104, and if the detected object is a person (step S103: Yes), advances the process to step S105.

(ステップS104)検出されたオブジェクトが人でなければ、オブジェクトは物であるので、制御装置20は、障害物を認識して、処理をステップS101に戻す。
(ステップS105)制御装置20は、検出されたオブジェクト(人)が車椅子に乗っているか否かを判別する。車椅子に乗っていれば(ステップS105:Yes)、処理をステップS106に進め、車椅子に乗っていなければ(ステップS105:No)、処理をステップS107に進める。
(ステップS106)制御装置20は、優先レーン(優先レーン105c)を表示して、車椅子に乗っている人を誘導して、処理をステップS101に戻す。
(ステップS107)制御装置20は、検出されたオブジェクト(人)が荷物を持っているか否かを判定する。荷物を持っていれば(ステップS107:Yes)、処理をステップS108に進め、荷物を持っていなければ(ステップS107:No)、処理をステップS109に進める。
(Step S104) If the detected object is not a person, the object is an object, so the control device 20 recognizes the obstacle and returns the process to step S101.
(Step S105) The control device 20 determines whether the detected object (person) is on a wheelchair. If the user is in a wheelchair (step S105: Yes), the process proceeds to step S106, and if not (step S105: No), the process proceeds to step S107.
(Step S106) The control device 20 displays the priority lane (priority lane 105c) to guide the person in the wheelchair, and returns the process to step S101.
(Step S107) The control device 20 determines whether the detected object (person) has baggage. If the user has luggage (step S107: Yes), the process proceeds to step S108, and if the user does not have luggage (step S107: No), the process proceeds to step S109.

(ステップS108)制御装置20は、荷物を認識して、処理をステップS101に戻す。荷物を持っている利用者がいることが認識された場合には、バス40の端末装置51に対して、一定サイズ以上の荷物を持った人が乗車する可能性があることを通知し、表示部53に表示することが可能である。これにより、バス40内に乗車している利用者に対して、バスの奥へ詰めてもらう等、バスが停留所に到着する前にスペースを確保してもらうことができる。
(ステップS109)制御装置20は、足元の床面に誘導を表示して、処理をステップS110に進める。
(ステップS110)制御装置20は、全てのオブジェクトの処理を行ったか否かを判定する。全てのオブジェクトの処理を行っていなければ(ステップS110:No)、ステップS101に戻り、次のオブジェクトの認識処理を行う。全てのオブジェクトの処理を終了したら(ステップS110:Yes)、オブジェクトの認識処理を終了して、メイン処理にリターンする。
(Step S108) The control device 20 recognizes the package and returns the process to step S101. When it is recognized that there is a user carrying luggage, the terminal device 51 of the bus 40 is notified and displayed that there is a possibility that a person carrying luggage of a certain size or more will board. It is possible to display it in the section 53 . As a result, the users riding in the bus 40 can secure a space before the bus arrives at the bus stop, for example, by having them pack in the back of the bus.
(Step S109) The control device 20 displays guidance on the floor at your feet, and advances the process to step S110.
(Step S110) The control device 20 determines whether or not all objects have been processed. If all objects have not been processed (step S110: No), the process returns to step S101 to perform recognition processing for the next object. When all the objects have been processed (step S110: Yes), the object recognition process ends and the process returns to the main process.

次に、移動しているオブジェクトの認識処理(ステップS2)について説明する。移動しているオブジェクトの認識処理(ステップS2)は、バス停留所10で人が動いたときの処理である。図6Aは、移動しているオブジェクトの認識処理(ステップS2)での処理を示すフローチャートである。図6Bは、バス停留所において利用者を誘導する概念を表す図である。 Next, the process of recognizing a moving object (step S2) will be described. The moving object recognition process (step S2) is performed when a person moves at the bus stop 10. FIG. FIG. 6A is a flow chart showing the process of recognizing a moving object (step S2). FIG. 6B is a diagram representing the concept of guiding users at a bus stop.

(ステップS201)制御装置20は、行き先別の整列ポイントを床面11に表示して(符号251、符号252)、処理をステップS202に進める。なお、整列ポイントの少なくとも一部が、壁面12に表示されるようにしてもよい。
(ステップS202)制御装置20は、カメラ15の撮像画像を解析して、オブジェクト(人)を認識する。制御装置20は、オブジェクト(人)を認識したら、処理をステップS203に進める。
(ステップS203)制御装置20は、認識したオブジェクトである人(利用者)の位置から、整列ポイント、スペース外への行き先、操作可能な壁面、行列の最後尾へのベクトルをそれぞれ計算する。例えば、整列ポイントは符号251に示す整列ポイント、スペース外への行き先は符号255に示す駅、操作可能な壁面は符号256に示す壁面、行列の最後尾は符号257に示す最後尾であってもよい。
(ステップS204)制御装置20は、計算結果に基づいて、各方向へ誘導する図形をそれぞれ床面に表示する。ここでは、制御部20は、整列ポイントへのベクトルに基づいて、符号261の矢印状の図形を表示し、スペース外への行き先へのベクトルに基づいて、符号262の矢印状の図形を表示し、操作可能な壁面へのベクトルに基づいて、符号263の矢印状の図形を表示し、行列の最後尾へのベクトルに基づいて、符号264の矢印状の図形を表示する。このようにして、認識したオブジェクトである人(利用者)に対し、その個人向けの情報を表示することが可能である。また、個人向けの情報としては、各利用者に対してパーソナライズされた、矢印、文字、アイコン等を組み合わせた案内表示と、一体化または組み合わされた画像が表示されてもよい
(ステップS205)制御装置20は、カメラ15の撮像画像を解析することで、オブジェクト(人)が壁面に向かって近づいているか否かを判定する。制御装置20は、オブジェクト(人)が壁面に近づいていれば(ステップS205:Yes)、処理をステップS206に進め、オブジェクト(人)が壁面に近づいていなければ(ステップS205:No)、処理をステップS207に進める。
(Step S201) The control device 20 displays alignment points for each destination on the floor 11 (reference numerals 251 and 252), and advances the process to step S202. At least part of the alignment points may be displayed on the wall surface 12 .
(Step S202) The control device 20 analyzes the image captured by the camera 15 and recognizes an object (person). After recognizing the object (person), the control device 20 advances the process to step S203.
(Step S203) The control device 20 calculates an alignment point, a destination outside the space, an operable wall surface, and a vector to the end of the matrix from the position of the person (user) who is the recognized object. For example, the alignment point is the alignment point indicated by reference numeral 251, the destination outside the space is the station indicated by reference numeral 255, the operable wall surface is indicated by reference numeral 256, and the end of the queue is indicated by reference numeral 257. good.
(Step S204) Based on the calculation result, the control device 20 displays on the floor a figure guiding each direction. Here, the control unit 20 displays an arrow-shaped figure 261 based on the vector to the alignment point, and displays an arrow-shaped figure 262 based on the vector to the destination outside the space. , an arrow-shaped figure 263 is displayed based on the vector to the operable wall surface, and an arrow-shaped figure 264 is displayed based on the vector to the end of the matrix. In this way, it is possible to display personalized information to the person (user) who is the recognized object. In addition, as information for individuals, a guidance display combining arrows, characters, icons, etc., personalized for each user, and an integrated or combined image may be displayed (step S205) control. The device 20 analyzes the image captured by the camera 15 to determine whether an object (person) is approaching the wall surface. If the object (person) is approaching the wall surface (step S205: Yes), the controller 20 advances the process to step S206, and if the object (person) is not approaching the wall surface (step S205: No), the process continues. Proceed to step S207.

(ステップS206)制御装置20は、壁面12の画面に、壁面12に対してタッチ等をして処理が行える壁面インターフェース(壁面インターフェース103)を起動して、処理をステップS201に戻す。壁面インターフェース103が起動されると、壁面12における利用者のタッチ操作等を検出し、そのタッチ操作に応じた各種情報を壁面インターフェース103または壁面12におけるいずれかの領域に表示することができる。
(ステップS207)制御装置20は、カメラ15の撮像画像を解析することで、オブジェクト(人)が整列ポイントに並んだか否かを判定する。制御装置20は、オブジェクト(人)が整列ポイントに並んだ場合には(ステップS207:Yes)、処理をステップS208に進め、オブジェクト(人)が整列ポイントに並んでいない場合には(ステップS207:No)、処理をステップS209に進める。
(ステップS208)制御装置20は、オブジェクト群の認識処理へ移行する。オブジェクト群の認識処理としては、例えば、ステップS3のオブジェクト群の認識処理である。
(ステップS209)制御装置20は、他にオブジェクトがあるか否かを判定する。他にオブジェクトがあれば(ステップS209:Yes)、ステップS201に戻り、次のオブジェクトの認識処理を行う。他にオブジェクトがなければ(ステップS209:No)、移動しているオブジェクトの認識処理を終了して、メイン処理にリターンする。
(Step S206) The control device 20 activates the wall interface (wall interface 103) that can perform processing by touching the wall 12 on the screen of the wall 12, and returns the process to step S201. When the wall interface 103 is activated, the user's touch operation or the like on the wall surface 12 can be detected, and various information corresponding to the touch operation can be displayed on either the wall surface interface 103 or the wall surface 12 .
(Step S207) The control device 20 analyzes the captured image of the camera 15 to determine whether or not the objects (persons) are aligned with the alignment points. If the objects (persons) are aligned at the alignment point (step S207: Yes), the control device 20 advances the process to step S208, and if the objects (persons) are not aligned at the alignment point (step S207: No), the process proceeds to step S209.
(Step S208) The control device 20 shifts to object group recognition processing. The object group recognition processing is, for example, the object group recognition processing in step S3.
(Step S209) The control device 20 determines whether there is another object. If there is another object (step S209: Yes), the process returns to step S201 to perform recognition processing for the next object. If there is no other object (step S209: No), the process of recognizing a moving object is terminated, and the process returns to the main process.

次に、オブジェクトの群の認識処理(ステップS3)について説明する。オブジェクトの群の認識処理(ステップS3)は、バス停留所10で人が並んでいるときの処理である。図7は、オブジェクトの群の認識処理(ステップS3)を示すフローチャートである。
(ステップS301)制御装置20は、カメラ15の撮像画像を解析して、オブジェクト(人)の群を認識する。制御装置20は、オブジェクト(人)の群を認識したら、処理をステップS302に進める。
(ステップS302)制御装置20は、カメラ15の撮像結果に基づく解析画像から、その行き先の列に、既に並んでいる人がいるか否かを判定する。制御装置20は、既に並んでいる人がいなければ(ステップS202:No)、処理をステップS303に進め、既に並んでいる人がいれば(ステップS202:Yes)、処理をステップS304に進める。
(ステップS303)制御装置20は、行き先別の整列ポイント(整列ポイント104a、104b)への誘導を表示して、処理をステップS301に戻す。
(ステップS304)制御装置20は、カメラ15の撮像結果に基づく解析画像から、その行き先の列の最後尾を判定して、処理をステップS305に進める。
(ステップS305)制御装置20は、行列の最後尾の床面11に、最後尾であることを示す表示(最後尾を示す表示画像107)を行って、処理をステップS306に進める。
Next, the object group recognition processing (step S3) will be described. The object group recognition process (step S3) is performed when people are lined up at the bus stop 10. FIG. FIG. 7 is a flow chart showing the object group recognition process (step S3).
(Step S301) The control device 20 analyzes the image captured by the camera 15 and recognizes a group of objects (people). After recognizing the group of objects (people), the control device 20 advances the process to step S302.
(Step S302) The control device 20 determines from the analysis image based on the imaging result of the camera 15 whether or not there is already a person lined up in the line of the destination. If there are no people already lined up (step S202: No), the control device 20 advances the process to step S303, and if there are people already lined up (step S202: Yes), the process advances to step S304.
(Step S303) The control device 20 displays guidance to the destination-specific alignment points (alignment points 104a and 104b), and returns the process to step S301.
(Step S304) The control device 20 determines the end of the destination line from the analysis image based on the imaging result of the camera 15, and advances the process to step S305.
(Step S305) The control device 20 performs a display (display image 107 indicating the end) indicating that it is the end on the floor 11 at the end of the matrix, and advances the process to step S306.

(ステップS306)制御装置20は、全てのオブジェクトの群についての処理が終了したか否かを判定する。全てのオブジェクトの群についての処理が終了していなければ(ステップS306:No)、ステップS301に戻り、次のオブジェクトの群についての認識処理を行う。全てのオブジェクトの群についての処理が終了していれば(ステップS306:Yes)、オブジェクトの群の認識処理を終了して、メイン処理にリターンする。 (Step S306) The control device 20 determines whether the processing for all object groups has been completed. If the processing for all object groups has not been completed (step S306: No), the process returns to step S301 to perform recognition processing for the next object group. If the processing for all object groups has been completed (step S306: Yes), the object group recognition processing is completed and the process returns to the main processing.

次に、カウント処理(ステップS4)について説明する。カウント処理(ステップS4)は、バス停留所10で待っている人をカウントする処理である。図8は、カウント処理(ステップS4)での処理を示すフローチャートである。
(ステップS401)制御装置20は、カメラ15の撮像画像を解析して、行列に並んでいる人をカウントして、処理をステップS402に進める。
(ステップS402)制御装置20は、接近しているバス側と通信を行い、接近しているバスに、待っている人の数と、車椅子、荷物の有無を通知して、処理をステップS403に進める。
Next, the counting process (step S4) will be described. The counting process (step S4) is a process of counting the number of people waiting at the bus stop 10. FIG. FIG. 8 is a flow chart showing processing in the counting process (step S4).
(Step S401) The control device 20 analyzes the image captured by the camera 15, counts the number of people in line, and advances the process to step S402.
(Step S402) The controller 20 communicates with the approaching bus, notifies the approaching bus of the number of people waiting, the presence or absence of wheelchairs and luggage, and proceeds to step S403. proceed.

(ステップS403)制御装置20は、全ての行列について処理が終了したか否かを判定する。全ての行列について処理が終了していなければ(ステップS403:No)、ステップS401に戻り、次の行列についてカウント処理を行う。全ての行列についての処理が終了していれば(ステップS403:Yes)、カウント処理を終了して、メイン処理にリターンする。 (Step S403) The control device 20 determines whether or not processing has been completed for all matrices. If the processing has not been completed for all the matrices (step S403: No), the process returns to step S401 and count processing is performed for the next matrix. If the processes for all matrices have been completed (step S403: Yes), the counting process is completed and the process returns to the main process.

以上説明したように、本実施形態では、床面にペイントやタイルで物理的に提示していたような情報を、全面が表示面となっている床面11に映像で動的に提示できる。そのため、物理的な表示体を設置する必要もない。また、画像認識などのセンシング技術によって、バス停留所10にいる利用者16の人数や状況を把握することも可能である。また、全面が表示面となっている壁面12に、バスの運行状況等を映像で動的に提示できる。また、利用者16が壁面12をタッチすることで、必要な情報を表示させることができる。 As described above, in the present embodiment, information that is physically presented on the floor with paint or tiles can be dynamically presented on the floor 11 whose entire surface is a display surface, as an image. Therefore, it is not necessary to install a physical display body. It is also possible to grasp the number of users 16 at the bus stop 10 and the situation by sensing technology such as image recognition. In addition, on the wall surface 12, the entire surface of which is a display surface, it is possible to dynamically present the operation status of the bus, etc., in the form of images. Further, when the user 16 touches the wall surface 12, necessary information can be displayed.

路線バスのような交通機関は、事前に旅程を計画し予約するタイプの交通機関と異なり、街中に停留所が点在しており、利用者はその時その場所の都合で、臨機応変にその交通機関を利用するかどうかを決定する。同時に、バスの側も、道路渋滞や乗降時間の影響を受けることがあり、運行の微調整がしばしば発生する。利用者は、事前にバスの接近情報や乗継情報や混雑情報を取得できると、乗車するかどうかの意思決定がしやすい。乗り合い車両内においても、次の停留所での乗車予測ができることで、事前に奥につめたり、車いすスペースを確保するなどの準備ができ乗降時間を短縮できる。本実施形態では、そうした複数の行先へ向かう利用者が場当たり的に滞留するバス停留所の状況おいて、停留所のシステムが利用者の行列や行先を把握し、利用者群に対し壁や床を使って情報提示することで、利用者の整列が行えるとともに、乗降がスムーズになり、利用者に、より利便性の高いサービスを提供できる。 Transportation such as fixed-route buses differs from transportation in which an itinerary is planned and reserved in advance, and stops are scattered throughout the city, and users can flexibly choose the transportation according to the circumstances of the time and place. decide whether to use At the same time, the bus side can also be affected by road congestion and boarding and disembarking times, often resulting in minor adjustments to operations. If users can obtain bus approach information, transit information, and congestion information in advance, they can easily decide whether or not to board the bus. Even in shared vehicles, it is possible to predict boarding at the next stop, so preparations can be made in advance, such as squeezing in the back of the vehicle and securing wheelchair space, thereby shortening boarding and alighting times. In this embodiment, in the situation of a bus stop where users heading to multiple destinations arbitrarily stay, the bus stop system grasps the queue and destination of users, and uses walls and floors for user groups. By presenting information to the users, it is possible to line up the users and make boarding and alighting smoother, so that more convenient services can be provided to the users.

なお、天井13が表示面となっている場合には、乗降の意思決定に役立つ環境情報(降雨確率等)を提示することができる。それら情報の表示方法は、文字などでの明示的な提示の方法でも、照明機能などを兼ねたアンビエントな提示の方法でも構わない。
また、設置のコストや道路空間の制約などから、経路上のすべての停留所が大規模なディスプレイを持つバス停を実現できるとは限らない。その場合は、簡易的な表示機能しかもたないポール状の停留所を用意し、ポールの先端から画像認識等において利用者の待ち行列判定を行うことで、このシステムに組み込むことができる。
When the ceiling 13 serves as a display surface, it is possible to present environmental information (probability of rainfall, etc.) that is useful for decision-making when getting on and off. The method of displaying the information may be an explicit presentation method using characters or the like, or an ambient presentation method that also serves as a lighting function.
In addition, due to installation costs and road space restrictions, it is not always possible to realize a bus stop with a large-scale display at every stop on the route. In that case, a pole-shaped stop with only a simple display function is prepared, and it is possible to incorporate it into this system by judging the queue of users by image recognition or the like from the tip of the pole.

また、屋根を持たないバス停においては、雨宿りや日照り除けのために、利用者は、バス停から離れ、近くの屋根のある空間で待機するということが行われる。その際に、システム(停留所及びバス)がその停留所の利用者が近くで待機しているということを把握できるように、停留所にビーコンなどの近距離の利用者を判定できる機能を持たせ、スマートフォン等を介して近距離の利用者からの入力を得ることによって、待ち利用者に含めることができる。 In addition, at a bus stop without a roof, users leave the bus stop and wait in a nearby space with a roof to shelter from rain and drought. At that time, the system (bus stop and bus) will be equipped with a beacon or other function that can determine users in the short distance, so that the system (bus stop and bus) can grasp that the user of the stop is waiting nearby. It is possible to include users in the waiting list by obtaining input from nearby users via, for example.

なお、上述の例では、乗り物としてバス、待合スペースとしてバス停留所の例について説明してきたが、本発明は、バス以外の乗り物や待合スペースにも同様に適用できる。例えば、乗り物は列車、待合スペースとして駅であってもよい。さらに、乗り物はエレベータ、待合スペースとしてエレベータ前のホールであってもよい。
また、上述した実施形態において、乗り物がバスである場合について説明した。このようなバスは、運行経路や運行時刻が予め決められており、その運行経路や運行時刻に沿って運行される公共機関である場合を主な一例として説明したが、ライドシェアや自動運転技術を用いた自動車等の車両による交通サービスにも用いることができる。この場合には、車両に乗り込む待合場所に上述のバス停留所10と同様に、待合場所における利用者の状況を撮影するカメラによって、利用者の状況を検出し、制御装置20が、床面、壁面に対して、プロジェクションやLEDモジュールを用いて各種情報(運行状況や車両の現在位置等)を表示するようにしてもよい。また、待合場所を撮影したカメラから得られる撮像画像に基づいて検出された利用者の情報を、車両内に搭載された端末装置に送信し、この端末装置に接続された表示装置に各種情報を表示するようにしてもよい。また、待合場所を撮影したカメラによって検出された利用者の情報を、車両に搭乗している利用者によって携帯されている端末装置(携帯電話、スマートフォン等)に送信し、この端末装置の表示画面に各種情報を表示してもよい。
In the above example, a bus is used as a vehicle and a bus stop is used as a waiting space, but the present invention can be applied to other vehicles and waiting spaces as well. For example, the vehicle may be a train, a station as a waiting space. Further, the vehicle may be an elevator, a hall in front of the elevator as a waiting space.
Also, in the above-described embodiment, the case where the vehicle is a bus has been described. The main example of such a bus is the case where the route and time of operation are determined in advance, and the case where it is a public institution that operates according to the route and time of operation has been explained. It can also be used for transportation services by vehicles such as automobiles using In this case, similar to the bus stop 10 described above, the user's situation is detected by a camera that captures the user's situation at the waiting place where the user gets on the vehicle, and the control device 20 detects the situation of the user on the floor and the wall. On the other hand, projection or LED modules may be used to display various information (operation status, current position of the vehicle, etc.). In addition, the information of the user detected based on the captured image obtained from the camera that captured the waiting area is transmitted to the terminal device installed in the vehicle, and various information is displayed on the display device connected to this terminal device. You may make it display. In addition, the information of the user detected by the camera that photographed the waiting area is transmitted to the terminal device (mobile phone, smartphone, etc.) carried by the user on board the vehicle, and the display screen of this terminal device Various information may be displayed in .

図9は、本発明による乗り物情報提供装置の基本構成を示す概略ブロック図である。本発明による乗り物情報提供装置は、運行状況検出部201と、滞留状況検出部202と、出力制御部203と、を有する。運行状況検出部201は、乗り物210の運行状況を検出する。滞留状況検出部202は、乗り物210を利用するために滞留可能な場所である滞留場所211の滞留状況を検出する。出力制御部203は、運行状況検出部201の検出結果と滞留状況検出部202の検出結果とに基づいて、運行状況検出部201の検出結果に応じた情報を滞留場所211を利用する利用者212から視認可能な壁214、床面213、天井215の少なくとも1つに表示する表示部216へ出力する第1の出力と、滞留状況検出部202の検出結果に応じた情報を乗り物210内にある端末装置217へ出力する第2の出力と、のうち少なくともいずれか一方の出力を行う。 FIG. 9 is a schematic block diagram showing the basic configuration of the vehicle information providing device according to the present invention. The vehicle information providing device according to the present invention has an operation status detection section 201 , a stay status detection section 202 and an output control section 203 . The operation status detector 201 detects the operation status of the vehicle 210 . A stay state detection unit 202 detects a stay state of a stay place 211 that is a place where a vehicle 210 can be stayed. Based on the detection result of the operation status detection unit 201 and the detection result of the stay status detection unit 202, the output control unit 203 outputs information corresponding to the detection result of the operation status detection unit 201 to the user 212 who uses the stay place 211. A first output to be output to a display unit 216 that is displayed on at least one of a wall 214, a floor surface 213, and a ceiling 215 visible from the vehicle 210, and information according to the detection result of the staying state detection unit 202 inside the vehicle 210 At least one of the second output to the terminal device 217 and the output to the terminal device 217 is performed.

上述した実施形態における乗り物情報提供装置1の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 All or part of the vehicle information providing apparatus 1 in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read into a computer system and executed. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. Furthermore, "computer-readable recording medium" refers to a program that dynamically retains programs for a short period of time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include something that holds the program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or client in that case. Further, the program may be for realizing a part of the functions described above, or may be capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using a programmable logic device such as FPGA.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and design and the like are included within the scope of the gist of the present invention.

10…バス停留所、11…床面、12…壁面、15…カメラ、20…制御装置、40…バス、51…端末装置 DESCRIPTION OF SYMBOLS 10... Bus stop, 11... Floor surface, 12... Wall surface, 15... Camera, 20... Control device, 40... Bus, 51... Terminal device

Claims (2)

り物を利用するために滞留可能な場所である滞留場所の滞留状況を検出する滞留状況検出部と、
記滞留状況検出部の検出結果に基づいて、前記滞留場所を利用する利用者から視認可能な壁、床面、天井の少なくとも1つに情報を表示すべく出力を行う出力制御部と、
を有し、
前記出力制御部は、前記滞留状況検出部の検出結果に基づいて、前記滞留場所にアシストが必要な利用者がいるか否かを判定し、アシストが必要な利用者がいる場合には、前記滞留場所に、一般の行列とは異なる行列を形成するよう案内する案内情報を出力する
乗り物情報提供装置。
a staying state detection unit that detects a staying state of a staying place, which is a place where the user can stay for using a vehicle ;
an output control unit for outputting information to be displayed on at least one of a wall, a floor surface, and a ceiling visible to a user who uses the staying place, based on the detection result of the staying state detecting unit; ,
has
The output control unit determines whether or not there is a user who needs assistance at the staying place based on the detection result of the staying state detecting unit, and if there is a user who needs assistance, the staying place A vehicle information providing device for outputting guidance information to form a queue different from a general queue at a place .
前記出力制御部は、前記滞留場所に滞留している人数に応じた情報を前記乗り物内にある端末装置に出力する
請求項1記載の乗り物情報提供装置。
2. The vehicle information providing apparatus according to claim 1 , wherein said output control unit outputs information corresponding to the number of people staying at said staying place to a terminal device inside said vehicle .
JP2019001245A 2019-01-08 2019-01-08 Vehicle information providing device Active JP7329925B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019001245A JP7329925B2 (en) 2019-01-08 2019-01-08 Vehicle information providing device
PCT/JP2020/000327 WO2020145312A1 (en) 2019-01-08 2020-01-08 Vehicle information provision device and vehicle information provision method
JP2023041235A JP2023073301A (en) 2019-01-08 2023-03-15 Vehicle information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019001245A JP7329925B2 (en) 2019-01-08 2019-01-08 Vehicle information providing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023041235A Division JP2023073301A (en) 2019-01-08 2023-03-15 Vehicle information providing device

Publications (2)

Publication Number Publication Date
JP2020112866A JP2020112866A (en) 2020-07-27
JP7329925B2 true JP7329925B2 (en) 2023-08-21

Family

ID=71520495

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019001245A Active JP7329925B2 (en) 2019-01-08 2019-01-08 Vehicle information providing device
JP2023041235A Pending JP2023073301A (en) 2019-01-08 2023-03-15 Vehicle information providing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023041235A Pending JP2023073301A (en) 2019-01-08 2023-03-15 Vehicle information providing device

Country Status (2)

Country Link
JP (2) JP7329925B2 (en)
WO (1) WO2020145312A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7468322B2 (en) 2020-12-04 2024-04-16 株式会社デンソー Information processing device, information processing program, and monitoring system
JP7452506B2 (en) * 2021-09-22 2024-03-19 カシオ計算機株式会社 Projection processing device, projection device, projection system, program and projection method
JP2023125180A (en) * 2022-02-28 2023-09-07 三菱電機株式会社 Boarding guidance device, boarding guidance system using the same, and boarding guidance method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168193A (en) 2001-11-29 2003-06-13 Canon Inc Physical distribution and traffic system
JP2016057719A (en) 2014-09-08 2016-04-21 パナソニックIpマネジメント株式会社 Sign for road surface
WO2018037954A1 (en) 2016-08-26 2018-03-01 ソニー株式会社 Moving object control device, moving object control method, and moving object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168193A (en) 2001-11-29 2003-06-13 Canon Inc Physical distribution and traffic system
JP2016057719A (en) 2014-09-08 2016-04-21 パナソニックIpマネジメント株式会社 Sign for road surface
WO2018037954A1 (en) 2016-08-26 2018-03-01 ソニー株式会社 Moving object control device, moving object control method, and moving object

Also Published As

Publication number Publication date
JP2020112866A (en) 2020-07-27
WO2020145312A1 (en) 2020-07-16
JP2023073301A (en) 2023-05-25

Similar Documents

Publication Publication Date Title
JP2023073301A (en) Vehicle information providing device
JP7229186B2 (en) Rideshare management system, rideshare management method, and program
US11443634B2 (en) Smart signs for autonomous vehicles
US11244252B2 (en) Autonomous driving under user instructions and hailing methods
CN112449690B (en) Inconvenience of passengers getting on and off for automatically driving vehicle
JP7365171B2 (en) Vehicle allocation management device
US20200309557A1 (en) Systems and methods for providing virtual navigation guidance
JP2019077441A (en) System for managing space and seat available for use by passenger for use in passenger transporting system
KR20180117866A (en) Navigation system by using augmented reality
JP7172464B2 (en) Vehicles and vehicle operation methods
JP6633981B2 (en) Traffic information distribution system and traffic information distribution method
US11262205B2 (en) Traffic control apparatus, traffic control system, traffic control method, and non-transitory computer recording medium
KR101750703B1 (en) Intelligent parking management method and system
KR101660238B1 (en) Reservation system for subway
KR20200049266A (en) System and Method for Providing Route Guidance Service to Persons in Need of Assistance
WO2024023543A1 (en) Traffic system for dispatch vehicle, shared terminal control device, and shared terminal control method
WO2022014164A1 (en) Information processing device and information processing method
KR20200049280A (en) Guidance Robot for Interacting with Persons in Need and Guidance Method Using the Same
JP2006107154A (en) Vehicle use support system
JP7432460B2 (en) Information processing device and information processing method
US20220122005A1 (en) Autonomous Driving under User Instructions and Hailing Methods
RU2780594C2 (en) System for control of available space and passenger seats for use in passenger transportation system
WO2024023542A1 (en) Shared terminal control device, transit system for allocated vehicle, and shared terminal control method
JP2023070993A (en) Vehicle operational support device, terminal device, demand traffic system, vehicle operational support method, and vehicle operational support program
JP2024010817A (en) Vehicle allocation device, vehicle allocation system, and vehicle allocation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230808

R150 Certificate of patent or registration of utility model

Ref document number: 7329925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150