WO2022201244A1 - 乗車支援システム、乗車支援方法及びプログラム記録媒体 - Google Patents

乗車支援システム、乗車支援方法及びプログラム記録媒体 Download PDF

Info

Publication number
WO2022201244A1
WO2022201244A1 PCT/JP2021/011707 JP2021011707W WO2022201244A1 WO 2022201244 A1 WO2022201244 A1 WO 2022201244A1 JP 2021011707 W JP2021011707 W JP 2021011707W WO 2022201244 A1 WO2022201244 A1 WO 2022201244A1
Authority
WO
WIPO (PCT)
Prior art keywords
passenger vehicle
information
image
vehicle
pick
Prior art date
Application number
PCT/JP2021/011707
Other languages
English (en)
French (fr)
Inventor
航生 小林
哲郎 長谷川
洋明 網中
慶 柳澤
一気 尾形
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023508165A priority Critical patent/JPWO2022201244A5/ja
Priority to PCT/JP2021/011707 priority patent/WO2022201244A1/ja
Priority to US18/282,868 priority patent/US20240169836A1/en
Publication of WO2022201244A1 publication Critical patent/WO2022201244A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • the present invention relates to a boarding assistance system, a boarding assistance method, and a program recording medium.
  • Patent Document 1 discloses a vehicle allocation system that can prevent troubles caused by users forgetting to request vehicle allocation to the vehicle allocation center.
  • the document describes that the user transmits the current position information of the used vehicle to the information terminal of the dispatched vehicle via the vehicle monitoring system or directly.
  • the vehicle monitoring system provides the user with vehicle data such as the appearance and color of the vehicle to be dispatched, image data such as the driver's face, audio data of the driver's voice, It is described that moving image data such as scenery shot from a vehicle in the vehicle is transmitted (see paragraph 0128).
  • Patent Document 2 it is possible to easily receive a taxi dispatch service from a place where the user is not familiar with the geography, and the taxi driver can quickly and accurately recognize the detailed calling position where the user is waiting, thereby realizing a reliable taxi dispatch service.
  • a vehicle dispatch service method that can be provided.
  • Patent Document 3 discloses a configuration including a server that sends dispatch information including a boarding position to both the user and the vehicle-mounted terminal (see paragraph 0051).
  • Patent Document 4 describes an automatic driving vehicle equipped with an image analysis unit that analyzes images taken around a vehicle allocation point using multiple cameras and dynamically sets a vehicle allocation area R based on road conditions around the vehicle allocation point. is disclosed.
  • Patent Document 1 describes transmitting information about taxis to users, but the information sources include a database of a vehicle monitoring system, a digital camera, a video camera, and a microphone installed in the vehicle. Because it is used, it may not match the image of the taxi seen by the user.
  • An object of the present invention is to provide a boarding support system, a boarding support method, and a program recording medium that can facilitate identification of a passenger vehicle present at a pick-up point.
  • an image can be acquired from a fixed-point camera that is installed at a predetermined position on the road and can photograph the passenger vehicle being picked up, and from the dispatch system that dispatches the passenger vehicle, Receiving means for receiving information on a passenger vehicle for which a user of the passenger vehicle has made a reservation; and based on the information on the passenger vehicle, an image of the passenger vehicle being picked up is captured from the fixed-point camera.
  • a boarding support system is provided that includes image acquisition means for acquiring and display means for displaying information for identifying the passenger vehicle on a predetermined display device using the image of the passenger vehicle.
  • a computer capable of acquiring an image from a fixed-point camera that is installed at a predetermined position on the road and capable of photographing a passenger vehicle that is being picked up is provided by a dispatch system that dispatches the passenger vehicle.
  • a dispatch system that dispatches the passenger vehicle.
  • the method is tied to a specific machine, a computer capable of acquiring images from a fixed point camera installed at a predetermined position on the road and capable of photographing a picking passenger vehicle.
  • a computer program (hereinafter referred to as program) is provided for realizing the functions of the boarding support system described above.
  • the computer program is input to the computer device from an input device or an external communication interface, is stored in the storage device, and drives the processor according to predetermined steps or processes.
  • this program can display the results of processing, including intermediate states, at each stage via a display device as required, or can communicate with the outside via a communication interface.
  • a computer device for this purpose typically includes, as an example, a processor, a storage device, an input device, a communication interface, and optionally a display device, all of which are connectable to each other via a bus.
  • the program can also be recorded on a computer-readable (non-transitory) storage medium. That is, the present invention can also be embodied as a computer program product.
  • connection lines between blocks in drawings and the like referred to in the following description include both bidirectional and unidirectional connections.
  • the unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality.
  • ports or interfaces at input/output connection points of each block in the figure they are omitted from the drawing.
  • a program is executed via a computer device, and the computer device includes, for example, a processor, a storage device, an input device, a communication interface, and, if necessary, a display device.
  • this computer device is configured to be able to communicate with internal or external devices (including computers) via a communication interface, whether wired or wireless.
  • a boarding support system 10 connected to a fixed-point camera 30, a vehicle allocation system 20, and a display device 40 can be implemented.
  • a fixed-point camera 30 is installed at a predetermined position on the road, and is capable of photographing a passenger vehicle being picked up.
  • the installation position of the fixed-point camera 30 may be the entrance of a major facility, which is often designated as the pick-up position, or an intersection in front of it, but is not particularly limited.
  • the dispatch system 20 is a dispatch system for taxi companies and self-driving vehicles, and dispatches the above-mentioned passenger vehicles.
  • the display device 40 is a device that serves as a display destination for identifying the passenger vehicle created by the boarding support system 10 .
  • the display device 40 may be of various types depending on the devices that make up the boarding support system 10, such as a liquid crystal display of the user's smartphone, a glasses-type information display device called smart glasses, or an information display board near the pick-up position. can be considered.
  • the boarding support system 10 includes reception means 11 , image acquisition means 12 , and display means 13 .
  • the receiving means 11 receives, from the vehicle allocation system 20, information on the passenger vehicle for which the user of the passenger vehicle has made a reservation.
  • the image acquiring means 12 acquires an image of the passenger vehicle being picked up based on the reservation from the fixed point camera 30 based on the information of the passenger vehicle.
  • the display means 13 causes the display device 40 to display information for identifying the passenger vehicle using the image of the passenger vehicle.
  • the following is conceivable as a mechanism for the image acquisition means 12 to acquire the image of the relevant passenger vehicle from the fixed-point camera 30 based on the information of the passenger vehicle.
  • a method of detecting the vehicle by recognizing the license plate included in the information of the above-mentioned passenger vehicle by the fixed-point camera 30 can be used.
  • a method using position information or the like transmitted from an in-vehicle terminal mounted in a passenger vehicle can be used.
  • a method of inquiring of the control center and selecting an appropriate fixed-point camera 30 can be adopted.
  • the method of acquiring the image is not limited to the form of directly receiving the image from the fixed-point camera 30, but the form of acquiring the image from a storage device that temporarily stores the image taken by the fixed-point camera 30 can also be adopted.
  • the fixed point camera 30 and the image acquisition means 12 can be interconnected using various networks.
  • the fixed point camera 30 and the image acquisition means 12 may be connected by a wired line.
  • the fixed-point camera 30 and the image acquisition means 12 may be connected via a wireless line such as LTE, 5G, wireless LAN, or the like.
  • the boarding support system 10 configured as described above receives, from the dispatch system 20, information on passenger vehicles for which the user of the passenger vehicle has made a reservation. Based on the information of the passenger vehicle, the boarding support system 10 acquires an image of the passenger vehicle being picked up based on the reservation from the fixed-point camera 30 . Further, the boarding support system 10 uses the image of the passenger vehicle to display information for identifying the passenger vehicle on the terminal of the user of the passenger vehicle.
  • an exterior image of the passenger vehicle can be used, as shown in FIG.
  • an image showing the face of the driver of the passenger vehicle being picked up can be used.
  • vehicle characteristic information recognized from an image of the passenger vehicle being picked up can be used. A specific example of this feature information will be described in a second embodiment.
  • FIG. 3 is a diagram showing the system configuration of the first embodiment of the present invention.
  • a fixed point camera 300 installed at a predetermined position on a road and capable of photographing a passenger vehicle 500 being picked up, and an information processing device 100 connected to a vehicle allocation system 200 are shown.
  • the vehicle allocation system 200 is a system that accepts a reservation for a passenger vehicle specifying the date, time, pick-up point, etc. from the user of the passenger vehicle, and instructs the in-vehicle terminal of the passenger vehicle to allocate the vehicle.
  • the dispatch system 200 of the present embodiment has a function of transmitting information on a passenger vehicle reserved by a user of the passenger vehicle to the information processing device 100 of the user of the passenger vehicle. It is assumed that the destination information (user ID, e-mail address, etc.) for transmitting information to the information processing device 100 of the user of the passenger vehicle is input by the user when the passenger vehicle is reserved.
  • the information processing device 100 includes a receiving unit 101 , an image acquisition unit 102 and a display unit 103 .
  • the receiving unit 101 receives, from the vehicle allocation system 200, information on passenger vehicles for which the user of the passenger vehicle has made a reservation.
  • the "passenger vehicle information" is information that can identify the passenger vehicle in the image captured by the fixed-point camera 300. For example, the ID and license plate information of the passenger vehicle can be used.
  • the image acquisition unit 102 acquires an image of the passenger vehicle being picked up based on the reservation from the fixed point camera 300 .
  • the image acquisition unit 102 cuts out the license plate area of the vehicle in the image captured by the fixed point camera 300, and performs character recognition. Then, the image acquisition unit 102 can identify the passenger vehicle reserved by the user of the passenger vehicle by collating the license plate received from the vehicle allocation system 200 with the character-recognized license plate.
  • the fixed-point camera 300 has a function of cutting out the license plate area of the vehicle in the image, recognizing the characters, and tagging the image, by matching with these tags, the passenger vehicle can be identified. It is also possible to identify the passenger vehicle for which the user has made a reservation.
  • the display unit 103 uses the image of the passenger vehicle acquired by the image acquisition unit 102 to display information for identifying the passenger vehicle on the display device (not shown) of the information processing device 100. Function.
  • the information processing device 100 as described above can be realized by a smartphone carried by a user of a passenger vehicle or various mobile devices. Specifically, by installing a computer program (a so-called “app” or “App”) that implements functions corresponding to the receiving unit 101, the image acquisition unit 102, and the display unit 103 in these devices, The information processing apparatus 100 described above can be configured. In another form, the information processing device 100 can also be implemented as a server that displays information for identifying the passenger vehicle on a smartphone or various mobile devices carried by the user of the passenger vehicle. It is possible (see the fourth embodiment below).
  • FIG. 4 is a flowchart showing the operation of the information processing apparatus 100 according to the first embodiment of the invention.
  • the information processing device 100 first receives, from the vehicle allocation system 200, information on a passenger vehicle reserved by a user of the passenger vehicle (step S001).
  • the information processing device 100 acquires an image of the passenger vehicle being picked up based on the reservation from the fixed point camera 300 (step S002).
  • the information processing device 100 causes the display device (not shown) of the information processing device 100 to display information for identifying the passenger vehicle using the image of the passenger vehicle acquired by the image acquisition unit 102 (step S003).
  • the information processing device 100 that operates as described above, it is possible to provide the user of the passenger vehicle with information for identifying the passenger vehicle in which he or she rides. For example, as shown in FIG. 2, by providing an exterior image of the passenger vehicle, the user of the passenger vehicle can use the exterior image as a clue at the pick-up point to accurately identify the passenger vehicle that he or she will board. identification becomes possible. Further, when an image showing the face of the driver of the passenger vehicle that is picking up the passenger is used as this image, the identification is further facilitated.
  • FIG. 5 is a diagram showing the system configuration of the second embodiment of the present invention.
  • the difference from the first embodiment is that a feature extraction unit 104 is added to the information processing device 100a, and the display unit 103a is configured to display the feature information of the passenger vehicle extracted by the feature extraction unit 104.
  • the point is that
  • the image of the passenger vehicle acquired by the image acquisition unit 102 is input to the feature extraction unit 104.
  • the feature extraction unit 104 recognizes the features of the passenger vehicle from the image of the passenger vehicle, and outputs the feature to the display unit 103a.
  • a method for recognizing features from images of passenger vehicles a method using a classifier created in advance by machine learning can be used.
  • the feature extraction unit 104 extracts the body color, logo drawn on the body, number plate information, shape of the sign on the roof of the vehicle, presence or absence and color of the side line, type of vehicle, etc. Recognize at least one.
  • the display unit 103a displays the feature information of the passenger vehicle extracted by the feature extraction unit 104 on the display device (not shown) of the information processing device 100a. For example, as shown in FIG. 5, the body color of the reserved taxi, the pattern of the side logo, and the like are displayed on the display device (not shown) of the information processing device 100 .
  • FIG. 6 is a flowchart showing the operation of the information processing apparatus 100a of this embodiment. Since the operations of steps S001 and S002 in FIG. 6 are the same as those in the first embodiment, description thereof is omitted.
  • the information processing device 100a extracts the features of the passenger vehicle from the image of the passenger vehicle.
  • step S104 the information processing device 100a displays the characteristics of the passenger vehicle on the display device (not shown).
  • the present embodiment it is possible to further facilitate identification by providing vehicle characteristic information recognized from an image of a passenger vehicle being picked up.
  • vehicle characteristic information recognized from an image of a passenger vehicle being picked up.
  • the provision of such characteristic information is particularly effective when some countries and local governments specify the body color of taxis.
  • the image of the passenger vehicle itself may be displayed together with the characteristic information.
  • FIG. 7 is a diagram showing the system configuration of the third embodiment of the present invention.
  • the difference from the first embodiment is that a pick-up position prediction unit 105 is added to the information processing device 100b, and the display unit 103b displays the pick-up position of the passenger vehicle predicted by the pick-up position prediction unit 105 or the pick-up position.
  • the point is that it is configured to display the direction of approach.
  • the image of the passenger vehicle acquired by the image acquisition unit 102 is input to the pick-up position prediction unit 105 .
  • the pick-up position prediction unit 105 recognizes the approach direction and speed of the passenger vehicle to the pick-up position from the image of the passenger vehicle, and predicts the pick-up position of the passenger vehicle or the approach direction to the pick-up position. Then, the pick-up position predicting unit 105 outputs the predicted pick-up position of the passenger vehicle or the approach direction to the pick-up position to the display unit 103b.
  • the pick-up position prediction unit 105 predicts that the pick-up position is one of the lanes on the left side of the road, and the surrounding traffic conditions and traffic rules. Predict where passenger vehicles are likely to stop, etc. A specific example of prediction by the pickup position prediction unit 105 will be described later in detail with reference to the drawings.
  • the display unit 103b causes the display device (not shown) of the information processing device 100b to display the pick-up position of the passenger vehicle predicted by the pick-up position prediction unit 105 or the approach direction to the pick-up position.
  • FIG. 8 is a flowchart showing the operation of the information processing device 100b of this embodiment. Since the operations of steps S001 and S002 in FIG. 8 are the same as those in the first embodiment, description thereof is omitted.
  • step S203 the information processing device 100b predicts the pick-up position of the passenger vehicle or the approach direction to the pick-up position from the image of the passenger vehicle.
  • step S204 the information processing device 100b displays the pick-up position of the passenger vehicle or the approach direction to the pick-up position on the display device (not shown).
  • FIG. 9 when a passenger vehicle 500 is approaching the pick-up position near an intersection from the east side (right side in FIG. 9), the pick-up position prediction unit 105 predicts the pick-up position as follows. do. First, an area along the road toward the intersection from the east side of FIG. 9 is selected, and a place where the vehicle can safely stop and does not violate traffic regulations is specified. In the example of FIG. 9, the pick-up position is predicted to be a place that has passed the intersection and is a predetermined distance away from the intersection.
  • the pick-up position prediction unit 105 may predict the pick-up position in consideration of traffic conditions near the intersection. For example, as shown in FIG. 10, when the left lane near the intersection where the vehicle is to be picked up is congested, the vehicle pickup position prediction unit 105 predicts that the passenger vehicle 500 will turn right and pick up the vehicle on the road shoulder ahead. .
  • the pick-up position prediction unit 105 can also predict the arrival time of the passenger vehicle at the pick-up position based on the position of the fixed-point camera 300 that captured the image of the passenger vehicle and the passenger vehicle estimated from the image. .
  • the pick-up position prediction unit 105 also functions as pick-up time prediction means.
  • the information processing device 100b may provide the predicted arrival time of the passenger vehicle to the pick-up position together with the pick-up position of the passenger vehicle or the approach direction to the pick-up position.
  • the pick-up position prediction unit 105 may predict the pick-up position by considering the lighting timing of the signal at the intersection. For example, as shown in FIG. 11, when the passenger vehicle 500 arrives at the timing when the traffic signal at the intersection where the vehicle is to be picked up is green, the vehicle pickup position prediction unit 105 passes the intersection and , a place a predetermined distance away from the intersection is predicted as the pick-up position. On the other hand, when the passenger vehicle 500 arrives at the timing when the traffic signal at the intersection, which is the pick-up position, is red, the pick-up position prediction unit 105 predicts a place a predetermined distance before the intersection as the pick-up position.
  • the user of the passenger vehicle 500 who knows the pick-up position and its approach direction knows the movement of the passenger vehicle 500 that he/she plans to board, and moves to the pick-up position in advance. By doing so, you can ride smoothly.
  • the information processing device 100b also preferably notifies the passenger vehicle 500 of the predicted pick-up position. The driver of the passenger vehicle 500 can make boarding of the user easier by stopping the vehicle at the accurately predicted pick-up position.
  • an image and characteristic information of the passenger vehicle may be provided together with the pick-up position and its approach direction.
  • the pick-up position prediction unit 105 predicts the pick-up position of the passenger vehicle or the approach direction to the pick-up position from the image of the passenger vehicle. In some cases, it is possible to uniquely identify the pick-up position of the passenger vehicle and the approach direction to the pick-up position. For example, when the passenger vehicle has already arrived at the pick-up position, the pick-up position can be specified from the background image. In this case, the information processing device 100b may provide a map showing detailed waiting positions of passenger vehicles instead of the predicted pick-up positions.
  • FIG. 12 is a diagram showing the system configuration of the fourth embodiment of the present invention configured by the server 100c.
  • the server 100c may be a server built on a cloud, or may be an MEC (Multi-access Edge Computing) server.
  • the fixed point camera 300 and the server 100c connected to the dispatch system 200 are shown. Since the receiving unit 101 and the image acquiring unit 102 of the server 100c are the same as those in the first embodiment, description thereof is omitted.
  • the transmission unit 103c of the server 100c transmits information for identifying the passenger vehicle to the smart phone 401 or the information bulletin board 402 carried by the user of the passenger vehicle.
  • the smartphone 401 or information bulletin board 402 carried by the user of the passenger vehicle that receives the information for identifying the passenger vehicle from the server 100c displays the information for identifying the passenger vehicle. Therefore, the server 100c has display means for displaying information for identifying the passenger vehicle on a predetermined display device using an image of the passenger vehicle.
  • the information bulletin board 402 is used as the display destination, information on the user of the passenger vehicle and information for identifying the passenger vehicle may be displayed as a set.
  • the configuration may be modified to provide the characteristic information of the passenger vehicle and the pick-up position as the information for identifying the passenger vehicle.
  • the present invention is not limited to the above-described embodiments, and further modifications, replacements, and substitutions can be made without departing from the basic technical idea of the present invention. Adjustments can be made.
  • the device configuration, the configuration of each element, and the form of expression such as data shown in each drawing are examples for helping understanding of the present invention, and are not limited to the configuration shown in these drawings.
  • an intersection was specified as the pick-up position, but the pick-up position is not limited to the intersection.
  • the procedures shown in the above-described embodiments can be realized by a program that causes a computer (9000 in FIG. 13) functioning as a boarding support system to function as a boarding support system.
  • a computer is exemplified by a configuration comprising a CPU (Central Processing Unit) 9010, a communication interface 9020, a memory 9030, and an auxiliary storage device 9040 in FIG. That is, the CPU 9010 shown in FIG. 13 may be caused to execute a specific program for a passenger vehicle and a data transmission program.
  • a CPU Central Processing Unit
  • each part (processing means, function) of the information processing apparatus and the server described above can be realized by a computer program that causes the processor installed in these apparatuses to execute each process described above using the hardware. can.
  • the boarding support system described above can employ a configuration in which an external image of the passenger vehicle being picked up is displayed as the information for identifying the passenger vehicle.
  • the boarding support system described above can have a configuration in which an image showing the face of the driver of the passenger vehicle being picked up is displayed as the information for identifying the passenger vehicle.
  • the boarding support system described above can adopt a configuration in which vehicle feature information recognized from the image of the passenger vehicle being picked up is displayed as the information for identifying the passenger vehicle.
  • the above boarding support system further includes pick-up position predicting means for predicting the pick-up position of the passenger vehicle or the approach direction to the pick-up position based on the position of the fixed-point camera and the traveling direction of the passenger vehicle.
  • pick-up position predicting means for predicting the pick-up position of the passenger vehicle or the approach direction to the pick-up position based on the position of the fixed-point camera and the traveling direction of the passenger vehicle.
  • a pick-up position of the passenger vehicle or an approach direction to the pick-up position can be displayed.
  • the boarding support system described above further comprises pick-up time prediction means for predicting the arrival time of the passenger vehicle based on the position of the fixed point camera and the image of the passenger vehicle, As the information for identifying the passenger vehicle, the arrival time of the passenger vehicle may be displayed.
  • the boarding support system described above can employ a configuration constituted by a server that operates based on a request from a terminal of a user of the passenger vehicle.
  • [Eighth mode] (Refer to the boarding support method from the second viewpoint above)
  • [Ninth form] (Refer to the program from the third viewpoint above) It should be noted that the eighth and ninth modes described above can be developed into the second to seventh modes in the same manner as the first mode.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Remote Sensing (AREA)
  • Economics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

乗車支援システムは、乗用旅客車両の配車を行う配車システムから、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信する受信手段と、前記乗用旅客車両の情報に基づいて、道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能な定点カメラから、前記予約に基づき迎車中の乗用旅客車両を撮影した画像を取得する画像取得手段と、前記乗用旅客車両の画像を用いて、所定の表示装置に、前記乗用旅客車両を識別するための情報を表示させる表示手段と、を備える。

Description

乗車支援システム、乗車支援方法及びプログラム記録媒体
 本発明は、乗車支援システム、乗車支援方法及びプログラム記録媒体に関する。
 特許文献1に、利用者が配車センターへの配車依頼を失念することによるトラブルを未然に防止できるという配車システムが開示されている。同文献には、利用者が、車両監視システムを介して、または直接に、配車された車両の情報端末に利用車の現在位置情報を送信することが記載されている。また、車両監視システムが、利用者に対し、配車する車両の外観や色などの車両デ-タと運転手の顔などの画像デ-タ、運転手の声の音声デ-タ、走行している車両から撮影した景色などの動画デ-タを送信することが記載されている(段落0128参照)。
 特許文献2には、地理に詳しくない外出先からでも容易にタクシーの配車サービスを受けることができ、タクシーの乗務員が迅速且つ的確にユーザーの待つ詳細な呼出位置を認識でき、確実な配車サービスを提供できるという配車サービス方法が開示されている。
 特許文献3には、利用者と車載端末との双方に、乗車位置を含んだ配車情報を送るサーバを含む構成が開示されている(段落0051参照)。特許文献4には、複数のカメラを用いて配車地点の周辺を撮影した映像を解析し、配車地点の周辺の道路状況から配車エリアRを動的に設定する画像解析部を備えた自動運転車が開示されている。
特開2003-67890号公報 特開2002-32897号公報 特開2019-067012号公報 特開2020-097850号公報
 以下の分析は、本発明者によって与えられたものである。タクシー会社などに迎車を依頼した場合、迎車地点に複数の乗用旅客車両が存在し、自身が予約した乗用旅客車両を識別することが困難となる場合がある。この点、特許文献1では、利用者にタクシーに関する情報を送信することが記載されているが、情報源として、車両監視システムのデータベースや、車両内の設置されたデジタルカメラやビデオカメラ、マイクロフォンを用いているため、利用者から見えるタクシーの像と一致しない場合がある。
 本発明は、迎車地点に存在する乗用旅客車両の識別を容易化することのできる乗車支援システム、乗車支援方法及びプログラム記録媒体を提供することを目的とする。
 第1の視点によれば、道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能な定点カメラから画像を取得可能であり、前記乗用旅客車両の配車を行う配車システムから、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信する受信手段と、前記乗用旅客車両の情報に基づいて、前記定点カメラから、前記迎車中の乗用旅客車両を撮影した画像を取得する画像取得手段と、前記乗用旅客車両の画像を用いて、所定の表示装置に、前記乗用旅客車両を識別するための情報を表示させる表示手段と、を備える乗車支援システムが提供される。
 第2の視点によれば、道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能な定点カメラから画像を取得可能なコンピュータが、前記乗用旅客車両の配車を行う配車システムから、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信し、前記乗用旅客車両の情報に基づいて、前記定点カメラから、前記迎車中の乗用旅客車両を撮影した画像を取得し、前記乗用旅客車両の画像を用いて、所定の表示装置に、前記乗用旅客車両を識別するための情報を表示させる、乗車支援方法が提供される。本方法は、道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能な定点カメラから画像を取得可能なコンピュータという、特定の機械に結びつけられている。
 第3の視点によれば、上記した乗車支援システムの機能を実現するためのコンピュータプログラム(以下、プログラム)が提供される。なお、このコンピュータプログラムは、コンピュータ装置に入力装置又は外部から通信インタフェースを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させる。また、このプログラムは、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェースを介して、外部と通信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。また、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明によれば、迎車地点に存在する乗用旅客車両の識別を容易化することができる。
本発明の一実施形態の構成を示す図である。 本発明の一実施形態の動作を説明するための図である。 本発明の第1の実施形態のシステム構成を示す図である。 本発明の第1の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第2の実施形態のシステム構成を示す図である。 本発明の第2の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第3の実施形態のシステム構成を示す図である。 本発明の第3の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第3の実施形態の情報処理装置の動作を説明するための図である。 本発明の第3の実施形態の情報処理装置の動作を説明するための図である。 本発明の第3の実施形態の情報処理装置の変形動作を説明するための図である。 本発明の第4の実施形態のシステム構成を示す図である。 本発明の乗車支援システムとして機能可能なコンピュータの構成を示す図である。
 はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、図中の各ブロックの入出力の接続点には、ポート乃至インタフェースがあるが図示省略する。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。また、このコンピュータ装置は、通信インタフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、通信可能に構成される。
 本発明は、その一実施形態において、図1に示すように、定点カメラ30、配車システム20、表示装置40と接続された乗車支援システム10にて実現できる。
 定点カメラ30は、道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能となっている。定点カメラ30の設置位置は、迎車位置として指定されることの多い主要な施設の入り口やその手前の交差点等が考えられるが、特に限定されない。
 配車システム20は、タクシー会社や自動運転車車両の配車システムであり、前記乗用旅客車両の配車を行う。
 表示装置40は、乗車支援システム10が作成する前記乗用旅客車両を識別するための情報の表示先となる装置である。表示装置40の種類としては、利用者のスマートフォンの液晶ディスプレイ、スマートグラスと呼ばれる眼鏡型の情報表示装置、迎車位置付近の情報表示板等、乗車支援システム10を構成する機器に応じて種々のものが考えられる。
 乗車支援システム10は、受信手段11と、画像取得手段12と、表示手段13と、を備える。受信手段11は、前記配車システム20から、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信する。画像取得手段12は、前記乗用旅客車両の情報に基づいて、前記定点カメラ30から、前記予約に基づき迎車中の乗用旅客車両を撮影した画像を取得する。表示手段13は、前記乗用旅客車両の画像を用いて、前記表示装置40に、前記乗用旅客車両を識別するための情報を表示させる。
 なお、画像取得手段12が、乗用旅客車両の情報に基づいて、定点カメラ30から該当する乗用旅客車両の画像を取得する仕組みとしては、次のものが考えられる。第1の方法としては、前述の乗用旅客車両の情報に含まれるナンバープレートを定点カメラ30で認識することにより当該車両を検出する方法を用いることができる。また、第2の方法としては、乗用旅客車両に搭載されている車載端末から送信される位置情報等を用いる方法を用いることができる。また、管制センター等で道路上の車両の位置と時刻を収集している場合、管制センターに問い合わせて、適当な定点カメラ30を選択する方法を採ることもできる。また、画像を取得する方法は、定点カメラ30から直接画像を受け取る形態に限られず、定点カメラ30で撮影された画像を一時的に記憶する記憶装置から画像を取得する形態も採ることができる。定点カメラ30と画像取得手段12は、各種のネットワークを用いて相互に接続することができる。一例として、定点カメラ30と画像取得手段12は、有線回線で接続されていてもよい。他の一例として、定点カメラ30と画像取得手段12は、LTE、5G、無線LAN等の無線回線を経由して接続されていてもよい。
 以上のように構成された乗車支援システム10は、配車システム20から、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信する。そして、乗車支援システム10は、前記乗用旅客車両の情報に基づいて、定点カメラ30から、前記予約に基づき迎車中の乗用旅客車両を撮影した画像を取得する。さらに、乗車支援システム10は、前記乗用旅客車両の画像を用いて、当該乗用旅客車両の利用者の端末に、前記乗用旅客車両を識別するための情報を表示させる。
 前記乗用旅客車両を識別するための情報としては、例えば、図2に示すように、前記乗用旅客車両の外観画像を用いることができる。また、前記乗用旅客車両を識別するための情報の別の形態としては、迎車中の乗用旅客車両のドライバーの顔が写った画像を用いることができる。さらに、乗用旅客車両を識別するための情報の別の形態としては、迎車中の乗用旅客車両の画像から認識した車両の特徴情報を用いることができる。この特徴情報の具体例については第2の実施形態で説明する。
 これにより、迎車地点に複数の乗用旅客車両が存在する場合であっても、乗用旅客車両の利用者は、自身が予約した乗用旅客車両を容易に識別することが可能となる。
[第1の実施形態]
 続いて、本発明の第1の実施形態について図面を参照して詳細に説明する。図3は、本発明の第1の実施形態のシステム構成を示す図である。図3を参照すると、道路上の所定の位置に設置され、迎車中の乗用旅客車両500を撮影可能な定点カメラ300と、配車システム200と接続された情報処理装置100が示されている。
 配車システム200は、乗用旅客車両の利用者から日時、迎車地点等を指定した乗用旅客車両の予約を受け付け、乗用旅客車両の車載端末に対し、配車を指示するシステムである。また、本実施形態の配車システム200は、乗用旅客車両の利用者の情報処理装置100に対し、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を送信する機能を備えている。なお、乗用旅客車両の利用者の情報処理装置100に情報を送信するための宛先情報(ユーザIDやメールアドレス等)は、乗用旅客車両の予約時に、利用者から入力されているものとする。
 情報処理装置100は、受信部101と、画像取得部102と、表示部103とを備える。受信部101は、配車システム200から、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信する。「乗用旅客車両の情報」は、定点カメラ300で撮影された画像中の乗用旅客車両を特定可能な情報であり、例えば、乗用旅客車両のIDやナンバープレート情報を用いることができる。
 画像取得部102は、前記乗用旅客車両の情報に基づいて、前記定点カメラ300から、前記予約に基づき迎車中の乗用旅客車両を撮影した画像を取得する。例えば、「乗用旅客車両の情報」としてナンバープレート情報を用いる場合、画像取得部102は、前記定点カメラ300で撮影した画像中の車両のナンバープレート領域を切り出し、文字認識する。そして、画像取得部102は、配車システム200から受け取ったナンバープレートと、文字認識したナンバープレートと照合することで、乗用旅客車両の利用者が予約を行った乗用旅客車両を特定することができる。また、前記定点カメラ300側に、画像中の車両のナンバープレート領域を切り出し、文字認識し、画像にタグ付けする機能が備えられている場合、これらのタグと照合することで、乗用旅客車両の利用者が予約を行った乗用旅客車両を特定することもできる。
 表示部103は、前記画像取得部102で取得した乗用旅客車両の画像を用いて、情報処理装置100の表示装置(図示省略)に、前記乗用旅客車両を識別するための情報を表示させる手段として機能する。
 以上のような情報処理装置100は、乗用旅客車両の利用者の携帯するスマートフォンや各種のモバイルデバイスにて実現できる。具体的には、これらの機器に、上記した受信部101と、画像取得部102と、表示部103に相当する機能を実現するコンピュータプログラム(いわゆる「アプリ」、「App」)をインストールすることにより上記した情報処理装置100を構成することができる。また、別の形態として、情報処理装置100は、乗用旅客車両の利用者の携帯するスマートフォンや各種のモバイルデバイスに、前記乗用旅客車両を識別するための情報を表示させるサーバとしても実現することができる(後記第4の実施形態参照)。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図4は、本発明の第1の実施形態の情報処理装置100の動作を表した流れ図である。図4を参照すると、まず、情報処理装置100は、配車システム200から、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信する(ステップS001)。
 情報処理装置100は、前記乗用旅客車両の情報に基づいて、前記定点カメラ300から、前記予約に基づき迎車中の乗用旅客車両を撮影した画像を取得する(ステップS002)。
 情報処理装置100は、前記画像取得部102で取得した乗用旅客車両の画像を用いて、情報処理装置100の表示装置(図示省略)に、前記乗用旅客車両を識別するための情報を表示させる(ステップS003)。
 以上のように動作する情報処理装置100によれば、乗用旅客車両の利用者に、自身が乗車する乗用旅客車両を識別するための情報を提供することが可能となる。例えば、図2に示すように、前記乗用旅客車両の外観画像を提供することで、乗用旅客車両の利用者は、迎車地点に、外観画像を手掛かりに、自身が乗車する乗用旅客車両を的確に識別することが可能となる。また、この画像に、迎車中の乗用旅客車両のドライバーの顔が写っている画像を用いた場合には、その識別が一層容易化される。
[第2の実施形態]
 続いて、迎車中の乗用旅客車両の画像から認識した車両の特徴情報(ボディカラー、ボディに描かれたロゴ、車両のルーフ上のサインの形状、サイドラインの有無や色、車両の形式、ナンバープレート番号等)を提供するようにした第2の実施形態について説明する。第2の実施形態の構成及び動作は第1の実施形態とほぼ共通するため、以下、その相違点を中心に説明する。
 図5は、本発明の第2の実施形態のシステム構成を示す図である。第1の実施形態との相違点は、情報処理装置100aに特徴抽出部104が追加され、表示部103aが、特徴抽出部104によって抽出された乗用旅客車両の特徴情報を表示するように構成されている点である。
 本実施形態では、画像取得部102で取得した乗用旅客車両の画像は、特徴抽出部104に入力される。特徴抽出部104は、乗用旅客車両の画像から、乗用旅客車両の特徴を認識し、表示部103aに出力する。この乗用旅客車両の画像から特徴を認識する方法としては、事前に機械学習により作成した分類器を用いる方法を用いることができる。例えば、特徴抽出部104は、乗用旅客車両の画像から、ボディカラー、ボディに描かれたロゴ、ナンバープレート情報、車両のルーフ上のサインの形状、サイドラインの有無や色、車両の形式等の少なくとも1つ以上を認識する。
 表示部103aは、情報処理装置100aの表示装置(図示省略)に、特徴抽出部104にて抽出された乗用旅客車両の特徴情報を表示させる。例えば、図5に示すように、予約したタクシーのボディカラーや、側面ロゴのパターン等を情報処理装置100の表示装置(図示省略)に表示させる。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図6は、本実施形態の情報処理装置100aの動作を表した流れ図である。図6のステップS001、S002の動作は第1の実施形態と同様であるため説明を省略する。
 ステップS103で、情報処理装置100aは、乗用旅客車両の画像から、乗用旅客車両の特徴を抽出する。
 そして、ステップS104で、情報処理装置100aは、表示装置(図示省略)に乗用旅客車両の特徴を表示する。
 以上説明したように、本実施形態によれば、迎車中の乗用旅客車両の画像から認識した車両の特徴情報を提供することで、その識別を一層容易化することができる。このような特徴情報の提供は、特に、一部の国や自治体等で、タクシーのボディカラー等が指定されている場合に特に有効な情報となる。もちろん、第1の実施形態と同様に、特徴情報と合わせて、乗用旅客車両の画像そのものを表示してもよい。
[第3の実施形態]
 続いて、前記乗用旅客車両を識別するための情報として、前記乗用旅客車両の迎車位置又は前記迎車位置への進入方向を提供するようにした第3の実施形態について図面を参照して詳細に説明する。第3の実施形態の構成及び動作は第1の実施形態とほぼ共通するため、以下、その相違点を中心に説明する。
 図7は、本発明の第3の実施形態のシステム構成を示す図である。第1の実施形態との相違点は、情報処理装置100bに迎車位置予測部105が追加され、表示部103bが、迎車位置予測部105によって予測された乗用旅客車両の迎車位置又は前記迎車位置への進入方向を表示するように構成されている点である。
 本実施形態では、画像取得部102で取得した乗用旅客車両の画像は、迎車位置予測部105に入力される。迎車位置予測部105は、乗用旅客車両の画像から、乗用旅客車両の迎車位置への接近方向や速度を認識し、乗用旅客車両の迎車位置又は前記迎車位置への進入方向を予測する。そして、迎車位置予測部105は、前記予測した乗用旅客車両の迎車位置又は前記迎車位置への進入方向を、表示部103bに出力する。例えば、乗用旅客車両が迎車位置に幹線道路を使って東側から接近している場合、迎車位置予測部105は、迎車位置は、その沿線上の左側の車線のうち、周囲の交通状況や交通ルールなどに基づいて、乗用旅客車両の停車する可能性の高い場所を予測する。この迎車位置予測部105の予測の具体例については、後に図面を参照して詳細に説明する。
 表示部103bは、情報処理装置100bの表示装置(図示省略)に、迎車位置予測部105によって予測された乗用旅客車両の迎車位置又は前記迎車位置への進入方向を表示させる。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図8は、本実施形態の情報処理装置100bの動作を表した流れ図である。図8のステップS001、S002の動作は第1の実施形態と同様であるため説明を省略する。
 ステップS203で、情報処理装置100bは、乗用旅客車両の画像から、乗用旅客車両の迎車位置又は前記迎車位置への進入方向を予測する。
 そして、ステップS204で、情報処理装置100bは、表示装置(図示省略)に乗用旅客車両の迎車位置又は前記迎車位置への進入方向を表示する。
 上記情報処理装置100bの動作について図9~図11を用いて説明する。例えば、図9に示すように、乗用旅客車両500が東側(図9の右側)から迎車位置である交差点付近に接近している場合、迎車位置予測部105は、次のように迎車位置を予測する。まず、図9の東側から交差点に向かう沿線上の領域を選択しその中から、安全に停車可能であり、かつ、交通法規等に違反しない場所を特定する。図9の例では、交差点を過ぎ、かつ、交差点から所定距離、離れた場所を迎車位置として予測している。交差点の手前であると、左折車等の通行の妨げになる可能性があり、かつ、我が国の交通ルール上、交差点と、その側端から前後5mは駐停車禁止になっているからである。
 また、迎車位置予測部105が、交差点付近の交通状況を考慮して迎車位置を予測するようにしてもよい。例えば、図10に示すように、迎車位置である交差点付近の左側車線が渋滞している場合、迎車位置予測部105は、乗用旅客車両500が右折して、その先の路肩で迎車すると予測する。
 また、迎車位置予測部105は、乗用旅客車両の画像を撮影した定点カメラ300の位置と、その画像から推定した乗用旅客車両により、乗用旅客車両の迎車位置への到着時刻を予測することもできる。この場合、迎車位置予測部105は、迎車時刻予測手段としても機能することになる。そして、情報処理装置100bが、乗用旅客車両の迎車位置又は前記迎車位置への進入方向と併せて、前記予測した乗用旅客車両の迎車位置への到着時刻を提供するようにしてもよい。
 さらに、乗用旅客車両の迎車位置への到着時刻を予測している場合、迎車位置予測部105は、交差点の信号の灯火タイミングを考慮して迎車位置を予測するようにしてもよい。例えば、図11に示すように、迎車位置である交差点の交通信号機が青であるタイミングに乗用旅客車両500が到着する場合、迎車位置予測部105は、図9と同様に、交差点を過ぎ、かつ、交差点から所定距離、離れた場所を迎車位置として予測する。一方、迎車位置である交差点の交通信号機が赤であるタイミングに乗用旅客車両500が到着する場合、迎車位置予測部105は、交差点の手前の所定距離、離れた場所を迎車位置として予測する。
 図9~図11のいずれの場合も、迎車位置やその進入方向を知った乗用旅客車両500の利用者は、自身が搭乗する予定の乗用旅客車両500の動きを知り、事前に迎車位置に移動することによりスムーズに乗車することができる。また、より望ましい形態において、情報処理装置100bが、乗用旅客車両500にも、前記予測した迎車位置を知らせることも好ましい。乗用旅客車両500の運転手は、正確に予測された迎車位置に停車させることで、利用者の搭乗をより容易化することができる。
 以上説明したように、本実施形態によれば、利用者に、迎車中の乗用旅客車両の迎車位置やその進入方向を提供することで、その識別を一層容易化することができる。もちろん、第1、第2の実施形態と同様に、迎車位置やその進入方向と合わせて、乗用旅客車両の画像や特徴情報を提供してもよい。
 なお、上記した例では、迎車位置予測部105が、乗用旅客車両の画像から、乗用旅客車両の迎車位置又は前記迎車位置への進入方向を予測するものとして説明したが、乗用旅客車両の画像によっては乗用旅客車両の迎車位置や迎車位置への進入方向を一意に特定できる場合もある。例えば、乗用旅客車両がすでに迎車位置に到着しているような場合、その背景画像から迎車位置を特定することができる。この場合、情報処理装置100bは、上記予測した迎車位置に代えて、乗用旅客車両の詳細な待機位置を表した地図を提供してもよい。
[第4の実施形態]
 上記した第1~第3の実施形態では、乗用旅客車両の利用者の携帯するスマートフォン等を用いて乗車支援システムを構成した例を挙げて説明したが、乗車支援システムは、これらの機器にサービスを提供するサーバにより構成することもできる。図12は、サーバ100cにより構成された本発明の第4の実施形態のシステム構成を示す図である。サーバ100cは、クラウド上に構築されたサーバであってもよいし、MEC(Multi-access Edge Computing)サーバであってもよい。
 図12を参照すると、定点カメラ300と、配車システム200と接続されたサーバ100cが示されている。サーバ100cの受信部101及び画像取得部102は第1の実施形態と同様であるため説明を省略する。サーバ100cの送信部103cは、乗用旅客車両の利用者の携帯するスマートフォン401や情報掲示板402に、前記乗用旅客車両を識別するための情報を送信する。
 前記サーバ100cから乗用旅客車両を識別するための情報を受信した乗用旅客車両の利用者の携帯するスマートフォン401や情報掲示板402は、乗用旅客車両を識別するための情報を表示する。従って、サーバ100cは、乗用旅客車両の画像を用いて、所定の表示装置に、前記乗用旅客車両を識別するための情報を表示させる表示手段を備えている。なお、情報掲示板402を表示先として使用する場合、乗用旅客車両の利用者の情報と、乗用旅客車両を識別するための情報とを組にして表示すればよい。
 本実施形態によれば、第1の実施形態と同様の効果に加え、ユーザーの機器に事前にコンピュータプログラム(いわゆる「アプリ」、「App」)をインストールしなくてもよいという利点がある。もちろん、第4の実施形態においても、第2、第3の実施形態と同様に、乗用旅客車両を識別するための情報として、乗用旅客車両の特徴情報や迎車位置を提供する構成に変形することもできる。
 以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的な技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示した装置構成、各要素の構成、データ等の表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。例えば、上記した第3の実施形態では、迎車位置として交差点が指定されたものとして説明したが、迎車位置は交差点に限られない。
 また、上記した各実施形態に示した手順は、乗車支援システムとして機能するコンピュータ(図13の9000)に、乗車支援システムとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図13のCPU(Central Processing  Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図13のCPU9010にて、乗用旅客車両の特定プログラムやデータ送信プログラムを実行させればよい。
 即ち、上記した情報処理装置やサーバの各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
 最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による乗車支援システム参照)
[第2の形態]
 上記した乗車支援システムは、前記乗用旅客車両を識別するための情報として、前記迎車中の乗用旅客車両の外観画像を表示させる構成を採ることができる。
[第3の形態]
 上記した乗車支援システムは、前記乗用旅客車両を識別するための情報として、前記迎車中の乗用旅客車両のドライバーの顔が写った画像を表示させる構成を採ることができる。
[第4の形態]
 上記した乗車支援システムは、前記乗用旅客車両を識別するための情報として、前記迎車中の乗用旅客車両の画像から認識した車両の特徴情報を表示させる構成を採ることができる。
[第5の形態]
 上記した乗車支援システムは、さらに、前記定点カメラの位置と、前記乗用旅客車両の進行方向に基づいて、前記乗用旅客車両の迎車位置又は前記迎車位置への進入方向を予測する迎車位置予測手段を備え、
 前記乗用旅客車両を識別するための情報として、前記乗用旅客車両の迎車位置又は前記迎車位置への進入方向を表示させる構成を採ることができる。
[第6の形態]
 上記した乗車支援システムは、さらに、前記定点カメラの位置と、前記乗用旅客車両の画像とに基づいて、前記乗用旅客車両の到着時刻を予測する迎車時刻予測手段を備え、
 前記乗用旅客車両を識別するための情報として、前記乗用旅客車両の到着時刻を表示させる構成を採ることができる。
[第7の形態]
 上記した乗車支援システムは、前記乗用旅客車両の利用者の端末からの要求に基づいて動作するサーバによって構成されている構成を採ることができる。
[第8の形態]
(上記第2の視点による乗車支援方法参照)
[第9の形態]
(上記第3の視点によるプログラム参照)
 なお、上記第8~第9の形態は、第1の形態と同様に、第2~第7の形態に展開することが可能である。
 なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。さらに、上記引用した文献の各開示事項は、必要に応じ、本発明の趣旨に則り、本発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれるものと、みなされる。
 10 乗車支援システム
 11 受信手段
 12 画像取得手段
 13 表示手段
 20、200 配車システム
 30、300 定点カメラ
 40 表示装置
 50、500 乗用旅客車両
 100、100a、100b 情報処理装置
 100c サーバ
 101 受信部
 102 画像取得部
 103、103a、103b 表示部
 103c 送信部
 104 特徴抽出部
 105 迎車位置予測部
 401 スマートフォン
 402 情報掲示板
 9000 コンピュータ
 9010 CPU
 9020 通信インタフェース
 9030 メモリ
 9040 補助記憶装置

Claims (10)

  1.  道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能な定点カメラから画像を取得可能であり、
     前記乗用旅客車両の配車を行う配車システムから、前記乗用旅客車両の利用者が予約を行った前記乗用旅客車両の情報を受信する受信手段と、
     前記乗用旅客車両の情報に基づいて、前記定点カメラから、前記迎車中の乗用旅客車両を撮影した画像を取得する画像取得手段と、
     前記乗用旅客車両の画像を用いて、所定の表示装置に、前記乗用旅客車両を識別するための情報を表示させる表示手段と、
     を備える乗車支援システム。
  2.  前記乗用旅客車両を識別するための情報は、前記迎車中の乗用旅客車両の外観画像である請求項1の乗車支援システム。
  3.  前記乗用旅客車両を識別するための情報は、前記迎車中の乗用旅客車両のドライバーの顔が撮影された画像である請求項1又は2の乗車支援システム。
  4.  前記乗用旅客車両を識別するための情報は、前記迎車中の乗用旅客車両の画像から認識した車両の特徴情報である請求項1から3いずれか一の乗車支援システム。
  5.  さらに、前記定点カメラの位置と、前記乗用旅客車両の進行方向とに基づいて、前記乗用旅客車両の迎車位置又は前記迎車位置への進入方向を予測する迎車位置予測手段を備え、
     前記乗用旅客車両を識別するための情報として、前記乗用旅客車両の迎車位置又は前記迎車位置への進入方向を表示させる請求項1から4いずれか一の乗車支援システム。
  6.  さらに、乗用旅客車両を撮影した画像の背景画像から前記乗用旅客車両の待機位置を特定する手段を備え、
     前記表示手段は、前記乗用旅客車両を識別するための情報として、所定の表示装置に、前記乗用旅客車両の待機位置を表した地図を表示させる請求項1から5いずれか一の乗車支援システム。
  7.  さらに、前記定点カメラの位置と、前記定点カメラにおいて前記乗用旅客車両が撮影された時刻とに基づいて、前記乗用旅客車両の到着時刻を予測する迎車時刻予測手段を備え、
     前記乗用旅客車両を識別するための情報として、前記乗用旅客車両の到着時刻を表示させる請求項1から6いずれか一の乗車支援システム。
  8.  前記乗用旅客車両の利用者の端末からの要求に基づいて動作するサーバによって構成されている請求項1から7いずれか一の乗車支援システム。
  9.  道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能な定点カメラから画像を取得可能なコンピュータが、
     前記乗用旅客車両の配車を行う配車システムから、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信し、
     前記乗用旅客車両の情報に基づいて、前記定点カメラから、前記迎車中の乗用旅客車両を撮影した画像を取得し、
     前記乗用旅客車両の画像を用いて、所定の表示装置に、前記乗用旅客車両を識別するための情報を表示させる、
     乗車支援方法。
  10.  道路上の所定の位置に設置され、迎車中の乗用旅客車両を撮影可能な定点カメラから画像を取得可能なコンピュータに、
     前記乗用旅客車両の配車を行う配車システムから、乗用旅客車両の利用者が予約を行った乗用旅客車両の情報を受信する処理と、
     前記乗用旅客車両の画像を用いて、前記乗用旅客車両の情報に基づいて、前記定点カメラから、前記迎車中の乗用旅客車両を撮影した画像を取得する処理と、
     所定の表示装置に、前記乗用旅客車両を識別するための情報を表示させる処理と、
     を実行させるプログラムを記録したプログラム記録媒体。
PCT/JP2021/011707 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体 WO2022201244A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023508165A JPWO2022201244A5 (ja) 2021-03-22 乗車支援システム、乗車支援方法及びプログラム
PCT/JP2021/011707 WO2022201244A1 (ja) 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体
US18/282,868 US20240169836A1 (en) 2021-03-22 2021-03-22 Boarding support system, boarding support method and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/011707 WO2022201244A1 (ja) 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体

Publications (1)

Publication Number Publication Date
WO2022201244A1 true WO2022201244A1 (ja) 2022-09-29

Family

ID=83395310

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/011707 WO2022201244A1 (ja) 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体

Country Status (2)

Country Link
US (1) US20240169836A1 (ja)
WO (1) WO2022201244A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
WO2019243860A1 (ja) * 2018-06-20 2019-12-26 日産自動車株式会社 配車システムのためのコミュニケーション方法、配車システム及びコミュ二ケーシヨン装置
JP2021026457A (ja) * 2019-08-02 2021-02-22 株式会社デンソーテン 画像配信装置及び方法並びに画像配信システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
WO2019243860A1 (ja) * 2018-06-20 2019-12-26 日産自動車株式会社 配車システムのためのコミュニケーション方法、配車システム及びコミュ二ケーシヨン装置
JP2021026457A (ja) * 2019-08-02 2021-02-22 株式会社デンソーテン 画像配信装置及び方法並びに画像配信システム

Also Published As

Publication number Publication date
JPWO2022201244A1 (ja) 2022-09-29
US20240169836A1 (en) 2024-05-23

Similar Documents

Publication Publication Date Title
KR20200068621A (ko) 차량배정방법, 장치, 디바이스 및 저장매체
US7098806B2 (en) Traffic preemption system
US20190051163A1 (en) Systems and methods of adaptive traffic optimization using unmanned aerial vehicles
US20200117926A1 (en) Apparatus, method, and system for controlling parking of vehicle
CN109715443A (zh) 用于运行机动车的方法
WO2020147361A1 (zh) 用于控制车辆的方法和装置
Singh et al. Automatic vehicle counting for IoT based smart traffic management system for Indian urban settings
CN110198425B (zh) 车载视频录制处理方法、装置、存储介质及电子装置
CN113286081B (zh) 机场全景视频的目标识别方法、装置、设备及介质
CN110400480A (zh) 基于交通通信站的交通信息处理方法、装置、设备和介质
CN114677848B (zh) 感知预警系统、方法、装置及计算机程序产品
CN104332070A (zh) 一种特殊车辆停车管理方法及系统
KR101696730B1 (ko) 지능형 도시통합 중앙관제시스템 구축방법
WO2022201244A1 (ja) 乗車支援システム、乗車支援方法及びプログラム記録媒体
CN112509353B (zh) 一种机器人的过路方法、装置、机器人和存储介质
JP6222416B1 (ja) 駐車場情報提供システムおよび駐車場情報提供方法
JPWO2020039897A1 (ja) 駅監視システム及び駅監視方法
JP2012527142A (ja) 双方向アドホック−ネットワーク無線通信のコントローラ
WO2022201255A1 (ja) 乗車支援システム、乗車支援方法及びプログラム記録媒体
CN113140103B (zh) 一种公共交通调度方法及系统
WO2021199329A1 (ja) 信号情報提供装置、信号情報提供方法及びプログラムが記録された記録媒体
JP7107597B2 (ja) 駅監視装置、駅監視方法及びプログラム
WO2023248776A1 (ja) 遠隔支援装置、遠隔支援方法、及び遠隔支援プログラム
WO2022201517A1 (ja) 乗客情報収集システム、乗客情報収集方法及びプログラム記録媒体
KR102295226B1 (ko) 증강현실을 이용한 다수의 오브젝트 중 특정 오브젝트를 특정하는 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21932858

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18282868

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2023508165

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21932858

Country of ref document: EP

Kind code of ref document: A1