WO2022201255A1 - 乗車支援システム、乗車支援方法及びプログラム記録媒体 - Google Patents

乗車支援システム、乗車支援方法及びプログラム記録媒体 Download PDF

Info

Publication number
WO2022201255A1
WO2022201255A1 PCT/JP2021/011765 JP2021011765W WO2022201255A1 WO 2022201255 A1 WO2022201255 A1 WO 2022201255A1 JP 2021011765 W JP2021011765 W JP 2021011765W WO 2022201255 A1 WO2022201255 A1 WO 2022201255A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
image
boarding
vehicle
Prior art date
Application number
PCT/JP2021/011765
Other languages
English (en)
French (fr)
Inventor
航生 小林
哲郎 長谷川
洋明 網中
慶 柳澤
一気 尾形
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/011765 priority Critical patent/WO2022201255A1/ja
Priority to JP2023508175A priority patent/JPWO2022201255A5/ja
Publication of WO2022201255A1 publication Critical patent/WO2022201255A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Definitions

  • the present invention relates to a boarding assistance system, a boarding assistance method, and a program recording medium.
  • Patent Document 1 discloses a vehicle allocation system that can prevent troubles caused by users forgetting to request vehicle allocation to the vehicle allocation center.
  • the document describes that the user transmits the current position information of the used vehicle to the information terminal of the dispatched vehicle via the vehicle monitoring system or directly.
  • the vehicle monitoring system provides the user with vehicle data such as the appearance and color of the vehicle to be dispatched, image data such as the driver's face, audio data of the driver's voice, It is described that moving image data such as scenery shot from a vehicle in the vehicle is transmitted (see paragraph 0128).
  • Patent Document 2 it is possible to easily receive a taxi dispatch service from a place where the user is not familiar with the geography, and the taxi driver can quickly and accurately recognize the detailed calling position where the user is waiting, thereby realizing a reliable taxi dispatch service.
  • a vehicle dispatch service method that can be provided.
  • Patent Document 3 discloses a configuration including a server that sends dispatch information including a boarding position to both the user and the vehicle-mounted terminal (see paragraph 0051).
  • Patent Document 4 describes an automatic driving vehicle equipped with an image analysis unit that analyzes images taken around a vehicle allocation point using multiple cameras and dynamically sets a vehicle allocation area R based on road conditions around the vehicle allocation point. is disclosed.
  • Patent Literatures 1 and 2 have a problem that the user's information cannot be obtained if the user does not have an information terminal.
  • An object of the present invention is to provide a boarding support system, a boarding support method, and a program recording medium that can facilitate identification of passengers at the pick-up point.
  • the first viewpoint it is possible to acquire images from a plurality of fixed-point cameras installed on the roadside, and from a vehicle allocation system that allocates passenger vehicles, information on passenger vehicles that have been reserved by users, Receiving means for receiving a combination with the information of the user who made the reservation, and an image of the user who made the reservation by selecting one of the fixed-point cameras based on the information of the user and display means for displaying information for identifying the user of the passenger vehicle on an in-vehicle terminal of the passenger vehicle using the image of the user.
  • a boarding assistance system is provided.
  • a computer capable of acquiring images from a plurality of fixed-point cameras installed on the roadside receives information on passenger vehicles that have been reserved by users from a dispatch system that dispatches passenger vehicles. , receiving a combination with the information of the user who made the reservation, selecting one of the fixed-point cameras based on the information of the user, and capturing an image of the user who made the reservation.
  • a boarding support method for displaying information for identifying a user of the passenger vehicle on an in-vehicle terminal of the passenger vehicle using an acquired image of the user. The method is tied to a specific machine, a computer capable of acquiring images from multiple fixed point cameras installed at the roadside.
  • a computer program (hereinafter referred to as program) is provided for realizing the functions of the boarding support system described above.
  • the computer program is input to the computer device from an input device or an external communication interface, is stored in the storage device, and drives the processor according to predetermined steps or processes.
  • this program can display the results of processing, including intermediate states, at each stage via a display device as required, or can communicate with the outside via a communication interface.
  • a computer device for this purpose typically includes, as an example, a processor, a storage device, an input device, a communication interface, and optionally a display device, all of which are connectable to each other via a bus.
  • the program can also be recorded on a computer-readable (non-transitory) storage medium. That is, the present invention can also be embodied as a computer program product.
  • connection lines between blocks in drawings and the like referred to in the following description include both bidirectional and unidirectional connections.
  • the unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality.
  • ports or interfaces at input/output connection points of each block in the figure they are omitted from the drawing.
  • a program is executed via a computer device, and the computer device includes, for example, a processor, a storage device, an input device, a communication interface, and, if necessary, a display device.
  • this computer device is configured to be able to communicate with internal or external devices (including computers) via a communication interface, whether wired or wireless.
  • a plurality of fixed-point cameras 30, a vehicle allocation system 20, and a boarding support system 10 connected to a display device 40 can be implemented.
  • a plurality of fixed-point cameras 30 are installed on the roadside, and are capable of photographing passenger vehicles being picked up.
  • the installation position of the fixed-point camera 30 may be a major facility or an intersection, which is often designated as a pick-up position, but is not particularly limited.
  • the dispatch system 20 is a dispatch system for taxi companies and self-driving vehicles, and dispatches the above-mentioned passenger vehicles.
  • the display device 40 is a device that serves as a display destination of information for identifying the user of the passenger vehicle created by the boarding support system 10 .
  • Examples of the display device 40 include an in-vehicle device of a passenger vehicle, a management terminal of a taxi company and an automatic driving vehicle, and the like.
  • the boarding support system 10 includes reception means 11 , image acquisition means 12 , and display means 13 .
  • the receiving means 11 receives, from the vehicle allocation system 20, a combination of information on a passenger vehicle reserved by a user and information on the user who made the reservation.
  • the image acquiring means 12 selects one of the fixed point cameras based on the user information and acquires an image of the user who made the reservation.
  • the display means 13 causes the display device 40 to display information for identifying the user of the passenger vehicle using the photographed image of the user.
  • the following method is conceivable as a mechanism for the image acquisition means 12 to acquire the image of the corresponding user from the plurality of fixed-point cameras 30 based on the information of the user of the passenger vehicle.
  • the user's face, gait (walking state), etc. registered in advance are compared with the person's image captured by the fixed-point camera 30 .
  • GPS Global Positioning System
  • serving cell information obtained from a base station of a wireless communication network, or the like
  • the method of acquiring an image from the fixed-point camera 30 is not limited to the form of directly receiving the image from the fixed-point camera 30, but the form of acquiring the image from a storage device that temporarily stores the image taken by the fixed-point camera 30 is also possible. can be harvested.
  • the fixed point camera 30 and the image acquisition means 12 can be interconnected using various networks. As an example, the fixed point camera 30 and the image acquisition means 12 may be connected by a wired line. As another example, the fixed-point camera 30 and the image acquisition means 12 may be connected via a wireless line such as LTE, 5G, wireless LAN, or the like.
  • the boarding support system 10 configured as described above receives, from the vehicle allocation system 20, a combination of information on the passenger vehicle that has been reserved by the user and information on the user who made the reservation. Then, the boarding support system 10 selects one of the fixed-point cameras 30 based on the user information, and acquires an image of the user moving to the boarding position based on the reservation. Further, the boarding support system 10 uses the photographed image of the user to display information for identifying the user of the passenger vehicle on the predetermined display device 40 .
  • a user's appearance image can be used as the information for identifying the user.
  • FIG. 2 it is also possible to use a whole-body image of the user, which is photographed at a position separated by a predetermined distance or more.
  • information specifying the target user 50a is added by an arrow or the like as shown in FIG.
  • the use of the whole body image as the appearance image is an example, and a part of the user's whole body image, such as the face and the upper half of the body, may be cut out and used.
  • As another form of the information for identifying the user it is possible to use user feature information recognized from the image of the user of the passenger vehicle. A specific example of this feature information will be described in a second embodiment.
  • FIG. 3 is a diagram showing the system configuration of the first embodiment of the present invention. Referring to FIG. 3, a plurality of fixed-point cameras 300 installed on the roadside and an in-vehicle terminal 100 connected to a vehicle allocation system 200 are shown.
  • the vehicle allocation system 200 is a system that accepts a reservation for a passenger vehicle specifying the date, time, pick-up point, etc. from the user of the passenger vehicle, and instructs the in-vehicle terminal of the passenger vehicle to allocate the vehicle.
  • the dispatch system 200 of this embodiment has a function of transmitting the information of the user who has made the reservation to the in-vehicle terminal 100 of the passenger vehicle. It is assumed that destination information (terminal ID, IP address, e-mail address, etc.) for transmitting information to the in-vehicle terminal 100 of the passenger vehicle is set in the dispatch system 200 in advance.
  • the in-vehicle terminal 100 includes a receiving section 101 , an image acquiring section 102 and a display section 103 .
  • the receiving unit 101 receives information about the user of the own vehicle from the vehicle allocation system 200 .
  • "User information" is information that can be extracted from an image captured by an arbitrary fixed-point camera 300 and that can identify the user. For example, the user's ID, face image information, etc. can be used. .
  • the image acquisition unit 102 selects one of the fixed-point cameras 30 based on the user information, and acquires an image of the user from the selected fixed-point camera 300 .
  • the image acquisition unit 102 cuts out the face area of a person in the image captured by the fixed-point camera 300, and extracts the face of the corresponding user registered in advance. Face authentication is performed by matching with images.
  • the fixed-point camera 300 has a function of extracting a face region of a person in an image, performing face authentication, and tagging the image. In this case, the image acquisition unit 102 can also identify the user of the passenger vehicle by matching these tags with the ID of the user.
  • the display unit 103 functions as means for displaying information for identifying the user on the display device (not shown) of the in-vehicle terminal 100 using the image of the user acquired by the image acquisition unit 102 .
  • the in-vehicle terminal 100 as described above is a computer that realizes functions corresponding to the receiving unit 101, the image acquisition unit 102, and the display unit 103 described above in a car navigation system or a driving support system installed in a passenger vehicle. It can be configured by installing a program (so-called “application”, “App”).
  • the boarding assistance system can be implemented as a server that displays information for identifying the user on the vehicle-mounted terminal (see the sixth embodiment below).
  • FIG. 4 is a flowchart showing the operation of the vehicle-mounted terminal 100 according to the first embodiment of the present invention.
  • the in-vehicle terminal 100 first receives information on the user who made the reservation from the vehicle allocation system 200 (step S001).
  • the vehicle-mounted terminal 100 selects one of the fixed-point cameras 300 based on the user information, and acquires an image of the user from the selected fixed-point camera 300 (step S002).
  • the vehicle-mounted terminal 100 uses the image of the user acquired by the image acquisition unit 102 to display information for identifying the user on the display device (not shown) of the vehicle-mounted terminal 100 (step S003).
  • the in-vehicle terminal 100 that operates as described above, it is possible to provide the driver of the passenger vehicle with information for identifying the user who should be allowed to board the vehicle. For example, as shown in FIG. 2, by providing the appearance image of the user, the driver of the passenger vehicle can use the appearance image of the user at the pick-up point as a clue to identify the user to be boarded in the own vehicle. can be accurately identified.
  • FIG. 5 is a diagram showing the system configuration of the second embodiment of the present invention.
  • the difference from the first embodiment is that a feature extraction unit 104 is added to the vehicle-mounted terminal 100a, and the display unit 103a is configured to display the user's feature information extracted by the feature extraction unit 104. It is a point.
  • the image of the user acquired by the image acquisition unit 102 is input to the feature extraction unit 104 .
  • the feature extracting unit 104 recognizes the features of the user from the user's image and outputs them to the display unit 103a.
  • a method for recognizing features from the user's image a method using a classifier created in advance by machine learning can be used.
  • the feature extraction unit 104 recognizes at least one or more of clothing, clothing (glasses, mask, etc.), hairstyle, gender, estimated age, height, luggage, presence or absence of companions, etc. from the image of the user.
  • the display unit 103a displays the feature information of the user extracted by the feature extraction unit 104 on the display device (not shown) of the vehicle-mounted terminal 100a. For example, as shown in FIG. 5, the user's estimated age (age), estimated sex, clothing (glasses), clothes, etc. are displayed on the display device (not shown) of the vehicle-mounted terminal 100a.
  • FIG. 6 is a flowchart showing the operation of the vehicle-mounted terminal 100a of this embodiment. Since the operations of steps S001 and S002 in FIG. 6 are the same as those in the first embodiment, description thereof is omitted.
  • step S103 the vehicle-mounted terminal 100a extracts the features of the user from the image of the passenger vehicle.
  • step S104 the in-vehicle terminal 100a displays the characteristics of the user on the display device (not shown).
  • the user's image itself may be displayed together with the feature information.
  • FIG. 7 is a diagram showing the system configuration of the third embodiment of the present invention.
  • a difference from the first embodiment is that a standby position specifying unit 105 is added to the vehicle-mounted terminal 100b, and a display unit 103b is configured to display the user's standby position specified by the standby position specifying unit 105.
  • the point is that
  • the image of the user acquired by the image acquisition unit 102 is input to the standby position identification unit 105.
  • the standby position specifying unit 105 specifies the user's standby position from the user's image.
  • the waiting position specifying unit 105 creates a map indicating the specified waiting position of the user, and outputs the map to the display unit 103b. For example, when the image of the user shown on the left side of FIG. As shown on the right side of 9, the detailed waiting position of the user is identified and plotted on the map.
  • the map used here may be the same map as the car navigation system.
  • the display unit 103b causes the display device (not shown) of the vehicle-mounted terminal 100b to display a map indicating the waiting position of the user specified by the waiting position specifying unit 105.
  • FIG. 8 is a flowchart showing the operation of the vehicle-mounted terminal 100b of this embodiment. Since the operations of steps S001 and S002 in FIG. 8 are the same as those in the first embodiment, description thereof is omitted.
  • the vehicle-mounted terminal 100b identifies the user's standby position from the user's image.
  • step S204 the in-vehicle terminal 100b displays a map showing the waiting position of the user on the display device (not shown) (see the right diagram of FIG. 9).
  • the image of the user itself may be displayed together with the standby position.
  • information as shown on the left side of FIG. 9 is displayed on the display device (not shown) of the vehicle-mounted terminal 100b.
  • FIG. 10 is a diagram showing the system configuration of the fourth embodiment of the present invention. The difference from the first embodiment is that a boarding position prediction unit 106 is added to the in-vehicle terminal 100c, and a display unit 103c is configured to display the boarding position of the user predicted by the boarding position prediction unit 106. The point is that
  • the image of the user acquired by the image acquisition unit 102 is input to the boarding position prediction unit 106 .
  • the boarding position prediction unit 106 predicts the boarding position to which the user is headed based on the position of the fixed-point camera and the user's approaching direction (moving direction) to the boarding position recognized from the image of the user. Predict location. Then, the boarding position prediction unit 106 outputs the predicted boarding position of the user to the display unit 103c. For example, on a road consisting of lane A heading in one direction and lane B heading in the opposite direction to lane A, the user's boarding position is on which sidewalk, the sidewalk on the side of lane A or the sidewalk on the side of lane B. Predict what is likely.
  • the boarding position prediction unit 106 predicts the left sidewalk of the user along the main road in the traveling direction. Based on the surrounding traffic conditions, traffic rules, etc., it predicts places suitable for passenger vehicles to wait. A specific example of prediction by the boarding position prediction unit 106 will be described later in detail with reference to the drawings.
  • the display unit 103c displays the boarding position predicted by the boarding position prediction unit 106 on the display device (not shown) of the vehicle-mounted terminal 100c.
  • the predicted boarding position may be displayed together with a map.
  • the map used here may be the same map as the car navigation system.
  • FIG. 11 is a flow chart showing the operation of the in-vehicle terminal 100c of this embodiment. Since the operations of steps S001 and S002 in FIG. 11 are the same as those in the first embodiment, description thereof will be omitted.
  • the vehicle-mounted terminal 100c predicts the user's boarding position from the position of the fixed-point camera 300 and the image of the user.
  • step S304 the in-vehicle terminal 100c displays the user's boarding position on the display device (not shown).
  • the boarding position prediction unit 106 predicts the boarding position as follows. . First, an area along the road toward the intersection from the west side of FIG. 12 is selected, and a place where the vehicle can safely stop and does not violate traffic regulations is specified. In the example of FIG. 12, the boarding position is predicted to be a place that is on the left side of the intersection and is a predetermined distance away from the intersection. This is because there is a possibility that it will hinder the passage of left-turning vehicles, etc., at the end of the intersection, and the traffic rules in Japan prohibit parking and stopping within 5 m from the intersection and its side edge.
  • the boarding position prediction unit 106 may predict the boarding position in consideration of traffic conditions near the intersection. For example, as shown in FIG. 13, the left lane (the right side in FIG. 13) near the intersection where the user 500 gets on is congested, and the user 500 is driving toward the road shoulder on the north side of the intersection (upper side in FIG. 13). If so, the boarding position prediction unit 106 predicts that the user 500 is going to board on the north side of the intersection (upper side in FIG. 13).
  • the driver of the passenger vehicle 700 who knows the boarding position can stop the passenger vehicle 700 toward the position where the user 500 is going to board. As a result, the user 500 can be smoothly boarded.
  • the vehicle-mounted terminal 100c notifies the user 500 of the predicted boarding position via the dispatch system 200 or the like. By having the user 500 stop at the predicted boarding position, boarding of the user can be facilitated.
  • the user's boarding position is provided to the driver of the passenger vehicle 700 through the display device, thereby making it easier to identify the user.
  • the user's image and characteristic information may be provided together with the boarding position.
  • FIG. 14 is a diagram showing the system configuration of the fifth embodiment of the present invention.
  • a difference from the first embodiment is that a boarding position/time prediction unit 107 and an arrival time adjustment unit 108 are added to the vehicle-mounted terminal 100d.
  • a second difference from the first embodiment is that the display unit 103d is configured to display the user's boarding position and arrival time predicted by the pick-up position/time prediction unit 107. It is a point.
  • the image of the user acquired by the image acquisition unit 102 is input to the boarding position/time prediction unit 107 .
  • the boarding position/time prediction unit 107 predicts the arrival time of the user at the boarding position based on the position of the fixed-point camera 300 and the time when the user was photographed by the fixed-point camera 300 .
  • the boarding position/time prediction unit 107 is made to recognize the approaching direction and speed of the user to the boarding position from the image of the user, and It may be possible to predict the position and its arrival time. Then, the boarding position/time prediction unit 107 outputs the predicted boarding position of the user and the predicted arrival time to the display unit 103d.
  • the display unit 103d displays the boarding position predicted by the boarding position/time prediction unit 107 and its arrival time on the display device (not shown) of the vehicle-mounted terminal 100d.
  • the arrival time adjustment unit 108 compares the predicted arrival time of the user and the predicted arrival time of the own vehicle predicted as described above. adjusts the arrival time. Adjustment of the arrival time may include adjusting the speed of the own vehicle (reducing the speed), changing the route (performing a detour, etc.), and the like. As another method of adjusting the arrival time, it is conceivable to ask the traffic signal control center or the like to adjust the control parameters of the traffic signal. This method is especially useful when it is expected that the user will arrive much later than the predicted arrival time of the user as a result of comparing the predicted arrival time of the user and the predicted arrival time of the own vehicle. This is effective when, for example, the lights of the lights are to be controlled to be blue.
  • FIG. 15 is a flowchart showing the operation of the vehicle-mounted terminal 100d of this embodiment. Since the operations of steps S001 and S002 in FIG. 15 are the same as those in the first embodiment, description thereof is omitted.
  • step S403 the vehicle-mounted terminal 100d predicts the user's boarding position and arrival time from the user's image.
  • the vehicle-mounted terminal 100d predicts the arrival time of the vehicle at the boarding position (step S404).
  • the in-vehicle terminal 100d compares the two arrival times and checks whether it is possible to arrive within a predetermined time difference (step S405). As a result of the confirmation, if it is determined that the vehicle can arrive within the predetermined time difference, the vehicle-mounted terminal 100d displays the user's boarding position on the display device (not shown) (step S408).
  • the vehicle-mounted terminal 100d performs the above-described arrival time adjustment process (step S406). After that, the in-vehicle terminal 100d displays the details of the arrival time adjustment processing and the boarding position of the user on the display device (not shown) (step S407).
  • the in-vehicle terminal 100d of the present embodiment not only predicts the user's boarding position, but also executes the process of adjusting the arrival time so that the user arrives at that arrival time.
  • the driver of the passenger vehicle can easily identify the user present at the time of arrival as the user of the own vehicle.
  • FIG. 16 is a diagram showing the system configuration of the sixth embodiment of the present invention, including a server 100e.
  • the server 100e may be a server built on a cloud, or an MEC (Multi-access Edge Computing) server.
  • a fixed-point camera 300 and a server 100e connected to the vehicle dispatch system 200 are shown. Since the receiving unit 101 and the image acquiring unit 102 of the server 100e are the same as those in the first embodiment, description thereof will be omitted.
  • the transmission unit 103e of the server 100e transmits the information for identifying the user 500 to the in-vehicle terminal of the passenger vehicle 700 and the management terminal 702 of the taxi company.
  • the vehicle-mounted terminal 701 and the management terminal 702 that have received the information for identifying the user from the server 100e display the information for identifying the user 500 on their display devices (not shown). Therefore, the server 100e has display means for displaying information for identifying the user on a predetermined display device using the image of the user.
  • the management terminal 702 is used as the display destination, the information of the passenger vehicle and the information for identifying the user may be displayed as a set.
  • the present invention is not limited to the above-described embodiments, and further modifications, replacements, and substitutions can be made without departing from the basic technical idea of the present invention. Adjustments can be made.
  • the device configuration, the configuration of each element, and the form of expression such as data shown in each drawing are examples for helping understanding of the present invention, and are not limited to the configuration shown in these drawings.
  • the intersection was specified as the boarding position, but the boarding position is not limited to the intersection.
  • the boarding support system confirms the identity of the user of the passenger vehicle by matching the image of the user registered in advance by the user with the image captured by the fixed-point camera. It is also preferable to provide identity determination means for performing determination. Then, the boarding support system causes the in-vehicle terminal or the like to display the information for identifying the user of the passenger vehicle and the determination result of the identity, so that the in-vehicle terminal can replace the passenger ( It is also possible to provide a detection function for spoofing and replacement).
  • a program that causes a computer (9000 in FIG. 17) functioning as a boarding support system to realize the function as a boarding support system.
  • a computer is exemplified by a configuration comprising a CPU (Central Processing Unit) 9010, a communication interface 9020, a memory 9030, and an auxiliary storage device 9040 in FIG. That is, the CPU 9010 in FIG. 17 may execute a user's specific program and a data transmission program.
  • a CPU Central Processing Unit
  • each part (processing means, function) of the on-vehicle terminal and the server described above can be realized by a computer program that causes the processor mounted in these devices to execute the above-described processes using the hardware. .
  • the boarding support system described above can adopt a configuration in which an appearance image of the user is displayed as information for identifying the user.
  • the boarding support system described above can adopt a configuration in which characteristic information of the user is displayed as information for identifying the user.
  • the boarding support system described above further includes waiting position specifying means for specifying a position where the user is waiting based on the position of the fixed-point camera and the position of the user in the image captured by the fixed-point camera. with As the information for identifying the user, a configuration can be adopted in which the standby position is displayed.
  • the boarding support system described above further includes: boarding position prediction means for predicting a boarding position of the passenger vehicle to which the user is heading, based on the position of the fixed-point camera and the traveling direction of the user; As the information for identifying the user, it is possible to employ a configuration in which the boarding position is displayed.
  • the boarding position prediction means of the above-described boarding support system further comprises: predicting the arrival time of the user at the boarding position based on the position of the fixed-point camera; moreover, A configuration comprising arrival time adjusting means for controlling at least one or more of changing signal control parameters of surrounding traffic signals, travel route and travel speed of the passenger vehicle, in order to allow the user to board at the arrival time. can be harvested.
  • the boarding support system described above The image acquiring means may select the fixed point camera based on the position information received from the terminal carried by the user.
  • the boarding support system described above can employ a configuration in which the fixed-point camera is selected by collating an image of the user registered in advance by the user with an image captured by the fixed-point camera.
  • the boarding support system described above further determines the identity of the user of the passenger vehicle by matching the image of the user registered in advance by the user with the image captured by the fixed point camera. It is possible to employ a configuration in which identity determination means is provided and the result of identity determination is displayed in addition to the information for identifying the user of the passenger vehicle.
  • the boarding support system described above has a function of displaying traffic conditions near the user's boarding position based on images acquired from the fixed-point camera, in addition to information for identifying the user of the passenger vehicle. can be taken.
  • the boarding support system described above may be composed of a server that operates based on a request from an onboard terminal of the passenger vehicle.
  • [Twelfth form] (Refer to the boarding support method from the second viewpoint above)
  • [Thirteenth Mode] (Refer to the program from the third viewpoint above) It should be noted that the twelfth to thirteenth modes can be developed into the second to eleventh modes in the same manner as the first mode.

Abstract

乗車支援システムは、乗用旅客車両の配車を行う配車システムから、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信する受信手段と、前記利用者の情報に基づいて、ロードサイドに設置された複数の定点カメラのいずれかを選択して、前記予約を行った利用者を撮影した画像を取得する画像取得手段と、前記利用者を撮影した画像を用いて、所定の表示装置に、前記乗用旅客車両の利用者を識別するための情報を表示させる表示手段と、を備える。

Description

乗車支援システム、乗車支援方法及びプログラム記録媒体
 本発明は、乗車支援システム、乗車支援方法及びプログラム記録媒体に関する。
 特許文献1に、利用者が配車センターへの配車依頼を失念することによるトラブルを未然に防止できるという配車システムが開示されている。同文献には、利用者が、車両監視システムを介して、または直接に、配車された車両の情報端末に利用車の現在位置情報を送信することが記載されている。また、車両監視システムが、利用者に対し、配車する車両の外観や色などの車両デ-タと運転手の顔などの画像デ-タ、運転手の声の音声デ-タ、走行している車両から撮影した景色などの動画デ-タを送信することが記載されている(段落0128参照)。
 特許文献2には、地理に詳しくない外出先からでも容易にタクシーの配車サービスを受けることができ、タクシーの乗務員が迅速且つ的確にユーザーの待つ詳細な呼出位置を認識でき、確実な配車サービスを提供できるという配車サービス方法が開示されている。
 特許文献3には、利用者と車載端末との双方に、乗車位置を含んだ配車情報を送るサーバを含む構成が開示されている(段落0051参照)。特許文献4には、複数のカメラを用いて配車地点の周辺を撮影した映像を解析し、配車地点の周辺の道路状況から配車エリアRを動的に設定する画像解析部を備えた自動運転車が開示されている。
特開2003-67890号公報 特開2002-32897号公報 特開2019-067012号公報 特開2020-097850号公報
 以下の分析は、本発明者によって与えられたものである。タクシーが迎車に向かった際に、迎車地点に複数の乗客がいて、自車の乗客を識別することが困難となる場合がある。この点、特許文献1、2では、利用者が情報端末を所持していない場合、利用者の情報が得られないという問題点がある。
 本発明は、迎車地点にいる乗客の識別を容易化することのできる乗車支援システム、乗車支援方法及びプログラム記録媒体を提供することを目的とする。
 第1の視点によれば、ロードサイドに設置された複数の定点カメラから画像を取得可能であり、乗用旅客車両の配車を行う配車システムから、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信する受信手段と、前記利用者の情報に基づいて、前記定点カメラのいずれかを選択して、前記予約を行った利用者を撮影した画像を取得する画像取得手段と、前記利用者を撮影した画像を用いて、前記乗用旅客車両の車載端末に、前記乗用旅客車両の利用者を識別するための情報を表示させる表示手段と、を備える乗車支援システムが提供される。
 第2の視点によれば、ロードサイドに設置された複数の定点カメラから画像を取得可能なコンピュータが、乗用旅客車両の配車を行う配車システムから、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信し、前記利用者の情報に基づいて、前記定点カメラのいずれかを選択して、前記予約を行った前記利用者を撮影した画像を取得し、前記利用者を撮影した画像を用いて、前記乗用旅客車両の車載端末に、前記乗用旅客車両の利用者を識別するための情報を表示させる、乗車支援方法が提供される。本方法は、ロードサイドに設置された複数の定点カメラから画像を取得可能なコンピュータという、特定の機械に結びつけられている。
 第3の視点によれば、上記した乗車支援システムの機能を実現するためのコンピュータプログラム(以下、プログラム)が提供される。なお、このコンピュータプログラムは、コンピュータ装置に入力装置又は外部から通信インタフェースを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させる。また、このプログラムは、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インタフェースを介して、外部と通信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。また、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明によれば、迎車地点にいる乗客の識別を容易化することができる。
本発明の一実施形態の構成を示す図である。 本発明の一実施形態の動作を説明するための図である。 本発明の第1の実施形態のシステム構成を示す図である。 本発明の第1の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第2の実施形態のシステム構成を示す図である。 本発明の第2の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第3の実施形態のシステム構成を示す図である。 本発明の第3の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第3の実施形態の情報処理装置の動作を説明するための図である。 本発明の第4の実施形態のシステム構成を示す図である。 本発明の第4の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第4の実施形態の情報処理装置の動作を説明するための図である。 本発明の第4の実施形態の情報処理装置の動作を説明するための図である。 本発明の第5の実施形態のシステム構成を示す図である。 本発明の第5の実施形態の情報処理装置の動作を表した流れ図である。 本発明の第6の実施形態のシステム構成を示す図である。 本発明の乗車支援システムとして機能可能なコンピュータの構成を示す図である。
 はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、図中の各ブロックの入出力の接続点には、ポート乃至インタフェースがあるが図示省略する。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。また、このコンピュータ装置は、通信インタフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、通信可能に構成される。
 本発明は、その一実施形態において、図1に示すように、複数台の定点カメラ30、配車システム20、表示装置40と接続された乗車支援システム10にて実現できる。
 定点カメラ30は、ロードサイドに複数設置され、迎車中の乗用旅客車両を撮影可能となっている。定点カメラ30の設置位置は、迎車位置として指定されることの多い主要な施設や交差点等が考えられるが、特に限定されない。
 配車システム20は、タクシー会社や自動運転車車両の配車システムであり、前記乗用旅客車両の配車を行う。
 表示装置40は、乗車支援システム10が作成する乗用旅客車両の利用者を識別するための情報の表示先となる装置である。表示装置40の種類としては、乗用旅客車両の車載装置、タクシー会社や自動運転車車両の管理端末等が考えられる。
 乗車支援システム10は、受信手段11と、画像取得手段12と、表示手段13と、を備える。受信手段11は、前記配車システム20から、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信する。画像取得手段12は、前記利用者の情報に基づいて、前記定点カメラのいずれかを選択して、前記予約を行った利用者を撮影した画像を取得する。表示手段13は、前記利用者を撮影した画像を用いて、前記表示装置40に、前記乗用旅客車両の利用者を識別するための情報を表示させる。
 なお、画像取得手段12が、乗用旅客車両の利用者の情報に基づいて、複数の定点カメラ30から該当する利用者の画像を取得する仕組みとしては、以下の方法が考えられる。(1)事前に登録した利用者の顔や歩様(歩く様子)等と、定点カメラ30で撮影された人物画像とを照合する。
(2)乗用旅客車両の利用者が携帯する端末等から、位置情報を含んだ情報を受け取り、その位置情報に基づいて、定点カメラを選択する。この位置情報には、例えば、GPS(Global Positioning System)で得られた位置情報や、無線通信ネットワークの基地局から得られる在圏セル情報等を用いることができる。
(3)乗用旅客車両の利用者から、その携帯する端末等を用いて、明示的な撮影要求を受け取り、当該利用者を撮影可能な定点カメラ30で撮影する。
 また、前記定点カメラ30から画像を取得する方法は、定点カメラ30から直接画像を受け取る形態に限られず、定点カメラ30で撮影された画像を一時的に記憶する記憶装置から画像を取得する形態も採ることができる。定点カメラ30と画像取得手段12は、各種のネットワークを用いて相互に接続することができる。一例として、定点カメラ30と画像取得手段12は、有線回線で接続されていてもよい。他の一例として、定点カメラ30と画像取得手段12は、LTE、5G、無線LAN等の無線回線を経由して接続されていてもよい。
 以上のように構成された乗車支援システム10は、配車システム20から、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信する。そして、乗車支援システム10は、前記利用者の情報に基づいて、前記定点カメラ30のいずれかを選択して、前記予約に基づき乗車位置に移動中の利用者を撮影した画像を取得する。さらに、乗車支援システム10は、前記利用者を撮影した画像を用いて、所定の表示装置40に、前記乗用旅客車両の利用者を識別するための情報を表示させる。
 前記利用者を識別するための情報としては、利用者の外観画像を用いることができる。例えば、図2に示すように、所定の距離以上離れた位置で前記利用者を撮影した利用者の全身画像を用いることもできる。この場合において、1つの画像に複数の人物50a、50bが映っている場合、図2に示すように矢印等で対象の利用者50aを特定する情報が付加されていることが好ましい。なお、外観画像として全身画像を用いることは一例であって、利用者の全身画像から、顔や上半身等、一部分を切り出して用いてもよい。また、前記利用者を識別するための情報の別の形態としては、乗用旅客車両の利用者の画像から認識した利用者の特徴情報を用いることができる。この特徴情報の具体例については第2の実施形態で説明する。
 これにより、迎車地点に複数の人物が待機する場合であっても、乗用旅客車両の運転手は、搭乗させるべき人物を容易に識別することが可能となる。
[第1の実施形態]
 続いて、本発明の第1の実施形態について図面を参照して詳細に説明する。図3は、本発明の第1の実施形態のシステム構成を示す図である。図3を参照すると、ロードサイドに設置された複数の定点カメラ300と、配車システム200と接続された車載端末100が示されている。
 配車システム200は、乗用旅客車両の利用者から日時、迎車地点等を指定した乗用旅客車両の予約を受け付け、乗用旅客車両の車載端末に対し、配車を指示するシステムである。また、本実施形態の配車システム200は、乗用旅客車両の車載端末100に対し、前記予約を行った利用者の情報を送信する機能を備えている。なお、乗用旅客車両の車載端末100に情報を送信するための宛先情報(端末ID、IPアドレス、メールアドレス等)は、事前に配車システム200に設定されているものとする。
 車載端末100は、受信部101と、画像取得部102と、表示部103とを備える。受信部101は、配車システム200から、自車の利用者の情報を受信する。「利用者の情報」は、任意の定点カメラ300で撮影された画像の中から抽出され、利用者を特定可能な情報であり、例えば、利用者のIDや顔画像情報等を用いることができる。
 画像取得部102は、前記利用者の情報に基づいて、前記定点カメラ30のいずれかを選択し、選択した定点カメラ300から、利用者を撮影した画像を取得する。例えば、「利用者の情報」として顔画像情報を用いる場合、画像取得部102は、前記定点カメラ300で撮影した画像中の人物の顔領域を切り出し、事前に登録された該当する利用者の顔画像との照合により顔認証を行う。また、前記定点カメラ300側に、画像中の人物の顔領域を切り出し、顔認証を行ない、画像にタグ付けする機能が備えられている場合も想定される。この場合、画像取得部102は、これらのタグと利用者のIDとを照合することで、乗用旅客車両の利用者を特定することもできる。
 表示部103は、前記画像取得部102で取得した利用者の画像を用いて、車載端末100の表示装置(図示省略)に、前記利用者を識別するための情報を表示させる手段として機能する。
 以上のような車載端末100は、乗用旅客車両に搭載されているカーナビゲーションシステムや運転支援システムに、上記した受信部101と、画像取得部102と、表示部103に相当する機能を実現するコンピュータプログラム(いわゆる「アプリ」、「App」)をインストールすることにより構成することができる。また、別の形態として、乗車支援システムは、前記利用者を識別するための情報を車載端末に表示させるサーバとしても実現することができる(後記第6の実施形態参照)。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図4は、本発明の第1の実施形態の車載端末100の動作を表した流れ図である。図4を参照すると、まず、車載端末100は、配車システム200から、予約を行った利用者の情報を受信する(ステップS001)。
 車載端末100は、前記利用者の情報に基づいて、前記定点カメラ300のいずれかを選択し、選択した定点カメラ300から、前記利用者を撮影した画像を取得する(ステップS002)。
 車載端末100は、前記画像取得部102で取得した利用者の画像を用いて、車載端末100の表示装置(図示省略)に、前記利用者を識別するための情報を表示させる(ステップS003)。
 以上のように動作する車載端末100によれば、乗用旅客車両の運転手に、自車に搭乗させるべき利用者を識別するための情報を提供することが可能となる。例えば、図2に示すように、前記利用者の外観画像を提供することで、乗用旅客車両の運転手は、迎車地点に、利用者の外観画像を手掛かりに、自車に搭乗させるべき利用者を的確に識別することが可能となる。
[第2の実施形態]
 続いて、利用者の画像から認識した利用者の特徴情報(服装、着装物、髪型、性別、推定年齢、身長、荷物や同行者の有無)を提供するようにした第2の実施形態について説明する。第2の実施形態の構成及び動作は第1の実施形態とほぼ共通するため、以下、その相違点を中心に説明する。
 図5は、本発明の第2の実施形態のシステム構成を示す図である。第1の実施形態との相違点は、車載端末100aに特徴抽出部104が追加され、表示部103aが、特徴抽出部104によって抽出された利用者の特徴情報を表示するように構成されている点である。
 本実施形態では、画像取得部102で取得した利用者の画像は、特徴抽出部104に入力される。特徴抽出部104は、利用者の画像から、利用者の特徴を認識し、表示部103aに出力する。この利用者の画像から特徴を認識する方法としては、事前に機械学習により作成した分類器を用いる方法を用いることができる。例えば、特徴抽出部104は、利用者の画像から、服装、着装物(眼鏡やマスク等)、髪型、性別、推定年齢、身長、荷物や同行者の有無等の少なくとも1つ以上を認識する。
 表示部103aは、車載端末100aの表示装置(図示省略)に、特徴抽出部104にて抽出された利用者の特徴情報を表示させる。例えば、図5に示すように、利用者の推定年齢(年代)、推定性別、着装物(眼鏡)、服装等を車載端末100aの表示装置(図示省略)に表示させる。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図6は、本実施形態の車載端末100aの動作を表した流れ図である。図6のステップS001、S002の動作は第1の実施形態と同様であるため説明を省略する。
 ステップS103で、車載端末100aは、乗用旅客車両の画像から、利用者の特徴を抽出する。
 そして、ステップS104で、車載端末100aは、表示装置(図示省略)に利用者の特徴を表示する。
 以上説明したように、本実施形態によれば、利用者の画像から認識した利用者の特徴情報を提供することで、その識別を一層容易化することができる。もちろん、第1の実施形態と同様に、特徴情報と合わせて、利用者の画像そのものを表示してもよい。
[第3の実施形態]
 続いて、前記利用者を識別するための情報として、前記利用者の待機位置を送信するようにした第3の実施形態について図面を参照して詳細に説明する。第3の実施形態の構成及び動作は第1の実施形態とほぼ共通するため、以下、その相違点を中心に説明する。
 図7は、本発明の第3の実施形態のシステム構成を示す図である。第1の実施形態との相違点は、車載端末100bに待機位置特定部105が追加され、表示部103bが、待機位置特定部105によって特定された利用者の待機位置を表示するように構成されている点である。
 本実施形態では、画像取得部102で取得した利用者の画像は、待機位置特定部105に入力される。待機位置特定部105は、利用者の画像から、利用者の待機位置を特定する。そして、待機位置特定部105は、前記特定した利用者の待機位置を示した地図を作成し、表示部103bに出力する。例えば、図9の左側に示す利用者の画像が得られている場合、待機位置特定部105は、定点カメラの位置、その画像中の利用者が映っている位置、ランドマーク600等から、図9の右側に示すように、利用者の詳細な待機位置を特定し、地図上にプロットする。なお、ここで用いる地図は、カーナビゲーションシステムと同一の地図であってもよい。
 表示部103bは、車載端末100bの表示装置(図示省略)に、待機位置特定部105によって特定された利用者の待機位置を示した地図を表示させる。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図8は、本実施形態の車載端末100bの動作を表した流れ図である。図8のステップS001、S002の動作は第1の実施形態と同様であるため説明を省略する。
 ステップS203で、車載端末100bは、利用者の画像から、利用者の待機位置を特定する。
 そして、ステップS204で、車載端末100bは、表示装置(図示省略)に利用者の待機位置を示した地図を表示する(図9の右側図参照)。
 以上説明したように、本実施形態によれば、利用者の画像から認識した利用者の待機位置を提供することで、その識別を一層容易化することができる。もちろん、第1の実施形態と同様に、待機位置と合わせて、利用者の画像そのものを表示してもよい。この場合、車載端末100bの表示装置(図示省略)には、図9の左側に示すような情報が表示されることになる。
[第4の実施形態]
 続いて、前記利用者を識別するための情報として、利用者が向かっている乗車位置を予測し、提供するようにした第4の実施形態について図面を参照して詳細に説明する。第4の実施形態の構成及び動作は第1の実施形態とほぼ共通するため、以下、その相違点を中心に説明する。
 図10は、本発明の第4の実施形態のシステム構成を示す図である。第1の実施形態との相違点は、車載端末100cに乗車位置予測部106が追加され、表示部103cが、乗車位置予測部106によって予測された利用者の乗車位置を表示するように構成されている点である。
 本実施形態では、画像取得部102で取得した利用者の画像は、乗車位置予測部106に入力される。乗車位置予測部106は、定点カメラの位置と、利用者を撮影した画像から認識された、乗車位置への利用者の接近方向(進行方向)とをもとに、利用者が向かっている乗車位置を予測する。そして、乗車位置予測部106は、前記予測した利用者の乗車位置を、表示部103cに出力する。例えば、ある一方向に向かう車線Aと、車線Aとは逆方向に向かう車線Bとからなる道路において、利用者の乗車位置が車線A側の歩道と車線B側の歩道のどちらの歩道になる可能性が高いかを予測する。また、別の例として、利用者が乗車位置に幹線道路沿いの歩道を使って東側から接近している場合、乗車位置予測部106は、その沿線上の利用者の進行方向の左側の歩道のうち、周囲の交通状況や交通ルールなどに基づいて、乗用旅客車両の待機に適した場所を予測する。この乗車位置予測部106の予測の具体例については、後に図面を参照して詳細に説明する。
 表示部103cは、車載端末100cの表示装置(図示省略)に、乗車位置予測部106によって予測された乗車位置を表示させる。予測された乗車位置は、地図とともに表示させてもよい。なお、ここで用いる地図は、カーナビゲーションシステムと同一の地図であってもよい。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図11は、本実施形態の車載端末100cの動作を表した流れ図である。図11のステップS001、S002の動作は第1の実施形態と同様であるため説明を省略する。
 ステップS303で、車載端末100cは、定点カメラ300の位置及び利用者の画像から、利用者の乗車位置を予測する。
 そして、ステップS304で、車載端末100cは、表示装置(図示省略)に利用者の乗車位置を表示する。
 上記車載端末100cの動作について図12及び図13を用いて説明する。例えば、図12に示すように、利用者500が西側(図12の左側)から迎車位置である交差点付近に接近している場合、乗車位置予測部106は、次のように乗車位置を予測する。まず、図12の西側から交差点に向かう沿線上の領域を選択し、その中から、安全に停車可能であり、かつ、交通法規等に違反しない場所を特定する。図12の例では、交差点の左側手前、かつ、交差点から所定距離だけ離れた場所を乗車位置として予測している。交差点の先であると左折車等の通行の妨げになる可能性があり、かつ、我が国の交通ルール上、交差点とその側端から前後5mは駐停車禁止になっているからである。
 また、乗車位置予測部106が、交差点付近の交通状況を考慮して乗車位置を予測するようにしてもよい。例えば、図13に示すように、乗車位置である交差点先の付近の左側車線(図13の右側)が渋滞し、かつ、利用者500が交差点の北側(図13の上側)の路肩の方を向いている場合、乗車位置予測部106は、利用者500が交差点の北側(図13の上側)で乗車しようとしていると予測する。
 図12及び図13のいずれの場合も、乗車位置を知った乗用旅客車両700の運転手は、利用者500が乗車しようとしている位置に向かって乗用旅客車両700を停車させることができる。これにより、利用者500をスムーズに乗車させることができる。また、より望ましい形態において、車載端末100cが、配車システム200等を介して、利用者500にも、前記予測した乗車位置を知らせることも好ましい。利用者500が、前記予測された乗車位置に向かい立ち止まることで、利用者の搭乗をより容易化することができる。
 以上説明したように、本実施形態によれば、乗用旅客車両700の運転手に、表示装置を介して利用者の乗車位置を提供することで、利用者の識別をより容易化することができる。もちろん、第1、第2の実施形態と同様に、乗車位置と合わせて、利用者の画像や特徴情報を提供してもよい。
[第5の実施形態]
 続いて、前記利用者を識別するための情報として、利用者が向かっている乗車位置とその到着時刻の双方を予測し、提供するようにした第5の実施形態について図面を参照して詳細に説明する。第5の実施形態の構成及び動作は第1の実施形態とほぼ共通するため、以下、その相違点を中心に説明する。
 図14は、本発明の第5の実施形態のシステム構成を示す図である。第1の実施形態との相違点は、車載端末100dに乗車位置・時刻予測部107と、到着時間調整部108とが追加されている点である。また、第1の実施形態との第2の相違点は、表示部103dが、迎車位置・時刻予測部107によって予測された利用者の乗車位置とその到着時間を表示するように構成されている点である。
 本実施形態では、画像取得部102で取得した利用者の画像は、乗車位置・時刻予測部107に入力される。乗車位置・時刻予測部107は、定点カメラ300の位置と、定点カメラ300において前記利用者が撮影された時刻とに基づいて、前記利用者の前記乗車位置への到着時刻を予測する。また、より精度の高い到着時刻を予測する場合、乗車位置・時刻予測部107に、利用者の画像から、利用者の乗車位置への接近方向と速度を認識させ、利用者が向かっている乗車位置とその到着時間を予測させてもよい。そして、乗車位置・時刻予測部107は、前記予測した利用者の乗車位置とその到着予測時刻を、表示部103dに出力する。
 表示部103dは、車載端末100dの表示装置(図示省略)に、乗車位置・時刻予測部107によって予測された乗車位置とその到着時刻を表示させる。
 到着時間調整部108は、上記のようにして予測された利用者の到着予測時刻と自車の到着予測時刻とを比較し、例えば、このまま向かうと到着予測時刻よりも早く着き過ぎてしまう場合には、到着時間の調整処理を行う。この到着時間の調整処理としては、自車の速度の調整(速度を低下させる)や、経路の変更(迂回等を行う)等が考えられる。また、この到着時間の調整処理の別の方法としては、交通信号機の管制センター等に信号機の制御パラメータを調整してもらう方法も考えられる。この方法は、特に、利用者の到着予測時刻と自車の到着予測時刻とを比較した結果、利用者の到着予測時刻よりも大きく遅れて到着することが見込まれる場合に、経路上の交通信号機の灯火を青に制御してもらう場合等に有効である。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図15は、本実施形態の車載端末100dの動作を表した流れ図である。図15のステップS001、S002の動作は第1の実施形態と同様であるため説明を省略する。
 ステップS403で、車載端末100dは、利用者の画像から、利用者の乗車位置とその到着時刻を予測する。
 次に、車載端末100dは、前記乗車位置への自車の到着時刻を予測する(ステップS404)。
 次に、車載端末100dは、前記2つの到着時刻を比較し、所定の時間差で到着可能か否かを確認する(ステップS405)。前記確認の結果、所定の時間差で到着可能と判定した場合、車載端末100dは、表示装置(図示省略)に利用者の乗車位置を表示する(ステップS408)。
 一方、前記確認の結果、所定の時間差で到着不可と判定した場合、車載端末100dは、上述した到着時間の調整処理を行う(ステップS406)。その後、車載端末100dは、表示装置(図示省略)に、到着時間の調整処理の内容と、利用者の乗車位置を表示する(ステップS407)。
 以上説明したように、本実施形態の車載端末100dは、利用者の乗車位置を予測するだけでなく、その到着時間に到着するように到着時間の調整処理を実行する。これにより、乗用旅客車両の運転手は、到着時刻にその場にいる利用者を、自車の利用者として簡単に識別することが可能となる。
[第6の実施形態]
 上記した第1~第5の実施形態では、車載端末を用いて乗車支援システムを構成した例を説明したが、乗車支援システムは、車載端末に情報を提供するサーバにより構成することもできる。図16は、サーバ100eを含む、本発明の第6の実施形態のシステム構成を示す図である。サーバ100eは、クラウド上に構築されたサーバであってもよいし、MEC(Multi-access Edge Computing)サーバであってもよい。
 図16を参照すると、定点カメラ300と、配車システム200とに接続されたサーバ100eが示されている。サーバ100eの受信部101及び画像取得部102は第1の実施形態と同様であるため説明を省略する。サーバ100eの送信部103eは、乗用旅客車両700の車載端末やタクシー会社の管理端末702に、前記利用者500を識別するための情報を送信する。
 前記サーバ100eから利用者を識別するための情報を受信した車載端末701や管理端末702は、その表示装置(図示省略)に、利用者500を識別するための情報を表示する。従って、サーバ100eは、利用者の画像を用いて、所定の表示装置に、前記利用者を識別するための情報を表示させる表示手段を備えている。なお、管理端末702を表示先として使用する場合、乗用旅客車両の情報と、利用者を識別するための情報とを組にして表示すればよい。
 本実施形態によれば、第1の実施形態と同様の効果に加え、車載装置に事前にコンピュータプログラム(いわゆる「アプリ」、「App」)をインストールしなくてもよいという利点がある。もちろん、第6の実施形態においても、第2~第5の実施形態と同様に、利用者を識別するための情報として、利用者の特徴情報、待機位置、予測された乗車位置、予測された到着時刻等を提供する構成に変形することもできる。
 以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的な技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示した装置構成、各要素の構成、データ等の表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。例えば、上記した第4の実施形態では、乗車位置として交差点が指定されたものとして説明したが、乗車位置は交差点に限られない。
 また、より望ましい形態において、乗車支援システムは、前記利用者が事前に登録した前記利用者の画像と前記定点カメラで撮影された画像との照合により、前記乗用旅客車両の利用者の同一性の判定を行う同一性判定手段を備えることも好ましい。そして、乗車支援システムが、車載端末等に対し、前記乗用旅客車両の利用者を識別するための情報に加え、前記同一性の判定結果を表示させることで、車載端末に、乗客のすり替わり(なりすまし、入れ替わり)の検出機能を持たせることもできる。
 また、上記した各実施形態に示した手順は、乗車支援システムとして機能するコンピュータ(図17の9000)に、乗車支援システムとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図17のCPU(Central Processing  Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図17のCPU9010にて、利用者の特定プログラムやデータ送信プログラムを実行させればよい。
 即ち、上記した車載端末やサーバの各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
 最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による乗車支援システム参照)
[第2の形態]
 上記した乗車支援システムは、前記利用者を識別するための情報として、前記利用者の外観画像を表示させる構成を採ることができる。
[第3の形態]
 上記した乗車支援システムは、前記利用者を識別するための情報として、前記利用者の特徴情報を表示させる構成を採ることができる。
[第4の形態]
 上記した乗車支援システムは、さらに、前記定点カメラの位置と、前記定点カメラで撮影された画像中の利用者の位置に基づいて、前記利用者が待機している位置を特定する待機位置特定手段を備え、
 前記利用者を識別するための情報として、前記待機位置を表示させる構成を採ることができる。
[第5の形態]
 上記した乗車支援システムは、さらに、
 前記定点カメラの位置と、前記利用者の進行方向とに基づいて、前記利用者が向かっている前記乗用旅客車両の乗車位置を予測する乗車位置予測手段を備え、
 前記利用者を識別するための情報として、前記乗車位置を表示させる構成を採ることができる。
[第6の形態]
 上記した乗車支援システムの乗車位置予測手段は、さらに、
 前記定点カメラの位置に基づいて、前記利用者の前記乗車位置への到着時刻を予測し、
 さらに、
 前記到着時刻に前記利用者を搭乗させるために、周辺の交通信号機の信号制御パラメータの変更、前記乗用旅客車両の走行ルート及び走行速度の少なくとも1つ以上を制御する到着時間調整手段を備える構成を採ることができる。
[第7の形態]
 上記した乗車支援システムは、
 前記画像取得手段は、前記利用者が携行する端末から受信した位置情報に基づいて、前記定点カメラを選択する構成を採ることができる。
[第8の形態]
 上記した乗車支援システムは、前記利用者が事前に登録した前記利用者の画像と前記定点カメラで撮影された画像との照合により、前記定点カメラを選択する構成を採ることができる。
[第9の形態]
 上記した乗車支援システムは、さらに、前記利用者が事前に登録した前記利用者の画像と前記定点カメラで撮影された画像との照合により、前記乗用旅客車両の利用者の同一性の判定を行う同一性判定手段を備え、前記乗用旅客車両の利用者を識別するための情報に加え、前記同一性の判定結果を表示させる構成を採ることができる。
[第10の形態]
 上記した乗車支援システムは、前記乗用旅客車両の利用者を識別するための情報に加え、前記定点カメラから取得した画像に基づく、前記利用者の乗車位置付近の交通状態を表示させる機能を備える構成を採ることができる。
[第11の形態]
 上記した乗車支援システムは、前記乗用旅客車両の車載端末からの要求に基づいて動作するサーバによって構成されていてもよい。
[第12の形態]
(上記第2の視点による乗車支援方法参照)
[第13の形態]
(上記第3の視点によるプログラム参照)
 なお、上記第12~第13の形態は、第1の形態と同様に、第2~第11の形態に展開することが可能である。
 なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。さらに、上記引用した文献の各開示事項は、必要に応じ、本発明の趣旨に則り、本発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれるものと、みなされる。
 10 乗車支援システム
 11 受信手段
 12 画像取得手段
 13 表示手段
 20、200 配車システム
 30、300 定点カメラ
 40 表示装置
 50、50a、50b、500、500a 利用者
 100、100a、100b、100c、100d 車載端末
 100e サーバ
 101 受信部
 102 画像取得部
 103、103a、103b、103c、103d 表示部
 104 特徴抽出部
 105 待機位置特定部
 106 乗車位置予測部
 107 乗車位置・時刻予測部
 103e 送信部
 600 ランドマーク
 700 乗用旅客車両
 702 管理端末
 9000  コンピュータ
 9010 CPU
 9020 通信インタフェース
 9030 メモリ
 9040 補助記憶装置

Claims (13)

  1.  ロードサイドに設置された複数の定点カメラから画像を取得可能であり、
     乗用旅客車両の配車を行う配車システムから、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信する受信手段と、
     前記利用者の情報に基づいて前記定点カメラのいずれかを選択して、前記予約を行った前記利用者を撮影した画像を取得する画像取得手段と、
     前記利用者を撮影した画像を用いて、所定の表示装置に、前記乗用旅客車両の利用者を識別するための情報を表示させる表示手段と、
     を備える乗車支援システム。
  2.  前記利用者を識別するための情報は、前記利用者の外観画像である請求項1の乗車支援システム。
  3.  さらに、前記利用者を撮影した画像から、前記利用者の特徴情報を抽出する手段を備え、
     前記利用者を識別するための情報として、前記利用者の特徴情報を表示させる請求項1又は2の乗車支援システム。
  4.  さらに、前記定点カメラの位置と、前記定点カメラで撮影された画像中の利用者の位置とに基づいて、前記利用者が待機している位置を特定する待機位置特定手段を備え、
     前記利用者を識別するための情報として、前記待機位置を表示させる請求項1から3いずれか一の乗車支援システム。
  5.  さらに、前記定点カメラの位置と、前記利用者の進行方向とに基づいて、前記利用者が向かっている前記乗用旅客車両の乗車位置を予測する乗車位置予測手段を備え、
     前記利用者を識別するための情報として、前記予測された乗車位置を表示させる請求項1から3いずれか一の乗車支援システム。
  6.  さらに、
     前記乗車位置予測手段は、前記定点カメラの位置と、前記定点カメラにおいて前記利用者が撮影された時刻とに基づいて、前記利用者の前記乗車位置への到着時刻を予測し、
     前記到着時刻に前記利用者を搭乗させるために、周辺の交通信号機の信号制御パラメータの変更、前記乗用旅客車両の走行ルート及び走行速度の少なくとも1つ以上を制御する制御手段を備える請求項5の乗車支援システム。
  7.  前記画像取得手段は、前記利用者が携行する端末から受信した位置情報に基づいて、前記定点カメラを選択する請求項1から6いずれか一の乗車支援システム。
  8.  前記画像取得手段は、前記利用者が事前に登録した前記利用者の画像と前記定点カメラで撮影された画像との照合により、前記定点カメラを選択する請求項1から7いずれか一の乗車支援システム。
  9.  さらに、前記利用者が事前に登録した前記利用者の画像と前記定点カメラで撮影された画像との照合により、前記乗用旅客車両の利用者の同一性の判定を行う同一性判定手段を備え、
     前記乗用旅客車両の利用者を識別するための情報に加え、前記同一性の判定結果を表示させる請求項1から8いずれか一の乗車支援システム。
  10.  前記乗用旅客車両の利用者を識別するための情報に加え、前記定点カメラから取得した画像に基づく、前記利用者の乗車位置付近の交通状態を表示させる請求項1から9いずれか一の乗車支援システム。
  11.  前記乗用旅客車両の車載端末からの要求に基づいて動作するサーバによって構成されている請求項1から10いずれか一の乗車支援システム。
  12.  ロードサイドに設置された複数の定点カメラから画像を取得可能なコンピュータが、
     乗用旅客車両の配車を行う配車システムから、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信し、
     前記利用者の情報に基づいて、前記定点カメラのいずれかを選択して、前記予約を行った前記利用者を撮影した画像を取得し、
     前記利用者を撮影した画像を用いて、前記乗用旅客車両の車載端末に、前記乗用旅客車両の利用者を識別するための情報を表示させる、
     乗車支援方法。
  13.  ロードサイドに設置された複数の定点カメラから画像を取得可能なコンピュータに、
     乗用旅客車両の配車を行う配車システムから、利用者から予約を受けた乗用旅客車両の情報と、前記予約を行った利用者の情報との組み合わせを受信する処理と、
     前記利用者の情報に基づいて、前記定点カメラのいずれかを選択して、前記予約を行った前記利用者を撮影した画像を取得する処理と、
     前記利用者を撮影した画像を用いて、前記乗用旅客車両の車載端末に、前記乗用旅客車両の利用者を識別するための情報を表示させる処理と、
     を実行させるプログラムを記録したプログラム記録媒体。
PCT/JP2021/011765 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体 WO2022201255A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/011765 WO2022201255A1 (ja) 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体
JP2023508175A JPWO2022201255A5 (ja) 2021-03-22 乗車支援システム、乗車支援方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/011765 WO2022201255A1 (ja) 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体

Publications (1)

Publication Number Publication Date
WO2022201255A1 true WO2022201255A1 (ja) 2022-09-29

Family

ID=83395379

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/011765 WO2022201255A1 (ja) 2021-03-22 2021-03-22 乗車支援システム、乗車支援方法及びプログラム記録媒体

Country Status (1)

Country Link
WO (1) WO2022201255A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117566A (ja) * 2003-10-10 2005-04-28 Victor Co Of Japan Ltd 画像提供サービスシステム
JP2005250614A (ja) * 2004-03-02 2005-09-15 Nec Mobiling Ltd タクシー配車システム
JP2009282596A (ja) * 2008-05-20 2009-12-03 Hitachi Kokusai Electric Inc 配車システム
JP2015191264A (ja) * 2014-03-27 2015-11-02 株式会社ニコン 自律走行車両
US20180357907A1 (en) * 2016-12-13 2018-12-13 drive.ai Inc. Method for dispatching a vehicle to a user's location
JP2019121049A (ja) * 2017-12-28 2019-07-22 株式会社ケイ・オプティコム ユーザが要望する所定場所に車両を配車する配車装置、配車方法及びプログラム
JP2021026627A (ja) * 2019-08-07 2021-02-22 パナソニックIpマネジメント株式会社 配車方法、車載装置および路側装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117566A (ja) * 2003-10-10 2005-04-28 Victor Co Of Japan Ltd 画像提供サービスシステム
JP2005250614A (ja) * 2004-03-02 2005-09-15 Nec Mobiling Ltd タクシー配車システム
JP2009282596A (ja) * 2008-05-20 2009-12-03 Hitachi Kokusai Electric Inc 配車システム
JP2015191264A (ja) * 2014-03-27 2015-11-02 株式会社ニコン 自律走行車両
US20180357907A1 (en) * 2016-12-13 2018-12-13 drive.ai Inc. Method for dispatching a vehicle to a user's location
JP2019121049A (ja) * 2017-12-28 2019-07-22 株式会社ケイ・オプティコム ユーザが要望する所定場所に車両を配車する配車装置、配車方法及びプログラム
JP2021026627A (ja) * 2019-08-07 2021-02-22 パナソニックIpマネジメント株式会社 配車方法、車載装置および路側装置

Also Published As

Publication number Publication date
JPWO2022201255A1 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
EP3607525B1 (en) Coordinating travel on a public transit system and a travel coordination system
JP2021193578A (ja) アクティブ迎車システムにおける迎車制御サーバ、車載端末、制御方法及び制御プログラム
CN105094767B (zh) 自动驾驶车辆调度方法、车辆调度服务器及自动驾驶车辆
CN109311622B (zh) 电梯系统以及轿厢呼叫估计方法
WO2017173771A1 (zh) 车辆控制方法和装置
WO2020222325A1 (ko) 존 기반 모빌리티 서비스 추천 및 동적 하차위치 설정 ui/ux를 이용한 통합 관제 시스템 및 이의 제어 방법
US20210341295A1 (en) Method and apparatus for controlling vehicle
JP2020107080A (ja) 交通情報処理装置
US11367357B2 (en) Traffic control apparatus, traffic control system, traffic control method, and non-transitory computer recording medium
US20190258270A1 (en) Traveling control system for autonomous traveling vehicles, server apparatus, and autonomous traveling vehicle
CN111179617A (zh) 一种智能网联车的车载单元
JPWO2019220205A1 (ja) 乗降位置決定方法、乗降位置決定装置、ならびに、乗降位置決定システム
DE112018003795T5 (de) Parkverwaltungssystem und parkverwaltungsverfahren
JP2019176329A (ja) 車両通信制御方法、車両通信装置
US20210171046A1 (en) Method and vehicle system for passenger recognition by autonomous vehicles
US11874118B2 (en) Crowdsourcing map maintenance
WO2022201255A1 (ja) 乗車支援システム、乗車支援方法及びプログラム記録媒体
CN109872523B (zh) 一种自动调度服务端、调度方法、设备及可读存储介质
KR102407294B1 (ko) 버스 운행 제어 방법
WO2022201244A1 (ja) 乗車支援システム、乗車支援方法及びプログラム記録媒体
TWI771777B (zh) 動態派車系統
US11842644B2 (en) System for operating commercial vehicles
JP2020086947A (ja) 配車装置
WO2022201517A1 (ja) 乗客情報収集システム、乗客情報収集方法及びプログラム記録媒体
US20240161626A1 (en) Passenger information collection system, passenger information collection method and program recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21932868

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18283020

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2023508175

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21932868

Country of ref document: EP

Kind code of ref document: A1