WO2020145312A1 - 乗り物情報提供装置及び乗り物情報提供方法 - Google Patents

乗り物情報提供装置及び乗り物情報提供方法 Download PDF

Info

Publication number
WO2020145312A1
WO2020145312A1 PCT/JP2020/000327 JP2020000327W WO2020145312A1 WO 2020145312 A1 WO2020145312 A1 WO 2020145312A1 JP 2020000327 W JP2020000327 W JP 2020000327W WO 2020145312 A1 WO2020145312 A1 WO 2020145312A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
vehicle
control device
bus
information
Prior art date
Application number
PCT/JP2020/000327
Other languages
English (en)
French (fr)
Inventor
松本 隆史
雄哉 五十嵐
元明 山崎
白石 理人
Original Assignee
清水建設株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 清水建設株式会社 filed Critical 清水建設株式会社
Publication of WO2020145312A1 publication Critical patent/WO2020145312A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station

Definitions

  • the present invention relates to a vehicle information providing device and a vehicle information providing method.
  • the present application claims priority based on Japanese Patent Application No. 2019-001245 filed in Japan on January 8, 2019, and the content thereof is incorporated herein.
  • Patent Document 1 proposes a technique of analyzing an image and managing a queue at an event venue.
  • Information presenting technology in the waiting space linked to public transportation is currently presented by limited information display such as display and signage and interaction method.
  • physical methods such as paint and ribbons are the main methods for guiding users. Therefore, if the situation, needs, etc. of the staying user change, it is not possible to deal with the information presentation by a physical method.
  • the main means of presenting information on public transportation to users is to present information specific to individual users to mobile terminals, etc., depending on the degree of congestion at stops, the degree of congestion in the vehicle scheduled to board, and It is desirable to be able to present information that considers the expected degree of congestion on the connecting route.
  • the present invention provides a vehicle information providing apparatus and a vehicle information providing method capable of providing highly convenient services that dynamically change according to the user's situation and needs. To aim.
  • a vehicle information providing device includes an operation status detection unit that detects an operation status of a vehicle, and a staying status that detects a staying status of a staying place where a user who uses the vehicle can stay. Based on the detection unit, the detection result of the operation status detection unit and the detection result of the stay status detection unit, information according to the detection result of the operation status detection unit, from the user who uses the stay location.
  • a terminal device in the vehicle that outputs a first output to a display unit that is displayed on at least one of a visible wall, a floor, and a ceiling, and information according to the detection result of the staying state detection unit.
  • a second output for outputting to the output controller, and an output control unit for performing at least one of the outputs.
  • a vehicle information providing method includes a step of detecting an operation status of a vehicle, a step of detecting a staying status of a staying place where a user of the vehicle can stay, and the vehicle Based on the detection result of the operation status and the detection result of the retention status of the retention location, the information according to the detection result of the operation status, the wall, the floor surface visible from the user who uses the retention location , And a first output displayed on at least one of the ceilings, and a second output for outputting information according to the detection result of the staying condition of the staying place to a terminal device in the vehicle. And a step of outputting at least one of them.
  • the present invention it is possible to grasp the number and status of users waiting in the waiting space, and dynamically display the operating status of a vehicle and the like on the wall surface that is the entire display surface. can do. It is possible to inform the vehicle side of the number and status of users waiting in the waiting space. It is possible to dynamically change and present the line guidance etc. according to the situation and needs of the staying users. As a result, it is possible to provide the user with a more convenient service.
  • FIG. 1 is an explanatory diagram of an outline of a vehicle information providing device 1 according to the present embodiment.
  • a bus is used as a vehicle and a bus stop is used as a waiting space.
  • the bus stop 10 is used as a departure/arrival place for the bus 40 and as a waiting space for the user 16 waiting for the bus 40.
  • the bus stop 10 includes a floor surface 11, a wall surface 12, and a ceiling 13.
  • the floor surface 11 and the wall surface 12 each function as a display surface. Making the entire floor surface 11 and the wall surface 12 the display surface can be realized by a projection, an LED (Light Emitting Diode) module, or the like.
  • the display surfaces of the floor surface 11 and the wall surface 12 are visible to the user 16 and are used to provide the user 16 with necessary information such as the operating status of the bus.
  • the information displayed on the display surfaces of the floor surface 11 and the wall surface 12 can be dynamically changed according to the operating status of the bus and the needs of the user.
  • a camera 15 is attached to the ceiling 13.
  • the camera 15 is used to collect the stay status at the bus stop 10 by sensing the movement of the user and the contact with the flat surface.
  • the stay status is a status in which the user stays at the bus stop 10.
  • the bus stop 10 may be provided with a 3D scanner in order to acquire the stay status of the bus stop 10.
  • the bus stop 10 may have the function of a display surface as well as the entire ceiling 13.
  • the floor surface 11 and the wall surface 12 can be used as display surfaces, and the display surfaces are arranged on a spatial scale. Spatial here means that multiple people can stay within the range of the display. For example, spatial means that the floor 11 has a size of 2 square meters and the wall 12 has a width of more than 2 m.
  • the display surfaces of the floor surface 11 and the wall surface 12 may be configured separately (separated from each other), but the display surface of the floor surface 11 and the display surface of the wall surface 12 may be in contact with each other.
  • Display technologies other than projection and LED modules may be used for the display surfaces of the floor surface 11 and the wall surface 12.
  • a display technique that does not cause a shadow on the display surface is preferable.
  • the floor surface 11 is preferably a display surface that is not easily affected by weight and wear.
  • a control device 20 is provided at the bus stop 10. Various information is displayed on the display surfaces of the floor surface 11 and the wall surface 12 by a video signal from the control device 20.
  • the control device 20 identifies the position of the user based on the imaging result captured by the camera 15, and the floor surface 11 corresponding to the identified position or the positions of the floor surface 11 and the wall surface 12 corresponding to the identified position. Display information on. For example, it is possible to specify the position of the user and display the information on the floor 11 at the foot of the user, or to display the information on the wall 12 at the hand of the user when the user approaches the wall 12. it can.
  • the control device 20 detects the motion of the user existing in the vicinity of the wall surface 12 based on the imaging result captured by the camera 15.
  • the control device 20 uses the detection result, or acquires the detection result of detecting the motion of the user existing in the vicinity of the wall surface 12 from a motion sensor described later, and uses the acquired detection result to determine the motion of the user. It is also possible to display the content according to.
  • the control device 20 can communicate with the terminal device 51 of the bus 40 via the network 30.
  • FIG. 2 is a block diagram showing an outline of the control device 20 provided in the bus stop 10 according to the present embodiment.
  • the control device 20 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a storage device 24, and a communication unit 25. ..
  • the CPU 21 interprets the command and executes it.
  • a boot program is stored in the ROM 22.
  • the RAM 23 is used as a main memory.
  • the storage device 24 includes an HDD (Hard Disk Drive) and an SSD (Solid State Drive), and records programs and data of an OS (Operating System) and applications.
  • the communication unit 25 communicates with the terminal device 51 on the bus 40 side via the network 30.
  • a display unit 26, a motion sensor 27, and a camera 15 are connected to the control device 20.
  • the display unit 26 is, for example, a projector or an LED module.
  • the display unit 26 includes the floor surface 11 corresponding to the position of the user specified by the control device 20 based on the imaging result captured by the camera 15, or the floor surface including the positions of the floor surface 11 and the wall surface 12 corresponding to the position of the user. An image is projected on the entire surface 11 or the wall surface 12 or a part of the area.
  • the camera 15 images the floor surface 11 and the wall surface 12, and outputs the imaging result to the control device 20.
  • the control device 20 can detect the movement of the user existing in the imaging region by performing the image processing based on the imaging result.
  • the control device 20 causes the display unit 26 to display an image corresponding to the result of detecting the movement of the user on the floor surface 11 or the wall surface 12.
  • the process of detecting the movement of the user based on the imaging result may be performed by the camera 15, and the detection result of the camera 15 may be output to the control device 20.
  • the movement of the user can be detected based on the imaging result of the camera 15.
  • the motion of the user can also be detected using the motion sensor 27.
  • the motion sensor 27 emits light having a predetermined wavelength such as infrared rays or laser light and receives the reflected light to detect an object existing in the surroundings.
  • the motion sensor 27 detects the movement of the object based on the detection result of detecting the object.
  • the motion sensor 27 outputs the detection result of detecting the object and the result of detecting the movement of the object to the CPU 21.
  • the motion sensor 27 is attached to, for example, the ceiling 13 of the bus stop 10 or a wall surface near the ceiling.
  • the position of the user for example, the position of contact with the floor surface, or how close the user is to the wall surface when the user is not in contact with the wall surface Or the place where the user touches the wall when the user is in contact with the wall.
  • the camera 15 or the motion sensor it is possible to realize interaction based on the movement of the user, the situational judgment based on the degree of proximity of the user to the wall or the display area, or the explicit operation by touch.
  • the movement of the user may be detected based on the detection result of the 3D scanner.
  • the touch panel is provided on the wall surface 12, it is possible to directly detect whether or not the touch operation is performed, so that the detection accuracy is improved.
  • the bus 40 operates with the bus stop 10 as a stop.
  • the bus 40 is provided with a terminal device 51, a camera 52, and a display unit 53.
  • the terminal device 51 can acquire the status of the passenger 55 on the bus 40 from the image captured by the camera 52.
  • the terminal device 51 can acquire information such as the number of passengers 55 and the number of vacant seats by recognizing the image captured by the camera 52.
  • the terminal device 51 can communicate with the control device 20 of the bus stop 10 via the network 30. Accordingly, the terminal device 51 can acquire information such as the number of users 16 waiting at the bus stop 10 from the control device 20.
  • the display unit 53 is connected to the terminal device 51.
  • the display unit 53 is, for example, a liquid crystal display device, displays the name and fare (fare) of the next stop, and displays the congestion degree and the delay state of the next bus stop.
  • the display unit 53 displays the number of passengers boarding at the bus stop 10 (for example, the bus stop to stop next), information about the presence or absence of passengers who need a wheelchair, and the like.
  • the bus illustrated here is a vehicle that an unspecified number of people with various attributes can board without making a reservation or the like. In the case of such a vehicle, the usage status of the passengers 55 (for example, the number of passengers, vacant seats, etc.) can be grasped from the image captured by the camera 52.
  • the camera 15 functions as an operation status detection unit that detects the operation status of the congestion degree of vehicles such as the bus 40.
  • the bus stop 10 is a place where a user can stay in order to use the bus 40.
  • the camera 15 in the control device 20 functions as a staying state detection unit that detects the staying state of the user of the bus stop 10. That is, the control device 20 recognizes a person from the image captured by the camera 15 and counts the number of people from the recognition result, whereby the number of users waiting to use the bus 40 can be detected.
  • the control device 20 Based on the detection result of the operation status of the congestion degree of the bus 40 and the detection result of the operation status of the congestion degree of the bus stop 10, the control device 20 provides information such as the congestion status and the delay status to the floor 11 and the wall surface. It is output (displayed) to a place visible to the user 16, such as 12 or the like. The control device 20 outputs information such as congestion status and delay status to the terminal device 51 in the bus 40 and displays it on the display unit 53. The control device 20 determines the availability of the bus 40, and causes the display unit 26 to display the determination result on the wall surface 12.
  • control device 20 outputs the detection result of the operation status on the wall surface 12 or the floor surface 11 based on the detection result of the operation status of the bus 40 and the detection result of the stay status of the bus stop 10 (first output). Then, the information corresponding to the detection result of the stay status of the bus stop 10 is output to the terminal device 51 of the bus 40 (second output).
  • the control device 20 analyzes the image of the camera 15 and determines whether there is a user 16 who needs assistance at the bus stop 10. When there is a user 16 who needs assistance, the control device 20 outputs a guide to the floor 11 of the bus stop 10 so as to form a queue different from the existing queue. Examples of users who need assistance include users who are using wheelchairs, users who push strollers, and users who have large luggage.
  • the existing queue is a queue already built at the bus stop 10 when the control device 20 determines that there is a user 16 who needs assistance.
  • the matrix already constructed includes the case where the head position of the matrix has already been specified by the alignment point described later, but there is no user who is lined up in the matrix.
  • control device 20 determines that there is a user 16 who needs assistance, for example, a line for the user who needs assistance (priority) is provided at a position different from the line already built by the user getting on the bus. Outputs guidance information that encourages the formation of lanes.
  • the entire surface of the floor surface 11 and the wall surface 12 can be used as a display surface.
  • the camera 15 is attached to the ceiling 13, and the control device 20 can acquire the information of the user 16 waiting at the bus stop 10 by recognizing the captured image obtained from the camera 15.
  • the control device 20 can communicate with the bus 40 side via the network 30. As a result, the bus stop 10 can perform the following processing.
  • the bus stop 10 can acquire the number and position of the users 16 staying at the bus stop 10 from the image captured by the camera 15 mounted on the ceiling 13 by image determination and three-dimensional scanning.
  • the control device 20 can estimate the queue of users scheduled to board from the stay positions and movements of the plurality of users 16 in the bus stop 10 detected based on the imaging result of the camera 15.
  • the image captured by the camera 15 indicates the image of the user 16. It is possible to grasp the stay status (for example, the number of people, the alignment status, etc.).
  • the stay status for example, the number of people, the alignment status, etc.
  • the reservation information registered from those applications is referred to to capture an image of the camera 15. It is possible to directly grasp the user's stay situation at the landing without using images.
  • it is configured to refer to both the reservation information registered from the application and the user's stay status based on the imaging result captured by the camera 15, it is possible to improve the estimation accuracy.
  • the bus stop 10 can present the information necessary for prompting the user 16 to line up.
  • the information required to prompt the user 16 to arrange can be dynamically changed according to the operating status of the bus.
  • the bus stop 10 can track the position of each user 16 and display necessary guidance information, which is individual information, at the feet of each user 16.
  • information is displayed on the floor 11 corresponding to the position of the user specified by the control device 20 or the positions of the floor 11 and the wall 12 corresponding to the position of the user based on the imaging result captured by the camera 15.
  • the guidance can be presented to a plurality of users who are considered to be in a row, by displaying a line on the display surface of the floor 11 that the user is recognized as a row.
  • the destination of the line and information indicating the end of the line are displayed. As a result, it is possible to prompt a user who has newly arrived to judge whether or not to line up in the queue.
  • the control device 20 presents information to the users who do not belong to the queue at the feet of the users, and prompts the user to decide whether to line up in the queue or check the information such as the timetable displayed on the wall surface or the like. be able to.
  • the bus stop 10 can display timetables, routes, etc. by the display function of the wall surface 12.
  • the displayed information allows the user to check the time and route.
  • the timetable and routes displayed on the display surface can be dynamically changed according to the operating status of the bus. It is possible to make an input to the control device 20 by a touch operation on the wall surface 12, and it is possible to implement an application such as a route search that is realized for an individual on a smartphone.
  • the control device 20 determines the user who needs assistance, and determines a lane (for example, a lane required at a position different from the already built queue). The priority lane) is displayed on the floor 11.
  • the bus stop 10 can detect the number of users at the stop and whether or not assistance is required.
  • the control device 20 can notify the bus 40 approaching the stop in advance of the number of users and the necessity of assist.
  • the bus stop 10 can communicate with the bus 40 side and acquire the congestion status inside the bus 40.
  • the congestion status of the bus 40 approaching the stop can be acquired, and the acquired congestion status information of the bus 40 can be presented to the user using the display function of the floor surface 11 and the wall surface 12.
  • the control device 20 can display on the floor surface 11 and the wall surface 12, for example, information that the next bus will arrive in about a few minutes and the expected seats will be about a few seats.
  • 3A and 3B are explanatory views of an example of display of the bus stop 10 according to the present embodiment.
  • the floor surface 11 and the wall surface 12 function as a full-screen display.
  • the wall surface 12 displays a timetable 101 and a bus operation status (for example, the current progress position of the bus and the presence/absence of a delay of the bus) 102.
  • a bus operation status for example, the current progress position of the bus and the presence/absence of a delay of the bus
  • the information on the bus operation status 102 is acquired by the control device 20 communicating with the bus 40 in operation, and the current position of the bus is acquired, and the acquired current position of the bus is displayed overlaid on the figure.
  • a wall surface interface 103 is displayed on the wall surface 12.
  • the wall surface interface 103 is a user interface for performing route search, bus information acquisition, and the like.
  • the wall surface interface 103 can be used.
  • the user 16 can display various information on the wall surface 12 by touching the wall surface interface 103.
  • alignment points positions for guiding the positions where the heads are lined up
  • lane information for guiding a line aligned based on the alignment points are displayed.
  • a destination name such as "Yokohama line” or "Tokyo line” is displayed at the alignment point.
  • the alignment point 104b for "Tokyo line” and “Tokyo line” are arranged on the floor surface 11.
  • a lane 105b for guiding the user is displayed.
  • a priority lane 105c for guiding a user using a wheelchair or a stroller is displayed.
  • the control device 20 detects, for example, from the image captured by the camera 15 that one of the users waiting at the bus stop 10 uses a wheelchair, the priority lane 105c is displayed on the display unit 26. ..
  • the control device 20 detects the number of users lined up along the lane from the captured image of the camera 15, and the detected number of users specifies the bus 40 corresponding to the destination name. The specified number of users is transmitted from the control device 20 to the terminal device 51 of the bus 40.
  • the bottom of the row is displayed on the floor surface 11 (display image 107). That is, when a person who is lined up in one group is detected, the person at the end of the plurality of users who are lined up in the group is detected. In this example, a plurality of users 16 are lined up along the lane 105b from the alignment point 104b for “Tokyo”. Then, at the end of this line, the destination name and the character string “TOKYO line last line” indicating that it is the last line of the line are displayed as the display image 107.
  • the vicinity of the last user or the display image 107 may be configured to display the destination information of the bus of the matrix, the degree of congestion of the bus, the probability of sitting, and the like.
  • FIGS. 3A, 3B, and 3C at the bus stop 10, when displaying information about a bus route whose operation route is determined, a destination name or the like is displayed.
  • a destination name or the like is displayed.
  • unique information indicating a specific vehicle reserved using an application for example, information written on the license plate, image of license plate, or It may be configured to display an icon or the like.
  • FIG. 4 to 8 are flowcharts showing the processing of the control device 20 performed at the bus stop 10 according to this embodiment.
  • FIG. 4 shows the overall processing of the control device 20.
  • the control device 20 recognizes an object (step S1), recognizes a moving object (step S2), and recognizes a group of objects (step S3). ) And a counting process (step S4).
  • the object recognition process (step S1) is a process when any object is detected at the bus stop 10.
  • FIG. 5 is a flowchart showing the processing in the object recognition processing (step S1).
  • Step S101 The control device 20 analyzes an image captured by the camera 15 to detect an object. When the control device 20 detects the object, the process proceeds to step S102.
  • Step S102 The control device 20 determines the type of object from the analysis image of the camera 15 and advances the process to step S103.
  • Step S103 The control device 20 determines whether or not the detected object is a person. If the detected object is not a person (step S103: No), the control device 20 advances the processing to step S104, and if the detected object is a person (step S103: Yes), advances the processing to step S105.
  • Step S104 If the detected object is not a person, the object is an object, so the control device 20 recognizes the obstacle and returns the process to step S101.
  • Step S105 The control device 20 determines whether or not the detected human object is in a wheelchair. If the object is in the wheelchair (step S105: Yes), the process proceeds to step S106. If the object is not in the wheelchair (step S105: No), the process proceeds to step S107.
  • Step S106 The control device 20 displays the priority lane (priority lane 105c) on the display unit, guides the user in the wheelchair to the priority lane, and returns the process to step S101.
  • Step S107 The control device 20 determines whether or not the detected person's object has luggage. If the object has luggage (step S107: Yes), the process proceeds to step S108. If the object does not have luggage (step S107: No), the process proceeds to step S109.
  • Step S108 The control device 20 recognizes the parcel and returns the process to step S101.
  • the control device 20 recognizes that there is a user who has luggage
  • the control device 20 allows the user having a luggage of a certain size or more to board the terminal device 51 of the bus 40. It can be displayed on the display unit 53 of the bus 40.
  • it is possible to guide the passengers in the bus 40 to secure the space in the bus before the bus arrives at the bus stop, for example, by urging the user to move to the inner side than the entrance of the bus. ..
  • Step S109 The control device 20 displays the guidance information on the floor surface of the foot and advances the processing to step S110.
  • Step S110 The control device 20 determines whether or not all objects have been processed. If all objects have not been processed (step S110: No), the control device 20 returns to step S101 and performs recognition processing for the next object. When the processing of all the objects is completed (step S110: Yes), the control device 20 ends the object recognition processing and returns to the main processing.
  • the process of recognizing a moving object is a process when a person moves at the bus stop 10.
  • FIG. 6A is a flowchart showing a process of recognizing a moving object (step S2).
  • FIG. 6B is a diagram showing a concept of guiding a user at a bus stop.
  • Step S201 The control device 20 displays the alignment points for each destination of the bus on the floor surface 11 (reference numerals 251 and 252), and advances the processing to step S202. At least a part of the alignment points may be displayed on the wall surface 12.
  • Step S202 The control device 20 analyzes the image captured by the camera 15 to recognize a human object.
  • the control device 20 advances the processing to step S203.
  • Step S203 The control device 20 calculates a vector from the position of the recognized human object (for example, the user) to the alignment point, the destination outside the space, the operable wall surface, and the end of the matrix. For example, even if the alignment point is the alignment point indicated by reference numeral 251, the destination outside the space is the station indicated by reference numeral 255, the operable wall surface is the wall surface indicated by reference numeral 256, and the end of the matrix is the end end indicated by reference numeral 257. Good.
  • Step S204 Based on the calculation result, the control device 20 displays a graphic to guide in each direction on the floor surface 11.
  • the control device 20 displays an arrow-shaped figure 261 on the floor surface 11 based on the vector from the recognized object to the alignment point.
  • the control device 20 displays an arrow-shaped figure 262 on the floor surface 11 based on the vector from the recognized object to the destination outside the space.
  • the control device 20 displays the arrow-shaped figure 263 on the floor surface 11 based on the vector from the object to the operable wall surface.
  • the control device 20 displays an arrow-shaped figure 264 on the floor surface 11 based on the vector from the object to the end of the matrix.
  • the control device 20 can display personalized information to the person (user) who is the recognized object.
  • a guide display that is personalized for each user and that combines arrows, characters, icons, and the like, and an integrated or combined image may be displayed.
  • Step S205 The control device 20 determines whether or not a human object is approaching the wall surface 12 by analyzing the image captured by the camera 15. If the human object is approaching the wall surface 12 (step S205: Yes), the control device 20 advances the process to step S206. If the human object is not approaching the wall surface 12 (step S205: No), the control device 20 advances the process to step S207.
  • Step S206 The control device 20 activates the wall surface interface (wall surface interface 103) capable of performing processing by touching the wall surface 12 on the screen of the wall surface 12, and returns the processing to step S201.
  • the control device 20 detects a user's touch operation or the like on the wall surface 12, and various information corresponding to the user's touch operation is displayed in any area on the wall surface interface 103 or the wall surface 12. Can be displayed.
  • Step S207 The control device 20 determines whether or not the human object is aligned with the alignment point by analyzing the image captured by the camera 15. When the control device 20 determines that the human objects are lined up at the alignment point (step S207: Yes), the process proceeds to step S208. When the control device 20 determines that the human object is not aligned with the alignment point (step S207: No), the process proceeds to step S209.
  • Step S208 The control device 20 shifts to the recognition processing of the object group.
  • the object group recognition processing is, for example, the object group recognition processing in step S3.
  • Step S209 The control device 20 determines whether or not there is another object. When the control device 20 determines that there is another object (step S209: Yes), the control device 20 returns to step S201 and performs recognition processing for the next object. When it is determined that there is no other object (step S209: No), the control device 20 ends the moving object recognition processing and returns to the main processing.
  • step S3 is a process when a plurality of people are lined up at the bus stop 10.
  • FIG. 7 is a flowchart showing the recognition processing (step S3) of the group of objects.
  • Step S301 The control device 20 recognizes a group of human objects by analyzing the image captured by the camera 15. When the control device 20 recognizes the group of human objects, the process proceeds to step S302.
  • Step S302 The control device 20 determines whether or not there is a person who is already lined up in one destination row from the analysis image based on the imaging result of the camera 15. When it is determined that there is no person who is already lined up in the destination column of the determination target (step S202: No), the control device 20 advances the process to step S303. When the control device 20 determines that there is a person who is already lined up in the destination column of the determination target (step S202: Yes), the process proceeds to step S304.
  • Step S303 The control device 20 displays a guide sign to the alignment points (alignment points 104a and 104b) for each destination on the display surface, and returns the process to step S301.
  • Step S304 The control device 20 determines the tail end of the destination column from the analysis image based on the imaging result of the camera 15, and advances the process to step S305.
  • Step S305 The control device 20 displays on the floor 11 where the tail of the matrix is located (the display image 107 showing the tail) to indicate that it is the tail of the matrix, and advances the processing to step S306. ..
  • Step S306 The control device 20 determines whether or not the processing has been completed for all the groups of objects. If the processing for all the object groups has not been completed (step S306: No), the control device 20 returns to step S301 and performs the recognition processing for the next object group. If the processing has been completed for all the object groups (step S306: Yes), the control device 20 ends the object group recognition processing and returns to the main processing.
  • the counting process is a process of counting the number of people waiting at the bus stop 10.
  • FIG. 8 is a flowchart showing the processing in the count processing (step S4).
  • the control device 20 analyzes the image captured by the camera 15, counts the people in the line, and advances the process to step S402.
  • Step S402 The control device 20 communicates with the approaching bus side, notifies the approaching bus of the number of people waiting at the bus stop 10, the presence of wheelchairs, and the presence or absence of luggage, and performs processing. To Step S403.
  • Step S403 The control device 20 determines whether or not the processing has been completed for all the matrices. If the process has not been completed for all the matrices (step S403: No), the control device 20 returns to step S401 and performs the counting process for the next matrix. If the process has been completed for all the matrices (step S403: Yes), the controller 20 ends the count process and returns to the main process.
  • information that is conventionally physically presented by paint or tiles on the floor surface is dynamically presented on the floor surface 11 whose entire surface is the display surface as an image. it can. Therefore, it is not necessary to install a physical display body. It is also possible to grasp the number of users 16 and the situation at the bus stop 10 by a sensing technique such as image recognition.
  • a sensing technique such as image recognition.
  • the operating status of the bus and the like can be dynamically presented as an image. When the user 16 touches the wall surface 12, necessary information can be displayed on the display surface.
  • transportation such as a route bus is dotted with bus stops in the city, and the user can flexibly change the transportation depending on the location. Decide whether to use the institution.
  • route buses can also be affected by road congestion and boarding and alighting times, often causing fine adjustments in operation. If the user can obtain the approach information, transit information, and congestion information of the bus in advance, it is easy for the user to decide whether or not to board. Even within a bus that is a shared vehicle, it is possible to predict boarding at the next bus stop, so you can move ahead of the entrance and prepare for wheelchair space. As a result, the boarding/alighting time at the bus stop can be shortened.
  • the system at the bus stop recognizes the queues and destinations of the users and notifies the user group of walls and floors. Present information using the display surface of. As a result, the users can be lined up at the bus stop, and getting on and off is smooth, so that the user can be provided with a more convenient service.
  • the method of displaying the information may be an explicit presentation method using characters or the like, or an ambient presentation method that also serves as a lighting function. Due to installation costs and road space restrictions, not all bus stops on the route can realize a bus stop with a large-scale display. In that case, prepare a pole-shaped bus stop that has only a simple display function. It can be incorporated into the vehicle information system by determining the queue of the user from the tip of the pole in image recognition or the like.
  • the system (bus stop and bus) should be equipped with a function such as beacons that can detect short-distance users so that the users at the bus stop can know that they are waiting nearby. May be.
  • a function such as beacons that can detect short-distance users so that the users at the bus stop can know that they are waiting nearby. May be.
  • the user can be included in the waiting user to be determined by the vehicle information system.
  • the bus is used as the vehicle and the bus stop is used as the waiting space.
  • the present invention is also applicable to vehicles other than the bus and the waiting space.
  • the vehicle may be a train or a station as a waiting space.
  • the vehicle may be an elevator or a hall in front of the elevator as a waiting space.
  • the case where the vehicle is a bus has been described.
  • the operation route and the operation time of such a bus are predetermined, and the case where the bus is a public institution that operates along the operation route and the operation time has been described as a main example.
  • the invention can be applied to transportation services by vehicles such as cars that use ride sharing and automatic driving technology.
  • the situation of the user is detected by a camera that captures the situation of the user at the waiting place, as in the case of the bus stop 10 described above, at the waiting place for getting on the vehicle.
  • the control device 20 may be configured to display various information (operation status, current position of the vehicle, etc.) on the floor surface and the wall surface by using a projection or an LED module.
  • the user information detected based on the imaged image obtained from the camera that shot the waiting place is transmitted to the terminal device mounted in the vehicle, and various information is displayed on the display device connected to the terminal device. You may comprise.
  • the user information detected by the camera capturing the waiting area is transmitted to the terminal device (mobile phone, smartphone, etc.) carried by the user in the vehicle, and various information is displayed on the display screen of the terminal device. May be displayed.
  • FIG. 9 is a schematic block diagram showing the basic configuration of the vehicle information providing device according to the present invention.
  • the vehicle information providing device according to the present invention includes an operation status detection unit 201, a stay status detection unit 202, and an output control unit 203.
  • the operation status detection unit 201 detects the operation status of the vehicle 210.
  • the staying status detection unit 202 detects the staying status of a staying place 211, which is a place where the vehicle 210 can be stayed in order to use the vehicle 210.
  • the output control unit 203 Based on the detection result of the operation status detection unit 201 and the detection result of the stay status detection unit 202, the output control unit 203 provides information according to the detection result of the operation status detection unit 201 to the user who uses the stay location 211.
  • the first output that is output to the display unit 216 that is displayed on at least one of the wall 214, the floor surface 213, and the ceiling 215 that is visible from the 212, and the information that is in accordance with the detection result of the staying state detection unit 202 are included in the vehicle. At least one of the second output output to the terminal device 217 in 210 is output.
  • All or part of the vehicle information providing device 1 in the above-described embodiment may be realized by a computer.
  • the processing may be realized by recording a program for realizing this function in a computer-readable recording medium, causing the computer system to read and execute the program recorded in the recording medium.
  • the “computer system” mentioned here includes an OS and hardware such as peripheral devices.
  • the "computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system.
  • a "computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting the program through a network such as the Internet or a communication line such as a telephone line. Also, it may include a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case. Further, the program may be a program for realizing some of the functions described above, or may be a program that can be realized by combining the functions described above with a program already recorded in a computer system, It may be a program realized by using a programmable logic device such as FPGA.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

運行状況検出部(201)は、乗り物(210)の運行状況を検出する。滞留状況検出部(202)は、乗り物を利用する利用者が滞留可能な場所である滞留場所(211)の滞留状況を検出する。出力制御装置(203)は、運行状況検出部の検出結果と滞留状況検出部の検出結果とに基づいて、運行状況検出部の検出結果に応じた情報を、滞留場所を利用する利用者(212)から視認可能な壁(214)、床面(213)等に表示する表示部(216)へ出力する第1の出力と、滞留状況検出部の検出結果に応じた情報を乗り物内にある端末装置(217)へ出力する第2の出力と、のうち少なくともいずれか一方の出力を行う。

Description

乗り物情報提供装置及び乗り物情報提供方法
 本発明は、乗り物情報提供装置及び乗り物情報提供方法に関する。本願は、2019年1月8日に、日本に出願された特願2019-001245号に基づき優先権を主張し、その内容をここに援用する。
 公共交通機関の停留所、例えばバス停留所において、バスの接近情報などを表示するシステムがある。乗客が携帯端末のアプリケーションプログラムを使い、乗換、乗継情報や経路、運賃の検索ができるサービスがある。携帯端末の位置情報を用いたタクシーの配車アプリケーションや、公共交通以外の自家用車を共有するライドシェアのための携帯端末アプリケーションなどがある。利用者を適切な場所に誘導する仕組みは、現状、主に、ペイントやリボンなどの物理的な手法が採用されている。
特許文献1には、画像を分析して、イベント会場での待ち行列を管理する技術が提案されている。
日本国特開2013-109395号公報
 公共交通機関と連動した待合スペースでの情報提示技術は、現状、ディスプレイやサイネージなどの限定された情報表示とインタラクション方法によって提示されている。利用者の誘導などの仕組みは、現状、ペイントやリボンなどの物理的な手法が主である。そのため、滞留する利用者の状況やニーズ等が変化した場合には、物理的な手法での情報提示では対応できない。利用者に対する公共交通機関等の情報提示は、個別の利用者に特化した情報を携帯端末等に提示する手法が主であり、停留所の混雑度合いや、乗車予定の車両内の混雑度合い、乗継経路上での予想される混雑度合いなどを考慮した情報を提示できた方が望ましい。
 上述の課題を鑑み、本発明は、利用者の状況やニーズに応じてダイナミックに変化するような利便性の高いサービスを提供できるようにした乗り物情報提供装置及び乗り物情報提供方法を提供することを目的とする。
 本発明の一態様に係る乗り物情報提供装置は、乗り物の運行状況を検出する運行状況検出部と、前記乗り物を利用する利用者が滞留可能な場所である滞留場所の滞留状況を検出する滞留状況検出部と、前記運行状況検出部の検出結果と前記滞留状況検出部の検出結果とに基づいて、前記運行状況検出部の検出結果に応じた情報を、前記滞留場所を利用する前記利用者から視認可能な壁、床面、および天井のうちの少なくとも1つに表示する表示部へ出力する第1の出力と、前記滞留状況検出部の検出結果に応じた情報を前記乗り物内にある端末装置へ出力する第2の出力と、のうち少なくともいずれか一方の出力を行う出力制御部と、を有する。
 本発明の一態様に係る乗り物情報提供方法は、乗り物の運行状況を検出する工程と、前記乗り物を利用する利用者が滞留可能な場所である滞留場所の滞留状況を検出する工程と、前記乗り物の運行状況の検出結果と前記滞留場所の滞留状況の検出結果とに基づいて、前記運行状況の検出結果に応じた情報を、前記滞留場所を利用する前記利用者から視認可能な壁、床面、および天井のうちの少なくとも1つに表示する第1の出力と、前記滞留場所の滞留状況の検出結果に応じた情報を前記乗り物内にある端末装置へ出力する第2の出力と、のうち少なくともいずれか一方の出力を行う工程と、を含む。
 本発明によれば、待合スペースで待っている利用者の人数や状況を把握することが可能であり、全面が表示面となっている壁面に、乗り物の運行状況等を映像で動的に提示することができる。待合スペースで待っている利用者の人数や状況を、乗り物側に知らせることができる。行列の誘導等を、滞留する利用者の状況やニーズに応じてダイナミックに変更して提示できる。これにより、利用者に、より利便性の高いサービスを提供することができる。
本発明の一実施形態に係る乗り物情報提供装置の概要の説明図である。 一実施形態に係るバス停留所に設けられた制御装置の概要を示すブロック図である。 一実施形態に係るバス停留所の表示の一例の説明図である。 一実施形態に係るバス停留所の表示の一例の説明図である。 一実施形態に係るバス停留所の表示の一例の説明図である。 一実施形態に係るバス停留所での処理を示すフローチャートである。 一実施形態に係るバス停留所での処理を示すフローチャートである。 一実施形態に係るバス停留所での処理を示すフローチャートである。 バス停留所において利用者を誘導する概念を表す図である。 一実施形態に係るバス停留所での処理を示すフローチャートである。 一実施形態に係るバス停留所での処理を示すフローチャートである。 本実施形態に係る乗り物情報提供装置の基本構成を示す概略ブロック図である。
 以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本実施形態に係る乗り物情報提供装置1の概要の説明図である。この例では、乗り物としてバス、待合スペースとしてバス停留所の例が示されている。
 図1に示すように、バス停留所10は、バス40の発着場所として利用され、かつ、バス40を待っている利用者16の待合スペースとして利用される。バス停留所10は、床面11と、壁面12と、天井13とを備える。床面11及び壁面12は、それぞれの全体が表示面として機能する。床面11及び壁面12の全体を表示面とすることは、プロジェクションやLED(Light Emitting Diode)モジュールなどにより実現可能である。
 床面11及び壁面12の表示面は、利用者16が視認可能であり、利用者16にバスの運行状況等、利用者に必要な情報を提供するために用いられる。床面11及び壁面12の表示面に映し出す情報は、バスの運行状況や利用者のニーズに応じて、ダイナミックに変化させることができる。
 天井13には、カメラ15が取り付けられている。カメラ15は、利用者の動きのセンシングや、平面との接触をセンシングすることにより、バス停留所10における滞留状況を収集するために用いられる。滞留状況とは、利用者がバス停留所10に滞留している状況である。バス停留所10は、バス停留所10の滞留状況を取得するために、3Dスキャナを設けてもよい。バス停留所10は、天井13全体も、表示面の機能を備えてもよい。
 本実施形態でサービスが提供できるバス停留所10のスペースは、床面11、壁面12が表示面として利用可能であり、表示面が空間的な規模で配置されている。ここで言う空間的とは、複数人がディスプレイの範囲内に滞在できるという意味である。例えば、空間的とは、床面11においては2平方メートル、壁面12においては2m幅を超える規模のものが相当する。床面11および壁面12の各表示面は、それぞれ別個に(離間して)構成されてもよいが、床面11の表示面と壁面12の表示面とがお互いに接していてもよい。
 床面11及び壁面12の表示面には、プロジェクションやLEDモジュール以外の表示技術を用いてもよい。本実施形態においては、表示面に影が生じない表示技術が好ましい。床面11においては加重や摩耗の影響を受けにくい表示面が好ましい。
 バス停留所10には、制御装置20が設けられる。床面11及び壁面12の表示面には、制御装置20からの映像信号により、各種情報が表示される。制御装置20は、カメラ15によって撮像された撮像結果に基づいて、ユーザの位置を特定し、特定された位置に対応した床面11又は特定された位置に対応した床面11および壁面12の位置に情報を表示する。たとえば、ユーザの位置を特定し、ユーザの足元部分の床面11に情報を表示したり、ユーザが壁面12に近接した際に、ユーザの手元部分の壁面12に情報を表示したりすることができる。制御装置20は、カメラ15によって撮像された撮像結果に基づいて、壁面12の近傍に存在するユーザの動作を検出する。制御装置20は、その検出結果を用いるか、または、壁面12の近傍に存在するユーザの動作を検出した検出結果を後述するモーションセンサから取得し、取得した検出結果を用いることで、ユーザの動作に応じた内容を表示することも可能である。制御装置20は、ネットワーク30を介して、バス40の端末装置51と通信できる。
 図2は、本実施形態に係るバス停留所10に設けられた制御装置20の概要を示すブロック図である。図2に示すように、制御装置20は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23、ストレージデバイス24、及び通信部25を含んで構成される。CPU21は、コマンドを解釈して、実行を行う。ROM22には、ブートプログラムが記憶されている。RAM23は、メインメモリとして用いられる。ストレージデバイス24は、HDD(Hard Disk Drive)やSSD(Solid State Drive)からなり、OS(Operating System)やアプリケーションのプログラムやデータが記録される。通信部25は、ネットワーク30を介して、バス40側の端末装置51と通信を行う。
 制御装置20には、表示部26、モーションセンサ27、およびカメラ15が接続される。表示部26は例えばプロジェクタあるいはLEDモジュールである。表示部26は、カメラ15によって撮像した撮像結果に基づいて制御装置20によって特定されるユーザの位置に対応した床面11又はユーザの位置に対応した床面11および壁面12の位置を含む床面11や壁面12の全面または一部の領域に画像を投写する。カメラ15は、床面11や壁面12を撮像し、撮像結果を制御装置20に出力する。制御装置20は、撮像結果に基づいて画像処理を行うことで、撮像領域に存在するユーザの動きを検出できる。制御装置20は、ユーザの動きを検出した結果に応じた画像を表示部26によって床面11や壁面12に表示する。撮像結果に基づいてユーザの動きを検出する処理は、カメラ15が行い、カメラ15の検出結果を制御装置20に出力してもよい。
 ここでは、カメラ15の撮像結果に基づいて、ユーザの動きを検出できる。モーションセンサ27を用いても、ユーザの動きが検出できる。モーションセンサ27は、赤外線またはレーザー光等の所定の波長の光を出射し、その反射光を受光することにより、周囲に存在する物体を検出する。モーションセンサ27は、物体を検出した検出結果に基づいて、物体の動きを検出する。モーションセンサ27は、物体を検出した検出結果や、物体の動きを検出した結果をCPU21に出力する。モーションセンサ27は、例えば、バス停留所10の天井13または天井近傍の壁面に取り付けられる。カメラ15やモーションセンサを用いてユーザの動きを検出する場合には、ユーザが居る位置、例えば床面と接触する位置、ユーザが壁面と接触していない時、ユーザが壁面に対してどの程度接近しているか、ユーザが壁面と接触している時、ユーザが壁面をタッチしている場所、のいずれについても取得できる。カメラ15やモーションセンサを用いる場合には、ユーザの移動や、ユーザの壁や表示領域への近接度合による状況的判断、タッチによる明示的な操作等に基づくインタラクションを実現できる。カメラ15の撮像結果やモーションセンサ27の検出結果の他に、3Dスキャナによる検出結果に基づいてユーザの動きを検出してもよい。壁面12にタッチパネルを設けた場合には、タッチ操作が行われたか否かを直接検出できるので、検出精度が向上する。
 図1において、バス40は、バス停留所10を停留所として運行する。バス40は、端末装置51、カメラ52、および表示部53が設けられている。端末装置51は、カメラ52の撮像画像から、バス40の乗客55の状況を取得できる。端末装置51は、カメラ52の撮像画像を画像認識することで、乗客55の数、空いている席の数等の情報を取得できる。端末装置51は、ネットワーク30を介して、バス停留所10の制御装置20と通信できる。これにより、端末装置51は、バス停留所10で待っている利用者16の人数等の情報を制御装置20から取得できる。端末装置51には、表示部53が接続される。表示部53は、例えば、液晶表示装置であり、次の停車場の名称や料金(運賃)を表示し、かつ、次のバス停留所の混雑度合いや、遅延状態を表示する。表示部53には、バス停留所10(例えば、次に停車するバス停留所)で乗車する乗客の数や、車椅子等が必要な乗客の有無の情報等を表示する。
 ここで例示したバスは、不特定多数の様々な属性の人が予約等を行うことなく乗車可能な乗り物である。このような乗り物の場合には、カメラ52の撮像画像から、乗客55の利用状況(例えば、人数、空席等)を把握できる。ライドシェア、配車アプリ、自動運転サービスなど、空席検索や予約が可能な専用アプリケーションの場合は、それらのアプリケーションから登録された予約情報を参照することで、カメラ52の撮像画像を用いることなく、直接的に運行経路上における乗客の利用状況を把握可能である。アプリケーションから登録された予約情報と、カメラ52によって検出された情報との両方を参照するように構成した場合には、各情報の推定の精度を向上させることも可能である。
 カメラ15は、バス40などの乗り物の混雑度合いの運行状況を検出する運行状況検出部として機能する。バス停留所10は、バス40を利用するために利用者が滞留可能な場所である。制御装置20におけるカメラ15は、バス停留所10の利用者の滞留状況を検出する滞留状況検出部として機能する。すなわち、制御装置20でカメラ15の撮像画像から人を認識し、その認識結果から人の数をカウントすることで、バス40を利用するために待っている利用者の数を検出できる。
 制御装置20は、バス40の混雑度合いの運行状況の検出結果と、バス停留所10の混雑度合いの運行状況の検出結果とに基づいて、混雑状況、遅延状況等の情報を、床面11、壁面12等、利用者16から視認可能な場所に出力(表示)する。制御装置20は、混雑状況、遅延状況等の情報を、バス40内の端末装置51へ出力し、表示部53に表示する。制御装置20は、バス40の空き状況を判定し、この判定結果を表示部26により、壁面12に表示させる。すなわち、制御装置20は、バス40の運行状況の検出結果とバス停留所10の滞留状況の検出結果とに基づいて、運行状況の検出結果を壁面12や床面11に表示する出力(第1の出力)し、バス停留所10の滞留状況の検出結果に応じた情報をバス40の端末装置51へ出力(第2の出力)する。
 制御装置20は、カメラ15の画像を解析して、バス停留所10におけるアシストが必要な利用者16の有無を判定する。アシストが必要な利用者16がいる場合には、制御装置20は、バス停留所10の床面11に、既存の行列とは異なる行列を形成するよう案内を出力する。アシストが必要な利用者としては、例えば、車椅子を利用している利用者、ベビーカーを押す利用者、大きな荷物を持つ利用者などである。既存の行列とは、アシストが必要な利用者16が居ると制御装置20が判定した時点で、バス停留所10に既に構築されている行列である。なお、既に構築されている行列とは、後述の整列ポイントによって行列の先頭位置が既に指定されているが、その行列に並んでいる利用者がいない場合を含む。アシストが必要な利用者16が居ると制御装置20が判定した場合、例えば、バスに乗車する利用者により既に構築されていた行列とは異なる位置に、アシストが必要な利用者用の行列(優先レーン)の形成を促す案内情報出力する。
 図1に示すように、本実施形態では、床面11及び壁面12はその全面を表示面として利用可能である。天井13にカメラ15が取り付けられており、制御装置20は、カメラ15から得られる撮像画像を画像認識することで、バス停留所10で待つ利用者16の情報を取得できる。制御装置20は、ネットワーク30を介して、バス40側と通信できる。これにより、バス停留所10では、以下のような処理が行える。
 バス停留所10は、天井13に取り付けられたカメラ15の撮像画像から、画像判定、3次元スキャンにより、バス停留所10に滞在する利用者16の数や位置を取得できる。制御装置20は、カメラ15の撮像結果に基づいて検出された複数の利用者16のバス停留所10内での滞在位置や動きから、乗車予定の利用者の列を推定できる。
 上述したように、この例ではバスのような不特定多数の様々な属性の人が予約等を行うことなく乗り込むことが可能な乗り物の場合には、カメラ15の撮像画像から、利用者16の滞在状況(例えば、人数、整列状況等)を把握できる。ライドシェア、配車アプリ、自動運転サービスなど、空席検索や予約をすることが可能な専用アプリケーションを用いた乗り場の場合は、それらのアプリケーションから登録された予約情報を参照することで、カメラ15の撮像画像を用いることなく直接的に乗り場における利用者の滞在状況を把握可能である。アプリケーションから登録された予約情報と、カメラ15によって撮像された撮像結果に基づく利用者の滞在状況との両方を参照するように構成した場合には、推定の精度を向上させることも可能である。
 バス停留所10は、床面11や壁面12に情報を表示することにより、利用者16に整列を促すために必要な情報を提示できる。利用者16に整列を促すために必要な情報は、バスの運行状況に応じて、ダイナミックに変更できる。バス停留所10は、利用者16の位置をトラッキングし、各利用者16の足元にそれぞれ個別の情報であって必要な誘導情報を表示できる。
 バス停留所10では、カメラ15によって撮像した撮像結果に基づいて制御装置20によって特定されるユーザの位置に対応した床面11又はユーザの位置に対応した床面11および壁面12の位置に情報を表示することにより、バスに並ぶ利用者の列の先頭を誘導できる。誘導は、列とみなされた複数の利用者間に、それが列と認識されていることを、床面11の表示面に線を表示する等によって提示できる。行列の最後尾の利用者の足元近傍の床面11の表示面には、例えば、その行列の行き先、および行列の最後尾であることを示す情報を表示する。この結果、新たに到来した利用者にその行列に並ぶかどうかの判断を促すことができる。
 制御装置20は、行列に属さない利用者に対して、その利用者の足元に情報を提示し、行列に並ぶか、壁面等に表示された時刻表等の情報を確認するかの判断を促すことができる。
 バス停留所10は、壁面12の表示機能により、時刻表や経路などを表示できる。表示された情報により、利用者は時刻や経路を確認できる。表示面に表示される時刻表や経路などは、バスの運行状況に応じて、ダイナミックに変更できる。壁面12のタッチ操作による制御装置20への入力を可能にし、経路検索など、スマートフォンで個人向けに実現されているアプリケーションも実装可能である。
 バス停留所10では、カメラ15の撮像画像を画像認識することで、利用者16の中に、アシストが必要な利用者がいるか否かを判定できる。バス停留所10の利用者にアシストが必要な利用者がいる場合、制御装置20は、アシストが必要な利用者を判別し、すでに構築されている行列とは別の位置に必要なレーン(例えば、優先レーン)を床面11に表示する。
 バス停留所10は、カメラ15の撮像画像を画像認識することで、その停留所における、利用者の人数や、アシストの必要の有無などを検知できる。制御装置20は、利用者の人数や、アシストの必要の有無などを、その停留所に接近するバス40に事前に通知できる。
 バス停留所10は、バス40側と通信を行い、バス40の車内の混雑状況を取得できる。バス停留所10では、停留所に接近するバス40の混雑状況を取得し、床面11や壁面12の表示機能を使って、取得したバス40の混雑状況の情報を利用者に提示できる。制御装置20は、バス停留所10では、例えば、次のバスは約何分後に到着し、空席予想は約何席である、というような情報を、床面11や壁面12に表示できる。
 図3A及び図3Bは、本実施形態に係るバス停留所10の表示の一例の説明図である。前述したように、本実施形態では、床面11及び壁面12が全面ディスプレイとして機能する。図3Aに示すように、壁面12には、時刻表101、バスの運行状況(例えば、バスの現在の進行位置、バスの遅延の有無等)102が表示される。時刻表101の情報は、バスの出発時刻や目的地が表示される。バスの運行状況102の情報は、制御装置20が運行中のバス40と通信することで、バスの現在位置を取得し、取得したバスの現在位置が図形上に重ねて表示される。壁面12には、壁面インターフェース103が表示される。壁面インターフェース103は、経路検索やバスの情報取得等を行うためのユーザーインターフェースである。利用者16が壁面12に近づくと、壁面インターフェース103が利用できるように構成されている。利用者16が、壁面インターフェース103に対してタッチ操作することで、各種情報を壁面12に表示できる。
 図3Bに示すように、床面11には、整列ポイント(先頭が並ぶ場所を案内する位置)と、整列ポイントを基準にして並ぶ列を誘導するためのレーン情報が表示される。この例では、整列ポイントには行き先名、例えば「横浜行」や「東京行」等、が表示される。この例の場合、床面11には、「横浜行」の整列ポイント104a及び「横浜行」の利用者を誘導するためのレーン105aと、「東京行」の整列ポイント104b及び「東京行」の利用者を誘導するためのレーン105bとが表示される。さらに、車椅子やベビーカーを使用している利用者を誘導するための優先レーン105cが表示される。制御装置20が、例えば、カメラ15の撮像画像から、バス停留所10で待っている利用者の中に車椅子を使っている人がいることを検出すると、優先レーン105cが表示部26に表示される。制御装置20は、レーンに沿って並ぶ利用者の数をカメラ15の撮像画像から検出し、検出された利用者数が、その行き先名に対応するバス40を特定する。特定された利用者数が制御装置20からバス40の端末装置51に送信される。
 図3Cに示すように、床面11には、列の最後尾が表示される(表示画像107)。すなわち、一群で並んでいる人が検出されると、そこに並んでいる複数の利用者の最後尾の人が検出される。この例では、「東京行」の整列ポイント104bから、レーン105bに沿って、複数の利用者16が並んでいる。そして、この行列の最後尾に、行き先名および行列の最後尾であることを示す文字列「東京行最後尾」が表示画像107として表示される。最後尾のユーザの近傍、または表示画像107には、その行列のバスの行き先情報と、バスの混雑度合い、座れる確率等の上方を表示するように構成してもよい。
 図3A、図3B、図3Cにおいて、バス停留所10では、運行ルートが決まったバス路線について情報を表示する場合には、行き先名等が表示される。乗り合い自動運転のライドシェア等のサービスにおいて情報を表示する場合には、アプリケーションを用いて予約された、特定の車両を示す固有情報(例えば、ナンバープレートに記載された情報、ナンバープレートの画像、あるいはアイコン等)を表示するように構成してもよい。
 図4から図8は、本実施形態に係るバス停留所10において行われる制御装置20の処理を示すフローチャートである。図4は、制御装置20の全体的な処理を示す。
 図4に示すように、バス停留所10において、制御装置20は、オブジェクトの認識処理(ステップS1)と、移動しているオブジェクトの認識処理(ステップS2)と、オブジェクトの群の認識処理(ステップS3)と、カウント処理(ステップS4)とを行う。
 先ず、オブジェクトの認識処理(ステップS1)から説明する。オブジェクトの認識処理(ステップS1)は、バス停留所10で何かのオブジェクトが検出されたときの処理である。図5は、オブジェクトの認識処理(ステップS1)での処理を示すフローチャートである。
 (ステップS101)制御装置20は、カメラ15の撮像画像を解析して、オブジェクトを検出する。制御装置20は、オブジェクトを検出したら、処理をステップS102に進める。
 (ステップS102)制御装置20は、カメラ15の解析画像から、オブジェクトの種類を判別して、処理をステップS103に進める。
 (ステップS103)制御装置20は、検出されたオブジェクトが人か否かを判別する。制御装置20は、検出されたオブジェクトが人でなければ(ステップS103:No)、処理をステップS104に進め、検出されたオブジェクトが人なら(ステップS103:Yes)、処理をステップS105に進める。
 (ステップS104)検出されたオブジェクトが人でなければ、オブジェクトは物であるので、制御装置20は、障害物を認識して、処理をステップS101に戻す。
 (ステップS105)制御装置20は、検出された人のオブジェクトが車椅子に乗っているか否かを判別する。オブジェクトが車椅子に乗っていれば(ステップS105:Yes)、処理をステップS106に進め、オブジェクトが車椅子に乗っていなければ(ステップS105:No)、処理をステップS107に進める。
 (ステップS106)制御装置20は、表示部に優先レーン(優先レーン105c)を表示して、車椅子に乗っている利用者を優先レーンに誘導して、処理をステップS101に戻す。
 (ステップS107)制御装置20は、検出された人のオブジェクトが荷物を持っているか否かを判定する。オブジェクトが荷物を持っていれば(ステップS107:Yes)、処理をステップS108に進める。オブジェクトが荷物を持っていなければ(ステップS107:No)、処理をステップS109に進める。
 (ステップS108)制御装置20は、荷物を認識して、処理をステップS101に戻す。制御装置20が荷物を持っている利用者がいることが認識した場合には、制御装置20は、バス40の端末装置51に対して、一定サイズ以上の荷物を持った利用者が乗車する可能性があることを通知し、バス40の表示部53に表示可能である。これにより、バス40内に乗車している利用者に対して、バスの入り口よりも奥側への移動を促す等、バスがバス停留所に到着する前に、バス内のスペースの確保を誘導できる。
 (ステップS109)制御装置20は、足元の床面に誘導情報を表示して、処理をステップS110に進める。
 (ステップS110)制御装置20は、全てのオブジェクトの処理を行ったか否かを判定する。全てのオブジェクトの処理を行っていなければ(ステップS110:No)、制御装置20は、ステップS101に戻り、次のオブジェクトの認識処理を行う。全てのオブジェクトの処理を終了したら(ステップS110:Yes)、制御装置20は、オブジェクトの認識処理を終了して、メイン処理にリターンする。
 次に、移動しているオブジェクトの認識処理(ステップS2)について説明する。移動しているオブジェクトの認識処理(ステップS2)は、バス停留所10で人が動いたときの処理である。図6Aは、移動しているオブジェクトの認識処理(ステップS2)での処理を示すフローチャートである。図6Bは、バス停留所において利用者を誘導する概念を表す図である。
 (ステップS201)制御装置20は、バスの行き先別の整列ポイントを床面11に表示して(符号251、符号252)、処理をステップS202に進める。整列ポイントの少なくとも一部が、壁面12に表示されるように構成してもよい。
 (ステップS202)制御装置20は、カメラ15の撮像画像を解析して、人のオブジェクトを認識する。制御装置20は、オブジェクトが人であることを認識したら、処理をステップS203に進める。
 (ステップS203)制御装置20は、認識した人のオブジェクト(例えば、利用者)の位置から、整列ポイント、スペース外への行き先、操作可能な壁面、行列の最後尾へのベクトルをそれぞれ計算する。例えば、整列ポイントは符号251に示す整列ポイント、スペース外への行き先は符号255に示す駅、操作可能な壁面は符号256に示す壁面、行列の最後尾は符号257に示す最後尾であってもよい。
 (ステップS204)制御装置20は、計算結果に基づいて、各方向へ誘導する図形をそれぞれ床面11に表示する。ここでは、制御装置20は、認識したオブジェクトから整列ポイントへのベクトルに基づいて、符号261の矢印状の図形を床面11に表示する。制御装置20は、認識したオブジェクトからスペース外への行き先へのベクトルに基づいて、符号262の矢印状の図形を床面11に表示する。制御装置20は、オブジェクトから操作可能な壁面へのベクトルに基づいて、符号263の矢印状の図形を床面11に表示する。制御装置20は、オブジェクトから行列の最後尾へのベクトルに基づいて、符号264の矢印状の図形を床面11に表示する。このようにして、制御装置20は、認識したオブジェクトである人(利用者)に対し、個人向けの情報を表示可能である。個人向けの情報としては、各利用者に対してパーソナライズされた、矢印、文字、アイコン等を組み合わせた案内表示と、一体化または組み合わされた画像が表示されてもよい。
 (ステップS205)制御装置20は、カメラ15の撮像画像を解析することで、人のオブジェクトが壁面12に向かって近づいているか否かを判定する。制御装置20は、人のオブジェクトが壁面12に近づいていれば(ステップS205:Yes)、処理をステップS206に進める。制御装置20は、人のオブジェクトが壁面12に近づいていなければ(ステップS205:No)、処理をステップS207に進める。
 (ステップS206)制御装置20は、壁面12の画面に、壁面12に対してタッチ等をして処理が行える壁面インターフェース(壁面インターフェース103)を起動して、処理をステップS201に戻す。壁面インターフェース103が起動されると、制御装置20は、壁面12における利用者のタッチ操作等を検出し、利用者のタッチ操作に応じた各種情報を壁面インターフェース103または壁面12におけるいずれかの領域に表示できる。
 (ステップS207)制御装置20は、カメラ15の撮像画像を解析することにより、人のオブジェクトが整列ポイントに並んだか否かを判定する。制御装置20は、人のオブジェクトが整列ポイントに並んでいると判定した場合には(ステップS207:Yes)、処理をステップS208に進める。制御装置20は、人のオブジェクトが整列ポイントに並んでいないと判定した場合には(ステップS207:No)、処理をステップS209に進める。
 (ステップS208)制御装置20は、オブジェクト群の認識処理へ移行する。オブジェクト群の認識処理としては、例えば、ステップS3のオブジェクト群の認識処理である。
 (ステップS209)制御装置20は、他にオブジェクトがあるか否かを判定する。制御装置20は、他にオブジェクトがあると判定した場合は(ステップS209:Yes)、ステップS201に戻り、次のオブジェクトの認識処理を行う。制御装置20は、他にオブジェクトがないと判定した場合は(ステップS209:No)、移動しているオブジェクトの認識処理を終了して、メイン処理にリターンする。
 次に、オブジェクトの群の認識処理(ステップS3)について説明する。オブジェクトの群の認識処理(ステップS3)は、バス停留所10で複数人が並んでいるときの処理である。図7は、オブジェクトの群の認識処理(ステップS3)を示すフローチャートである。
 (ステップS301)制御装置20は、カメラ15の撮像画像を解析して、人のオブジェクトの群を認識する。制御装置20は、人のオブジェクトの群を認識したら、処理をステップS302に進める。
 (ステップS302)制御装置20は、カメラ15の撮像結果に基づく解析画像から、一つの行き先の列に、既に並んでいる人がいるか否かを判定する。制御装置20は、判定対象の行先の列に既に並んでいる人がいないと判定した場合は(ステップS202:No)、処理をステップS303に進める。制御装置20は、判定対象の行先の列に既に並んでいる人がいると判定した場合は(ステップS202:Yes)、処理をステップS304に進める。
 (ステップS303)制御装置20は、行き先別の整列ポイント(整列ポイント104a、104b)への誘導サインを表示面に表示して、処理をステップS301に戻す。
 (ステップS304)制御装置20は、カメラ15の撮像結果に基づく解析画像から、その行き先の列の最後尾を判定して、処理をステップS305に進める。
 (ステップS305)制御装置20は、行列の最後尾が位置する床面11に、行列の最後尾であることを示す表示(最後尾を示す表示画像107)を行って、処理をステップS306に進める。
 (ステップS306)制御装置20は、全てのオブジェクトの群についての処理が終了したか否かを判定する。全てのオブジェクトの群についての処理が終了していなければ(ステップS306:No)、制御装置20は、ステップS301に戻り、次のオブジェクトの群についての認識処理を行う。全てのオブジェクトの群についての処理が終了していれば(ステップS306:Yes)、制御装置20は、オブジェクトの群の認識処理を終了して、メイン処理にリターンする。
 次に、カウント処理(ステップS4)について説明する。カウント処理(ステップS4)は、バス停留所10で待っている人をカウントする処理である。図8は、カウント処理(ステップS4)での処理を示すフローチャートである。
 (ステップS401)制御装置20は、カメラ15の撮像画像を解析して、行列に並んでいる人をカウントして、処理をステップS402に進める。
 (ステップS402)制御装置20は、接近しているバス側と通信を行い、接近しているバスに、バス停留所10で待っている人の数と、車椅子、荷物の有無を通知して、処理をステップS403に進める。
 (ステップS403)制御装置20は、全ての行列について処理が終了したか否かを判定する。全ての行列について処理が終了していなければ(ステップS403:No)、制御装置20は、ステップS401に戻り、次の行列についてカウント処理を行う。全ての行列についての処理が終了していれば(ステップS403:Yes)、制御装置20は、カウント処理を終了して、メイン処理にリターンする。
 以上説明したように、本実施形態では、従来、床面にペイントやタイルで物理的に提示していたような情報を、全面が表示面となっている床面11に映像で動的に提示できる。そのため、物理的な表示体を設置する必要もない。画像認識などのセンシング技術によって、バス停留所10にいる利用者16の人数や状況を把握することも可能である。全面が表示面となっている壁面12に、バスの運行状況等を映像で動的に提示できる。利用者16が壁面12をタッチすることで、必要な情報を表示面に表示できる。
 事前に旅程を計画し予約するタイプの交通機関と異なり、路線バスのような交通機関は、街中にバス停留所が点在しており、利用者はその時その場所の都合で、臨機応変にその交通機関を利用するかどうかを決定する。同時に、路線バスも、道路渋滞や乗降時間の影響を受けることがあり、運行の微調整がしばしば発生する。利用者は、事前にバスの接近情報や乗継情報や混雑情報を取得できると、乗車するかどうかの意思決定がしやすい。乗り合い車両である路線バス内においても、次のバス停留所での乗車予測ができるため、事前に入り口よりも奥側に移動し、車いすスペースを確保するなどの準備ができる。この結果、バス停留所における乗降時間を短縮できる。本実施形態では、そうした複数の行先へ向かう各利用者が場当たり的に滞留するバス停留所の状況おいて、バス停留所のシステムが利用者の行列や行先を把握し、利用者群に対し壁や床の表示面を使って情報を提示する。この結果、バス停留所において利用者の整列が行えるとともに、乗降がスムーズになり、利用者に、より利便性の高いサービスを提供できる。
 天井13が表示面となっている場合には、乗降の意思決定に役立つ環境情報(例えば、降雨確率等)を提示できる。それら情報の表示方法は、文字などでの明示的な提示の方法でも、照明機能などを兼ねたアンビエントな提示の方法でも構わない。
 設置のコストや道路空間の制約などから、経路上のすべてのバス停留所が大規模なディスプレイを持つバス停留所を実現できるとは限らない。その場合は、簡易的な表示機能のみを有するポール状のバス停留所を用意する。ポールの先端から画像認識等において利用者の待ち行列判定を行うことで、乗り物情報のシステムに組み込むことができる。
 屋根を持たないバス停留所においては、雨宿りや日照り除けのために、利用者は、バス停留所から離れ、近くの屋根のある空間で待機する行動が行われる。その際に、システム(バス停留所及びバス)がそのバス停留所の利用者が近くで待機していることを把握できるように、バス停留所にビーコンなどの近距離の利用者を判定できる機能を持たせてもよい。この場合、利用者のスマートフォン等を介して近距離の利用者からの入力を得ることによって、乗り物情報のシステムで判定する待ち利用者に含めることができる。
 上述の例では、乗り物としてバス、待合スペースとしてバス停留所の例について説明してきたが、本発明は、バス以外の乗り物や待合スペースにも同様に適用できる。例えば、乗り物は列車、待合スペースとして駅であってもよい。さらに、乗り物はエレベータ、待合スペースとしてエレベータ前のホールであってもよい。
 上述した実施形態において、乗り物がバスである場合について説明した。このようなバスは、運行経路や運行時刻が予め決められており、運行経路や運行時刻に沿って運行される公共機関である場合を主な一例として説明した。この他、ライドシェアや自動運転技術を用いた自動車等の車両による交通サービスにも適用できる。この場合、車両に乗り込む待合場所に上述のバス停留所10と同様に、待合場所における利用者の状況を撮影するカメラによって、利用者の状況を検出する。制御装置20が、床面、壁面に対して、プロジェクションやLEDモジュールを用いて各種情報(運行状況や車両の現在位置等)を表示するように構成してもよい。待合場所を撮影したカメラから得られる撮像画像に基づいて検出された利用者の情報を、車両内に搭載された端末装置に送信し、端末装置に接続された表示装置に各種情報を表示するように構成してもよい。待合場所を撮影したカメラによって検出された利用者の情報を、車両に搭乗している利用者が携帯している端末装置(携帯電話、スマートフォン等)に送信し、端末装置の表示画面に各種情報を表示してもよい。
 図9は、本発明による乗り物情報提供装置の基本構成を示す概略ブロック図である。本発明による乗り物情報提供装置は、運行状況検出部201と、滞留状況検出部202と、出力制御部203と、を有する。運行状況検出部201は、乗り物210の運行状況を検出する。滞留状況検出部202は、乗り物210を利用するために滞留可能な場所である滞留場所211の滞留状況を検出する。出力制御部203は、運行状況検出部201の検出結果と滞留状況検出部202の検出結果とに基づいて、運行状況検出部201の検出結果に応じた情報を、滞留場所211を利用する利用者212から視認可能な壁214、床面213、および天井215のうちの少なくとも1つに表示する表示部216へ出力する第1の出力と、滞留状況検出部202の検出結果に応じた情報を乗り物210内にある端末装置217へ出力する第2の出力と、のうち少なくともいずれか一方の出力を行う。
 上述した実施形態における乗り物情報提供装置1の全部または一部をコンピュータで実現するように構成してもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって処理を実現してもよい。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含む。「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置をいう。「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持する媒体、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持している媒体も含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのプログラムであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるプログラムであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるプログラムであってもよい。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 利用者の状況やニーズに応じてダイナミックに変化するような利便性の高いサービスを提供できるようにした乗り物情報提供装置および乗り物情報提供方法を提供できる。
10…バス停留所、11…床面、12…壁面、15…カメラ、20…制御装置、40…バス、51…端末装置

Claims (5)

  1.  乗り物の運行状況を検出する運行状況検出部と、
     前記乗り物を利用する利用者が滞留可能な場所である滞留場所の滞留状況を検出する滞留状況検出部と、
     前記運行状況検出部の検出結果と前記滞留状況検出部の検出結果とに基づいて、前記運行状況検出部の検出結果に応じた情報を、前記滞留場所を利用する前記利用者から視認可能な壁、床面、および天井のうちの少なくとも1つに表示する表示部へ出力する第1の出力と、前記滞留状況検出部の検出結果に応じた情報を前記乗り物内にある端末装置へ出力する第2の出力と、のうち少なくともいずれか一方の出力を行う出力制御部と、
     を有する乗り物情報提供装置。
  2.  前記出力制御部は、
     前記乗り物の空き状況を判定し、判定結果を前記表示部へ出力する
     請求項1記載の乗り物情報提供装置。
  3.  前記出力制御部は、
     前記滞留場所に滞留している前記利用者の人数に応じた情報を前記端末装置に出力する
     請求項1または請求項2記載の乗り物情報提供装置。
  4.  前記出力制御部は、
     前記滞留状況検出部の検出結果に基づいて、前記滞留場所にアシストが必要な利用者がいるか否かを判定し、前記アシストが必要な利用者がいると判定した場合には、前記滞留場所に、既存の行列とは異なる位置に行列を形成するよう案内する案内情報を出力する
     請求項1から請求項3のうちいずれか1項に記載の乗り物情報提供装置。
  5.  乗り物の運行状況を検出する工程と、
     前記乗り物を利用するために利用者が滞留可能な場所である滞留場所の滞留状況を検出する工程と、
     前記乗り物の運行状況の検出結果と前記滞留場所の滞留状況の検出結果とに基づいて、前記運行状況の検出結果に応じた情報を、前記滞留場所を利用する利用者から視認可能な壁、床面、および天井のうちの少なくとも1つに表示する第1の出力と、前記滞留場所の滞留状況の検出結果に応じた情報を前記乗り物内にある端末装置へ出力する第2の出力と、のうち少なくともいずれか一方の出力を行う工程と、
     を含む乗り物情報提供方法。
PCT/JP2020/000327 2019-01-08 2020-01-08 乗り物情報提供装置及び乗り物情報提供方法 WO2020145312A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-001245 2019-01-08
JP2019001245A JP7329925B2 (ja) 2019-01-08 2019-01-08 乗り物情報提供装置

Publications (1)

Publication Number Publication Date
WO2020145312A1 true WO2020145312A1 (ja) 2020-07-16

Family

ID=71520495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000327 WO2020145312A1 (ja) 2019-01-08 2020-01-08 乗り物情報提供装置及び乗り物情報提供方法

Country Status (2)

Country Link
JP (2) JP7329925B2 (ja)
WO (1) WO2020145312A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115914591A (zh) * 2021-09-22 2023-04-04 卡西欧计算机株式会社 投影处理装置、记录介质以及投影方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7468322B2 (ja) 2020-12-04 2024-04-16 株式会社デンソー 情報処理装置、情報処理プログラム、及び監視システム
JP2023125180A (ja) * 2022-02-28 2023-09-07 三菱電機株式会社 乗車案内装置およびこれを用いた乗車案内システム並びに乗車案内方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168193A (ja) * 2001-11-29 2003-06-13 Canon Inc 物流及び交通システム
JP2016057719A (ja) * 2014-09-08 2016-04-21 パナソニックIpマネジメント株式会社 路面用サイン
WO2018037954A1 (ja) * 2016-08-26 2018-03-01 ソニー株式会社 移動体制御装置、移動体制御方法、及び、移動体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011026049A (ja) 2009-07-23 2011-02-10 Mitsubishi Electric Corp 乗客コンベアの表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168193A (ja) * 2001-11-29 2003-06-13 Canon Inc 物流及び交通システム
JP2016057719A (ja) * 2014-09-08 2016-04-21 パナソニックIpマネジメント株式会社 路面用サイン
WO2018037954A1 (ja) * 2016-08-26 2018-03-01 ソニー株式会社 移動体制御装置、移動体制御方法、及び、移動体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115914591A (zh) * 2021-09-22 2023-04-04 卡西欧计算机株式会社 投影处理装置、记录介质以及投影方法

Also Published As

Publication number Publication date
JP2020112866A (ja) 2020-07-27
JP7499371B2 (ja) 2024-06-13
JP2023073301A (ja) 2023-05-25
JP7329925B2 (ja) 2023-08-21

Similar Documents

Publication Publication Date Title
JP7499371B2 (ja) 乗り物情報提供装置
US11740100B2 (en) Systems and methods for providing virtual navigation guidance
JP7153795B2 (ja) 自律型車両用のスマート標識
KR101976110B1 (ko) 스마트시티를 위한 IoT 표준기반 주차 유도 최적화시스템
WO2018230679A1 (ja) 送迎管理装置、送迎管理方法、およびプログラム
CN112449690B (zh) 用于自动驾驶车辆的乘客上车和下车的不方便
JP2021193578A (ja) アクティブ迎車システムにおける迎車制御サーバ、車載端末、制御方法及び制御プログラム
JP7365171B2 (ja) 配車管理装置
KR20100129453A (ko) 차량별 상세유도안내가 가능한 주차유도시스템
JP2009204457A (ja) ナビゲーション装置及びプログラム
JP7259178B2 (ja) 走行支援装置
JP7238229B2 (ja) 情報出力装置
US11262205B2 (en) Traffic control apparatus, traffic control system, traffic control method, and non-transitory computer recording medium
KR20200049280A (ko) 교통 약자와 상호작용을 하는 안내 로봇 및 이를 이용한 교통 약자 안내 방법
KR101750703B1 (ko) 지능형 주차관리 방법 및 시스템
CN115547091A (zh) 合乘车辆以及运行管理系统
JP2020086947A (ja) 配車装置
US11961019B2 (en) Autonomous driving under user instructions and hailing methods
KR20200049266A (ko) 교통 약자에게 경로 안내 서비스를 제공하는 방법 및 시스템
JP7439781B2 (ja) 自動運転車両、乗合車両及び車両乗換システム
KR102480147B1 (ko) 정류장이 정해진 이동수단을 이용하여 길을 안내하는 방법 및 장치
US20230326048A1 (en) System, information processing apparatus, vehicle, and method
WO2023067773A1 (ja) 駐車誘導システム、駐車誘導方法、及びプログラム
KR102097317B1 (ko) 철도 역사 경로 안내 지원 시스템 및 방법
WO2024023543A1 (ja) 配車車両の交通システム、共用端末制御装置、及び共用端末制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20738550

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20738550

Country of ref document: EP

Kind code of ref document: A1