WO2013118288A1 - 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体 - Google Patents

情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体 Download PDF

Info

Publication number
WO2013118288A1
WO2013118288A1 PCT/JP2012/053095 JP2012053095W WO2013118288A1 WO 2013118288 A1 WO2013118288 A1 WO 2013118288A1 JP 2012053095 W JP2012053095 W JP 2012053095W WO 2013118288 A1 WO2013118288 A1 WO 2013118288A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
waiting time
image data
imaging
matrix
Prior art date
Application number
PCT/JP2012/053095
Other languages
English (en)
French (fr)
Inventor
淑貴 田中
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2012/053095 priority Critical patent/WO2013118288A1/ja
Priority to JP2013557327A priority patent/JP5932850B2/ja
Publication of WO2013118288A1 publication Critical patent/WO2013118288A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/207Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles with respect to certain areas, e.g. forbidden or allowed areas with possible alerting when inside or outside boundaries

Definitions

  • the present application belongs to the technical fields of an information processing system, an information processing method, an information processing apparatus, an information processing terminal, an information processing program, and a recording medium. More specifically, the present invention belongs to the technical fields of an information processing system, an information processing method, an information processing terminal, an information processing program, an information processing program, and a recording medium that process image data captured by a moving body.
  • VICS Vehicle Information and Communication System
  • a method for providing information on waiting time until entering a parking lot has been proposed.
  • the time when the entrance wait is started is stored, and the waiting time is calculated by subtracting the entrance wait start time from the time when the entrance gate is passed or permitted to pass through.
  • the rear vehicle stores the waiting time, and when a new trailing vehicle appears, the waiting time is transmitted to the vehicle, and the new trailing vehicle displays the waiting time.
  • a display method is disclosed.
  • Patent Document 1 it is necessary to introduce a facility such as a parking gate that can communicate with a vehicle at a place where moving bodies such as a parking lot are arranged.
  • the present application has been made in view of the above problems, and an example of the problem is to provide an information processing system that can calculate waiting time without introducing new equipment, for example.
  • the invention according to claim 1 is an image data acquisition unit that acquires image data obtained by imaging the first moving bodies arranged side by side from the second moving bodies in a place where the first moving bodies are arranged.
  • Image-related information acquisition means for acquiring image-related information including information related to the imaging time and imaging location of the image data, and a matrix length for calculating the matrix length of the first moving bodies arranged from the image data Based on the information of the imaging location, the calculating means, the moving distance calculating means for calculating the moving distance of the first moving bodies arranged side by side from the two image data having different imaging times, the length of the matrix and the From the imaging time of two image data and the moving distance, a predicted waiting time calculating means for calculating the predicted waiting time of the matrix, a predicted waiting time output means for outputting the predicted waiting time, Characterized by comprising.
  • image data obtained by imaging the first moving bodies arranged in a line from the second moving bodies in a place where the first moving bodies are arranged is acquired.
  • an image data acquisition means for acquiring image data obtained by imaging the first moving body arranged in a line from the second moving body at the place where the first moving body is arranged
  • the image data Image-related information acquisition means for acquiring image-related information including information relating to the imaging time and imaging location of the image
  • matrix length calculation means for calculating the length of the matrix of the first moving bodies arranged from the image data
  • the imaging Based on the location information
  • the moving distance calculating means for calculating the moving distance of the first moving bodies arranged side by side from the two image data having different imaging times, the length of the matrix and the imaging time of the two image data
  • a predicted waiting time calculating means for calculating a predicted waiting time of the matrix, and a predicted waiting time output means for outputting the predicted waiting time. And characterized in that.
  • FIG. 1 is a block diagram illustrating an example of a schematic configuration of the information processing system according to the embodiment.
  • the information processing system 1 includes an image data acquisition unit 1a, an image related information acquisition unit 1b, a matrix length calculation unit 1c, a movement distance calculation unit 1d, a predicted waiting time calculation unit 1e, Predicted waiting time output means 1f.
  • the image data acquisition unit 1a acquires a plurality of image data obtained by imaging the first moving bodies arranged side by side from the second moving bodies at the place where the first moving bodies are arranged.
  • the first and second moving bodies include vehicles such as automobiles, motorcycles, bicycles, and humans.
  • a place where the first moving bodies are arranged there are a parking lot where vehicles are arranged, a store where people are arranged, and the like.
  • image data acquisition there are a case where image data is acquired from an imaging means such as a camera, a case where image data is acquired from a storage means, a case where image data is acquired through a network, and the like.
  • the image related information acquisition unit 1b acquires image related information including information related to the imaging time and imaging location of the image data.
  • image related information in addition to the imaging time of the image data such as the imaging time of the image data, the current position information (current position data) of the second moving body as the imaging location of the image data, the image data
  • the location information of the parking lot near the destination as the imaging location, the imaging direction of the image data includes the traveling direction of the second moving body, the direction of the second moving body, the installation direction of the imaging means in the second moving body, etc. .
  • the matrix length calculation means 1c calculates the length of the matrix of the first moving bodies arranged from the image data.
  • the moving distance calculating unit 1d calculates the moving distance of the identified first moving body from the two pieces of image data.
  • the predicted waiting time calculating means 1e calculates the predicted waiting time of the matrix from the length of the matrix, the imaging time of the two image data, and the moving distance.
  • the predicted waiting time output means 1f outputs the predicted waiting time by transmitting the predicted waiting time or displaying it on the display means.
  • a plurality of pieces of image data obtained by imaging the first moving bodies arranged in a row from the second moving bodies are acquired at the place where the first moving bodies are arranged.
  • Acquiring image-related information including information regarding the imaging time and imaging location of the image data, calculating the length of the matrix of the first moving bodies arranged side by side from the image data, and based on the imaging location information, the imaging time From the two different image data, the moving distance of the first moving bodies arranged side by side is calculated, the matrix waiting time is calculated from the length of the matrix, the imaging time and the moving distance of the two image data, and waiting for prediction By outputting the time, it is not necessary to introduce new equipment at the place where the first moving bodies are arranged, and the waiting time at the place where the first moving bodies are arranged can be calculated.
  • the information processing system 1 as an example of the information processing system 1 according to the embodiment includes an information processing server 10 (information) that calculates a waiting time in a parking lot (an example of a place where the first moving bodies are arranged).
  • the information processing server 10 calculates a waiting time based on the image data acquired from the in-vehicle information processing device 20 of the vehicle 5, and provides information on the waiting time to the in-vehicle information processing device 20 of the vehicle 5 that has been requested.
  • the information processing server 10 functions as a computer.
  • the in-vehicle information processing apparatus 20 captures image data when passing near the parking lot or requests provision of waiting time information of the parking lot. Moreover, the vehicle-mounted information processing apparatus 20 functions as a computer.
  • the information processing server 10 and the in-vehicle information processing apparatus 20 can transmit and receive data to and from each other via the network 3 using, for example, TCP / IP as a communication protocol.
  • the network 3 is constructed by, for example, the Internet, a dedicated communication line (for example, a CATV (Community Antenna Television) line), a mobile communication network (including a base station and the like), a gateway, and the like.
  • FIG. 3 is a block diagram illustrating an example of a schematic configuration of the information processing server 10.
  • FIG. 4 is a schematic diagram illustrating an example of an image database in the storage unit of the information processing server 10.
  • FIG. 5 is a schematic diagram illustrating an example of a waiting time database in the storage unit of the information processing server 10.
  • the information processing server 10 communicates with the in-vehicle information processing device 20 of the vehicle 5 (an example of the image data acquisition unit 1 a, an example of the image related information acquisition unit 1 b, and prediction).
  • An example of the waiting time output unit 1f) a storage unit 12 (an example of a predicted waiting time storage unit) that stores the image data received from the in-vehicle information processing device 20, and an image that recognizes the warehousing queue from the image data.
  • An analysis unit 13 an example of a matrix length calculation unit 1c and an example of a movement distance calculation unit 1d
  • a time calculation unit 14 an example of a prediction wait time calculation unit 1e
  • an analysis result extraction unit 15 that extracts an estimated waiting time for entry of the corresponding parking lot from the storage unit 12 when requested by the in-vehicle information processing device 20, and for outputting the analysis result
  • an analysis result output unit 16 for temporarily storing the analysis results and the like (an example of predicting wait output means 1f), and a control unit 17 for controlling each processing such as the communication unit 11, a.
  • the communication unit 11 is connected to the network 3 and controls the communication state with the in-vehicle information processing apparatus 20. And the communication part 11 receives the image data imaged from the vehicle 5, the imaging time of image data, the positional information of the vehicle 5, and the information of the imaging direction of image data from the vehicle-mounted information processing apparatus 20 of the vehicle 5. In addition, the communication unit 11 receives an output request for the predicted waiting time from the in-vehicle information processing device 20 of the user's vehicle 5 who wants information on the predicted waiting time, or sends the predicted waiting time to the in-vehicle information processing device 20 of the vehicle 5. Or send results.
  • the storage unit 12 is configured by, for example, a hard disk drive or the like, and stores an image database (image DB) 12a that stores image data transmitted from the in-vehicle information processing device 20, and a waiting time that stores the calculated predicted waiting time. And a time database (waiting time DB) 12b.
  • image DB image database
  • waiting time DB time database
  • the storage unit 12 stores the image data transmitted from the in-vehicle information processing apparatus 20 in association with the imaging time, the imaging location, the imaging direction, and the vehicle ID of the vehicle 5.
  • the storage unit 12 also captures image data such as the image data capture time (an example of image data capture time), the current position of the vehicle 5 as the image data capture location, and the vehicle 5 travel direction as the image data capture direction. Store related information.
  • the image data is stored in the storage unit 12 in association with the image data capture time, the image capture location, the image capture direction, and the vehicle ID of the vehicle 5, and the image database 12 a is constructed.
  • the imaging direction of image data the traveling direction of the vehicle 5 and the set height of the imaging means in the vehicle 5 can be given.
  • the calculated predicted waiting time includes a change amount of the waiting time per predetermined time, a parking lot ID indicating a parking lot, and a parking lot.
  • the waiting time database 12b is constructed in association with the location information, image data obtained by imaging the matrix near the parking lot, and the data update time.
  • the storage unit 12 stores a template such as an image of a single car, a plurality of cars arranged in a row, and feature quantities of these images.
  • the storage unit 12 stores various programs such as an operating system and a server program. Note that the various programs may be acquired from, for example, another server device via the network 3, or may be recorded on a recording medium and read via a drive device.
  • the image analysis unit 13 has, for example, an LSI (Large Scale Integration) for image analysis, and recognizes a warehousing queue and identifies a parking lot from a captured image. In addition, the image analysis unit 13 compares the image of the same parking lot that was previously captured with the queuing queue, and obtains the moving distance of the vehicle waiting for warehousing.
  • LSI Large Scale Integration
  • the waiting time calculation unit 14 has a function such as a CPU (Central Processing ⁇ Unit), calculates a time difference when the two images comparatively analyzed by the image analysis unit 13 are captured, and the time difference and the image analysis unit 13 The predicted waiting time is calculated from the moving distance of the vehicle obtained in step (1).
  • a CPU Central Processing ⁇ Unit
  • the analysis result extraction unit 15 stores the predicted waiting time of the corresponding parking lot in the storage unit 12 when there is an output request of the predicted waiting time from the in-vehicle information processing device 20 of the user's vehicle 5 that wants information on the predicted waiting time. Read from the waiting time database 12 b and pass to the analysis result output unit 16.
  • the analysis result output unit 16 includes, for example, a RAM (Random Access Memory), and temporarily stores the predicted waiting time data read from the waiting time database 12b when there is predicted waiting time data. Temporarily store data indicating that there is no estimated waiting time.
  • a RAM Random Access Memory
  • the control unit 17 includes, for example, a CPU, and controls the operation of each processing unit of the information processing server 10.
  • FIG. 6 is a block diagram illustrating an example of a schematic configuration of the in-vehicle information processing apparatus 20 mounted on the vehicle 5.
  • the in-vehicle information processing apparatus 20 includes a communication unit 21 that communicates with the information processing server 10, an imaging unit 22 that captures a landscape in the traveling direction of the vehicle 5 (an example of an image data acquisition unit), An image detection unit 23 that detects an image area that may be a queuing queue from an image captured by the imaging unit 22, and a current location acquisition unit 24 that acquires information on the current position of the vehicle 5 (an example of an image related information acquisition unit) ), A time acquisition unit 25 (an example of an image related information acquisition unit) that acquires an imaging time by the imaging unit 22, an analysis result output unit 26 (an example of a prediction waiting time output unit) that displays a prediction waiting time, and the like, Controls the operations of the storage unit 27 that stores captured image data, the parking lot search unit 28 that searches for a parking lot near the destination (an example of image-related information acquisition means), and the units of the in-vehicle information processing apparatus 20. Control unit Has a 9, a.
  • the communication unit 21 is connected to the network 3 and controls the communication state with the information processing server 10.
  • the communication unit 21 transmits the captured image data, the position information of the vehicle 5 itself, the current time as the imaging time of the image data, the information on the traveling direction of the vehicle 5 as the imaging direction of the image data, and the like to the information processing server 10. . Further, when the user wants information on the predicted waiting time, an output request for the predicted waiting time is transmitted to the information processing server 10 and the result of the predicted waiting time is received.
  • the imaging unit 22 as an example of an imaging unit is a digital camera having an imaging element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the imaging unit 22 is installed at a position where the front of the vehicle 5 can be imaged, such as near the rearview mirror of the vehicle 5.
  • the imaging unit 22 captures a peripheral image in front of the vehicle 5. Note that the installation position of the imaging unit 22 may be on the side or rear of the vehicle 5, and the side or rear may be imaged.
  • a plurality of imaging units 22 may be provided.
  • the image detection unit 23 includes, for example, an LSI or CPU for image analysis, and detects an image area that may be a queuing queue from the image data captured by the imaging unit 22. In addition, since the detailed process regarding image processing is performed in the information processing server 10, the image detection unit 23 detects an image that may be a matrix.
  • the current location acquisition unit 24 has a GPS (Global Positioning System) sensor and the like.
  • the current location acquisition unit 24 receives navigation radio waves from GPS satellites on the satellite orbit and detects the position, altitude, speed, and the like of the vehicle 5 on which the in-vehicle information processing device 20 is mounted.
  • the time acquisition unit 25 acquires the current time from a GPS sensor, a built-in timer, or the like.
  • the analysis result output unit 26 as an example of a display means includes a display such as a liquid crystal display element or an EL (Electro Luminescence) element, a speaker, and the like.
  • the analysis result output unit 26 displays the predicted waiting time acquired from the information processing server 10 and an image around the current parking lot, and provides information on the predicted waiting time by voice.
  • the storage unit 27 is configured by, for example, a hard disk drive or the like, and stores the image data captured by the imaging unit 22 in association with the position information of the vehicle 5, the current time, and the like. Further, the storage unit 27 stores a template such as an image of one car, an image of a plurality of cars arranged, and feature amounts of these images.
  • the parking lot search unit 28 searches for a parking lot near the destination by a destination setting function such as a car navigation device.
  • a destination setting function such as a car navigation device.
  • the control unit 29 has, for example, a CPU, and controls the operation of each processing unit of the in-vehicle information processing apparatus 20. [3. Operation of information processing system] Next, the operation of the information processing system 1 according to the embodiment will be described with reference to FIGS.
  • FIG. 7 is a sequence diagram illustrating an example of a waiting time calculation operation in the information processing system according to the embodiment.
  • FIG. 8 is a schematic diagram illustrating an example of a waiting state for storage in a parking lot.
  • FIG. 9 and FIG. 10 are schematic diagrams showing examples of vehicle matrix patterns.
  • the in-vehicle information processing apparatus 20 acquires image data (step S1). Specifically, the imaging unit 22 captures a landscape from the vehicle 5 to obtain information such as traffic conditions and acquires image data. Then, the imaging unit 22 outputs the acquired image data to the image detection unit 23. The image detection unit 23 acquires image data from the imaging unit 22. In addition, as shown in FIG. 8, when the imaging part 22 is installed in front of the vehicle 5 and images a front landscape, image data relating to the front landscape is acquired. Moreover, the vehicle-mounted information processing apparatus 20 may acquire image data in a plurality of directions of front, side, and rear image data.
  • the in-vehicle information processing apparatus 20 acquires current position data (step S2). Specifically, the current location acquisition unit 24 acquires current location data of the vehicle position from GPS information of a GPS sensor or the like.
  • the in-vehicle information processing apparatus 20 determines whether a parking lot exists around the current position (step S3). Specifically, the parking lot search unit 28 searches for a position of a parking lot near the vehicle position from a database such as a car navigation system based on the acquired current position data. Further, the parking lot search unit 28 acquires the traveling direction of the vehicle 5 from the current location acquisition unit 24 or the sensor of the own vehicle, and specifies the imaging direction of the imaging unit 22. And the parking lot search part 28 considers the direction of the imaging of the imaging part 22, and specifies a parking lot. If the location information of the parking lot and the location information of the current location are within a predetermined distance, the in-vehicle information processing device 20 determines that there is a parking lot around the current location.
  • a database such as a car navigation system
  • step S3 If it is determined that there is no parking lot around the current position (step S3; NO), the in-vehicle information processing apparatus 20 returns to the process of step S1 in which the imaging unit 22 images the traffic situation and the like.
  • the in-vehicle information processing device 20 detects a matrix from the image data (step S4). Specifically, the image detection unit 23 performs image analysis such as differentiation processing on the acquired image data, extracts a contour and the like, and detects an image area that is likely to have a warehousing queue. With reference to the storage unit 27, image analysis may be performed based on an image template or a feature amount, and an image region that is likely to have a warehousing queue may be extracted.
  • the image detection unit 23 extracts a stationary image from a series of image data captured while passing near the parking lot, compared with the image data captured several seconds ago (frame difference), and the storage unit 27 Referring to FIG. 4, a matrix of vehicles or the like may be detected. In this process, all possible queuing queues may be detected, and the final determination of the queuing queue may be performed by the information processing server 10.
  • the in-vehicle information processing apparatus 20 determines whether there is a matrix (step S5). Specifically, when the image detection unit 23 detects a matrix, it is assumed that the matrix exists, and when the matrix cannot be detected, it is assumed that no matrix exists.
  • step 5 If it is determined that the queue does not exist (step 5; NO), the in-vehicle information processing device 20 determines that the queue is not in the warehousing queue, and returns to the processing in step S1 in which the imaging unit 22 images the traffic situation and the like.
  • the in-vehicle information processing device 20 acquires the current time (step S6). Specifically, the time acquisition unit 25 acquires the current time from a GPS sensor, a built-in timer, or the like.
  • the in-vehicle information processing apparatus 20 transmits image data or the like (step S7).
  • the communication unit 21 detects the current position data (imaging position information) as the image data imaging location, the current time as the image data imaging time (imaging time), and the vehicle 5 as the image data imaging direction.
  • Data on the traveling direction and the height of the imaging unit 22 from the ground (the set height of the imaging unit 22), image-related information such as the vehicle ID of the host vehicle, and image data are wirelessly transmitted to the information processing server 10. It transmits via network 3 by communication. You may transmit the parking lot positional information and parking lot ID of an example of image related information.
  • the in-vehicle information processing device 20 determines whether or not the processing is finished (step S8). Specifically, the control unit 29 checks the ON / OFF state of the power switch.
  • step S8; NO when the processing is not finished (when the power switch is ON) (step S8; NO), the in-vehicle information processing device 20 returns to the processing of step S1 and acquires image data.
  • step S8; NO when the process ends (when a signal for turning off the power switch is received) (step S8; NO), the in-vehicle information processing apparatus 20 ends the process.
  • the information processing server 10 receives image data and the like (step S10). Specifically, the communication unit 11 receives image data and image related information from the in-vehicle information processing device 20 via the network 3. Then, the information processing server 10 stores the received image data in the image database 12a of the storage unit 12 in association with the image related information. Note that the time when the information processing server 10 receives the image data may be used instead of the imaging time.
  • a predetermined time for example, 5 to 15 minutes
  • the imaging time t2 of the acquired image data for example, Search for image data within 2 to 24 hours.
  • the image analysis unit 13 refers to the image database 12a based on the received parking lot position information and parking lot ID or the parking lot position information and parking lot ID specified from the imaging position information of the image data. Image data having imaging position information that is the same as or close to the imaging position information of the acquired image data may be searched.
  • a common vehicle 6 (an example of the first moving body) is specified from among the vehicles arranged as an example of the arranged first moving bodies. Then, the movement distance D of the specified vehicle 6 may be calculated from the two image data. Further, as shown in FIG. 10, in two image data having different imaging times, common vehicles are identified from among the vehicles arranged side by side, and the movement distances D1, D2, and D3 of the identified vehicles are set to 2 It may be calculated from two image data, and the average moving distance may be set as the moving distance of the first moving body.
  • step S15 If it is not different from the previous waiting time (step S15; NO), the information processing server 10 performs the process of step S18.
  • the information processing server 10 corrects the predicted waiting time (step S16). Specifically, the predicted waiting time calculation unit 14 obtains a difference (waiting time change amount) between the calculated predicted waiting time and the read predicted waiting time, and the predicted waiting time is determined according to the increase amount or the decrease amount. , Correct the estimated waiting time. Furthermore, the predicted waiting time calculation unit 14 may read the waiting time change amount data with reference to the waiting time database 12b and correct the predicted waiting time according to the tendency of the waiting time change amount. For example, when the amount of change in waiting time increases by 5 minutes per 10 minutes of the predetermined time, the waiting time after 30 minutes may be calculated as the calculated waiting time +15 minutes, and the corrected waiting time may be obtained.
  • the information processing server 10 stores the predicted waiting time (step S17). Specifically, the predicted waiting time calculation unit 14 writes the corrected predicted waiting time, waiting time variation per hour, parking lot ID, and image data in association with each other in the waiting time database 12b.
  • the information processing server 10 determines whether the process is finished (step S18). Specifically, the control unit 17 checks the ON / OFF state of the power switch.
  • step S18; NO when the processing is not finished (when the power switch is ON) (step S18; NO), the information processing server 10 returns to the processing of step S10 and waits for reception of image data or the like. Further, when the process is completed (when a power switch OFF signal is received) (step S18; NO), the information processing server 10 ends the process.
  • vehicle-mounted information processing apparatus 20 may omit the processes of step S3 and step S4.
  • FIG. 11 is a sequence diagram illustrating an example of a waiting time output operation in the information processing system according to the embodiment.
  • FIG. 12 is a schematic diagram illustrating an example of a display screen for a predicted waiting time.
  • the in-vehicle information processing device 20 searches for a parking lot near the destination (step S20). Specifically, when a user sets a destination by car navigation or the like, the parking lot search unit 28 searches for a parking lot near the destination and obtains parking lot position information or a parking lot ID.
  • the in-vehicle information processing device 20 transmits the location information of the parking lot (step S21). Specifically, in order to obtain a predicted waiting time for entering the corresponding parking lot, the communication unit 21 sends a parking waiting predicted waiting time output request to the parking lot position information, the parking lot position information or the parking lot ID, The vehicle ID of the vehicle is transmitted to the information processing server 10 via the network 3 by wireless communication. The communication unit 21 may transmit the parking lot position information and the parking lot ID to the information processing server 10.
  • the information processing server 10 receives the location information of the parking lot (step S22). Specifically, the communication unit 11 receives a predicted waiting time output request, parking lot position information or parking lot ID, vehicle ID, and the like from the in-vehicle information processing device 20 via the network 3.
  • the information processing server 10 searches for a predicted waiting time (step S23). Specifically, when a predicted waiting time output request is received from the in-vehicle information processing device 20, the analysis result extraction unit 15 refers to the waiting time database 12b and has a request based on the parking lot position information or the parking lot ID. The predicted waiting time of the parking lot is searched from the storage unit.
  • the information processing server 10 determines whether or not the requested parking waiting time is present (step S24). Specifically, if the analysis result extraction unit 15 obtains the search result and the update time is within a predetermined time (for example, within 24 hours) from the current time, there is a predicted waiting time for the requested parking lot. Then.
  • the information processing server 10 passes the predicted waiting time to the analysis result output unit 16 (step S25). Specifically, the analysis result extraction unit 15 passes the predicted waiting time, image data, and the like read out by searching to the analysis result output unit 16.
  • the information processing server 10 passes the information indicating that the predicted waiting time does not exist to the analysis result output unit 16 (step S26). Specifically, the analysis result extraction unit 15 passes the result “not present” to the analysis result output unit 16.
  • the information processing server 10 transmits the result (step S27). Specifically, the communication unit 11 networked the result (predicted waiting time and image data or “not present” result) input to the analysis result output unit 16 based on the vehicle ID to the in-vehicle information processing device 20. 3 to transmit.
  • the information processing server 10 determines whether the process is finished (step S28). Specifically, the control unit 17 checks the ON / OFF state of the power switch.
  • step S28; NO when the processing is not finished (when the power switch is turned on) (step S28; NO), the information processing server 10 returns to the processing of step S22 and waits for reception of a request for a predicted waiting time. Further, when the process is completed (when a power switch OFF signal is received) (step S28; NO), the information processing server 10 ends the process.
  • the in-vehicle information processing apparatus 20 receives the result (step S30). Specifically, the communication unit 21 receives the predicted waiting time and image data, or the result of “does not exist” from the information processing server 10 via the network 3.
  • the in-vehicle information processing device 20 determines whether or not the estimated waiting time has been acquired (step S31). When there is a response from the information processing server 10 before time-out, the in-vehicle information processing device 20 confirms whether or not the received predicted waiting time has been acquired.
  • the in-vehicle information processing device 20 displays an image indicating the estimated waiting time and the state of the queue (step S32). Specifically, as illustrated in FIG. 12, the in-vehicle information processing apparatus 20 displays an image indicating the predicted waiting time and the queue on the analysis result output unit 26. Note that the in-vehicle information processing apparatus 20 may output information on the predicted waiting time from the speaker of the analysis result output unit 26 by voice.
  • the in-vehicle information processing apparatus 20 displays information indicating that the predicted waiting time does not exist (step S33). Specifically, the in-vehicle information processing apparatus 20 displays on the analysis result output unit 26 that the predicted waiting time cannot be acquired, such as “the predicted waiting time is zero”.
  • the in-vehicle information processing device 20 determines whether or not the processing is finished (step S34). Specifically, the control unit 29 checks the ON / OFF state of the power switch.
  • step S34; NO when the processing is not completed (when the power switch is turned on) (step S34; NO), the in-vehicle information processing device 20 returns to the processing of step S20 and searches for a parking lot near the destination. Wait for reception.
  • step S34; NO when the process ends (when a signal for turning off the power switch is received) (step S34; NO), the in-vehicle information processing apparatus 20 ends the process.
  • the in-vehicle information processing device 20 does not have to be installed in all vehicles that require a predicted waiting time.
  • the vehicle that requests the predicted waiting time has a device that can be connected to the information processing server 10 via the network 3, and the device only needs to acquire and output information on the predicted waiting time.
  • the first moving body arranged in the place (for example, parking lot) where the first moving body (for example, the vehicle 6 or the like) is arranged is changed to the second moving body ( For example, image data captured from the vehicle 5) is acquired, image-related information including information regarding the imaging time and imaging location of the image data is acquired, and the length of the matrix of the first moving bodies arranged side by side is calculated from the image data.
  • the second moving body For example, image data captured from the vehicle 5
  • image-related information including information regarding the imaging time and imaging location of the image data
  • the length of the matrix of the first moving bodies arranged side by side is calculated from the image data.
  • the waiting time is calculated and stored in the waiting time database 12b of the storage unit 12. Information on the predicted waiting time can be provided for vehicles not lined up in the parking lot.
  • the waiting time database 12b of the storage unit 12 stores information on the predicted waiting time of various parking lots, the parking lot with the least waiting time can be determined in advance, and the user spends wasted time. There is nothing, and you can select a parking lot.
  • step S24 since the update time is limited to a predetermined time from the current time, it is possible to provide relatively new information. Become.
  • the waiting time database 12b (an example of the predicted waiting time storage unit) of the storage unit 12
  • the past predicted waiting time in the vicinity of the place where the first moving bodies are arranged is read, and the read past predicted waiting time is obtained.
  • the imaging time of the two image data, and the movement distance when calculating the predicted waiting time of the matrix, since the trend of fluctuation of the predicted waiting time in the past and the predicted waiting time currently calculated can be understood, By correcting the predicted waiting time based on the tendency of fluctuation, the accuracy of the predicted waiting time is improved. For example, as shown in step S ⁇ b> 17, the predicted waiting time can be corrected according to the tendency of the amount of change in the waiting time, so that the accuracy of the predicted waiting time is improved.
  • each 1st moving body moves because each 1st moving body located in a line moves. Even if the interval (for example, the inter-vehicle interval) changes, the movement distance of the entire matrix can be accurately calculated from the average value of each movement distance, and the accuracy of the prediction waiting time is improved.
  • the interval for example, the inter-vehicle interval
  • the length of the matrix of the first moving body and the moving distance of the first moving body based on the imaging direction
  • the length of the matrix or the like is shortened on the image data.
  • the actual length can be calculated based on the imaging direction, the length of the matrix and the moving distance of the first moving body can be accurately calculated, and the accuracy of the prediction waiting time is improved.
  • the image data from the vehicles 6 arranged in the parking lot is acquired as an example of the first moving body, the moving distance of the vehicle 6 itself is calculated from these image data, and this calculation is performed.
  • the predicted waiting time of the matrix may be calculated based on the travel distance.
  • step S1 the in-vehicle information processing device 20 also acquires image data from the vehicles 6 arranged in the parking lot.
  • the in-vehicle information processing apparatus 20 acquires the current position data in step S2, and the vehicle 6 is on the road along the parking lot and almost stopped. Therefore, the in-vehicle information processing apparatus 20 is arranged in the parking lot instead of step S4 and step S5. It is determined that In step S6, the in-vehicle information processing apparatus 20 acquires the current time.
  • step S7 the in-vehicle information processing apparatus 20 receives the image data and the image related information from the vehicles 6 arranged in the parking lot as an information processing server. 10 to send.
  • step S10 the information processing server 10 receives the image data and stores the received image data in the image database 12a of the storage unit 12 in association with the image related information.
  • step S12 the information processing server 10 refers to the image database 12a in the storage unit 12 and searches for image data having the same vehicle ID and within a predetermined time and within a predetermined time from the imaging time of the acquired image data. .
  • the image analysis unit 13 of the information processing server 10 performs image analysis from the acquired image data and the searched image data, and calculates the moving distance of the vehicle 6 itself.
  • the image analysis unit 13 has an object such as a parking lot mark in a landscape captured in image data based on a plurality of image data having different imaging times from the vehicles 6 arranged in the parking lot.
  • the movement distance of the vehicle 6 itself is calculated from the deviation and stored in the storage unit 12.
  • the image analysis unit 13 specifies, for example, a specific vehicle in the matrix from the image data from the vehicle 6 and the image data obtained by imaging the matrix in which the vehicles 6 are arranged from the vehicle 5 as in Step S13. Then, the movement distance is calculated and stored in the storage unit 12.
  • the information processing server 10 calculates the movement distance per time according to the equation (1) and stores it in the storage unit 12.
  • the information processing server 10 uses the calculated moving distance of the vehicle 6 itself and the moving distance per time when the image data is transmitted from the traveling vehicle 5 and the predicted waiting time is calculated. For example, the information processing server 10 calculates the travel distance per time calculated based on the image data from the vehicles 6 arranged in the parking lot and the travel distance per time calculated based on the image data from the traveling vehicle 5. Are averaged according to the imaging time, and the moving distance per time is calculated.
  • the image data from the first moving body (vehicle 6) arranged in the place where the first moving bodies are arranged is obtained, the moving distance is calculated from these image data, and the calculated moving distance is calculated. Based on this, when calculating the matrix waiting time, the chance of detecting an image increases, and the accuracy in calculating the prediction waiting time is improved.
  • the in-vehicle information processing apparatus 20 may perform the processing of steps S10 to S17 of the information processing server 10. This is realized by inter-vehicle communication between vehicles passing near the parking lot. For example, in step S12, image data or the like with different imaging times around the same parking lot is acquired from the vehicle information processing apparatus 20 of another vehicle, image analysis is performed, and a predicted waiting time is calculated. When requesting the output of the predicted waiting time, it requests the in-vehicle information processing device 20 of the vehicle having the predicted waiting time to acquire the predicted waiting time.
  • the image detection unit 23 functions as an example of a matrix length calculation unit and a movement distance calculation unit
  • the storage unit 27 functions as an example of a prediction waiting time storage unit
  • the control unit 29 performs a prediction waiting time. It functions as an example of calculation means.
  • the communication unit 21 may function as an image data acquisition unit, an image related information acquisition unit, and a predicted waiting time output unit.
  • the function of the in-vehicle information processing device 20 may be provided in the car navigation device. Further, instead of the in-vehicle information processing apparatus, a portable terminal such as a portable wireless telephone or a PDA that has a camera or a GPS sensor and can be connected to the information processing server 10 via the network 3 may be used.
  • a portable terminal such as a portable wireless telephone or a PDA that has a camera or a GPS sensor and can be connected to the information processing server 10 via the network 3 may be used.
  • the mobile terminal When the first or second moving body is a human, a store where humans are lined up is imaged on the mobile terminal, and image data or the like is transmitted to the information processing server 10. When it is desired to know the waiting time of a certain store, the mobile terminal requests the information processing server 10 to acquire and display the predicted waiting time.
  • Information processing system 1a Image data acquisition means 1b: Image related information acquisition means 1c: Matrix length calculation means 1d: Travel distance calculation means 1e: Predictive wait time calculation means 1f: Predictive wait time output means 3: Network 5: Vehicle (Second moving body) 6: Vehicle (first moving body) 10: Information processing server 10 (information processing apparatus) 11: Communication unit (image data acquisition means, image related information acquisition means, prediction waiting time output means) 12: Storage unit (predicted waiting time storage means) 13: Image analysis unit (matrix length calculation means, movement distance calculation means) 14: Time calculation unit (predicted waiting time calculation means) 16: Analysis result output unit (predicted waiting time output means) 20: On-vehicle information processing device (information processing device, information processing terminal) 21: Communication unit (image data acquisition means, image related information acquisition means, predicted waiting time output means) 22: Imaging unit (image data acquisition means) 23: Image detection unit (matrix length calculation means, movement distance calculation means) 24: Current location acquisition unit (image related information acquisition means) 25

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

 例えば新たな設備の導入が不要で、待ち時間を算出できる情報処理装置等を提供することにある。 第1移動体(6)が並ぶ場所において当該並んでいる第1移動体(6)を第2移動体(5)から撮像した画像データを取得し(S1、S10)、画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得し(S2、S6、S10)、並んでいる第1移動体の行列の長さを、画像データから算出し(S11)、撮像場所の情報に基づき、撮像時間が異なる2つの画像データから、並んでいる第1移動体の移動距離を算出し(S13)、行列の長さLと2つの画像データの撮像時間t1、t2と移動距離Dとから、行列の予測待ち時間を算出し(S14)、予測待ち時間を出力する(S17)。

Description

情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体
 本願は、情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体の技術分野に属する。より詳細には、移動体において撮像された画像データを処理する情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体の技術分野に属する。
 駐車場の満車空車情報は、VICS(登録商標)(Vehicle Information and Communication System)などの交通情報からカーナビゲーション等の装置を通じて得られるようになりつつある。さらに、駐車場へ入場するまでの待ち時間の情報を提供する方法も提案されている。例えば下記特許文献1には、入場待ちを開始した時刻を保存し、入場ゲートを通過あるいは通過許可された時刻から入場待ち開始時刻を減算して待ち時間を算出し、該待ち時間を後方車両に通知し、後方車両は該待ち時間を保存し、新たな末尾車両となる車両が出現した時、該車両に待ち時間を送信し、新たな末尾車両となる車両は待ち時間を表示する入場待ち時間表示方法が開示されている。
特開2004-157917号公報
 しかしながら、上記特許文献1に記載されている技術では、駐車場等の移動体が並ぶ場所に、車両と通信できる駐車ゲート等の設備の導入が必要となる。
 そこで本願は、上記の各問題点に鑑みて為されたもので、その課題の一例は、例えば新たな設備の導入が不要で、待ち時間を算出できる情報処理システム等を提供することにある。
 上記課題を解決するため、請求項1に記載の発明は、第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを取得する画像データ取得手段と、前記画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得する画像関連情報取得手段と、前記並んでいる第1移動体の行列の長さを、前記画像データから算出する行列長算出手段と、前記撮像場所の情報に基づき、前記撮像時間が異なる2つの前記画像データから、前記並んでいる第1移動体の移動距離を算出する移動距離算出手段と、前記行列の長さと前記2つの画像データの撮像時間と前記移動距離とから、前記行列の予測待ち時間を算出する予測待ち時間算出手段と、前記予測待ち時間を出力する予測待ち時間出力手段と、を備えたことを特徴とする。
 また請求項6に記載の発明は、情報処理する情報処理システムの情報処理方法において、第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを取得する画像データ取得ステップと、前記画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得する画像関連情報取得ステップと、前記並んでいる第1移動体の行列の長さを、前記画像データから算出する行列長算出ステップと、前記撮像場所の情報に基づき、前記撮像時間が異なる2つの前記画像データから、前記並んでいる第1移動体の移動距離を算出する移動距離算出ステップと、前記行列の長さと前記2つの画像データの撮像時間と前記移動距離とから、前記行列の予測待ち時間を算出する予測待ち時間算出ステップと、前記予測待ち時間を出力する予測待ち時間出力ステップと、を含むことを特徴とする。
 また請求項9に記載の発明は、コンピュータを、第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを取得する画像データ取得手段、前記画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得する画像関連情報取得手段、前記並んでいる第1移動体の行列の長さを、前記画像データから算出する行列長算出手段、前記撮像場所の情報に基づき、前記撮像時間が異なる2つの前記画像データから、前記並んでいる第1移動体の移動距離を算出する移動距離算出手段、前記行列の長さと前記2つの画像データの撮像時間と前記移動距離とから、前記行列の予測待ち時間を算出する予測待ち時間算出手段、および、前記予測待ち時間を出力する予測待ち時間出力手段として機能させることを特徴とする。
実施形態に係る情報処理システムの概要構成の一例を示すブロック図である。 実施例に係る情報処理システムの概要構成の一例を示す模式図である。 実施例に係る情報処理サーバの概要構成の一例を示すブロック図である。 実施例に係る情報処理サーバの記憶部の画像データベースの一例を示す模式図である。 実施例に係る情報処理サーバの記憶部の待ち時間データベースの一例を示す模式図である。 実施例に係る第2移動体の車載情報処理装置の概要構成の一例を示すブロック図である。 実施例に係る情報処理システムにおける待ち時間算出の動作の一例を示すシーケンス図である。 駐車場において入庫待ち状況の一例を示す模式図である。 車両の行列のパターンの一例を示す模式図である。 車両の行列のパターンの一例を示す模式図である。 実施例に係る情報処理システムにおける待ち時間出力の動作の一例を示すシーケンス図である。 予測待ち時間の表示画面の一例を示す模式図である。 駐車場において入庫待ち状況の一例を示す模式図である。
 本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る情報処理システムの概要構成の一例を示すブロック図である。
 図1に示すように、情報処理システム1は、画像データ取得手段1aと、画像関連情報取得手段1bと、行列長算出手段1cと、移動距離算出手段1dと、予測待ち時間算出手段1eと、予測待ち時間出力手段1fと、を備えて構成されている。
 この構成において画像データ取得手段1aは、第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを複数取得する。この第1および第2移動体の一例として、自動車等の車両、バイク、自転車、人間が挙げられる。第1移動体が並ぶ場所の一例として、車両が並ぶ駐車場、人が並ぶ店等が挙げられる。画像データの取得の一例として、カメラ等の撮像手段から画像データを取得する場合と、画像データが記憶された記憶手段から取得する場合、ネットワークを通して画像データを取得する場合等が挙げられる。
 画像関連情報取得手段1bは、画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得する。ここで、画像関連情報の一例として、画像データの撮像時刻等の画像データの撮像時間の他に、画像データの撮像場所としての第2移動体の現在位置の情報(現在位置データ)、画像データの撮像場所としての目的地付近の駐車場の位置情報、画像データの撮像方向として第2移動体の進行方向や第2移動体の向き、第2移動体における撮像手段の設置方向等が挙げられる。
 行列長算出手段1cは、並んでいる第1移動体の行列の長さを、画像データから算出する。
 移動距離算出手段1dは、特定された第1移動体の移動距離を、2つの前記画像データから算出する。
 予測待ち時間算出手段1eは、行列の長さと2つの画像データの撮像時間と移動距離とから、行列の予測待ち時間を算出する。
 予測待ち時間出力手段1fは、予測待ち時間を送信したり、表示手段に表示したりして、予測待ち時間を出力する。
 以上説明したように、実施形態に係る情報処理装置10の動作によれば、第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを複数取得し、画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得し、並んでいる第1移動体の行列の長さを、画像データから算出し、撮像場所の情報に基づき、撮像時間が異なる2つの前記画像データから、並んでいる第1移動体の移動距離を算出し、行列の長さと2つの画像データの撮像時間と移動距離とから、行列の予測待ち時間を算出し、予測待ち時間を出力することにより、第1移動体が並ぶ場所において、新たな設備の導入が不要となり、第1移動体が並ぶ場所における待ち時間を算出できる。
 (実施例)
[1.情報処理システムの構成および機能概要]
 次に、上述した実施形態に対応する具体的な実施例について、図2から図13を用いて説明する。なお以下に説明する実施例は、第2移動体の一例の車両等に搭載され情報処理端末と、情報処理装置の一例としての情報処理サーバとがネットワークを通して接続した情報処理システムにおける情報処理に本願を適用した場合の実施例である。
 図2に示すように、実施形態に係る情報処理システム1の一例としての情報処理システム1は、駐車場(第1移動体が並ぶ場所の一例)における待ち時間を算出する情報処理サーバ10(情報処理装置の一例)と、車両(第2移動体の一例)5に搭載された車載情報処理装置(情報処理装置の一例、情報処理端末の一例)20と、を備えている。
 情報処理サーバ10は、車両5の車載情報処理装置20から取得した画像データに基づき、待ち時間を算出し、要求があった車両5の車載情報処理装置20に、待ち時間の情報を提供する。また、情報処理サーバ10は、コンピュータとして機能する。
 車載情報処理装置20は、駐車場付近を通過した際の画像データを撮像したり、駐車場の待ち時間情報の提供の要求をしたりする。また、車載情報処理装置20は、コンピュータとして機能する。
 情報処理サーバ10および車載情報処理装置20は、ネットワーク3を介して、例えば、通信プロトコルにTCP/IP等を用いて相互にデータの送受信が可能になっている。なお、ネットワーク3は、例えば、インターネット、専用通信回線(例えば、CATV(Community Antenna Television)回線)、移動体通信網(基地局等を含む)、およびゲートウェイ等により構築されている。
[2.情報処理サーバおよび各端末装置の構成および機能]
(2.1 情報処理サーバ10の構成および機能)
 次に、情報処理サーバ10の構成および機能について、図3から図5を用いて説明する。
 図3は、情報処理サーバ10の概要構成の一例を示すブロック図である。図4は、情報処理サーバ10の記憶部の画像データベースの一例を示す模式図である。図5は、情報処理サーバ10の記憶部の待ち時間データベースの一例を示す模式図である。
 図3に示すように、情報処理サーバ10は、車両5の車載情報処理装置20との通信を行う通信部11(画像データ取得手段1aの一例、画像関連情報取得手段1bの一例、および、予測待ち時間出力手段1fの一例)と、車載情報処理装置20から受信した画像データ等を記憶する記憶部12(予測待ち時間記憶手段の一例)と、画像データから入庫待ち行列の認識等を行う画像解析部13(行列長算出手段1cの一例、および移動距離算出手段1dの一例)と、画像解析部13の解析結果より予測待ち時間を算出する時間算出部14(予測待ち時間算出手段1eの一例)と、車載情報処理装置20から要求があった場合に記憶部12から、該当する駐車場の入庫待ち予測時間を抽出する解析結果抽出部15と、解析結果を出力するために解析結果等を一時保存する解析結果出力部16(予測待ち時間出力手段1fの一例)と、通信部11等の各処理を制御する制御部17と、を有する。
 通信部11は、ネットワーク3に接続して、車載情報処理装置20との通信状態を制御するようになっている。そして、通信部11は、車両5の車載情報処理装置20から、車両5から撮像した画像データ、画像データの撮像時刻、車両5の位置情報、画像データの撮像方向の情報を受信する。また、通信部11は、予測待ち時間の情報が欲しいユーザの車両5の車載情報処理装置20から、予測待ち時間の出力要求を受信したり、車両5の車載情報処理装置20へ予測待ち時間の結果を送信したりする。
 記憶部12は、例えば、ハードディスクドライブ等により構成されており、車載情報処理装置20から送信されてきた画像データを記憶する画像データベース(画像DB)12aと、算出された予測待ち時間を記憶する待ち時間データベース(待ち時間DB)12bとを有する。
 記憶部12は、車載情報処理装置20から送信されてきた画像データの撮像時刻、撮像場所、撮像方向、および、車両5の車両IDに関連付けられて記憶する。また、記憶部12は、画像データの撮像時刻(画像データの撮像時間の一例)、画像データの撮像場所としての車両5の現在位置、画像データの撮像方向としての車両5の進行方向等の画像関連情報を記憶する。
 図4に示すように、記憶部12には、画像データが、画像データの撮像時刻、撮像場所、撮像方向、および、車両5の車両IDに関連付けられて記憶され、画像データベース12aが構築される。なお、画像データの撮像方向の一例として、車両5の進行方向および車両5における撮像手段の設定高さが挙げられる。
 図5に示すように、予測待ち時間記憶手段の一例としての記憶部12には、算出された予測待ち時間が、所定時間当たりの待ち時間の変化量、駐車場を示す駐車場ID、駐車場の位置情報、駐車場付近の行列を撮像した画像データ、および、データの更新時刻と関連付けられて記憶され、待ち時間データベース12bが構築される。
 また、記憶部12には、1台の車の画像、複数台並んだ車の画像等のテンプレートや、それらの画像の特徴量が記憶されている。
 また、記憶部12は、オペレーティングシステムおよびサーバプログラム等の各種プログラム等を記憶する。なお、各種プログラムは、例えば、他のサーバ装置等からネットワーク3を介して取得されるようにしてもよいし、記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。
 画像解析部13は、例えば、画像解析用のLSI(Large Scale Integration)を有し、撮像画像から入庫待ち行列の認識と駐車場の特定をする。また、画像解析部13は、以前に撮像された同じ駐車場の入庫待ち行列の画像と比較し、入庫待ちしている車両の移動距離を求める。
 待ち時間算出部14は、CPU(Central Processing Unit)等の機能を有し、画像解析部13で比較解析した2つの画像が撮像された時間差分を算出し、この時間差分と、画像解析部13で求められた車両の移動距離とから、予測待ち時間を算出する。
 解析結果抽出部15は、予測待ち時間の情報が欲しいユーザの車両5の車載情報処理装置20から予測待ち時間の出力要求があった場合に、該当する駐車場の予測待ち時間を記憶部12の待ち時間データベース12bから読み出し、解析結果出力部16に渡す。
 解析結果出力部16は、例えば、RAM(Random Access Memory)を有し、予測待ち時間のデータが存在する場合は、待ち時間データベース12bから読み出した予測待ち時間データを一時保存し、存在しない場合は、予測待ち時間が存在しないことを表すデータを一時保存する。
 制御部17は、例えば、CPUを有し、情報処理サーバ10の各処理部の動作を制御する。
(2.2 車載情報処理装置20の構成および機能)
 次に、車載情報処理装置20の構成および機能について、図6を用いて説明する。
 図6は、車両5に搭載された車載情報処理装置20の概要構成の一例を示すブロック図である。
 図5に示すように、車載情報処理装置20は、情報処理サーバ10と通信を行う通信部21と、車両5の進行方向の風景を撮像する撮像部22(画像データ取得手段の一例)と、撮像部22で撮像された画像から入庫待ち行列の可能性がある画像領域を検出する画像検出部23と、車両5の現在位置の情報を取得する現在地取得部24(画像関連情報取得手段の一例)と、撮像部22による撮像時刻を取得する時刻取得部25(画像関連情報取得手段の一例)と、予測待ち時間等を表示する解析結果出力部26(予測待ち時間出力手段の一例)と、撮像された画像データ等を記憶する記憶部27と、目的地付近の駐車場を検索する駐車場検索部28(画像関連情報取得手段の一例)と、車載情報処理装置20の各部の動作を制御する制御部29と、を有する。
 通信部21は、ネットワーク3に接続して、情報処理サーバ10との通信状態を制御するようになっている。そして、通信部21は、撮像した画像データ、車両5自体の位置情報、画像データの撮像時刻として現在時刻、画像データの撮像方向として車両5の進行方向の情報等を情報処理サーバ10に送信する。また、ユーザが予測待ち時間の情報が欲しい場合、予測待ち時間の出力要求を情報処理サーバ10に送信し、予測待ち時間の結果を受信する。
 撮像手段の一例の撮像部22は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を有するデジタルカメラである。撮像部22は、車両5のバックミラー付近等の車両5の前方が撮像できる位置に設置されている。撮像部22は、車両5の前方の周辺画像を撮像する。なお、撮像部22の設置位置は、車両5の側方、後方でもよく、側方や後方を撮像してよい。また、撮像部22の数は複数でもよい。
 画像検出部23は、例えば、画像解析用のLSIまたはCPUを有し、撮像部22で撮像された画像データから入庫待ち行列の可能性がある画像領域を検出する。なお、画像処理に関する詳細な処理は、情報処理サーバ10において行われるので、画像検出部23では、行列の可能性がある画像を検出する。
 現在地取得部24は、GPS(Global Positioning System)センサ等を有する。そして、現在地取得部24は、衛星軌道上のGPS衛星からの航法電波を受信し、車載情報処理装置20が搭載されている車両5の位置、高度、速度等を検出する。
 時刻取得部25は、GPSセンサや内蔵するタイマー等から現在時刻を取得する。
 表示手段の一例としての解析結果出力部26は、液晶表示素子またはEL(Electro Luminescence)素子等のディスプレイ、および、スピーカ等を有する。解析結果出力部26は、情報処理サーバ10から取得した予測待ち時間や、現在の駐車場周辺の画像を表示したり、予測待ち時間に関する情報を音声で案内したりする。
 記憶部27は、例えば、ハードディスクドライブ等により構成されており、撮像部22で撮像された画像データを、車両5の位置情報、現在時刻等に関連付けて記憶する。また、記憶部27には、1台の車の画像、複数台並んだ車の画像等のテンプレートや、それらの画像の特徴量が記憶されている。
 駐車場検索部28は、カーナビゲーション装置等の目的地設定機能により、目的地付近の駐車場を検索する。なお、カーナビゲーション装置等における経路探索技術については、公知の技術であるため、ここでは説明を省略する。
 制御部29は、例えば、CPUを有し、車載情報処理装置20の各処理部の動作を制御する。
[3.情報処理システムの動作]
 次に、実施例に係る情報処理システム1の動作について図7から図12を用い説明する。
(3.1 予測待ち時間の算出の動作例)
 予測待ち時間の算出の動作例について、図7から図10を用い説明する。
 図7は、実施例に係る情報処理システムにおける待ち時間算出の動作の一例を示すシーケンス図である。図8は、駐車場において入庫待ち状況の一例を示す模式図である。図9および図10、車両の行列のパターンの一例を示す模式図である。
 まず、ある車両5のエンジンがかかり、車載情報処理装置20の電源が入ったとする。そして、車両5が道路を走行し始めたとする。
 図7に示すように、車載情報処理装置20は、画像データを取得する(ステップS1)。具体的には、撮像部22が、交通状況等の情報を得るために車両5から風景を撮像して、画像データを取得する。そして、撮像部22が、取得した画像データを画像検出部23へ出力する。画像検出部23は、撮像部22から画像データを取得する。なお、図8に示すように、撮像部22が車両5の前方に設置され、前方の風景を撮像する場合は、前方の風景に関する画像データを取得する。また、車載情報処理装置20は、前方、側方、後方の画像データの複数方向の画像データを取得してもよい。
 次に、車載情報処理装置20は、現在位置データを取得する(ステップS2)。具体的には、現在地取得部24が、GPSセンサのGPS情報等から自車位置の現在位置データを取得する。
 次に、車載情報処理装置20は、現在位置周辺に駐車場が存在するか否かを判定する(ステップS3)。具体的には、駐車場検索部28が、取得した現在位置データに基づき、自車位置付近にある駐車場の位置をカーナビゲーションシステム等のデータベースから検索する。また、駐車場検索部28が、車両5の進行方向を、現在地取得部24または自車のセンサから取得し、撮像部22の撮像の方向を特定する。そして、駐車場検索部28が、撮像部22の撮像の方向を加味して、駐車場を特定する。駐車場の位置情報と、現在位置の位置情報とが、所定の距離以内ならば、車載情報処理装置20は、現在位置周辺に駐車場が存在すると判定する。
 現在位置周辺に駐車場が存在し無いと判定した場合(ステップS3;NO)、車載情報処理装置20は、撮像部22で交通状況等を撮像するステップS1の処理にもどる。
 現在位置周辺に駐車場が存在すると判定した場合(ステップS3;YES)、車載情報処理装置20は、画像データから行列を検出する(ステップS4)。具体的には、画像検出部23が、取得した画像データに対して、微分処理等の画像解析を行い、輪郭等を抽出し、入庫待ち行列がありそうな画像領域を検出する。記憶部27を参照して、画像のテンプレートや特徴量により画像解析を行い、入庫待ち行列がありそうな画像領域を抽出してもよい。画像検出部23が、駐車場付近を通過する間に撮像された一連の画像データから、数秒前に撮像した画像データと比較して(フレーム差分)、止まっている画像を抽出し、記憶部27を参照して、車両等の行列を検出してもよい。なお、この処理では、入庫待ち行列の可能性があるものは全て検出し、入庫待ち行列の最終的な判断は、情報処理サーバ10で行ってもよい。
 次に、車載情報処理装置20は、行列が存在するか否かを判定する(ステップS5)。具体的には、画像検出部23が、行列を検出した場合、行列が存在するとし、行列を検出できなかった場合、行列が存在しないとする。
 行列が存在し無いと判定した場合(ステップ5;NO)、車載情報処理装置20は、入庫待ち行列では無いと判断し、撮像部22で交通状況等を撮像するステップS1の処理にもどる。
 行列が存在すると判定した場合(ステップ5;YES)、車載情報処理装置20は、現在時刻を取得する(ステップS6)。具体的には、時刻取得部25が、GPSセンサや内蔵するタイマー等から現在時刻を取得する。
 次に、車載情報処理装置20は、画像データ等の送信する(ステップS7)。具体的には、通信部21が、画像データの撮像場所としての現在位置データ(撮像位置情報)、画像データの撮像時刻(撮像時間)としての現在時刻、画像データの撮像方向としての車両5の進行方向および撮像部22の地上からの高さ(撮像部22の設定高さ)のデータ、並びに、自車の車両ID等の画像関連情報と、画像データとを、情報処理サーバ10へ、無線通信でネットワーク3を介して送信する。画像関連情報の一例の駐車場の位置情報および駐車場IDを送信してもよい。
 次に、車載情報処理装置20は、処理が終了か否かを判定する(ステップS8)。具体的には、制御部29が電源のスイッチのON-OFF状態をチェックする。
 次に、車載情報処理装置20は、処理が終了で無い場合(電源のスイッチのONの状態の場合)(ステップS8;NO)、ステップS1の処理に戻り、画像データを取得する。また、処理が終了の場合(電源のスイッチのOFFにする信号を受け付けた場合)(ステップS8;NO)、車載情報処理装置20は、処理を終了させる。
 次に、情報処理サーバ10は、画像データ等を受信する(ステップS10)。具体的には、通信部11が、車載情報処理装置20から、ネットワーク3を介して、画像データおよび画像関連情報を受信する。そして、情報処理サーバ10は、受信した画像データを、画像関連情報に関連付けて、記憶部12の画像データベース12aに記憶する。なお、撮像時間の代わりに、情報処理サーバ10が画像データを受信した時刻でもよい。
 次に、情報処理サーバ10は、行列長を算出する(ステップS11)。具体的には、画像解析部13が、ステップS4のように、車載情報処理装置20から受信した画像を解析し、行列を部分の領域を抽出する。そして、画像解析部13が、図8に示すように、画像データの撮像方向および撮像部22の設定高さに基づき、撮像時刻t=t1の場合、行列長L1を、撮像時刻t=t2の場合、行列長L2を算出する。さらに具体的には、画像解析部13が、ある車両5が駐車場付近を通過する間に撮像された一連の画像データを、記憶部12の画像データベース12aを参照して、車両ID、撮像時刻、撮像位置情報、および、進行方向および撮像部22の設定高さを特定する。そして、画像解析部13が、特定された一連の画像データから、画像解析により、行列長を算出する。
 次に、情報処理サーバ10は、同じ駐車場周辺で撮像時間が異なる画像データ等を取得する(ステップS12)。具体的には、図8(t=t2の場合)に示すように、車両5からの画像データを取得した時刻が、ほぼt=t2の場合、画像解析部13が、取得した画像データの撮像位置情報と同じまたは近い撮像位置情報を有する画像データを、画像データベース12aを参照して、取得した画像データの撮像時刻t2から所定時間(例えば、5分~15分)以上、所定時間(例えば、2時間~24時間)以内の画像データを検索する。そして、画像解析部13が、検索した画像データの中から、前の時間で直近の画像データを抽出する(例えば、図8(t=t1の場合)に示すように、t=t1で他の車両5からの画像データ)。
 また、画像解析部13は、受信した駐車場の位置情報や駐車場ID、または、画像データの撮像位置情報から特定した駐車場の位置情報や駐車場IDに基づき、画像データベース12aを参照して、取得した画像データの撮像位置情報と同じまたは近い撮像位置情報を有する画像データを検索してもよい。
 次に、情報処理サーバ10は、第1移動体の移動距離を算出する(ステップS13)具体的には、画像解析部13が、撮像時間が異なる画像データに対しても、ステップS11のように、行列部分の領域の画像を抽出する。そして、画像解析部13が、図9に示すように、撮像時刻t=t1の車両の待ち行列の画像における車両の配列パターンと、撮像時刻t=t2の車両の待ち行列の画像における車両の配列パターンとから、画像データの撮像方向に基づき、配列パターンのズレを算出し、第1移動体の移動距離とする。車両の配列パターンの一例として、待ち行列の車両の形状のパターンや色のパターン等が挙げられる。
 また、図8に示すように、撮像時間が異なる2つの画像データにおいて、並んでいる第1移動体の一例として並んでいる車両の中から共通する車両6(第1移動体の一例)を特定し、特定された車両6の移動距離Dを、2つの画像データから移動距離を算出してもよい。また、図10に示すように、撮像時間が異なる2つの画像データにおいて、並んでいる車両の中から共通する各車両を特定し、特定された各車両の移動距離D1、D2、D3を、2つの画像データから算出し、平均の移動距離を第1移動体の移動距離としてもよい。
 次に、情報処理サーバ10は、予測待ち時間を算出する(ステップS14)。具体的には、予測待ち時間算出部14が、ステップS14で移動距離を算出した2つの画像データの撮像時刻t1、t2を、画像データベース12aから読み出し、これら2つの画像が撮像された時間差分(2つの画像データの撮像時間の一例)を求める。そして、この時間差分(t2-t1)と、予測待ち時間算出部14が、ステップS11で算出した行列の長さLと、ステップS13で算出した移動距離Dとから、予測待ち時間を式(1)に従い算出する。
 時間当たりの移動距離Dt=D/(t2-t1)・・・(1)
 予測待ち時間T=L/D ・・・(2)
 次に、情報処理サーバ10は、以前の待ち時間と異なるか否かを判定する(ステップS15)。具体的には、予測待ち時間算出部14が、駐車場IDまたは駐車場の位置情報に基づき、待ち時間データベース12bを参照して、更新時刻が撮像時刻t=t2に近い最新の予測待ち時間のデータを読み出す。そして、予測待ち時間算出部14が、算出した予測待ち時間と、読み出した予測待ち時間とを比較し、以前の待ち時間と異なるか否かを判定する。
 以前の待ち時間と異ならない場合(ステップS15;NO)、情報処理サーバ10は、ステップS18の処理を行う。
 以前の待ち時間と異なる場合(ステップS15;YES)、情報処理サーバ10は、予測待ち時間を修正する(ステップS16)。具体的には、予測待ち時間算出部14が、算出した予測待ち時間と、読み出した予測待ち時間との差(待ち時間変化量)を求め、予測待ち時間が増加量、または減少量に応じて、予測待ち時間を修正する。さらに、予測待ち時間算出部14が、待ち時間データベース12bを参照して、待ち時間の変化量のデータを読み出し、待ち時間の変化量の傾向に応じて、予測待ち時間を修正してもよい。例えば、待ち時間変化量が、所定時間10分当たりに5分増加していく場合、30分後の待ち時間は、算出した予測待ち時間+15分として修正後の予測待ち時間を求めてもよい。
 次に、情報処理サーバ10は、予測待ち時間を記憶する(ステップS17)。具体的には、予測待ち時間算出部14が、待ち時間データベース12bに、修正した予測待ち時間、時間当たりの待ち時間変化量、駐車場ID、および画像データを関連付けて書き込む。
 次に、情報処理サーバ10は、処理が終了か否かを判定する(ステップS18)。具体的には、制御部17が電源のスイッチのON-OFF状態をチェックする。
 次に、情報処理サーバ10は、処理が終了で無い場合(電源のスイッチのONの状態の場合)(ステップS18;NO)、ステップS10の処理に戻り、画像データ等の受信を待つ。また、処理が終了の場合(電源のスイッチのOFFの信号を受け付けた場合)(ステップS18;NO)、情報処理サーバ10は、処理を終了させる。
 なお、車載情報処理装置20は、ステップS3およびステップS4の処理を省いてもよい。
(3.2 予測待ち時間の要求の動作例)
 次に、予測待ち時間の要求の動作例について、図11および図12を用いて説明する。
 図11は、実施例に係る情報処理システムにおける待ち時間出力の動作の一例を示すシーケンス図である。図12は、予測待ち時間の表示画面の一例を示す模式図である。
 まず、車載情報処理装置20は、目的地付近の駐車場を検索する(ステップS20)。具体的には、カーナビゲーション等で、ユーザが目的地を設定する場合、駐車場検索部28が、目的地付近の駐車場を検索し、駐車場位置情報または駐車場IDを求める。
 次に、車載情報処理装置20は、駐車場の位置情報を送信する(ステップS21)。具体的には、該当する駐車場に入庫するための予測待ち時間を得るために、通信部21が入庫待ち予測待ち時間出力要求を駐車場の位置情報、駐車場位置情報または駐車場ID、自車の車両ID等を、情報処理サーバ10へ、無線通信でネットワーク3を介して送信する。なお、通信部21は、駐車場位置情報および駐車場IDを情報処理サーバ10へ送信してもよい。
 次に、情報処理サーバ10は、駐車場の位置情報を受信する(ステップS22)。具体的には、通信部11が、車載情報処理装置20から、ネットワーク3を介して、予測待ち時間出力要求、駐車場位置情報または駐車場ID、車両ID等を受信する。
 次に、情報処理サーバ10は、予測待ち時間を検索する(ステップS23)。具体的には、車載情報処理装置20より予測待ち時間出力要求を受けると、解析結果抽出部15が、待ち時間データベース12bを参照して、駐車場位置情報または駐車場IDに基づき、要求のある駐車場の予測待ち時間を記憶部から検索する。
 次に、情報処理サーバ10は、要求された駐車場の予測待ち時間が存在する否かを判定する(ステップS24)。具体的には、解析結果抽出部15が、検索結果を得て、更新時刻が現在時刻より所定の時間内(例えば、24時間以内)であれば、要求された駐車場の予測待ち時間が存在するとする。
 要求された駐車場の予測待ち時間が存在する場合(ステップS24;YES)、情報処理サーバ10は、予測待ち時間を解析結果出力部16に渡す(ステップS25)。具体的には、解析結果抽出部15が、検索して読み出された予測待ち時間、画像データ等を解析結果出力部16に渡す。
 要求された駐車場の予測待ち時間が存在し無い場合(ステップS24;NO)、情報処理サーバ10は、予測待ち時間不存在の情報を解析結果出力部16に渡す(ステップS26)。具体的には、解析結果抽出部15が、「存在しない」という結果を解析結果出力部16に渡す。
 次に、情報処理サーバ10は、結果を送信する(ステップS27)。具体的には、通信部11が、車両IDに基づき、解析結果出力部16に入力された結果(予測待ち時間および画像データ、または、「存在しない」という結果)を車載情報処理装置20へネットワーク3を介して送信する。
 次に、情報処理サーバ10は、処理が終了か否かを判定する(ステップS28)。具体的には、制御部17が電源のスイッチのON-OFF状態をチェックする。
 次に、情報処理サーバ10は、処理が終了で無い場合(電源のスイッチのONの状態の場合)(ステップS28;NO)、ステップS22の処理に戻り、予測待ち時間の要求等の受信を待つ。また、処理が終了の場合(電源のスイッチのOFFの信号を受け付けた場合)(ステップS28;NO)、情報処理サーバ10は、処理を終了させる。
 次に、情報処理サーバ10が結果を送信した場合、車載情報処理装置20は、結果を受信する(ステップS30)。具体的には、通信部21が、予測待ち時間および画像データ、または、「存在しない」という結果を、情報処理サーバ10から、ネットワーク3を介して受信する。
 次に、車載情報処理装置20は、待ち予測時間を取得したか否かを判定する(ステップS31)。車載情報処理装置20は、情報処理サーバ10からタイムアウトする前に応答があった場合、受信した予測待ち時間の取得の有無を確認する。
 待ち予測時間を取得した場合(ステップS31;YES)、車載情報処理装置20は、待ち予測時間および待ち行列の様子を示す画像を表示する(ステップS32)。具体的には、図12に示すように、車載情報処理装置20は、解析結果出力部26に予測待ち時間および待ち行列を示す画像を表示する。なお、車載情報処理装置20は、解析結果出力部26のスピーカから予測待ち時間の情報を音声で出力してもよい。
 待ち予測時間を取得し無かった場合(ステップS31;NO)、車載情報処理装置20は、予測待ち時間不存在の情報を表示する(ステップS33)。具体的には、車載情報処理装置20は、解析結果出力部26に、「予測待ち時間がゼロ」等、予測待ち時間が取得できない旨の表示をする。
 次に、車載情報処理装置20は、処理が終了か否かを判定する(ステップS34)。具体的には、制御部29が電源のスイッチのON-OFF状態をチェックする。
 次に、車載情報処理装置20は、処理が終了で無い場合(電源のスイッチのONの状態の場合)(ステップS34;NO)、ステップS20の処理に戻り、目的地付近の駐車場の検索の受付を待つ。また、処理が終了の場合(電源のスイッチのOFFにする信号を受け付けた場合)(ステップS34;NO)、車載情報処理装置20は、処理を終了させる。
 なお、車載情報処理装置20は、予測待ち時間を要求する全ての車両に装備されている必要がない。予測待ち時間を要求する車両は、ネットワーク3を介して、情報処理サーバ10に接続できる装置を有し、当該装置が予測待ち時間に関する情報を取得し、出力できればよい。
 以上説明したように、実施例に係る動作によれば、第1移動体(例えば、車両6等)が並ぶ場所(例えば、駐車場)において当該並んでいる第1移動体を第2移動体(例えば、車両5)から撮像した画像データを取得し、画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得し、並んでいる第1移動体の行列の長さを、画像データから算出し、撮像場所の情報に基づき、撮像時間が異なる2つの前記画像データから、並んでいる第1移動体の移動距離を算出し、行列の長さと2つの画像データの撮像時間と移動距離とから、行列の予測待ち時間を算出し、予測待ち時間を出力することにより、第1移動体が並ぶ場所において、新たな設備の導入が不要となり、第1移動体が並ぶ場所における待ち時間を算出できる。
 駐車場の入り口において、入庫待ち行列の脇を通過する車両5から、ネットワーク3を介して情報処理サーバ10に画像データ等の情報を集めて画像解析し、待ち時間を算出するので、駐車場に対する新たな設備の導入が不要でコストの削減ができる。また、本実施例は、新たな駐車場設備なしで、車両5等の第2移動体に車載情報処理装置20を搭載し、情報処理サーバ10とシステムとして組み合わせることで少ない投資で実現できる。また、車両5から情報を集めて待ち時間を算出するので、算出の精度が向上する。
 また、車両5から、ネットワーク3を介して情報処理サーバ10に画像データ等の情報を集めて画像解析し、待ち時間を算出して、記憶部12の待ち時間データベース12bに記憶するので、実際に駐車場に並んでいない車両に対して、予測待ち時間の情報提供ができる。
 また、記憶部12の待ち時間データベース12bには、様々の駐車場の予測待ち時間の情報が記憶されているので、予め一番待ち時間の少ない駐車場が判断でき、ユーザは無駄な時間を費やすことがなく、駐車場の選択ができる。
 また、過去の待ち時間データを単に利用している場合には、天候、ガソリン価格などの様々な条件によって誤差が生じることが考えられるが、入庫待ち行列の脇を通過する車両5から、ネットワーク3を介して情報処理サーバ10に画像データ等の情報を随時集めているので、予測待ち時間の値が天候や時間帯等に左右されにくく高精度になる。また、ステップS24で、更新時刻が現在時刻より所定の時間内に限っているので、比較的新しい情報提供が可能なため、予測待ち時間の値が天候や時間帯等に左右されにくく高精度になる。
 また、記憶部12の待ち時間データベース12b(予測待ち時間記憶手段の一例)を参照して、第1移動体が並ぶ場所付近における過去の予測待ち時間を読み出し、当該読み出した過去の予測待ち時間に基づき、行列の長さと2つの画像データの撮像時間と移動距離とから、行列の予測待ち時間を算出する場合、過去の予測待ち時間と現在算出した予測待ち時間の変動の傾向が分かるので、この変動の傾向に基づき予測待ち時間を修正させることにより、予測待ち時間の精度が向上する。例えば、ステップS17のように、待ち時間の変化量の傾向に応じて、予測待ち時間を修正することできるので、予測待ち時間の精度が向上する。
 また、並んでいる各第1移動体の移動距離に基づき、並んでいる第1移動体の移動距離を算出する場合、並んでいる各第1移動体が移動することで、各第1移動体の間隔(例えば、車間間隔)が変わっても、各移動距離の平均値等から行列全体の移動距離を正確に算出でき、予測待ち時間の精度が向上する。
 また、撮像方向に基づき、第1移動体の行列の長さおよび第1移動体の移動距離を算出する場合、行列を斜め方向から撮像すると、画像データ上では、行列の長さ等が短くなるが、撮像方向に基づき、実際の長さを算出できるので、行列の長さおよび第1移動体の移動距離を正確に算出でき、予測待ち時間の精度が向上する。
 なお、図13に示すように、第1移動体の一例として駐車場に並んでいる車両6からの画像データを取得し、これらの画像データからも車両6自体の移動距離を算出し、この算出された移動距離に基づき、行列の予測待ち時間を算出してもよい。
 例えば、ステップS1において、車載情報処理装置20は、駐車場に並んでいる車両6からの画像データも取得する。車載情報処理装置20は、ステップS2において、現在位置データを取得して、車両6は駐車場沿いの道路にいて、ほとんど停止しているので、ステップS4およびステップS5の代わりに、駐車場に並んでいると判定する。そして、車載情報処理装置20は、ステップS6において、現在時刻を取得し、ステップS7において、車載情報処理装置20は、駐車場に並んでいる車両6からの画像データと画像関連情報を情報処理サーバ10へ送信する。
 次に、ステップS10において、情報処理サーバ10は、画像データ等を受信し、受信した画像データを、画像関連情報に関連付けて、記憶部12の画像データベース12aに記憶する。ステップS12において、情報処理サーバ10は、記憶部12の画像データベース12aを参照して、同じ車両IDを有し、取得した画像データの撮像時刻から所定時間以上、所定時間以内の画像データを検索する。
 次に、情報処理サーバ10の画像解析部13が、取得した画像データと探索した画像データとから、画像解析を行い、車両6自体の移動距離を算出する。例えば、画像解析部13が、駐車場に並んでいる車両6からの撮像時間の異なる複数の画像データに基づいて、画像データに撮像されている風景の中の駐車場の印等のある対象物のズレから車両6自体の移動距離を算出して記憶部12に記憶する。または、画像解析部13が、車両6からの画像データと、車両6が並んでいる行列を車両5から撮像した画像データとから、テップS13のように、例えば、行列中の特定の車両を特定して移動距離を算出して記憶部12に記憶する。そして、情報処理サーバ10は、式(1)に従い、時間当たりの移動距離を算出し、記憶部12に記憶する。
 そして、情報処理サーバ10は、この算出した車両6自体の移動距離や時間当たりの移動距離を、走行している車両5から画像データが送信され、予測待ち時間を算出する際に、利用する。例えば、情報処理サーバ10は、駐車場に並んでいる車両6からの画像データに基づき算出した時間当たりの移動距離と、走行している車両5からの画像データに基づき算出した時間当たりの移動距離とを、撮像時間に応じて平均したりして、時間当たりの移動距離を算出する。
 このように、第1移動体が並ぶ場所に並んでいる第1移動体(車両6)からの画像データを取得し、これらの画像データからも移動距離を算出し、この算出された移動距離に基づき、行列の予測待ち時間を算出する場合、画像を検出する機会が増え、予測待ち時間を算出する際の精度が向上する。
 なお、情報処理端末の一例としての車載情報処理装置20が、情報処理サーバ10のステップS10~ステップS17の処理を行ってもよい。駐車場付近を通過する車両同士の車間通信によって実現する。例えば、ステップS12において、他の車両の車載情報処理装置20から、同じ駐車場周辺で撮像時間が異なる画像データ等を取得し、画像解析を行い、予測待ち時間を算出する。予測待ち時間の出力を要求する場合、予測待ち時間を持っている車両の車載情報処理装置20に要求して、予測待ち時間を取得する。この場合、例えば、画像検出部23が、行列長算出手段、移動距離算出手段の一例として機能し、記憶部27が、予測待ち時間記憶手段の一例として機能し、制御部29が、予測待ち時間算出手段の一例として機能する。なお、情報処理サーバ10の通信部11のように、通信部21が、画像データ取得手段、画像関連情報取得手段、および、予測待ち時間出力手段として機能してもよい。
 車載情報処理装置20の機能は、カーナビゲーション装置に持たせてもよい。また、車載情報処理装置の代わりに、カメラやGPSセンサを有し、ネットワーク3を介して情報処理サーバ10に接続できる携帯型無線電話機やPDA等の携帯端末でもよい。
 第1または第2移動体が人間の場合、携帯端末で人間が並んでいる店等を撮像し、画像データ等を情報処理サーバ10に送信する。また、ある店の待ち時間を知りたい場合、携帯端末が、情報処理サーバ10に要求して、予測待ち時間を取得して表示させる。
 1:情報処理システム
 1a:画像データ取得手段
 1b:画像関連情報取得手段
 1c:行列長算出手段
 1d:移動距離算出手段
 1e:予測待ち時間算出手段
 1f:予測待ち時間出力手段
 3:ネットワーク
 5:車両(第2移動体)
 6:車両(第1移動体)
 10:情報処理サーバ10(情報処理装置)
 11:通信部(画像データ取得手段、画像関連情報取得手段、予測待ち時間出力手段)
 12:記憶部(予測待ち時間記憶手段)
 13:画像解析部(行列長算出手段、移動距離算出手段)
 14:時間算出部(予測待ち時間算出手段)
 16:解析結果出力部(予測待ち時間出力手段)
 20:車載情報処理装置(情報処理装置、情報処理端末)
 21:通信部(画像データ取得手段、画像関連情報取得手段、予測待ち時間出力手段)
 22:撮像部(画像データ取得手段)
 23:画像検出部(行列長算出手段、移動距離算出手段)
 24:現在地取得部(画像関連情報取得手段)
 25:時刻取得部(画像関連情報取得手段)
 26:解析結果出力部(予測待ち時間出力手段)
 27:記憶部(予測待ち時間記憶手段)
 28:駐車場検索部(画像関連情報取得手段)
 29:制御部(予測待ち時間算出手段)

Claims (10)

  1.  第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを取得する画像データ取得手段と、
     前記画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得する画像関連情報取得手段と、
     前記並んでいる第1移動体の行列の長さを、前記画像データから算出する行列長算出手段と、
     前記撮像場所の情報に基づき、前記撮像時間が異なる2つの前記画像データから、前記並んでいる第1移動体の移動距離を算出する移動距離算出手段と、
     前記行列の長さと前記2つの画像データの撮像時間と前記移動距離とから、前記行列の予測待ち時間を算出する予測待ち時間算出手段と、
     前記予測待ち時間を出力する予測待ち時間出力手段と、
     を備えたことを特徴とする情報処理システム。
  2.  請求項1に記載の情報処理システムにおいて、
     前記予測待ち時間算出手段により算出された予測待ち時間を記憶する予測待ち時間記憶手段を更に備え、
     前記予測待ち時間算出手段が、前記予測待ち時間記憶手段を参照して、前記第1移動体が並ぶ場所における過去の予測待ち時間を読み出し、当該読み出した過去の予測待ち時間に基づき、前記行列の長さと前記2つの画像データの撮像時間と前記移動距離とから、前記行列の予測待ち時間を算出することを特徴とする情報処理システム。
  3.  請求項1に記載の情報処理システムにおいて、
     前記移動距離算出手段が、前記並んでいる各第1移動体の移動距離に基づき、前記並んでいる第1移動体の移動距離を算出することを特徴とする情報処理システム。
  4.  請求項1に記載の情報処理システムにおいて、
     前記画像データ取得手段が、前記第1移動体が並ぶ場所に並んでいる第1移動体からの画像データを取得し、
     前記移動距離算出手段が、当該画像データからも移動距離を算出し、
     前記予測待ち時間算出手段が、当該算出された移動距離に基づき、前記行列の予測待ち時間を算出することを特徴とする情報処理システム。
  5.  請求項1から請求項4のいずれか1項に記載の情報処理システムにおいて、
     前記画像関連情報取得手段が、前記画像関連情報として撮像方向に関する情報を取得し、
     前記行列長算出手段が、前記撮像方向に基づき、前記第1移動体の行列の長さを算出し、
     前記移動距離算出手段が、前記撮像方向に基づき、前記第1移動体の移動距離を算出することを特徴とする情報処理システム。
  6.  情報処理する情報処理システムの情報処理方法において、
     第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを取得する画像データ取得ステップと、
     前記画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得する画像関連情報取得ステップと、
     前記並んでいる第1移動体の行列の長さを、前記画像データから算出する行列長算出ステップと、
     前記撮像場所の情報に基づき、前記撮像時間が異なる2つの前記画像データから、前記並んでいる第1移動体の移動距離を算出する移動距離算出ステップと、
     前記行列の長さと前記2つの画像データの撮像時間と前記移動距離とから、前記行列の予測待ち時間を算出する予測待ち時間算出ステップと、
     前記予測待ち時間を出力する予測待ち時間出力ステップと、
     を含むことを特徴とする情報処理方法。
  7.  請求項1から請求項5のいずれか1項に記載の情報処理システムに含まれ、ネットワークを介して接続された情報処理端末と共に使用される情報処理装置であって、
     前記画像データ取得手段と、
     前記行列長算出手段と、
     前記移動距離算出手段と、
     前記予測待ち時間算出手段と、
     前記予測待ち時間出力手段と、
     を備え、
     当該画像データ取得手段が、前記画像データを前記情報処理端末から取得し、
     当該画像関連情報取得手段が、前記画像関連情報を前記情報処理端末から取得し、
     当該予測待ち時間出力手段が、前記予測待ち時間を前記端末装置に送信することを特徴とする情報処理装置。
  8.  請求項7に記載の情報処理装置と共に使用される情報処理端末であって、
     前記画像データと前記画画像関連情報とを前記情報処理装置に送信し、
     前記予測待ち時間を前記情報処理装置から受信することを特徴とする情報処理端末。
  9.  コンピュータを、
     第1移動体が並ぶ場所において当該並んでいる第1移動体を第2移動体から撮像した画像データを取得する画像データ取得手段、
     前記画像データの撮像時間および撮像場所に関する情報を含む画像関連情報を取得する画像関連情報取得手段、
     前記並んでいる第1移動体の行列の長さを、前記画像データから算出する行列長算出手段、
     前記撮像場所の情報に基づき、前記撮像時間が異なる2つの前記画像データから、前記並んでいる第1移動体の移動距離を算出する移動距離算出手段、
     前記行列の長さと前記2つの画像データの撮像時間と前記移動距離とから、前記行列の予測待ち時間を算出する予測待ち時間算出手段、および、
     前記予測待ち時間を出力する予測待ち時間出力手段として機能させることを特徴とする情報処理用のプログラム。
  10.  請求項9に記載の情報処理用プログラムが前記コンピュータにより読取可能に記録されていることを特徴とする記録媒体。
PCT/JP2012/053095 2012-02-10 2012-02-10 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体 WO2013118288A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2012/053095 WO2013118288A1 (ja) 2012-02-10 2012-02-10 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体
JP2013557327A JP5932850B2 (ja) 2012-02-10 2012-02-10 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/053095 WO2013118288A1 (ja) 2012-02-10 2012-02-10 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体

Publications (1)

Publication Number Publication Date
WO2013118288A1 true WO2013118288A1 (ja) 2013-08-15

Family

ID=48947090

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/053095 WO2013118288A1 (ja) 2012-02-10 2012-02-10 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体

Country Status (2)

Country Link
JP (1) JP5932850B2 (ja)
WO (1) WO2013118288A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824474A (zh) * 2014-03-25 2014-05-28 宁波市江东元典知识产权服务有限公司 基于图像识别技术的车位提示系统
JP2015210819A (ja) * 2014-04-25 2015-11-24 ゼロックス コーポレイションXerox Corporation 車両の列ならびに歩行者の列におけるドライブでの立ち去りおよび歩行での立ち去りについてビデオベースで検出するためのシステムおよび方法
CN105632230A (zh) * 2014-12-01 2016-06-01 财团法人资讯工业策进会 动态分配停车场方法和装置
CN106448244A (zh) * 2016-08-31 2017-02-22 广州地理研究所 路侧车位停车预约管理方法和系统
JPWO2015190473A1 (ja) * 2014-06-12 2017-04-20 本田技研工業株式会社 撮像画像交換システム、撮像装置、および撮像画像交換方法
JP2018081052A (ja) * 2016-11-18 2018-05-24 クラリオン株式会社 車載装置、及び情報処理システム
JP2020071660A (ja) * 2018-10-31 2020-05-07 トヨタ自動車株式会社 情報配信方法、情報配信装置、及び情報配信プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904677B2 (ja) 2016-08-30 2021-07-21 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10154299A (ja) * 1996-09-30 1998-06-09 Hitachi Ltd 駐車待ち時間案内システム
JP2004227117A (ja) * 2003-01-21 2004-08-12 Mitsubishi Heavy Ind Ltd 駐車待ち時間案内装置
JP2005339094A (ja) * 2004-05-26 2005-12-08 Matsushita Electric Ind Co Ltd 入場情報提供装置及び入場情報利用端末装置
JP2006031421A (ja) * 2004-07-16 2006-02-02 Matsushita Electric Ind Co Ltd 情報収集装置及び情報収集方法
JP2011198222A (ja) * 2010-03-23 2011-10-06 Nec Corp 駐車場案内システム、駐車場案内方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10154299A (ja) * 1996-09-30 1998-06-09 Hitachi Ltd 駐車待ち時間案内システム
JP2004227117A (ja) * 2003-01-21 2004-08-12 Mitsubishi Heavy Ind Ltd 駐車待ち時間案内装置
JP2005339094A (ja) * 2004-05-26 2005-12-08 Matsushita Electric Ind Co Ltd 入場情報提供装置及び入場情報利用端末装置
JP2006031421A (ja) * 2004-07-16 2006-02-02 Matsushita Electric Ind Co Ltd 情報収集装置及び情報収集方法
JP2011198222A (ja) * 2010-03-23 2011-10-06 Nec Corp 駐車場案内システム、駐車場案内方法及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824474A (zh) * 2014-03-25 2014-05-28 宁波市江东元典知识产权服务有限公司 基于图像识别技术的车位提示系统
CN103824474B (zh) * 2014-03-25 2015-08-19 宁波市江东元典知识产权服务有限公司 基于图像识别技术的车位提示系统
JP2015210819A (ja) * 2014-04-25 2015-11-24 ゼロックス コーポレイションXerox Corporation 車両の列ならびに歩行者の列におけるドライブでの立ち去りおよび歩行での立ち去りについてビデオベースで検出するためのシステムおよび方法
JPWO2015190473A1 (ja) * 2014-06-12 2017-04-20 本田技研工業株式会社 撮像画像交換システム、撮像装置、および撮像画像交換方法
US10306188B2 (en) 2014-06-12 2019-05-28 Honda Motor Co., Ltd. Photographic image exchange system, imaging device, and photographic image exchange method
CN105632230A (zh) * 2014-12-01 2016-06-01 财团法人资讯工业策进会 动态分配停车场方法和装置
CN106448244A (zh) * 2016-08-31 2017-02-22 广州地理研究所 路侧车位停车预约管理方法和系统
JP2018081052A (ja) * 2016-11-18 2018-05-24 クラリオン株式会社 車載装置、及び情報処理システム
JP2020071660A (ja) * 2018-10-31 2020-05-07 トヨタ自動車株式会社 情報配信方法、情報配信装置、及び情報配信プログラム

Also Published As

Publication number Publication date
JPWO2013118288A1 (ja) 2015-05-11
JP5932850B2 (ja) 2016-06-08

Similar Documents

Publication Publication Date Title
WO2013118288A1 (ja) 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体
JP4736979B2 (ja) 車載装置、交通情報取得方法、交通情報提供システム及び交通情報提供方法
TWI694420B (zh) 使用運輸工具軌跡資料的自我調整交通控制之系統和方法
US10445601B2 (en) Automotive vehicle navigation using low power radios
CN110738749B (zh) 车载装置、信息处理装置、信息处理方法
JPWO2018142560A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
CN111443882A (zh) 信息处理装置、信息处理系统、以及信息处理方法
JP2012014255A (ja) 情報配信装置
CN110795979A (zh) 信息处理系统、存储程序的非暂时性存储介质和控制方法
CN111319560B (zh) 信息处理系统、程序和信息处理方法
US11113968B2 (en) Method for mobile parking assistance
JP2004252661A (ja) 駐車場システム
JP2006343800A (ja) 駐車場検索システム、サーバ、駐車場検索方法及びプログラム
WO2019171569A1 (ja) 情報処理装置、情報処理方法、情報処理用プログラム、及び記録媒体
JPWO2018230496A1 (ja) 地図更新装置、地図更新システム、地図更新方法、及びプログラム
JP2019158450A (ja) 情報処理装置、情報処理方法、情報処理用プログラム、及び記録媒体
JP7103201B2 (ja) 情報処理システム、プログラム、及び情報処理方法
CN110301133B (zh) 信息处理装置、信息处理方法和计算机可读记录介质
CN110462338B (zh) 车辆控制系统、服务器装置、车辆控制方法及存储介质
JP5473804B2 (ja) 情報配信装置
JP2000283785A (ja) カーナビゲーションシステムおよび方法
CN113496620A (zh) 收容区域管理装置
JP2021162956A (ja) 収容領域管理装置
WO2019117003A1 (ja) 安全確認評価システム、該安全確認評価システムに用いられる車載装置、処理装置、安全確認評価方法、安全確認評価プログラム、及び記憶媒体
KR101397664B1 (ko) 자동차 주행 상태 정보 제공 시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12868200

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013557327

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12868200

Country of ref document: EP

Kind code of ref document: A1