WO2022269946A1 - 処理装置、処理方法及びプログラム - Google Patents

処理装置、処理方法及びプログラム Download PDF

Info

Publication number
WO2022269946A1
WO2022269946A1 PCT/JP2021/044506 JP2021044506W WO2022269946A1 WO 2022269946 A1 WO2022269946 A1 WO 2022269946A1 JP 2021044506 W JP2021044506 W JP 2021044506W WO 2022269946 A1 WO2022269946 A1 WO 2022269946A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
wheels
image
road surface
contact
Prior art date
Application number
PCT/JP2021/044506
Other languages
English (en)
French (fr)
Inventor
晴之 林
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2022269946A1 publication Critical patent/WO2022269946A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Definitions

  • the present invention relates to a processing device, a processing method and a program.
  • Patent Document 1 analyzes the front, side and rear images of a vehicle to identify the license plate information of the vehicle, the size of the vehicle, the number of axles on the vehicle, whether the vehicle has a towing vehicle and a towed vehicle, etc. , and discloses a technology for discriminating the vehicle type classification based on the identification result.
  • a technology that recognizes various vehicle characteristics with a relatively simple system configuration is desired. For example, on toll roads, usage fees differ for each type of vehicle. If various characteristics of the vehicle can be recognized, the vehicle type can be specified based on the recognition results. Note that the use scene of the technology for recognizing various characteristics of a vehicle is not limited to this.
  • Patent Document 1 With a relatively simple system configuration including a camera, a computer, etc., the license plate information of the vehicle, the size of the vehicle, the number of axles of the vehicle, and whether the vehicle is a towing vehicle or a towed vehicle. It is possible to recognize characteristics of the vehicle such as whether it has However, these recognizable features alone may not be sufficient.
  • An object of the present invention is to provide a new technology for recognizing various characteristics of a vehicle.
  • an acquisition means for acquiring an image of the vehicle; analysis means for analyzing the image and specifying at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles;
  • a processing apparatus is provided having:
  • the computer an acquisition step of acquiring an image of the vehicle; an analysis step of analyzing the image and identifying at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles;
  • a processing method is provided for performing
  • the computer acquisition means for acquiring an image of the vehicle; and Analysis means for analyzing the image and specifying at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles;
  • a program is provided to act as a
  • FIG. 1 It is a figure which shows an example of the hardware constitutions of the processing apparatus of this embodiment. It is a figure which shows an example of the functional block diagram of the processing apparatus of this embodiment. It is a figure which shows typically an example of the front image which the processing apparatus of this embodiment processes. It is a figure which shows typically an example of the side image which the processing apparatus of this embodiment processes. It is a figure which shows typically an example of the back image which the processing apparatus of this embodiment processes. It is a figure which shows an example of the camera utilized by this embodiment. It is a figure which shows an example of the camera utilized by this embodiment. It is a figure for demonstrating the presence or absence of contact of a wheel and a road surface.
  • the processing device of this embodiment has a feature of analyzing an image of a vehicle and identifying at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles. According to such a processing device of the present embodiment, it is possible to recognize vehicle characteristics such as the presence or absence of contact between the wheels and the road surface and the distance between the axles with a relatively simple system configuration including a camera, a computer, and the like.
  • FIG. 1 is a diagram showing a hardware configuration example of a processing device.
  • Each functional unit provided in the processing device includes a CPU (Central Processing Unit) of any computer, a memory, a program loaded into the memory, a storage unit such as a hard disk that stores the program (stored in advance from the stage of shipping the device). It can also store programs downloaded from storage media such as CDs (Compact Discs) and servers on the Internet, etc.), and is realized by any combination of hardware and software centered on the interface for network connection. be.
  • a CPU Central Processing Unit
  • the processing device has a processor 1A, a memory 2A, an input/output interface 3A, a peripheral circuit 4A, and a bus 5A.
  • the peripheral circuit 4A includes various modules.
  • the processing device may not have the peripheral circuit 4A.
  • the processing device may be composed of a plurality of physically and/or logically separated devices, or may be composed of one device that is physically and logically integrated. When configured with a plurality of physically and/or logically separated devices, each of the plurality of devices can have the above hardware configuration.
  • the bus 5A is a data transmission path for mutually transmitting and receiving data between the processor 1A, the memory 2A, the peripheral circuit 4A and the input/output interface 3A.
  • the processor 1A is, for example, an arithmetic processing device such as a CPU or a GPU (Graphics Processing Unit).
  • the memory 2A is, for example, RAM (Random Access Memory) or ROM (Read Only Memory).
  • the input/output interface 3A includes an interface for acquiring information from an input device, an external device, an external server, an external sensor, or the like, an interface for outputting information to an output device, an external device, an external server, or the like.
  • the input device is, for example, a keyboard, mouse, microphone, or the like.
  • the output device is, for example, a display, speaker, printer, mailer, or the like.
  • the processor 1A can issue commands to each module and perform calculations based on the calculation results thereof.
  • FIG. 2 shows an example of a functional block diagram of the processing device 10. As shown in FIG. As illustrated, the processing device 10 has an acquisition unit 11 and an analysis unit 12 .
  • the acquisition unit 11 acquires an image of the vehicle. Acquisition unit 11 acquires a side image of the side of the vehicle. In addition, the acquisition unit 11 may acquire at least one of a front image obtained by photographing the front of the vehicle and a rear image obtained by photographing the rear of the vehicle.
  • a front image is an image that includes the front of the vehicle.
  • the front image may be an image obtained by photographing the vehicle from directly in front, or may be an image obtained by photographing the vehicle from obliquely in front.
  • FIG. 3 shows an example of the front image.
  • the illustrated front image is an image of the vehicle captured obliquely from the front.
  • a side image is an image that includes the side of the vehicle.
  • the side image may be an image captured from the side of the vehicle, or may be an image captured from the oblique front or oblique rear of the vehicle.
  • FIG. 4 shows an example of a side image.
  • the illustrated side image is an image of the vehicle taken almost from the side.
  • a rear image is an image that includes the rear of the vehicle.
  • the rear image may be an image photographed directly behind the vehicle or an image photographed obliquely behind the vehicle.
  • FIG. 5 shows an example of the rear image.
  • the illustrated rear image is an image of the vehicle taken obliquely from behind.
  • one or a plurality of cameras are installed at a position and orientation that captures a position through which a vehicle passes.
  • the installation position of the camera is not particularly limited, it is installed at a position through which the vehicle to be analyzed passes, such as the entrance gate or exit gate of the facility, or its surroundings.
  • the camera may shoot moving images continuously, or may shoot still images at the timing when a vehicle at a predetermined position is detected by a sensor or the like.
  • the acquisition unit 11 acquires the image captured by the camera.
  • the camera and processing device 10 are connected by wire and/or wirelessly. Then, the acquisition unit 11 acquires an image captured by the camera from the camera by any communication means.
  • the camera may be a super-wide-angle camera called a 180° camera, a fisheye lens camera, or the like. In this case, a single camera can capture all of the front, rear and side images of the vehicle.
  • FIG. 6 shows an image diagram when the ultra-wide-angle camera 2 is used. In this case, the number of cameras to be used is reduced and the system configuration becomes simple, which is preferable.
  • FIG. 7 shows an image diagram when cameras 3-1 to 3-3 having a field angle smaller than that of the ultra-wide-angle camera 2 are used.
  • Camera 3-1 captures a front image
  • camera 3-2 captures a side image
  • camera 3-3 captures a rear image.
  • the analysis unit 12 analyzes the image of the vehicle and identifies various characteristics of the vehicle.
  • the analysis unit 12 can analyze the side image and specify at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles. Processing for identifying each will be described below.
  • FIG. 8 shows an example of a side view of the vehicle with some wheels lifted. Wheels T 1 , T 2 and T 5 are in contact with the road surface. In contrast, wheels T3 and T4 are not in contact with the road surface.
  • the analysis unit 12 analyzes the side image as shown in FIG. 8 and identifies the presence or absence of contact between each of the plurality of wheels and the road surface.
  • An example of the image analysis method will be described below, but the analysis unit 12 may use other methods to achieve the identification.
  • the analysis unit 12 first detects a plurality of wheels T1 to T5 from within the image based on the feature amount of the appearance of the wheels. Next, the analysis unit 12 detects reference points of each of the plurality of detected wheels T1 to T5. In the illustrated example, the lowest point of each of the plurality of wheels T1 to T5 is detected as the reference point B1 to B5, but other points such as the center point of each of the plurality of wheels T1 to T5 may be detected as a reference point.
  • the analysis unit 12 identifies the presence or absence of contact between each of the plurality of wheels T1 to T5 and the road surface based on the detected positional relationship of the plurality of reference points B1 to B5.
  • the analysis unit 12 calculates the plurality of wheels T1 to T5 are in contact with the road surface.
  • the analysis unit 12 analyzes the plurality of wheels T1 to Specify that part of T5 is in contact with the road surface and another part is not in contact with the road surface.
  • the analysis unit 12 further analyzes the image to determine whether the wheels in contact with the road surface and each wheel that is out of contact with the road surface can be identified.
  • the analysis unit 12 identifies a straight line representing the road surface from among a plurality of straight lines passing through at least two of the plurality of reference points B1 to B5.
  • the straight line L passing through the reference points B1 , B2 and B5 is the straight line representing the road surface.
  • the analysis unit 12 specifies that the wheels T 1 , T 2 and T 5 corresponding to the reference points B 1 , B 2 and B 5 through which the straight line L representing the road surface is in contact with the road surface, Wheels T3 and T4 corresponding to reference points B3 and B4 through which the straight line L does not pass are identified as not in contact with the road surface.
  • the straight lines passing through at least two of the plurality of reference points B1 to B5 include straight lines passing through the reference points B1 and B3 in addition to the straight line L shown in FIG.
  • Straight line through B4 , straight line through reference points B2 and B3 , straight line through reference points B2 and B4 , straight line through reference points B3 and B5 , reference points B4 and B5 There are many straight lines that pass through
  • an example of processing for identifying a straight line representing a road surface from among such a plurality of straight lines will be described.
  • a line indicating the traveling direction of the vehicle and a straight line indicating the road surface are considered to be substantially parallel. Therefore, the analysis unit 12 selects straight lines that are substantially parallel to the line indicating the traveling direction of the vehicle, among a plurality of straight lines that pass through at least two of the plurality of reference points B1 to B5, as road surfaces. may be specified as a straight line representing Note that if there are a plurality of substantially parallel lines, the lowest straight line on the image may be used.
  • the direction of travel of the vehicle can be identified, for example, based on multiple images in chronological order.
  • the vehicle captured in the image captured at time t0 and the vehicle captured in the image captured at time t1 are superimposed and displayed. That is, the images appearing in the two images are collectively displayed as one image. Some of the vehicles in the image taken at time t1 are omitted. Since the camera location, orientation, and other settings are fixed, the position of the vehicle in the image changes as the vehicle moves, as shown. Therefore, in this example, the coordinates of the feature point extracted from the vehicle captured in the image captured at the timing t0 and the coordinates of the same feature point extracted from the vehicle captured in the image captured at the timing t1. is specified as the traveling direction of the vehicle.
  • the arrows indicate the coordinates of the feature points extracted from the vehicle in the image taken at time t0 and the coordinates of the same feature points extracted from the vehicle in the image taken at time t1. shows the direction connecting
  • a straight line representing the road surface does not cross the area on the image where the vehicle is shown even if it contacts the wheels on the image.
  • a straight line representing the road surface may be identified from among a plurality of straight lines passing through at least two of the plurality of reference points B1 to B5.
  • area N is the area on the image in which the vehicle is shown.
  • straight line M passing through reference points B4 and B5 passes through area N. That is, the straight line M crosses the area N.
  • Such a straight line M is not a straight line representing the road surface.
  • a thermal camera is used to photograph the vehicle. It is preferable to install the thermal camera so as to photograph the vehicle from the same angle as the camera for photographing the side image described above.
  • the acquisition unit 11 acquires an image (hereinafter referred to as a “thermal image”) captured by the thermal camera.
  • the analysis unit 12 analyzes this thermal image to identify the presence or absence of contact between the wheels and the road surface. Wheels that are in contact with the road surface tend to have a higher temperature than wheels that are not in contact with the road surface due to frictional heat generated by friction with the road surface. This temperature trend can be used to identify whether each wheel is in contact with the road surface.
  • the analysis unit 12 may group a plurality of wheels based on the temperature of each of the plurality of wheels. Group with similar temperatures. When one group is created, the analysis unit 12 identifies that all the wheels are in contact with the road surface. On the other hand, when two groups are created, the analysis unit 12 identifies that some wheels are not in contact with the road surface. In the latter case, the analysis unit 12 identifies that the wheels belonging to the group whose member temperature is relatively low are not in contact with the road surface, and the wheels belonging to the group whose member temperature is relatively high are in contact with the road surface. do. For example, the analysis unit 12 may identify a group with a higher member temperature statistical value as a group with a relatively higher member temperature. Examples of the statistical value include an average value, maximum value, minimum value, mode value, and median value, but are not limited to these.
  • grouping algorithm is not particularly limited.
  • the following algorithm may be adopted.
  • the analysis unit 12 assigns the first wheel, which is the first processing target, to the first group.
  • the analysis unit 12 determines the representative temperature of the first group.
  • the representative temperature may be the temperature of the first wheel that first became a member, the temperature statistics of the members belonging to the group at that time, or the like. good. Examples of the statistical value include an average value, maximum value, minimum value, mode value, and median value, but are not limited to these.
  • the analysis unit 12 calculates the difference between the temperature of the second wheel to be processed next and the representative temperature of the first group. If the difference is within a predetermined threshold, the second wheel belongs to the first group. On the other hand, if the difference is greater than a predetermined threshold, the second wheel belongs to the second group. The analysis unit 12 then calculates the representative temperature of the second group.
  • the analysis unit 12 can group a plurality of wheels by repeating the process, for example.
  • the analysis unit 12 specifies that wheels whose temperature is equal to or higher than a predetermined reference value are in contact with the road surface, and wheels whose temperature is less than the reference value are not in contact with the road surface. good too.
  • the analysis unit 12 may calculate the degree of temperature variation of a plurality of wheels. Then, when the degree of variation is equal to or greater than the reference level, the analysis unit 12 specifies that some wheels are not in contact with the road surface, and when the degree of variation is less than the reference level, all the wheels It may be specified that it is in contact with the road surface. Then, when it is specified that some of the wheels are not in contact with the road surface, the analysis unit 12 calculates a statistical value based on the temperatures of the plurality of wheels, and the wheels whose temperature is equal to or higher than the statistical value are in contact with the road surface. and a wheel whose temperature is less than the statistic may be identified as out of contact with the road surface.
  • the degree of variability can be expressed using any conventional technique, such as variance or standard deviation. A statistical value is exemplified by an average value and the like, but is not limited to this.
  • the analysis unit 12 first detects a plurality of wheels T1 to T5 from the image based on the feature amount of the appearance of the wheels. Next, the analysis unit 12 detects reference points of each of the plurality of detected wheels T1 to T5. In the illustrated example, the lowest point of each of the plurality of wheels T1 to T5 is detected as the reference point B1 to B5, but other points such as the center point of each of the plurality of wheels T1 to T5 may be detected as a reference point.
  • the analysis unit 12 calculates the distance between the axles based on the detected distances between the plurality of reference points B1 to B5.
  • the analysis unit 12 may calculate the distance between reference points of adjacent wheels as the distance between axles, or calculate the distance between the reference points of the frontmost wheel and the rearmost wheel as the distance between axles.
  • wheels T1 and T2 are adjacent wheels.
  • wheels T 2 and T 3 , wheels T 3 and T 4 , and wheels T 4 and T 5 are also adjacent wheels.
  • Wheels T1 and T5 are the frontmost and rearmost wheels.
  • the analysis unit 12 may use only the wheels that are in contact with the road surface as targets for the calculation of the inter-axle distance.
  • the analysis unit 12 may calculate the distance between the reference points of adjacent wheels among the wheels in contact with the road surface as the distance between the axles, or may calculate the distance between the axles of the wheels in contact with the road surface.
  • the distance between the reference points of the front wheel and the rearmost wheel may be calculated as the axle distance.
  • wheels T1 and T2 are the adjacent wheels in contact with the road surface.
  • wheels T2 and T5 are adjacent wheels among the wheels in contact with the road surface.
  • Wheels T1 and T5 are the frontmost and rearmost wheels in contact with the road surface.
  • Any technology can be used to convert the distance between the axles on the image to the actual scale.
  • the processing device 10 acquires an image of the vehicle.
  • the processing device 10 acquires a side image of the vehicle.
  • the processing device 10 may further acquire at least one of the front image and the rear image of the vehicle.
  • the processing device 10 is configured to be able to communicate with the camera, and obtains an image captured by the camera by any communication means.
  • the processing device 10 analyzes the image acquired in S10 and identifies at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles. Since one example of the analysis method has been described above, the description is omitted here.
  • the processing device 10 of the present embodiment it is possible to recognize vehicle characteristics such as the presence or absence of contact between the wheels and the road surface and the distance between the axles with a relatively simple system configuration including a camera, a computer, and the like. Further, according to the processing device 10 that identifies the characteristics of the vehicle by the above-described image analysis, for example, those characteristics can be identified with high precision.
  • the processing device 10 of the present embodiment differs from that of the first embodiment in that it can analyze images and further identify other characteristics of the vehicle.
  • the analysis unit 12 can further specify the number of axles where the wheels contact the road surface based on the result of specifying the presence or absence of contact between the wheels and the road surface.
  • the analysis unit 12 may count the number of wheels in contact with the road surface and identify the number as the number of axles with which the wheels contact the road surface. In the example of FIG. 8, the number of wheels in contact with the road surface is 3 (T 1 , T 2 and T 5 ). Therefore, the analysis unit 12 specifies 3 as the number of axles with which the wheels contact the road surface.
  • the analysis unit 12 analyzes at least one of the front image, rear image, and side image, and further identifies at least one of vehicle height, vehicle length, vehicle width, number of axles, and license plate information.
  • License plate information is information that can be acquired from a license plate attached to a vehicle.
  • the license plate information can indicate at least one of the location of a transportation branch office or automobile inspection and registration office, classification number, series designation number, use classification, plate background color, and plate character color. .
  • the means for identifying these features by image analysis is not particularly limited, and any technique can be adopted.
  • the analysis unit 12 can analyze the front image and identify at least one of vehicle height, vehicle width, and license plate information. Also, as shown in FIG. 11, the analysis unit 12 can analyze the side image and specify at least one of the vehicle height, vehicle length, number of axles, and distance between axles. Also, as shown in FIG. 12, the analysis unit 12 can analyze the rear image and specify at least one of the vehicle height, vehicle width, and license plate information.
  • processing device 10 of this embodiment the same effects as those of the processing device 10 of the first embodiment are realized. Further, according to the processing device 10 of the present embodiment, various characteristics of the vehicle can be identified with a relatively simple system configuration including a camera, a computer, and the like.
  • the processing device 10 of the present embodiment differs from the first and second embodiments in that it can identify the type of vehicle based on the analysis result of the analysis unit 12 .
  • FIG. 13 shows an example of a functional block diagram of the processing device 10 of this embodiment. As illustrated, the processing device 10 has an acquisition unit 11 , an analysis unit 12 , and a vehicle type identification unit 13 .
  • the vehicle type identification unit 13 identifies the vehicle type based on the analysis results of the analysis unit 12 .
  • the flow may follow a plurality of conditional branches to specify a predetermined vehicle type.
  • branching conditions include, but are not limited to, "What is the classification number of the license plate information?" and "How many axles are the wheels in contact with the road surface?"
  • a score may be calculated for each vehicle based on various characteristics specified by the analysis unit 12, and the vehicle type may be specified based on the score.
  • the feature amount of the appearance of each vehicle, the feature amount of vehicles in front of and behind each vehicle, and the like may be used as the feature amount of each vehicle to specify the same vehicle that is shown across a plurality of images.
  • the processing device 10 acquires an image of the vehicle.
  • the processing device 10 acquires at least one of a front image, a side image and a rear image of the vehicle.
  • the processing device 10 is configured to be able to communicate with the camera, and obtains an image captured by the camera by any communication means.
  • the processing device 10 analyzes the image acquired at S20 and identifies various characteristics of the vehicle. For example, the processing device 10 identifies at least one of the various characteristics of the vehicle described in the first and second embodiments.
  • the processing device 10 identifies the vehicle type based on the various characteristics of the vehicle identified at S21. Since the details of the processing have been described above, descriptions thereof are omitted here.
  • the same effects as those of the processing devices 10 of the first and second embodiments are achieved. Further, according to the processing device 10 of the present embodiment, it is possible to specify the type of vehicle with high accuracy with a relatively simple system configuration including a camera, a computer, and the like.
  • the processing device 10 of the present embodiment differs from the first to third embodiments in that it can determine the usage fee of the facility based on the vehicle type identification result by the vehicle type identification unit 13 .
  • FIG. 15 shows an example of a functional block diagram of the processing device 10 of this embodiment.
  • the processing device 10 has an acquisition unit 11 , an analysis unit 12 , a vehicle type identification unit 13 , and a charge determination unit 14 .
  • the fee determination unit 14 determines the usage fee for the facility based on the result of vehicle type identification by the vehicle type identification unit 13 . A usage fee is determined in advance for each vehicle type. The fee determination unit 14 determines the usage fee for each vehicle according to the definition. For example, the fee determination unit 14 may refer to a table showing usage fees for each vehicle type to achieve the determination, or may implement the determination by other means.
  • the facilities are exemplified by toll roads, parking lots, etc., but are not limited to these.
  • the processing device 10 acquires an image of the vehicle.
  • the processing device 10 acquires at least one of a front image, a side image and a rear image of the vehicle.
  • the processing device 10 is configured to be able to communicate with the camera, and obtains an image captured by the camera by any communication means.
  • the processing device 10 analyzes the image acquired at S30 and identifies various characteristics of the vehicle. For example, the processing device 30 identifies at least one of the various characteristics of the vehicle described in the first and second embodiments.
  • the processing device 10 identifies the vehicle type based on the various characteristics of the vehicle identified at S31. Since the details of this process have been described in the third embodiment, description thereof will be omitted here.
  • the processing device 10 determines the usage fee for the facility based on the vehicle type identified at S32. Since the details of the processing have been described above, descriptions thereof are omitted here.
  • payment request for the determined usage fee, settlement processing, etc. may be performed by any means.
  • credit card information may be registered in the processing device 10 in advance in association with the license plate information of the vehicle. Then, the processing device 10 may use the credit card information to perform settlement processing for the determined billed amount.
  • the billing address (user's name, address, e-mail address, etc.) may be registered in association with the license plate information of the vehicle. Then, a bill for payment of the determined billed amount may be sent to the user by mail, e-mail, or the like.
  • the same effects as those of the processing devices 10 of the first to third embodiments are achieved. Further, according to the processing device 10 of the present embodiment, it is possible to identify the vehicle type with high accuracy and determine the usage fee of the facility with a relatively simple system configuration including a camera, a computer, and the like.
  • acquisition means "acquisition of data stored in another device or storage medium by one's own device based on user input or program instructions (active acquisition)", for example, receiving by requesting or querying other devices, accessing and reading other devices or storage media, etc., and based on user input or program instructions, " Inputting data output from other devices to one's own device (passive acquisition), for example, receiving data distributed (or transmitted, push notification, etc.), and received data or information Select and acquire from among, and create new data by "editing data (converting to text, rearranging data, extracting some data, changing file format, etc.), and/or "obtaining data”.
  • an acquisition means for acquiring an image of the vehicle for acquiring an image of the vehicle
  • analysis means for analyzing the image and specifying at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles
  • a processing device having 2.
  • 3. The processing device according to 1 or 2, further comprising a vehicle type specifying means for specifying a vehicle type of the vehicle based on the result of the analysis. 4. 4.
  • the processing apparatus further comprising fee determination means for determining a fee for using the facility based on the result of identifying the vehicle type. 5.
  • the processing device wherein the facility is a toll road. 6.
  • the computer an acquisition step of acquiring an image of the vehicle; an analysis step of analyzing the image and identifying at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles; The processing method to perform. 7.
  • the computer further specifies the number of axles with which the wheels are in contact with the road surface based on the determination result of the presence or absence of contact between the wheels and the road surface in the analysis step. 8. 8.
  • the processing method according to 6 or 7, wherein the computer further executes a vehicle type identification step of identifying the vehicle type of the vehicle based on the result of the analysis.
  • the computer acquisition means for acquiring an image of the vehicle; and Analysis means for analyzing the image and specifying at least one of the presence or absence of contact between the wheels and the road surface and the distance between the axles; A program that acts as a 10.
  • the analysis means further specifies the number of axles with which the wheels contact the road surface based on the result of specifying the presence or absence of contact between the wheels and the road surface.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明は、車両の画像を取得する取得部(11)と、画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析部(12)と、を有する処理装置(10)を提供する。

Description

処理装置、処理方法及びプログラム
 本発明は、処理装置、処理方法及びプログラムに関する。
 本発明に関連する技術が、特許文献1に開示されている。特許文献1は、車両の前面映像、側面映像及び背面映像を解析し、車両のナンバープレート情報、車両のサイズ、車両の車軸の数、車両が牽引車と被牽引車とを有するか等を特定し、特定結果に基づき車両の車種区分を判別する技術を開示している。
特開2019-061506号
 車両の各種特徴を、比較的シンプルなシステム構成で認識する技術が望まれている。例えば、有料道路は、車種毎に利用料金が異なる。車両の各種特徴を認識できれば、その認識結果に基づき車種を特定することができる。なお、車両の各種特徴を認識する技術の利用場面はこれに限定されない。
 特許文献1に記載の技術によれば、カメラやコンピュータ等を含む比較的シンプルなシステム構成で、車両のナンバープレート情報、車両のサイズ、車両の車軸の数、車両が牽引車と被牽引車とを有するか等の車両の特徴を認識できる。しかし、認識できる特徴がこれらだけでは不十分な場合がある。
 本発明は、車両の各種特徴を認識する新たな技術を提供することを課題とする。
 本発明によれば、
 車両の画像を取得する取得手段と、
 前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析手段と、
を有する処理装置が提供される。
 また、本発明によれば、
 コンピュータが、
  車両の画像を取得する取得工程と、
  前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析工程と、
を実行する処理方法が提供される。
 また、本発明によれば、
 コンピュータを、
  車両の画像を取得する取得手段、及び、
 前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析手段、
として機能させるプログラムが提供される。
 本発明によれば、車両の各種特徴を認識する新たな技術が実現される。
本実施形態の処理装置のハードウエア構成の一例を示す図である。 本実施形態の処理装置の機能ブロック図の一例を示す図である。 本実施形態の処理装置が処理する前面画像の一例を模式的に示す図である。 本実施形態の処理装置が処理する側面画像の一例を模式的に示す図である。 本実施形態の処理装置が処理する背面画像の一例を模式的に示す図である。 本実施形態で利用するカメラの一例を示す図である。 本実施形態で利用するカメラの一例を示す図である。 車輪と路面の接触の有無を説明するための図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置が前面画像から特定する車両の特徴の一例を示す図である。 本実施形態の処理装置が側面画像から特定する車両の特徴の一例を示す図である。 本実施形態の処理装置が背面画像から特定する車両の特徴の一例を示す図である。 本実施形態の処理装置の機能ブロック図の一例を示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の機能ブロック図の一例を示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置が実行する処理の一例を説明するための図である。 本実施形態の処理装置が実行する処理の一例を説明するための図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
<第1の実施形態>
「概要」
 本実施形態の処理装置は、車両の画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定するという特徴を有する。このような本実施形態の処理装置によれば、カメラやコンピュータ等を含む比較的シンプルなシステム構成で、車輪と路面の接触の有無、および車軸間距離等の車両の特徴を認識できる。
「ハードウエア構成」
 次に、処理装置のハードウエア構成の一例を説明する。図1は、処理装置のハードウエア構成例を示す図である。処理装置が備える各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 図1に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置は、周辺回路4Aを有さなくてもよい。なお、処理装置は物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び論理的に一体となった1つの装置で構成されてもよい。物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
 バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
「機能構成」
 次に、処理装置の機能構成を説明する。図2に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、解析部12とを有する。
 取得部11は、車両の画像を取得する。取得部11は、車両の側面を撮影した側面画像を取得する。その他、取得部11は、車両の前面を撮影した前面画像及び車両の背面を撮影した背面画像の少なくとも一方を取得してもよい。
 前面画像は、車両の前面が含まれている画像である。前面画像は、車両を真正面から撮影した画像であってもよいし、車両を斜め前方から撮影した画像であってもよい。図3に、前面画像の一例を示す。図示する前面画像は、車両を斜め前方から撮影した画像である。
 側面画像は、車両の側面が含まれている画像である。側面画像は、車両を真横から撮影した画像であってもよいし、車両を斜め前方や斜め後方から撮影した画像であってもよい。図4に、側面画像の一例を示す。図示する側面画像は、車両をほぼ真横から撮影した画像である。
 背面画像は、車両の背面が含まれている画像である。背面画像は、車両を真後ろから撮撮影した画像であってもよいし、車両を斜め後方から撮影した画像であってもよい。図5に、背面画像の一例を示す。図示する背面画像は、車両を斜め後方から撮影した画像である。
 次に、取得部11が上述のような画像を取得する手段の一例を説明する。例えば、車両が通過する位置を撮影する位置及び向きで1台又は複数台のカメラが設置される。カメラの設置位置は特段制限されないが、施設の入場ゲートや退場ゲート、またその周辺等、解析対象の車両が通過する位置に設置される。カメラは動画像を継続的に撮影してよいし、センサなどで所定位置の車両を検出したタイミングで静止画像を撮影してもよい。
 そして、取得部11は、そのカメラが撮影した画像を取得する。カメラと処理装置10とは有線及び/又は無線で接続されている。そして、取得部11は、任意の通信手段で、カメラが撮影した画像をカメラから取得する。
 カメラは、180°カメラ、魚眼レンズカメラ等と呼ばれる超広角カメラであってもよい。この場合、1台のカメラで車両の前面画像、背面画像及び側面画像の全てを撮影することができる。図6に、超広角カメラ2を利用した場合のイメージ図を示す。この場合、使用するカメラの台数が減り、システム構成がシンプルになり好ましい。
 なお、上述した超広角カメラ2よりも画角が小さいカメラを利用することもできる。この場合、複数台のカメラ各々で、車両の前面画像、背面画像及び側面画像を撮影する。図7に、超広角カメラ2よりも画角が小さいカメラ3-1乃至3-3を利用した場合のイメージ図を示す。カメラ3-1が前面画像を撮影し、カメラ3-2が側面画像を撮影し、カメラ3-3が背面画像を撮影する。
 図2に戻り、解析部12は、車両の画像を解析し、車両の各種特徴を特定する。解析部12は、側面画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定することができる。以下、各々を特定する処理について説明する。
-車輪と路面の接触の有無の特定方法-
 車輪が路面に接触している車軸の数に応じて、分類される車種が異なる場合がある。例えば、日本の有料道路の利用料金決定の場面において、ある一定の条件を満たした車両のうち、車輪が路面に接触している車軸の数が4以上を満たす車両は「特大車」に分類され、同数が4未満を満たす車両は「大型車」に分類されたりする。このような理由から、その時の積載量等に応じて、一部の車輪を浮かせて路面と非接触にさせることが広く行われている。一般的には、積載量が小さいときに一部の車輪を浮かせて路面と非接触にし、積載量が大きいときに全ての車輪を路面と接触させる。例えばこのような理由から、単に車軸の数を特定するだけでなく、車輪が路面と接触する車軸の数を特定することが必要な場合がある。そして、それを実現するため、車輪と路面との接触の有無を特定することが望まれている。
 図8に、一部の車輪を浮かせた状態の車両の側面図の一例示す。車輪T、T及びTは、路面に接触している。これに対し、車輪T及びTは、路面に接触していない。
 解析部12は、図8に示すような側面画像を解析し、複数の車輪各々と路面の接触の有無を特定する。以下、画像解析の手法の一例を説明するが、解析部12は、その他の手法を利用して当該特定を実現してもよい。
・第1の例
 当該例では、解析部12は、まず、車輪の外観の特徴量に基づき、画像内から複数の車輪T乃至Tを検出する。次に、解析部12は、検出した複数の車輪T乃至T各々の基準点を検出する。図示する例では、複数の車輪T乃至T各々の最下点が基準点B乃至Bとして検出されているが、複数の車輪T乃至T各々の中心点等のその他の点が基準点として検出されてもよい。
 そして、解析部12は、検出した複数の基準点B乃至Bの位置関係に基づき、複数の車輪T乃至T各々と路面の接触の有無を特定する。
 複数の基準点B乃至Bが一直線上に並んでいる場合、すなわちすべての基準点B乃至Bを通過する直線が存在する場合、解析部12は、複数の車輪T乃至Tの全てが路面と接触していると特定する。
 一方、複数の基準点B乃至Bが一直線上に並んでいない場合、すなわちすべての基準点B乃至Bを通過する直線が存在しない場合、解析部12は、複数の車輪T乃至Tの中の一部が路面と接触し、他の一部が路面と非接触であると特定する。
 複数の車輪T乃至Tの中の一部が路面と接触し、他の一部が路面と非接触である場合、解析部12は、さらに画像を解析し、路面と接触している車輪及び路面と非接触である車輪各々を特定することができる。
 例えば、解析部12は、複数の基準点B乃至Bの中の少なくとも2つを通過する複数の直線の中から、路面を表す直線を特定する。図8の例の場合、基準点B、B及びBを通過する直線Lが路面を表す直線である。そして、解析部12は、路面を表す直線Lが通過する基準点B、B及びBに対応する車輪T、T及びTは路面と接触していると特定し、路面を表す直線Lが通過しない基準点B及びBに対応する車輪T及びTは路面と接触していないと特定する。
 なお、複数の基準点B乃至Bの中の少なくとも2つを通過する直線としては、図8に示す直線Lの他、基準点B及びBを通過する直線、基準点B及びBを通過する直線、基準点B及びBを通過する直線、基準点B及びBを通過する直線、基準点B及びBを通過する直線、基準点B及びBを通過する直線等、多数存在する。ここで、このような複数の直線の中から、路面を表す直線を特定する処理の一例を説明する。
 例えば、車両の進行方向を示す線と、路面を表す直線とは略平行になると考えられる。そこで、解析部12は、複数の基準点B乃至Bの中の少なくとも2つを通過する複数の直線の中の、車両の進行方向を示す線と略平行になっている直線を、路面を表す直線として特定してもよい。なお、略平行となる線が複数存在する場合、画像上で一番下に位置する直線を採用してもよい。
 車両の進行方向は、例えば時系列な複数の画像に基づき特定できる。図18は、時刻t0のタイミングで撮影された画像に写る車両と、時刻t1のタイミングで撮影された画像に写る車両とを重ねて表示している。すなわち2つの画像に写る画像を1つの画像にまとめて表示している。なお、時刻t1のタイミングで撮影された画像に写る車両は一部を省略している。カメラの設置位置、向き、その他の設定は固定されているので、図示するように、画像内の車両の位置は車両の移動に伴い変化する。そこで、当該例では、時刻t0のタイミングで撮影された画像に写る車両から抽出された特徴点の座標と、時刻t1のタイミングで撮影された画像に写る車両から抽出された同じ特徴点の座標とを結ぶ方向を、車両の進行方向として特定する。図中、矢印で、時刻t0のタイミングで撮影された画像に写る車両から抽出された特徴点の座標と、時刻t1のタイミングで撮影された画像に写る車両から抽出された同じ特徴点の座標とを結ぶ方向を示している。
 その他、路面を表す直線は、画像上において、車輪と接触することがあっても、車両が写っている画像上のエリアを横切ることはない。このような条件を利用して、複数の基準点B乃至Bの中の少なくとも2つを通過する複数の直線の中から路面を表す直線を特定してもよい。図17の例の場合、エリアNが、車両が写っている画像上のエリアである。例えば基準点B4及びB5を通過する直線Mは、エリアNの内部を通過している。すなわち、直線MはエリアNを横切っている。このような直線Mは、路面を表す直線でない。
・第2の例
 当該例では、さらにサーマルカメラを用いて車両を撮影する。上述した側面画像を撮影するカメラと同様の角度から車両を撮影するようにサーマルカメラを設置することが好ましい。取得部11は、当該サーマルカメラが撮影した画像(以下、「熱画像」という))を取得する。そして、解析部12は、この熱画像を解析して、車輪と路面の接触の有無を特定する。路面と接触している車輪は、路面との摩擦で生じる摩擦熱により、路面と非接触の車輪よりも温度が高くなる傾向がある。この温度の傾向を利用して、各車輪が路面と接触しているか否かを特定することができる。
 例えば、解析部12は、複数の車輪各々の温度に基づき、複数の車輪をグループ分けしてもよい。温度の近いもの同士でグループ分けする。そして、作成されたグループが1つの場合、解析部12は、全ての車輪が路面に接触していると特定する。一方、作成されたグループが2つの場合、解析部12は、一部の車輪が路面に非接触であると特定する。後者の場合、解析部12は、メンバーの温度が相対的に低いグループに属する車輪が路面に非接触であり、メンバーの温度が相対的に高いグループに属する車輪が路面に接触していると特定する。例えば、解析部12は、メンバーの温度の統計値が高い方のグループを、メンバーの温度が相対的に高いグループとして特定してもよい。当該統計値としては、平均値、最大値、最小値、最頻値、中央値等が例示されるが、これらに限定されない。
 なお、グループ分けのアルゴリズムは特段制限されない。例えば、以下のようなアルゴリズムを採用してもよい。
 まず、解析部12は、最初の処理対象である第1の車輪を第1のグループに属させる。そして、解析部12は、第1のグループの代表温度を決定する。代表温度は、最初にメンバーになった第1の車輪の温度であってもよいし、その時点でそのグループに属しているメンバーの温度の統計値であってもよいし、その他であってもよい。当該統計値としては、平均値、最大値、最小値、最頻値、中央値等が例示されるが、これらに限定されない。次に、解析部12は、次の処理対象である第2の車輪の温度と第1のグループの代表温度の差を算出する。その差が予め定められた閾値以内である場合、第2の車輪を第1のグループに属させる。一方、その差が予め定められた閾値より大きい場合、第2の車輪を第2のグループに属させる。そして、解析部12は、第2のグループの代表温度を算出する。解析部12は、例えば当該処理を繰り返して複数の車輪をグループ化することができる。
 その他の例として、解析部12は、温度が予め定められた基準値以上である車輪は路面と接触しており、温度が当該基準値未満である車輪は路面と非接触であると特定してもよい。
 その他の例として、解析部12は、複数の車輪の温度のばらつきの程度を算出してもよい。そして、解析部12は、当該ばらつきの程度が基準レベル以上である場合、一部の車輪が路面と非接触であると特定し、当該ばらつきの程度が基準レベル未満である場合、全ての車輪が路面と接触していると特定してもよい。そして、一部の車輪が路面と非接触であると特定した場合、解析部12は、複数の車輪の温度に基づき統計値を算出し、温度が当該統計値以上である車輪は路面と接触しており、温度が当該統計値未満である車輪は路面と非接触であると特定してもよい。ばらつきの程度は、分散や標準偏差等、従来のあらゆる技術を用いて表すことができる。統計値は、平均値等が例示されるが、これに限定されない。
-車軸間距離の特定方法-
 解析部12は、まず、車輪の外観の特徴量に基づき、画像内から複数の車輪T乃至Tを検出する。次に、解析部12は、検出した複数の車輪T乃至T各々の基準点を検出する。図示する例では、複数の車輪T乃至T各々の最下点が基準点B乃至Bとして検出されているが、複数の車輪T乃至T各々の中心点等のその他の点が基準点として検出されてもよい。
 そして、解析部12は、検出した複数の基準点B乃至B間の距離に基づき、車軸間距離を算出する。解析部12は、隣接する車輪の基準点間の距離を車軸間距離として算出してもよいし、一番前の車輪と一番後ろの車輪の基準点間の距離を車軸間距離として算出してもよい。図8の例の場合、車輪TとTが隣接する車輪となる。その他、車輪TとT、車輪TとT、及び車輪TとTも隣接する車輪となる。そして、車輪TとTが一番前の車輪と一番後ろの車輪となる。また、解析部12は、路面に接触している車輪のみを、この車軸間距離算出の対象としてもよい。すなわち、解析部12は、路面に接触している車輪の中の隣接する車輪の基準点間の距離を車軸間距離として算出してもよいし、路面に接触している車輪の中の一番前の車輪と一番後ろの車輪の基準点間の距離を車軸間距離として算出してもよい。図8の例の場合、車輪TとTが、路面に接触している車輪の中の隣接する車輪となる。また、車輪TとTが、路面に接触している車輪の中の隣接する車輪となる。そして、車輪TとTが、路面に接触している車輪の中の一番前の車輪と一番後ろの車輪となる。
 なお、画像上の車軸間距離を実際のスケールに変換する処理は、あらゆる技術を利用して実現することができる。
 次に、図9のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
 S10では、処理装置10は、車両の画像を取得する。処理装置10は、車両の側面画像を取得する。なお、処理装置10は、さらに車両の前面画像及び背面画像の少なくとも一方を取得してもよい。処理装置10は、カメラと通信可能に構成されており、カメラが撮影した画像を任意の通信手段で取得する。
 S20では、処理装置10は、S10で取得した画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する。解析手法の一例は上述したので、ここでの説明は省略する。
「作用効果」
 本実施形態の処理装置10によれば、カメラやコンピュータ等を含む比較的シンプルなシステム構成で、車輪と路面の接触の有無、および車軸間距離等の車両の特徴を認識できる。また、例えば上述した画像解析で上記車両の特徴を特定する処理装置10によれば、高精度にそれらの特徴を特定することができる。
<第2の実施形態>
 本実施形態の処理装置10は、画像を解析し、さらにその他の車両の特徴を特定することができる点で、第1の実施形態と異なる。
 解析部12は、車輪と路面の接触の有無の特定結果に基づき、車輪が路面と接触する車軸の数をさらに特定することができる。解析部12は、路面と接触する車輪の数をカウントし、その数を、車輪が路面と接触する車軸の数として特定してもよい。図8の例の場合、路面と接触する車輪の数は3(T、T及びT)である。このため、解析部12は、車輪が路面と接触する車軸の数として3を特定する。
 その他、解析部12は、前面画像、背面画像及び側面画像の中の少なくとも1つを解析し、車高、車長、車幅、車軸の数及びナンバープレート情報の中の少なくとも1つをさらに特定してもよい。ナンバープレート情報は、車両に付されるナンバープレートから取得可能な情報である。例えば、ナンバープレート情報は、運輸支局又は自動車検査登録事務所の所在地、分類番号、一連指定番号、用途区分、プレートの背景の色及びプレートの文字の色の中の少なくとも1つを示すことができる。画像解析でこれら特徴を特定する手段は特段制限されず、あらゆる技術を採用することができる。
 図10乃至図12に、前面画像、背面画像及び側面画像各々から特定される特徴の例を示す。図10に示すように、解析部12は、前面画像を解析し、車高、車幅及びナンバープレート情報の中の少なくとも1つを特定することができる。また、図11に示すように、解析部12は、側面画像を解析し、車高、車長、車軸の数及び車軸間距離の中の少なくとも1つを特定することができる。また、図12に示すように、解析部12は、背面画像を解析し、車高、車幅及びナンバープレート情報の中の少なくとも1つを特定することができる。
 処理装置10のその他の構成は、第1の実施形態と同様である。
 本実施形態の処理装置10によれば、第1の実施形態の処理装置10と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、カメラやコンピュータ等を含む比較的シンプルなシステム構成で、車両の様々な特徴を特定することができる。
<第3の実施形態>
 本実施形態の処理装置10は、解析部12の解析結果に基づき、車両の車種を特定することができる点で、第1及び第2の実施形態と異なる。
 図13に本実施形態の処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、解析部12と、車種特定部13とを有する。
 車種特定部13は、解析部12の解析の結果に基づき、車両の車種を特定する。車種の区分の仕方は様々である。予め、車種の区分の仕方と、各車種の特徴とを定義し、その定義に従い車両の各種特徴から車種を特定するアルゴリズムを用意しておく。そして、車種特定部13は、このアルゴリズムに従い、解析部12の解析の結果で示される特徴を有する車両の車種を特定する。
 例えば、日本の有料道路は、車種に応じて利用料金が異なる。そして、車両は、「軽自動車等」、「普通車」、「中型車」、「大型車」及び「特大車」のいずれかの車種に分類される。そこで、処理装置10を日本の有料道路の利用料金を決定する場面で利用する場合、上記車種の区分の仕方と、各車種の特徴との定義に従い、車両の各種特徴から上記車種を特定するアルゴリズムを用意しておいてもよい。そして、車種特定部13は、このアルゴリズムに従い、解析部12の解析の結果で示される特徴を有する車両の車種を特定してもよい。この適用例はあくまで一例であり、その他の利用場面において、その利用場面で定義された車種の区分の仕方及び各車種の特徴に基づいた処理を行うこともできる。
 なお、アルゴリズムの詳細は特段制限されず、あらゆる技術を利用できる。例えば、複数の条件分岐をたどって、所定の車種を特定するフローであってもよい。分岐の条件としては、「ナンバープレート情報の分類番号は?」、「車輪が路面と接触する車軸の数は?」等が例示されるが、これらに限定されない。その他、解析部12が特定した各種特徴に基づき車両毎にスコアを算出し、そのスコアに基づき車種を特定してもよい。
 また、前面画像、側面画像及び背面画像等の複数の画像を用いて、ある車両の車種を特定する場合、複数の画像に跨って写っている同一車両を特定する必要がある。これは、あらゆる技術を利用して実現できる。例えば、各車両の外観の特徴量や、各車両の前後の車両の特徴量等を、各車両の特徴量として用いて、複数の画像に跨って写っている同一車両を特定してもよい。
 次に、図14のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
 S20では、処理装置10は、車両の画像を取得する。処理装置10は、車両の前面画像、側面画像及び背面画像の中の少なくとも1つを取得する。処理装置10は、カメラと通信可能に構成されており、カメラが撮影した画像を任意の通信手段で取得する。
 S21では、処理装置10は、S20で取得した画像を解析し、車両の各種特徴を特定する。例えば、処理装置10は、第1及び第2の実施形態で説明した車両の各種特徴の中の少なくとも1つを特定する。
 S22では、処理装置10は、S21で特定された車両の各種特徴に基づき、車両の車種を特定する。当該処理の詳細は上述したので、ここでの説明は省略する。
 処理装置10のその他の構成は、第1及び第2の実施形態と同様である。
 本実施形態の処理装置10によれば、第1及び第2の実施形態の処理装置10と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、カメラやコンピュータ等を含む比較的シンプルなシステム構成で、車両の車種を高精度に特定することができる。
<第4の実施形態>
 本実施形態の処理装置10は、車種特定部13による車種の特定結果に基づき、施設の利用料金を決定することができる点で、第1乃至第3の実施形態と異なる。
 図15に本実施形態の処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、解析部12と、車種特定部13と、料金決定部14とを有する。
 料金決定部14は、車種特定部13による車種の特定結果に基づき、施設の利用料金を決定する。予め、車種毎に利用料金が定められている。料金決定部14は、その定義に従い、各車両の利用料金を決定する。例えば、料金決定部14は、車種毎の利用料金を示すテーブルを参照して当該決定を実現してもよいし、その他の手段で当該決定を実現してもよい。施設は、有料道路、駐車場等が例示されるが、これらに限定されない。
 次に、図16のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
 S30では、処理装置10は、車両の画像を取得する。処理装置10は、車両の前面画像、側面画像及び背面画像の中の少なくとも1つを取得する。処理装置10は、カメラと通信可能に構成されており、カメラが撮影した画像を任意の通信手段で取得する。
 S31では、処理装置10は、S30で取得した画像を解析し、車両の各種特徴を特定する。例えば、処理装置30は、第1及び第2の実施形態で説明した車両の各種特徴の中の少なくとも1つを特定する。
 S32では、処理装置10は、S31で特定された車両の各種特徴に基づき、車両の車種を特定する。当該処理の詳細は第3の実施形態で説明したので、ここでの説明は省略する。
 S33では、処理装置10は、S32で特定された車両の車種に基づき、施設の利用料金を決定する。当該処理の詳細は上述したので、ここでの説明は省略する。
 S33の後、任意の手段で、決定された利用料金の支払いの請求や、決済処理等が行われてもよい。例えば、予め、車両のナンバープレート情報に紐付けて、クレジットカード情報が処理装置10内に登録されていてもよい。そして、処理装置10は、当該クレジットカード情報を利用して、決定された請求金額の決済処理を行ってもよい。
 その他、車両のナンバープレート情報に紐付けて、請求書の送付先(ユーザの氏名、住所、電子メールアドレス等)が登録されていてもよい。そして、決定された請求金額の支払いの請求書が、郵送や電子メール等で、ユーザに送付されてもよい。
 処理装置10のその他の構成は、第1乃至第3の実施形態と同様である。
 本実施形態の処理装置10によれば、第1乃至第3の実施形態の処理装置10と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、カメラやコンピュータ等を含む比較的シンプルなシステム構成で、車両の車種を高精度に特定し、施設の利用料金を決定することができる。
 なお、本明細書において、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置が他の装置や記憶媒体に格納されているデータを取りに行くこと(能動的な取得)」、たとえば、他の装置にリクエストまたは問い合わせして受信すること、他の装置や記憶媒体にアクセスして読み出すこと等、および、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置に他の装置から出力されるデータを入力すること(受動的な取得)」、たとえば、配信(または、送信、プッシュ通知等)されるデータを受信すること、また、受信したデータまたは情報の中から選択して取得すること、及び、「データを編集(テキスト化、データの並び替え、一部データの抽出、ファイル形式の変更等)などして新たなデータを作成し、当該新たなデータを取得すること」の少なくともいずれか一方を含む。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 車両の画像を取得する取得手段と、
 前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析手段と、
を有する処理装置。
2. 前記解析手段は、車輪と路面の接触の有無の特定結果に基づき、車輪が路面と接触する車軸の数をさらに特定する1に記載の処理装置。
3. 前記解析の結果に基づき、前記車両の車種を特定する車種特定手段をさらに有する1又は2に記載の処理装置。
4. 前記車種の特定結果に基づき、施設の利用料金を決定する料金決定手段をさらに有する3に記載の処理装置。
5. 前記施設は、有料道路である4に記載の処理装置。
6. コンピュータが、
  車両の画像を取得する取得工程と、
  前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析工程と、
を実行する処理方法。
7. 前記コンピュータが、前記解析工程で、車輪と路面の接触の有無の特定結果に基づき、車輪が路面と接触する車軸の数をさらに特定する6に記載の処理方法。
8. 前記コンピュータが、前記解析の結果に基づき、前記車両の車種を特定する車種特定工程をさらに実行する6又は7に記載の処理方法。
9. コンピュータを、
  車両の画像を取得する取得手段、及び、
 前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析手段、
として機能させるプログラム。
10. 前記解析手段は、車輪と路面の接触の有無の特定結果に基づき、車輪が路面と接触する車軸の数をさらに特定する9に記載のプログラム。
 この出願は、2021年6月23日に出願された日本出願特願2021-103943号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 10  処理装置
 11  取得部
 12  解析部
 13  車種特定部
 14  料金決定部
 1A  プロセッサ
 2A  メモリ
 3A  入出力I/F
 4A  周辺回路
 5A  バス

Claims (10)

  1.  車両の画像を取得する取得手段と、
     前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析手段と、
    を有する処理装置。
  2.  前記解析手段は、車輪と路面の接触の有無の特定結果に基づき、車輪が路面と接触する車軸の数をさらに特定する請求項1に記載の処理装置。
  3.  前記解析の結果に基づき、前記車両の車種を特定する車種特定手段をさらに有する請求項1又は2に記載の処理装置。
  4.  前記車種の特定結果に基づき、施設の利用料金を決定する料金決定手段をさらに有する請求項3に記載の処理装置。
  5.  前記施設は、有料道路である請求項4に記載の処理装置。
  6.  コンピュータが、
      車両の画像を取得する取得工程と、
      前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析工程と、
    を実行する処理方法。
  7.  前記コンピュータが、前記解析工程で、車輪と路面の接触の有無の特定結果に基づき、車輪が路面と接触する車軸の数をさらに特定する請求項6に記載の処理方法。
  8.  前記コンピュータが、前記解析の結果に基づき、前記車両の車種を特定する車種特定工程をさらに実行する請求項6又は7に記載の処理方法。
  9.  コンピュータを、
      車両の画像を取得する取得手段、及び、
     前記画像を解析し、車輪と路面の接触の有無、および車軸間距離の少なくとも一方を特定する解析手段、
    として機能させるプログラム。
  10.  前記解析手段は、車輪と路面の接触の有無の特定結果に基づき、車輪が路面と接触する車軸の数をさらに特定する請求項9に記載のプログラム。
PCT/JP2021/044506 2021-06-23 2021-12-03 処理装置、処理方法及びプログラム WO2022269946A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-103943 2021-06-23
JP2021103943 2021-06-23

Publications (1)

Publication Number Publication Date
WO2022269946A1 true WO2022269946A1 (ja) 2022-12-29

Family

ID=84544387

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044506 WO2022269946A1 (ja) 2021-06-23 2021-12-03 処理装置、処理方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2022269946A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002534A (ja) * 2012-06-18 2014-01-09 Toshiba Corp 車種判別装置及び車種判別方法
CN106441529A (zh) * 2016-08-30 2017-02-22 山西万立科技有限公司 一种基于视频图像技术的车型识别与作弊诊断系统
US20170330454A1 (en) * 2014-11-27 2017-11-16 Kapsch Trafficcom Ab Method of controlling a traffic surveillance system
WO2019064682A1 (ja) * 2017-09-26 2019-04-04 パナソニックIpマネジメント株式会社 リフトアップ判定装置、及びリフトアップ判定方法
KR20190048979A (ko) * 2017-10-31 2019-05-09 (주)노바코스 비접촉식 자동 차량 감지기를 이용한 차종 분류시스템
JP2020035362A (ja) * 2018-08-31 2020-03-05 コニカミノルタ株式会社 画像処理装置、車軸数検出システム、料金設定装置、料金設定システム及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002534A (ja) * 2012-06-18 2014-01-09 Toshiba Corp 車種判別装置及び車種判別方法
US20170330454A1 (en) * 2014-11-27 2017-11-16 Kapsch Trafficcom Ab Method of controlling a traffic surveillance system
CN106441529A (zh) * 2016-08-30 2017-02-22 山西万立科技有限公司 一种基于视频图像技术的车型识别与作弊诊断系统
WO2019064682A1 (ja) * 2017-09-26 2019-04-04 パナソニックIpマネジメント株式会社 リフトアップ判定装置、及びリフトアップ判定方法
KR20190048979A (ko) * 2017-10-31 2019-05-09 (주)노바코스 비접촉식 자동 차량 감지기를 이용한 차종 분류시스템
JP2020035362A (ja) * 2018-08-31 2020-03-05 コニカミノルタ株式会社 画像処理装置、車軸数検出システム、料金設定装置、料金設定システム及びプログラム

Similar Documents

Publication Publication Date Title
US8737747B2 (en) Method for automated tire detection and recognition
EP3168810B1 (en) Image generating method and apparatus
KR101756849B1 (ko) 노상 무인정산 주차관제 시스템
US8971646B1 (en) Face and license plate detection in street level images with 3-D road width features estimated from laser data
WO2007139003A1 (ja) 車両判別装置、車両判別方法、車両判別プログラム、および車両判別プログラムを格納したプログラム記録媒体
Lee et al. Available parking slot recognition based on slot context analysis
CN109035446B (zh) 停车场自动收费系统
Sharma et al. Vehicle identification using modified region based convolution network for intelligent transportation system
Satyanarayana et al. Vehicle detection and classification with spatio-temporal information obtained from CNN
Bai et al. Classify vehicles in traffic scene images with deformable part-based models
Balia et al. A deep learning solution for integrated traffic control through automatic license plate recognition
WO2022269946A1 (ja) 処理装置、処理方法及びプログラム
WO2014076979A1 (ja) 画像認識装置、画像認識方法、プログラム、及び記録媒体
CN111678488B (zh) 测距方法、装置、计算机可读存储介质及电子设备
Sharma et al. Automatic vehicle detection using spatial time frame and object based classification
JP4784932B2 (ja) 車両判別装置及びそのプログラム
Ito et al. Detection of damaged stop lines on public roads by focusing on piece distribution of paired edges
WO2024065143A1 (zh) 点云数据的标注方法和装置
CN114724119A (zh) 车道线提取方法、检测设备及存储介质
CN112950961B (zh) 车流量统计方法、装置、设备和存储介质
Ojala et al. Motion detection and classification: ultra-fast road user detection
Hwang et al. Identification method for digital image forgery and filtering region through interpolation
Roch et al. Car pose estimation through wheel detection
Sangsuwan et al. Video-based vehicle speed estimation using speed measurement metrics
JP2016186769A (ja) 車両認識装置、車両認識システム、車両認識プログラム、及び車両認識方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21947225

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21947225

Country of ref document: EP

Kind code of ref document: A1