WO2023079635A1 - 車両管理装置、システム、方法、及びコンピュータ可読媒体 - Google Patents

車両管理装置、システム、方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023079635A1
WO2023079635A1 PCT/JP2021/040604 JP2021040604W WO2023079635A1 WO 2023079635 A1 WO2023079635 A1 WO 2023079635A1 JP 2021040604 W JP2021040604 W JP 2021040604W WO 2023079635 A1 WO2023079635 A1 WO 2023079635A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
type information
time
vehicle type
Prior art date
Application number
PCT/JP2021/040604
Other languages
English (en)
French (fr)
Inventor
正保 平田
友昭 牧野
正晃 森
Original Assignee
日本電気株式会社
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, Necソリューションイノベータ株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/040604 priority Critical patent/WO2023079635A1/ja
Publication of WO2023079635A1 publication Critical patent/WO2023079635A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Definitions

  • the present disclosure relates to vehicle management devices, systems, methods, and computer-readable media.
  • a user who rents a vehicle from a rental car company visually inspects the vehicle for damage such as scratches and dents together with an employee (clerk) of the rental car company at the rental car company's store before renting the vehicle. to check.
  • the user and the store clerk visually check the vehicle again for scratches and the like.
  • Patent Document 1 discloses a vehicle management server that manages vehicles such as rental cars that are rented out to users.
  • a user terminal having a camera is used to check for flaws.
  • the user terminal is configured as a tablet terminal or smart phone on which a dedicated application is installed.
  • the user takes images of the front, rear, left, and right sides of the vehicle using the user terminal.
  • the user terminal transmits the captured image (before boarding image) to the vehicle management server.
  • the user takes images of the front, rear, left, and right of the vehicle using the user terminal.
  • the user terminal transmits the captured image (post-boarding image) to the vehicle management server.
  • the vehicle management server compares the image before boarding and the vehicle after boarding.
  • the vehicle management server determines whether or not there is a change greater than or equal to a set threshold between the pre-boarding image and the post-boarding image. If the vehicle management server determines that there is a change greater than a threshold value between the pre-boarding image and the post-boarding image, the vehicle management server issues a vehicle confirmation alert indicating the possibility of new damage such as scratches or dents to the vehicle to the administrator.
  • a vehicle rental company can appropriately manage whether or not a user has caused damage such as a scratch or a dent to a vehicle by using an image transmitted from a user terminal. Also, the user can certify that the vehicle has not suffered any damage such as new scratches or dents while using the vehicle.
  • the present disclosure provides a vehicle management device, system, method, and computer-readable medium capable of efficiently inspecting whether or not a vehicle is damaged according to the type of vehicle. is one of the purposes.
  • the present disclosure provides a vehicle management device as a first aspect.
  • the vehicle management device provides a first image captured before the vehicle is rented to the user using one or more cameras for capturing images of the vehicle rented to the user, and the vehicle to the user using the camera.
  • Image acquisition means for acquiring a second image taken after being rented
  • vehicle type information acquisition means for acquiring vehicle type information of the vehicle, and image processing logic according to the vehicle type information acquired.
  • image processing means for comparing the first image and the second image; and detection means for detecting damage to the vehicle based on the result of the comparison in the image processing means.
  • a vehicle management system includes one or more cameras for photographing a vehicle rented to a user, and a vehicle management device used to manage the vehicle.
  • the vehicle management device stores a first image captured using the camera before the vehicle is lent to the user and a second image captured using the camera after the vehicle is lent to the user.
  • image acquisition means for acquiring an image
  • vehicle model information acquisition means for acquiring vehicle model information
  • image processing logic according to the acquired vehicle model information.
  • detection means for detecting damage caused to the vehicle based on the result of the comparison in the image processing means.
  • a vehicle management method comprises: a first image captured before the vehicle is rented to the user using one or more cameras that capture a vehicle rented to a user; A second image taken after being rented is acquired, model information of the vehicle is acquired, and image processing logic according to the acquired model information is used to process the first image and the first image. comparing the two images and detecting damage to the vehicle based on the results of the comparison.
  • a computer readable medium includes a first image captured before the vehicle is rented to the user using one or more cameras that captures the vehicle rented to the user; A second image taken after being rented is acquired, model information of the vehicle is acquired, and image processing logic according to the acquired model information is used to process the first image and the first image.
  • a program is stored for causing a computer to perform processing including comparing the second image and detecting damage caused to the vehicle based on the result of the comparison.
  • the vehicle management device, system, method, and computer-readable medium according to the present disclosure can efficiently inspect whether or not the vehicle is damaged according to the type of vehicle.
  • FIG. 1 is a block diagram showing a schematic configuration of a vehicle management system according to the present disclosure
  • FIG. 1 is a block diagram showing a vehicle management system according to an embodiment of the present disclosure
  • FIG. FIG. 4 is a schematic diagram showing an arrangement example of cameras
  • FIG. 2 is a block diagram showing a configuration example of an image processing unit; 4 is a flowchart showing an operation procedure in the vehicle management device;
  • FIG. 2 is a block diagram showing a configuration example of a computer device;
  • FIG. 1 shows a schematic configuration of a vehicle management system according to the present disclosure.
  • the vehicle management system 10 has a vehicle management device 30 and one or more cameras 50 .
  • the camera 50 is a camera that captures images of vehicles rented to users.
  • the vehicle management device 30 is a device used to manage vehicles rented out to users.
  • the vehicle management device 30 has image acquisition means 31 , vehicle type information acquisition means 32 , image processing means 33 , and detection means 34 .
  • the image acquiring means 31 acquires a first image captured using the camera 50 at a first time. Also, the image acquiring means 31 acquires a second image captured using the camera 50 at a second time after the first time.
  • the vehicle model information acquisition means 32 acquires vehicle model information of the vehicle rented out to the user.
  • the image processing means 33 compares the first image and the second image using image processing logic corresponding to the vehicle type information acquired by the vehicle type information acquisition means 32 .
  • the detection means 34 detects damage caused to the vehicle based on the result of the comparison in the image processing means 33 .
  • the image processing means 33 compares the first image and the second image by image processing logic according to vehicle model information. For example, if a first image and a second image are compared using the same image processing logic for a large vehicle and a small vehicle, the images may not be compared accurately and efficiently. It is believed that there is. In contrast, in the present disclosure, images are compared using image processing logic according to the vehicle type. Therefore, the present disclosure can efficiently inspect whether or not the vehicle has been damaged.
  • FIG. 2 shows a vehicle management system according to one embodiment of the present disclosure.
  • the vehicle management system 100 has a vehicle management device 110 , a database 130 and a camera 150 .
  • the vehicle management device 110 is a device for managing vehicles such as rental cars that are rented to users.
  • Camera 150 photographs the vehicle rented to the user.
  • Cameras 150 are arranged, for example, at each of a plurality of shops of a rental car company. Although only one camera 150 is illustrated in FIG. 1, the number of cameras 150 is not limited to one. A plurality of cameras 150 may be arranged in one store.
  • Vehicle management device 110 corresponds to vehicle management device 30 shown in FIG.
  • Camera 150 corresponds to camera 50 shown in FIG.
  • FIG. 3 shows an arrangement example of the camera 150.
  • FIG. In the example of FIG. 3, four cameras 150A-150D are arranged in the imaging area 200.
  • a vehicle 210 is a vehicle that is rented to a user.
  • Camera 150A photographs vehicle 210 from the front side of the vehicle.
  • Camera 150B photographs the right side of vehicle 210 .
  • Camera 150C captures the left side of vehicle 210 .
  • Camera 150D photographs vehicle 210 from the rear side of the vehicle.
  • camera 150 may be moved to capture images of vehicle 210 from multiple directions.
  • the photographing area 200 is a flaw check zone, and is provided, for example, in a passage through which a vehicle that is lent to a user or a vehicle that is returned passes.
  • a plurality of photographing areas 200 may be provided at a store (departure store) where the vehicle is rented to the user. Further, a plurality of photographing areas 200 (damage check zones) may be provided at a store where the user returns the vehicle (return store).
  • the shooting area 200 may be provided in a parking lot.
  • the shooting area 200 may be surrounded by an enclosure or the like so that the brightness of the image is not affected by the weather.
  • the vehicle 210 When the vehicle 210 is rented to the user, it is photographed in the photographing area 200 using the cameras 150A-150D. For example, when a user rents a vehicle, the user moves the vehicle 210 to the photographing area 200, which is a damage check zone provided in the store. If another vehicle already exists in the photographing area 200 , the user waits in front of the photographing area 200 . After the images of the vehicle 210 are captured using the cameras 150A-150D, the user drives the vehicle 210 to start traveling.
  • the vehicle 210 is photographed using the cameras 150A-150D in the photographing area 200 when the user returns the vehicle 210. For example, when the user returns the vehicle 210 to the store, the user moves the vehicle 210 to the imaging area 200, which is the damage check zone. After the image of the vehicle 210 is captured in the image capturing area 200 , the user performs the return procedure of the vehicle 210 .
  • the rental shop and the return shop may not necessarily be the same, and may be different. For example, a user may rent a vehicle 210 in A City and return the vehicle 210 in B City.
  • the database 130 has a reservation DB (database) 131 and a vehicle DB 132.
  • the reservation DB 131 is a database that stores user's reservation information.
  • Vehicle DB132 is a database which memorize
  • FIG. 4 shows an example of reservation information.
  • the reservation information includes a reservation ID (Identifier), reservation time, departure image, return image, and determination result.
  • the reservation ID is identification information for uniquely identifying reservation information.
  • the vehicle number indicates the registration number of the vehicle 210 rented to the user.
  • the reservation time indicates the reservation date and time.
  • the departure image indicates the identification information of the image captured by the camera 150 when the vehicle 210 (see FIG. 3) is rented.
  • the return image indicates the identification information of the image captured by the camera 150 when the vehicle 210 is returned.
  • the determination result indicates the determination result of the presence or absence of damage, which will be described later.
  • the reservation information may further include a departure store and a return store.
  • the reservation information may include the presence or absence of an insurance/compensation contract such as CDW (Collision Damage Waiver).
  • FIG. 5 shows an example of vehicle information.
  • the vehicle information includes vehicle number, vehicle type, and color.
  • the vehicle number indicates the registration number of vehicle 210 .
  • the vehicle type indicates the vehicle type of the vehicle 210 .
  • the vehicle type indicates, for example, the vehicle name or model name of the vehicle 210 .
  • Color indicates color information of the vehicle 210 .
  • the vehicle management device 110 has an image acquisition unit 111, a vehicle information acquisition unit 112, an image processing unit 113, and a damage detection unit 114.
  • Vehicle management device 110 is configured as a computer device such as a server having, for example, one or more memories and one or more processors. At least part of the function of each unit in vehicle management device 110 can be realized by a processor operating according to a program read from memory. Each part of the vehicle management device 110 does not necessarily need to be physically arranged in the same device.
  • Vehicle management device 110 may be configured by, for example, a plurality of computer devices interconnected via a network. The vehicle management device 110 is arranged, for example, at a store of a rental car company or at a management center. Vehicle management device 110 may be a cloud server.
  • the image acquisition unit 111 acquires an image of the vehicle 210 captured using the camera 150 .
  • the image acquisition unit 111 acquires images of the front, rear, right, and left sides of the vehicle 210, for example.
  • Image acquisition unit 111 acquires an image of vehicle 210 captured at a first time (first image) and an image of vehicle 210 captured at a second time (second image).
  • the first time is, for example, the time before the vehicle is rented to the user.
  • the second time is the time when the user returns the vehicle 210 .
  • the "time when the user returns the vehicle 210" includes the time when the vehicle 210 returns to the store for return, and also includes the time when the procedure for returning the vehicle 210 has not been completed.
  • a 1st image is image
  • the second image is taken, for example, at the return shop at the time of return.
  • the image acquisition unit 111 corresponds to the image acquisition unit 31 shown in FIG.
  • the vehicle information acquisition unit 112 acquires vehicle information of the vehicle 210 .
  • the vehicle information includes model information of the vehicle 210 .
  • the vehicle information acquisition unit 112 acquires identification information of the vehicle 210 and acquires vehicle type information based on the acquired identification information.
  • the registration number of the vehicle 210 is used as the identification information of the vehicle 210 .
  • the vehicle information acquisition unit 112 acquires the registration number (vehicle number) from the license plate image included in the image captured using the camera 150 .
  • the vehicle information acquisition unit 112 refers to the vehicle DB 132 (see FIG. 5) and acquires the vehicle type (vehicle name) associated with the acquired vehicle number as vehicle type information.
  • the vehicle information acquisition unit 112 may acquire color information of the vehicle 210 from the vehicle DB 132 .
  • the vehicle information acquisition unit 112 may use the reservation DB 131 and the vehicle DB 132 to acquire vehicle type information. In that case, the vehicle information acquisition unit 112 acquires the vehicle number associated with the user's reservation ID from the reservation DB 131 (see FIG. 4). The vehicle information acquisition unit 112 refers to the vehicle DB 132 and acquires the vehicle type associated with the acquired vehicle number as vehicle type information. It should be noted that the method of acquiring the identification information of the vehicle is not particularly limited to the method described above. For example, the vehicle information acquisition unit 112 may acquire identification information from an RFID (Radio Frequency Identification) tag attached to the vehicle 210 . The vehicle information acquisition unit 112 corresponds to the vehicle type information acquisition unit 32 shown in FIG.
  • RFID Radio Frequency Identification
  • the image processing unit 113 performs image processing for comparing the first image and the second image.
  • image processing the image processing unit 113 compares the first image and the second image using image processing logic according to the vehicle type information acquired by the vehicle information acquisition unit 112 .
  • the image processing unit 113 dynamically identifies an area corresponding to the vehicle 210 (its body) in the image, and compares the first image and the second image in the identified area.
  • the image processing unit 113 may switch the size of the area of the body of the vehicle 210 facing the camera 150 according to the vehicle type. Areas where the surface does not face the camera 150 are susceptible to reflection and therefore cannot stably detect flaws, so the image processing unit 113 may exclude such areas from comparison.
  • the image processing unit 113 may switch the image processing engine used for image processing between a small vehicle and a large vehicle according to the size of the vehicle 210 .
  • the image processing unit 113 may switch the setting parameters of the image processing engine between a small vehicle and a large vehicle according to the size of the vehicle 210 .
  • the image processing unit 113 may switch the image processing logic according to the color of the vehicle 210 (body color).
  • the image processing unit 113 may switch the image processing logic according to the combination of the color or brightness of the background in the image and the color of the vehicle 210 . For example, when the background is dark and the color of the vehicle 210 is dark, it is considered difficult to distinguish between the vehicle area and the background area in the image.
  • the image processing unit 113 may use image processing logic that is effective in such situations.
  • the image processing unit 113 may perform brightness adjustment between the images before comparing the first image and the second image. By performing brightness adjustment, it is possible to reduce the difference in brightness between images captured under different weather conditions. Also, for example, it is possible to reduce the difference between the brightness of an image captured at night and the brightness of an image captured under backlight conditions. In comparing the first image and the second image, the image processing unit 113 may detect how much the second image has changed from the first image, using the first image as a reference.
  • the image processing section 113 corresponds to the image processing means 33 shown in FIG.
  • FIG. Image processing unit 113 includes region dividing unit 121 and image comparing unit 122 .
  • the region division unit 121 divides the image acquired by the image acquisition unit 111 into a plurality of regions according to the vehicle type information acquired by the vehicle information acquisition unit 112 .
  • the region dividing unit 121 divides the image captured by the camera 150 into a first region containing only the background, a second region containing both the background and the vehicle 210 (its body), and a second region containing only the vehicle 210. partition into a third region
  • the region division unit 121 divides the first image acquired by the image acquisition unit 111 into a first region, a second region, and a third region.
  • the region division unit 121 divides the second image acquired by the image acquisition unit 111 into a first region, a second region, and a third region.
  • the image divided by the area division unit 121 is likely to include more first areas and second areas than a vehicle of standard size. .
  • the image divided by the area division unit 121 is considered to include more second areas and third areas than a vehicle of standard size. be done. That is, it is considered that the ratio of the first area, the second area, and the third area included in the image divided by the area division unit 121 differs between a small vehicle and a large vehicle.
  • the region dividing unit 121 may divide the image into a first region, a second region, and a third region using image processing logic according to the size of the vehicle 210. .
  • the area dividing unit 121 divides the area so that the ratio of the first area and the second area is greater than when the vehicle is a standard size vehicle.
  • the area segmentation may be performed using a logic of image processing.
  • the area dividing unit 121 divides the image into areas so that the ratio of the second area and the third area is larger than when the vehicle is of a standard size. Region segmentation may be performed using processing logic.
  • the image comparison unit 122 compares the first image and the second image in the second area and the third area divided by the area dividing unit 121 . That is, the image comparison unit 122 compares the second area of the first image and the second area of the second image. Also, the image comparison unit 122 compares the third area of the first image with the third area of the second image. Since the first area is an area that includes only the background and does not include the vehicle 210, the first area is excluded from comparison targets. For example, the image comparison unit 122 detects how much the second image has changed from the first image, for example, for each pixel or for each predetermined block in the second region and the third region.
  • the damage detection unit 114 determines the presence or absence of damage such as scratches and dents based on the comparison results of the image processing unit 113 . In other words, the damage detector 114 detects damage to the vehicle 210 based on the comparison result of the image processor 113 .
  • the damage detection unit 114 detects, for example, a location where the amount of change from the first image to the second image is equal to or greater than a threshold as a location where the vehicle 210 is damaged.
  • the damage detector 114 may change the threshold used for determining the damaged location according to the color information of the vehicle 210 . In this case, for example, the damaged area can be determined based on different criteria for bright colors and dark colors.
  • the damage detection unit 114 may change the threshold according to the contract details included in the user's reservation information. For example, if the user takes out insurance when making a contract for a rental car, the user will not be billed for any damages to the vehicle.
  • the damage detector 114 may change the threshold depending on whether the user has insurance. For example, if the user does not have insurance, it is preferable to strictly determine the location of the damage in order to clarify where responsibility lies. In that case, the damage detector 114 sets a relatively small value for the threshold. On the other hand, if the user has insurance, the damage can be repaired using the insurance, so the determination of the location of the damage need not be very strict. In that case, the damage detector 114 may set a relatively large value for the threshold.
  • the damage detector 114 may output an alert to an employee of the rental car company, such as a clerk, when damage is detected.
  • the damage detector 114 corresponds to the detector 34 shown in FIG.
  • the clerk visually checks the vehicle 210 together with the user to see if there is any damage.
  • the damage detector 114 may emphasize or enlarge the image of the detected damage location in the second image and display it on the display. The store clerk can check the presence or absence of damage by looking at the image displayed on the display together with the user.
  • the damage detection unit 114 displays an image of a location where damage is detected (damaged location) in the second image and an image of a location corresponding to the damaged location in the first image in a manner that allows comparison. good too. The store clerk and user can then check whether the damage was already present at the time the first image was taken. If it is confirmed that there is damage, the store clerk will negotiate the cost with the user.
  • FIG. 7 shows an operation procedure (vehicle management method) in the vehicle management device 110.
  • the image acquisition unit 111 acquires an image captured by the camera 150 (step S1).
  • the image acquisition unit 111 acquires four images shot using, for example, four cameras 150A to 150D (see FIG. 3).
  • the image acquisition unit 111 determines whether the vehicle 210 is to be returned (step S2).
  • the image acquisition unit 111 refers to the reservation DB 131, for example, and determines whether the vehicle 210 is a returned vehicle or a rented vehicle.
  • the image acquired in step S1 is stored in the reservation DB 131 (see FIG. 4) as an image at departure (first image). (step S3).
  • the image acquisition unit 111 registers the image acquired in step S1 in the reservation DB 131 as an image upon arrival (second image).
  • the vehicle information acquisition unit 112 acquires vehicle type information of the vehicle 210 (step S4).
  • the vehicle information acquisition unit 112 acquires vehicle type information (model name) from, for example, the vehicle information DB 132 (see FIG. 5).
  • the region division unit 121 divides the image acquired by the image acquisition unit 111 into a plurality of regions according to the vehicle type information acquired in step S4 (step S5). For example, in step S5, the region division unit 121 divides each of the departure time image and the arrival time image into the above-described first region, second region, and third region.
  • the image comparison unit 122 compares the image at the time of departure and the image at the time of return (step S6). For example, in step S6, the image comparison unit 122 compares the image at the time of departure and the image at the time of return in each of the second area and the third area.
  • the damage detection unit 114 determines whether the change from the first image to the second image is large as a result of the comparison in step S6 (step S7).
  • the damage detection unit 114 registers the determination result of step S7 in the reservation DB 131 . If the damage detection unit 114 determines that the change is large in step S7, it notifies a sales clerk of the rental car company or a person in charge of the management department of a damage alert (step S8). In step S ⁇ b>8 , the damage detector 114 notifies the store clerk or person in charge of, for example, a location in the vehicle 210 where the image changes significantly, that is, a location in the vehicle 210 that is likely to be damaged.
  • the image processing unit 113 performs image processing according to the vehicle type information of the vehicle 210 to compare the first image, which is the image at the time of departure, with the second image, which is the image at the time of return.
  • the area dividing unit 121 divides the first image and the second image using the vehicle type information into a first area including only the background and an area including the background and the vehicle body, respectively. It is divided into a second area and a third area that includes only the vehicle body.
  • the image comparison unit 122 compares the first image and the second image in the second area and the third area.
  • the divided image includes many first regions.
  • the image comparison section 122 does not perform image comparison for the first region, which is the background portion. By omitting the image comparison of the background portion, unnecessary image comparison (image inspection) can be suppressed. For this reason, this embodiment can reduce useless computational resources and realize cost reduction.
  • this embodiment since flaws are not erroneously detected by comparing background portions, erroneous detection can be reduced, and inspection accuracy can be improved.
  • the vehicle 210 is a large vehicle, it is conceivable that the number of first regions included in the divided image is small. In this case, the second area and the third area including the main body portion of the vehicle 210 are increased, and the area to be compared is wide, so that omission of image comparison can be suppressed and inspection accuracy can be improved.
  • the damage detection unit 114 causes damage to the vehicle 210 during rental to the user based on the result of comparison between the first image and the second image that are compared in image processing according to vehicle type information. New damage can be detected.
  • the image processing unit 113 compares images by image processing according to vehicle type information. Therefore, the vehicle management device 110 according to the present embodiment can efficiently and accurately detect new damage to the vehicle 210 .
  • the vehicle management device 110 may hold information indicating which part of the image is the area where the body surface faces the camera 150 for each vehicle type.
  • the image processor 113 can also use that information to perform image comparisons. For example, in the image processing unit 113, an inspection as to whether or not the vehicle 210 is damaged is performed by excluding areas from comparison targets that are susceptible to reflection and therefore cannot stably detect damage. can be performed more efficiently.
  • the vehicle management device 110 can be configured as a computer device.
  • FIG. 8 shows a configuration example of a computer device that can be used as the vehicle management device 110.
  • the computer device 500 includes a control unit (CPU: Central Processing Unit) 510, a storage unit 520, a ROM (Read Only Memory) 530, a RAM (Random Access Memory) 540, a communication interface (IF: Interface) 550, and a user interface 560.
  • CPU Central Processing Unit
  • the communication interface 550 is an interface for connecting the computer device 500 and a communication network via wired communication means or wireless communication means.
  • User interface 560 includes a display, such as a display.
  • the user interface 560 also includes input units such as a keyboard, mouse, and touch panel.
  • the storage unit 520 is an auxiliary storage device that can hold various data.
  • the storage unit 520 is not necessarily a part of the computer device 500, and may be an external storage device or a cloud storage connected to the computer device 500 via a network.
  • the ROM 530 is a non-volatile storage device.
  • a semiconductor storage device such as a flash memory having a relatively small capacity is used.
  • Programs executed by the CPU 510 can be stored in the storage unit 520 or the ROM 530 .
  • the storage unit 520 or the ROM 530 stores various programs for realizing the functions of each unit in the vehicle management device 110, for example.
  • the program includes a group of instructions (or software code) that, when read into a computer, cause the computer to perform one or more functions described in the embodiments.
  • the program may be stored in a non-transitory computer-readable medium or tangible storage medium.
  • computer readable media or tangible storage media may include RAM, ROM, flash memory, solid-state drives (SSD) or other memory technology, Compact Disc (CD)-ROM, digital versatile disc (DVD ), Blu-ray discs or other optical disc storage, magnetic cassettes, magnetic tapes, magnetic disc storage or other magnetic storage devices.
  • the program may be transmitted on a transitory computer-readable medium or communication medium.
  • transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
  • the RAM 540 is a volatile storage device. Various semiconductor memory devices such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory) are used for the RAM 540 .
  • RAM 540 can be used as an internal buffer that temporarily stores data and the like.
  • the CPU 510 expands a program stored in the storage unit 520 or the ROM 530 to the RAM 540 and executes it.
  • CPU 510 executes a program to realize the function of each unit in vehicle management device 110 .
  • the CPU 510 may have internal buffers that can temporarily store data and the like.
  • the image processing means is According to the vehicle type information, the first image and the second image are respectively divided into a first region containing only the background, a second region containing both the background and the vehicle, and the dividing into a third region containing only vehicles; comparing the second region of the first image with the second region of the second image and comparing the third region of the first image with the third region of the second image; 1.
  • the image processing means detects how much the second image has changed from the first image with the first image as a reference.
  • the vehicle management device according to appendix 1 or 2.
  • the vehicle type information acquisition means further acquires color information of the vehicle, 5.
  • the vehicle management apparatus according to appendix 4, wherein the detection means changes the threshold according to the color information.
  • Appendix 6 The vehicle management apparatus according to any one of appendices 1 to 5, wherein the vehicle type information acquiring means acquires identification information of the vehicle, and acquires vehicle type information based on the acquired identification information.
  • Appendix 7 The vehicle management apparatus according to appendix 6, wherein the vehicle type information acquisition means acquires vehicle type information associated with the acquired identification information from a database that stores the identification information and the vehicle type information.
  • Appendix 8 7. The vehicle management apparatus according to appendix 6, wherein the vehicle type information obtaining means obtains the identification information from the license plate image of the vehicle included in the first image and the second image.
  • Appendix 9 9. The vehicle management device according to any one of appendices 1 to 8, wherein the vehicle type information acquiring means acquires a vehicle name of the vehicle as the vehicle type information.
  • the first time is a time before the vehicle is rented to the user, and the second time is a time when the user returns the vehicle.
  • Vehicle management device
  • Appendix 11 11. The vehicle management device according to any one of Appendices 1 to 10, wherein the first image is taken at the departure store when departing, and the second image is taken at the return store when returning.
  • a vehicle management device used for managing the vehicle The vehicle management device Obtaining a first image captured using the camera at a first time and a second image captured using the camera at a second time later than the first time an image acquisition means;
  • vehicle type information acquisition means for acquiring vehicle type information of the vehicle;
  • image processing means for comparing the first image and the second image using image processing logic according to the acquired vehicle type information; and detection means for detecting damage caused to the vehicle based on the result of the comparison in the image processing means.
  • the image processing means is According to the vehicle type information, the first image and the second image are respectively divided into a first region containing only the background, a second region containing both the background and the vehicle, and the dividing into a third region containing only vehicles; comparing the second region of the first image with the second region of the second image and comparing the third region of the first image with the third region of the second image; 13.
  • Vehicle management system 30 Vehicle management device 31: Image acquisition means 32: Vehicle type information acquisition means 33: Image processing means 34: Detection means 50: Camera 100: Vehicle management system 110: Vehicle management device 111: Image acquisition unit 112: Vehicle information acquisition unit 113: Image processing unit 114: Damage detection unit 121: Region division unit 122: Image comparison unit 130: Database 131: Reservation DB 132: Vehicle DB 150: Camera 200: Shooting area 210: Vehicle

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両に損傷が生じているか否かの検査を、車種に応じて効率的に実施することを可能とする。画像取得手段(31)は、カメラ(50)を用いて第1の時刻に撮影された第1の画像を取得する。また、画像取得手段(31)は、カメラ(50)を用いて第2の時刻に撮影された第2の画像を取得する。車種情報取得手段(32)は、車両の車種情報を取得する。画像処理手段(33)は、取得された車種情報に応じた画像処理のロジックを用いて、第1の画像と第2の画像とを比較する。検出手段(34)は、画像処理手段(33)における比較の結果に基づいて、車両に生じた損傷を検出する。

Description

車両管理装置、システム、方法、及びコンピュータ可読媒体
 本開示は、車両管理装置、システム、方法、及びコンピュータ可読媒体に関する。
 一般に、レンタカー事業者から車両を借りるユーザは、車両の貸し出しの前に、レンタカー事業者の店舗において、レンタカー事業者の従業員(店員)と一緒に、車両の傷や凹みなどの損傷などを目視でチェックする。ユーザ及び店員は、車両が返却されるときに、車両の傷などを目視で再度チェックする。車両の貸し出し前と車両の貸し出し後との双方で車両の傷をチェックすることで、車両に傷がついている場合に、その傷がユーザがつけた傷であるのか、或いは貸し出し前からついていた傷であるのかの判別が可能である。
 関連技術として、特許文献1は、レンタカーなどのユーザに貸し出される車両を管理する車両管理サーバを開示する。特許文献1では、傷のチェックに、カメラを有する利用者端末が使用される。利用者端末は、専用アプリケーションがインストールされたタブレット端末、又はスマートフォンとして構成される。ユーザは、レンタカーの利用前に、利用者端末を用いて、車両の前後左右の画像を撮影する。利用者端末は、撮影された画像(乗車前画像)を、車両管理サーバに送信する。ユーザは、レンタカーを返却する場合、利用者端末を用いて、車両の前後左右の画像を撮影する。利用者端末は、撮影された画像(乗車後画像)を、車両管理サーバに送信する。
 車両管理サーバは、乗車前画像と乗車後車両とを比較する。車両管理サーバは、乗車前画像と乗車後画像とに、設定されたしきい値以上の変化があるか否かを判定する。車両管理サーバは、乗車前画像と乗車後画像とにしきい値以上の変化があると判定した場合、車両に新たな傷や凹みなどの損傷が生じた可能性を示す車両確認アラートを、管理者端末に送信する。特許文献1において、車両賃貸し業者は、利用者端末から送信された画像を用いて、ユーザが車両に傷や凹みなどの損傷を生じさせたかどうかを適切に管理することができる。また、ユーザは、車両の利用中に、車両に新たな傷や凹みなどの損傷を生じさせなかったことを証明できる。
特許第6830690号公報
 一般に、レンタカー事業者は複数の車種の車両を保有しており、ユーザに貸し出される車両は単一の車種ではない。カメラ画像を用いて損傷の有無を検査する場合、カメラ画像における車両の見え方は、車種に応じて変化すると考えられる。この場合、異なる車種の車両に対して、同じ画像処理のロジックを用いて画像比較を行うと、画像比較を効率的に実施できないと考えられる。特許文献1では、乗車前画像と乗車後画像とが利用者によって撮影されており、それら画像における、車種に応じた車両の見え方の違いは考慮されていない。従って、特許文献1に記載の車両管理サーバは、車両に損傷が生じているか否かの検査を、車種に応じて効率的に実施することができない。
 本開示は、上記事情に鑑み、車両に損傷が生じているか否かの検査を、車種に応じて効率的に実施することができる車両管理装置、システム、方法、及びコンピュータ可読媒体を提供することを目的の1つとする。
 上記目的を達成するため、本開示は、第1の態様として、車両管理装置を提供する。車両管理装置は、ユーザに貸し出される車両を撮影する1以上のカメラを用いて前記ユーザに前記車両が貸し出される前に撮影された第1の画像と、前記カメラを用いて前記ユーザに前記車両が貸し出された後に撮影された第2の画像とを取得する画像取得手段と、前記車両の車種情報を取得する車種情報取得手段と、前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較する画像処理手段と、前記画像処理手段における前記比較の結果に基づいて、前記車両に生じた損傷を検出する検出手段とを含む。
 本開示は、第2の態様として、車両管理システムを提供する。車両管理システムは、ユーザに貸し出される車両を撮影する1以上のカメラと、前記車両の管理に使用される車両管理装置とを含む。車両管理装置は、前記ユーザに前記車両が貸し出される前に前記カメラを用いて撮影された第1の画像と、前記ユーザに前記車両が貸し出された後に前記カメラを用いて撮影された第2の画像とを取得する画像取得手段と、前記車両の車種情報を取得する車種情報取得手段と、前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較する画像処理手段と、前記画像処理手段における前記比較の結果に基づいて、前記車両に生じた損傷を検出する検出手段とを含む。
 本開示は、第3の態様として、車両管理方法を提供する。車両管理方法は、ユーザに貸し出される車両を撮影する1以上のカメラを用いて前記ユーザに前記車両が貸し出される前に撮影された第1の画像と、前記カメラを用いて前記ユーザに前記車両が貸し出された後に撮影された第2の画像とを取得し、前記車両の車種情報を取得し、前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較し、前記比較の結果に基づいて、前記車両に生じた損傷を検出することを含む。
 本開示は、第4の態様として、コンピュータ可読媒体を提供する。コンピュータ可読媒体は、ユーザに貸し出される車両を撮影する1以上のカメラを用いて前記ユーザに前記車両が貸し出される前に撮影された第1の画像と、前記カメラを用いて前記ユーザに前記車両が貸し出された後に撮影された第2の画像とを取得し、前記車両の車種情報を取得し、前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較し、前記比較の結果に基づいて、前記車両に生じた損傷を検出することを含む処理をコンピュータに実行させるためのプログラムを格納する。
 本開示に係る車両管理装置、システム、方法、及びコンピュータ可読媒体は、車両に損傷が生じているか否かの検査を、車種に応じて効率的に実施することができる。
本開示に係る車両管理システムの概略的な構成を示すブロック図。 本開示の一実施形態に係る車両管理システムを示すブロック図。 カメラの配置例を示す模式図。 予約情報の一例を示す図。 車両情報の一例を示す図。 画像処理部の構成例を示すブロック図。 車両管理装置における動作手順を示すフローチャート。 コンピュータ装置の構成例を示すブロック図。
 本開示の実施の形態の説明に先立って、本開示の概要を説明する。図1は、本開示に係る車両管理システムの概略的な構成を示す。車両管理システム10は、車両管理装置30、及び、1以上のカメラ50を有する。カメラ50は、ユーザに貸し出される車両を撮影するカメラである。車両管理装置30は、ユーザに貸し出される車両の管理に使用される装置である。
 車両管理装置30は、画像取得手段31、車種情報取得手段32、画像処理手段33、及び検出手段34を有する。画像取得手段31は、第1の時刻にカメラ50を用いて撮影された第1の画像を取得する。また、画像取得手段31は、第1の時刻よりも後の第2の時刻にカメラ50を用いて撮影された第2の画像を取得する。
 車種情報取得手段32は、ユーザに貸し出される車両の車種情報を取得する。画像処理手段33は、車種情報取得手段32が取得した車種情報に応じた画像処理のロジックを用いて、上記第1の画像と上記第2の画像とを比較する。検出手段34は、画像処理手段33における比較の結果に基づいて、車両に生じた損傷を検出する。
 本開示において、画像処理手段33は、車両の車種情報に応じた画像処理のロジックで、第1の画像と第2の画像とを比較する。例えば、車両が大きい場合と小さい場合とで、同じ画像処理のロジックで第1の画像と第2の画像とを比較したとすると、正確に、かつ効率的に画像を比較することができない場合があると考えられる。これに対し、本開示では、車種に応じた画像処理のロジックを用いて画像が比較される。このため、本開示は、車両に損傷が生じているか否かの検査を、効率的に実施することができる。
 以下、図面を参照しつつ、本開示の実施の形態を詳細に説明する。なお、以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、各図面において、同一の要素及び同様な要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 図2は、本開示の一実施形態に係る車両管理システムを示す。車両管理システム100は、車両管理装置110、データベース130、及びカメラ150を有する。車両管理装置110は、レンタカーなどのユーザに貸し出される車両を管理するための装置である。カメラ150は、ユーザに貸し出される車両を撮影する。カメラ150は、例えばレンタカー事業者の複数の店舗のそれぞれに配置される。なお、図1では、カメラ150が1つだけ図示されているが、カメラ150の数は1つには限定されない。1つの店舗に、複数のカメラ150が配置されていもよい。車両管理装置110は、図1に示される車両管理装置30に対応する。カメラ150は、図1に示されるカメラ50に対応する。
 図3は、カメラ150の配置例を示す。図3の例において、撮影エリア200には、4つのカメラ150A-150Dが配置されている。車両210は、ユーザに貸し出される車両である。カメラ150Aは、車両210を、車両の前方側から撮影する。カメラ150Bは、車両210の右側方を撮影する。カメラ150Cは、車両210の左側方を撮影する。カメラ150Dは、車両210を、車両の後方側から撮影する。固定された複数のカメラ150A-150Dを用いるのに代えて、カメラ150を移動して車両210を複数の方向から撮影してもよい。
 撮影エリア200は、傷チェックゾーンであり、例えばユーザに貸し出される車両、又は返却される車両が通行する通路に設けられる。ユーザに車両が貸し出される店舗(出発店舗)において、複数の撮影エリア200(傷チェックゾーン)が設けられていてもよい。また、ユーザが車両を返却する店舗(返却店舗)において、複数の撮影エリア200(傷チェックゾーン)が設けられていてもよい。撮影エリア200は、駐車場に設けられてもよい。撮影エリア200は、画像の明るさなどが天候に左右されないように、囲いなどで囲われていてもよい。
 車両210は、ユーザに貸し出されるとき、撮影エリア200において、カメラ150A-150Dを用いて撮影される。例えば、ユーザは、車両の貸出時、店舗内に設けられた、傷チェックゾーンである撮影エリア200に車両210を移動させる。撮影エリア200に既に別の車両が存在する場合、ユーザは、撮影エリア200の手前で待機する。カメラ150A-150Dを用いて、車両210の画像が撮影された後、ユーザは、車両210を運転して、移動を開始する。
 車両210は、ユーザが車両210を返却するとき、撮影エリア200において、カメラ150A-150Dを用いて撮影される。例えば、ユーザは、店舗に車両210を返却する場合、傷チェックゾーンである撮影エリア200に車両210を移動させる。撮影エリア200において車両210の画像が撮影された後、ユーザは、車両210の返却手続きを行う。なお、貸出店舗と返却店舗とは、必ずしも同一でなくてもよく、異なっていてもよい。例えば、ユーザは、A市で車両210を借り、B市で車両210を返却してもよい。
 図2に戻り、データベース130は、予約DB(database)131、及び車両DB132を有する。予約DB131は、ユーザの予約情報を記憶するデータベースである。車両DB132は、ユーザに貸し出される車両210の情報(車両情報)を記憶するデータベースである。
 図4は、予約情報の一例を示す。図4の例において、予約情報は、予約ID(Identifier)、予約時刻、出発時画像、帰着時画像、及び判定結果を含む。予約IDは、予約情報を一意に識別するための識別情報である。車両番号は、ユーザに貸し出される車両210の登録番号を示す。予約時刻は、予約日時を示す。出発時画像は、車両210(図3を参照)の貸出時にカメラ150により撮影された画像の識別情報を示す。帰着時画像は、車両210の返却時にカメラ150により撮影された画像の識別情報を示す。判定結果は、後述の損傷の有無の判定結果を示す。予約情報は、出発店舗及び返却店舗を更に含んでいてもよい。予約情報は、CDW(Collision Damage Waiver)などの保険/補償契約の有無を含んでいてもよい。
 図5は、車両情報の一例を示す。図5の例において、車両情報は、車両番号、車種、及び色を含む。車両番号は、車両210の登録番号を示す。車種は、車両210の車種を示す。車種は、例えば、車両210の車名又はモデル名を示す。色は、車両210の色情報を示す。
 再び図2に戻り、車両管理装置110は、画像取得部111、車両情報取得部112、画像処理部113、及び損傷検出部114を有する。車両管理装置110は、例えば1以上のメモリと1以上のプロセッサとを有するサーバなどのコンピュータ装置として構成される。車両管理装置110内の各部の機能の少なくとも一部は、プロセッサがメモリから読み出したプログラムに従って動作することで実現され得る。車両管理装置110の各部は、必ずしも、物理的に同一の装置内に配置されている必要はない。車両管理装置110は、例えば、ネットワークを介して相互に接続された複数のコンピュータ装置によって構成されていてもよい。車両管理装置110は、例えばレンタカー事業者の店舗、又は管理センターに配置される。車両管理装置110は、クラウドサーバであってもよい。
 画像取得部111は、カメラ150を用いて撮影された車両210の画像を取得する。画像取得部111は、例えば、車両210の前面、後面、右側方、及び左側方の画像を取得する。画像取得部111は、車両210が第1の時刻に撮影された画像(第1の画像)と、車両210が第2の時刻に撮影された画像(第2の画像)とを取得する。第1の時刻は、例えば、ユーザに車両が貸し出される前の時刻である。第2の時刻は、ユーザが車両210を返却する時刻である。ここで、「ユーザが車両210を返却する時刻」は、車両210が返却のために店舗に帰着した時点を含み、車両210の返却手続きが完了していない時点も含むものとする。第1の画像は、例えば、出発時に出発店舗で撮影される。第2の画像は、例えば、返却時に返却店舗で撮影される。画像取得部111は、図1に示される画像取得手段31に対応する。
 車両情報取得部112は、車両210の車両情報を取得する。車両情報は、車両210の車種情報を含む。車両情報取得部112は、例えば、車両210の識別情報を取得し、取得した識別情報に基づいて車種情報を取得する。車両210の識別情報には、例えば車両210の登録番号が用いられる。例えば、車両情報取得部112は、カメラ150を用いて撮影された画像に含まれるナンバープレートの画像から登録番号(車両番号)を取得する。車両情報取得部112は、車両DB132(図5を参照)を参照し、取得した車両番号に関連付けられる車種(車名)を、車種情報として取得する。車両情報取得部112は、車両DB132から、車両210の色情報を取得してもよい。
 上記に代えて、車両情報取得部112は、予約DB131及び車両DB132を用いて、車種情報を取得してもよい。その場合、車両情報取得部112は、予約DB131(図4を参照)から、ユーザの予約IDに関連付けられる車両番号を取得する。車両情報取得部112は、車両DB132を参照し、取得した車両番号に関連付けられる車種を、車種情報として取得する。なお、車両の識別情報の取得方法は、特に上記した方法には限定されない。例えば、車両情報取得部112は、車両210に取り付けられたRFID(Radio Frequency IDentification)タグから識別情報を取得してもよい。車両情報取得部112は、図1に示される車種情報取得手段32に対応する。
 画像処理部113は、第1の画像と第2の画像とを比較する画像処理を実施する。画像処理部113は、画像処理において、車両情報取得部112が取得した車種情報に応じた画像処理のロジックを用いて、第1の画像と第2の画像とを比較する。画像処理部113は、比較において、画像中の車両210(そのボディ)に該当する領域を動的に特定し、特定した領域において、第1の画像と第2の画像とを比較する。例えば、画像処理部113は、車両210のボディの、表面がカメラ150に向いている領域のサイズを、車種に応じて切り替えてもよい。表面がカメラ150に向いていない領域は、反射の影響を受けやすく、従って傷を安定して検知できないため、画像処理部113は、そのような領域を比較の対象から除外してもよい。
 例えば、画像処理部113は、車両210の大きさに応じて、小さい車両と大きい車両とで、画像処理に使用する画像処理エンジンを切り替えてもよい。また、画像処理部113は、車両210の大きさに応じて、小さい車両と大きい車両とで、画像処理エンジンの設定パラメータを切り替えてもよい。画像処理部113は、車両210の色(ボディカラー)に応じて、画像処理のロジックを切り替えてもよい。さらに、画像処理部113は、画像における背景の色又は明るさと、車両210の色との組み合わせに応じて、画像処理のロジックを切り替えてもよい。例えば、背景が暗く、かつ車両210の色が暗い色の場合、画像において、車両の領域と背景の領域との区別がつきにくいと考えられる。また、背景と車両210の色とが同系色の場合も、画像において、車両の領域と背景の領域との区別がつきにくいと考えられる。画像処理部113は、画像において車両の領域と背景の領域との区別がつきにくい状況では、そのような状況に有効な画像処理のロジックを用いてもよい。
 画像処理部113は、第1の画像と第2の画像との比較の前に、画像間の輝度調整などを行ってもよい。輝度調整を行うことで、互いに異なる天候の下で撮影された画像間の輝度の差を低減できる。また、例えば、夜間に撮影された画像の輝度と、逆光の条件下で撮影された画像との輝度との差を、低減させることができる。画像処理部113は、第1の画像と第2の画像との比較では、第1の画像を基準として、第2の画像が第1の画像からどれだけ変化したかを検出してもよい。画像処理部113は、図1に示される画像処理手段33に対応する。
 図6は、画像処理部113の構成例を示す。画像処理部113は、領域分割部121と、画像比較部122とを含む。領域分割部121は、画像取得部111が取得した画像を、車両情報取得部112が取得した車種情報に応じて、複数の領域に分割する。領域分割部121は、カメラ150によって撮影された画像を、背景のみが含まれる第1の領域、背景と車両210(そのボディ)との双方が含まれる第2の領域、及び車両210のみが含まれる第3の領域に分割する。領域分割部121は、画像取得部111が取得した第1の画像を、第1の領域、第2の領域、及び第3の領域に分割する。領域分割部121は、画像取得部111が取得した第2の画像を、第1の領域、第2の領域、及び第3の領域に分割する。
 例えば、車両210が小さい車両である場合、標準的な大きさの車両に比べて、領域分割部121によって分割された画像には第1の領域と第2の領域とが多く含まれると考えられる。一方、車両210が大きい車両である場合、標準的な大きさの車両に比べて、領域分割部121によって分割された画像には、第2の領域と第3の領域とが多く含まれると考えられる。すなわち、小さい車両と大きい車両とでは、領域分割部121によって分割された画像に含まれる第1の領域、第2の領域及び第3の領域の割合が異なると考えられる。
 本実施形態において、領域分割部121は、車両210の大きさに応じた画像処理のロジックを用いて、画像を第1の領域、第2の領域、及び第3の領域に分割してもよい。例えば、領域分割部121は、車両210が小さい車両の場合、標準的な大きさの車両の場合に比べて、第1の領域及び第2の領域の割合が大きくなるように領域を分割するような画像処理のロジックを用いて領域分割を行ってもよい。領域分割部121は、車両210が大きい車両の場合、標準的な大きさの車両の場合に比べて、第2の領域及び第3の領域の割合が大きくなるように領域を分割するような画像処理のロジックを用いて領域分割を行ってもよい。
 画像比較部122は、領域分割部121で分割された第2の領域と第3の領域において、第1の画像と第2の画像とを比較する。つまり、画像比較部122は、第1の画像の第2の領域と、第2の画像の第2の領域とを比較する。また、画像比較部122は、第1の画像の第3の領域と第2の画像の第3の領域とを比較する。第1の領域は背景のみが含まれる領域であり、車両210が含まれないため、第1の領域は比較の対象からは除外される。例えば、画像比較部122は、第2の領域及び第3の領域において、例えば画素ごとに、或いは所定のブロックごとに、第2の画像が第1の画像からどれだけ変化したかを検出する。
 損傷検出部114は、画像処理部113における比較の結果に基づいて、傷や凹みなどの損傷の有無を判定する。別の言い方をすると、損傷検出部114は、画像処理部113における比較の結果に基づいて、車両210に生じた損傷を検出する。損傷検出部114は、例えば、第1の画像から第2の画像への変化の量がしきい値以上の箇所を、車両210において損傷が生じている箇所として検出する。損傷検出部114は、車両210の色情報に応じて、損傷箇所を判定するために使用されるしきい値を変化させてもよい。この場合、例えば、明るい色と暗い色とで、異なる基準で損傷箇所を判定することができる。
 また、損傷検出部114は、ユーザの予約情報に含まれる契約内容に応じて、上記しきい値を変化させてもよい。例えば、ユーザがレンタカーの契約時に保険に加入している場合、車両に傷がついていても、ユーザには費用が請求されない。損傷検出部114は、ユーザが保険に加入しているか否かに応じて、しきい値を変化させてもよい。例えば、ユーザが保険に加入していない場合、責任の所在を明確にするため、損傷個所の判定を厳密に行うことが好ましい。その場合、損傷検出部114は、しきい値に比較的小さな値を設定する。一方、ユーザが保険に加入している場合は、保険を使用して傷の修理が可能であるため、損傷個所の判定はあまり厳密でなくてもよい。その場合、損傷検出部114は、しきい値に比較的大きな値を設定してもよい。損傷検出部114は、損傷が検出された場合、店員などのレンタカー事業者の従業員に、アラートを出力してもよい。損傷検出部114は、図1に示される検出手段34に対応する。
 損傷が検出された場合、店員は、ユーザと共に、車両210を目視でチェックし、損傷が生じているか否かを調べる。損傷検出部114は、損傷を検出した場合、第2の画像における検出された損傷の箇所の画像を、強調し又は拡大してディスプレイに表示してもよい。店員は、ユーザと共にディスプレイ上に表示された画像を見て、損傷の有無をチェックすることができる。損傷検出部114は、第2の画像において損傷が検出された箇所(損傷箇所)の画像と、第1の画像における、損傷箇所に対応する箇所の画像とを、対比可能な態様で表示してもよい。その場合、店員及びユーザは、第1の画像が撮影された時点において、損傷が既に存在していたか否かをチェックすることができる。損傷があることが確認された場合、店員は、ユーザと費用交渉を実施する。
 続いて、動作手順を説明する。図7は、車両管理装置110における動作手順(車両管理方法)を示す。画像取得部111は、カメラ150が撮影した画像を取得する(ステップS1)。画像取得部111は、ステップS1では、例えば4台のカメラ150A-150D(図3を参照)を用いて撮影された4つの画像を取得する。
 画像取得部111は、車両210が返却される車両であるか否かを判断する(ステップS2)。画像取得部111は、ステップS2では、例えば予約DB131を参照し、車両210が返却される車両であるのか、或いは貸し出される車両であるのかを判断する。画像取得部111は、ステップS2で車両210が返却される車両ではないと判断した場合、ステップS1で取得した画像を、予約DB131(図4を参照)に、出発時画像(第1の画像)として登録する(ステップS3)。
 画像取得部111は、車両210が返却される車両である場合、ステップS1で取得した画像を、予約DB131に、帰着時画像(第2の画像)として登録する。車両情報取得部112は、ステップS2で車両210が返却される車両であると判断された場合、車両210の車種情報を取得する(ステップS4)。車両情報取得部112は、ステップS2では、例えば車両情報DB132(図5を参照)から、車種情報(車種名)を取得する。
 画像処理部113において、領域分割部121は、ステップS4で取得された車種情報に応じて、画像取得部111で取得された画像を複数の領域に分割する(ステップS5)。例えば、領域分割部121は、ステップS5では、出発時画像及び帰着時画像のそれぞれを、前述した第1の領域、第2の領域、及び、第3の領域に分割する。画像比較部122は、出発時画像と帰着時画像とを比較する(ステップS6)。例えば、画像比較部122は、ステップS6では、第2の領域及び第3の領域のそれぞれにおいて、出発時画像と帰着時画像とを比較する。
 損傷検出部114は、ステップS6の比較の結果、第1の画像から第2の画像への変化が大きいか否かを判断する(ステップS7)。損傷検出部114は、予約DB131に、ステップS7の判断結果を登録する。損傷検出部114は、ステップS7で変化が大きいと判断した場合、レンタカー事業者の店員、又は管理部門の担当者に、損傷アラートを通知する(ステップS8)。損傷検出部114は、ステップS8では、例えば車両210において画像の変化が大きい箇所、つまり車両210において損傷が生じている可能性が高い箇所を、店員又は担当者に通知する。
 本実施形態では、画像処理部113は、車両210の車種情報に応じた画像処理で、出発時画像である第1の画像と、帰着時画像である第2の画像とを比較する。画像処理部113において、領域分割部121は、車種情報を用いて、第1の画像及び第2の画像を、それぞれ、背景のみのが含まれる第1の領域と、背景及び車両本体が含まれる第2の領域と、車両本体のみが含まれる第3の領域とに分割する。画像比較部122は、第2の領域及び第3の領域において、第1の画像と第2の画像とを比較する。
 車両210が小さい車両である場合、分割された画像は第1の領域が多く含まれる。その場合、画像比較部122において、背景部分である第1の領域については、画像の比較が実施されない。背景部分の画像比較が省略されることで、無用な画像比較(画像検査)を抑制することができる。このため、本実施形態は、無駄な計算リソースを削減でき、コストダウンを実現できる。また、本実施形態では、背景部分の比較で傷が誤検知されることがないため、誤検知を低減でき、検査精度を向上できると考えられる。一方、車両210が大きい車両である場合、分割された画像に含まれる第1の領域は少ないと考えられる。その場合、車両210の本体部分が含まれる第2の領域及び第3の領域が多くなり、比較される領域が広いことで、画像比較の漏れを抑制し、検査精度を高めることができる。
 本実施形態において、損傷検出部114は、車種情報に応じた画像処理で比較された第1の画像と第2の画像との比較結果に基づいて、ユーザへの貸し出し中に車両210に生じた新たな損傷を検出できる。本実施形態では、画像処理部113において、車種情報に応じた画像処理で画像の比較が実施される。このため、本実施形態に係る車両管理装置110は、効率よく、正確に、車両210に生じた新たな損傷を検出することができる。
 本実施形態において、車両管理装置110は、車種ごとに、画像において、どの部分が、ボディ表面がカメラ150に向いているか領域であるかを示す情報を保持していてもよい。画像処理部113は、その情報を使用して画像の比較を実施することもできる。例えば、画像処理部113において、反射の影響を受けやすく、従って損傷を安定して検出することができない領域を、比較の対象から除外することで、車両210に損傷が生じているか否かの検査を、更に効率的に実施できる。
 上記各実施形態において、車両管理装置110は、コンピュータ装置として構成され得る。図8は、車両管理装置110として用いられ得るコンピュータ装置の構成例を示す。コンピュータ装置500は、制御部(CPU:Central Processing Unit)510、記憶部520、ROM(Read Only Memory)530、RAM(Random Access Memory)540、通信インタフェース(IF:Interface)550、及びユーザインタフェース560を有する。
 通信インタフェース550は、有線通信手段又は無線通信手段などを介して、コンピュータ装置500と通信ネットワークとを接続するためのインタフェースである。ユーザインタフェース560は、例えばディスプレイなどの表示部を含む。また、ユーザインタフェース560は、キーボード、マウス、及びタッチパネルなどの入力部を含む。
 記憶部520は、各種のデータを保持できる補助記憶装置である。記憶部520は、必ずしもコンピュータ装置500の一部である必要はなく、外部記憶装置であってもよいし、ネットワークを介してコンピュータ装置500に接続されたクラウドストレージであってもよい。
 ROM530は、不揮発性の記憶装置である。ROM530には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。CPU510が実行するプログラムは、記憶部520又はROM530に格納され得る。記憶部520又はROM530は、例えば車両管理装置110内の各部の機能を実現するための各種プログラムを記憶する。
 上記プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、RAM、ROM、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、Compact Disc (CD)-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 RAM540は、揮発性の記憶装置である。RAM540には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM540は、データなどを一時的に格納する内部バッファとして用いられ得る。CPU510は、記憶部520又はROM530に格納されたプログラムをRAM540に展開し、実行する。CPU510がプログラムを実行することで、車両管理装置110内の各部の機能が実現され得る。CPU510は、データなどを一時的に格納できる内部バッファを有してもよい。
 以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
 例えば、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 ユーザに貸し出される車両を撮影する1以上のカメラを用いて第1の時刻に撮影された第1の画像と、前記カメラを用いて前記第1の時刻よりも後の第2の時刻に撮影された第2の画像とを取得する画像取得手段と、
 前記車両の車種情報を取得する車種情報取得手段と、
 前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較する画像処理手段と、
 前記画像処理手段における前記比較の結果に基づいて、前記車両に生じた損傷を検出する検出手段とを備える車両管理装置。
[付記2]
 前記画像処理手段は、
 前記車種情報に応じて、前記第1の画像及び前記第2の画像を、それぞれ、背景のみが含まれる第1の領域、前記背景と前記車両との双方が含まれる第2の領域、及び前記車両のみが含まれる第3の領域に分割し、
 前記第1の画像の前記第2の領域と前記第2の画像の前記第2の領域とを比較し、前記第1の画像の前記第3の領域と前記第2の画像の前記第3の領域とを比較する、付記1に記載の車両管理装置。
[付記3]
 前記画像処理手段は、前記第1の画像と前記第2の画像との比較では、前記第1の画像を基準として、前記第2の画像が前記第1の画像からどれだけ変化したかを検出する、付記1又は2に記載の車両管理装置。
[付記4]
 前記検出手段は、前記第1の画像から前記第2の画像への変化の量がしきい値以上の場合、前記車両に傷が生じていると判定する、付記3に記載の車両管理装置。
[付記5]
 前記車種情報取得手段は、更に前記車両の色情報を取得し、
 前記検出手段は、前記色情報に応じて前記しきい値を変化させる、付記4に記載の車両管理装置。
[付記6]
 前記車種情報取得手段は、前記車両の識別情報を取得し、該取得した識別情報に基づいて車種情報を取得する、付記1から5何れか1項に記載の車両管理装置。
[付記7]
 前記車種情報取得手段は、前記識別情報と前記車種情報とを記憶するデータベースから、前記取得した識別情報に関連付けられる車種情報を取得する、付記6に記載の車両管理装置。
[付記8]
 前記車種情報取得手段は、前記第1の画像及び前記第2の画像に含まれる前記車両のナンバープレートの画像から前記識別情報を取得する、付記6に記載の車両管理装置。
[付記9]
 前記車種情報取得手段は、前記車両の車名を前記車種情報として取得する、付記1から8何れか1項に記載の車両管理装置。
[付記10]
 前記第1の時刻は、前記ユーザに前記車両が貸し出される前の時刻であり、前記第2の時刻は前記ユーザが前記車両を返却する時刻である、付記1から9何れか1項に記載の車両管理装置。
[付記11]
 第1の画像は出発時に出発店舗で撮影され、第2の画像は返却時に返却店舗で撮影される、付記1から10何れか1項に記載の車両管理装置。
[付記12]
 ユーザに貸し出される車両を撮影する1以上のカメラと、
 前記車両の管理に使用される車両管理装置とを備え、
 前記車両管理装置は、
 第1の時刻にに前記カメラを用いて撮影された第1の画像と、前記第1の時刻よりも後の第2の時刻に前記カメラを用いて撮影された第2の画像とを取得する画像取得手段と、
 前記車両の車種情報を取得する車種情報取得手段と、
 前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較する画像処理手段と、
 前記画像処理手段における前記比較の結果に基づいて、前記車両に生じた損傷を検出する検出手段とを有する、車両管理システム。
[付記13]
 前記画像処理手段は、
 前記車種情報に応じて、前記第1の画像及び前記第2の画像を、それぞれ、背景のみが含まれる第1の領域、前記背景と前記車両との双方が含まれる第2の領域、及び前記車両のみが含まれる第3の領域に分割し、
 前記第1の画像の前記第2の領域と前記第2の画像の前記第2の領域とを比較し、前記第1の画像の前記第3の領域と前記第2の画像の前記第3の領域とを比較する、付記12に記載の車両管理システム。
[付記14]
 ユーザに貸し出される車両を撮影する1以上のカメラを用いて第1の時刻に撮影された第1の画像と、前記カメラを用いて前記第1の時刻よりも後の第2の時刻に撮影された第2の画像とを取得し、
 前記車両の車種情報を取得し、
 前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較し、
 前記比較の結果に基づいて、前記車両に生じた損傷を検出することを有する車両管理方法。
[付記15]
 ユーザに貸し出される車両を撮影する1以上のカメラを用いて第1の時刻に撮影された第1の画像と、前記カメラを用いて前記第1の時刻よりも後の第2の時刻に撮影された第2の画像とを取得し、
 前記車両の車種情報を取得し、
 前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較し、
 前記比較の結果に基づいて、前記車両に生じた損傷を検出することを含む処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
10:車両管理システム
30:車両管理装置
31:画像取得手段
32:車種情報取得手段
33:画像処理手段
34:検出手段
50:カメラ
100:車両管理システム
110:車両管理装置
111:画像取得部
112:車両情報取得部
113:画像処理部
114:損傷検出部
121:領域分割部
122:画像比較部
130:データベース
131:予約DB
132:車両DB
150:カメラ
200:撮影エリア
210:車両

Claims (15)

  1.  ユーザに貸し出される車両を撮影する1以上のカメラを用いて第1の時刻に撮影された第1の画像と、前記カメラを用いて前記第1の時刻よりも後の第2の時刻に撮影された第2の画像とを取得する画像取得手段と、
     前記車両の車種情報を取得する車種情報取得手段と、
     前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較する画像処理手段と、
     前記画像処理手段における前記比較の結果に基づいて、前記車両に生じた損傷を検出する検出手段とを備える車両管理装置。
  2.  前記画像処理手段は、
     前記車種情報に応じて、前記第1の画像及び前記第2の画像を、それぞれ、背景のみが含まれる第1の領域、前記背景と前記車両との双方が含まれる第2の領域、及び前記車両のみが含まれる第3の領域に分割し、
     前記第1の画像の前記第2の領域と前記第2の画像の前記第2の領域とを比較し、前記第1の画像の前記第3の領域と前記第2の画像の前記第3の領域とを比較する、請求項1に記載の車両管理装置。
  3.  前記画像処理手段は、前記第1の画像と前記第2の画像との比較では、前記第1の画像を基準として、前記第2の画像が前記第1の画像からどれだけ変化したかを検出する、請求項1又は2に記載の車両管理装置。
  4.  前記検出手段は、前記第1の画像から前記第2の画像への変化の量がしきい値以上の場合、前記車両に傷が生じていると判定する、請求項3に記載の車両管理装置。
  5.  前記車種情報取得手段は、更に前記車両の色情報を取得し、
     前記検出手段は、前記色情報に応じて前記しきい値を変化させる、請求項4に記載の車両管理装置。
  6.  前記車種情報取得手段は、前記車両の識別情報を取得し、該取得した識別情報に基づいて車種情報を取得する、請求項1から5何れか1項に記載の車両管理装置。
  7.  前記車種情報取得手段は、前記識別情報と前記車種情報とを記憶するデータベースから、前記取得した識別情報に関連付けられる車種情報を取得する、請求項6に記載の車両管理装置。
  8.  前記車種情報取得手段は、前記第1の画像及び前記第2の画像に含まれる前記車両のナンバープレートの画像から前記識別情報を取得する、請求項6に記載の車両管理装置。
  9.  前記車種情報取得手段は、前記車両の車名を前記車種情報として取得する、請求項1から8何れか1項に記載の車両管理装置。
  10.  前記第1の時刻は、前記ユーザに前記車両が貸し出される前の時刻であり、前記第2の時刻は前記ユーザが前記車両を返却する時刻である、請求項1から9何れか1項に記載の車両管理装置。
  11.  第1の画像は出発時に出発店舗で撮影され、第2の画像は返却時に返却店舗で撮影される、請求項1から10何れか1項に記載の車両管理装置。
  12.  ユーザに貸し出される車両を撮影する1以上のカメラと、
     前記車両の管理に使用される車両管理装置とを備え、
     前記車両管理装置は、
     第1の時刻にに前記カメラを用いて撮影された第1の画像と、前記第1の時刻よりも後の第2の時刻に前記カメラを用いて撮影された第2の画像とを取得する画像取得手段と、
     前記車両の車種情報を取得する車種情報取得手段と、
     前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較する画像処理手段と、
     前記画像処理手段における前記比較の結果に基づいて、前記車両に生じた損傷を検出する検出手段とを有する、車両管理システム。
  13.  前記画像処理手段は、
     前記車種情報に応じて、前記第1の画像及び前記第2の画像を、それぞれ、背景のみが含まれる第1の領域、前記背景と前記車両との双方が含まれる第2の領域、及び前記車両のみが含まれる第3の領域に分割し、
     前記第1の画像の前記第2の領域と前記第2の画像の前記第2の領域とを比較し、前記第1の画像の前記第3の領域と前記第2の画像の前記第3の領域とを比較する、請求項12に記載の車両管理システム。
  14.  ユーザに貸し出される車両を撮影する1以上のカメラを用いて第1の時刻に撮影された第1の画像と、前記カメラを用いて前記第1の時刻よりも後の第2の時刻に撮影された第2の画像とを取得し、
     前記車両の車種情報を取得し、
     前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較し、
     前記比較の結果に基づいて、前記車両に生じた損傷を検出することを有する車両管理方法。
  15.  ユーザに貸し出される車両を撮影する1以上のカメラを用いて第1の時刻に撮影された第1の画像と、前記カメラを用いて前記第1の時刻よりも後の第2の時刻に撮影された第2の画像とを取得し、
     前記車両の車種情報を取得し、
     前記取得された車種情報に応じた画像処理のロジックを用いて、前記第1の画像と前記第2の画像とを比較し、
     前記比較の結果に基づいて、前記車両に生じた損傷を検出することを含む処理をコンピュータに実行させるためのプログラムを格納する非一時的なコンピュータ可読媒体。
PCT/JP2021/040604 2021-11-04 2021-11-04 車両管理装置、システム、方法、及びコンピュータ可読媒体 WO2023079635A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040604 WO2023079635A1 (ja) 2021-11-04 2021-11-04 車両管理装置、システム、方法、及びコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040604 WO2023079635A1 (ja) 2021-11-04 2021-11-04 車両管理装置、システム、方法、及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023079635A1 true WO2023079635A1 (ja) 2023-05-11

Family

ID=86240807

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040604 WO2023079635A1 (ja) 2021-11-04 2021-11-04 車両管理装置、システム、方法、及びコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023079635A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095880A (ja) * 2009-10-28 2011-05-12 Keiichi Kato 自動車管理装置、車載装置自動車管理システム
JP2020194481A (ja) * 2019-05-30 2020-12-03 株式会社デンソー 車両の撮影方法、車両の点検支援方法、車両の貸出方法、車両撮影プログラムおよび車両管理サーバ
JP6830690B1 (ja) * 2019-12-26 2021-02-17 株式会社Ikedaホールディングス 車両管理サーバ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095880A (ja) * 2009-10-28 2011-05-12 Keiichi Kato 自動車管理装置、車載装置自動車管理システム
JP2020194481A (ja) * 2019-05-30 2020-12-03 株式会社デンソー 車両の撮影方法、車両の点検支援方法、車両の貸出方法、車両撮影プログラムおよび車両管理サーバ
JP6830690B1 (ja) * 2019-12-26 2021-02-17 株式会社Ikedaホールディングス 車両管理サーバ

Similar Documents

Publication Publication Date Title
KR102270499B1 (ko) 이미지 기반의 차량 손상 판정 방법과 장치, 및 전자기기
CN110472515B (zh) 货架商品检测方法及系统
US11080839B2 (en) System and method for training a damage identification model
US8854431B2 (en) Optical self-diagnosis of a stereoscopic camera system
KR20190139938A (ko) 픽쳐 기반의 차량 손해 평가 방법 및 장치, 및 전자 디바이스
RU2622465C1 (ru) Способы и системы для проверки транспортного средства
US11087138B2 (en) Vehicle damage assessment method, apparatus, and device
US10706633B2 (en) Augmented reality systems and methods for vehicle inspection
US9792526B2 (en) Automatic identification of changes in objects
US20160239922A1 (en) System and method of real-time imaging and analysis of real-world objects
CN110147465A (zh) 图像处理方法、装置、设备和介质
CN104635707A (zh) 铁路检测车检测数据的处理方法和系统
TWI738026B (zh) 從多個臉部中選擇目標臉部及臉部識別比對方法、裝置
CN110298302B (zh) 一种人体目标检测方法及相关设备
WO2023079635A1 (ja) 車両管理装置、システム、方法、及びコンピュータ可読媒体
CN112287905A (zh) 车辆损伤识别方法、装置、设备及存储介质
JP6953345B2 (ja) 貨物ダメージ情報管理システム、及びそれに用いる貨物ダメージ情報管理方法
CN110796099A (zh) 一种车辆超限检测方法及装置
TWI817256B (zh) 透明顯示系統及其控制方法與控制裝置
US11720969B2 (en) Detecting vehicle identity and damage status using single video analysis
US11410462B2 (en) Processing system and processing method
JP2022036983A (ja) セルフレジシステム、購入商品管理方法および購入商品管理プログラム
JP2021043967A (ja) 情報処理装置
CN115115737B (zh) 热成像中伪影的识别方法、装置、设备、介质及程序产品
CN111932543B (zh) 确定像素化车伤数据的方法、电子设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21963232

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023557501

Country of ref document: JP

Kind code of ref document: A