WO2022153838A1 - 情報処理装置、情報処理システム、および方法、並びにプログラム - Google Patents

情報処理装置、情報処理システム、および方法、並びにプログラム Download PDF

Info

Publication number
WO2022153838A1
WO2022153838A1 PCT/JP2021/048181 JP2021048181W WO2022153838A1 WO 2022153838 A1 WO2022153838 A1 WO 2022153838A1 JP 2021048181 W JP2021048181 W JP 2021048181W WO 2022153838 A1 WO2022153838 A1 WO 2022153838A1
Authority
WO
WIPO (PCT)
Prior art keywords
resolution
image
analysis
information processing
camera
Prior art date
Application number
PCT/JP2021/048181
Other languages
English (en)
French (fr)
Inventor
一真 重松
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/259,899 priority Critical patent/US20240073405A1/en
Publication of WO2022153838A1 publication Critical patent/WO2022153838A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision

Definitions

  • This disclosure relates to information processing devices, information processing systems, methods, and programs. More specifically, the present invention relates to information processing devices, information processing systems, and methods, and programs that enable safer automatic driving and driving support.
  • Autonomous driving technology is a technology that enables automatic driving on roads by using various sensors such as position detection means provided in a vehicle (automobile), and is expected to spread rapidly in the future.
  • Detection information from various sensors is used for autonomous driving and driving support.
  • a camera mounted on a vehicle may deteriorate in image analysis performance such as a decrease in resolution due to the influence of vibration or temperature change generated in the traveling process of the vehicle.
  • Such judgment of camera performance for example, inspection of whether or not the resolution of the image taken by the camera is maintained at the initial resolution, is performed by a dealer or the like using a dedicated inspection machine at the time of regular vehicle inspections. It is common to do this.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2019-028633.
  • the present disclosure has been made in view of the above-mentioned problems, for example, and is information that enables reliable inspection of the resolution of an image taken by a camera mounted on a vehicle without causing a burden on the user. It is an object of the present invention to provide a processing device, an information processing system, and a method, and a program.
  • the first aspect of the disclosure is An image analysis unit that inputs images taken by the camera and analyzes the input images, It has a resolution calculation unit that calculates the resolution of the captured image.
  • the image analysis unit A captured image at the timing when the reference line is detected at a predetermined position from the captured image of the camera is selected as an image for resolution analysis.
  • the resolution calculation unit The information processing device calculates the resolution of the captured image by using the resolution analysis chart image included in the resolution analysis image selected by the image analysis unit.
  • the second aspect of the present disclosure is It is an information processing system that has a mobile device and a management server.
  • the moving device is An image analysis unit that inputs images taken by a camera mounted on the moving device and analyzes the input images.
  • a resolution calculation unit that calculates the resolution of the camera, Has a communication unit The image analysis unit The captured image at the timing when the reference line is detected from the captured image of the camera is selected as the image for resolution analysis, and the image is selected.
  • the resolution calculation unit Using the resolution analysis chart image included in the resolution analysis image selected by the image analysis unit, the resolution of the captured image is calculated, and the calculated resolution is transmitted to the management server via the communication unit.
  • the management server It is in an information processing system that analyzes a plurality of resolution data received from a plurality of mobile devices.
  • the third aspect of the present disclosure is It is an information processing method executed by the information processing device mounted on the mobile device.
  • the image analysis department An image analysis step of selecting a captured image at the timing when the reference line is detected from the captured image of the camera mounted on the moving device as an image for resolution analysis, and an image analysis step.
  • the resolution calculation unit There is an information processing method for executing a captured image resolution calculation step of calculating the resolution of the captured image by using a resolution analysis chart image included in the resolution analysis image selected in the image analysis step.
  • the fourth aspect of the present disclosure is It is an information processing method executed in an information processing system having a mobile device and a management server.
  • the image analysis unit of the mobile device An image analysis step of selecting a captured image at the timing when the reference line is detected from the captured image of the camera mounted on the moving device as an image for resolution analysis, and an image analysis step.
  • the resolution calculation unit of the mobile device Using the resolution analysis chart image included in the resolution analysis image selected in the image analysis step, the resolution of the captured image is calculated, and the calculated resolution is transmitted to the management server.
  • the management server It is an information processing method that executes analysis of a plurality of resolution data received from a plurality of mobile devices.
  • the fifth aspect of the present disclosure is It is a program that executes information processing in the information processing device mounted on the mobile device.
  • the program is applied to the image analysis unit.
  • the resolution calculation section There is a program for executing a captured image resolution calculation step for calculating the resolution of the captured image by using the resolution analysis chart image included in the resolution analysis image selected in the image analysis step.
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • a chart installed on the road is photographed from a certain distance, the photographed image is analyzed to calculate the camera resolution, and a warning output and automatic driving level reduction processing are performed according to the calculation result.
  • the configuration to execute is realized. Specifically, for example, the image analysis unit selects a captured image at the timing when the reference line is detected from the camera captured image as the resolution analysis image.
  • the resolution calculation unit calculates the resolution of the camera by using the resolution analysis chart image included in the resolution analysis image selected by the image analysis unit.
  • the reference line is recorded on the road that is a certain distance away from the resolution analysis chart installed on the road on which the moving device travels, and the high-precision camera resolution can be calculated based on the image of the chart taken from a certain distance.
  • the moving device (example: vehicle) 10 shown in FIG. 1 is, for example, an autonomous driving vehicle or a vehicle having a driving support function that automates a part of driving.
  • the driving support function includes various functions such as an automatic braking function and a constant speed running function.
  • the self-driving vehicle and the vehicle 10 having a driving support function have various sensors such as a camera, a radar, and a position detection means provided in the vehicle 10, and use the detection information of these sensors to safely drive on the road. It is possible.
  • the vehicle 10 shown in FIG. 1 has a camera 11 which is one of the sensors.
  • the camera 11 mounted on the vehicle 10 may be displaced from the mounting position of the image sensor unit and the lens unit due to the influence of vibration and temperature change generated in the traveling process of the vehicle 10, and as a result, the camera 11 may be displaced. It may reduce the quality of important sensor functions, such as reduced resolution.
  • the resolution of the image taken by the camera depends on the lens performance of the camera, the misalignment between the image sensor and the lens of the camera, and the number of pixels of the image sensor of the camera. That is, the resolution of the image taken by the camera is limited by at least one of the lens performance of the camera, the positional deviation between the image sensor and the lens of the camera, and the number of pixels of the image sensor of the camera.
  • This misalignment is a mechanical misalignment due to the influence of expansion of the adhesive and the like.
  • the present disclosure meets this requirement and makes it possible to check the resolution of the camera 11 while the vehicle 10 is traveling.
  • autonomous driving using sensors such as cameras and driving using driving support are limited to specific road sections, such as some sections of expressways and arterial roads.
  • This is a section defined by, for example, conditions such as the provision of infrastructure equipment capable of safe automatic driving, and is called an automatic driving runnable section (ODD: Operational Design Domein).
  • the mobile device (example: vehicle) 10 will automatically drive in such an automatic driving travelable section (ODD). However, if the resolution of the camera 11 is lowered in such a section, safe automatic driving may not be possible.
  • ODD automatic driving travelable section
  • a chart for camera resolution inspection is installed at a position where the camera 11 of a moving device (eg, a vehicle) 10 on a highway can take a picture, at a fixed interval on the entrance of a highway or the main line thereof. do.
  • a chart 23 for camera resolution inspection is installed at the end of a sign as shown in FIG.
  • the chart 23 is photographed by the camera 11 of the moving device (eg, vehicle) 10. However, in order to analyze the resolution of the camera 11, it is necessary to keep the shooting distance of the chart 23 constant. A marker 21 and a reference line 22 for positioning the imaging position of the chart 23 are recorded on the road.
  • the image analysis unit that analyzes the captured image of the camera 11 detects the marker 21 and refers to the front of the marker 21.
  • the image frame of the chart 23 taken at the detection timing of the line 22 is taken out, and the taken out image frame is used as an image frame for resolution analysis to perform resolution analysis processing. By performing such processing, it is possible to analyze the resolution of the camera 11 using the captured image of the chart 23 captured from a certain distance.
  • the chart 23 is installed, for example, for each predetermined section on the road.
  • the marker 21 and the reference line 22 are recorded at a fixed distance of each chart position installed on the road and at a position in front of the chart position.
  • the moving device (eg, vehicle) 10 can repeatedly perform the resolution inspection at each chart position.
  • the configuration of the present disclosure is a chart for resolution analysis by the camera 11 of the moving device (eg, vehicle) 10 from a position defined by the marker 21 and the reference line 22, that is, a position constant distance from the chart 23. Take 23 images.
  • the information processing device in the mobile device (example: vehicle) 10 calculates the resolution of the camera 11 using the captured image, and determines whether or not the resolution of a predetermined reference is maintained.
  • the information processing device in the mobile device (example: vehicle) 10 outputs a warning and executes a control for lowering the automatic driving level.
  • SAE The American Society of Automotive Engineers of Japan (SAE) defines six levels of automated driving, from level 0 (manual driving) to level 5 (fully automated driving). .. Many countries around the world, including Japan, have adopted this SAE automated driving level definition.
  • the automatic operation level definition of SAE will be described with reference to FIG. SAE defines six levels of automatic operation from level 0 (manual operation) to level 5 (fully automatic operation) shown in FIG. 2 as levels of automatic operation.
  • the definition (operating state) of each automatic operation level is as follows.
  • Level 1 Autonomous driving system executes either accelerator and brake operation or handle operation
  • Level 2 Autonomous driving system executes accelerator and brake operation and handle operation
  • Level 3 Regulation conditions (for example, a predetermined highway section) Etc.), the automatic driving system executes all automatic driving. However, it is necessary for the driver to constantly monitor and return to manual driving in an emergency.
  • Level 4 Autonomous driving system executes all automatic driving under the specified conditions
  • Level 5 Autonomous driving system without conditions Perform all automated driving
  • SAE defines six levels of automation from level 0 (manual operation) to level 5 (fully automatic operation).
  • level 3 and level 4 are, for example, specified on the condition that the vehicle travels at a specific place. Specifically, for example, the condition is that the vehicle travels on a highway, an area with relatively low traffic such as a depopulated area, or an area with a relatively simple driving environment such as a university campus or an airport facility. Is.
  • the mobile device (example: vehicle) 10 shown in FIG. 1 is a vehicle capable of switching at least a plurality of levels of the automatic driving level which is the definition level of these SAEs
  • the information in the mobile device (example: vehicle) 10 The processing device also performs control of the automated operation level. That is, when it is determined that the resolution of the camera 11 does not meet the standard of the rule, control or the like for lowering the automatic operation level is executed.
  • the moving device (example: vehicle) 10 shown in FIG. 1 is, for example, a vehicle capable of switching from level 0 (manual driving) to level 2 (partially automatic driving), or level 0 (manual driving) to level. 4 (semi-automatic driving) switchable vehicle, or level 0 (manual driving) to level 5 (fully automatic driving) switchable vehicle, in the case of such a vehicle, control to lower the automatic driving level is executed. do.
  • FIG. 3 shows a moving device (example: vehicle) 10 similar to FIG. 1 described above.
  • H be the height of the camera 11 from the road.
  • the camera optical axis indicating the camera shooting direction is an axis parallel to the road surface, and the camera angle of view indicating the camera shooting range is 2 ⁇ .
  • the marker 21 or the reference line 22 is inserted at the position of the maximum angle of view ( ⁇ ) in the downward direction of the camera angle of view, the marker 21 or the reference line 22 is photographed by the camera 11.
  • the marker 21 and the reference line 22 on the road are identification marks recorded on the road to specify the timing of taking the image for resolution analysis. Specific examples of the marker 21 and the reference line 22 are shown in FIGS. 4 and 5.
  • the marker 21 is composed of, for example, a graphic pattern having a specific shape (mountain shape) as shown in FIG. 4 and an identification mark composed of a specific two-dimensional pattern as shown in FIG.
  • the marker 21 is a mark indicating that the reference line 22 is recorded in front of the marker 21.
  • the chart 23 is photographed at the detection timing of the reference line 22 in front of the marker 21, and the captured image frame is used as an image frame for resolution analysis to perform resolution analysis processing. By performing such processing, it is possible to analyze the resolution of the camera 11 using the captured image of the chart 23 captured from a certain distance.
  • the information processing device in the mobile device detects the marker 21 from the image captured by the camera 11 while traveling on the road, and further detects the reference line 22 recorded in front of the marker 21, the reference line is detected. 22
  • the captured image frame at the detection timing is selected as the image frame for camera resolution analysis, and the resolution analysis of the camera 11 is executed based on the image of the chart 23 captured in the selected image frame.
  • the chart 23 is installed, for example, on the side of a traffic sign. Alternatively, it will be installed on the road as a dedicated and independent sign. A resolution analysis chart having a specific image pattern is used for the analysis of the camera resolution.
  • FIG. 6 shows a plurality of examples of charts (image patterns) used for analyzing the resolution of an image taken by a camera.
  • a chart is installed on the side of a traffic sign on the road.
  • FIG. 6 shows four types of charts for resolution analysis, there are various other charts.
  • FIG. 7 is a diagram showing an example of a chart-captured image taken with a camera having a high resolution and an example of a chart-captured image taken with a camera having a low resolution.
  • FIG. 7A is a chart to be photographed.
  • B1 is an example of a chart photographed image when (a) the chart to be photographed is photographed by a camera having a high resolution.
  • B2 is an example of a chart photographed image in the case where the same (a) image target chart is photographed by a camera having a reduced resolution. In this way, even when the same chart is taken, the image taken by the camera whose resolution is lowered becomes an image in which the edge portion is blurred.
  • the distance (L) between the camera 11 and the chart 23 is L1: Distance between camera 11 and reference line 22
  • the distance L2 is the distance between the camera 11 and the reference line 22, and the distance L2 is derived from the fixed value of the lower angle of view ⁇ (camera optical axis and lower field of view of the camera) and the height (H) of the camera. It is calculated according to the following formula.
  • the optical axis of the camera is parallel to the ground.
  • L2 H ⁇ (cot ⁇ )
  • the chart 23 is, for example, a chart composed of a pattern image for resolution analysis as described above with reference to FIG.
  • the chart 23 installed on the road can be configured by printing a pattern image on a plate-shaped material, for example, like a normal sign.
  • a light source such as an LED light source may be arranged from the front of the chart 23 to irradiate the chart (pattern image).
  • the chart 23 may be used as a light-transmitting material, and a light source such as an LED light source may be provided on the back portion to irradiate light from the back portion of the chart (pattern image).
  • the duty ratio of the light source ON / OFF is set sufficiently short with respect to the shutter speed of the camera so as not to cause flicker. Further, since the visibility of the chart 23 is deteriorated by the reflected light when the direct sunlight is incident on the chart 23, a "eaves" may be provided like a traffic light so as not to be irradiated with the direct sunlight.
  • the camera 11 of the moving device (example: vehicle) 10 continuously captures an image in front of the moving device (example: vehicle) 10.
  • the information processing device in the mobile device (example: vehicle) 10 detects the reference line 22 from the captured image of the camera 11 while traveling on the road, the captured image frame at the reference line detection timing is selected as the image frame for camera resolution analysis. do.
  • the information processing device in the mobile device (eg, vehicle) 10 executes the resolution analysis process of the camera 11 based on the image of the chart 23 captured in the selected image frame.
  • the information processing device in the mobile device (example: vehicle) 10 results in a resolution analysis of the camera 11 and the resolution is equal to or lower than a predetermined threshold value
  • the information processing device warns the driver via, for example, a display unit or a speaker. Output.
  • FIG. 8 shows an example in which the following warning message is displayed on the display unit. "The resolution of the captured image is low. Please do not perform automatic driving or support driving. Please drop in at your local dealer, repair shop, gas station, etc. to repair or adjust the camera. This is a display example of the message "It is recommended to do it.”
  • the user can see this message, recognize the decrease in the resolution of the image taken by the camera, and take actions such as requesting repair without delay.
  • the warning message shown in FIG. 8 is an example.
  • the reliability of automatic operation processing functions such as an automatic braking system (AEB: Autonomous Emergency Breaking) and an automatic operation control device (ACC: Adaptive Cruise Control) It is also possible to give a warning to notify that the value has decreased.
  • AEB Autonomous Emergency Breaking
  • ACC Automatic Cruise Control
  • the mobile device (example: vehicle) 10 when the mobile device (example: vehicle) 10 is executing automatic driving, it may be configured to output a process of lowering the control level of automatic driving or a warning prompting to switch to manual driving.
  • a plurality of charts 23 shown in FIG. 3 are arranged together with the marker 21 and the reference line 22 for each predetermined distance on the road, for example.
  • the information processing device in the mobile device (example: vehicle) 10 is more accurate by performing processing such as adding and averaging a plurality of resolution calculation results calculated based on chart captured images at a plurality of different points. High resolution can be calculated. For example, it is possible to calculate a highly accurate value by correcting the variation in the resolution calculation value due to the atmospheric condition at the time of image capture.
  • the process according to the flow described below can be executed according to, for example, a program stored in the storage unit of the information processing device mounted in the mobile device (example: vehicle) 10. For example, it is executed under the control of a data processing unit (control unit) having a CPU or the like having a program execution function.
  • a data processing unit control unit
  • CPU central processing unit
  • FIGS. 10 and 11 the processing of each step of the flowcharts shown in FIGS. 10 and 11 will be sequentially described.
  • the data processing unit of the information processing device mounted in the mobile device (example: vehicle) 10 is a mobile device (example) such as a camera 11, GPS, a raindrop sensor, etc. mounted in the mobile device (example: vehicle) 10.
  • Vehicle Executes external environment information acquisition processing using various sensors mounted on 10. For example, the captured image of the camera 11 is input, and further, the position information acquisition process by GPS, the rainfall information acquisition process by the raindrop sensor, and the like are performed.
  • step S102 the data processing unit of the information processing device determines whether or not it is raining on the traveling path of the mobile device (eg, vehicle) 10 based on the external environment information acquired in step S101. This process is performed using the detection information of the raindrop sensor.
  • step S102 determines whether the field of view is good and high-precision resolution analysis based on the chart captured image by the camera 11 is possible, and the chart capture is performed. Perform resolution analysis.
  • the data processing unit of the information processing device inputs a captured image of the camera 11 that captures the front of the moving device (example: vehicle) 10, executes image analysis, and detects the marker 21 from the captured image. ..
  • the marker 21 is, for example, the marker described above with reference to FIG. That is, the marker 21 is recorded at a position in front of the reference line 22 defined as a shooting point of the shot image of the chart 23 used for resolution analysis, and the road surface position where the camera 11 of the moving device (example: vehicle) 10 can shoot. It is a marker recorded in.
  • step S103 If it is determined in step S103 that the image of the marker 21 is detected from the image captured by the camera 11, the process proceeds to step S104.
  • Step S104 When the image of the marker 21 is detected from the image captured by the camera 11 in step S103, the data processing unit of the information processing apparatus then detects the reference line 22 from the image captured by the camera 11 in step S104.
  • the reference line 22 is a reference line for setting the image frame of the chart 23 taken at the detection timing as the image frame for resolution analysis. That is, it is a reference line recorded on a road separated from the chart 23 by a specified distance in order to specify the distance and timing for taking an image for executing the resolution analysis process.
  • step S104 If it is determined in step S104 that the image of the reference line 22 is detected from the image captured by the camera 11, the process proceeds to step S105.
  • Step S105 When the image of the reference line 22 is detected from the captured image of the camera 11 in step S104, the data processing unit of the information processing apparatus then executes the chart capturing process in step S105.
  • the chart to be photographed is the chart 23 described above with reference to FIGS. 3, 6 and the like.
  • the chart 23 is installed on the road, for example, on the side of a traffic sign or as a dedicated independent sign.
  • the chart is a chart (image pattern) used for analyzing the resolution of an image taken by a camera, for example, as described above with reference to FIG.
  • step S105 for example, a chart shooting process as shown in FIG. 6 is executed at the timing when the reference line 22 is detected from the captured image of the camera 11.
  • step S106 the information processing device of the mobile device (example: vehicle) 10 stores the camera-photographed image from the position of the reference line 22 in the internal memory (storage unit) as an image for camera resolution analysis.
  • step S107 the information processing device of the mobile device (eg, vehicle) 10 starts the camera resolution calculation process using the camera resolution analysis image stored in the internal memory (storage unit).
  • the camera resolution analysis image stored in the memory (storage unit) is the captured image of the chart 23.
  • the chart is a chart (image pattern) used for analyzing the resolution of an image taken by a camera, for example, as described above with reference to FIG. As described above with reference to FIG. 7, the degree of blurring of the edges of the black-and-white pattern constituting the chart differs depending on the difference in the resolution of the image taken by the camera.
  • step S108 the information processing device of the mobile device (example: vehicle) 10 executes black level and white level correction of the camera resolution analysis image acquired from the memory (storage unit). This level correction is executed for the purpose of correcting a black-and-white level error due to the shooting environment. After executing this black-and-white level correction, the process proceeds to the next step S121.
  • Step S121 the information processing device of the mobile device (example: vehicle) 10 has a modulation transfer function (MTF: Modulation) which is an index value of the contrast of the camera resolution analysis image, that is, the chart image, in which the black and white level is corrected in step S121. Transfer Function) calculation processing is executed.
  • the value of the modulation transfer function (MTF) is used as an index value of the resolution of the image taken by the camera.
  • Steps S122, S122b Next, the information processing device of the mobile device (eg, vehicle) 10 steps on the value of the modulation transfer function (MTF) calculated in step S121 or the resolution calculated based on the value of the modulation transfer function (MTF). In S122, it is stored in the internal memory of the information processing device. Further, in step S122b, the value of the modulation transfer function (MTF) or the resolution calculated based on the value of the modulation transfer function (MTF) is transmitted (uploaded) to the external management server.
  • the modulation transfer function (MTF) or the resolution calculated based on the value of the modulation transfer function (MTF) is transmitted (uploaded) to the external management server.
  • the value of the modulation transfer function (MTF) or the resolution calculated based on the value of the modulation transfer function (MTF) When transmitting (uploading) the value of the modulation transfer function (MTF) or the resolution calculated based on the value of the modulation transfer function (MTF) to an external management server, the value of the modulation transfer function (MTF). , Or the resolution, along with the mobile device (eg, vehicle) 10 or the identifier (ID) of the information processing device, as well as the modulation transfer function (MTF) or the resolution calculation timing (date and time).
  • the management server receives the value or resolution of the modulation transfer function (MTF) from each vehicle, generates MTF (or resolution) history data for each mobile device, and records it in the database in the server.
  • MTF modulation transfer function
  • the management server refers to this historical data and analyzes the tendency of the resolution of the image taken by the camera attached to each mobile device to decrease, for example, the resolution is reduced to the allowable level required for automatic driving. In that case, a process such as sending a warning to the moving device is performed.
  • Step S123 Next, in the information processing device of the mobile device (example: vehicle) 10, in step S123, the modulation transfer function (MTF) or the resolution value, which is the contrast index value calculated in step S121, is a predetermined standard value.
  • the threshold value that is, whether or not it is equal to or less than the standard value required for safely executing the automatic operation is determined.
  • Step S124 If it is not below the standard value, that is, if the modulation transfer function (MTF) or resolution of the camera 11 mounted on the mobile device (eg vehicle) meets the standard value required to safely perform autonomous driving. , Step S124. On the other hand, if it is determined that the value is equal to or less than the standard value, that is, the camera 11 does not satisfy the standard value required for safely executing the automatic operation, the process proceeds to step S141.
  • MTF modulation transfer function
  • Step S124 When it is determined in step S123 that the contrast index value, the modulation transfer function (MTF) or the resolution value, is not equal to or less than a predetermined standard value, that is, a standard value required for safely executing automatic operation. The process of step S124 is executed.
  • a predetermined standard value that is, a standard value required for safely executing automatic operation.
  • step S124 the information processing device of the mobile device (example: vehicle) 10 determines whether or not the resolution of the camera 11 mounted on the mobile device (example: vehicle) tends to decrease. This determination process is executed with reference to, for example, the history data of the MTF value (or resolution value) stored in the internal memory of the information processing device of the mobile device (eg, vehicle) 10. Alternatively, the MTF value (or resolution value) history data of the camera of the own vehicle may be acquired from the management server and the determination process may be executed.
  • step S124 If it is determined in step S124 that there is no tendency for the resolution of the camera 11 mounted on the moving device (eg, vehicle) to decrease, the process proceeds to step S125. On the other hand, if it is determined that the resolution of the camera 11 mounted on the moving device (eg, vehicle) tends to decrease, the process proceeds to step S131.
  • Step S125 The process of step S125 is executed when it is determined in step S124 that there is no tendency for the resolution of the camera 11 mounted on the moving device (eg, vehicle) to decrease.
  • the information processing device of the mobile device (example: vehicle) 10 generates and outputs an inspection report indicating that there is no tendency of the resolution of the camera 11 mounted on the mobile device (example: vehicle) to decrease in step S125. do.
  • an inspection report indicating that the resolution of the camera 11 does not tend to decrease is displayed on the display unit of the mobile device (example: vehicle), and the process ends.
  • Step S131 On the other hand, if it is determined in step S124 that the resolution of the camera 11 mounted on the moving device (eg, vehicle) tends to decrease, the processes of steps S131 to S132 are executed.
  • the information processing device of the mobile device (example: vehicle) 10 outputs a warning to the user (driver) in step S131.
  • a warning message as shown in FIG. 12 is output.
  • warning message is output.
  • the resolution of captured images is declining. Please inspect and repair as soon as possible. Also, when performing automatic driving, it is recommended to perform automatic driving of level 3 or lower under driver supervision.
  • the user can see this message, recognize the decrease in the resolution of the image taken by the camera, and take actions such as requesting repair without delay.
  • Step S132 When the user (driver) sees and confirms the warning displayed on the display unit in step S131, he / she touches the confirmation icon displayed on the display unit (touch panel).
  • the information processing device of the mobile device detects the touch processing of the confirmation icon by the user (driver), it determines that the confirmation by the user has been completed and ends the processing.
  • Step S141 The processes of steps S141 to S143 are necessary for the value of the modulation transfer function (MTF), which is the contrast index value calculated in step S121, to be a predetermined standard value, that is, to safely execute the automatic operation in step S123. This is the process to be executed when it is determined that the value is equal to or less than the standard value.
  • MTF modulation transfer function
  • the information processing device of the mobile device (example: vehicle) 10 outputs a warning to the user (driver) in step S141.
  • warning information is displayed on the display unit of the mobile device (example: vehicle) 10.
  • FIG. 13 shows an example of specific display data. As shown in FIG. 13, warning information is displayed on a display unit that can be observed by a driver (driver) of a mobile device (example: vehicle) 10.
  • the display information example shown in FIG. 13 is an example in which the following message is displayed. "The resolution of the captured image is low. If you want to drive automatically, please drive at level 3 or lower under the supervision of the driver.”
  • the driver who is the user, sees the message displayed on the display and recognizes that the resolution of the image taken by the camera may have decreased, and either cancels the transition to autonomous driving or cancels the transition to autonomous driving. It is possible to perform low-level automatic driving and take measures such as paying close attention during automatic driving.
  • Step S142 When the user (driver) sees and confirms the warning displayed on the display unit in step S141, for example, he / she touches the confirmation icon displayed on the display unit (touch panel) shown in FIG.
  • the information processing device of the mobile device detects the touch processing of the confirmation icon by the user (driver), it determines that the confirmation by the user has been completed, and proceeds to step S143.
  • step S143 the information processing device of the mobile device (example: vehicle) 10 executes a process of lowering the level of the automatic driving currently being executed. For example, when the level of the automatic operation currently being executed is level 5, a process of switching to the automatic operation of level 4 or the like is executed.
  • the reduction level may be set to be changed according to, for example, the reduction level of the analyzed camera resolution. For example, if the reduction level of the camera resolution is small, the reduction level of the automatic operation level is set to 1 level, and if the reduction level of the camera resolution is large, the reduction level of the automatic operation level is set to 2 to 3 levels. May be good.
  • step S143 When the level reduction process of automatic operation is completed in step S143, a series of processes is completed.
  • warning information presented to the driver (driver) of the mobile device (example: vehicle) 10 in step S141 has been described with reference to FIG. 13, but the example shown in FIG. 13 is an example, and the driver (driving).
  • the warning information presented to the person) can be various different types of information.
  • FIG. 14 shows an example of specific display data of different types.
  • the display information example shown in FIG. 14 is an example in which the following message is displayed. "The resolution of the captured image has decreased. Currently, level 5 automatic operation is being executed. Please select which of the following to switch to.” In addition, the following options are displayed. ⁇ Switch automatic operation to level 4 ⁇ Switch automatic operation to manual operation
  • the driver who is the user, looks at the message displayed on the display and selects one of the options.
  • the user can input the selection information of one of the two options displayed on the display unit.
  • the display data example shown in FIGS. 14 and 15 is an example of display data when the mobile device (example: vehicle) 10 is currently executing automatic driving. If the mobile device (eg, vehicle) 10 is currently performing manual driving instead of automated driving, different data will be displayed.
  • FIG. 16 shows an example of display data when the mobile device (example: vehicle) 10 is currently performing manual driving instead of automatic driving.
  • the display information example shown in FIG. 16 is an example in which the following message is displayed. "The resolution of the captured image has decreased. Currently, manual driving is being executed, but there is a possibility that an abnormality has occurred in the automatic driving control system. When performing automatic driving, the level is under the supervision of the driver. It is recommended to perform automatic operation of 3 or less. "
  • the driver who is the user, sees the message displayed on the display and recognizes that the resolution of the image taken by the camera may have decreased, and either cancels the transition to autonomous driving or cancels the transition to autonomous driving. It is possible to perform low-level automatic driving and take measures such as paying close attention during automatic driving.
  • FIG. 17 is a block diagram illustrating a configuration example of the information processing system 100 mounted on the mobile device (example: vehicle) 10 of the present disclosure.
  • the information processing system 100 includes an imaging unit (camera) 101, an image processing processor (ISP) 102, an image analysis unit 103, a resolution calculation unit 104, an internal memory 105, and a control unit (CAN MCU: in-vehicle network. It has a microcontroller unit) 111, and further includes a raindrop sensor 121, a communication unit 122, and a center console UI unit 123 as in-vehicle network (CAN) connection components.
  • each of the raindrop sensor 121, the communication unit 122, and the center console UI unit 123 may be configured as one device. Further, an imaging unit (camera) 101, an image processor (ISP) 102, an image analysis unit 103, a resolution calculation unit 104, an internal memory 105, a control unit (CAN MCU: in-vehicle network microcontroller unit) 111, and an in-vehicle network. (CAN) As a connection component, an arbitrary combination of a raindrop sensor 121, a communication unit 122, and a center console UI unit 123 may be provided as a device.
  • ISP image processor
  • CAN MCU in-vehicle network microcontroller unit
  • the image processor (ISP) 102, the image analysis unit 103, the resolution calculation unit 104, the internal memory 105, and the control unit (CAN MCU: in-vehicle network microcontroller unit) 111 may be used as one device, or the image pickup unit may be used.
  • the (camera) 101, the image processor (ISP) 102, the image analysis unit 103, the resolution calculation unit 104, and the internal memory 105 may be combined into one device.
  • the image analysis unit 103, the resolution calculation unit 104, and the internal memory 105 may be combined into one device.
  • the imaging unit (camera) 101 corresponds to, for example, the camera 10 mounted on the moving device (eg, vehicle) 10 shown in FIGS. 1 and 3.
  • the camera 101 constantly photographs the front direction of the moving device (eg, vehicle) 10 while the moving device (eg, vehicle) 10 is traveling.
  • the RAW image which is the shooting data of the imaging unit (camera) 101
  • the image processing processor (ISP) 102 inputs a RAW image which is the shooting data of the imaging unit (camera) 101, and executes general camera signal processing for image generation such as white balance adjustment and gamma correction.
  • Generate captured image data The captured image data is input to the image analysis unit and the resolution calculation unit 104 in the subsequent stage.
  • the image input to the resolution calculation unit 104 is an image for resolution analysis. That is, it is a chart captured image taken by the imaging unit (camera) 101 at the detection timing of the reference line 22 described above with reference to FIG. 3 and the like.
  • FIG. 17 shows that the chart captured image is directly input from the image processing processor (ISP) 102 to the resolution calculation unit 104, but this is a simplified representation of the data flow.
  • the chart captured image captured by the imaging unit (camera) 101 at the detection timing of the reference line 22 is temporarily stored in the internal memory 105.
  • the resolution calculation unit 104 analyzes the resolution using the image stored in the internal memory 105.
  • the image analysis unit 103 inputs the captured image data of the imaging unit (camera) 101 from the image processing processor (ISP) 102, and detects the marker and the reference line from the captured image. As described above with reference to FIG. 3, the marker and the reference line are identification marks recorded on the road in order to specify the timing for capturing the image for resolution analysis.
  • the marker is a mark indicating that a reference line is recorded in front of the marker.
  • a chart is photographed at the detection timing of the reference line in front of the marker, and the captured image frame is used as an image frame for resolution analysis to perform resolution analysis processing. By performing such processing, it is possible to analyze the resolution of the image taken by the camera using the photographed image of the chart taken from a certain distance.
  • the image analysis unit 103 outputs, for example, the shooting time information of the image frame for resolution analysis to the resolution calculation unit 104. Based on the shooting time information of the image frame for resolution analysis input from the image analysis unit 103, the resolution calculation unit 104 was shot from the shot image stored in the internal memory 195 at a time matching the input shooting time information. An image is acquired, and the acquired image is used to analyze the resolution.
  • images taken by the imaging unit (camera) 101 and forming continuous shot images (video data) generated by the image processing processor (ISP) 102 are recorded together with the shooting time information of each image. ing.
  • the resolution calculation unit 104 acquires a captured image having a time corresponding to the imaging time of the resolution analysis image frame input from the image analysis unit 103 from the internal memory 105, and analyzes the resolution using the acquired image.
  • the distance between the reference line 22 and the chart is L1
  • the distance between the reference line 22 and the imaging unit (camera) 101 is L2.
  • Both L1 and L2 are fixed values
  • the chart captured image The image of the edge portion differs depending on the camera resolution. That is, the image captured by the camera with reduced resolution becomes an image with blurred edges.
  • the resolution calculation unit 104 takes out the resolution analysis image obtained by capturing the chart 23 from the internal memory 105, analyzes, for example, the brightness distribution of the edge portion of the chart image included in the captured image, and analyzes the resolution of the camera 101.
  • An example of the resolution analysis algorithm is, for example, the process described above with reference to the flowcharts of FIGS. 10 and 11, and a modulation transfer function (MTF: Modulation Transfer Function), which is an index value of the contrast of the chart image, is calculated.
  • MTF Modulation Transfer Function
  • the information processing system 100 has a control unit (CAN MCU: in-vehicle network microcontroller unit) 111, and further, as in-vehicle network (CAN) connection components, a raindrop sensor 121 and a communication unit 122. , Center console UI unit 123 is included.
  • CAN MCU in-vehicle network microcontroller unit
  • CAN in-vehicle network
  • the control unit (CAN MCU) 111 executes protocol conversion of communication data between the image analysis unit 103 and the resolution calculation unit 104 and the vehicle-mounted network (CAN).
  • control unit (CAN MCU) 111 determines, for example, whether or not the camera resolution calculated by the resolution calculation unit 104 is equal to or less than a predetermined standard value (threshold value), and the camera resolution is predetermined. If it is less than or equal to the value, a process to output a warning is executed. The warning is output to the center console UI unit 123 configured as an in-vehicle network (CAN) connection component.
  • a predetermined standard value threshold value
  • a warning is given to notify that the reliability of the automatic operation processing function that performs automatic operation or support operation of the mobile device is low, or it is executed by the mobile device. Outputs a warning prompting the level of automatic driving inside to drop.
  • control unit (CAN MCU) 111 controls the level of automatic operation when the camera resolution is equal to or less than a predetermined threshold value.
  • a command may be output to an operation control unit outside the information processing system 100 to execute automatic operation level control.
  • the level of automatic operation of the mobile device is lowered, or switching control to manual operation is executed or executed.
  • the level of the automatic operation of the mobile device is lowered, or the switching control to the manual operation is executed.
  • the raindrop sensor 121 configured as an in-vehicle network (CAN) connection component is, for example, a sensor mounted on the roof of a mobile device (eg, a vehicle) and detects a rainfall state.
  • the detection information of the raindrop sensor 121 that is, the information on whether or not it is raining is notified to the image analysis unit 103 and the resolution calculation unit 104 via the control unit (CAN MCU) 111.
  • the resolution information calculated by the resolution calculation unit 104 is transmitted via the control unit (CAN MCU: vehicle-mounted network microcontroller unit) 111 and the communication unit 122 configured as the vehicle-mounted network (CAN) connection component. Is sent to the management server 210.
  • CAN MCU vehicle-mounted network microcontroller unit
  • the resolution When transmitting the resolution information to the external management server 210, the resolution, the identifier (ID) of the mobile device (example: vehicle) 10 or the information processing device, and the calculation timing (date and time) of the resolution are also included. And send.
  • the management server 210 receives the resolution value from each vehicle, generates the resolution history data for each mobile device, and records it in the database in the server.
  • the management server 210 refers to this historical data and analyzes the tendency of the resolution of the image taken by the camera mounted on each mobile device to decrease, and it seems that the resolution has decreased to an allowable level required for automatic operation, for example. If not, a process such as sending a warning to the mobile device is performed.
  • the warning information based on the resolution information calculated by the resolution calculation unit 104 is configured as a vehicle-mounted network (CAN) connection component via the control unit (CAN MCU: vehicle-mounted network microcontroller unit) 111. It is output to the console UI unit 123. This is, for example, the output processing of the warning information described above with reference to FIGS. 8 and 9, and FIGS. 12 to 16.
  • CAN MCU vehicle-mounted network microcontroller unit
  • control unit (CAN MCU) 111 of the information processing system 100 shown in FIG. 17 may be configured to control the automatic operation level by itself, but the operation control unit outside the information processing system 100 and the CAN It may be configured to output control commands for automatic operation control and support operation to the operation control unit by performing communication via the above. For example, when the resolution information generated by the information processing system 100 is output to the operation control unit, the operation control unit executes the setting of the automatic operation level and the switching control to the manual operation. Further, the operation control unit may be configured inside the information processing system 100 as a separate configuration from the control unit (CAN MCU) 111.
  • Such data is useful data for analyzing, for example, the performance and weaknesses of an in-vehicle camera, aging deterioration, and the like.
  • an information processing system 200 is constructed in which a large number of mobile devices 10a to 10 and a management server 210 of an in-vehicle camera manufacturer are connected by a communication network 151.
  • Each of the mobile devices (example: vehicle) 10a to n continuously transmits the result of the resolution analysis executed in each mobile device (example: vehicle) to the management server 210.
  • the management server 210 verifies the resolution analysis result received from each mobile device (eg, vehicle) 10a to n. Through these verification processes, for example, it becomes possible to analyze the aged deterioration and weaknesses of the in-vehicle camera with high accuracy, which can be utilized for new product development.
  • FIG. 19 is a diagram showing an example of the hardware configuration of the information processing system 100 of the present disclosure described with reference to FIG. 17 above. Hereinafter, each component of the hardware configuration shown in FIG. 19 will be described.
  • the CPU (Central Processing Unit) 301 functions as a data processing unit that executes various processes according to a program stored in the ROM (Read Only Memory) 302 or the storage unit 308. For example, the process according to the sequence described in the above-described embodiment is executed.
  • the RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301. These CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.
  • the CPU 301 is connected to the input / output interface 305 via the bus 304, and the input / output interface 305 includes various switches, a keyboard, a touch panel, a mouse, a microphone, a sensor such as a camera, a status data acquisition unit such as GPS, and the like.
  • An output unit 307 including an input unit 306, a display, a speaker, and the like is connected. Input information from a sensor 321 such as a camera is also input to the input unit 306.
  • the output unit 307 also outputs drive information for the drive unit 322 of the mobile device.
  • the CPU 301 inputs commands, status data, and the like input from the input unit 306, executes various processes, and outputs the process results to, for example, the output unit 307.
  • the storage unit 308 connected to the input / output interface 305 is composed of, for example, a hard disk or the like, and stores a program executed by the CPU 301 and various data.
  • the communication unit 309 functions as a transmission / reception unit for data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • the drive 310 connected to the input / output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and records or reads data.
  • a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • the technique disclosed in the present specification can have the following configuration.
  • An image analysis unit that inputs images taken by the camera and analyzes the input images. It has a resolution calculation unit that calculates the resolution of the captured image.
  • the image analysis unit A captured image at the timing when the reference line is detected at a predetermined position from the captured image of the camera is selected as an image for resolution analysis.
  • the resolution calculation unit An information processing device that calculates the resolution of the captured image by using the resolution analysis chart image included in the resolution analysis image selected by the image analysis unit.
  • the reference line is a reference line recorded on a road separated from the resolution analysis chart installed on the road on which the moving device travels by a certain distance.
  • the image analysis unit The information processing apparatus according to (1), wherein an image taken at a position where the reference line is taken by a camera mounted on the moving device is selected as an image for resolution analysis.
  • the image analysis unit The captured image at the timing when the reference line is detected from the captured image of the camera is selected as the image for resolution analysis and stored in the storage unit.
  • the resolution calculation unit In (1) or (2), the resolution of the captured image is calculated by acquiring the image for resolution analysis stored in the storage unit and using the chart image for resolution analysis included in the acquired image for resolution analysis. The information processing device described.
  • the information processing device further It has a control unit for inputting the resolution of the captured image calculated by the resolution calculation unit.
  • the control unit It is determined whether or not the resolution of the captured image calculated by the resolution calculation unit is equal to or less than a predetermined threshold value.
  • the information processing device according to any one of (1) to (3), which outputs a warning when the resolution of the captured image is equal to or less than a predetermined threshold value.
  • the control unit When the resolution of the captured image is less than or equal to the predetermined threshold value, a warning is output to notify that the reliability of the automatic operation processing function for performing the automatic operation or the support operation of the moving device is low (4). ).
  • Information processing device When the resolution of the captured image is less than or equal to the predetermined threshold value, a warning is output to notify that the reliability of the automatic operation processing function for performing the automatic operation or the support operation of the moving device is low (4). ).
  • the control unit The information processing device according to (4) or (5), which outputs a warning prompting a decrease in the level of automatic operation being executed by the mobile device when the resolution of the captured image is equal to or lower than a predetermined threshold value.
  • the information processing device further It has a control unit for inputting the resolution of the captured image calculated by the resolution calculation unit.
  • the control unit It is determined whether or not the resolution of the captured image calculated by the resolution calculation unit is equal to or less than a predetermined threshold value. When the resolution of the captured image is less than or equal to the predetermined threshold value.
  • the control unit When the resolution of the captured image is less than or equal to the predetermined threshold value The information processing device according to (7), wherein the level of automatic operation of the mobile device is lowered, or switching control to manual operation is executed.
  • the control unit The information processing device according to (8), wherein the level of automatic operation of the mobile device is lowered or switching control to manual operation is executed based on user input via an input unit.
  • An information processing system having a mobile device and a management server.
  • the moving device is An image analysis unit that inputs images taken by a camera mounted on the moving device and analyzes the input images.
  • a resolution calculation unit that calculates the resolution of the camera, Has a communication unit The image analysis unit The captured image at the timing when the reference line is detected from the captured image of the camera is selected as the image for resolution analysis, and the image is selected.
  • the resolution calculation unit Using the resolution analysis chart image included in the resolution analysis image selected by the image analysis unit, the resolution of the captured image is calculated, and the calculated resolution is transmitted to the management server via the communication unit.
  • the management server An information processing system that analyzes multiple resolution data received from multiple mobile devices.
  • the image analysis department An image analysis step of selecting a captured image at the timing when the reference line is detected from the captured image of the camera mounted on the moving device as an image for resolution analysis, and an image analysis step.
  • the resolution calculation unit An information processing method for executing a captured image resolution calculation step of calculating the resolution of the captured image by using the resolution analysis chart image included in the resolution analysis image selected in the image analysis step.
  • the image analysis unit of the mobile device An image analysis step of selecting a captured image at the timing when the reference line is detected from the captured image of the camera mounted on the moving device as an image for resolution analysis, and an image analysis step.
  • the resolution calculation unit of the mobile device Using the resolution analysis chart image included in the resolution analysis image selected in the image analysis step, the resolution of the captured image is calculated, and the calculated resolution is transmitted to the management server.
  • the management server An information processing method that analyzes multiple resolution data received from multiple mobile devices.
  • a program that executes information processing in an information processing device mounted on a mobile device The program is applied to the image analysis unit.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • executing processing by software install the program that records the processing sequence in the memory in the computer built in the dedicated hardware and execute it, or execute the program on a general-purpose computer that can execute various processing. It can be installed and run.
  • the program can be pre-recorded on a recording medium.
  • LAN Local Area Network
  • the various processes described in the specification are not only executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes.
  • the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • the chart installed on the road is photographed from a certain distance, the photographed image is analyzed, and the resolution of the image photographed by the camera is calculated and calculated.
  • a configuration is realized in which warning output and automatic operation level reduction processing are executed according to the result.
  • the image analysis unit selects a captured image at the timing when the reference line is detected from the camera captured image as the resolution analysis image.
  • the resolution calculation unit calculates the resolution of the image taken by the camera by using the resolution analysis chart image included in the resolution analysis image selected by the image analysis unit.
  • the reference line is recorded on the road that is a certain distance away from the resolution analysis chart installed on the road on which the moving device travels, and the high-precision camera resolution can be calculated based on the image of the chart taken from a certain distance. It will be possible. With this configuration, a configuration is realized in which a chart installed on the road is photographed from a certain distance, the photographed image is analyzed to calculate the camera resolution, and warning output and automatic driving level reduction processing are executed according to the calculation result. ..

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

道路に設置されたチャートを一定距離から撮影し、撮影画像を解析してカメラ解像度を算出し、算出結果に応じて警告出力、自動運転レベル低下処理を実行する。画像解析部が、カメラ撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する。解像度算出部が、画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、撮影画像の解像度を算出する。基準線は、移動装置が走行する道路に設置された解像度解析用チャートから一定距離、離間した道路上に記録されており、チャートを一定距離から撮影した画像に基く高精度な撮影画像の解像度の算出が可能となる。

Description

情報処理装置、情報処理システム、および方法、並びにプログラム
 本開示は、情報処理装置、情報処理システム、および方法、並びにプログラムに関する。さらに詳細には、より安全な自動運転や運転サポートを行うことを可能とした情報処理装置、情報処理システム、および方法、並びにプログラムに関する。
 昨今、自動運転や運転サポートに関する技術開発が盛んに行われている。
 自動運転技術は、車両(自動車)に備えられた位置検出手段等の様々なセンサーを用いて、道路上を自動走行可能とする技術であり、今後、急速に普及することが予測される。
 自動運転や運転サポートには、カメラやレーダー等の様々なセンサーの検出情報が利用される。
 しかし、例えば車両に搭載したカメラは、車両の走行過程で発生する振動や温度変化などの影響により、例えば解像度の低下など画像解析性能の劣化が発生することがある。
 このようなカメラ性能の判定、例えば、カメラで撮影した画像の解像度が初期的な解像度に維持されているか否かの検査は、定期的な車検などの際にディーラーなどで専用の検査機を用いて行われるのが一般的である。
 しかし、今後、車両に搭載するカメラの高画素・高解像度化が進み、かつ車両の自動運転の高機能化が進むことが予測され、カメラで撮影した画像の解像度の劣化は重大事故に直結する問題となることが予測される。
 従って、カメラで撮影した画像の解像度が一定水準に維持されているか否かについて、より高精度にかつ高い頻度で確認する必要がある。
 なお、カメラの誤差確認技術を開示した従来技術として、例えば特許文献1(特開2019-028633号公報)などがある。
 しかし、車両のユーザに対して、例えば1か月や数か月ごとの車両点検を義務付けるのは、ユーザの負担が大きく、実際には困難である。
特開2019-028633号公報
 本開示は、例えば、上述の問題点に鑑みてなされたものであり、ユーザに負担を発生させることなく、車両に装着されたカメラで撮影した画像の解像度の点検を確実に実行可能とした情報処理装置、情報処理システム、および方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 カメラの撮影画像が入力されて入力画像の解析を行なう画像解析部と、
 前記撮影画像の解像度を算出する解像度算出部を有し、
 前記画像解析部は、
 前記カメラの撮影画像から基準線を所定の位置で検出したタイミングの撮影画像を解像度解析用画像として選択し、
 前記解像度算出部は、
 前記画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する情報処理装置にある。
 さらに、本開示の第2の側面は、
 移動装置と、管理サーバを有する情報処理システムであり、
 前記移動装置は、
 前記移動装置に装着されたカメラの撮影画像を入力して入力画像の解析を行なう画像解析部と、
 前記カメラの解像度を算出する解像度算出部と、
 通信部を有し、
 前記画像解析部は、
 前記カメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択し、
 前記解像度算出部は、
 前記画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出して前記通信部を介して算出した解像度を前記管理サーバに送信し、
 前記管理サーバは、
 複数の移動装置から受信する複数の解像度データの解析を実行する情報処理システムにある。
 さらに、本開示の第3の側面は、
 移動装置に搭載された情報処理装置において実行する情報処理方法であり、
 画像解析部が、
 前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する画像解析ステップと、
 解像度算出部が、
 前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する撮影画像解像度算出ステップを実行する情報処理方法にある。
 さらに、本開示の第4の側面は、
 移動装置と、管理サーバを有する情報処理システムにおいて実行する情報処理方法であり、
 前記移動装置の画像解析部が、
 前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する画像解析ステップと、
 前記移動装置の解像度算出部が、
 前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出して、算出した解像度を前記管理サーバに送信する解像度算出、送信ステップを実行し、
 前記管理サーバが、
 複数の移動装置から受信する複数の解像度データの解析を実行する情報処理方法にある。
 さらに、本開示の第5の側面は、
 移動装置に搭載された情報処理装置において情報処理を実行させるプログラムであり、
 前記プログラムは、画像解析部に、
 前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択させる画像解析ステップと、
 解像度算出部に、
 前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出させる撮影画像解像度算出ステップを実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、道路に設置されたチャートを一定距離から撮影し、撮影画像を解析してカメラ解像度を算出し、算出結果に応じて警告出力、自動運転レベル低下処理を実行する構成が実現される。
 具体的には、例えば、画像解析部が、カメラ撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する。解像度算出部が、画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、カメラの解像度を算出する。基準線は、移動装置が走行する道路に設置された解像度解析用チャートから一定距離、離間した道路上に記録されており、チャートを一定距離から撮影した画像に基く高精度なカメラの解像度算出が可能となる。
 本構成により、道路に設置されたチャートを一定距離から撮影し、撮影画像を解析してカメラ解像度を算出し、算出結果に応じて警告出力、自動運転レベル低下処理を実行する構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の移動装置(例:車両)の構成と処理の概要について説明する図である。 自動運転レベルについて説明する図である。 本開示の移動装置(例:車両)の構成と、実行する処理について説明する図である。 道路上のマーカーの一構成例について説明する図である。 道路上のマーカーの一構成例について説明する図である。 解像度解析用チャートの具体例について説明する図である。 解像度解析用チャートの撮影画像の例について説明する図である。 本開示の情報処理装置が出力する表示データの一例について説明する図である。 本開示の情報処理装置が出力する表示データの一例について説明する図である。 本開示の情報処理装置が実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置が実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置が出力する表示データの一例について説明する図である。 本開示の情報処理装置が出力する表示データの一例について説明する図である。 本開示の情報処理装置が出力する表示データの一例について説明する図である。 本開示の情報処理装置が出力する表示データの一例について説明する図である。 本開示の情報処理装置が出力する表示データの一例について説明する図である。 本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理システムの構成例について説明する図である。 本開示の情報処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、情報処理システム、および方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の移動装置(例:車両)の構成と処理の概要について
 2.本開示の移動装置(例:車両)の構成と実行する処理の詳細について
 3.本開示の移動装置や情報処理装置が実行する処理のシーケンスについて
 4.本開示の移動装置、情報処理装置の構成例について
 5.各移動装置からの解像度解析結果を収集して解析するサーバを有する情報処理システム構成例について
 6.本開示の情報処理装置のハードウェア構成例について
 7.本開示の構成のまとめ
  [1.本開示の移動装置(例:車両)の構成と処理の概要について]
 図1を参照して、本開示の移動装置(例:車両)の構成と処理の概要について説明する。
 図1に示す移動装置(例:車両)10は、例えば自動運転車両、あるいは、一部の運転を自動化した運転サポート機能を有する車両である。なお、運転サポート機能には、例えば自動ブレーキや、定速走行機能等、様々な機能が含まれる。
 自動運転車両や運転サポート機能を有する車両10は、車両10に備えられたカメラ、レーダー、位置検出手段等の様々なセンサーを有し、このセンサーの検出情報を用いて道路上を安全に走行させることを可能としている。
 図1に示す車両10は、センサーの1つであるカメラ11を有している。
 しかし、車両10に搭載したカメラ11は、車両10の走行過程で発生する振動や温度変化などの影響により、画像センサー部やレンズ部の取り付け位置のずれなどが発生することがあり、この結果、例えば解像度の低下など、センサーとしての重要な機能の品質を低下させてしまうことがある。
 例えば図1に示す車両10の前方を撮影するカメラ11の解像度が低下してしまうと、車両10の前方の障害物や、標識等の認識レベルが低下してしまい、安全な自動運転や運転サポートを行なうことが困難になる。
 車両に搭載するカメラは、高画素・高解像度化が進んでおり、また、車両の自動運転の高機能化も急速に進んでいる。このような状況においては、カメラで撮影した画像の解像度が常に一定水準以上に維持されていることが求められる。この水準維持のためには、高精度、かつ高頻度なカメラで撮影した画像の解像度の確認処理を行うことが必要となる。
 カメラで撮影した画像の解像度は、カメラのレンズ性能、カメラのイメージセンサとレンズの位置ずれ、カメラのイメージセンサ画素数に依存する。つまり、カメラで撮影した画像の解像度は、カメラのレンズ性能、カメラのイメージセンサとレンズの位置ずれ、カメラのイメージセンサ画素数の少なくとも一つにより制約される。なお、この位置ずれは接着剤の膨張等の影響によるメカニカルなずれである。
 本開示は、この要求に応えるものであり、車両10の走行中にカメラ11の解像度の点検を行うことを可能としている。
 なお、カメラ等のセンサーを利用した自動運転や運転サポートを利用した走行は、現行では特定の道路区間、例えば高速道路や幹線道路の一部区間等に限られている。これは、例えば安全な自動運転等が可能なインフラ設備が整備されているといった条件等によって規定される区間であり、自動運転走行可能区間(ODD:Operational Design Domein)と呼ばれる。
 移動装置(例:車両)10は、このような自動運転走行可能区間(ODD)において自動運転を行なうことになる。しかし、このような区間でカメラ11の解像度が低下している場合、安全な自動運転走行ができなくなる可能性がある。
 本開示の構成では、例えば高速道路の入り口やその本線上の一定間隔、または幹線道路上の移動装置(例:車両)10のカメラ11が撮影可能な位置に、カメラ解像度検査用のチャートを設置する。
 例えば、図1に示すような標識の端部にカメラ解像度検査用のチャート23を設置する。
 チャート23は、移動装置(例:車両)10のカメラ11によって撮影される。ただし、カメラ11の解像度解析を行うためには、チャート23の撮影距離を一定にすることが必要となる。
 このチャート23の撮影位置の位置決めのためのマーカー21と基準線22が道路上に記録される。
 道路上のマーカー21が、移動装置(例:車両)10のカメラ11の画角内に入ると、カメラ11の撮影画像解析を行う画像解析部がマーカー21を検出し、マーカー21の前方の基準線22の検出タイミングで撮影されたチャート23の画像フレームを取り出し、取り出した画像フレームを解像度解析用画像フレームとして解像度解析処理を行う。
 このような処理を行うことで、一定距離から撮影したチャート23の撮影画像を用いたカメラ11の解像度解析が可能となる。
 なお、チャート23は、例えば道路上の所定区間ごとに設置される。また、道路上に設置された各チャート位置の一定距離、手前の位置にマーカー21と基準線22が記録される。
 このような構成とすることで、移動装置(例:車両)10は、各チャート位置で、繰り返し、解像度検査を行なうことができる。
 このように、本開示の構成は、マーカー21と基準線22によって規定される位置、すなわちチャート23から一定距離、離れた位置から移動装置(例:車両)10のカメラ11で解像度解析用のチャート23の画像を撮影する。
 移動装置(例:車両)10内の情報処理装置は、この撮影画像を用いてカメラ11の解像度を算出し、予め規定した基準の解像度が保たれているか否かを判定する。
 さらに移動装置(例:車両)10内の情報処理装置は、カメラ11の解像度が規程の基準に満たない場合には、警告の出力や、自動運転レベルを低下させる制御などを実行する。
 なお、米国の自動車技術会であるSAE(Society of Automotive Engineers)は、自動運転のレベルとしてレベル0(手動運転)~レベル5(完全自動運転)までの6段階の自動運転レベルを定義している。日本を含め世界各国の多くは、このSAEの自動運転レベル定義を採用している。
 図2を参照して、SAEの自動運転レベル定義について説明する。
 SAEは、自動運転のレベルとして図2に示すレベル0(手動運転)~レベル5(完全自動運転)までの6段階の自動運転レベルを定義している。
 各自動運転レベルの定義(運転状態)は以下の通りである。
 レベル0=ドライバー(運転者)が全ての運転操作を実行(=手動運転)
 レベル1=自動運転システムがアクセルとブレーキ操作、またはハンドル操作のいずれかを実行
 レベル2=自動運転システムがアクセルとブレーキ操作、およびハンドル操作を実行
 レベル3=規程条件下(例えば所定の高速道路区間等)で自動運転システムが全ての自動運転を実行。ただし、ドライバー(運転者)が常時、監視し、緊急時には手動運転に復帰することが必要
 レベル4=規程条件下で自動運転システムが全ての自動運転を実行
 レベル5=条件なしに自動運転システムが全ての自動運転を実行
 SAEでは、これら、レベル0(手動運転)~レベル5(完全自動運転)までの6段階の自動運転レベルを定義している。
 なお、レベル3やレベル4における規定条件とは、例えば特定場所での走行を条件とした規定である。具体的には、例えば高速道路、あるいは、過疎地などの比較的交通量が少なく見通しの良いエリアや大学構内、空港施設内など比較的走行環境が単純なエリアでの走行等を条件としたものである。
 図1に示す移動装置(例:車両)10が、これらSAEの定義レベルである自動運転レベルの少なくとも複数のレベルの切り替えが可能な車両である場合、移動装置(例:車両)10内の情報処理装置は、自動運転レベルの制御も実行する。
 すなわち、カメラ11の解像度が規程の基準に満たないと判定した場合、自動運転レベルを低下させる制御等を実行する。
 具体的には、図1に示す移動装置(例:車両)10が、例えばレベル0(手動運転)~レベル2(一部自動運転)の切り替え可能な車両、あるいはレベル0(手動運転)~レベル4(半自動運転)の切り替え可能な車両、あるいはレベル0(手動運転)~レベル5(完全自動運転)の切り替え可能な車両、このような車両の場合には、自動運転レベルを低下させる制御を実行する。
  [2.本開示の移動装置(例:車両)の構成と実行する処理の詳細について]
 次に、図3以下を参照して、本開示の移動装置(例:車両)の構成と実行する処理の詳細について説明する。
 図3は、先に説明した図1と同様の移動装置(例:車両)10を示している。
 カメラ11は、移動装置(例:車両)10のウインドシールド(W/S)(=フロントウィンド)部に固定されている。カメラ11の道路からの高さをHとする。
 図に示すように、カメラ撮影方向を示すカメラ光軸は道路面に平行な軸であり、カメラの撮影範囲を示すカメラ画角は2θである。カメラ画角の下方向の最大画角(θ)の位置にマーカー21や基準線22が入ると、マーカー21や基準線22は、カメラ11によって撮影される。
 なお、道路上のマーカー21や基準線22は、解像度解析用画像を撮影するタイミングを規定するために道路上に記録された識別マークである。マーカー21や基準線22の具体例を図4と図5に示す。
 マーカー21は、例えば図4に示すような特定形状(山形状)の図形パターンや、図5に示すような特定の2次元パターンからなる識別マークによって構成される。
 マーカー21は、その前方に基準線22が記録されていることを示すマークである。
 マーカー21の前方の基準線22の検出タイミングでチャート23を撮影し、この撮影画像フレームを解像度解析用画像フレームとして解像度解析処理を行う。
 このような処理を行うことで、一定距離から撮影したチャート23の撮影画像を用いたカメラ11の解像度解析が可能となる。
 移動装置(例:車両)10内の情報処理装置は、道路走行中、カメラ11の撮影画像からマーカー21を検出し、さらに、マーカー21の前方に記録された基準線22を検出すると、基準線22検出タイミングの撮影画像フレームをカメラ解像度解析用の画像フレームとして選択し、選択した画像フレームに撮影されたチャート23の画像に基づいてカメラ11の解像度解析を実行する。
 なお、移動装置(例:車両)10内の情報処理装置は、カメラ11の撮影画像内に検出される基準線22の画像位置に基づいてカメラ解像度解析用の画像フレームを選択する。具体的には、移動装置(例:車両)10に装着されたカメラ11とチャート23との距離が図3に示すL(=L1+L2)となるタイミングの撮影画像内の基準線22の画像位置を予めメモリに登録しておき、この登録情報と撮影画像中の基準線22の画像位置を比較して、一致したタイミングにおける撮影画像をカメラ解像度解析用の画像フレームとして選択する。
 なお、チャート23は、例えば交通標識の横側に設置される。あるいは専用の独立した標識として道路上に設置する。
 カメラ解像度の解析には、特定の画像パターンを有する解像度解析用チャートが用いられる。
 解像度解析用チャートの具体例を図6に示す。
 図6には、カメラで撮影した画像の解像度を解析するために用いられるチャート(画像パターン)の例を、複数、示している。例えばこのようなチャートが、道路上の交通標識の横側などに設置される。
 なお、図6には、4種類の解像度解析用チャートを示しているが、この他にも様々なチャートがある。
 このようなチャートを撮影した画像に基づいてカメラで撮影した画像の解像度の解析が実行される。
 図7は、解像度が高いカメラで撮影した場合のチャート撮影画像例と、解像度が低下したカメラで撮影した場合のチャート撮影画像例を示す図である。
 図7(a)が撮影対象チャートである。
 (b1)は、(a)撮影対象チャートを、解像度が高いカメラで撮影した場合のチャート撮影画像例である。
 (b2)は、同じ(a)撮影対象チャートを、解像度が低下したカメラで撮影した場合のチャート撮影画像例である。
 このように、同じチャートを撮影した場合でも、解像度が低下したカメラの撮影画像は、エッジ部がぼやけた画像となる。
 なお、カメラで撮影した画像の解像度を正しく解析するためには、チャート23を予め規定した距離から撮影した画像を用いて解析することが必要である。
 図3に示す例では、カメラ11とチャート23の距離(L)は、
 L1:カメラ11と基準線22間の距離
 L2:基準線22とチャート23間の距離、
 これらの2つの距離の加算値、すなわち、
 L=L1+L2
 となる。
 距離L2は、カメラ11と基準線22間の距離であるが、この距離L2は、固定値である下方画角θ(カメラ光軸とカメラの下方視野)と、カメラの高さ(H)から以下の式に従って算出される。なお、ここでは、カメラ光軸は地面に平行としている。
 L2=H×(cotθ)
 上記式において、カメラの高さ(H)、下方画角θは、いずれも固定値であるので、カメラ11と基準線22間の距離:L2も固定値となる。
 基準線22とチャート23間の距離:L1も予め規定した距離として設定されるので、結果として、カメラ11とチャート23の距離(L)、すなわち、
 L=L1+L2
 この距離Lは固定値なる。
 結果として、移動装置(例:車両)10のカメラ11は、一定距離(L=L1+L2)からチャート23を撮影し、この一定距離からの撮影画像を用いて解像度解析を行う、
 このような処理を行うことで、高精度な解像度解析が可能となる。
 なお、チャート23は、例えば、先に図6を参照して説明したような解像度解析用のパターン画像によって構成されるチャートである。
 道路上に設置されるチャート23は、例えば、通常の標識と同様、板状素材にパターン画像を印刷して構成することが可能である。
 なお、チャートの視認性を保つため、チャート23の前方からLED光源などの光源を配置して、チャート(パターン画像)を照射する構成としてもよい。
 また、チャート23を光透過性の素材として、背部にLED光源などの光源を設け、チャート(パターン画像)背部から光を照射する構成としてもよい。
 なお、光源による照射を行なう場合、フリッカが生じないよう、光源ON/OFFのDuty比は、カメラのシャッタースピードに対して十分に短い設定とすることが好ましい。
 また、チャート23に、直射日光が入射すると反射光により視認性が低下してしまうため、直射日光が照射されないように、例えば信号機のように「ひさし」を設けてもよい。
 なお、移動装置(例:車両)10のカメラ11は継続的に移動装置(例:車両)10前方の画像を撮影する。移動装置(例:車両)10内の情報処理装置が、道路走行中、カメラ11の撮影画像から基準線22を検出すると、基準線検出タイミングの撮影画像フレームをカメラ解像度解析用の画像フレームとして選択する。
 さらに、移動装置(例:車両)10内の情報処理装置は、選択した画像フレームに撮影されたチャート23の画像に基づいてカメラ11の解像度解析処理を実行する。
 移動装置(例:車両)10内の情報処理装置は、カメラ11の解像度解析の結果、解像度が予め規定したしきい値以下である場合は、例えば、表示部やスピーカを介してドライバーに対する警告を出力する。
 警告メッセージ表示例を図8に示す。
 図8には、以下の警告メッセージを表示部に表示した例を示している。
 「撮影画像の解像度が低下しています。自動運転やサポート運転は行わないようにお願いします。お近くのディーラー、修理工場、ガソリンスタンド等へ、お立ち寄りの上、カメラの修理、または調整を行うことをお勧めします。」というメッセージの表示例である。
 ユーザ(ドライバー)は、このメッセージを見て、カメラで撮影した画像の解像度の低下を認識し、修理を依頼するなどの対応を、遅滞なく実行することが可能となる。
 なお、図8に示す警告メッセージは一例であり、この他、例えば、自動ブレーキシステム(AEB:Autonomous Emergency Braking)や、自動運転制御装置(ACC:Adaptive Cruise Control)等、自動運転処理機能の信頼性が低下したことを通知する警告を行なう構成としてもすい。
 例えば、図9に示すような警告メッセージ、すなわち、
 「撮影画像の解像度が低下しています。解像度低下に伴い、自動運転やサポート運転に必要なAES,ACSの機能低下が発生している可能性があります。お近くのディーラー、修理工場、ガソリンスタンド等へ、お立ち寄りの上、カメラの修理、または調整を行うことをお勧めします。」が挙げられる。
 さらに、移動装置(例:車両)10が自動運転を実行中である場合には、自動運転の制御レベルを下げる処理や、手動運転への切り替えを促す警告を出力する構成としてもよい。
 なお、図3に示すチャート23は、マーカー21や基準線22とともに、例えば、道路上の所定距離ごととに複数、配置する構成とすることが好ましい。
 移動装置(例:車両)10内の情報処理装置は、これら複数の異なる地点のチャート撮影画像に基いて算出した複数の解像度算出結果を加算平均するなどの処理を実行することで、より精度の高い解像度を算出することができる。
 例えば、画像撮影時の大気の状態等に起因する解像度算出値のばらつきを補正した高精度な値を算出することが可能となる。
 また、例えば前方に大型トラックなどが走行している場合には、チャートの撮影ができない場合もある。
 このような場合にも、道路上に多数のチャートが所定間隔で配置されていれば、いずれかのチャート撮影に成功し、解像度算出を確実に行うことが可能となる。
  [3.本開示の移動装置や情報処理装置が実行する処理のシーケンスについて]
 次に、本開示の移動装置や情報処理装置が実行する処理のシーケンスについて説明する。
 図10、図11に示すフローチャートを参照して、本開示の移動装置(例:車両)10や、移動装置(例:車両)10内に搭載された情報処理装置が実行する処理のシーケンスについて説明する。
 なお、以下において説明するフローに従った処理は、例えば移動装置(例:車両)10内に搭載された情報処理装置の記憶部に格納されたプログラムに従って実行可能である。例えばプログラム実行機能を有するCPU等を有するデータ処理部(制御部)の制御の下で実行される。
 以下、図10、図11に示すフローチャートの各ステップの処理について、順次、説明する。
  (ステップS101)
 まず、移動装置(例:車両)10内に搭載された情報処理装置のデータ処理部は、移動装置(例:車両)10内に装着されたカメラ11やGPS、雨滴センサー等、移動装置(例:車両)10に装着された様々なセンサーを利用した外部環境情報取得処理を実行する。
 例えばカメラ11の撮影画像を入力し、さらに、GPSによる位置情報取得処理、雨滴センサーによる降雨情報取得処理などを行う。
  (ステップS102)
 情報処理装置のデータ処理部は、ステップS102において、ステップS101で取得した外部環境情報に基づいて、移動装置(例:車両)10の走行路に雨が降っているか否かを判定する。この処理は、雨滴センサーの検出情報を用いて行われる。
 雨が降っている場合は、視界が悪く、カメラ11によるチャート撮影画像に基く解像度解析を行っても精度の高い解像度算出が困難であるため、チャート撮影による解像度解析は行わない。
 この処理は、フローのステップS102の判定がYes(=雨が降っている)となり、ステップS110(検査停止)に進む場合の処理である。
 一方、ステップS102の判定がNo(=雨が降っていない)の場合は、視界が良好であり、カメラ11によるチャート撮影画像に基く高精度な解像度解析が可能であると判断し、チャート撮影による解像度解析を実行する。
 この場合は、フローのステップS102の判定がNo(=雨が降っていない)となり、ステップS103以下の処理に進む。
  (ステップS103)
 ステップS102においてNo(=雨が降っていない)の判定がなされた場合、ステップS103以下の処理を実行する。
 情報処理装置のデータ処理部は、ステップS103において、移動装置(例:車両)10の前方を撮影するカメラ11の撮影画像を入力して、画像解析を実行し、撮影画像からマーカー21を検出する。
 マーカー21は、例えば、先に図3を参照して説明したマーカーである。すなわち、マーカー21は、解像度解析に利用するチャート23の撮影画像の撮影ポイントとして規定される基準線22の手前位置に記録され、移動装置(例:車両)10のカメラ11が撮影可能な路面位置に記録されたマーカーである。
 ステップS103において、カメラ11の撮影画像からマーカー21の画像が検出されたと判定した場合はステップS104に進む。
  (ステップS104)
 ステップS103において、カメラ11の撮影画像からマーカー21の画像が検出された場合、次に、情報処理装置のデータ処理部は、ステップS104において、カメラ11の撮影画像から基準線22を検出する。
 先に図3等を参照して説明したように、基準線22は、その検出タイミングで撮影されたチャート23の画像フレームを解像度解析用画像フレームとして設定するための基準線である。すなわち、解像度解析処理を実行するための画像を撮影する距離、タイミングを規定するため、チャート23から規定距離離れた道路上に記録された基準線である。
 ステップS104において、カメラ11の撮影画像から基準線22の画像が検出されたと判定した場合はステップS105に進む。
  (ステップS105)
 ステップS104において、カメラ11の撮影画像から基準線22の画像が検出された場合、次に、情報処理装置のデータ処理部は、ステップS105において、チャートの撮影処理を実行する。
 撮影対象となるチャートは、先に図3、図6等を参照して説明したチャート23である。チャート23は、例えば交通標識の横側、あるいは専用の独立した標識として道路上に設置されている。
 チャートは、例えば先に図6を参照して説明したように、カメラで撮影した画像の解像度を解析するために用いられるチャート(画像パターン)である。
 ステップS105では、カメラ11の撮影画像から基準線22が検出されたタイミングで例えば図6に示すようなチャートの撮影処理を実行する。
  (ステップS106)
 次に、移動装置(例:車両)10の情報処理装置は、ステップS106において、基準線22の位置からのカメラ撮影画像を、カメラ解像度解析用画像として内部メモリ(記憶部)に格納する。
 なお、先に図3を参照して説明したように、移動装置(例:車両)10内の情報処理装置は、カメラ11の撮影画像内に検出される基準線22の画像位置に基づいてカメラ解像度解析用の画像フレームを選択する。具体的には、移動装置(例:車両)10に装着されたカメラ11とチャート23との距離が図3に示すL(=L1+L2)となるタイミングの撮影画像内の基準線22の画像位置を予めメモリに登録しておき、この登録情報と撮影画像中の基準線22の画像位置を比較して、一致したタイミングにおける撮影画像をカメラ解像度解析用の画像フレームとして選択して内部メモリ(記憶部)に格納する。
  (ステップS107)
 次に、移動装置(例:車両)10の情報処理装置は、ステップS107において、内部メモリ(記憶部)に格納されたカメラ解像度解析用画像を利用して、カメラ解像度の算出処理を開始する。
 メモリ(記憶部)に格納されたカメラ解像度解析用画像は、チャート23の撮影画像である。チャートは、例えば先に図6を参照して説明したように、カメラで撮影した画像の解像度を解析するために用いられるチャート(画像パターン)である。
 先に図7を参照して説明したように、撮影したカメラで撮影した画像の解像度の違いにより、チャートを構成する白黒パターンのエッジのぼやけ具合が異なることになる。
  (ステップS108)
 移動装置(例:車両)10の情報処理装置は、ステップS108において、メモリ(記憶部)から取得したカメラ解像度解析用画像の黒レベル、白レベル補正を実行する。
 このレベル補正は、撮影環境による白黒レベルの誤差を修正することなどを目的として実行される。
 この白黒レベル補正を実行した後、次のステップS121に進む。
  (ステップS121)
 次に、移動装置(例:車両)10の情報処理装置は、ステップS121において、白黒レベル補正がなされたカメラ解像度解析用画像、すなわちチャート画像のコントラストの指標値である変調伝達関数(MTF:Modulation Transfer Function)の算出処理を実行する。
 変調伝達関数(MTF)の値は、カメラで撮影した画像の解像度の指標値として用いられる。
  (ステップS122、S122b)
 次に、移動装置(例:車両)10の情報処理装置は、ステップS121で算出した変調伝達関数(MTF)の値、あるいは変調伝達関数(MTF)の値に基づいて算出された解像度を、ステップS122において、情報処理装置の内部メモリに格納する。
 さらに、ステップS122bにおいて、変調伝達関数(MTF)の値、あるいは変調伝達関数(MTF)の値に基づいて算出された解像度を、外部の管理サーバに送信(アップロード)する。
 なお、変調伝達関数(MTF)の値、あるいは変調伝達関数(MTF)の値に基づいて算出された解像度を外部の管理サーバに送信(アップロード)する際には、変調伝達関数(MTF)の値、または解像度とともに、移動装置(例:車両)10または情報処理装置の識別子(ID)、さらに、変調伝達関数(MTF)または解像度の算出タイミング(日時)も併せて送信する。
 管理サーバは、各車両から変調伝達関数(MTF)の値または解像度を受信して、各移動装置単位のMTF(または解像度)履歴データを生成してサーバ内のデータベースに記録する。
 管理サーバは、この履歴データを参照して、各移動装置に装着されたカメラで撮影した画像の解像度の低下傾向を解析し、例えば解像度が自動運転に必要な許容レベルに低下しているような場合、その移動装置に対して警告を送信するといった処理を行う。
  (ステップS123)
 次に、移動装置(例:車両)10の情報処理装置は、ステップS123において、ステップS121で算出したコントラスト指標値である変調伝達関数(MTF)または解像度の値があらかじめ規定された規格値(しきい値)、すなわち、自動運転を安全に実行するために必要となる規格値以下であるか否かを判定する。
 規格値以下でない、すなわち、移動装置(例:車両)に装着されたカメラ11の変調伝達関数(MTF)または解像度が自動運転を安全に実行するために必要となる規格値を満たしている場合は、ステップS124に進む。
 一方、規格値以下である、すなわち、カメラ11が自動運転を安全に実行するために必要となる規格値を満たしていないと判定した場合は、ステップS141に進む。
  (ステップS124)
 ステップS123において、コントラスト指標値である変調伝達関数(MTF)または解像度の値があらかじめ規定された規格値、すなわち、自動運転を安全に実行するために必要となる規格値以下でないと判定した場合、ステップS124の処理を実行する。
 移動装置(例:車両)10の情報処理装置は、ステップS124において、移動装置(例:車両)に装着されたカメラ11の解像度低下傾向の有無を判定する。この判定処理は、例えば移動装置(例:車両)10の情報処理装置の内部メモリに格納されたMTF値(または解像度値)の履歴データを参照して実行する。あるいは、管理サーバから自車のカメラのMTF値(または解像度値)履歴データを取得して判定処理を実行してもよい。
 ステップS124において、移動装置(例:車両)に装着されたカメラ11の解像度低下傾向が無いと判定した場合は、ステップS125に進む。
 一方、移動装置(例:車両)に装着されたカメラ11の解像度低下傾向があると判定した場合は、ステップS131に進む。
  (ステップS125)
 ステップS125の処理は、ステップS124において、移動装置(例:車両)に装着されたカメラ11の解像度低下傾向が無いと判定した場合に実行する。
 この場合、移動装置(例:車両)10の情報処理装置は、ステップS125において、移動装置(例:車両)に装着されたカメラ11の解像度低下傾向が無いことを示す検査レポートを生成して出力する。例えば移動装置(例:車両)の表示部にカメラ11の解像度低下傾向が無いことを示す検査レポートを表示して処理を終了する。
  (ステップS131)
 一方、ステップS124において、移動装置(例:車両)に装着されたカメラ11の解像度低下傾向があると判定した場合はステップS131~S132の処理を実行する。
 移動装置(例:車両)10の情報処理装置は、ステップS131において、ユーザ(ドライバー)に対する警告を出力する。
 例えば、図12に示すような警告メッセージを出力する。
 すなわち、以下のような警告メッセージを出力する。
 「撮影画像の解像度が低下傾向にあります。できるだけ早く検査、修理を行ってください。また、自動運転を行う場合は、運転者監視の下、レベル3以下の自動運転を行うことをお勧めします」
 ユーザ(ドライバー)は、このメッセージを見て、カメラで撮影した画像の解像度の低下を認識し、修理を依頼するなどの対応を、遅滞なく実行することが可能となる。
  (ステップS132)
 ユーザ(ドライバー)は、ステップS131において表示部に表示された警告を見て確認する場合、表示部(タッチパネル)に表示された確認アイコンにタッチする。
 移動装置(例:車両)10の情報処理装置は、ユーザ(ドライバー)による確認アイコンのタッチ処理を検出すると、ユーザによる確認が完了したと判定し処理を終了する。
  (ステップS141)
 ステップS141~S143の処理は、ステップS123において、ステップS121で算出したコントラスト指標値である変調伝達関数(MTF)の値があらかじめ規定された規格値、すなわち、自動運転を安全に実行するために必要となる規格値以下であると判定した場合に実行する処理である。
 この場合、移動装置(例:車両)10の情報処理装置は、ステップS141において、ユーザ(ドライバー)に対する警告を出力する。
 例えば、移動装置(例:車両)10の表示部に警告情報を表示する。
 図13に具体的な表示データの例を示す。
 図13に示すように、移動装置(例:車両)10のドライバー(運転者)が観察可能な表示部に対して、警告情報を表示する。
 図13に示す表示情報例は、以下のメッセージを表示した例である。
 「撮影画像の解像度が低下しています。自動運転を行う場合は、運転者監視の下、レベル3以下の自動運転を行ってください。」
 ユーザであるドライバーは、表示部に表示されたメッセージを見て、カメラで撮影した画像の解像度の低下が発生している可能性があることを認識し、自動運転への移行を中止する、あるいは低レベルの自動運転を行い、自動運転中は細心の注意を払うなどの対応を行うことが可能となる。
  (ステップS142)
 ユーザ(ドライバー)は、ステップS141において表示部に表示された警告を見て確認する場合、例えば図13に示す表示部(タッチパネル)に表示された確認アイコンにタッチする。
 移動装置(例:車両)10の情報処理装置は、ユーザ(ドライバー)による確認アイコンのタッチ処理を検出すると、ユーザによる確認が完了したと判定し、ステップS143に進む。
  (ステップS143)
 移動装置(例:車両)10の情報処理装置は、ステップS143において、現在実行中の自動運転のレベルを低下させる処理を実行する。
 例えば、現在実行中の自動運転のレベルが、レベル5である場合、レベル4の自動運転へ切り替える処理等を実行する。
 なお、低下レベルは、例えば解析されたカメラ解像度の低下レベルに応じて変更する設定としてもよい。
 例えばカメラ解像度の低下レベルが少ない場合は自動運転レベルの低下レベルを1レベルとし、カメラ解像度の低下レベルが大きい場合は自動運転レベルの低下レベルを2~3レベルとする等の処理を行う構成としてもよい。
 ステップS143において自動運転のレベル低下処理が完了すると一連の処理を終了する。
 なお、ステップS141において移動装置(例:車両)10のドライバー(運転者)に提示する警告情報の例について図13を参照して説明したが、図13に示す例は一例であり、ドライバー(運転者)に提示する警告情報は、様々な異なるタイプの情報とすることが可能である。
 図14に異なるタイプの具体的な表示データの例を示す。
 図14に示す表示情報例は、以下のメッセージを表示した例である。
 「撮影画像の解像度が低下しています。現在、レベル5の自動運転実行中です。以下のいずれに切り替えるかを選択してください。」さらに、以下の選択肢が表示されている。
 〇自動運転をレベル4に切り替える
 〇自動運転を手動運転に切り替える
 ユーザであるドライバーは、表示部に表示されたメッセージを見て、選択肢のいずれかを選択する。
 自動運転を手動運転に切り替えたいと思ったユーザは、例えば、図15に示すように、下側の選択肢、
 〇自動運転を手動運転に切り替える
 この選択肢を選択する。
 このように、ユーザは、表示部に表示された2つの選択肢からいずれかの選択肢の選択情報を入力することができる。
 なお、図14や図15に示す表示データ例は、移動装置(例:車両)10が現在、自動運転実行中である場合の表示データの例である。
 移動装置(例:車両)10が現在、自動運転ではなく手動運転実行中である場合には、異なるデータが表示される。
 図16に移動装置(例:車両)10が現在、自動運転ではなく手動運転実行中である場合の表示データの例を示す。
 図16に示す表示情報例は、以下のメッセージを表示した例である。
 「撮影画像の解像度が低下しています。現在、手動運転実行中ですが、自動運転制御システムに異常が発生している可能性があります。自動運転を行う場合は、運転者監視の下、レベル3以下の自動運転を行うことをお勧めします。」
 ユーザであるドライバーは、表示部に表示されたメッセージを見て、カメラで撮影した画像の解像度の低下が発生している可能性があることを認識し、自動運転への移行を中止する、あるいは低レベルの自動運転を行い、自動運転中は細心の注意を払うなどの対応を行うことが可能となる。
  [4.本開示の移動装置、情報処理装置の構成例について]
 次に、本開示の移動装置、情報処理装置の構成例について説明する。
 図17は、本開示の移動装置(例:車両)10に搭載される情報処理システム100の構成例について説明するブロック図である。
 図17に示すように情報処理システム100は、撮像部(カメラ)101、画像処理プロセッサ(ISP)102、画像解析部103、解像度算出部104、内部メモリ105、制御部(CAN MCU:車載ネットワーク・マイクロコントローラ・ユニット)111、さらに車載ネットワーク(CAN)接続構成要素として、雨滴センサー121、通信部122、センターコンソールUI部123を有する。撮像部(カメラ)101、画像処理プロセッサ(ISP)102、画像解析部103、解像度算出部104、内部メモリ105、制御部(CAN MCU:車載ネットワーク・マイクロコントローラ・ユニット)111、さらに車載ネットワーク(CAN)接続構成要素として、雨滴センサー121、通信部122、センターコンソールUI部123それぞれを、一つの装置として構成しても良い。また、撮像部(カメラ)101、画像処理プロセッサ(ISP)102、画像解析部103、解像度算出部104、内部メモリ105、制御部(CAN MCU:車載ネットワーク・マイクロコントローラ・ユニット)111、さらに車載ネットワーク(CAN)接続構成要素として、雨滴センサー121、通信部122、センターコンソールUI部123の任意の組み合わせのものを装置として設けても良い。
また、画像処理プロセッサ(ISP)102、画像解析部103、解像度算出部104、内部メモリ105、制御部(CAN MCU:車載ネットワーク・マイクロコントローラ・ユニット)111を一つの装置としても良いし、撮像部(カメラ)101、画像処理プロセッサ(ISP)102、画像解析部103、解像度算出部104、内部メモリ105を一つの装置としてもよい。画像解析部103、解像度算出部104、内部メモリ105、を一つの装置としても良い。
 撮像部(カメラ)101は、例えば図1や図3に示す移動装置(例:車両)10に装着されたカメラ10に対応する。
 移動装置(例:車両)10の前方画像を撮影するカメラである。
 カメラ101は、移動装置(例:車両)10が走行中、常時、移動装置(例:車両)10の前方方向を撮影する。
 撮像部(カメラ)101の撮影データであるRAW画像は、画像処理プロセッサ(ISP)102に入力される。
 画像処理プロセッサ(ISP)102は、撮像部(カメラ)101の撮影データであるRAW画像を入力して、ホワイトバランス調整、ガンマ補正等、画像生成のための一般的なカメラ信号処理を実行して撮影画像データを生成する。撮影画像データは、後段の画像解析部、および解像度算出部104に入力される。
 なお、解像度算出部104に入力される画像は解像度解析用画像である。すなわち、先に図3等を参照して説明した基準線22の検出タイミングで撮像部(カメラ)101によって撮影されたチャート撮影画像である。
 なお、図17では、チャート撮影画像が画像処理プロセッサ(ISP)102から解像度算出部104に、直接、入力するように示しているが、これはデータの流れを簡略化して示したものである。実際には、基準線22の検出タイミングにおいて撮像部(カメラ)101によって撮影されたチャート撮影画像は、一旦、内部メモリ105に格納される。その後、解像度算出部104が、内部メモリ105に格納された画像を利用して解像度の解析を行う。
 画像解析部103は、画像処理プロセッサ(ISP)102から撮像部(カメラ)101の撮影画像データを入力し、撮影画像から、マーカーや基準線の検出を行う。
 先に図3を参照して説明したように、マーカーや基準線は、解像度解析用画像を撮影するタイミングを規定するために道路上に記録された識別マークである。
 マーカーは、その前方に基準線が記録されていることを示すマークである。
 マーカーの前方の基準線の検出タイミングでチャートを撮影し、この撮影画像フレームを解像度解析用画像フレームとして解像度解析処理を行う。
 このような処理を行うことで、一定距離から撮影したチャートの撮影画像を用いた、カメラで撮影した画像の解像度の解析が可能となる。
 画像解析部103は、例えば、解像度解析用画像フレームの撮影時間情報を解像度算出部104に出力する。
 解像度算出部104は、画像解析部103から入力した解像度解析用画像フレームの撮影時間情報に基づいて、内部メモリ195に格納された撮影画像から、入力した撮影時間情報に一致する時間に撮影された画像を取得し、取得した画像を利用して解像度の解析を行う。
 なお、内部メモリ105には、撮像部(カメラ)101が撮影し、画像処理プロセッサ(ISP)102において生成された連続撮影画像(映像データ)を構成する画像が各画像の撮影時間情報とともに記録されている。
 解像度算出部104は、画像解析部103から入力した解像度解析用画像フレームの撮影時間に一致する時間の撮影画像を内部メモリ105から取得し、取得した画像を利用して解像度の解析を行う。
 取得した画像は、図3を参照して説明したチャート23の撮影画像であり、図3に示す距離L(=L1+L2)からチャート23を撮影した画像である。
 先に図3を参照して説明したように、基準線22とチャート間の距離はL1であり、基準線22と撮像部(カメラ)101(=図3のカメラ10)との距離はL2である。これらL1,L2はいずれも固定値であり、撮像部(カメラ)101(=図3のカメラ10)からチャート23までの距離Lは、
 L=L1+L2
 となり、固定距離となる。
 従って、基準線22の検出タイミングで撮影されたチャート23の画像フレームを選択して、選択した画像フームを解像度解析用画像フレームとして解像度解析を行うことで、一定距離(L=L1+L2)から撮影したチャート23の撮影画像に基く精度の高い解像度算出が可能となる。
 なお、先に図6を参照して説明したようにチャート23は、様々な種類があるが、先に図7を参照して説明したように、いずれの種類を用いた場合でも、チャート撮影画像は、カメラ解像度に応じてエッジ部の画像が異なるものとなる。すなわち、解像度が低下したカメラの撮影画像は、エッジ部がぼやけた画像となる。
 解像度算出部104は、チャート23を撮影した解像度解析用画像を内部メモリ105から取り出して、例えば撮影画像に含まれるチャート画像のエッジ部の輝度分布等を解析し、カメラ101の解像度を解析する。
 なお、この解像度解析アルゴリズムは既存の様々なアルゴリズムが適用可能である。
 解像度解析アルゴリズムの一例が例えば、先に図10、図11のフローチャートを参照して説明した処理であり、チャート画像のコントラストの指標値である変調伝達関数(MTF:Modulation Transfer Function)を算出し、算出した変調伝達関数(MTF)に基づいて撮像部(カメラ)101の解像度を算出する処理である。
 図17に示すように、情報処理システム100は、制御部(CAN MCU:車載ネットワーク・マイクロコントローラ・ユニット)111を有し、さらに車載ネットワーク(CAN)接続構成要素として、雨滴センサー121、通信部122、センターコンソールUI部123を含んでいる。
 制御部(CAN MCU)111は、画像解析部103や解像度算出部104と、車載ネットワーク(CAN)間の通信データのプロトコル変換を実行する。
 さらに、制御部(CAN MCU)111は、例えば解像度算出部104が算出したカメラ解像度が予め規定した規格値(しきい値)以下であるか否かを判定し、カメラ解像度が予め規定したしきい値以下である場合、警告を出力する処理等を実行する。
 警告は、車載ネットワーク(CAN)接続構成要素として構成されたセンターコンソールUI部123に出力される。
 例えば、カメラ解像度が予め規定したしきい値以下である場合、移動装置の自動運転、またはサポート運転を行なう自動運転処理機能の信頼性が低下していることを通知する警告や、移動装置で実行中の自動運転のレベル低下を促す警告を出力する。
 また、制御部(CAN MCU)111は、カメラ解像度が予め規定したしきい値以下である場合、自動運転のレベル制御を行う。あるいは情報処理システム100外部の運転制御部にコマンドを出力して自動運転レベル制御を実行させてもよい。例えば、移動装置の自動運転のレベル低下、または手動運転へ切り替え制御を実行、または実行させる。
 例えば先に図15を参照して説明したように入力部(タッチディスプレイ型のUI)を介したユーザ入力に基づいて、移動装置の自動運転のレベル低下、または手動運転へ切り替え制御を実行する。
 車載ネットワーク(CAN)接続構成要素として構成された雨滴センサー121は、例えば、移動装置(例:車両)の屋根に取り付けられたセンサーであり、降雨状態を検出する。
 雨滴センサー121の検出情報、すなわち雨が降っているか否かの情報は、制御部(CAN MCU)111を介して画像解析部103や、解像度算出部104に通知される。
 先に図10、図11に示すフローチャートを参照して説明したように、雨が降っている場合は視界が悪く、チャート撮影画像に基く解像度解析処理を高精度に実行することができないため、解像度解析を中止する。
 また、解像度算出部104において算出された解像度情報は、制御部(CAN MCU:車載ネットワーク・マイクロコントローラ・ユニット)111を介して、車載ネットワーク(CAN)接続構成要素として構成された通信部122を介して管理サーバ210に送信される。
 なお、解像度情報を、外部の管理サーバ210に送信する際には、解像度とともに、移動装置(例:車両)10または情報処理装置の識別子(ID)、さらに、解像度の算出タイミング(日時)も併せて送信する。
 管理サーバ210は、各車両から解像度の値を受信して、各移動装置単位の解像度履歴データを生成してサーバ内のデータベースに記録する。
 管理サーバ210は、この履歴データを参照して、各移動装置に装着されたカメラで撮影した画像の解像度の低下傾向を解析し、例えば解像度が自動運転に必要な許容レベルに低下しているような場合、その移動装置に対して警告を送信するといった処理を行う。
 また、解像度算出部104において算出された解像度情報に基づく警告情報が、制御部(CAN MCU:車載ネットワーク・マイクロコントローラ・ユニット)111を介して、車載ネットワーク(CAN)接続構成要素として構成されたセンターコンソールUI部123に出力される。
 これは、例えば先に図8、図9や、図12~図16を参照して説明した警告情報の出力処理である。
 なお、図17に示す情報処理システム100の制御部(CAN MCU)111は、前述したように、自ら自動運転レベルの制御を行う構成としてもよいが、情報処理システム100外部の運転制御部とCANを介した通信を行って運転制御部に対して自動運転制御や、サポート運転の制御コマンドを出力する構成としてもよい。
 例えば、情報処理システム100の生成した解像度情報が運転制御部に出力されると、運転制御部は、自動運転レベルの設定や手動運転への切り替え制御を実行する。
 また、運転制御部を制御部(CAN MCU)111と別構成として情報処理システム100内部に構成してもよい。
  [5.各移動装置からの解像度解析結果を収集して解析するサーバを有する情報処理システム構成例について]
 次に、各移動装置からの解像度解析結果を収集して解析するサーバを有する情報処理システム構成例について説明する。
 例えば、ある車載カメラメーカーの提供する車載カメラを搭載した複数の移動装置(例:車両)が、上述した処理、すなわち道路上のチャートを撮影して、撮影画像に基づく解像度解析を行うと、ある1つの車載カメラに対応する多数の解像度解析結果が得られることになる。
 このようなデータは、例えば車載カメラの性能や弱点、さらに経年劣化等を解析するために有用なデータとなる。
 例えば図18に示すように、多数の移動装置10a~nと、車載カメラメーカーの管理サーバ210を通信ネットワーク151で結んだ情報処理システム200を構築する。
 移動装置(例:車両)10a~n各々は、各移動装置(例:車両)において実行した解像度解析の結果を、遂次、管理サーバ210に送信する。
 管理サーバ210は、各移動装置(例:車両)10a~nから受信する解像度解析結果を検証する。これらの検証処理により、例えば、車載カメラの経年劣化や弱点などを高精度に解析することが可能となり、新たな商品開発に生かすことができる。
  [6.本開示の情報処理装置のハードウェア構成例について]
 次に、本開示の情報処理装置の具体的なハードウェア構成例について、図19を参照して説明する。
 図19は、先に図17を参照して説明した本開示の情報処理システム100のハードウェア構成の一例を示す図である。
 以下、図19に示すハードウェア構成の各構成要素について説明する。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、タッチパネル、マウス、マイクロフォン、さらに、カメラ等のセンサー、GPS等の状況データ取得部などよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。
 なお、入力部306には、カメラ等のセンサー321からの入力情報も入力される。
 また、出力部307は、移動装置の駆動部322に対する駆動情報も出力する。
 CPU301は、入力部306から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部307に出力する。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) カメラの撮影画像が入力されて入力画像の解析を行なう画像解析部と、
 前記撮影画像の解像度を算出する解像度算出部を有し、
 前記画像解析部は、
 前記カメラの撮影画像から基準線を所定の位置で検出したタイミングの撮影画像を解像度解析用画像として選択し、
 前記解像度算出部は、
 前記画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する情報処理装置。
 (2) 前記基準線は、前記移動装置が走行する道路に設置された解像度解析用チャートから一定距離、離間した道路上に記録された基準線であり、
 前記画像解析部は、
 前記移動装置に装着されたカメラによって前記基準線が撮影される位置で撮影した画像を解像度解析用画像として選択する(1)に記載の情報処理装置。
 (3) 前記画像解析部は、
 前記カメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択して記憶部に格納し、
 前記解像度算出部は、
 前記記憶部に格納された解像度解析用画像を取得し、取得した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する(1)または(2)に記載の情報処理装置。
 (4) 前記情報処理装置は、さらに、
 前記解像度算出部が算出した撮影画像の解像度を入力する制御部を有し、
 前記制御部は、
 前記解像度算出部が算出した撮影画像の解像度が予め規定したしきい値以下であるか否かを判定し、
 撮影画像の解像度が予め規定したしきい値以下である場合、警告を出力する(1)~(3)いずれかに記載の情報処理装置。
 (5) 前記制御部は、
 撮影画像の解像度が予め規定したしきい値以下である場合、前記移動装置の自動運転、またはサポート運転を行なう自動運転処理機能の信頼性が低下していることを通知する警告を出力する(4)に記載の情報処理装置。
 (6) 前記制御部は、
 撮影画像の解像度が予め規定したしきい値以下である場合、前記移動装置で実行中の自動運転のレベル低下を促す警告を出力する(4)または(5)に記載の情報処理装置。
 (7) 前記情報処理装置は、さらに、
 前記解像度算出部が算出した撮影画像の解像度を入力する制御部を有し、
 前記制御部は、
 前記解像度算出部が算出した撮影画像の解像度が予め規定したしきい値以下であるか否かを判定し、
 撮影画像の解像度が予め規定したしきい値以下である場合、
 前記移動装置の自動運転のレベル制御を実行する(1)~(6)いずれかに記載の情報処理装置。
 (8) 前記制御部は、
 撮影画像の解像度が予め規定したしきい値以下である場合、
 前記移動装置の自動運転のレベル低下、または手動運転へ切り替え制御を実行する(7)に記載の情報処理装置。
 (9) 前記制御部は、
 入力部を介したユーザ入力に基づいて、前記移動装置の自動運転のレベル低下、または手動運転へ切り替え制御を実行する(8)に記載の情報処理装置。
 (10) 移動装置と、管理サーバを有する情報処理システムであり、
 前記移動装置は、
 前記移動装置に装着されたカメラの撮影画像を入力して入力画像の解析を行なう画像解析部と、
 前記カメラの解像度を算出する解像度算出部と、
 通信部を有し、
 前記画像解析部は、
 前記カメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択し、
 前記解像度算出部は、
 前記画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出して前記通信部を介して算出した解像度を前記管理サーバに送信し、
 前記管理サーバは、
 複数の移動装置から受信する複数の解像度データの解析を実行する情報処理システム。
 (11) 移動装置に搭載された情報処理装置において実行する情報処理方法であり、
 画像解析部が、
 前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する画像解析ステップと、
 解像度算出部が、
 前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する撮影画像解像度算出ステップを実行する情報処理方法。
 (12) 移動装置と、管理サーバを有する情報処理システムにおいて実行する情報処理方法であり、
 前記移動装置の画像解析部が、
 前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する画像解析ステップと、
 前記移動装置の解像度算出部が、
 前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出して、算出した解像度を前記管理サーバに送信する解像度算出、送信ステップを実行し、
 前記管理サーバが、
 複数の移動装置から受信する複数の解像度データの解析を実行する情報処理方法。
 (13) 移動装置に搭載された情報処理装置において情報処理を実行させるプログラムであり、
 前記プログラムは、画像解析部に、
 前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択させる画像解析ステップと、
 解像度算出部に、
 前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出させる撮影画像解像度算出ステップを実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、道路に設置されたチャートを一定距離から撮影し、撮影画像を解析してカメラで撮影した画像の解像度を算出し、算出結果に応じて警告出力、自動運転レベル低下処理を実行する構成が実現される。
 具体的には、例えば、画像解析部が、カメラ撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する。解像度算出部が、画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、カメラで撮影した画像の解像度を算出する。基準線は、移動装置が走行する道路に設置された解像度解析用チャートから一定距離、離間した道路上に記録されており、チャートを一定距離から撮影した画像に基く高精度なカメラの解像度算出が可能となる。
 本構成により、道路に設置されたチャートを一定距離から撮影し、撮影画像を解析してカメラ解像度を算出し、算出結果に応じて警告出力、自動運転レベル低下処理を実行する構成が実現される。
  10 移動装置(例:車両)
  11 カメラ
  21 マーカー
  22 基準線
  23 チャート
 100 情報処理システム
 101 撮像部(カメラ)
 102 画像処理プロセッサ(ISP)
 103 画像解析部
 104 解像度算出部
 105 内部メモリ
 111 制御部(CAN MCU)
 121 雨滴センサー部
 122 通信部
 123 センターコンソールUI部
 200 情報処理システム
 210 管理サーバ
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア
 321 センサー
 322 駆動部

Claims (13)

  1.  カメラの撮影画像が入力されて入力画像の解析を行なう画像解析部と、
     前記撮影画像の解像度を算出する解像度算出部を有し、
     前記画像解析部は、
     前記カメラの撮影画像から基準線を所定の位置で検出したタイミングの撮影画像を解像度解析用画像として選択し、
     前記解像度算出部は、
     前記画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する情報処理装置。
  2.  前記基準線は、前記移動装置が走行する道路に設置された解像度解析用チャートから一定距離、離間した道路上に記録された基準線であり、
     前記画像解析部は、
     前記移動装置に装着されたカメラによって前記基準線が撮影される位置で撮影した画像を解像度解析用画像として選択する請求項1に記載の情報処理装置。
  3.  前記画像解析部は、
     前記カメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択して記憶部に格納し、
     前記解像度算出部は、
     前記記憶部に格納された解像度解析用画像を取得し、取得した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する請求項1に記載の情報処理装置。
  4.  前記情報処理装置は、さらに、
     前記解像度算出部が算出した撮影画像の解像度を入力する制御部を有し、
     前記制御部は、
     前記解像度算出部が算出した撮影画像の解像度が予め規定したしきい値以下であるか否かを判定し、
     撮影画像の解像度が予め規定したしきい値以下である場合、警告を出力する請求項1に記載の情報処理装置。
  5.  前記制御部は、
     撮影画像の解像度が予め規定したしきい値以下である場合、前記移動装置の自動運転、またはサポート運転を行なう自動運転処理機能の信頼性が低下していることを通知する警告を出力する請求項4に記載の情報処理装置。
  6.  前記制御部は、
     撮影画像の解像度が予め規定したしきい値以下である場合、前記移動装置で実行中の自動運転のレベル低下を促す警告を出力する請求項4に記載の情報処理装置。
  7.  前記情報処理装置は、さらに、
     前記解像度算出部が算出した撮影画像の解像度を入力する制御部を有し、
     前記制御部は、
     前記解像度算出部が算出した撮影画像の解像度が予め規定したしきい値以下であるか否かを判定し、
     撮影画像の解像度が予め規定したしきい値以下である場合、
     前記移動装置の自動運転のレベル制御を実行する請求項1に記載の情報処理装置。
  8.  前記制御部は、
     撮影画像の解像度が予め規定したしきい値以下である場合、
     前記移動装置の自動運転のレベル低下、または手動運転へ切り替え制御を実行する請求項7に記載の情報処理装置。
  9.  前記制御部は、
     入力部を介したユーザ入力に基づいて、前記移動装置の自動運転のレベル低下、または手動運転へ切り替え制御を実行する請求項8に記載の情報処理装置。
  10.  移動装置と、管理サーバを有する情報処理システムであり、
     前記移動装置は、
     前記移動装置に装着されたカメラの撮影画像を入力して入力画像の解析を行なう画像解析部と、
     前記カメラの解像度を算出する解像度算出部と、
     通信部を有し、
     前記画像解析部は、
     前記カメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択し、
     前記解像度算出部は、
     前記画像解析部が選択した解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出して前記通信部を介して算出した解像度を前記管理サーバに送信し、
     前記管理サーバは、
     複数の移動装置から受信する複数の解像度データの解析を実行する情報処理システム。
  11.  移動装置に搭載された情報処理装置において実行する情報処理方法であり、
     画像解析部が、
     前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する画像解析ステップと、
     解像度算出部が、
     前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出する撮影画像解像度算出ステップを実行する情報処理方法。
  12.  移動装置と、管理サーバを有する情報処理システムにおいて実行する情報処理方法であり、
     前記移動装置の画像解析部が、
     前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択する画像解析ステップと、
     前記移動装置の解像度算出部が、
     前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出して、算出した解像度を前記管理サーバに送信する解像度算出、送信ステップを実行し、
     前記管理サーバが、
     複数の移動装置から受信する複数の解像度データの解析を実行する情報処理方法。
  13.  移動装置に搭載された情報処理装置において情報処理を実行させるプログラムであり、
     前記プログラムは、画像解析部に、
     前記移動装置に装着されたカメラの撮影画像から基準線を検出したタイミングの撮影画像を解像度解析用画像として選択させる画像解析ステップと、
     解像度算出部に、
     前記画像解析ステップにおいて選択された解像度解析用画像に含まれる解像度解析用チャート画像を利用して、前記撮影画像の解像度を算出させる撮影画像解像度算出ステップを実行させるプログラム。
PCT/JP2021/048181 2021-01-12 2021-12-24 情報処理装置、情報処理システム、および方法、並びにプログラム WO2022153838A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/259,899 US20240073405A1 (en) 2021-01-12 2021-12-24 Information processing apparatus, information processing system, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021002560 2021-01-12
JP2021-002560 2021-01-12

Publications (1)

Publication Number Publication Date
WO2022153838A1 true WO2022153838A1 (ja) 2022-07-21

Family

ID=82447755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048181 WO2022153838A1 (ja) 2021-01-12 2021-12-24 情報処理装置、情報処理システム、および方法、並びにプログラム

Country Status (2)

Country Link
US (1) US20240073405A1 (ja)
WO (1) WO2022153838A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010132A (ja) * 2010-06-25 2012-01-12 Konica Minolta Opto Inc 解像度検査装置
JP2017140981A (ja) * 2016-02-12 2017-08-17 株式会社デンソー 車両用装置
US20200004242A1 (en) * 2019-08-07 2020-01-02 Lg Electronics Inc. Method for managing drive of vehicle in autonomous driving system and apparatus thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010132A (ja) * 2010-06-25 2012-01-12 Konica Minolta Opto Inc 解像度検査装置
JP2017140981A (ja) * 2016-02-12 2017-08-17 株式会社デンソー 車両用装置
US20200004242A1 (en) * 2019-08-07 2020-01-02 Lg Electronics Inc. Method for managing drive of vehicle in autonomous driving system and apparatus thereof

Also Published As

Publication number Publication date
US20240073405A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
CN109739236B (zh) 车辆信息的处理方法、装置、计算机可读介质及电子设备
CN109949594B (zh) 实时的交通灯识别方法
CN108454631B (zh) 信息处理装置、信息处理方法以及记录介质
JP4608631B2 (ja) 車両用画像処理装置、運転支援装置
JP6971020B2 (ja) 異常検出装置および異常検出方法
JP7367031B2 (ja) 自動運転車両におけるセンサ同期性データ分析に用いるシステム
US20190294160A1 (en) Remote driving managing apparatus, and computer readable storage medium
CN110395253B (zh) 车辆控制装置以及计算机可读存储介质
JP2016515736A (ja) ルートの自動運転
CN110311940B (zh) 信息处理装置以及计算机可读存储介质
WO2019116687A1 (ja) 道路地図生成システム及び道路地図生成方法
CN111405526B (zh) 一种信息获取方法、装置、平台、车载设备及路侧设备
CN110303995B (zh) 信息处理装置以及计算机可读存储介质
CN111835998B (zh) 超视距全景图像获取方法、装置、介质、设备及系统
US12112583B2 (en) Automotive sensor calibration system and related methodology
CN110718083B (zh) 无人驾驶系统及其控制方法
CN113924605A (zh) 检测用于检查图像分析系统的图像材料的方法、在该方法中使用的装置和交通工具以及计算机程序
US20220153284A1 (en) Method, system and electronic computing device for checking sensor devices of vehicles, in particular of motor vehicles
JP2016143364A (ja) 位置同定装置、位置同定方法、及びプログラム
WO2022153838A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
US20220172490A1 (en) Image processing apparatus, vehicle control apparatus, method, and program
JP2005338941A (ja) 視程検出方法および視程検出装置
JP2018136917A (ja) 情報処理装置、情報処理方法及びプログラム
JP7092081B2 (ja) 走行環境評価システム
JP2017162472A (ja) 自動車のための情報システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919724

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18259899

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21919724

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP