WO2020071091A1 - 画像処理装置と画像処理方法およびプログラム - Google Patents

画像処理装置と画像処理方法およびプログラム

Info

Publication number
WO2020071091A1
WO2020071091A1 PCT/JP2019/036082 JP2019036082W WO2020071091A1 WO 2020071091 A1 WO2020071091 A1 WO 2020071091A1 JP 2019036082 W JP2019036082 W JP 2019036082W WO 2020071091 A1 WO2020071091 A1 WO 2020071091A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
fading
unit
color
comparison
Prior art date
Application number
PCT/JP2019/036082
Other languages
English (en)
French (fr)
Inventor
竜太 佐藤
駿 李
啓太郎 山本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201980063280.1A priority Critical patent/CN112771851A/zh
Priority to EP19869106.5A priority patent/EP3863282B1/en
Priority to KR1020217008079A priority patent/KR20210069632A/ko
Priority to US17/280,192 priority patent/US11417023B2/en
Priority to JP2020550254A priority patent/JP7318656B2/ja
Publication of WO2020071091A1 publication Critical patent/WO2020071091A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B43/00Testing correct operation of photographic apparatus or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/02Diagnosis, testing or measuring for television systems or their details for colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40006Compensating for the effects of ageing, i.e. changes over time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6091Colour correction or control controlled by factors external to the apparatus by environmental factors, e.g. temperature or humidity

Definitions

  • This technology relates to an image processing apparatus, an image processing method, and a program, and can accurately detect a fading state of a color filter.
  • an object of this technique is to provide an image processing apparatus, an image processing method, and a program that can accurately detect a fading state of a color filter.
  • the first aspect of this technology is: An image processing apparatus including a fading information generating unit that generates fading information indicating fading of the color filter based on comparison target information based on image signals generated by an imaging unit using a color filter and fading determination reference information. .
  • color information generated from an image signal generated by an imaging unit using a color filter is used as comparison target information. Further, color information in the case where there is no fading of the color filter is used as fading determination reference information.
  • the comparison target information is compared with the fading determination reference information, and fading information is generated based on the comparison result.
  • an image area of the fading discrimination object is detected as a comparison area based on an image signal generated by the imaging unit, and color information generated from the image signal of the comparison area is used as comparison target information. Further, the detection of the comparison area may be performed according to the fading level estimated based on the comparison result, and the detection of the comparison area may be performed within a preset image area.
  • the imaging unit is provided with a color component pixel provided with a color filter and a reference pixel which does not cause fading, and color information generated from an image signal generated by the color component pixel is used as comparison target information as a reference pixel. May be used as the fading determination reference information.
  • the reference pixel is, for example, a pixel provided with no color filter or a pixel provided with a spectral filter in place of the color filter.
  • Comparison information indicating the comparison result between the comparison target information and the fading determination reference information is accumulated, and based on the accumulated comparison information, the fading level of the color filter exceeds a predetermined level or the fading indicating the fading level of the color filter. Information is generated.
  • illuminance information generated based on the image signal, or illuminance information and environment information at the time of generation of the image signal are accumulated, and the accumulated illuminance information or the illuminance information and the environment information are used as comparison target information.
  • the fading level of the color filter has exceeded a predetermined level, or information indicating the relationship of the fading level of the color filter to the accumulated result of the information has been used as fading determination reference information. Fading information indicating the fading level is generated.
  • the second aspect of this technology is: An image processing method including generating fading information indicating fading of a color filter in a fading information generating unit based on comparison target information and fading determination reference information based on an image signal generated in an imaging unit using a color filter. It is in.
  • the third aspect of this technology is: A program that causes a computer to generate information about a color filter used in the imaging unit, A procedure for generating comparison target information based on an image signal generated by the imaging unit using the color filter, Generating color fading information indicating color fading of the color filter based on the comparison target information and the color fading determination reference information in the computer.
  • the program of the present technology is, for example, provided to a general-purpose computer capable of executing various program codes, in a computer-readable format, such as a storage medium and a communication medium, such as an optical disk, a magnetic disk, and a storage medium such as a semiconductor memory.
  • the program can be provided by a medium or a communication medium such as a network.
  • FIG. 2 is a diagram illustrating a configuration of an imaging system.
  • FIG. 2 is a diagram illustrating a configuration of a first embodiment.
  • 4 is a flowchart illustrating an operation of the first exemplary embodiment.
  • 4 is a flowchart illustrating an operation of the first exemplary embodiment. It is the figure which illustrated the object without fading.
  • FIG. 3 is a diagram illustrating a configuration of an imaging unit that generates an image signal and a reference signal.
  • FIG. 9 is a diagram illustrating a configuration of a second embodiment. 9 is a flowchart illustrating an operation of the second exemplary embodiment. 9 is a flowchart illustrating an operation of the second exemplary embodiment.
  • FIG. 14 is a diagram illustrating a configuration of a third embodiment. 13 is a flowchart illustrating an operation of the third embodiment. 13 is a flowchart illustrating an operation of the third embodiment.
  • FIG. 3 is a block diagram illustrating a configuration example of a schematic function of a vehicle control system
  • Imaging system First embodiment 2-1. Configuration of first embodiment 2-2. Operation of first embodiment Second embodiment 3-1. Configuration of Second Embodiment 3-2. 3. Operation of Second Embodiment Third embodiment 4-1. Configuration of Third Embodiment 4-2. 4. Operation of Third Embodiment Other embodiments 6. About fading information utilization section Application examples
  • FIG. 1 shows a configuration of an imaging system using the image processing device of the present technology.
  • the imaging system 10 includes an imaging unit 20 (21) and an image processing unit 30.
  • the imaging system 10 may include an environment information generation unit 40, a fading information use unit 50, and an image use unit 60.
  • the imaging unit 20 (21) is configured using an imaging device such as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD).
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • a color filter is provided on the imaging surface side of the imaging device.
  • the imaging unit 20 performs photoelectric conversion of the subject optical image, generates an image signal corresponding to the subject optical image, and outputs the image signal to the image processing unit 30 and the fading information using unit 50 or the image using unit 60.
  • the imaging unit 21 generates an image signal and a reference signal as described later, and outputs the image signal and the reference signal to the image processing unit 30.
  • the image processing unit 30 uses the comparison target information based on the image signal generated by the imaging unit 20 (21) using the color filter and the fading determination reference information for determining the fading of the color filter to determine the fading of the color filter.
  • the image processing unit 30 may generate, for example, color information from an image signal and use it as comparison target information, accumulate illuminance information generated based on the image signal, or store illuminance information and environmental information at the time of generation of the image signal. The information may be accumulated and used as comparison target information.
  • the image processing unit 30 may use color information without fading, for example, color information of an object without fading, or color information based on a signal generated by a reference pixel that does not cause fading as fading determination reference information,
  • the storage result of the illuminance information or the information indicating the relationship between the storage result of the illuminance information and the storage result of the environment information and the fading level of the color filter may be used as the fading determination reference information.
  • the image processing unit 30 compares the comparison target information with the fading determination reference information, determines fading of the color filter based on the comparison result, and generates fading information.
  • the image processing unit 30 outputs the generated fading information to the fading information using unit 50.
  • the environment information generation unit 40 has a sensor for detecting an imaging environment, detects an environment at the time of imaging, for example, a temperature at the time of imaging, and outputs imaging environment information indicating the detected temperature to the image processing unit 30.
  • the fading information utilizing unit 50 performs a fading warning and a control corresponding to fading based on the fading information generated by the image processing unit 30. For example, when the fading information indicates that fading exceeding a predetermined level has occurred by the fading information, the fading information using unit 50 presents a warning display or a warning sound to the user. Further, in the imaging system 10, when a plurality of imaging units 20 (21) are provided so as to be switchable, when the fading information indicates that fading exceeding a predetermined level has occurred, the image is transferred to another imaging unit. Switching may be performed. Further, the fading information using unit 50 may correct the fading of the image signal generated by the imaging unit 20 (21) based on the fading information.
  • the image using unit 60 uses the image signal acquired by the image capturing unit 20 (21) or the image signal whose fading is corrected by the fading information using unit 50, for example, application operation such as operation control and monitoring, image signal Perform recording, etc.
  • the first embodiment shows a case where color information generated from an image signal is used as comparison target information, and color information of an object without fading is used as fading determination reference information.
  • FIG. 2 illustrates the configuration of the first embodiment.
  • the image processing unit 30-1 includes a comparison area detection unit 31, a color information generation unit 32a, a color information comparison unit 33a, a comparison information storage unit 34a, and a fading information generation unit 35a.
  • the comparison area detection unit 31 performs subject recognition using the image signal generated by the imaging unit 20, and detects an image area of an object without fading as a comparison area.
  • the comparison area detection unit 31 outputs the detected image signal of the comparison area to the color information generation unit 32a.
  • the fading information may be notified from the fading information generating unit 35a to the comparison area detecting unit 31, and the comparing area detecting unit 31 may perform a recognition process according to the fading level.
  • the comparison area detection unit 31 switches the dictionary used in the recognition processing according to the notified fading level.
  • the comparison area detection unit 31 may set the subject recognition area according to the object detected as the comparison area. For example, as described later with reference to FIG. 5, when a traffic light or a lighting fixture is detected as detection of an object without fading, since the traffic light or the lighting fixture is positioned above the center of the captured image, If an area above the center of the image is set as the subject recognition area, it is possible to efficiently detect a traffic light or a lighting fixture.
  • the color information generation unit 32a outputs color information, for example, color information indicating the level of each of the three primary color components from the image signal of the comparison area detected by the comparison area detection unit 31 to the color information comparison unit 33a as comparison target information. .
  • the color information comparison unit 33a stores in advance color information of an object without fading as fading determination reference information.
  • the color information comparison unit 33a compares the color information (comparison target information) generated by the color information generation unit 32a with the color information (fading determination reference information) of the object detected by the comparison area detection unit 31 to determine the fading.
  • the comparison information indicating whether or not the ratio of the comparison target information to the reference information (the fading level) or the fading level exceeds a predetermined level is generated.
  • the color information comparison unit 33a outputs the generated comparison information to the comparison information storage unit 34a.
  • the comparison information storage unit 34a stores the comparison information generated by the color information comparison unit 33a. Further, the comparison information accumulation unit 34a outputs accumulation comparison information, which is the accumulation result of the comparison information, to the fading information generation unit 35a.
  • the fading information generation unit 35a performs statistical processing and the like on the accumulated comparison information supplied from the comparison information accumulation unit 34a, and calculates fading discrimination information. For example, based on the accumulation comparison information, the fading information generation unit 35a performs fading from the predetermined level, for example, when the last accumulated comparison information indicates that the color has faded beyond a predetermined level set in advance. Is calculated as the fading determination information. Further, the fading information generation unit 35a may estimate the current fading level based on the accumulation comparison information, and output the estimated fading level to the comparison area detection unit 31.
  • the fading information generation unit 35a determines that fading has occurred, and indicates that the color has faded.
  • the fading information is generated and output to the fading information utilizing unit 50. Further, the fading information generation unit 35a may include not only the fading information indicating that fading has occurred, but also a fading level in the fading information.
  • the comparison information storage unit 34a may output the comparison information generated by the color information comparison unit 33a to the fading information generation unit 35a instead of the essential component. In the case where the comparison information storage unit 34a is provided, even if the comparison information generated by the color information comparison unit 33a varies, stable fading information can be generated based on the storage comparison information. If the comparison information storage unit 34a is not provided, the configuration of the image processing unit 30-1 can be simplified.
  • FIG. 3 and 4 are flowcharts illustrating the operation of the first embodiment, and FIG. 3 performs a processing operation of information used to determine fading.
  • FIG. 4 shows an operation for generating fading information. The operation of processing information used for determining fading is performed during the operation of the imaging unit, and the operation of generating fading information is performed at predetermined time intervals.
  • step ST1 of FIG. 3 the image processing unit acquires an image signal.
  • the image processing unit 30-1 acquires the image signal generated by the imaging unit 20, and proceeds to step ST2.
  • step ST2 the image processing unit performs a comparison area detection process.
  • the image processing unit 30-1 detects, as a comparison area, an image area indicating an object without fading in an image based on the image signal acquired in step ST1.
  • FIG. 5 exemplifies an object without fading, and emits a traffic light having a clear color as shown in FIG. 5A or illumination light of a predetermined wavelength as shown in FIG. 5B.
  • the lighting equipment to be detected is an object to be detected as a comparison area.
  • a marker or the like of a predetermined color provided as an RSU (Road ⁇ Side ⁇ Unit) may be used as an object for detecting as a comparison area.
  • the image processing unit 30-1 performs a comparison area detection process, and proceeds to step ST3.
  • step ST3 the image processing unit determines whether a comparison area has been detected.
  • the image processing unit 30-1 proceeds to step ST4 when a comparison area is detected, and returns to step ST1 when no comparison area is detected.
  • step ST4 the image processing unit performs comparison target information generation processing.
  • the image processing unit 30-1 proceeds to step ST5 using color information generated using the image signal of the comparison area detected in step ST2 as comparison target information.
  • step ST5 the image processing section performs an information comparison process.
  • the image processing unit 30-1 compares the comparison target information generated in step ST4 with fading determination reference information, which is color information of a pre-registered colorless object, and generates comparison information based on the comparison result.
  • step ST6 the image processing section performs an information comparison process.
  • step ST6 the image processing section performs a comparison information accumulation process.
  • the image processing unit 30-1 accumulates the comparison information generated in step ST5, and returns to step ST1.
  • step ST11 of FIG. 4 the image processing unit acquires the accumulation comparison information.
  • the image processing unit 30-1 acquires the accumulation comparison information generated by accumulating the comparison information by the comparison information accumulation processing in step ST6 of FIG. 3, and proceeds to step ST12.
  • step ST12 the image processing section calculates fading determination information.
  • the image processing unit 30-1 calculates fading discrimination information based on the accumulation comparison information acquired in step ST11.
  • the image processing unit 30-1 calculates, for example, the duration and the number of continuations of the comparison result indicating that the color has faded beyond the predetermined level as the fading determination information, and proceeds to step ST13.
  • step ST13 the image processing section determines whether or not fading has occurred.
  • the image processing unit 30-1 determines whether or not the fading determination information calculated in step ST12 exceeds a preset threshold. If it is determined based on the fading determination information that fading exceeding the threshold has occurred, the process proceeds to step ST12. The process proceeds to ST14, and if it is determined based on the fading determination information that fading exceeding the threshold has not occurred, the process proceeds to step ST15.
  • step ST14 the image processing unit generates fading information.
  • the image processing unit 30-1 generates fading information indicating that the color filters used in the imaging unit 20 have undergone fading exceeding a threshold.
  • step ST15 the image processing unit performs an area detection feedback process.
  • the image processing unit 30-1 estimates the current fading level based on the accumulation comparison information acquired in step ST11, and feeds back the estimated fading level to the comparison area detection process in step ST2 in FIG. The process returns to step ST11 so that the comparison area can be detected with high accuracy.
  • the fading state can be accurately detected. Also, since the image area of the object without fading can be detected from the captured image and the fading can be determined from the color information of the detected area and the color information of the object, it is possible to store the color information of the object without fading in advance. In addition, the color fading of the color filter can be detected without using information or the like acquired by an external device.
  • the second embodiment shows a case where color information generated from an image signal is used as comparison target information, and color information based on a signal generated from a reference pixel that does not cause fading is used as fading determination reference information.
  • FIG. 6 illustrates the configuration of an imaging unit that generates an image signal and a reference signal.
  • the imaging element of the imaging unit 21 has color pixels provided with a color filter and reference pixels that do not cause fading.
  • FIG. 6A illustrates a case where the reference pixel is a pixel not provided with a color filter.
  • a block of 2 ⁇ 2 pixels is configured by a red pixel, a green pixel, a blue pixel, and a reference pixel. ing.
  • FIG. 6B illustrates a case where the reference pixel is a pixel provided with a spectral filter.
  • a spectral filter for example, a filter using surface plasmon resonance (hereinafter, referred to as “surface plasmon filter”) is used.
  • surface plasmon filter a metal thin film pattern having a periodicity according to the wavelength of light transmitted to the surface of the dielectric is formed.
  • the reference pixel generates a signal that is not affected by the fading of the color filter.
  • a spectral filter red, green, blue
  • a block of 2 ⁇ 2 pixels is composed of a red pixel, a green pixel, a blue pixel, and a reference pixel, and the reference pixels of the adjacent blocks use spectral filters of different colors. Used.
  • FIG. 6 illustrates a case where the reference pixel is a pixel without a color filter, and the reference pixel is provided in the line direction. Note that the arrangement of the reference pixels shown in FIG. 6 is an example and is not limited to the arrangement of FIG.
  • the imaging unit 21 outputs an image signal generated by reading a signal from a color pixel and a reference signal generated by reading from a reference pixel without fading. If reference pixels are provided for each pixel block including a plurality of pixels as shown in FIG. 6A or FIG. 6B, the reference pixels can be arranged without bias. Further, if the arrangement is performed as shown in FIG. 6C, the reference signal can be easily generated only by performing the line reading.
  • FIG. 7 illustrates the configuration of the second embodiment.
  • the image processing unit 30-2 includes color information generation units 32b and 32c, a color information comparison unit 33b, a comparison information storage unit 34b, and a fading information generation unit 35b.
  • the color information generation unit 32b generates color information, for example, color information indicating the level of each of the three primary color components from the image signal generated by the imaging unit 21 as comparison target information, and outputs the color information to the color information comparison unit 33b.
  • the color information generation unit 32c generates color information from the reference signal generated by the imaging unit 21 and sets the color information as comparison target information.
  • the color information generation unit 32c When the reference pixel is a pixel not provided with a color filter, the color information generation unit 32c generates information indicating a luminance level as fading determination reference information.
  • the color information generation unit 32c When the reference pixel is a pixel provided with a spectral filter, the color information generation unit 32c generates fading determination reference information indicating a level of each color component for a color component equal to the color filter.
  • the color information generation unit 32c outputs the generated fading determination reference information to the color information comparison unit 33b.
  • the color information comparison unit 33b compares the comparison target information generated by the color information generation unit 32b with the fading determination reference information generated by the color information generation unit 32c, and determines the ratio of the comparison target information to the fading determination reference information (color fading). ) Or comparison information indicating whether or not the fading level exceeds a predetermined level.
  • the color information comparison unit 33b calculates the equation (1) from the color information (red component R, green component G, and blue component B) generated by the color information generation unit 32b.
  • Color information Lrgb indicating the luminance level is calculated as comparison target information.
  • the coefficient kr indicates the ratio of the red component
  • the coefficient kg indicates the ratio of the green component
  • the coefficient kb indicates the ratio of the blue component.
  • the color information comparison unit 33b compares the signal level of the reference pixel not provided with the color filter with the fading discrimination reference information Lref, compares the comparison target information Lrgb with the fading discrimination reference information Lref, and compares the comparison information indicating the comparison result. Is output to the comparison information storage unit 34b.
  • the color information comparison unit 33b compares the comparison target information (red component R, green component G, and blue component B) generated by the color information generation unit 32b with the color information generation unit.
  • the fading determination reference information reference red component Rref, reference green component Gref, and reference blue component Bref
  • the color information comparison unit 33b outputs comparison information indicating the comparison result to the comparison information storage unit 34b.
  • the color information comparison unit 33b can generate comparison information for each pixel block, for example.
  • the comparison information can be generated for each pixel block or each of a plurality of pixel blocks including the reference pixels of each color.
  • the comparison information can be generated for each region having a predetermined line width based on the line of the reference pixels.
  • the comparison information storage unit 34b stores the comparison information generated by the color information comparison unit 33b. Further, the comparison information accumulation unit 34b outputs accumulation comparison information, which is the accumulation result of the comparison information, to the fading information generation unit 35b.
  • the fading information generation unit 35b performs statistical processing and the like on the accumulated comparison information supplied from the comparison information accumulation unit 34b, and calculates fading discrimination information. For example, based on the accumulated comparison information, the fading information generation unit 35b performs fading from the predetermined level, for example, when the last accumulated comparison information indicates that the color is fading than a predetermined level set in advance. Is calculated as the fading determination information. The fading information generation unit 35b determines that fading has occurred and indicates that fading has occurred when the duration or the number of continuations of the comparison result indicating that the fading has occurred beyond the predetermined level exceeds the threshold value. The fading information is generated and output to the fading information utilizing unit 50. Further, the fading information generating unit 35b may include not only the fading information indicating that fading has occurred, but also a fading level in the fading information.
  • the comparison information storage unit 34b may output the comparison information generated by the color information comparison unit 33b to the fading information generation unit 35b instead of the essential component.
  • the comparison information accumulation unit 34b is provided, even if the comparison information generated by the color information comparison unit 33b varies, stable fading information can be generated based on the accumulation comparison information.
  • the comparison information storage unit 34b is not provided, the configuration of the image processing unit 30-2 can be simplified.
  • FIG. 8 and 9 are flowcharts illustrating the operation of the second embodiment.
  • FIG. 8 illustrates an operation of processing information used for determining fading
  • FIG. 9 illustrates an operation of generating fading information.
  • the operation of processing information used for determining fading is performed during the operation of the imaging unit, and the operation of generating fading information is performed at predetermined time intervals.
  • step ST21 in FIG. 8 the image processing unit acquires an image signal.
  • the image processing unit 30-2 acquires the image signal generated by the imaging unit 21, and proceeds to step ST22.
  • step ST22 the image processing unit performs comparison target information generation processing.
  • the image processing unit 30-2 generates color information indicating a signal level for each luminance or color component as comparison target information based on the image signal acquired in step ST21, and proceeds to step ST23.
  • step ST23 the image processing unit acquires a reference signal.
  • the image processing unit 30-2 acquires the reference signal generated by the imaging unit 21, and proceeds to step ST24.
  • step ST24 the image processing unit performs a fading determination reference information generation process.
  • the image processing unit 30-2 generates color information indicating a signal level for each luminance or color component as fading determination reference information based on the reference signal acquired in step ST23, and proceeds to step ST25.
  • step ST25 the image processing unit performs an information comparison process.
  • the image processing unit 30-2 compares the comparison target information generated in step ST22 with the fading determination reference information generated in step ST24, generates comparison information based on the comparison result, and proceeds to step ST26.
  • step ST26 the image processing section performs comparison information accumulation processing.
  • the image processing unit 30-2 accumulates the comparison information generated in step ST25, and returns to step ST21.
  • step ST31 of FIG. 9 the image processing unit acquires the accumulation comparison information.
  • the image processing unit 30-2 acquires the accumulation comparison information generated by accumulating the comparison information by the comparison information accumulation processing in step ST26 of FIG. 8, and proceeds to step ST32.
  • step ST32 the image processing section calculates fading determination information.
  • the image processing unit 30-2 calculates the fading determination information based on the accumulation comparison information obtained in step ST31.
  • the image processing unit 30-2 calculates, for example, the duration and the number of continuations of the comparison result indicating that the color has faded beyond the predetermined level as the fading determination information, and proceeds to step ST33.
  • step ST33 the image processing section determines whether or not fading has occurred.
  • the image processing unit 30-2 determines whether the fading determination information calculated in step ST32 exceeds a preset threshold value, and if it is determined based on the fading determination information that fading exceeding the threshold value has occurred, the process proceeds to step ST32. Proceeding to ST34, if it is determined based on the fading determination information that fading exceeding the threshold has not occurred, the process returns to step ST31.
  • step ST34 the image processing section generates fading information.
  • the image processing unit 30-2 generates fading information indicating that the color filter used in the imaging unit 20 has undergone fading exceeding a threshold.
  • the fading state can be accurately detected.
  • the fading can be determined based on the image signal and the reference signal generated by the imaging unit 21, the fading of the color filter can be detected without using information or the like acquired by an external device.
  • FIG. 10 illustrates the configuration of the third embodiment.
  • the image processing unit 30-3 includes an illuminance information accumulation unit 36, an environment information accumulation unit 37, and a fading information generation unit 38.
  • the illuminance information accumulation unit 36 generates illuminance information based on the image signal supplied from the imaging unit 20.
  • the illuminance information accumulating unit 36 accumulates, for example, an average value of pixel values in the captured image as illuminance information, and uses a time integration value of the illuminance information from the first use of the color filter of the imaging unit 20 to the present time as the accumulated illuminance information.
  • the environment information accumulating unit 37 accumulates environment information, for example, a temperature measurement value supplied from the environment information generation unit 40, and integrates the time measurement value of the temperature measurement value from the first use of the color filter of the imaging unit 20 to the present. Is output to the fading information generation unit 38 as accumulated environment information. Note that the environmental information accumulating unit may use not only the temperature measurement value but also the humidity measurement value as the environment information.
  • the fading information generating unit 38 determines whether or not fading has occurred exceeding a predetermined level based on the accumulated illuminance information supplied from the illuminance information accumulating unit 36 and the accumulated temperature information supplied from the environment information accumulating unit 37. Is determined.
  • the fading information generating unit 38 previously stores a characteristic (a fading model or the like) indicating a fading level with respect to the accumulated illuminance information and the accumulated temperature information as fading determination reference information.
  • the fading level is determined based on the supplied cumulative illuminance information and the cumulative temperature information supplied from the environment information accumulating unit 37.
  • the fading level based on the accumulated illuminance information and the fading level based on the accumulated temperature information are discriminated by individually using the characteristic indicating the fading level for the accumulated illuminance information and the characteristic indicating the fading level for the accumulated temperature information.
  • the levels may be integrated into a color filter fading level.
  • an evaluation value may be calculated using the accumulated illuminance information and the accumulated temperature information as parameters, and the calculated evaluation value may be used as the fading level.
  • the fading information generating unit 38 compares the determined fading level with a preset threshold, generates fading information indicating whether or not fading exceeding the threshold has occurred based on the comparison result, and Output to 50. Further, the fading information generation unit 38 may include not only the fading information to indicate that fading has occurred, but also the fading level in the fading information.
  • FIG. 11 and 12 are flowcharts illustrating the operation of the third embodiment.
  • FIG. 11 illustrates a processing operation of information used for determining fading
  • FIG. 12 illustrates a generating operation of fading information.
  • the operation of processing information used for determining fading is performed during the operation of the imaging unit, and the operation of generating fading information is performed at predetermined time intervals.
  • step ST41 in FIG. 11 the image processing unit acquires an image signal.
  • the image processing unit 30-3 acquires the image signal generated by the imaging unit 20, and proceeds to step ST42.
  • step ST42 the image processing section accumulates illuminance information.
  • the image processing unit 30-3 generates illuminance information based on the image signal obtained in step ST41. Further, the image processing unit 30-3 accumulates illuminance information and proceeds to step ST43.
  • step ST43 the image processing section acquires environment information.
  • the image processing unit 30-3 acquires the environment information generated by the environment information generation unit 40, and proceeds to step ST44.
  • step ST44 the image processing section accumulates environment information.
  • the image processing unit 30-3 accumulates the environment information acquired in step ST43 and returns to step ST41.
  • step ST51 in FIG. 12 the image processing unit acquires comparison target information.
  • the image processing unit 30-3 acquires the illuminance information accumulated in step ST42 of FIG. 11 and the environment information accumulated in step ST44 as comparison target information, and proceeds to step ST52.
  • step ST52 the image processing unit estimates to determine the fading level.
  • the image processing unit 30-3 determines the fading level corresponding to the comparison target information acquired in step ST51 using the fading determination reference information indicating the fading level for the accumulated illuminance information and the accumulated temperature information, and proceeds to step ST53.
  • step ST53 the image processing section determines whether or not fading has occurred.
  • the image processing unit 30-3 determines whether the fading level determined in step ST52 exceeds a preset threshold. If it is determined that fading exceeding the threshold has occurred, the process proceeds to step ST54, and the threshold is determined. If it is determined that no excessive fading has occurred, the process returns to step ST51.
  • step ST54 the image processing unit generates fading information.
  • the image processing unit 30-3 generates and outputs fading information indicating that the color filter used in the imaging unit 20 has undergone fading exceeding a threshold.
  • the fading state can be detected with high accuracy, similarly to the first and second embodiments.
  • the color fading level of the color filter with respect to the cumulative result of the illuminance information and the environment information is set as the comparison target information using the accumulated illuminance information obtained by accumulating the illuminance information generated based on the image signal or the accumulated environment information obtained by accumulating the accumulated illuminance information and the environment information. Since the fading can be determined based on the fading determination reference information indicating the relationship and the comparison target information, the fading of the color filter can be easily detected without performing a recognition process or the like.
  • the image processing section 30 may perform the above-described first to third embodiments in combination. For example, by performing the first embodiment and the third embodiment in combination, even if an object without fading cannot be detected for a long time, the fading of the color filter can be detected based on the accumulated illuminance information and the like. Become.
  • the image pickup unit 21 is provided with a reference pixel that does not cause fading, and the fading determination reference information is generated.
  • a spectral camera is provided separately from the imaging unit, and the spectral fading determination is performed by the spectral camera. Information may be generated.
  • the fading information utilization unit 50 performs fading correction on the image signal acquired by the imaging unit 20 when the fading state is obtained by the image processing unit 30.
  • the image processing unit 30 performs the fading correction using a correction coefficient corresponding to the fading level of the color filter. For example, a red correction coefficient Cr, a green correction coefficient Cg, and a blue correction coefficient Cb are determined according to the fading level. Further, the red component R, the green component G, and the blue component B in the image signal generated by the imaging unit 20 are subjected to the operations of Equations (2) to (4), and the red component Rc and the green component corrected for fading are calculated. Gc and blue component Bc are calculated.
  • Rc Cr ⁇ R (2)
  • Gc Cg ⁇ G (3)
  • Bc Cb ⁇ B (4)
  • the fading level can be estimated by using a characteristic (fading model or the like) indicating the fading level with respect to the accumulated illuminance and the accumulated temperature
  • the fading may be corrected using a look-up table. For example, as shown in Expression (5), a red component Rc after fading correction corresponding to the red component R is calculated using a red lookup table LUTr corresponding to the fading level.
  • the image processing unit 30 is not limited to performing the color fading correction for each color component, and may calculate each color component Rc, Gc, Bc after the color fading correction for the pair of each color component R, G, B.
  • the formula (8) may be used to calculate the respective color components Rc, Gc, and Bc using the correction coefficient Cw corresponding to the fading level, and as shown in formulas (9) to (11), Each color component may be calculated.
  • [Rc, Gc, Bc] T Cw [R, G, B] T (8)
  • Rc LUTr [R, G, B] (9)
  • Gc LUTg [R, G, B] (10)
  • Bc LUTb [R, G, B] (11)
  • ⁇ Conditional GAN Geneative Adversarial Networks
  • rules for converting images and learning to convert fading colors to original colors are performed, and images with fading based on the learning result are Convert to an image without fading.
  • a technique called “Pix2Pix” is used to learn the relationship between an image without fading and an image that has caused fading in advance, and the fading that has been acquired by the imaging unit based on the learned relationship is generated.
  • An image without fading may be generated from the image.
  • an image without fading may be generated by using a method called “Cycle @ GAN”.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to any type of transportation such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), and the like. It may be realized as a device mounted on the body.
  • FIG. 13 is a block diagram illustrating a configuration example of a schematic function of a vehicle control system 100 which is an example of a moving object control system to which the present technology can be applied.
  • a vehicle provided with the vehicle control system 100 is distinguished from other vehicles, the vehicle is referred to as a host vehicle or a host vehicle.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, and a body.
  • a system system 110, a storage unit 111, and an automatic operation control unit 112 are provided.
  • the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 Interconnected.
  • the communication network 121 may be, for example, an in-vehicle communication network or a bus that conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without passing through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • the description of the communication network 121 will be omitted.
  • the input unit 101 and the automatic operation control unit 112 communicate via the communication network 121, it is described that the input unit 101 and the automatic operation control unit 112 simply communicate.
  • the input unit 101 includes a device used by a passenger to input various data and instructions.
  • the input unit 101 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device that can be input by a method other than a manual operation by voice, gesture, or the like.
  • the input unit 101 may be a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile device or a wearable device compatible with the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on data, instructions, and the like input by a passenger, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for acquiring data used for processing of the vehicle control system 100 and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the own vehicle and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertial measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, an engine speed, A sensor or the like for detecting a motor rotation speed, a wheel rotation speed, or the like is provided.
  • IMU inertial measurement device
  • the data acquisition unit 102 includes various sensors for detecting information outside the vehicle.
  • the data acquisition unit 102 includes an imaging device such as a time-of-flight (ToF) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting weather or weather, and a surrounding information detection sensor for detecting an object around the own vehicle.
  • the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the surrounding information detection sensor includes, for example, an ultrasonic sensor, a radar, a LiDAR (Light Detection and Ranging, Laser Imaging and Ranging), a sonar, and the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle. More specifically, for example, the data acquisition unit 102 includes a GNSS receiver that receives a GNSS signal from a GNSS (Global Navigation Satellite System) satellite.
  • GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
  • the data acquisition unit 102 includes an imaging device that captures an image of the driver, a biological sensor that detects biological information of the driver, a microphone that collects sounds in the vehicle compartment, and the like.
  • the biological sensor is provided on, for example, a seat surface or a steering wheel, and detects biological information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104, various devices outside the vehicle, a server, a base station, and the like, and transmits data supplied from each unit of the vehicle control system 100, and transmits received data to the vehicle control system. 100 parts.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can support a plurality of types of communication protocols. , Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like, and wirelessly communicates with the in-vehicle device 104.
  • the communication unit 103 may be connected to a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL ( Wired communication is performed with the in-vehicle device 104 by using a Mobile High-definition Link).
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL Wired communication is performed with the in-vehicle device 104 by using a Mobile High-definition Link.
  • the communication unit 103 communicates with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to an operator) via a base station or an access point. Perform communication. Further, for example, the communication unit 103 uses a P2P (Peer @ To @ Peer) technology to communicate with a terminal (for example, a pedestrian or a store terminal, or an MTC (Machine @ Type @ Communication) terminal) existing near the own vehicle. Perform communication.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network, or a network unique to an operator
  • the communication unit 103 uses a P2P (Peer @ To @ Peer) technology to communicate with a terminal (for example, a pedestrian or a store terminal, or an MTC (Machine @ Type @ Communication) terminal) existing near the own vehicle. Perform communication.
  • P2P Peer @ To @ Peer
  • the communication unit 103 communicates between a vehicle (Vehicle to Vehicle), a road to vehicle (Vehicle to Infrastructure), a communication between a vehicle and a house (Vehicle to Home), and a vehicle to vehicle (Vehicle to Vehicle). ) Perform V2X communication such as communication.
  • the communication unit 103 includes a beacon receiving unit, receives a radio wave or an electromagnetic wave transmitted from a wireless station or the like installed on a road, and obtains information such as a current position, traffic congestion, traffic regulation, or required time. I do.
  • the in-vehicle device 104 includes, for example, a mobile device or a wearable device possessed by the passenger, an information device carried or attached to the own vehicle, a navigation device for searching for a route to an arbitrary destination, and the like.
  • the output control unit 105 controls the output of various types of information to the occupant of the vehicle or to the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the output signal to the output unit 106.
  • the output control unit 105 combines image data captured by different imaging devices of the data acquisition unit 102 to generate a bird's-eye view image or a panoramic image, and outputs an output signal including the generated image. It is supplied to the output unit 106.
  • the output control unit 105 generates sound data including a warning sound or a warning message for danger such as collision, contact, entry into a dangerous zone, and the like, and outputs an output signal including the generated sound data to the output unit 106. Supply.
  • the output unit 106 includes a device capable of outputting visual information or auditory information to the occupant of the vehicle or to the outside of the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, a wearable device such as an eyeglass-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 can display visual information in a driver's visual field such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function in addition to a device having a normal display.
  • the display device may be used.
  • the drive system control unit 107 controls the drive system 108 by generating various control signals and supplying them to the drive system 108. Further, the drive system control unit 107 supplies a control signal to each unit other than the drive system 108 as necessary, and notifies a control state of the drive system 108 and the like.
  • the drive system 108 includes various devices related to the drive system of the vehicle.
  • the driving system 108 includes a driving force generating device for generating driving force such as an internal combustion engine or a driving motor, a driving force transmitting mechanism for transmitting driving force to wheels, a steering mechanism for adjusting a steering angle, A braking device for generating a braking force, an ABS (Antilock Brake System), an ESC (Electronic Stability Control), an electric power steering device, and the like are provided.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body-system control unit 109 supplies a control signal to each unit other than the body-system system 110 as needed, and notifies a control state of the body-system system 110 and the like.
  • the body system 110 includes various body-system devices mounted on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, a head lamp, a back lamp, a brake lamp, a blinker, a fog lamp, and the like). Etc. are provided.
  • the storage unit 111 includes, for example, a magnetic storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. .
  • the storage unit 111 stores various programs and data used by each unit of the vehicle control system 100.
  • the storage unit 111 stores map data such as a three-dimensional high-accuracy map such as a dynamic map, a global map that is less accurate than the high-accuracy map and covers a wide area, and a local map that includes information around the own vehicle. Is stored.
  • the automatic driving control unit 112 performs control relating to automatic driving such as autonomous driving or driving support. Specifically, for example, the automatic driving control unit 112 may perform collision avoidance or impact mitigation of the own vehicle, follow-up running based on the following distance, vehicle speed maintaining running, own vehicle collision warning, or own vehicle lane departure warning and the like. It performs cooperative control with the aim of realizing the functions of ADAS (Advanced Driver Assistance System), including: In addition, for example, the automatic driving control unit 112 performs cooperative control for the purpose of autonomous driving in which the vehicle runs autonomously without depending on the operation of the driver.
  • the automatic driving control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various kinds of information necessary for controlling the automatic driving.
  • the detection unit 131 includes an outside information detection unit 141, an inside information detection unit 142, and a vehicle state detection unit 143.
  • the outside-of-vehicle information detection unit 141 performs detection processing of information outside the vehicle based on data or signals from each unit of the vehicle control system 100. For example, the outside-of-vehicle information detection unit 141 performs detection processing, recognition processing, tracking processing, and detection processing of the distance to the object around the own vehicle. Objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings, and the like. Further, for example, the outside-of-vehicle information detection unit 141 performs a process of detecting an environment around the own vehicle. The surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface conditions, and the like.
  • the out-of-vehicle information detection unit 141 uses the data indicating the result of the detection processing as the self-position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. To the emergency avoidance unit 171 and the like.
  • the in-vehicle information detection unit 142 performs a process of detecting information in the vehicle based on data or signals from each unit of the vehicle control system 100.
  • the in-vehicle information detection unit 142 performs a driver authentication process and a recognition process, a driver state detection process, a passenger detection process, an in-vehicle environment detection process, and the like.
  • the state of the driver to be detected includes, for example, physical condition, arousal level, concentration level, fatigue level, gaze direction, and the like.
  • the environment in the vehicle to be detected includes, for example, temperature, humidity, brightness, odor, and the like.
  • the in-vehicle information detection unit 142 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency avoidance unit 171 of the operation control unit 135, and the like.
  • the vehicle state detection unit 143 performs detection processing of the state of the own vehicle based on data or signals from each unit of the vehicle control system 100.
  • the state of the subject vehicle to be detected includes, for example, speed, acceleration, steering angle, presence / absence and content of abnormality, driving operation state, power seat position and inclination, door lock state, and other in-vehicle devices. State and the like are included.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection processing to the situation recognition unit 153 of the situation analysis unit 133, the emergency avoidance unit 171 of the operation control unit 135, and the like.
  • the self-position estimating unit 132 estimates the position and orientation of the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the outside-of-vehicle information detecting unit 141 and the situation recognizing unit 153 of the situation analyzing unit 133. Perform processing. In addition, the self-position estimating unit 132 generates a local map used for estimating the self-position (hereinafter, referred to as a self-position estimation map) as necessary.
  • the self-position estimation map is, for example, a high-accuracy map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the self-position estimating unit 132 supplies data indicating the result of the estimation processing to the map analyzing unit 151, the traffic rule recognizing unit 152, the status recognizing unit 153, and the like of the status analyzing unit 133. Further, the self-position estimating unit 132 causes the storage unit 111 to store the self-position estimating map.
  • the situation analysis unit 133 performs analysis processing of the situation of the own vehicle and the surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses various data or signals from the various units of the vehicle control system 100 such as the self-position estimation unit 132 and the outside-of-vehicle information detection unit 141 as necessary, and executes various types of maps stored in the storage unit 111. Performs analysis processing and builds a map containing information necessary for automatic driving processing.
  • the map analysis unit 151 converts the constructed map into a traffic rule recognition unit 152, a situation recognition unit 153, a situation prediction unit 154, and a route planning unit 161, an action planning unit 162, and an operation planning unit 163 of the planning unit 134. To supply.
  • the traffic rule recognition unit 152 determines the traffic rules around the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the self-position estimating unit 132, the outside-of-vehicle information detecting unit 141, and the map analyzing unit 151. Perform recognition processing. By this recognition processing, for example, the position and state of the signal around the own vehicle, the contents of traffic regulation around the own vehicle, the lanes that can travel, and the like are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition processing to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 converts data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the outside-of-vehicle information detection unit 141, the in-vehicle information detection unit 142, the vehicle state detection unit 143, and the map analysis unit 151. Based on this, a process for recognizing the situation regarding the own vehicle is performed. For example, the situation recognition unit 153 performs recognition processing on the situation of the own vehicle, the situation around the own vehicle, the situation of the driver of the own vehicle, and the like. Further, the situation recognizing unit 153 generates a local map (hereinafter, referred to as a situation recognizing map) used for recognizing a situation around the own vehicle as needed.
  • the situation recognition map is, for example, an occupancy grid map (Occupancy @ Grid @ Map).
  • the situation of the own vehicle to be recognized includes, for example, the position, posture, and movement (for example, speed, acceleration, moving direction, etc.) of the own vehicle, and the presence / absence and content of an abnormality.
  • the situation around the subject vehicle to be recognized includes, for example, the type and position of the surrounding stationary object, the type, position and movement (eg, speed, acceleration, moving direction, and the like) of the surrounding moving object, and the surrounding road.
  • the configuration and the state of the road surface, and the surrounding weather, temperature, humidity, brightness, and the like are included.
  • the state of the driver to be recognized includes, for example, physical condition, arousal level, concentration level, fatigue level, movement of the line of sight, driving operation, and the like.
  • the situation recognizing unit 153 supplies data indicating the result of the recognition process (including a situation recognizing map as necessary) to the self-position estimating unit 132, the situation estimating unit 154, and the like.
  • the situation recognition unit 153 causes the storage unit 111 to store the situation recognition map.
  • the situation prediction unit 154 performs a situation prediction process for the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing on the situation of the own vehicle, the situation around the own vehicle, the situation of the driver, and the like.
  • the situation of the subject vehicle to be predicted includes, for example, the behavior of the subject vehicle, occurrence of an abnormality, and a mileage that can be traveled.
  • the situation around the own vehicle to be predicted includes, for example, behavior of a moving object around the own vehicle, a change in a signal state, a change in an environment such as weather, and the like.
  • the situation of the driver to be predicted includes, for example, the behavior and physical condition of the driver.
  • the situation prediction unit 154 together with data from the traffic rule recognition unit 152 and the situation recognition unit 153, shows data indicating the result of the prediction process, along with the route planning unit 161, the behavior planning unit 162, and the operation planning unit 163 of the planning unit 134. And so on.
  • the route planning unit 161 plans a route to a destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to a specified destination based on the global map. In addition, for example, the route planning unit 161 appropriately changes the route based on conditions such as traffic congestion, accidents, traffic regulations, construction, and the like, and the physical condition of the driver. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 safely performs the route planned by the route planning unit 161 within the planned time based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan your vehicle's behavior to drive. For example, the action planning unit 162 performs planning such as start, stop, traveling direction (for example, forward, backward, left turn, right turn, direction change, etc.), traveling lane, traveling speed, and passing. The action planning unit 162 supplies data indicating the planned behavior of the own vehicle to the operation planning unit 163 and the like.
  • the operation planning unit 163 includes data from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154.
  • the operation of the own vehicle for realizing the action planned by the action planning unit 162 is planned.
  • the operation planning unit 163 plans acceleration, deceleration, a traveling trajectory, and the like.
  • the operation planning unit 163 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172 and the direction control unit 173 of the operation control unit 135.
  • the operation control unit 135 controls the operation of the own vehicle.
  • the operation control unit 135 includes an emergency avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency avoidance unit 171 performs a collision, a contact, an approach to a danger zone, a driver abnormality, a vehicle abnormality, based on the detection results of the outside information detection unit 141, the inside information detection unit 142, and the vehicle state detection unit 143. An emergency situation such as an abnormality is detected. When detecting the occurrence of an emergency, the emergency avoidance unit 171 plans the operation of the own vehicle to avoid an emergency such as a sudden stop or a sudden turn. The emergency avoidance unit 171 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • Acceleration / deceleration control section 172 performs acceleration / deceleration control for realizing the operation of the vehicle planned by operation planning section 163 or emergency avoidance section 171.
  • the acceleration / deceleration control unit 172 calculates a control target value of a driving force generation device or a braking device for achieving planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. It is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the vehicle planned by the operation planning unit 163 or the emergency avoidance unit 171. For example, the direction control unit 173 calculates a control target value of the steering mechanism for realizing the traveling trajectory or the sharp turn planned by the operation planning unit 163 or the emergency avoidance unit 171, and performs control indicating the calculated control target value. The command is supplied to the drive system control unit 107.
  • the imaging unit 20 (21) described in the present embodiment is the data acquisition unit 102, and the image processing units 30-1 (30-2, 30-3) are the out-of-vehicle information detection units 141. Equivalent to.
  • the imaging unit 20 (21) and the image processing units 30-1 (30-2, 30-3) are provided in the vehicle control system 100 and the surroundings are imaged by the imaging unit 20 (21) during driving of the vehicle, the imaging is performed. Since the imaging operation is performed for a long time in the unit 20 (21), fading of the color filter is more likely to occur than in a portable imaging device.
  • the fading correction and the like can be performed using the fading information generated by the image processing unit 30-1 (30-2, 30-3), the influence of the fading of the color filter can be reduced.
  • the influence of the fading of the color filter can be reduced.
  • a scene where color is important such as in the recognition processing of a traffic light, a road sign, a car number, etc.
  • using an image signal generated by an image pickup unit, or road surface detection, surrounding object recognition, or running lane recognition In the case of a scene in which the accuracy can be improved by using colors as in the processing, similar to the comparison area detection unit in the first embodiment, by switching the dictionary used in the recognition processing based on the fading information, and the like, Accurate recognition processing can be performed.
  • the present technology is not limited to the mobile object control system, and may be applied to a monitoring system or the like in which a long-time imaging operation is performed, so that the effect of fading of the color filter can be reduced to perform the monitoring operation and the like. .
  • a series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • a program in which a processing sequence is recorded is installed and executed in a memory in a computer built in dedicated hardware.
  • the program can be installed and executed on a general-purpose computer capable of executing various processes.
  • the program can be recorded in advance on a hard disk, a solid state drive (SSD), or a read only memory (ROM) as a recording medium.
  • the program is a flexible disk, CD-ROM (Compact Disc Only Memory), MO (Magneto Optical) disc, DVD (Digital Versatile Disc), BD (Blu-Ray Disc (registered trademark)), magnetic disk, semiconductor memory card Can be temporarily or permanently stored (recorded) in a removable recording medium such as.
  • a removable recording medium can be provided as so-called package software.
  • the program may be installed on the computer from a removable recording medium, or may be transferred from the download site to the computer via a network such as a LAN (Local Area Network) or the Internet by a wireless or wired method.
  • the computer can receive the program transferred in this way and install it on a recording medium such as a built-in hard disk.
  • the image processing device of the present technology can also have the following configuration.
  • Image processing including a fading information generating unit that generates fading information indicating fading of the color filter based on comparison target information based on an image signal generated by an imaging unit using a color filter and fading determination reference information.
  • apparatus (2) a color information generation unit that generates color information from the image signal and uses the color information when there is no fading of the color filter as the fading determination reference information; Further provided is a color information comparing section for comparing the discrimination reference information, The image processing device according to (1), wherein the fading information generating unit generates the fading information based on a comparison result of the color information comparing unit.
  • a comparison area detection unit that detects a comparison area indicating an image area of the fading object based on the image signal;
  • the color information generation unit generates the color information from the image signal of the comparison area detected by the comparison area detection unit, as the comparison target information,
  • the fading information generation unit estimates a fading level based on a comparison result of the color information comparing unit,
  • the image processing device according to (3), wherein the comparison area detection unit detects the comparison area according to the fading level estimated by the fading information generation unit.
  • the image processing device according to (3), wherein the comparison area detection unit performs the detection of the comparison area in a preset image area.
  • the imaging section is provided with a color component pixel provided with a color filter and a reference pixel which does not cause fading
  • the color information generation unit generates color information from the image signal generated by the color component pixels, as the comparison target information
  • the image processing device according to (2), wherein the color information comparison unit uses color information generated based on the signal of the reference pixel as the fading determination reference information.
  • the reference pixel is a pixel provided with a spectral filter instead of the color filter.
  • the image processing device according to any one of (6) to (8), further including an imaging unit provided with the color component pixels and the reference pixels.
  • a comparison information storage unit for storing comparison information indicating a comparison result of the color information comparison unit;
  • the image processing device according to any one of (2) to (9), wherein the fading information generation unit generates the fading information based on the comparison information stored in the comparison information storage unit.
  • an illuminance information accumulation unit that accumulates illuminance information generated based on the image signal
  • the fading information generating unit uses the illuminance information accumulated by the illuminance information accumulating unit as the comparison target information, and uses information indicating the relationship between the accumulation result of the illuminance information and the fading level of the color filter as the fading determination reference information.
  • an environment information accumulating unit that accumulates environment information at the time of generation of the image signal and includes the information in the comparison target information;
  • the fading information generating unit includes the environment information accumulated by the environment information accumulating unit in the comparison target information, and fades information indicating a relationship between the illuminance information and the fading level of the color filter with respect to the accumulation result of the environmental information.
  • the image processing apparatus according to (11), which is used as discrimination reference information.
  • (13) The image processing device according to any one of (1) to (12), wherein the fading information indicates that the fading level of the color filter has exceeded a predetermined level or indicates the fading level of the color filter.

Abstract

画像処理部30-1の比較領域検出部31は、カラーフィルタを用いた撮像部20で生成された画像信号に基づいて退色判別物体の画像領域を比較領域として検出する。色情報生成部32aは、比較領域の画像信号から色情報を生成して比較対象情報とする。色情報比較部33aは、退色判別物体の色情報を退色判別基準情報として、比較対象情報と比較する。退色情報生成部35aは、退色判別基準情報と比較対象情報との比較結果を示す比較情報に基づき、カラーフィルタの退色レベルが所定レベルを超えたこと、あるいはカラーフィルタの退色レベルを示す退色情報を生成する。カラーフィルタの退色状態を精度よく検出できる。

Description

画像処理装置と画像処理方法およびプログラム
 この技術は、画像処理装置と画像処理方法およびプログラムに関し、カラーフィルタの退色状態を精度よく検出できるようにする。
 撮像素子の前面に装着されているカラーフィルタは、長時間の露光によって退色が進み、性能が劣化することが知られている。このため、特許文献1では、シャッターが開いている時間を加算した累積露光時間が撮像素子の限界露光時間を超えたとき、その旨を通知することが行われている。
特開2011-103513号公報
 ところで、動画の撮像で例えば暗いシーンを撮像する場合と明るいシーンを撮像する場合では、撮像時間が等しくても撮像素子の入射光量が異なる。したがって、特許文献1に示すようにシャッターが開いている時間を加算した累積露光時間では、精度よく退色状態を判別することができない。
 そこで、この技術では、カラーフィルタの退色状態を精度よく検出できる画像処理装置と画像処理方法およびプログラムを提供することを目的とする。
 この技術の第1の側面は、
 カラーフィルタを用いた撮像部で生成された画像信号に基づく比較対象情報と退色判別基準情報に基づいて、前記カラーフィルタの退色を示す退色情報を生成する退色情報生成部
を備える画像処理装置にある。
 この技術においては、カラーフィルタを用いた撮像部で生成された画像信号から生成した色情報が比較対象情報として用いられる。また、カラーフィルタの退色がない場合の色情報が退色判別基準情報として用いられる。この比較対象情報と退色判別基準情報を比較して、比較結果に基づき退色情報が生成される。画像処理装置では、例えば撮像部で生成された画像信号に基づいて退色判別物体の画像領域が比較領域と検出されて、比較領域の画像信号から生成された色情報が比較対象情報として用いられる。また、比較領域の検出は、比較結果に基づいて推定した退色レベルに応じて行うようにしてもよく、比較領域の検出は予め設定した画像領域内で行うようにしてもよい。
 また、撮像部には、カラーフィルタを設けた色成分画素と退色を生じない参照画素が設けられており、色成分画素で生成された画像信号から生成した色情報を比較対象情報として、参照画素の信号に基づいて生成した色情報を退色判別基準情報としてもよい。参照画素は、例えばカラーフィルタが設けられていない画素、あるいはカラーフィルタに代えて分光フィルタを設けた画素である。
 比較対象情報と退色判別基準情報の比較結果を示す比較情報は蓄積されて、蓄積された比較情報に基づき、カラーフィルタの退色レベルが所定レベルを超えたこと、あるいはカラーフィルタの退色レベルを示す退色情報が生成される。
 また、画像信号に基づいて生成した照度情報、あるいは照度情報と画像信号の生成時における環境情報を累積して、累積された照度情報あるいは照度情報と環境情報を比較対象情報として、照度情報や環境情報の累積結果に対するカラーフィルタの退色レベルの関係を示す情報を退色判別基準情報として、比較対象情報と退色判別基準情報に基づき、カラーフィルタの退色レベルが所定レベルを超えたこと、あるいはカラーフィルタの退色レベルを示す退色情報が生成される。
 この技術の第2の側面は、
 カラーフィルタを用いた撮像部で生成された画像信号に基づく比較対象情報と退色判別基準情報に基づいて、前記カラーフィルタの退色を示す退色情報を退色情報生成部で生成すること
を含む画像処理方法にある。
 この技術の第3の側面は、
 撮像部で用いられているカラーフィルタに関する情報の生成をコンピュータで実行させるプログラムであって、
 前記カラーフィルタを用いた前記撮像部で生成された画像信号に基づき比較対象情報を生成する手順と、
 前記比較対象情報と退色判別基準情報に基づいて、前記カラーフィルタの退色を示す退色情報を生成する手順と
を前記コンピュータで実行させるプログラムにある。
 なお、本技術のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、光ディスクや磁気ディスク、半導体メモリなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ上でプログラムに応じた処理が実現される。
撮像システムの構成を示した図である。 第1の実施の形態の構成を例示した図である。 第1の実施の形態の動作を例示したフローチャートである。 第1の実施の形態の動作を例示したフローチャートである。 退色のない物体を例示した図である。 画像信号と参照信号を生成する撮像部の構成を例示した図である。 第2の実施の形態の構成を例示した図である。 第2の実施の形態の動作を例示したフローチャートである。 第2の実施の形態の動作を例示したフローチャートである。 第3の実施の形態の構成を例示した図である。 第3の実施の形態の動作を例示したフローチャートである。 第3の実施の形態の動作を例示したフローチャートである。 車両制御システムの概略的な機能の構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
 1.撮像システムについて
 2.第1の実施の形態
  2-1.第1の実施の形態の構成
  2-2.第1の実施の形態の動作
 3.第2の実施の形態
  3-1.第2の実施の形態の構成
  3-2.第2の実施の形態の動作
 4.第3の実施の形態
  4-1.第3の実施の形態の構成
  4-2.第3の実施の形態の動作
 5.他の実施の形態
 6.退色情報利用部について
 7.応用例
 <1.撮像システムについて>
 図1は、本技術の画像処理装置を用いた撮像システムの構成を示している。撮像システム10は、撮像部20(21)と画像処理部30を有している。また、撮像システム10には、環境情報生成部40や退色情報利用部50および画像利用部60を設けても良い。
 撮像部20(21)は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等の撮像素子を用いて構成されている。また、撮像素子の撮像面側にカラーフィルタが設けられている。撮像部20は、被写体光学像の光電変換を行い、被写体光学像に応じた画像信号を生成して画像処理部30と退色情報利用部50あるいは画像利用部60へ出力する。また、撮像部21は、後述するように画像信号と参照信号を生成して画像処理部30へ出力する。
 画像処理部30は、カラーフィルタを用いた撮像部20(21)で生成された画像信号に基づく比較対象情報とカラーフィルタの退色を判別するための退色判別基準情報を用いてカラーフィルタの退色を示す退色情報の生成を行う。画像処理部30は、例えば画像信号から色情報を生成して比較対象情報としてもよく、画像信号に基づいて生成した照度情報を蓄積して、あるいは照度情報と画像信号の生成時の環境情報を蓄積して比較対象情報としてもよい。また、画像処理部30は、退色のない色情報、例えば退色のない物体の色情報、あるいは退色を生じない参照画素で生成された信号に基づく色情報を退色判別基準情報として用いてもよく、照度情報の蓄積結果あるいは照度情報と環境情報の蓄積結果に対するカラーフィルタの退色レベルの関係を示す情報を退色判別基準情報として用いてもよい。画像処理部30は、比較対象情報を退色判別基準情報と比較して、比較結果に基づきカラーフィルタの退色を判別して退色情報を生成する。画像処理部30は、生成した退色情報を退色情報利用部50へ出力する。
 環境情報生成部40は、撮像環境を検出するセンサを有しており、撮像時の環境例えば撮像時の温度を検出して、検出した温度を示す撮像環境情報を画像処理部30へ出力する。
 退色情報利用部50は、画像処理部30で生成された退色情報に基づき、退色の警告や退色に対応する制御を行う。例えば、退色情報利用部50は、退色情報によって所定レベルを超える退色が生じていることが示されたとき、警告表示や警告音をユーザに提示する。また、撮像システム10において、複数の撮像部20(21)が切替可能に設けられている場合、退色情報によって所定レベルを超える退色が生じていることが示されたとき、他の撮像部への切り替えを行うようにしてもよい。さらに、退色情報利用部50は、撮像部20(21)で生成された画像信号に対して退色情報に基づき退色を補正してもよい。
 画像利用部60は、撮像部20(21)で取得された画像信号、あるいは退色情報利用部50で退色が補正された画像信号を用いて、例えば運転制御や監視等のアプリケーション動作、画像信号の記録等を行う。
 <2.第1の実施の形態>
 次に、本技術の第1の実施の形態について説明する。第1の実施の形態は、比較対象情報として画像信号から生成した色情報、退色判別基準情報として退色のない物体の色情報を用いる場合を示している。
 <2-1.第1の実施の形態の構成>
 図2は、第1の実施の形態の構成を例示している。画像処理部30-1は、比較領域検出部31、色情報生成部32a、色情報比較部33a、比較情報蓄積部34aおよび退色情報生成部35aを有している。
 比較領域検出部31は、撮像部20で生成された画像信号を用いて被写体認識を行い、退色のない物体の画像領域を比較領域として検出する。比較領域検出部31は、検出した比較領域の画像信号を色情報生成部32aへ出力する。また、後述するように退色情報生成部35aから比較領域検出部31に退色レベルを通知して、比較領域検出部31は、退色レベルに応じた認識処理を行うようにしてもよい。例えば、比較領域検出部31は、認識処理で用いる辞書を通知された退色レベルに応じて切り替える。このように被写体認識を行えば、カラーフィルタの退色状態にかかわらず精度よく比較領域を検出できるようになる。また、比較領域検出部31は、比較領域として検出する物体に応じて、被写体認識領域を設定してもよい。例えば図5を用いて後述するように、退色のない物体の検出として信号機あるいは照明器具を検出する場合、信号機あるいは照明器具は、撮像画において画像中央よりも上側に位置することから、撮像画において画像中央よりも上側の領域を被写体認識領域として設定すれば、信号機あるいは照明器具の検出を効率よく行うことができる。
 色情報生成部32aは、比較領域検出部31で検出された比較領域の画像信号から色情報、例えば三原色の色成分毎のレベルを示す色情報を比較対象情報として色情報比較部33aへ出力する。
 色情報比較部33aは、退色のない物体の色情報を退色判別基準情報として予め記憶している。色情報比較部33aは、色情報生成部32aで生成された色情報(比較対象情報)を比較領域検出部31で検出された物体の色情報(退色判別基準情報)と比較して、退色判別基準情報に対する比較対象情報の割合(退色のレベル)あるいは退色レベルが所定のレベルを超える退色を生じているか否かを示す比較情報を生成する。色情報比較部33aは、生成した比較情報を比較情報蓄積部34aへ出力する。
 比較情報蓄積部34aは、色情報比較部33aで生成された比較情報を蓄積する。また、比較情報蓄積部34aは、比較情報の蓄積結果である蓄積比較情報を退色情報生成部35aへ出力する。
 退色情報生成部35aは、比較情報蓄積部34aから供給された蓄積比較情報の統計処理等を行い、退色判別情報を算出する。例えば退色情報生成部35aは、蓄積比較情報に基づき、例えば最後に蓄積された比較情報によって予め設定されている所定レベルよりも退色していることが示されたとき、所定レベルよりも退色していることを示す比較結果の継続期間や継続数を退色判別情報として算出する。また、退色情報生成部35aは、蓄積比較情報に基づき現在の退色レベルを推定して、推定した退色レベルを比較領域検出部31へ出力してもよい。退色情報生成部35aは、所定レベルよりも退色していることを示す比較結果の継続期間や継続数が閾値を超えていた場合、退色が発生したと判別して、退色していることを示す退色情報を生成して退色情報利用部50へ出力する。また、退色情報生成部35aは、退色情報で退色していることを示すだけでなく退色レベルを退色情報に含めてもよい。
 なお、比較情報蓄積部34aは、必須の構成要素ではなく、色情報比較部33aで生成した比較情報を退色情報生成部35aに出力してもよい。比較情報蓄積部34aを設けた場合には、色情報比較部33a生成された比較情報にばらつきを生じても、蓄積比較情報に基づき安定した退色情報を生成できる。また、比較情報蓄積部34aを設けない場合には、画像処理部30-1の構成を簡易とすることができる。
 <2-2.第1の実施の形態の動作>
 図3,図4は、第1の実施の形態の動作を例示したフローチャートであり、図3は退色の判別に用いる情報の処理動作を行う。また、図4は退色情報の生成動作を示している。退色の判別に用いる情報の処理動作は撮像部の動作中に行い、退色情報の生成動作は、所定期間間隔で行う。
 図3のステップST1で画像処理部は画像信号を取得する。画像処理部30-1は、撮像部20で生成された画像信号を取得してステップST2に進む。
 ステップST2で画像処理部は比較領域検出処理を行う。画像処理部30-1は、ステップST1で取得した画像信号に基づく画像において、退色のない物体を示す画像領域を比較領域として検出する。図5は、退色のない物体を例示しており、図5の(a)に示すように、色が明らかである信号機や図5の(b)に示すように所定の波長の照明光を出射する照明器具等を比較領域として検出する物体とする。また、図5の(c)に示すようにRSU(Road Side Unit)として設けられた所定色のマーカー等を比較領域として検出する物体としてもよい。画像処理部30-1は比較領域検出処理を行いステップST3に進む。
 ステップST3で画像処理部は比較領域を検出したか判別する。画像処理部30-1は、ステップST2の比較領域検出処理で、比較領域を検出した場合にステップST4に進み、検出していない場合にステップST1に戻る。
 ステップST4で画像処理部は比較対象情報生成処理を行う。画像処理部30-1は、ステップST2で検出した比較領域の画像信号を用いて生成した色情報を比較対象情報としてステップST5に進む。
 ステップST5で画像処理部は情報比較処理を行う。画像処理部30-1は、ステップST4で生成した比較対象情報と、予め登録されている退色のない物体の色情報である退色判別基準情報を比較して、比較結果に基づき比較情報を生成してステップST6に進む。
 ステップST6で画像処理部は比較情報蓄積処理を行う。画像処理部30-1は、ステップST5で生成された比較情報を蓄積してステップST1に戻る。
 図4のステップST11で画像処理部は蓄積比較情報を取得する。画像処理部30-1は図3のステップST6で比較情報蓄積処理によって比較情報を蓄積することで生成された蓄積比較情報を取得してステップST12に進む。
 ステップST12で画像処理部は退色判別情報を算出する。画像処理部30-1はステップST11で取得された蓄積比較情報に基づき退色判別情報を算出する。画像処理部30-1は、例えば所定レベルよりも退色していることを示す比較結果の継続期間や継続数を退色判別情報として算出してステップST13に進む。
 ステップST13で画像処理部は退色発生であるか判別する。画像処理部30-1はステップST12で算出した退色判別情報が予め設定されている閾値を超えているか判別して、閾値を超えた退色が生じていると退色判別情報に基づき判別した場合はステップST14に進み、閾値を超えた退色が生じていないと退色判別情報に基づき判別した場合はステップST15に進む。
 ステップST14で画像処理部は退色情報を生成する。画像処理部30-1は、撮像部20で用いられているカラーフィルタが閾値を超えた退色を生じていること等を示す退色情報を生成する。
 ステップST15で画像処理部は領域検出フィードバック処理を行う。画像処理部30-1は、ステップST11で取得された蓄積比較情報に基づき現在の退色レベルを推定して、推定した退色レベルを図3のステップST2の比較領域の検出処理にフィードバックすることで、比較領域を精度よく検出できるようにしてステップST11に戻る。
 このように、第1の実施の形態によれば、退色状態を精度よく検出できるようになる。また、撮像画から退色のない物体の画像領域を検出して、検出された領域の色情報と物体の色情報から退色を判別できるので、退色のない物体の色情報を予め記憶させておけば、外部機器で取得された情報等を用いることなくカラーフィルタの退色を検出できるようになる。
 <3.第2の実施の形態>
 次に、本技術の第2の実施の形態について説明する。第2の実施の形態は、比較対象情報として画像信号から生成した色情報、退色判別基準情報として退色を生じない参照画素で生成された信号に基づく色情報を用いる場合を示している。
 <3-1.第2の実施の形態の構成>
 図6は、画像信号と参照信号を生成する撮像部の構成を例示している。撮像部21の撮像素子は、カラーフィルタが設けられている色画素と、退色を生じない参照画素を有している。
 図6の(a)は、参照画素がカラーフィルタを設けていない画素である場合を例示しており、例えば2×2画素のブロックを、赤色画素と緑色画素と青色画素と参照画素で構成している。
 図6の(b)は、参照画素が分光フィルタを設けた画素である場合を例示している。分光フィルタとしては、例えば表面プラズモン共鳴を利用したフィルタ(以下「表面プラズモンフィルタ」という)を用いる。表面プラズモンフィルタでは、誘電体の表面に透過する光の波長に応じた周期性を有する金属薄膜パターンが形成されている。参照画素では、カラーフィルタの退色の影響のない信号を生成する。なお、参照画素として分光フィルタを用いる場合、カラーフィルタと等しい波長の光を透過するように分光フィルタ(赤,緑,青)を形成する。なお、図6の(b)では、例えば2×2画素のブロックを、赤色画素と緑色画素と青色画素と参照画素で構成しており、隣接するブロックの参照画素は、異なる色の分光フィルタを用いている。
 図6の(c)は、参照画素がカラーフィルタを設けていない画素である場合を例示しており、参照画素をライン方向に設けている。なお、図6に示す参照画素の配列は、例示であって図6の配列に限られない。
 撮像部21は、色画素から信号を読み出して生成された画像信号と、退色のない参照画素から読み出して生成された参照信号を出力する。なお、参照画素を図6の(a)または図6の(b)に示すように複数画素からなる画素ブロック毎に参照画素を設ければ、偏りなく参照画素を配置できる。また、図6の(c)に示すように配置すれば、ライン読み出しを行うだけで容易に参照信号を生成できる。
 図7は、第2の実施の形態の構成を例示している。画像処理部30-2は、色情報生成部32b,32c、色情報比較部33b、比較情報蓄積部34bおよび退色情報生成部35bを有している。
 色情報生成部32bは、撮像部21で生成された画像信号から色情報、例えば三原色の色成分毎のレベルを示す色情報を比較対象情報として生成して色情報比較部33bへ出力する。
 色情報生成部32cは、撮像部21で生成された参照信号から色情報を生成して比較対象情報とする。色情報生成部32cは、参照画素がカラーフィルタを設けていない画素である場合、輝度レベルを示す情報を退色判別基準情報として生成する。また、色情報生成部32cは、参照画素が分光フィルタを設けた画素である場合、カラーフィルタと等しい色成分について、色成分毎のレベルを示す退色判別基準情報を生成する。色情報生成部32cは、生成した退色判別基準情報を色情報比較部33bへ出力する。
 色情報比較部33bは、色情報生成部32bで生成された比較対象情報と色情報生成部32cで生成された退色判別基準情報を比較して、退色判別基準情報に対する比較対象情報の割合(退色のレベル)あるいは退色レベルが所定のレベルを超える退色を生じているか否かを示す比較情報を生成する。
 色情報比較部33bは、参照画素がカラーフィルタを設けていない画素である場合、色情報生成部32bで生成された色情報(赤色成分Rと緑色成分Gと青色成分B)から式(1)に示すように輝度レベルを示す色情報Lrgbを比較対象情報として算出する。なお、式(1)において、係数krは赤色成分の割合、係数kgは緑色成分の割合、係数kbは青色成分の割合を示している。
 Lrgb=krR+kgG+kbB    ・・・(1)
 色情報比較部33bは、カラーフィルタを設けていない参照画素の信号レベルを退色判別基準情報Lrefと比較して、比較対象情報Lrgbと退色判別基準情報Lrefを比較して、比較結果を示す比較情報を比較情報蓄積部34bへ出力する。
 色情報比較部33bは、参照画素が分光フィルタを設けた画素である場合、色情報生成部32bで生成された比較対象情報(赤色成分Rと緑色成分Gと青色成分B)と色情報生成部32cで生成された退色判別基準情報(参照赤色成分Rrefと参照緑色成分Grefと参照青色成分Bref)を色成分毎に比較する。色情報比較部33bは、比較結果を示す比較情報を比較情報蓄積部34bへ出力する。
 なお、参照画素が図6の(a)に示すように設けられている場合、色情報比較部33bは、例えば画素ブロック毎に比較情報を生成できる。また、参照画素が図6の(b)に示すように設けられている場合、画素ブロック毎あるいは各色の参照画素を含む複数の画素ブロック毎に比較情報を生成できる。また、参照画素が図6の(c)に示すように設けられている場合、例えば参照画素のラインを基準とした所定ライン幅の領域毎に比較情報を生成できる。
 比較情報蓄積部34bは、色情報比較部33bで生成された比較情報を蓄積する。また、比較情報蓄積部34bは、比較情報の蓄積結果である蓄積比較情報を退色情報生成部35bへ出力する。
 退色情報生成部35bは、比較情報蓄積部34bから供給された蓄積比較情報の統計処理等を行い、退色判別情報を算出する。例えば退色情報生成部35bは、蓄積比較情報に基づき、例えば最後に蓄積された比較情報によって予め設定されている所定レベルよりも退色していることが示されたとき、所定レベルよりも退色していることを示す比較結果の継続期間や継続数を退色判別情報として算出する。退色情報生成部35bは、所定レベルよりも退色していることを示す比較結果の継続期間や継続数が閾値を超えていた場合、退色が発生したと判別して、退色していることを示す退色情報を生成して退色情報利用部50へ出力する。また、退色情報生成部35bは、退色情報で退色していることを示すだけでなく退色レベルを退色情報に含めてもよい。
 なお、比較情報蓄積部34bは、必須の構成要素ではなく、色情報比較部33bで生成した比較情報を退色情報生成部35bに出力してもよい。比較情報蓄積部34bを設けた場合、色情報比較部33b生成された比較情報にばらつきを生じても、蓄積比較情報に基づき安定した退色情報を生成できる。また、比較情報蓄積部34bを設けない場合、画像処理部30-2の構成を簡易とすることができる。
 <3-2.第2の実施の形態の動作>
 図8,図9は、第2の実施の形態の動作を例示したフローチャートであり、図8は退色の判別に用いる情報の処理動作、図9は退色情報の生成動作を示している。退色の判別に用いる情報の処理動作は撮像部の動作中に行い、退色情報の生成動作は、所定期間間隔で行う。
 図8のステップST21で画像処理部は画像信号を取得する。画像処理部30-2は、撮像部21で生成された画像信号を取得してステップST22に進む。
 ステップST22で画像処理部は比較対象情報生成処理を行う。画像処理部30-2は、ステップST21で取得した画像信号に基づき、輝度あるいは色成分毎の信号レベルを示す色情報を比較対象情報として生成してステップST23に進む。
 ステップST23で画像処理部は参照信号を取得する。画像処理部30-2は、撮像部21で生成された参照信号を取得してステップST24に進む。
 ステップST24で画像処理部は退色判別参照情報生成処理を行う。画像処理部30-2は、ステップST23で取得した参照信号に基づき、輝度あるいは色成分毎の信号レベルを示す色情報を退色判別基準情報として生成してステップST25に進む。
 ステップST25で画像処理部は情報比較処理を行う。画像処理部30-2は、ステップST22で生成した比較対象情報とステップST24で生成した退色判別基準情報を比較して、比較結果に基づき比較情報を生成してステップST26に進む。
 ステップST26で画像処理部は比較情報蓄積処理を行う。画像処理部30-2は、ステップST25で生成された比較情報を蓄積してステップST21に戻る。
 図9のステップST31で画像処理部は蓄積比較情報を取得する。画像処理部30-2は図8のステップST26で比較情報蓄積処理によって比較情報を蓄積することで生成された蓄積比較情報を取得してステップST32に進む。
 ステップST32で画像処理部は退色判別情報を算出する。画像処理部30-2はステップST31で取得された蓄積比較情報に基づき退色判別情報を算出する。画像処理部30-2は、例えば所定レベルよりも退色していることを示す比較結果の継続期間や継続数を退色判別情報として算出してステップST33に進む。
 ステップST33で画像処理部は退色発生であるか判別する。画像処理部30-2はステップST32で算出した退色判別情報が予め設定されている閾値を超えているか判別して、閾値を超えた退色が生じていると退色判別情報に基づき判別した場合はステップST34に進み、閾値を超えた退色が生じていないと退色判別情報に基づき判別した場合はステップST31に戻る。
 ステップST34で画像処理部は退色情報を生成する。画像処理部30-2は、撮像部20で用いられているカラーフィルタが閾値を超えた退色を生じていること等を示す退色情報を生成する。
 このように、第2の実施の形態によれば、第1の実施の形態と同様に、退色状態を精度よく検出できるようになる。また、撮像部21で生成された画像信号と参照信号に基づいて退色を判別できるので、外部機器で取得された情報等を用いることなくカラーフィルタの退色を検出できるようになる。
 <4.第3の実施の形態>
 次に、本技術の第3の実施の形態について説明する。第3の実施の形態は、比較対象情報として画像信号に基づいて生成した照度情報を累積した累積照度情報と環境情報を累積した累積環境情報、退色判別基準情報として照度情報と環境情報の累積結果に対するカラーフィルタの退色レベルの関係を示す情報を用いる場合を示している。
 <4-1.第3の実施の形態の構成>
 図10は、第3の実施の形態の構成を例示している。画像処理部30-3は、照度情報累積部36と環境情報累積部37と退色情報生成部38を有している。
 照度情報累積部36は、撮像部20から供給された画像信号に基づき照度情報を生成する。照度情報累積部36は例えば撮像画における画素値の平均値を照度情報として累積して、撮像部20のカラーフィルタが最初に使用されてから現在までの照度情報の時間積分値を累積照度情報として退色情報生成部38へ出力する。
 環境情報累積部37は、環境情報生成部40から供給された環境情報例えば温度計測値を累積して、撮像部20のカラーフィルタが最初に使用されてから現在までの温度計測値の時間積分値を累積環境情報として退色情報生成部38へ出力する。なお、環境情報累積部は、温度計測値に限らず湿度計測値を環境情報として用いてもよい。
 退色情報生成部38は、照度情報累積部36から供給された累積照度情報と環境情報累積部37から供給された累積温度情報に基づき、予め設定されている所定レベルを超える退色を生じているか否かを判別する。退色情報生成部38は、累積照度情報と累積温度情報に対する退色レベルを示す特性(退色モデル等)を退色判別基準情報として予め記憶しており、この特性を利用して、照度情報累積部36から供給された累積照度情報と環境情報累積部37から供給された累積温度情報に基づき、退色レベルを判別する。また、累積照度情報に対する退色レベルを示す特性と累積温度情報に対する退色レベルを示す特性を個々に用いて、累積照度情報に基づく退色レベルと累積温度情報に基づく退色レベルを判別して、これらの退色レベルの統合してカラーフィルタの退色レベルとしてもよい。さらに、累積照度情報や累積温度情報をパラメータとして評価値の算出を行い、算出した評価値を退色レベルとしてもよい。退色情報生成部38は、判別した退色レベルと予め設定されている閾値を比較して、比較結果に基づき閾値を超える退色を生じているか否かを示す退色情報を生成して、退色情報利用部50へ出力する。また、退色情報生成部38は、退色情報で退色していることを示すだけでなく、退色レベルを退色情報に含めてもよい。
 <4-2.第3の実施の形態の動作>
 図11,図12は、第3の実施の形態の動作を例示したフローチャートであり、図11は退色の判別に用いる情報の処理動作、図12は退色情報の生成動作を示している。退色の判別に用いる情報の処理動作は撮像部の動作中に行い、退色情報の生成動作は、所定期間間隔で行う。
 図11のステップST41で画像処理部は画像信号を取得する。画像処理部30-3は、撮像部20で生成された画像信号を取得してステップST42に進む。
 ステップST42で画像処理部は照度情報を累積する。画像処理部30-3は、ステップST41で取得した画像信号に基づき照度情報を生成する。さらに、画像処理部30-3は、照度情報を累積してステップST43に進む。
 ステップST43で画像処理部は環境情報を取得する。画像処理部30-3は、環境情報生成部40で生成された環境情報を取得してステップST44に進む。
 ステップST44で画像処理部は環境情報を累積する。画像処理部30-3は、ステップST43で取得した環境情報を累積してステップST41に戻る。
 図12のステップST51で画像処理部は比較対象情報を取得する。画像処理部30-3は図11のステップST42で累積した照度情報とステップST44で累積した環境情報を比較対象情報として取得してステップST52に進む。
 ステップST52で画像処理部は退色レベルを判別する推定する。画像処理部30-3は、累積照度情報と累積温度情報に対する退色レベルを示す退色判別基準情報を用いて、ステップST51で取得した比較対象情報に対応する退色レベルを判別してステップST53に進む。
 ステップST53で画像処理部は退色発生であるか判別する。画像処理部30-3はステップST52で判別した退色レベルが予め設定されている閾値を超えているか判別して、閾値を超えた退色が生じていると判別した場合はステップST54に進み、閾値を超えた退色が生じていないと判別した場合はステップST51に戻る。
 ステップST54で画像処理部は退色情報を生成する。画像処理部30-3は、撮像部20で用いられているカラーフィルタが閾値を超えた退色を生じていることを示す退色情報を生成して出力する。
 このように、第3の実施の形態によれば、第1および第2の実施の形態と同様に、退色状態を精度よく検出できるようになる。また、画像信号に基づいて生成した照度情報を累積した累積照度情報あるいは累積照度情報と環境情報を累積した累積環境情報を比較対象情報として、照度情報と環境情報の累積結果に対するカラーフィルタの退色レベルの関係を示す退色判別基準情報と比較対象情報に基づいて退色を判別できるので、認識処理等を行うことなくカラーフィルタの退色を容易に検出できるようになる。
 <5.他の実施の形態>
 画像処理部30では、上述の第1乃至第3の実施の形態を組み合わせて行うようにしてもよい。例えば第1の実施の形態と第3の実施の形態を組み合わせて行うようにすれば、退色のない物体を長期間検出できない場合でも累積照度情報等に基づき、カラーフィルタの退色を検出できるようになる。
 また、第2の実施の形態では、撮像部21に退色を生じない参照画素を設けて、退色判別基準情報を生成したが、撮像部と別個に分光カメラを設けて、分光カメラによって退色判別基準情報を生成してもよい。
 なお、上述の第1乃至第3の実施の形態や他の実施の形態に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
 <6.退色情報利用部について>
 次に、退色情報利用部について説明する。退色情報利用部50は、画像処理部30で退色状況が得られた場合、撮像部20で取得された画像信号に対して退色補正を行う。
 画像処理部30では、カラーフィルタの退色レベルに応じた補正係数を用いて退色補正を行う。例えば退色レベルに応じて赤色補正係数Crと緑色補正係数Cgと青色補正係数Cbを決定する。さらに、撮像部20で生成された画像信号における赤色成分Rと緑色成分Gと青色成分Bに対して、式(2)~(4)の演算を行い、退色を補正した赤色成分Rcと緑色成分Gcと青色成分Bcを算出する。
 Rc=Cr×R   ・・・(2)
 Gc=Cg×G   ・・・(3)
 Bc=Cb×B   ・・・(4)
 また、累積照度と累積温度に対する退色レベルを示す特性(退色モデル等)を利用して退色レベルを推定できることから、ルックアップテーブルによって退色を補正してもよい。例えば退色レベルに応じた赤色ルックアップテーブルLUTrを用いて式(5)に示すように、赤色成分Rに対応する退色補正後の赤色成分Rcを算出する。同様に、退色レベルに応じた緑色ルックアップテーブルLUTgを用いて式(6)に示すように、緑色成分Gに対応する退色補正後の緑色成分Gcと、退色レベルに応じた青色ルックアップテーブルLUTbを用いて式(7)に示すように、青色成分Bに対応する退色補正後の青色成分Bcを算出する。
 Rc=LUTr[R]   ・・・(5)
 Gc=LUTg[G]   ・・・(6)
 Bc=LUTb[B]   ・・・(7)
 さらに、画像処理部30では、色成分毎に退色補正を行う場合に限らず各色成分R,G,Bのペアに対して退色補正後の各色成分Rc,Gc,Bcを算出してもよい。例えば退色レベルに応じた補正係数Cwを用いて式(8)の演算を行い各色成分Rc,Gc,Bcを算出してもよく、式(9)~(11)に示すように退色補正後の各色成分を算出してもよい。
 [Rc,Gc,Bc] =Cw[R,G,B] ・・・(8)
 Rc=LUTr[R,G,B]   ・・・(9)
 Gc=LUTg[R,G,B]   ・・・(10)
 Bc=LUTb[R,G,B]   ・・・(11)
 また、機械学習によって、退色補正を行うようにしてもよい。例えば、「Conditional GAN(Generative Adversarial Networks)」と呼ばれるカテゴリの手法を用いて、画像を変換するルールや退色した色を元の色に変換する学習を行い、学習結果に基づき退色を生じた画像を退色のない画像に変換する。また、機械学習では、「Pix2Pix」と呼ばれる手法を用いて、予め退色のない画像と退色を生じた画像間の関係を学習して、学習した関係に基づき撮像部で取得されている退色を生じた画像から退色のない画像を生成してもよい。また、「Cycle GAN」と呼ばれる手法を用いて退色のない画像を生成してもよい。
 <7.応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図13は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 以上説明した車両制御システム100において、本実施の形態で示した撮像部20(21)はデータ取得部102、画像処理部30-1(30-2,30-3)は車外情報検出部141に相当する。撮像部20(21)と画像処理部30-1(30-2,30-3)を車両制御システム100に設けて、車両の運転中に撮像部20(21)で周囲を撮像する場合、撮像部20(21)で撮像動作が長時間行われることから、携帯型の撮像装置に比べてカラーフィルタの退色を生じ易い。しかし、画像処理部30-1(30-2,30-3)で生成された退色情報を利用して退色補正等を行うことができるので、カラーフィルタの退色による影響を軽減できるようになる。例えば、撮像部で生成された画像信号を用いて信号機や道路標示,車のナンバー等の認識処理のように色が重要なシーンである場合、あるいは路面検出や周囲の物体認識あるいは走行レーンの認識処理のように色を使うことで精度を向上できるシーンである場合、第1の実施の形態の比較領域検出部と同様に、退色情報に基づき認識処理で用いる辞書の切り替え等を行うことで、精度よく認識処理を行うことが可能となる。
 また、本技術は、移動体制御システムに限らず、長時間の撮像動作が行われる監視システム等に適用して、カラーフィルタの退色による影響を軽減して監視動作等を行えるようにしてもよい。
 明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
 例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
 また、本技術の画像処理装置は以下のような構成も取ることができる。
 (1) カラーフィルタを用いた撮像部で生成された画像信号に基づく比較対象情報と退色判別基準情報に基づいて、前記カラーフィルタの退色を示す退色情報を生成する退色情報生成部を備える画像処理装置。
 (2) 前記画像信号から色情報を生成して前記比較対象情報とする色情報生成部と
 前記カラーフィルタの退色がない場合の色情報を前記退色判別基準情報として、前記比較対象情報と前記退色判別基準情報を比較する色情報比較部をさらに備え、
 前記退色情報生成部は、前記色情報比較部の比較結果に基づき前記退色情報を生成する(1)に記載の画像処理装置。
 (3) 前記画像信号に基づいて退色判別物体の画像領域を示す比較領域を検出する比較領域検出部をさらに備え、
 前記色情報生成部は、前記比較領域検出部で検出された比較領域の画像信号から前記色情報を生成して前記比較対象情報として、
 前記色情報比較部は、前記退色判別物体の色情報を前記退色判別基準情報とする(2)に記載の画像処理装置。
 (4) 前記退色情報生成部は、前記色情報比較部の比較結果に基づき退色レベルを推定して、
 前記比較領域検出部は、前記退色情報生成部で推定した退色レベルに応じて前記比較領域の検出を行う(3)に記載の画像処理装置。
 (5) 前記比較領域検出部は、前記比較領域の検出を予め設定した画像領域内で行う(3)に記載の画像処理装置。
 (6) 前記撮像部には、カラーフィルタを設けた色成分画素と退色を生じない参照画素が設けられており、
 前記色情報生成部は、前記色成分画素で生成された前記画像信号から色情報を生成して前記比較対象情報として、
 前記色情報比較部は、前記参照画素の信号に基づいて生成した色情報を前記退色判別基準情報とする(2)に記載の画像処理装置。
 (7) 前記参照画素は、カラーフィルタが設けられていない画素である(6)に記載の画像処理装置。
 (8) 前記参照画素は、前記カラーフィルタに代えて分光フィルタを設けた画素である(6)に記載の画像処理装置。
 (9) 前記色成分画素と前記参照画素を設けた撮像部をさらに備える(6)乃至(8)のいずれかに記載の画像処理装置。
 (10) 前記色情報比較部の比較結果を示す比較情報を蓄積する比較情報蓄積部をさらに備え、
 前記退色情報生成部は、前記比較情報蓄積部で蓄積された比較情報に基づき前記退色情報を生成する(2)乃至(9)のいずれかに記載の画像処理装置。
 (11) 前記画像信号に基づいて生成した照度情報を累積する照度情報累積部をさらに備え、
 前記退色情報生成部は、前記照度情報累積部で累積された照度情報を前記比較対象情報として、照度情報の累積結果に対する前記カラーフィルタの退色レベルの関係を示す情報を前記退色判別基準情報として用いる(1)乃至(10)のいずれかに記載の画像処理装置。
 (12) 前記画像信号の生成時における環境情報を累積して前記比較対象情報に含める環境情報累積部をさらに備え、
 前記退色情報生成部は、前記環境情報累積部で累積された環境情報を前記比較対象情報に含めて、照度情報と環境情報の累積結果に対する前記カラーフィルタの退色レベルの関係を示す情報を前記退色判別基準情報として用いる(11)に記載の画像処理装置。
 (13) 前記退色情報では、前記カラーフィルタの退色レベルが所定レベルを超えたこと、あるいは前記カラーフィルタの退色レベルを示す(1)乃至(12)のいずれかに記載の画像処理装置。
 10・・・撮像システム
 20,21・・・撮像部
 30,30-1,30-2,30-3・・・画像処理部
 31・・・比較領域検出部
 32a,32b,32c・・・色情報生成部
 33a,33b・・・色情報比較部
 34a,34b・・・比較情報蓄積部
 35a,35b,38・・・退色情報生成部
 36・・・照度情報累積部
 37・・・環境情報累積部
 40・・・環境情報生成部
 50・・・退色情報利用部
 60・・・画像利用部

Claims (15)

  1.  カラーフィルタを用いた撮像部で生成された画像信号に基づく比較対象情報と退色判別基準情報に基づいて、前記カラーフィルタの退色を示す退色情報を生成する退色情報生成部
    を備える画像処理装置。
  2.  前記画像信号から色情報を生成して前記比較対象情報とする色情報生成部と、
     前記カラーフィルタの退色がない場合の色情報を前記退色判別基準情報として、前記比較対象情報と前記退色判別基準情報を比較する色情報比較部をさらに備え、
     前記退色情報生成部は、前記色情報比較部の比較結果に基づき前記退色情報を生成する請求項1に記載の画像処理装置。
  3.  前記画像信号に基づいて退色判別物体の画像領域を示す比較領域を検出する比較領域検出部をさらに備え、
     前記色情報生成部は、前記比較領域検出部で検出された比較領域の画像信号から前記色情報を生成して前記比較対象情報として、
     前記色情報比較部は、前記退色判別物体の色情報を前記退色判別基準情報とする
    請求項2に記載の画像処理装置。
  4.  前記退色情報生成部は、前記色情報比較部の比較結果に基づき退色レベルを推定して、
     前記比較領域検出部は、前記退色情報生成部で推定した退色レベルに応じて前記比較領域の検出を行う
    請求項3に記載の画像処理装置。
  5.  前記比較領域検出部は、前記比較領域の検出を予め設定した画像領域内で行う
    請求項3に記載の画像処理装置。
  6.  前記撮像部には、カラーフィルタを設けた色成分画素と退色を生じない参照画素が設けられており、
     前記色情報生成部は、前記色成分画素で生成された前記画像信号から色情報を生成して前記比較対象情報として、
     前記色情報比較部は、前記参照画素の信号に基づいて生成した色情報を前記退色判別基準情報とする
    請求項2に記載の画像処理装置。
  7.  前記参照画素は、カラーフィルタが設けられていない画素である
    請求項6に記載の画像処理装置。
  8.  前記参照画素は、前記カラーフィルタに代えて分光フィルタを設けた画素である
    請求項6に記載の画像処理装置。
  9.  前記色成分画素と前記参照画素を設けた撮像部をさらに備える
    請求項6に記載の画像処理装置。
  10.  前記色情報比較部の比較結果を示す比較情報を蓄積する比較情報蓄積部をさらに備え、
     前記退色情報生成部は、前記比較情報蓄積部で蓄積された比較情報に基づき前記退色情報を生成する
    請求項2に記載の画像処理装置。
  11.  前記画像信号に基づいて生成した照度情報を累積する照度情報累積部をさらに備え、
     前記退色情報生成部は、前記照度情報累積部で累積された照度情報を前記比較対象情報として、照度情報の累積結果に対する前記カラーフィルタの退色レベルの関係を示す情報を前記退色判別基準情報として用いる
    請求項1に記載の画像処理装置。
  12.  前記画像信号の生成時における環境情報を累積して前記比較対象情報に含める環境情報累積部をさらに備え、
     前記退色情報生成部は、前記環境情報累積部で累積された環境情報を前記比較対象情報に含めて、照度情報と環境情報の累積結果に対する前記カラーフィルタの退色レベルの関係を示す情報を前記退色判別基準情報として用いる
    請求項11に記載の画像処理装置。
  13.  前記退色情報では、前記カラーフィルタの退色レベルが所定レベルを超えたこと、あるいは前記カラーフィルタの退色レベルを示す
    請求項1に記載の画像処理装置。
  14.  カラーフィルタを用いた撮像部で生成された画像信号に基づく比較対象情報と退色判別基準情報に基づいて、前記カラーフィルタの退色を示す退色情報を退色情報生成部で生成すること
    を含む画像処理方法。
  15.  撮像部で用いられているカラーフィルタに関する情報の生成をコンピュータで実行させるプログラムであって、
     前記カラーフィルタを用いた前記撮像部で生成された画像信号に基づき比較対象情報を生成する手順と、
     前記比較対象情報と退色判別基準情報に基づいて、前記カラーフィルタの退色を示す退色情報を生成する手順と
    を前記コンピュータで実行させるプログラム。
PCT/JP2019/036082 2018-10-04 2019-09-13 画像処理装置と画像処理方法およびプログラム WO2020071091A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201980063280.1A CN112771851A (zh) 2018-10-04 2019-09-13 图像处理装置、图像处理方法和程序
EP19869106.5A EP3863282B1 (en) 2018-10-04 2019-09-13 Image processing device, and image processing method and program
KR1020217008079A KR20210069632A (ko) 2018-10-04 2019-09-13 화상 처리 장치와 화상 처리 방법 및 프로그램
US17/280,192 US11417023B2 (en) 2018-10-04 2019-09-13 Image processing device, image processing method, and program
JP2020550254A JP7318656B2 (ja) 2018-10-04 2019-09-13 画像処理装置と画像処理方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018189010 2018-10-04
JP2018-189010 2018-10-04

Publications (1)

Publication Number Publication Date
WO2020071091A1 true WO2020071091A1 (ja) 2020-04-09

Family

ID=70054521

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/036082 WO2020071091A1 (ja) 2018-10-04 2019-09-13 画像処理装置と画像処理方法およびプログラム

Country Status (6)

Country Link
US (1) US11417023B2 (ja)
EP (1) EP3863282B1 (ja)
JP (1) JP7318656B2 (ja)
KR (1) KR20210069632A (ja)
CN (1) CN112771851A (ja)
WO (1) WO2020071091A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324502A (ja) * 1999-05-14 2000-11-24 Konica Corp 撮像装置
JP2003153859A (ja) * 2001-11-21 2003-05-27 Pentax Corp 電子内視鏡スコープ
JP2011103513A (ja) 2009-11-10 2011-05-26 Ricoh Co Ltd レンズユニット、本体ユニット及び撮像装置、
JP2012059865A (ja) * 2010-09-08 2012-03-22 Sony Corp 撮像素子および撮像装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3715794B2 (ja) * 1998-09-08 2005-11-16 キヤノン株式会社 画像読み取り装置及び画像読み取り装置の制御方法
JP2004120540A (ja) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd 撮像装置用校正装置
JP2004165910A (ja) * 2002-11-12 2004-06-10 Canon Inc 撮像装置を備えた機器
US20060017743A1 (en) * 2004-07-23 2006-01-26 Chan Victor G Display intensity filter
JP4350741B2 (ja) * 2006-12-05 2009-10-21 キヤノン株式会社 画像処理方法およびその装置
US8064691B2 (en) * 2007-05-15 2011-11-22 Creative Lifestyle, Inc. Method for identifying color in machine and computer vision applications
US20090244360A1 (en) * 2008-03-28 2009-10-01 Panasonic Corporation Camera System And Camera Body Composing The Same
JP2009246095A (ja) * 2008-03-31 2009-10-22 Epson Imaging Devices Corp 光センサ、光検出装置、電気光学装置及び電子機器
US8405727B2 (en) * 2008-05-01 2013-03-26 Apple Inc. Apparatus and method for calibrating image capture devices
JP2010032410A (ja) * 2008-07-30 2010-02-12 Toshiba Corp イメージセンサおよびその製造方法
US9378685B2 (en) * 2009-03-13 2016-06-28 Dolby Laboratories Licensing Corporation Artifact mitigation method and apparatus for images generated using three dimensional color synthesis
JP5563283B2 (ja) * 2009-12-09 2014-07-30 キヤノン株式会社 画像処理装置
JP5589760B2 (ja) * 2010-10-27 2014-09-17 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP6279825B2 (ja) * 2011-05-18 2018-02-14 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP5765081B2 (ja) * 2011-06-22 2015-08-19 ソニー株式会社 撮像素子、電子機器、製造方法、および検査装置
JP5987326B2 (ja) * 2012-01-23 2016-09-07 ソニー株式会社 固体撮像素子および信号処理方法、並びに電子機器
JP5619041B2 (ja) * 2012-01-23 2014-11-05 富士フイルム株式会社 吐出不良検出方法及び装置、画像処理装置、プログラム、並びに印刷システム
KR20130104756A (ko) * 2012-03-15 2013-09-25 삼성전자주식회사 영상 촬영 장치 및 이에 포함된 이미지 센서
JP5900194B2 (ja) * 2012-07-02 2016-04-06 ソニー株式会社 信号処理装置、信号処理方法、プログラム、固体撮像素子、および電子機器
JP5687676B2 (ja) * 2012-10-23 2015-03-18 オリンパス株式会社 撮像装置及び画像生成方法
JP2014103461A (ja) * 2012-11-16 2014-06-05 Jai Corporation 収差補正機能付き画像読取装置
US10708561B2 (en) * 2014-03-27 2020-07-07 Nec Corporation POS terminal, information processing device, white balance adjustment method, and recording medium
US9525865B2 (en) * 2014-10-23 2016-12-20 Texas Instruments Incorporated Fault detection and method of detecting faults in digital imaging systems
JP6426433B2 (ja) * 2014-10-27 2018-11-21 株式会社日立製作所 画像処理装置、画像処理方法、poi情報作成システム、警告システム、及び誘導システム
JP6436840B2 (ja) * 2015-04-07 2018-12-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
CN107615019B (zh) * 2015-05-21 2019-11-05 富士胶片株式会社 红外线摄像装置及基于红外线摄像装置的信号校正方法
US10580149B1 (en) * 2017-06-26 2020-03-03 Amazon Technologies, Inc. Camera-level image processing
WO2019017081A1 (ja) * 2017-07-21 2019-01-24 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
US10812708B2 (en) 2019-02-22 2020-10-20 Semiconductor Components Industries, Llc Imaging systems with weathering detection pixels
JP2021082069A (ja) * 2019-11-20 2021-05-27 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324502A (ja) * 1999-05-14 2000-11-24 Konica Corp 撮像装置
JP2003153859A (ja) * 2001-11-21 2003-05-27 Pentax Corp 電子内視鏡スコープ
JP2011103513A (ja) 2009-11-10 2011-05-26 Ricoh Co Ltd レンズユニット、本体ユニット及び撮像装置、
JP2012059865A (ja) * 2010-09-08 2012-03-22 Sony Corp 撮像素子および撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3863282A4

Also Published As

Publication number Publication date
CN112771851A (zh) 2021-05-07
US20210350578A1 (en) 2021-11-11
KR20210069632A (ko) 2021-06-11
EP3863282B1 (en) 2023-08-02
JPWO2020071091A1 (ja) 2021-09-02
EP3863282A4 (en) 2021-11-10
EP3863282A1 (en) 2021-08-11
US11417023B2 (en) 2022-08-16
JP7318656B2 (ja) 2023-08-01

Similar Documents

Publication Publication Date Title
KR102533860B1 (ko) 화상 처리 장치 및 화상 처리 방법
JP7136106B2 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
JP7188394B2 (ja) 画像処理装置及び画像処理方法
KR102613792B1 (ko) 촬상 장치, 화상 처리 장치 및 화상 처리 방법
JP7143857B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7027737B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US11815799B2 (en) Information processing apparatus and information processing method, imaging apparatus, mobile device, and computer program
US11501461B2 (en) Controller, control method, and program
US20200298849A1 (en) Information processing apparatus, information processing method, program, and vehicle
WO2020031695A1 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
WO2020031812A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び移動体
WO2019049762A1 (en) IMAGE PROCESSING, IMAGE PROCESSING METHOD, AND IMAGE FLOUD CORRECTION PROGRAM
JP7380674B2 (ja) 情報処理装置と情報処理方法および移動制御装置と移動制御方法
US11585898B2 (en) Signal processing device, signal processing method, and program
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2020036043A1 (ja) 情報処理装置と情報処理方法とプログラム
WO2022038981A1 (ja) 情報処理装置及び情報処理方法、撮像装置、移動体装置、並びにコンピュータプログラム
WO2020071091A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2020036044A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2020158489A1 (ja) 可視光通信装置、可視光通信方法及び可視光通信プログラム
JP7173056B2 (ja) 認識装置と認識方法およびプログラム
WO2020116204A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19869106

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020550254

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019869106

Country of ref document: EP

Effective date: 20210504