WO2021166450A1 - 画像処理方法、センサ装置 - Google Patents

画像処理方法、センサ装置 Download PDF

Info

Publication number
WO2021166450A1
WO2021166450A1 PCT/JP2020/048890 JP2020048890W WO2021166450A1 WO 2021166450 A1 WO2021166450 A1 WO 2021166450A1 JP 2020048890 W JP2020048890 W JP 2020048890W WO 2021166450 A1 WO2021166450 A1 WO 2021166450A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
information acquisition
color information
pixel
pixels
Prior art date
Application number
PCT/JP2020/048890
Other languages
English (en)
French (fr)
Inventor
高塚 進
鉄川 弘樹
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US17/793,034 priority Critical patent/US20230037953A1/en
Priority to EP20919933.0A priority patent/EP4109895A4/en
Priority to KR1020227026583A priority patent/KR20220143013A/ko
Priority to JP2022501672A priority patent/JPWO2021166450A1/ja
Priority to CN202080095191.8A priority patent/CN115039403B/zh
Publication of WO2021166450A1 publication Critical patent/WO2021166450A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/43Conversion of monochrome picture signals to colour picture signals for colour picture display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • This technology relates to an image processing method and a sensor device, and particularly to a technology that assumes coloring processing for an image signal obtained by an array sensor.
  • Patent Document 1 discloses a color filter array using an array containing a color (yellow, cyan, etc.) different from the Bayer array.
  • the major factor is absorption by the color filter.
  • Color filters cause a loss of about 66%.
  • the color separation three-plate method that does not use a color filter is not rational in terms of cost, while the method that uses a color filter is widely used because of its cost advantage and relatively good color reproducibility.
  • the number of incident photons is unavoidably lost due to the color filter. Therefore, for example, a small image sensor in which it is difficult to increase the number of incident photons by increasing the pixel size is disadvantageous in terms of improving sensitivity.
  • the resolution is 1/4 of the actual number of pixels, which is disadvantageous for increasing the resolution.
  • the resolution may be reduced by low-pass filtering for color moiré and false colors.
  • this disclosure proposes a technology that can realize high sensitivity and high resolution.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path.
  • Object detection is performed on the image obtained by imaging using the array sensor in which the color information acquisition point is formed by the arranged pixels, and the color information obtained at the color information acquisition point corresponding to the pixel range of the detected object is referred to. Then, the pixel range of the detected object is colored.
  • the array sensor as an image sensor for imaging is a pixel in which a color filter is arranged in a part and a color filter is not arranged in the other part.
  • the luminance information can be obtained from the other pixels, but a color image is generated by performing a coloring process on the luminance information.
  • the object is detected and the information of the color information acquisition point by the pixel in which the color filter is arranged is used for coloring the pixel range of the object.
  • candidate colors are set for the detected object by color estimation processing based on learning data, and candidates are set based on the color information obtained from the color information acquisition point. It is conceivable to select a color and color the pixel range of the detected object. That is, in the coloring process, an object is first detected in the image, and a candidate color is set according to the class (type) of the object. Among the candidate colors, a candidate color close to the actual color is selected by using the color information obtained at the color information acquisition point.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and the color filter arrangement is described.
  • An object is detected on an array sensor in which a color information acquisition point is formed by pixels and an image obtained by imaging with the array sensor, and a color obtained at the color information acquisition point corresponding to the pixel range of the detected object.
  • It includes a calculation unit that performs coloring processing of the pixel range of the detected object with reference to the information.
  • the calculation unit processes an image (image signal) captured by an array sensor having a color information acquisition point formed by pixels in which a color filter is arranged. In this case, the object is detected and the information of the color information acquisition point by the pixel in which the color filter is arranged is used for coloring the pixel range of the object.
  • the calculation unit sets candidate colors for the detected object by color estimation processing based on learning data, and the candidate colors are based on the color information obtained from the color information acquisition points. It is conceivable to perform the coloring process of the pixel range of the detected object by selecting.
  • the calculation unit detects an object in the image obtained by the array sensor and sets a candidate color according to the class (type) of the object. Among the candidate colors, a candidate color close to the actual color is selected by using the color information obtained at the color information acquisition point.
  • the calculation unit generates a color layer based on a candidate color selected based on the color information obtained from the color information acquisition point, and the color layer is generated from the array sensor. It is conceivable to generate a color image by combining with the obtained brightness information image. That is, in the coloring process, a color image is generated by synthesizing the color layer and the luminance information image.
  • the calculation unit corrects the brightness of the pixel corresponding to the color information acquisition point on the brightness information image obtained from the array sensor, and then performs the brightness information image. It is conceivable to combine the color layers with. Since the pixel used as the color information acquisition point in the luminance information image is the pixel on which the color filter is arranged, the sensitivity is lower than that of other pixels. Therefore, the brightness is corrected.
  • the total area of pixels that do not form the color information acquisition point is set to exceed 25% of the total area of all effective pixels on the array sensor. Conceivable.
  • a pixel in which a color filter is arranged to form a color information acquisition point hereinafter, also referred to as a “color pixel”
  • a pixel in which a color filter is not arranged hereinafter, also referred to as a “clear pixel”
  • the total area of the clear pixels exceeds 25% of all the effective pixels.
  • the color information acquisition points are arranged discretely in the array sensor.
  • One unit of a color information acquisition point is formed by one or a plurality of color pixels.
  • the color information acquisition points of this one unit are arranged discretely among the pixels arranged in one dimension or two dimensions.
  • the color information acquisition points are arranged at regular intervals in the array sensor.
  • One unit of color information acquisition points is arranged at regular intervals among the pixels arranged in one dimension or two dimensions.
  • the color information acquisition points are arranged at non-constant intervals in the array sensor.
  • One unit of color information acquisition points may be randomly arranged, centrally arranged, or diffusely arranged among pixels arranged in one or two dimensions without being arranged at regular intervals. Arrange in a line type.
  • one unit of the color information acquisition point is composed of a plurality of adjacent pixels.
  • one unit of color information acquisition point is composed of two or more pixels adjacent to each other in the vertical direction, the horizontal direction, or the diagonal direction of the array sensor.
  • one unit of the color information acquisition point is composed of a plurality of adjacent pixels and includes R pixels, G pixels, and B pixels.
  • one unit of color information acquisition point is composed of R (red) pixels, G (green) pixels, and B (blue) pixels that are adjacent to each other in the vertical, horizontal, or diagonal directions of the array sensor.
  • one unit of the color information acquisition point is composed of a plurality of adjacent pixels and includes R pixels, G pixels, B pixels, and pixels of other colors. It is conceivable to do.
  • one unit of color information acquisition point is composed of R pixels, G pixels, B pixels, and pixels of other colors that are adjacent to each other in the vertical direction, the horizontal direction, or the diagonal direction of the array sensor.
  • one unit of the color information acquisition points is composed of one pixel, and the color information acquisition points are arranged discretely in the array sensor. Be done.
  • one unit of color information acquisition point is composed of one pixel in which a color filter that transmits a certain color is arranged, and such pixels are arranged discretely.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and the color filter arrangement is described.
  • Color information acquisition points are formed by the pixels, and the total area of the pixels that do not form the color information acquisition points has an array sensor that exceeds 25% of the total area of all effective pixels on the array sensor. That is, the area of the pixel (clear pixel) in which the color filter is not arranged is secured so as to exceed at least 1/4.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path. It has an array sensor in which color information acquisition points are formed by pixels and the color information acquisition points are arranged discretely. One unit of color information acquisition points formed by one or a plurality of color pixels are arranged discretely among the pixels arranged in one dimension or two dimensions.
  • a sensor device 1 as an image sensor having an image sensor array and outputting an image signal as a detection signal will be given as an example.
  • the sensor device 1 of the embodiment is a device that can be called an intelligent array sensor because it has an object detection function by image analysis.
  • FIG. 1 also shows a processor 11 and an external sensor 12 as external devices that perform data communication with the sensor device 1.
  • the processor 11 is assumed to be any processor that is communicatively connected to the sensor device 1.
  • the sensor device 1 has an image sensor device, a storage area such as a DRAM (Dynamic Random Access Memory), and a configuration part as an AI (artificial intelligence) functional processor as hardware. Then, these three have a three-layer laminated structure, one layer has a so-called flat structure, or two layers (for example, the DRAM and the AI function processor are the same layer) have a laminated structure. Will be done.
  • a storage area such as a DRAM (Dynamic Random Access Memory)
  • AI artificial intelligence
  • the sensor device 1 includes an array sensor 2, an ADC (Analog to Digital Converter) / pixel selector 3, a buffer 4, a logic unit 5, a memory 6, an interface unit 7, and a calculation unit 8.
  • the ADC / pixel selector 3, the buffer 4, and the logic unit 5 serve as a signal processing unit 30 that processes the detection signal obtained by the array sensor 2 for output to the outside.
  • the array sensor 2 is configured such that the detection element is a visible light or non-visible light image pickup element, and a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally. For example, a large number of image pickup elements are arranged in two dimensions in the row direction and the column direction, and a two-dimensional image signal is output by photoelectric conversion in each image pickup element.
  • the ADC / pixel selector 3 digitizes the electrical signal photoelectrically converted by the array sensor 2 and outputs an image signal as digital data.
  • the ADC / pixel selector 3 has a pixel selection function for the pixels (image sensor) of the array sensor 2, so that the photoelectric conversion signal can be read out and output as digital data only for the pixels selected by the array sensor 2. You may do it. That is, the ADC / pixel selector 3 normally outputs the photoelectric conversion signal to digital data for all the effective pixels constituting the image of one frame, but outputs the photoelectric conversion signal to digital data only for the selected pixel. You can also do it.
  • the image signal is read out in frame units by the ADC / pixel selector 3, and the image signal of each frame is temporarily stored in the buffer 4, read out at an appropriate timing, and used for processing by the logic unit 5.
  • the logic unit 5 performs various necessary signal processing (image processing) on each input frame image signal. For example, it is assumed that the logic unit 5 adjusts the image quality by processing such as color correction, gamma correction, color gradation processing, gain processing, contour enhancement processing, contrast adjustment processing, sharpness adjustment processing, and gray level adjustment processing. Further, it is assumed that the logic unit 5 performs processing for changing the data size, such as data compression processing, resolution conversion, frame rate conversion, aspect ratio conversion, and sampling rate change. Parameters used for each process are set for each process performed by the logic unit 5. For example, there are setting values such as a color and brightness correction coefficient, a gain value, a compression rate, a frame rate, a resolution, a processing target area, and a sampling rate. The logic unit 5 performs necessary processing using the parameters set for each processing. In the present embodiment, the calculation unit 8 may set these parameters.
  • the image signal processed by the logic unit 5 is stored in the memory 6.
  • the image signal stored in the memory 6 is transmitted and output to the processor 11 and the like by the interface unit 7 at a required timing.
  • the memory 6 is assumed to be DRAM, SRAM (Static Random Access Memory), MRAM (Magnetoresistive Random Access Memory), or the like.
  • the MRAM is a memory that magnetically stores data, and is known to use a TMR element (Tunneling Magnetoresistive) instead of a magnetic core.
  • the TMR element has an extremely thin insulating layer of several atoms sandwiched between magnetic materials, and the electrical resistance changes depending on the direction of magnetization of the magnetic material layer.
  • the direction of magnetization of the TMR element does not change even when the power is turned off, resulting in a non-volatile memory. Since it is necessary to increase the write current as the size becomes finer, in order to make the memory cell finer, a spin injection magnetization reversal method (STT: Spin Torque) is used in which electrons with uniform spins are flowed and written without using a magnetic field. STT-MRAM using Transfer) is known. Of course, as a specific example of the memory 6, a storage element other than these may be used.
  • the processor 11 outside the sensor device 1 can perform image analysis and image recognition processing on the image signal transmitted from the sensor device 1 to perform necessary object detection and the like. Alternatively, the processor 11 may perform signal processing for storing, communicating, displaying, and the like of image signals.
  • the processor 11 can also refer to the detection information of the external sensor 12. It is conceivable that the processor 11 is connected to the sensor device 1 by wire or wirelessly. It is conceivable that the processor 11 is provided in the same housing as the sensor device 1. For example, it is assumed that it is a processor in an image pickup device or a terminal device equipped with the sensor device 1. Alternatively, the processor 11 may be provided in a device separate from the sensor device 1.
  • the processor 11 may be, for example, a processor in a cloud computing system, and may perform network communication with the sensor device 1 or a device incorporating the sensor device 1.
  • the calculation unit 8 is configured as, for example, one AI processor.
  • a keyframe selection unit 81 As an executable calculation function, a keyframe selection unit 81, an object area recognition unit 82, a class identification unit 83, a parameter selection unit 84, and a color processing unit 85 are provided as shown in the figure. Note that these arithmetic functions may be configured by a plurality of processors.
  • the keyframe selection unit 81 performs a process of selecting a keyframe among frames of an image signal as a moving image by an algorithm described later according to a predetermined algorithm or instruction.
  • the object area recognition unit 82 detects an area of an object that is a candidate for detection with respect to a frame of an image signal that is photoelectrically converted by the array sensor 2 and is read out by the ADC / pixel selector 3, and an image (an image of an object to be detected). The area of the object in the frame) is recognized.
  • An object detected from an image signal is an object that can be detected for the purpose of recognition from an image. What kind of object is the object to be detected depends on the purpose of detection, the processing capacity, the type of application, etc. of the sensor device 1 and the processor 11, but all the objects are the objects to be detected here. there is a possibility. Animals, moving objects (cars, bicycles, aircraft, etc.), natural objects (vegetables, plants, etc.), industrial products / parts, buildings, facilities, mountains, seas, rivers, stars, sun, etc. Clouds may be applicable.
  • the class identification unit 83 classifies the detected object into classes by the object area recognition unit 82.
  • a class is a category of objects recognized using image recognition. For example, objects to be detected such as “people”, “cars”, “airplanes”, “ships”, “trucks”, “birds”, “cats”, “dogs”, “deer”, “frogs”, and “horses” are classified.
  • the parameter selection unit 84 stores parameters for signal processing corresponding to each class, and selects one or a plurality of corresponding parameters using the class of the detected object identified by the class identification unit 83, its area, and the like. do. Then, one or a plurality of parameters are set in the logic unit 5.
  • the color processing unit 85 is a function of performing color processing on the image signal obtained by the array sensor 2, which will be described in detail later.
  • the image signal of each frame as a black-and-white image is acquired from the array sensor 2.
  • a color image is generated by performing a coloring process on the image signal. Therefore, the candidate color is set based on machine learning, and the candidate color is selected using the color information by the color information acquisition point 90 described later, and a colored image signal is generated.
  • the black-and-white image referred to in the present disclosure does not simply refer to an image having only two gradations of white and black, but also includes an image based on multi-gradation luminance information, that is, a so-called gray scale.
  • the interface unit 7 In addition to outputting an image signal to the processor 11, the interface unit 7 also outputs object information, class information, number of detected objects, selected parameter information, etc. detected by the calculation unit 8 together with the image signal as metadata, for example. It can be output or can be output independently of the image signal. It is also possible to output only the class information, for example. Further, for example, it is conceivable that the processor 11 side instructs the interface unit 7 to provide necessary information, and the interface unit 7 outputs the corresponding information.
  • the object detection and parameter control by the keyframe selection unit 81, the object area recognition unit 82, the class identification unit 83, and the parameter selection unit 84 will be briefly described.
  • the keyframe selection unit 81 performs a process of selecting a keyframe at a timing according to the keyframe selection algorithm.
  • the sensor device 1 selects a key frame from the image signal in frame units, which is the pixel array output signal of the array sensor 2, and performs image recognition to recognize the class of the subject to be imaged.
  • Keyframe selection is performed by a keyframe selection algorithm, which selects a still image (a certain frame).
  • An example of a keyframe selection algorithm is given. First, there is a method of selecting one frame at a specified time interval. For example, one frame is used as a key frame at intervals of 30 seconds. Of course, 30 seconds is an example.
  • a key frame as the timing according to an instruction from the outside of the sensor device 1 (processor 11 or the like). For example, it is assumed that the device on which the sensor device 1 is mounted and an instruction from the device side are responded to. For example, in the case where the sensor device 1 is mounted on an automobile, the sensor device 1 is stopped in a parking lot, but a key frame is selected at a timing when the vehicle starts running. Further, the keyframe selection method may be changed depending on the situation. For example, when the sensor device 1 is mounted on an automobile, the key frame interval is changed when the vehicle is stopped, when the vehicle is normally traveling, or when the vehicle is traveling at a high speed.
  • the object area recognition unit 82 detects a position that is a candidate for an object in the key frame. That is, the object area recognition unit 82 searches for candidate objects to be detected in the keyframe image, and obtains the positions of one or a plurality of candidates (position coordinates in the image).
  • the class identification unit 83 classifies the detected object into classes. That is, each of the object candidates is classified by class identification.
  • a class is a category of objects recognized using image recognition. For example, class identification such as "person” and “flower” is performed for the detected object.
  • the parameter selection unit 84 performs parameter control according to the class obtained as the class identification result.
  • the parameter selection unit 84 selects a parameter set based on the class, number, area, and the like of the object. When, for example, one class exists in the image, the parameter selection unit 84 selects the parameter set corresponding to that class. For example, if a "person" is present in the identified class, the parameter selection unit 84 selects a parameter set suitable for the image of the person. When there are multiple types of objects in the screen, the following examples can be considered. For example, it is conceivable to select the parameter set corresponding to the class with the largest number of objects in each class. Alternatively, when there are a plurality of types of objects in the screen, it is conceivable to select a parameter set corresponding to the class of the object having the largest area.
  • the parameter selection unit 84 performs a process of setting the selected parameter set in the logic unit 5.
  • the logic unit 5 subsequently performs various image processing on the image signals of each frame that are sequentially input using the set parameter set.
  • the processed image signal, the set parameters, the identified class information, and the like are temporarily stored in the DRAM 6.
  • the sensor device 1 outputs all or at least any of information such as an image signal (still image, moving image), class identification information (class, number of objects, etc.), parameter set used, etc., in response to a request from the processor 11. It will be. That is, any of the information temporarily stored in the memory 6 is read out by the interface unit 7 and transmitted in response to the request of the processor 11. Although this process may be controlled by the arithmetic unit 8, it may be executed by accessing the memory 6 by the processor 11 via the interface unit 7.
  • information such as an image signal (still image, moving image), class identification information (class, number of objects, etc.), parameter set used, etc.
  • the processor 11 is supplied with an image signal whose parameters are set according to the existence of the class as an object included in the image.
  • the image signal may be an image signal that has undergone image processing so as to have an image quality suitable for the class, or an image signal that has undergone image processing suitable for object detection of the class. ..
  • the calculation unit 8 sets the parameters of the logic unit 5 according to the class, but this processing may not be performed.
  • the factors of the incident photon loss are as follows. ⁇ Surface reflection of microlens ⁇ Absorption by color filter ⁇ Reflection in wiring layer ⁇ Absorption ⁇ Reflection in insulating film / silicon interface
  • the color filter is the largest cause of incident light loss. Color filters cause a loss of about 66%. However, the color filter method is widely adopted because of its cost and superiority in color reproducibility.
  • the resolution of the color image sensor is reduced to 1/4 as compared with the black and white image sensor having the same number of pixels.
  • Many image sensors use R / G / B / G color filters in a Bayer array. Originally, R, G, and B filters are attached to pixels that acquire only the brightness, not the color information, and the brightness values of the adjacent R, G, and B are combined to perform colorization. As a result, there is a structural problem that the resolution of the sensor to which the Bayer arrangement is applied is only 1/4 of that of the original sensor.
  • a high-sensitivity, high-resolution color image is obtained by acquiring a luminance information image from an image sensor and coloring a black-and-white image (including a grayscale image) by this without providing a color filter. It can be considered that it is possible to obtain a signal.
  • black-and-white photographs are colored by using object detection by machine learning.
  • object detection the position and category (that is, the above-mentioned "class") of an object are detected from the input image by learning a large amount of things in advance.
  • learning is performed in advance not only on the shape of the object but also on the color.
  • this machine learning also includes an object detection method by deep learning, so-called deep learning, using a multi-layer neural network.
  • Various algorithms are known for machine learning and automatic coloring for this coloring.
  • FIG. 2A schematically shows a black-and-white image
  • FIGS. 2B, 2C, and 2D schematically show an automatically colored image based on machine learning.
  • FIGS. 2B, 2C, and 2D schematically show an automatically colored image based on machine learning.
  • part recognition is performed in pixel units of an image by object detection in deep learning. Then, the candidate color is estimated from the learning data for each part, and the entire area is colored. At this time, a plurality of different candidate colors are derived as shown in FIGS. 2B, 2C, and 2D, the most probable candidate color is selected by a predetermined algorithm, and the color image is output as a color-processed color image.
  • the candidate colors are not always uniquely determined and the selection algorithm is limited, the output color image may be in a state of being significantly different from the actual colors.
  • FIG. 3A schematically shows an actual image
  • FIG. 3B is an image black-and-white based only on the luminance information of FIG. 3A
  • FIG. 3C schematically shows an image automatically colored by machine learning.
  • the color of the tie and the background curtain is different from the actual color.
  • FIG. 4A schematically shows an actual image of a color palette
  • FIG. 4B schematically shows an image black-and-white based only on the luminance information of FIG. 4A
  • FIG. 4C schematically shows an image automatically colored by machine learning.
  • the arrangement of colors in the color palette is extremely difficult to estimate by machine learning. For this reason, it is difficult to match an image colorized by automatic coloring with an actual image.
  • the following concept is adopted in this embodiment.
  • the number of incident photons is increased to increase the sensitivity and obtain a black-and-white image.
  • coloring processing based on machine learning is performed to obtain a color image from a black-and-white image, but at that time, actual color information is acquired from some pixels and reflected in it, so that the reproducibility is higher. Achieve automatic coloring.
  • the array sensor 2 In order to acquire the actual color information, the array sensor 2 is not provided with no color filter at all, but a part of the pixels is a color filter-arranged pixel in which the color filter is arranged in the incident light path. Color information acquisition points are formed by the color filter arrangement pixels. Based on this concept, higher sensitivity and higher resolution are achieved and color reproducibility is ensured as compared with the Bayer array that is normally used and image sensors that use other colored color filter arrays.
  • FIG. 5 shows an example of the color information acquisition point 90 formed on the pixel array of the array sensor 2 in the sensor device 1 of the embodiment.
  • FIG. 5 shows the pixel array surface 2A of the array sensor 2, and it is assumed that each square is one pixel for obtaining luminance information.
  • each square is one pixel for obtaining luminance information.
  • the effective pixels used for acquiring the luminance information but also dummy pixels may be provided at the peripheral edge or the like.
  • the dummy pixels are ignored for the sake of explanation, and the effective pixels are used. The explanation is given within the scope.
  • FIG. 5 shows a state in which color information acquisition points 90 (hatched pixels) are provided at regular intervals in the vertical direction and the horizontal direction within the entire pixel range considered to be effective pixels.
  • FIG. 6A is an enlarged view of the broken line region AX of FIG.
  • FIG. 6A is an example in which one unit of color information acquisition point 90 is formed by four pixels of the Bayer array of R pixel, G pixel, B pixel, and G pixel.
  • the diagonal lines and the squares marked with "R” are R pixels.
  • the diagonal lines and the squares marked with "G” are G pixels.
  • the squares with diagonal lines and "B” are B pixels.
  • the R pixel is a pixel in which a color filter that transmits only R light is arranged in the incident optical path
  • the G pixel is a pixel in which a color filter that transmits only G light is arranged in the incident optical path
  • the B pixel is B in the incident optical path. It is a pixel in which a color filter that transmits only light is arranged.
  • a clear pixel is a pixel in which a color filter is not arranged. More specifically, it refers to a pixel whose filter portion is clear (colorless) and does not function as a color filter, or a pixel in which the filter itself does not exist.
  • a pixel in which a color filter is arranged with respect to a clear pixel is called a color pixel.
  • the color pixel means a pixel in which a color filter is arranged, which constitutes the color information acquisition point 90.
  • the R pixel, G pixel, and B pixel in FIG. 6A are color pixels, respectively.
  • the color pixel also includes a pixel in which a filter of another color is arranged.
  • FIG. 6B is an example in which one unit of color information acquisition point 90 is formed by three pixels of R pixel, G pixel, and B pixel.
  • the color information acquisition point 90 is not limited to the one composed of four pixels in the Bayer array. Various configuration examples of the color information acquisition point 90 will be described later.
  • color information acquisition points 90 are discretely formed on the pixel array surface 2A.
  • the color information acquisition point 90 is a minimum unit in which color filters are arranged in an arbitrary array, and has a function of acquiring color information.
  • the area occupied by the color information acquisition point 90 in the image sensor is defined as a color area, and the area other than that where a transparent filter or a filter is not arranged (clear pixel area) is defined as a clear area.
  • the location and number of color information acquisition points 90 differ depending on the application. The variations will be described later.
  • the ratio of the color area and the clear area to the entire effective pixel area of the image sensor differs depending on the application.
  • the clear area is arranged in an area exceeding 25% of the whole as a ratio in which the high sensitivity and high definition of the present embodiment appear as an effect.
  • the ratio of the clear area clearly exceeds 25% of the whole.
  • 60 pixels out of 64 pixels are clear pixels, so the clear area is 93.75%.
  • FIG. 7A shows a subject image captured by the array sensor 2
  • FIG. 7B shows this superimposed on the arrangement state of the color information acquisition points 90 as shown in FIG.
  • the coffee cup and the background tree are photographed as the subject, but some color information acquisition points 90 exist in the area corresponding to the pixel range of the coffee cup, and also correspond to the pixel range of the background tree. It can be seen that there are some color information acquisition points 90 in the area. Since one color information acquisition point 90 includes R pixels, G pixels, and B pixels as shown in FIGS. 6A and 6B, it is actually used as color information obtained from the pixels constituting the color information acquisition point 90. You will be able to determine the color of the cup and the color of the wood in the background.
  • the sensor device 1 uses the array sensor 2 in which the color information acquisition points 90 are arranged, and the calculation unit 8 executes the coloring process as shown in FIG.
  • step S100 of FIG. 8 the process executed by the calculation unit 8 after the output of the image signal in units of one frame is started from the array sensor 2 is shown.
  • the one-frame image signal obtained from the array sensor 2 is a luminance information image signal in black and white (gray scale) containing only the luminance information.
  • color information acquisition point 90 color information indicating the actual color of the portion can be acquired.
  • the process of the calculation unit 8 of FIG. 8 is a process in which step S101 is mainly executed by each function as the key frame selection unit 81, the object area recognition unit 82, and the class identification unit 83 shown in FIG. After S102, the processing is mainly executed by the function of the color processing unit 85.
  • step S101 the calculation unit 8 detects the object. That is, the object is detected for the one-frame image output from the array sensor 2 as described above, and the corresponding class is determined.
  • step S102 the calculation unit 8 performs color estimation. That is, the color of the object is estimated by the class determined for each object and the machine learning process using the learning data. For example, in the case of a human face, a color suitable for the face is estimated based on machine learning.
  • step S103 the calculation unit 8 sets a plurality of candidate colors estimated using the results of machine learning for each area in the image, that is, for each area of the object detected in the image. For example, in the case of an image as shown in FIG. 7A, some candidate colors are set in the area as the pixel range where the coffee cup is copied, and some candidate colors are set in the area as the pixel range where the background is copied. It becomes like setting a candidate color.
  • step S104 the calculation unit 8 targets one area of each area in the image as a processing target, and confirms whether or not the color information acquisition point 90 exists in the area. For example, it is confirmed whether or not the color information acquisition point 90 exists in the area as the pixel range corresponding to the coffee cup of FIG. 7B. If the color information acquisition point 90 exists in the area to be processed, the calculation unit 8 proceeds to step S105 and confirms the color information by the color information acquisition point 90 corresponding to the area.
  • This color information is, for example, the color information actually captured by the color pixels of R, G, and B. Then, with reference to the actual color information, the candidate color of the closest color among the candidate colors in the area is selected. In this case, not only the selection of the candidate color but also the correction of the color as the candidate color may be performed.
  • step S106 selects the candidate color which is the most probable color. Further, in step S106, a process of selecting a color having a high possibility may be performed in the area where the object detection could not be performed and the candidate color could not be set.
  • step S107 the calculation unit 8 confirms whether or not the processing of step S105 or step S106 has been completed for each area in the image, and if there is an unprocessed area, returns to step S104 and that area.
  • the above processing is performed.
  • the range of one area is determined based on the luminance value and the like, and the presence or absence of the color information acquisition point 90 is determined in step S104 in the area.
  • the color may be set based on the color information obtained by the color information acquisition point 90 in step S105. Further, if the color information acquisition point 90 does not exist, a process of estimating a color with a high possibility in step S106 may be performed.
  • the calculation unit 8 proceeds from step S107 to step S108 to generate a color layer.
  • the color layer is image layer information having saturation information of each pixel. That is, the calculation unit 8 generates a color layer having saturation information of each pixel of one frame by the colors selected in steps S105 and S106 for each area.
  • step S109 the calculation unit 8 corrects the luminance information of the pixels constituting the color information acquisition point 90 with respect to the luminance information image signal obtained by the array sensor 2.
  • the pixels constituting the color information acquisition point 90 are color pixels in which a color filter is arranged, and the number of incident photons is lower than that of a clear pixel. Therefore, when compared by the pixel value (brightness value for each pixel) of the luminance information image, the luminance value of the pixels constituting the color information acquisition point 90 is lower than that of the surrounding clear pixels. Therefore, in the luminance information image signal of one frame, the luminance value of the pixels constituting the color information acquisition point 90 is corrected so as to increase.
  • the luminance value is corrected so that the loss of 66% does not occur.
  • the brightness value of the color pixel may be corrected by interpolation processing using the brightness value of the surrounding clear pixel.
  • step S110 the calculation unit 8 synthesizes a color layer with respect to the black-and-white image signal to generate a color-processed color image.
  • FIG. 9 shows a composite image. The luminance information image output from the array sensor 2 is used as a black-and-white layer, and this is combined with the color layer to obtain a colored image.
  • step S111 the calculation unit 8 outputs an image signal as the generated color image.
  • the arithmetic unit 8 transfers a color image signal to the buffer 4.
  • This color image signal is processed by the logic unit 5 and transmitted to the processor 11 via the memory 6 and the interface unit 7.
  • Such a color image signal is not simply a coloring of the luminance information image based on machine learning, but the actual color obtained at the color information acquisition point 90 is confirmed, and a color that reflects the actual color is selected and colored. Therefore, the color reproducibility is extremely excellent.
  • FIG. 5 shows an example of arranging the color information acquisition points 90 at regular intervals in the pixel array surface 2A.
  • the arrangement of the color information acquisition points 90 depends on the application, that is, the application of the sensor device. , It is desirable to set according to the purpose of use, required accuracy of color image, and the like.
  • the configuration of one unit of color information acquisition point 90 is also diverse.
  • FIG. 10 shows an example in which the color information acquisition points 90 are arranged at non-constant intervals. Further, in this example, one unit of the color information acquisition point 90 is composed of three adjacent pixels, an R pixel, a G pixel, and a B pixel, as shown in FIG. 6B.
  • the arrangement and configuration of the color information acquisition points 90 have the pixels forming the color information acquisition points 90, and the total area of the clear area is the total area of all the effective pixels of the array sensor 2. It is desirable to make the arrangement according to the application while keeping it exceeding 25%. Further, it is desirable that the color information acquisition points 90 are arranged and configured discretely on the pixel array surface 2A of the array sensor 2.
  • FIG. 11 is an example assuming that the sensor device 1 is used for a door camera attached to a front door or the like of a house.
  • the figure schematically shows the positions of the color pixels constituting the color information acquisition point 90 on the pixel array surface 2A.
  • one unit of color information acquisition point 90 is formed by four pixels. Since this is just a schematic diagram for explanation, the color information acquisition point 90 by 4 pixels is enlarged and shown. It is assumed that the area of the actual color information acquisition point 90 of one unit is much smaller than the area shown in the figure.
  • the image of the face is important. For people in the room, it is required that the faces of visitors, etc., including colors, can be obtained accurately. Also, considering a camera for face authentication such as a security gate, an image of a face part is similarly important for face recognition / collation. Therefore, in the case of such an application, as shown in the figure, it is conceivable to arrange the color information acquisition point 90 mainly in the central portion where the face is reflected.
  • FIG. 12 assumes an in-vehicle camera. It is assumed that five cameras are installed as in-vehicle cameras.
  • the pixel array surface 2A1 of the camera sensor device 1 that images the front center the pixel array surface 2A2 of the camera sensor device 1 that images the front with a wide field of view, and the pixel array of the camera sensor device 1 that images the left side.
  • the surface 2A3, the pixel array surface 2A4 of the sensor device 1 of the camera that images the right side, and the pixel array surface 2A5 of the sensor device 1 of the rear camera are shown.
  • the color information acquisition points 90 are arranged concentrated in the center to enhance the color reproduction function of the object in the traveling direction.
  • color information acquisition points 90 are arranged in several lines in the vertical direction to enhance the color reproduction function for objects approaching from the left and right directions. ing.
  • color information acquisition points 90 are arranged in several lines in the vertical direction, and the color reproduction function is enhanced for an object traveling on the left side or the right side or an object passing through.
  • color information acquisition points 90 are arranged as a whole so that the entire color reproduction function can be widely maintained.
  • the color information acquisition points 90 may be arranged at regular intervals or at non-regular intervals, and various arrangements can be considered depending on the application.
  • the arrangement intervals can be considered variously depending on the application.
  • FIG. 14, and FIG. 15 show an example in which the densities of the color information acquisition points 90 are different due to the different intervals.
  • FIG. 13A assumes a camera that employs a so-called large format image sensor such as 4K or 8K, or a sensor device 1 used for a camera that captures a distant view, a surveillance camera, or the like, and arranges color information acquisition points 90 at a high density.
  • a camera that employs a so-called large format image sensor such as 4K or 8K, or a sensor device 1 used for a camera that captures a distant view, a surveillance camera, or the like, and arranges color information acquisition points 90 at a high density.
  • FIG. 13B illustrates an image of a surveillance camera. In such a case, it is desirable to arrange the color information acquisition points 90 at a high density because the target person appears small and the colors are diverse. ..
  • FIG. 14A is an example in which the color information acquisition points 90 are arranged at a medium density, assuming a sensor device 1 used in a general consumer camera or the like.
  • FIG. 14B exemplifies a general landscape image, it does not need to have the same density as the above-mentioned surveillance camera or the like. Therefore, the color information acquisition points 90 are arranged at a density that can ensure a certain degree of color reproducibility.
  • FIG. 15A is an example in which the color information acquisition points 90 are arranged at a low density assuming the sensor device 1 used for a web camera or the like.
  • FIG. 15B illustrates an image captured by a web camera. In the case of an application in which the web camera does not require such color reproducibility, it is conceivable to arrange the color information acquisition points 90 at a low density that can secure the minimum necessary color reproducibility.
  • FIGS. 16, 17, and 18 show various examples of the arrangement.
  • FIG. 16 shows a centralized arrangement example, which is suitable for the above-mentioned door camera and the like.
  • FIG. 17 shows an example of a diffusion type arrangement, which can be applied to, for example, a camera in the front direction of an in-vehicle camera.
  • FIG. 18 shows a line-type arrangement example, which can be applied to, for example, a lateral camera of an in-vehicle camera.
  • FIG. 19A is an example in which one unit of color information acquisition points 90 is formed by four pixels (R pixel, G pixel, B pixel, and G pixel) in a Bayer array.
  • FIG. 19B is an example in which one unit of color information acquisition points 90 is formed by 16 adjacent pixels.
  • the color information acquisition point 90 is formed by four R pixels, four G pixels, four B pixels, and four G pixels.
  • FIG. 19C is an example in which one unit of color information acquisition point 90 is formed by three adjacent pixels (R pixel, G pixel, and B pixel).
  • FIG. 19D is an example in which one unit of color information acquisition point 90 is formed by 12 adjacent pixels. In this case, the color information acquisition point 90 is formed by three R pixels, three G pixels, three B pixels, and three G pixels. Clear pixels without diagonal lines may be considered not to be included in the color information acquisition point 90.
  • FIG. 19E is an example in which one unit of color information acquisition points 90 is formed by three pixels (R pixel, G pixel, and B pixel) arranged adjacent to each other in the vertical direction.
  • FIG. 19F is an example in which one unit of color information acquisition points 90 is formed by three pixels (R pixel, G pixel, and B pixel) arranged adjacent to each other in the horizontal direction.
  • FIG. 19G shows nine pixels (R pixel, G pixel, B pixel, R pixel, G pixel, B pixel, R pixel, G pixel, B pixel, R pixel, G pixel, B pixel) in which one unit of color information acquisition points 90 are arranged adjacent to each other in the horizontal direction. ) Is an example formed by.
  • FIG. 20B, 20C, and 20D are based on, for example, four pixels (R pixel, G pixel, B pixel, and G pixel) of the Bayer array of FIG. 20A, and the area of one unit of color information acquisition point 90 is expanded.
  • FIG. 20B is an example in which four groups of four pixels in the Bayer array are adjacent to each other in the horizontal and vertical directions to form one unit of color information acquisition points 90.
  • FIG. 20C is an example in which nine groups of four pixels in the Bayer array are adjacent to each other in the horizontal and vertical directions to form one unit of color information acquisition points 90.
  • FIG. 20D is an example in which 16 groups of four pixels in the Bayer array are adjacent to each other in the horizontal and vertical directions to form one unit of color information acquisition points 90.
  • the color information acquisition point 90 of one unit does not necessarily have to include all of the R pixel, the G pixel, and the B pixel.
  • FIG. 21A is an example in which one unit of color information acquisition point 90 is formed by two G pixels adjacent to each other in the oblique direction.
  • FIG. 21B is an example in which one unit of color information acquisition points 90 is formed by eight G pixels adjacent to each other in the diagonal direction.
  • a B pixel or an R pixel can also be considered.
  • FIG. 21C is an example in which pixels of other colors are included in addition to R pixels, G pixels, and B pixels.
  • the pixels of other colors are pixels in which a color filter that transmits light of the other colors is arranged in the incident optical path.
  • a Y (yellow) pixel is taken as an example.
  • one unit of color information acquisition point 90 is formed by four pixels of R pixel, G pixel, B pixel, and Y pixel.
  • FIG. 21D is an example in which four pixel groups having the structure of FIG. 21C are adjacent to each other and one unit of color information acquisition point 90 is formed by 16 color pixels.
  • the Y pixel is taken as an example, but as the pixel of another color, a pixel of another color such as a magenta pixel or a cyan pixel may be used. Further, as another color, pixels of two or more kinds of colors such as Y pixel and magenta pixel may be used. Further, it is not necessary to include all of the R pixel, the G pixel, and the B pixel. For example, an example in which one unit of color information acquisition point 90 is composed of R pixel, G pixel, and Y pixel, and an example in which one unit of color information acquisition point 90 is composed of B pixel and Y pixel can be considered.
  • the color combination of the color pixels used for the color information acquisition point 90 may be determined according to the application, purpose, and the like of the sensor device 1. For example, when the color for which reproducibility is desired is a specific color, the structure of the color information acquisition point 90 may be determined according to the color.
  • FIG. 22A shows an example in which the color information acquisition point 90 is composed of one R pixel.
  • the color information acquisition points 90 by one pixel are arranged discretely on the pixel array surface 2A as shown in FIG. 22B.
  • the color information acquisition point 90 may be composed of G pixels or B pixels. Further, as a color information acquisition point 90 by one pixel, pixels of each color may be arranged as shown in FIG. 22C. That is, the color information acquisition point 90 by the R pixel, the color information acquisition point 90 by the G pixel, and the color information acquisition point 90 by the B pixel are arranged discretely.
  • the arrangement example of the color information acquisition point 90 and the configuration example of the color information acquisition point 90 are various, and various examples other than the examples can be considered.
  • FIG. 23 is a configuration example in which the calculation unit 8 is provided as the terminal device 100 separately from the sensor device 1.
  • the terminal device 100 various types such as an information processing terminal and an image pickup device terminal can be considered.
  • the calculation unit 8 is provided in the terminal device 100 as a chip separate from the sensor device 1, and can communicate with the sensor device 1 via the interface unit 7. Then, the calculation unit 8 is provided with a DNN engine as the color processing unit 85, so that the same processing as in the case of FIG. 1 can be performed.
  • the configuration example of FIG. 24 is an example in which the DNN engine as the color processing unit 85 is formed by a processor or the like independent of the sensor device 1 and the calculation unit 8.
  • the terminal device 100 includes a sensor device 1 (including a calculation unit 8), a processor 11, an external sensor 12, and a color processing unit 85.
  • the color processing unit 85 can communicate with the sensor device 1 via the interface unit 7, and can perform the same processing as in the case of the configuration of FIG. 1 in cooperation with the calculation unit 8.
  • the sensor device 1 and the calculation unit 8 may be separately configured as shown in FIG. 23, and the color processing unit 85 may be further configured by a separate processor or the like.
  • the key frame selection unit 81, the object area recognition unit 82, the class identification unit 83, the parameter selection unit 84, and the like are also arranged outside the sensor device 1 or outside the calculation unit 8 in the same manner as the color processing unit 85. It is also conceivable to have a configuration like this. This point can also be applied as a modification of the configuration of FIG.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and the color filter arrangement is performed.
  • It includes an array sensor 2 in which a color information acquisition point 90 is formed by pixels, and a calculation unit 8. Then, the calculation unit 8 detects an object on the image obtained by imaging using the array sensor 2 having the color information acquisition point 90, and the color obtained at the corresponding color information acquisition point 90 within the pixel range of the detected object. With reference to the information, an image processing method for coloring the pixel range of the detected object is executed.
  • the array sensor 2 is a clear pixel without a color filter except for the pixel at the color information acquisition point 90, the incident photon loss can be reduced and the number of incident photons can be increased. A significant improvement in sensitivity can be achieved for the image sensor as a whole.
  • the resolution is generally lower than that of a black and white image sensor (for example, in the case of a Bayer array, the resolution is reduced to 1/4), but each pixel of the array sensor 2 is used as a black and white pixel for brightness detection. Since it is colored by the processing of the calculation unit 8, the resolution is not lowered by the color pixels. That is, as an image sensor that outputs a color image, high resolution and high definition can be realized.
  • the coloring process is performed by detecting the object and using the color information of the color information acquisition point 90 corresponding to the pixel range of the object.
  • the actual color information is referred to, it is possible to perform highly reproducible coloring processing on the object detected in the image.
  • the calculation unit 8 can perform coloring based on machine learning by performing color estimation processing based on learning data on an object detected in the image obtained by the array sensor 2.
  • multiple candidates are created in color estimation by machine learning.
  • the reproducibility is limited in the content of the learning data or the object having a design in which the color is difficult to specify as illustrated in FIG. Therefore, the actual color information obtained by the color information acquisition point 90 is referred to, and a candidate color close to the actual color is selected from the candidate colors obtained by machine learning.
  • coloring processing that covers the limits of coloring by machine learning becomes possible, and as a result, a color image with extremely high reproducibility can be generated. That is, in the present embodiment, it is possible to generate a color image having high sensitivity, high resolution, and high reproducibility.
  • a color layer is generated based on a candidate color selected based on the color information obtained from the color information acquisition point 90, and the color layer is combined with the brightness information image obtained from the array sensor. Generates a color image with (see FIGS. 8 and 9). As a result, the luminance information obtained by the array sensor 2, that is, the black-and-white image can reflect the coloring using the information of the machine learning and the color information acquisition point 90.
  • step S109 in FIG. 8 an example of performing luminance correction on the luminance information image obtained from the array sensor 2 has been given (step S109 in FIG. 8). Since the pixel at the color information acquisition point 90 passes through the color filter, the incident photon loss is larger than that of the clear pixel, and the brightness is lowered. Then, in the luminance information image constituting the black-and-white layer, the luminance of the pixel at the color information acquisition point 90 becomes lower than that of the normal pixel, and the luminance as a whole becomes non-uniform. Therefore, the brightness value of the pixel at the color information acquisition point 90 is corrected so as to be increased by the amount lost by the color filter.
  • the image quality of the black-and-white layer is improved, and the quality of the color image after coloring is also improved.
  • the luminance correction of the pixel at the color information acquisition point 90 can be realized more accurately by interpolating from the luminance information of the surrounding pixels.
  • the total area of the pixels that do not form the color information acquisition point 90 is set to exceed 25% of the total area of all the effective pixels on the array sensor. That is, when comparing the total area of the clear area with clear pixels and the total area of the color area with color pixels, (Total area of clear area) / (Total area of clear area + Total area of color area) Is assumed to exceed 0.25. If all pixels have the same area, (Number of clear pixels) / (Number of clear pixels + Number of color pixels) Is assumed to exceed 0.25.
  • the clear area is provided for high sensitivity and high definition, and setting the ratio of the clear area area to the color area area in this way improves the effects of high sensitivity and high definition described above. It will be demonstrated.
  • the clear area area exceeds 50% or 75% of the total area of all effective pixels.
  • the clear area area exceeds 75%, the clear pixels are dominant, and the number of color pixels constituting the color information acquisition point 90 is small.
  • the pixel arrangement in which the clear pixel is dominant is realized in this way, it is extremely effective in reducing the incident photon loss, and the above-mentioned effects of high sensitivity and high definition appear more satisfactorily.
  • the color information acquisition points 90 are arranged discretely in the array sensor 2. That is, the color information acquisition points 90 of one unit are not continuous and are arranged discretely on the pixel array arranged in two dimensions (see FIGS. 6, 10, 13 to 18).
  • the color information acquisition points 90 discretely, it is possible to acquire the actual color information for each part in the image without increasing the number of the color information acquisition points 90 as much as possible. Therefore, it is possible to perform coloring processing with high reproducibility for each object detected in various places in the image by referring to the actual color information. Even when the pixels are arranged one-dimensionally, it is assumed that they are arranged discretely.
  • the color information acquisition points 90 are arranged at regular intervals in the array sensor 2 (see FIGS. 13, 14, and 15).
  • the color information acquisition points 90 are arranged at regular intervals in the array sensor 2 (see FIGS. 13, 14, and 15).
  • the density at regular intervals according to the required image quality and the purpose of use of the sensor device 1
  • image imaging according to the required accuracy based on the purpose of use that is, image imaging according to the application and Color image generation becomes possible.
  • FIGS. 13, 14, and 15 show examples in which the densities of the color information acquisition points 90 are different, but these are examples of arranging the color information acquisition points 90 according to the purpose of use and the required accuracy.
  • the color information acquisition points 90 When the color information acquisition points 90 are arranged at regular intervals, they may be arranged at the same intervals in both the horizontal direction and the vertical direction, but they are arranged at the first fixed interval in the horizontal direction and the second constant in the vertical direction.
  • the arrangement intervals may be different in the horizontal and vertical directions, such as arrangement at intervals. Even when the pixels are arranged one-dimensionally, it is assumed that the color information acquisition points 90 are arranged at regular intervals in the arrangement direction.
  • the color information acquisition points 90 are arranged at non-constant intervals in the array sensor 2 (see FIGS. 10, 11, 12, 16, 16, 17, and 18).
  • the color information acquisition points 90 By arranging the color information acquisition points 90 at non-constant intervals, it becomes possible to acquire actual color information in consideration of the importance in the image according to the purpose of imaging.
  • the requirement for importance in an image differs depending on the situation in which the sensor device 1 is used, that is, the application such as a surveillance camera, an in-vehicle camera, and a web camera. Therefore, by arranging the color information acquisition points 90 so as to meet the demand for importance, it is possible to capture an image and generate a color image according to the application. For example, in FIGS.
  • color information acquisition points 90 are arranged at non-constant intervals, but these are color information acquisition points suitable for the purpose of use. This is an example of arrangement of 90.
  • the color information acquisition points 90 in terms of increasing sensitivity and increasing resolution, the smaller the number of color pixels in which the color filter is arranged, the better, but the more the color information acquisition points 90 are arranged, the more advantageous for color reproduction. Therefore, by arranging the color information acquisition points 90 at a high density in an important area according to the purpose of use, more desirable color image generation can be achieved. Even when the pixels are arranged one-dimensionally, it is assumed that the color information acquisition points 90 are arranged at non-constant intervals in the arrangement direction.
  • one unit of the color information acquisition point 90 is composed of a plurality of adjacent pixels (see FIGS. 19, 20, and 21).
  • one unit of the color information acquisition point 90 is composed of two or more pixels adjacent to each other in the vertical direction, the horizontal direction, or the diagonal direction in the array sensor 2.
  • one unit of the color information acquisition point 90 is composed of a plurality of adjacent pixels and includes an R pixel, a G pixel, and a B pixel (see FIGS. 19 and 20). ..
  • the pixels of the three primary colors are included in one unit of the color information acquisition point 90, various color information can be obtained at one unit of the color information acquisition point 90. This makes it possible to increase the possibility that the color information can be acquired more accurately.
  • one unit of the color information acquisition point 90 is composed of a plurality of adjacent pixels and includes R pixels, G pixels, B pixels, and pixels of other colors (for example, Y pixels). (See FIGS. 21C and 21D). Also in this case, various color information can be obtained at one unit of color information acquisition point 90.
  • the detection accuracy can be improved by arranging pixels of a color suitable for detecting the object. Pixels of other colors are not limited to yellow. For example, various colors such as cyan and magenta are assumed. Further, pixels of two or more kinds of colors may be provided as other colors.
  • one unit of the color information acquisition points 90 is composed of one pixel, and the color information acquisition points 90 are arranged discretely in the array sensor 2 (see FIG. 22). Even by arranging the color information acquisition points 90 for obtaining a certain color information in this way, sufficient color reproduction can be performed depending on the imaging purpose of the sensor device 1.
  • By setting all the color information acquisition points 90 as pixels of the same color as shown in FIG. 22B it is suitable for the purpose of detecting an object of a specific color.
  • FIG. 22C by using pixels of different colors at each color information acquisition point 90, various colors can be detected in each part of the image. Then, by forming one unit of the color information acquisition point 90 with one pixel as described above, the pixels whose number of incident photons is reduced by the color filter can be made more discrete.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and the color filter arrangement is performed.
  • the color information acquisition point 90 is formed by the pixels, and the total area of the pixels that do not form the color information acquisition point 90 has the array sensor 2 that exceeds 25% of the total area of all the effective pixels on the array sensor. I made it.
  • the clear area area constituting the color information acquisition point 90 By setting the clear area area constituting the color information acquisition point 90 to exceed 25%, it is effective in reducing the incident photon loss due to the clear pixel.
  • By arranging the color information acquisition point 90 on that basis it is possible to improve the reproducibility of the coloring process by the arithmetic unit 8 in the sensor device 1 or the processor 11 outside the sensor device 1.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and the color filter arrangement is performed.
  • the color information acquisition points 90 are formed by the pixels and the array sensor 2 is provided with the color information acquisition points 90 arranged discretely.
  • the technique of the present disclosure is not limited to the configuration example of the embodiment, and various modified examples are assumed.
  • the configuration of the sensor device 1 is not limited to that illustrated in FIGS. 1, 23, and 24.
  • the array sensor 2 is not limited to pixels that receive visible light, and may have a plurality of non-visible light image pickup elements.
  • the arrangement and configuration of the color information acquisition points 90 are not limited to the examples, and more various examples can be considered.
  • the color information acquisition point 90 may be configured by using at least a part of the pixels.
  • the present technology can also adopt the following configurations.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and a color information acquisition point is formed by the color filter arrangement pixel.
  • Object detection is performed on the image obtained by imaging using the array sensor.
  • Candidate colors are set for the detected object by color estimation processing based on learning data.
  • a candidate color is selected based on the color information obtained from the color information acquisition point, and the pixel range of the detected object is colored.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and a color information acquisition point is formed by the color filter arrangement pixel.
  • Array sensor and An object is detected for an image obtained by imaging with the array sensor, and the pixel range of the detected object is colored by referring to the color information obtained at the corresponding color information acquisition point within the pixel range of the detected object.
  • the calculation unit Candidate colors are set for the detected object by color estimation processing based on learning data, candidate colors are selected based on the color information obtained from the color information acquisition point, and the pixel range of the detected object is colored.
  • the calculation unit A color image is generated by generating a color layer based on a candidate color selected based on the color information obtained from the color information acquisition point and combining the color layer with the brightness information image obtained from the array sensor.
  • (6) The calculation unit The sensor device according to (5) above, wherein the luminance information image obtained from the array sensor is subjected to the luminance correction of the pixel corresponding to the color information acquisition point, and then the luminance information image and the color layer are combined. ..
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and a color information acquisition point is formed by the color filter arrangement pixel.
  • a plurality of image pickup elements are arranged one-dimensionally or two-dimensionally, and a part of the image pickup elements is a color filter arrangement pixel in which a color filter is arranged in an incident light path, and a color information acquisition point is formed by the color filter arrangement pixel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)

Abstract

複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、カラーフィルタ配置画素によって色彩情報取得点が形成されたアレイセンサを用いた撮像により得られた画像について物体検出を行う。そして検出した物体の画素範囲内に該当する色彩情報取得点で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う。

Description

画像処理方法、センサ装置
 本技術は画像処理方法及びセンサ装置に関し、特にアレイセンサで得た画像信号に対しての着色処理を想定する技術に関する。
 撮像素子を配列したイメージセンサでは、いわゆるベイヤー配列として知られるように、緑のカラーフィルタが赤と青の各フィルタの2倍の数で、R(赤)-G(緑)フィルタが並んだ列と、G(緑)-B(青)フィルタが並んだ列が交互になる様な配列を行っているものがある。
 また、下記特許文献1には、ベイヤー配列とは異なる色(イエローやシアン等)を含む配列を用いたカラーフィルタ配列が開示されている。
特開2019-122045号公報
 イメージセンサの分野では、高感度化、高解像度化という要求が存在する。
 まず高感度化という点については、撮像素子への入射光子数を上げることが必要になるが、このためには、画素(撮像素子)のサイズを大きくすることや、入射光子ロスを削減するという考え方がある。
 入射光子数のロスに着目すると、その大きな要因としてはカラーフィルタによる吸収がある。カラーフィルタでは約66%のロスが生じる。しかしながらカラーフィルタを用いない色分離三板方式などはコスト面で合理的でなく、一方、カラーフィルタを用いる方式はコスト面の優位性と、色再現性が比較的良いことから広く用いられており、カラーフィルタによる入射光子数のロスが余儀なくされているケースが多い。このため例えば画素サイズの拡大により入射光子数を増加させることが困難な小型のイメージセンサは、感度向上の点で不利となっている。
 またベイヤー配列のカラーフィルタが用いられる場合、解像度は実際の画素数の1/4になり、高解像度化には不利である。さらに色モアレや偽色に対するローパスフィルタ処理により解像度が低下するということもある。
 このような状況に鑑みて本開示では、高感度化、高解像度化を実現できる技術を提案する。
 本技術に係る画像処理方法は、複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されたアレイセンサを用いた撮像により得られた画像について物体検出を行い、検出した物体の画素範囲内に該当する前記色彩情報取得点で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う。
 撮像を行うイメージセンサとしてのアレイセンサは、一部にカラーフィルタが配置され、他はカラーフィルタが配置されていない画素とする。従って当該他の画素からは輝度情報のみが得られるが、これに対して着色処理を行うことでカラー画像を生成する。この場合に、物体検出を行うとともに、その物体の画素範囲の着色のためにカラーフィルタを配置した画素による色彩情報取得点の情報を用いるようにする。
 上記した本技術に係る画像処理方法においては、前記着色処理では、検出した物体について学習データに基づく色推定処理により候補色を設定し、前記色彩情報取得点から得られた色情報に基づいて候補色の選定を行って、検出した物体の画素範囲の着色を行うことが考えられる。
 即ち着色処理では、まず画像内の物体検出を行い、物体のクラス(種別)に応じて候補色を設定する。候補色の中で、色彩情報取得点で得られた色情報を用いることで実際の色に近い候補色を選定する。
 本技術に係るセンサ装置は、複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されたアレイセンサと、前記アレイセンサでの撮像により得られた画像について物体検出を行い、検出した物体の画素範囲内に該当する前記色彩情報取得点で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う演算部と、を備える。
 演算部は、カラーフィルタが配置された画素により形成される色彩情報取得点を有するアレイセンサで撮像された画像(画像信号)について処理を行う。この場合に、物体検出を行うとともに、その物体の画素範囲の着色のためにカラーフィルタを配置した画素による色彩情報取得点の情報を用いるようにする。
 上記した本技術に係るセンサ装置においては、前記演算部は、検出した物体について学習データに基づく色推定処理により候補色を設定し、前記色彩情報取得点から得られた色情報に基づいて候補色の選定を行って、検出した物体の画素範囲の着色処理を行うことが考えられる。
 演算部は、アレイセンサで得られた画像内の物体検出を行い、物体のクラス(種別)に応じて候補色を設定する。候補色の中で、色彩情報取得点で得られた色情報を用いることで実際の色に近い候補色を選定する。
 上記した本技術に係るセンサ装置においては、前記演算部は、前記色彩情報取得点から得られた色情報に基づいて選定した候補色に基づいてカラーレイヤーを生成し、カラーレイヤーを前記アレイセンサから得られた輝度情報画像と合成することでカラー画像を生成することが考えられる。
 即ち着色処理では、カラーレイヤーと輝度情報画像の合成を行ってカラー画像を生成する。
 上記した本技術に係るセンサ装置においては、前記演算部は、前記アレイセンサから得られる輝度情報画像に対して、前記色彩情報取得点に該当する画素の輝度補正を行ったうえで、輝度情報画像とカラーレイヤーの合成を行うことが考えられる。
 輝度情報画像において色彩情報取得点とされている画素は、カラーフィルタが配置された画素であるため、他の画素に比べて低感度になっている。そこで輝度補正を行う。
 上記した本技術に係るセンサ装置においては、前記色彩情報取得点を形成しない画素の総面積は、前記アレイセンサ上の全有効画素の総面積のうちの25%を超えるようにされていることが考えられる。
 アレイセンサにおいては、カラーフィルタが配置されて色彩情報取得点を構成する画素(以下「カラー画素」ともいう)と、カラーフィルタが配置されていない画素(以下「クリア画素」ともいう)が設けられることになるが、全有効画素のうちで、クリア画素の総面積が25%を越えるものとする。
 上記した本技術に係るセンサ装置においては、前記アレイセンサにおいて、前記色彩情報取得点は離散的に配置されているようにすることが考えられる。
 色彩情報取得点の一単位は、1又は複数のカラー画素で形成される。この一単位の色彩情報取得点は、1次元または2次元に配列された画素のうちで離散的に配置されるようにする。
 上記した本技術に係るセンサ装置においては、前記アレイセンサにおいて、前記色彩情報取得点は一定間隔で配置されているようにすることが考えられる。
 一単位の色彩情報取得点は、1次元または2次元に配列された画素のうちで一定間隔で配置されるようにする。
 上記した本技術に係るセンサ装置においては、前記アレイセンサにおいて、前記色彩情報取得点は非一定間隔で配置されているようにすることが考えられる。
 一単位の色彩情報取得点は、1次元または2次元に配列された画素のうちで一定間隔とはせずに、ランダムに配置したり、中央に集中配置したり、拡散的に配置したり、ライン型に配置したりする。
 上記した本技術に係るセンサ装置においては、前記色彩情報取得点の一単位は、隣接した複数画素で構成されることが考えられる。
 例えば一単位の色彩情報取得点は、アレイセンサの垂直方向、水平方向、又は斜め方向に隣接した2以上の画素で構成されるものとする。
 上記した本技術に係るセンサ装置においては、前記色彩情報取得点の一単位は、隣接した複数画素で構成されるとともに、R画素、G画素、B画素を含むようにすることが考えられる。
 例えば一単位の色彩情報取得点は、アレイセンサの垂直方向、水平方向、又は斜め方向に隣接したR(赤)画素、G(緑)画素、B(青)画素で構成されるものとする。
 上記した本技術に係るセンサ装置においては、前記色彩情報取得点の一単位は、隣接した複数画素で構成されるとともに、R画素、G画素、B画素、及び他の色の画素を含むようにすることが考えられる。
 例えば一単位の色彩情報取得点は、アレイセンサの垂直方向、水平方向、又は斜め方向に隣接したR画素、G画素、B画素及び他の色の画素で構成されるものとする。
 上記した本技術に係るセンサ装置においては、前記色彩情報取得点の一単位は1つの画素で構成され、前記アレイセンサにおいて前記色彩情報取得点は離散的に配置されているようにすることが考えられる。
 例えば一単位の色彩情報取得点は、或る色を透過するカラーフィルタが配置された1画素で構成され、このような画素が離散的に配置されている。
 本技術に係るセンサ装置は、複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されており、前記色彩情報取得点を形成しない画素の総面積は、アレイセンサ上の全有効画素の総面積のうちの25%を超えるアレイセンサを有する。
 即ちカラーフィルタが配置されていない画素(クリア画素)の面積が少なくとも1/4を超えるように確保する。
 本技術に係るセンサ装置は、複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されており、前記色彩情報取得点が離散的に配置されているアレイセンサを有する。
 1又は複数のカラー画素で形成される一単位の色彩情報取得点は、1次元または2次元に配列された画素のうちで離散的に配置されるようにする。
本技術の実施の形態のセンサ装置を示すブロック図である。 機械学習による色生成と着色の説明図である。 機械学習によるカラー化の説明図である。 機械学習によるカラー化の説明図である。 実施の形態の色彩情報取得点の説明図である。 実施の形態の色彩情報取得点の構成の説明図である。 実施の形態の色彩情報取得点と撮像画像の説明図である。 実施の形態の画像処理のフローチャートである。 実施の形態のカラーレイヤーの合成の説明図である。 実施の形態の色彩情報取得点の説明図である。 実施の形態の色彩情報取得点の非一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の非一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の非一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の非一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の非一定間隔配置例の説明図である。 実施の形態の色彩情報取得点の複数画素による構成例の説明図である。 実施の形態の色彩情報取得点の複数画素による構成例の説明図である。 実施の形態の色彩情報取得点の複数画素による構成例の説明図である。 実施の形態の色彩情報取得点の単一の画素による構成例の説明図である。 実施の形態に適用できる他の構成例のブロック図である。 実施の形態に適用できるさらに他の構成例のブロック図である。
 以下、実施の形態を次の順序で説明する。
<1.センサ装置の構成>
<2.機械学習による着色>
<3.実施の形態のセンサ構造と着色処理>
<4.色彩情報取得点の配置及び構成>
<5.センサ装置の他の構成例>
<6.まとめ及び変形例>

 なお以下の説明する実施の形態としては、撮像素子アレイを有し、検出信号として画像信号を出力するイメージセンサとしてのセンサ装置1を例に挙げる。特に実施の形態のセンサ装置1は画像解析による物体検出機能を備えるものとし、インテリジェントアレイセンサと呼ぶことのできる装置である。
<1.センサ装置の構成>
 センサ装置1の構成例を図1に示す。なお図1にはセンサ装置1とデータ通信を行う外部装置としてプロセッサ11、外部センサ12も示している。プロセッサ11はセンサ装置1と通信接続されるあらゆるプロセッサが想定される。
 センサ装置1は、ハードウェアとしては、イメージセンサデバイス、DRAM(Dynamic Random Access Memory)等の記憶領域、AI(artificial intelligence)機能プロセッサとしての構成部位を有している。そしてこれら3つが3レイヤー積層構造とされたり、1レイヤーでいわゆる平置き構成とされたり、或いは2レイヤー(例えばDRAMとAI機能プロセッサが同一レイヤー)積層構造とされたりするなどとして一体型のデバイスとされる。
 図1のようにセンサ装置1は、アレイセンサ2、ADC(Analog to Digital Converter)/ピクセルセレクタ3、バッファ4、ロジック部5、メモリ6、インターフェース部7、演算部8を有する。
 ADC/ピクセルセレクタ3、バッファ4、ロジック部5は、アレイセンサ2で得られる検出信号を外部への出力のために信号処理する信号処理部30となる。
 アレイセンサ2は、検出素子が可視光または非可視光の撮像素子とされ、複数の撮像素子が1次元または2次元に配列されて構成されている。例えば行方向及び列方向の2次元に多数の撮像素子が配列され、各撮像素子における光電変換により二次元画像信号を出力する構成とされる。
 ADC/ピクセルセレクタ3は、アレイセンサ2によって光電変換された電気信号をデジタルデータ化し、デジタルデータとしての画像信号を出力する。
 なおADC/ピクセルセレクタ3は、アレイセンサ2の画素(撮像素子)に対するピクセル選択の機能を持つことで、アレイセンサ2において選択した画素のみについて、光電変換信号を読み出しでデジタルデータ化して出力できるようにしてもよい。つまりADC/ピクセルセレクタ3は、通常は1フレームの画像を構成する有効な画素の全てについて光電変換信号のデジタルデータ化出力を行うが、選択した画素のみについての光電変換信号のデジタルデータ化出力を行うこともできる。
 ADC/ピクセルセレクタ3によって、フレーム単位で画像信号が読み出されるが、この各フレームの画像信号はバッファ4に一時記憶され、適切なタイミングで読み出されてロジック部5の処理に供される。
 ロジック部5では、入力される各フレーム画像信号に対して各種必要な信号処理(画像処理)を行う。
 例えばロジック部5では、色補正、ガンマ補正、色階調処理、ゲイン処理、輪郭強調処理、コントラスト調整処理、シャープネス調整処理、グレーレベル調整処理等の処理により画質調整を行うことが想定される。
 またロジック部5ではデータ圧縮処理、解像度変換、フレームレート変換、縦横比率変換、サンプリングレート変更など、データサイズを変更する処理を行うことも想定される。
 これらロジック部5で行われる各処理については、それぞれの処理に用いるパラメータが設定される。例えば色や輝度の補正係数、ゲイン値、圧縮率、フレームレート、解像度、処理対象の領域、サンプリングレートなどの設定値がある。ロジック部5では、それぞれの処理について設定されたパラメータを用いて必要な処理を行う。本実施の形態では、これらのパラメータを演算部8が設定する場合がある。
 ロジック部5で処理された画像信号はメモリ6に記憶される。
 メモリ6に記憶された画像信号は、必要なタイミングでインターフェース部7によりプロセッサ11等に送信出力される。
 なお、メモリ6としてはDRAM、SRAM(Static Random Access Memory)、MRAM(Magnetoresistive Random Access Memory :磁気抵抗メモリ)などが想定される。
 なおMRAMは磁気によってデータを記憶するメモリであり、磁気コアの代わりにTMR素子(Tunneling Magnetoresistive)を使用するものが知られている。TMR素子は数原子分という極めて薄い絶縁物の層を磁性体ではさんだもので、磁性体の層の磁化の方向によって電気抵抗が変化する。TMR素子の磁化の方向は電源が切られても変化せず、不揮発性のメモリとなる。微細化すればするほど書き込み電流を大きくする必要があるため、メモリセルを微細化するためには、磁界を使わず、スピンがそろった電子を流して書き込むスピン注入磁化反転方式(STT:Spin Torque Transfer)を用いたSTT-MRAMが知られている。
 もちろんメモリ6の具体例としては、これら以外の記憶素子でもよい。
 センサ装置1の外部のプロセッサ11では、センサ装置1から送信されてきた画像信号について、画像解析、画像認識処理を行って、必要な物体検出等を実行することができる。或いはプロセッサ11は、画像信号の記憶、通信、表示等のための信号処理を行うものとしてもよい。
 プロセッサ11は外部センサ12の検出情報を参照することもできる。
 なお、プロセッサ11は、有線又は無線でセンサ装置1と接続されることが考えられる。
 このプロセッサ11は、センサ装置1と共通の筐体に設けられることが考えられる。例えばセンサ装置1を装備する撮像装置や端末装置内のプロセッサとされることが想定される。
 或いはまた、プロセッサ11は、センサ装置1とは別体の装置に設けられるものでも良い。例えばセンサ装置1を装備する撮像装置や端末装置とケーブルや無線通信等で接続される情報処理装置、端末装置、画像編集装置、モニタ装置、通信装置等に内蔵されるものでもよい。
 さらにプロセッサ11は、例えばクラウドコンピューティングシステムにおけるプロセッサとされ、センサ装置1或いはセンサ装置1を内蔵する機器との間でネットワーク通信が行われるものでもよい。
 演算部8は例えば1つのAIプロセッサとして構成される。そして実行可能な演算機能として図示するようにキーフレーム選択部81、物体領域認識部82、クラス識別部83、パラメータ選択部84、色彩処理部85を備える。なおこれらの演算機能が複数のプロセッサにより構成されてもよい。
 キーフレーム選択部81は、所定のアルゴリズム又は指示に応じて、動画としての画像信号のフレームの内でキーフレームを後述するアルゴリズムにより選択する処理を行う。
 物体領域認識部82は、アレイセンサ2で光電変換され、ADC/ピクセルセレクタ3によって読み出される画像信号のフレームに対して、検出の候補となる物体の領域の検出や、検出対象の物体について画像(フレーム)内での当該物体の面積の認識処理を行う。
 画像信号から検出される物体とは、画像からの認識を目的として検出対象となりうる物体のことをいう。センサ装置1やプロセッサ11の検出の目的、処理能力、アプリケーション種別などに応じて、どのような物体が検出対象とされるかは異なるが、あらゆる物体が、ここでいう検出対象の物体とされる可能性がある。あくまで一部であるが例示すると、動物、移動体(自動車、自転車、航空機等)、自然物(野菜、植物等)、工業製品/部品、建造物、施設、山、海、川、星、太陽、雲などが該当する可能性がある。
 クラス識別部83は、物体領域認識部82は検出した物体についてクラス分類を行う。
 クラスとは、画像認識を用いて認識された物体のカテゴリーである。例えば「人」「自動車」「飛行機」「船」「トラック」「鳥」「猫」「犬」「鹿」「蛙」「馬」などのように検出すべき物体をクラス分けするものである。
 パラメータ選択部84は、各クラスに応じた信号処理用のパラメータを記憶しており、クラス識別部83が識別した検出物体のクラスやその面積等を用いて、対応する1又は複数のパラメータを選択する。そしてその1又は複数のパラメータをロジック部5に設定する。
 色彩処理部85は、詳しくは後述するが、アレイセンサ2で得られた画像信号について着色処理を行う機能である。
 本実施の形態の場合、アレイセンサ2からは白黒画像としての各フレームの画像信号が取得される。その画像信号に対して着色処理をおこなってカラー画像を生成する。そのために機械学習に基づく候補色の設定や、後述する色彩情報取得点90による色情報を用いた候補色の選定を行い、着色された画像信号を生成する。
 なお本開示でいう白黒画像とは、単に白と黒の2階調のみの画像を指すのではなく、多階調の輝度情報による画像、いわゆるグレースケールも含むものである。
 演算部8によるこれらの機能は、通常アレイセンサ内では行わなかった処理であり、本実施の形態では、物体検出やクラス認識、着色処理等をアレイセンサ内で実行する。これにより、プロセッサ11へ供給する画像信号を、高品質なものとする。
 なおインターフェース部7は、プロセッサ11へ画像信号を出力する他、演算部8で検出された物体の情報、クラスの情報、検出物体数、選択したパラメータの情報などを、例えばメタデータとして画像信号とともに出力することや、或いは画像信号とは独立して出力することができる。また例えばクラスの情報のみを出力するなどといったことも可能である。
 また例えばプロセッサ11側が、インターフェース部7に対して必要な情報を指示し、インターフェース部7がそれに応じた情報を出力することも考えられる。
 ここで、キーフレーム選択部81、物体領域認識部82、クラス識別部83、パラメータ選択部84による物体検出及びパラメータ制御について簡単に説明しておく。
 キーフレーム選択部81は、キーフレーム選択アルゴリズムに応じたタイミングでキーフレームを選択する処理を行う。
 センサ装置1はアレイセンサ2のピクセルアレイ出力信号であるフレーム単位の画像信号から、キーフレームを選択し、画像認識を行うことで、撮像対象の被写体のクラスを認識することになる。キーフレームの選択はキーフレーム選択アルゴリズムにより行われ、これにより静止画像(ある1フレーム)が選択される。
 キーフレーム選択アルゴリズムの例を挙げる。
 まず、指定した時間の間隔ごとに1フレーム選択するという手法がある。例えば30秒間隔で1フレームをキーフレームとするなどである。もちろん30秒というのは一例である。
 またセンサ装置1の外部(プロセッサ11等)からの命令によるタイミングとしてキーフレームを選択することも考えられる。例えばセンサ装置1が搭載されているデバイス、機器側からの指示に応じたものとする。例えばセンサ装置1が自動車に搭載されているケースで、駐車場に停止していたが、走行を開始したタイミングなどでキーフレームを選択するなどである。
 またキーフレームの選択手法を状況に応じて変化させてもよい。例えばセンサ装置1が自動車に搭載される場合に、停車時、通常走行時、高速走行時でキーフレームの間隔を変更するなどである。
 キーフレームが選択されたら、物体領域認識部82は、キーフレーム内の物体の候補となる位置の検出を行う。
 即ち物体領域認識部82はキーフレームの画像において検出すべき物体の候補を探索し、1又は複数の候補の位置(画像内の位置座標)を求める。
 クラス識別部83は、検出物体のクラス分類を行う。即ち物体の候補のそれぞれについてクラス識別を行い、分類する。
 上述のようにクラスとは画像認識を使って認識された物体のカテゴリーである。例えば検出した物体について「人」「花」といったクラス識別が行われる。
 パラメータ選択部84はクラス識別結果として得られたクラスに応じたパラメータ制御を行う。
 例えばパラメータ選択部84は、物体のクラス、数、面積等を元に パラメータセットを選択する。
 画像内に例えば1つのクラスが存在する場合は、パラメータ選択部84はそのクラスに対応するパラメータセットを選択する。例えば識別されたクラスのうちに「人」が存在した場合、パラメータ選択部84は、人の画像に適したパラメータセットを選択する。
 画面内に複数種類のクラスの物体が存在する場合は、以下の例が考えられる。
 例えば、各クラスのうち最も物体の数の多いクラスに対応するパラメータセットを選択することが考えられる。
 又は、画面内に複数種類のクラスの物体が存在する場合は、最も面積が大きい物体のクラスに対応するパラメータセットを選択することが考えられる。
 又は、画面内に複数種類のクラスの物体が存在する場合は、クラス毎に面積の総計が最も大きくなるクラスに対応するパラメータセットを選択することが考えられる。
 又は、画面内に複数種類のクラスの物体が存在する場合は、クラス毎の物体の数と面積の総計(又は最大値)から、最優先のクラスを求め、そのクラスに対応するパラメータセットを選択することが考えられる。
 もちろん他にもパラメータセットの選択手法は各種存在するが、いずれにしても画面内で支配的な物体、もしくは優先して検出すべき物体のクラスに応じたパラメータセットが選択されるようにすればよい。
 そしてパラメータ選択部84は、選択したパラメータセットをロジック部5に設定する処理を行う。
 これによりロジック部5では以降、順次入力される各フレームの画像信号について、設定されたパラメータセットを用いて各種の画像処理を行う。
 処理された画像信号や設定されたパラメータ、或いは識別されたクラスの情報などはDRAM6に一時的に記憶される。
 センサ装置1は、プロセッサ11の要求に応じて画像信号(静止画、動画)、クラス識別情報(クラス、オブジェクト数等)、使用されたパラメータセット等の情報の全て、または少なくともいずれかを出力することになる。
 つまりメモリ6に一時記憶された情報のいずれかが、プロセッサ11の要求に応じてインターフェース部7により読み出されて送信される。
 なお、この処理は、演算部8の制御によるものとしてもよいが、インターフェース部7を介したプロセッサ11によるメモリ6に対するアクセスにより実行されるものでもよい。
 以上の処理により、プロセッサ11には、画像に含まれる物体としてのクラスの存在に応じてパラメータ設定がなされた画像信号が供給される。その画像信号は、当該クラスに適した画質となるように画像処理が行われた画像信号であったり、当該クラスの物体検出に適した画像処理が行われた画像信号であったりすることになる。
 また、以上では演算部8がクラスに応じてロジック部5のパラメータを設定するとしたが、この処理は行われなくてもよい。
<2.機械学習による着色>
 ここで本開示の技術に至る事情について説明する。
 上述したようにイメージセンサの分野では、高感度化、高解像度化という要求が存在する。
 まず高感度化という点については、撮像素子への入射光子数を増加させることが必要になる。
 入射光子数を増加させるには、画素サイズを大きくするか、入射光子ロスを減らすことが考えられる。画素サイズを固定とする場合は、入射光子ロスの低減が重要となる。
 ここで入射光子ロスの要因としては以下がある。
・マイクロレンズの表面反射
・カラーフィルタによる吸収
・配線層における反射・吸収
・絶縁膜/シリコン界面における反射
 これらのうち入射光ロスの要因としては、カラーフィルタが最も大きい。カラーフィルタでは約66%のロスが生ずる。しかしながら、コスト的な面や色再現性の優位性により、カラーフィルタ方式は広く採用されている。
 また高解像度化(高精細化)という点で考えると、カラーイメージセンサでは、同画素数の白黒イメージセンサと比較して解像度が1/4に下がる。
 多くのイメージセンサにはベイヤー配列でR/G/B/Gのカラーフィルタが用いられている。
 もともと色情報ではなく輝度のみを取得する画素にR,G,Bのフィルタを付けており、隣接する各R,G,Bの輝度値を合成してカラー化を行っている。
 結果的に、ベイヤー配列を適用したセンサの解像度は、元のセンサの1/4にしかならないという構造上の問題を持つ。
 またこのことにより、被写体には実際に無い色が発生して、偽色が現れたり、繰り返し模様とイメージセンサの画素配列が干渉して色モアレを発生したりすることもおきる。
 その為、ローパスフィルタ処理を行って画像をぼかすことにより上記の問題を軽減しているが、このことが更に解像度を下げる原因にもなっている。
 ここで視点を変えると、カラーフィルタを設けず、イメージセンサから輝度情報画像を取得し、これによる白黒画像(グレースケール画像を含む)に着色処理を施すことで、高感度、高解像度のカラー画像信号を得ることが可能と考えることができる。
 近年の画像処理では、機械学習による白黒写真のカラー化が実現されている。
 即ち機械学習による物体検出を用いて、白黒写真の着色を行う。物体検出では大量に事物を事前に学習しておくことにより、入力画像の中から物体の位置とカテゴリー(即ち上述の「クラス」)検出を行う。この物体検出の為の学習時に物体の形状と同時に色についても予め学習を行っておく。
 白黒画像を入力にして物体検出を行い、まず物体のクラスを推定することで、該当クラスの持つ色についても同様に学習データから推測することが可能となる。
 尚、この機械学習には、多層ニューラルネットワークを用いた、深層学習、いわゆるディープラーニングによる物体検出方法も含む。この着色のための機械学習及び自動着色については多様なアルゴリズムが知られている。
 ところが現状、機械学習による着色には限界がある。
 例えば図2Aは白黒画像を模式的に示し、図2B、図2C、図2Dはそれぞれ機械学習に基づいて自動着色された画像を模式的に示している。これらの図ではハッチングや濃淡などにより異なる色を表現しているものとする。
 機械学習に基づく自動着色では、例えば深層学習の物体検出により画像の画素(ピクセル)単位で部位認識を行う。そして部位毎に学習データから候補色を推定し、全域を着色する。このときに、例えば図2B、図2C、図2Dのように異なる複数の候補色が導かれ、所定のアルゴリズムで最も確からしい候補色が選択され、着色処理されたカラー画像として出力される。
 ところが、このように候補色が必ずしも一意に決まるものではなく、また選択アルゴリズムも限界があるため、出力されるカラー画像は、実際の色とは大きく異なる状態となることがある。
 例えば図3Aは実際の画像、図3Bは図3Aの輝度情報のみで白黒化した画像、図3Cは機械学習による自動着色した画像を模式的に示している。
 図3Cの画像は、ネクタイや背景のカーテンの色が、実際とは異なる色になっている。
 また、学習による色の推定が極めて困難な画像もある。例えば図4Aはカラーパレットの実際の画像、図4Bは図4Aの輝度情報のみで白黒化した画像、図4Cは機械学習による自動着色した画像を模式的に示している。カラーパレットの色の配置は機械学習で推定することが極めて困難である。このため、自動着色でカラー化した画像を実際の画像と一致させることは難しい。
 これらのことから機械学習に基づく自動着色では色の再現性に限界があると言わざるを得ない。
 そこで本実施の形態では次の考え方を採る。
 アレイセンサ2においてカラーフィルタを除去するか、またはクリア(無色)フィルタとすることで、入射光子数を増加させて、高感度化を行い、白黒画像を得るようにする。またこれにより高解像度化を図り、さらに色モアレや偽色を解消することにより、ローパスフィルタ処理による解像度低下が生じないようにする。
 また白黒画像からカラー画像を得るために機械学習に基づく着色処理を行うが、その際に、一部の画素からは実際の色情報を取得し、それを反映させることで、より再現性の高い自動着色を実現する。
 実際の色情報を取得するためには、アレイセンサ2は、カラーフィルタを全く設けないとするのではなく、画素の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、このカラーフィルタ配置画素によって色彩情報取得点を形成されるようにする。
 このような考え方で、通常用いられているベイヤー配列や、他の有色カラーフィルタ配列を用いたイメージセンサと比べて高感度化、高解像度化を実現するとともに、色の再現性を確保する。
<3.実施の形態のセンサ構造と着色処理>
 実施の形態のセンサ装置1におけるアレイセンサ2の画素配列上に形成される色彩情報取得点90の例を図5に示す。
 図5はアレイセンサ2の画素アレイ面2Aを示しており、マス目の1つ1つが、輝度情報を得る1つの画素(ピクセル)であるとする。
 なお、実際のイメージセンサでは、輝度情報の取得に用いられる有効画素だけでなく、周囲縁部などにダミー画素が設けられる場合もあるが、本開示では説明上ダミー画素を無視し、有効画素の範囲で説明を行うものとしている。
 図5では有効画素とされる全画素範囲内において、垂直方向及び水平方向に一定間隔で色彩情報取得点90(斜線を付した画素)が設けられている状態を示している。
 図5の破線領域AXを拡大したものが図6Aである。
 図6Aは、ベイヤー配列のR画素、G画素、B画素、G画素の4つの画素で一単位の色彩情報取得点90が形成されている例である。
 斜線及び“R”を付したマス目がR画素である。斜線及び“G”を付したマス目がG画素である。斜線及び“B”を付したマス目がB画素である。
 R画素とは入射光路にR光のみを透過するカラーフィルタが配置された画素、G画素とは入射光路にG光のみを透過するカラーフィルタが配置された画素、B画素とは入射光路にB光のみを透過するカラーフィルタが配置された画素である。
 斜線を付していないマス目で示す画素はクリア画素である。
 クリア画素とは、カラーフィルタを配置していない画素である。より具体的にはフィルタ部分がクリア(無色)であってカラーフィルタとして機能していない画素か、或いはフィルタ自体が存在しない画素を指す。
 なおクリア画素に対して、カラーフィルタを配置した画素を、カラー画素と呼ぶ。本実施の形態の場合、カラー画素とは、色彩情報取得点90を構成する、カラーフィルタが配置された画素という意味となる。
 図6AのR画素、G画素、B画素はそれぞれカラー画素である。カラー画素は、他の色のフィルタを配置した画素も含む。
 なお図6Bは、R画素、G画素、B画素の3つの画素で一単位の色彩情報取得点90が形成されている例である。このように色彩情報取得点90は、ベイヤー配列の4つの画素により構成されるものに限定されるものではない。色彩情報取得点90を各種の構成例は後述する。
 図5、図6からわかるように、画素アレイ面2Aには、離散的に色彩情報取得点90が形成されている。
 色彩情報取得点90とは、カラーフィルタを任意の配列で配置した最少単位で、カラー情報を取得する機能を持つ。イメージセンサ内で色彩情報取得点90の占める領域をカラーエリア、それ以外の領域の透明フィルタまたはフィルタが配置されていない領域(クリア画素の領域)をクリアエリアと定義する。
 アプリケーションによって色彩情報取得点90の配置場所や数は異なる。バリエーションについては後述する。
 またアプリケーションによってイメージセンサの有効画素領域全体に占めるカラーエリアとクリアエリアの割合も異なる。
 本実施の形態の高感度化と高精細化が効果として現れる割合として、クリアエリアは全体の25%を超える面積で配置される。
 図5の例では、明らかにクリアエリアの割合は全体の25%を越えるものとなっている。図6Aの例で言えば、64画素の内、60画素がクリア画素であるので、クリアエリアは93.75%である。
 図7Aはアレイセンサ2により撮像される被写体画像を示し、図7Bは、これを図5のような色彩情報取得点90の配置状態と重ねて示したものである。
 この場合、被写体としてコーヒーカップと背景の木が写されているが、コーヒーカップの画素範囲に該当するエリアにいくつかの色彩情報取得点90が存在し、また背景の木の画素範囲に該当するエリアにいくつかの色彩情報取得点90が存在することがわかる。
 1つの色彩情報取得点90は、図6A,図6BのようにR画素、G画素、B画素を含んで構成されるため、色彩情報取得点90を構成する画素から得られる色情報として、実際のカップの色や背景の木の色を判定できることになる。
 センサ装置1では、このような色彩情報取得点90を配置したアレイセンサ2を用いるとともに、演算部8では図8のような着色処理を実行する。
 図8のステップS100としてアレイセンサ2から1フレーム単位の画像信号の出力が開始された後において、演算部8で実行される処理を示している。
 なお、アレイセンサ2から得られる1フレームの画像信号は、輝度情報のみの白黒(グレースケール)としての輝度情報画像信号である。但し、色彩情報取得点90については、その部分の実際の色を示す色情報が取得できることになる。
 この図8の演算部8の処理は、ステップS101が主に図1に示したキーフレーム選択部81、物体領域認識部82、クラス識別部83としての各機能により実行される処理であり、ステップS102以降は主に色彩処理部85の機能により実行される処理となる。
 ステップS101で演算部8は物体検出を行う。即ちアレイセンサ2から出力された1フレームの画像について上述したように物体検出し、該当するクラスを判定する。
 ステップS102で演算部8は色推定を行う。即ち物体毎に判定したクラスと、学習データを用いた機械学習の処理により当該物体についての色を推定する。例えば人の顔であれば顔に適した色を機械学習に基づいて推定する。
 ステップS103で演算部8は画像内の各エリア、即ち画像内で検出された物体のエリア毎に、それぞれ機械学習の結果を用いて推定した複数の候補色を設定する。
 例えば図7Aのような画像であれば、コーヒーカップが写されている画素範囲としてのエリアにおいて、いくつかの候補色を設定し、背景が写されている画素範囲としてのエリアにおいて、いくつかの候補色を設定するというようになる。
 ステップS104で演算部8は、画像内の各エリアのうちの1つのエリアを処理対象とし、そのエリア内に色彩情報取得点90が存在するか否かを確認する。例えば図7Bのコーヒーカップに該当する画素範囲としてのエリアに色彩情報取得点90が存在するか否かを確認する。
 処理対象としたエリアに色彩情報取得点90が存在すれば、演算部8はステップS105に進み、当該エリア内に該当する色彩情報取得点90による色情報を確認する。この色情報は、例えばR、G、Bのカラー画素により実際に撮像した色情報となる。そして実際の色情報を参照して、そのエリアの候補色の中で最も近い色の候補色を選定する。
 この場合、候補色の選定だけでなく、候補色とされた色の補正を行うようにしてもよい。
 もし処理対象としたエリアに色彩情報取得点90が存在しなければ、演算部8はステップS106に進み、最も可能性が高い色とされた候補色を選定する。
 またステップS106では、物体検出ができなかったエリアであって候補色が設定できなかったエリアについて、可能性が高い色を選定する処理を行うようにしてもよい。
 ステップS107で演算部8は、画像内の各エリアについて、以上のステップS105又はステップS106の処理を終えたか否かを確認し、まだ未処理のエリアがあれば、ステップS104に戻って、そのエリアについて上記処理を行う。
 なお物体認識ができないエリアについては、輝度値などに基づいて1つのエリアの範囲を決め、そのエリア内については色彩情報取得点90の有無をステップS104で判定する。そして存在する場合はステップS105で色彩情報取得点90による色情報に基づいて色設定を行うようにすればよい。また色彩情報取得点90が存在しなければステップS106で可能性が高い色を推定するという処理を行えば良い。
 全てのエリアについてステップS105又はステップS106の処理を終えたら、演算部8はステップS107からステップS108に進み、カラーレイヤーの生成を行う。
 カラーレイヤーとは、各画素の彩度情報を有する画像レイヤー情報である。即ち演算部8は各エリアについてステップS105,S106で選定した色により、1フレームの各画素の彩度情報を有するカラーレイヤーを生成する。
 ステップS109で演算部8は、アレイセンサ2で得られた輝度情報画像信号について色彩情報取得点90を構成する画素の輝度情報の補正を行う。
 色彩情報取得点90を構成する画素はカラーフィルタが配置されたカラー画素であり、入射光子数がクリア画素に比較して低下している。
 従って輝度情報画像の画素値(画素毎の輝度値)で比較した場合、色彩情報取得点90を構成する画素は周囲のクリア画素に比べて輝度値が低下していることになる。
 そこで1フレームの輝度情報画像信号において、色彩情報取得点90を構成する画素についての輝度値を上昇させるように補正する。これはクリア画素と同等の条件で入射光子数が得られた状態に補正することになる。
 例えばカラーフィルタによる入射光子数のロスが66%であり、本来の輝度値の34%となっているとする場合、その66%のロスが生じていない値となるように輝度値を補正する。
 また周囲のクリア画素の輝度値を用いた補間処理によりカラー画素の輝度値を補正してもよい。
 ステップS110で演算部8は、白黒画像信号に対してカラーレイヤーを合成し、着色処理されたカラー画像を生成する。
 図9に合成のイメージを示す。アレイセンサ2から出力される輝度情報画像を白黒レイヤーとし、これをカラーレイヤーに合成することで、着色画像を得る。
 ステップS111で演算部8は、生成したカラー画像としての画像信号を出力する。例えば演算部8はバッファ4にカラー画像信号を転送する。
 このカラー画像信号はロジック部5で処理されて、メモリ6、インターフェース部7を介してプロセッサ11に送信される。
 このようなカラー画像信号は、単に機械学習に基づいて輝度情報画像を着色したものではなく、色彩情報取得点90で得られる実際の色を確認し、それを反映した色を選定して着色処理したものとなるため、極めて色再現性が優れたものとなる。
<4.色彩情報取得点の配置及び構成>
 以下では、色彩情報取得点90の配置例や構成のバリエーションについて説明する。
 色彩情報取得点90の配置例として図5には、画素アレイ面2A内で一定間隔で配置する例を示したが、色彩情報取得点90の配置は、アプリケーションに応じて、即ちセンサ装置の用途、使用目的、カラー画像要求精度などに応じて設定されることが望ましい。
 また、一単位の色彩情報取得点90の構成も多様である。
 図10には色彩情報取得点90が非一定間隔で配置された一例を示している。
 またこの例では、一単位の色彩情報取得点90は、図6Bに示したようにR画素、G画素、B画素の隣接した3つの画素で構成されるものとした。
 いずれにしても、色彩情報取得点90の配置や構成は、色彩情報取得点90を形成する画素を有しながら、クリアエリアの総面積は、アレイセンサ2の全有効画素の総面積のうちの25%を超えるものとしつつ、アプリケーションに応じた配置となるようにすることが望ましい。
 また色彩情報取得点90の配置や構成は、アレイセンサ2の画素アレイ面2A上で離散的に配置されることが望ましい。
 各種の例を挙げていく。
 図11は、センサ装置1が住宅の玄関等に取り付けられるドアカメラに用いられることを想定した例である。
 図は模式的に画素アレイ面2Aにおいて色彩情報取得点90を構成するカラー画素の位置を示している。ここでは例えば図6Aのように4画素で一単位の色彩情報取得点90が形成されるとしている。
 なお、あくまで説明のための模式図であるため、4画素による色彩情報取得点90を拡大して示している。実際の一単位の色彩情報取得点90の面積は、図示する面積よりもはるかに小さいことが想定される。
 ドアカメラの場合、顔の画像が重要となる。室内の人にとって訪問者等の顔が色を含めて正確に得られることが求められる。またセキュリティゲートなどの顔認証のためのカメラを考えると、顔認識/照合のために、同様に顔の部分の画像が重要である。
 そこでそのような用途の場合、図示のように、顔が写る中央部分に重点的に色彩情報取得点90を配置することが考えられる。
 図12は車載用カメラを想定している。車載用カメラとして5台のカメラを搭載しているとする。図では、前方中央を撮像するカメラのセンサ装置1の画素アレイ面2A1、前方を広い視野で撮像するカメラのセンサ装置1の画素アレイ面2A2、左側方を撮像するカメラのセンサ装置1の画素アレイ面2A3、右側方を撮像するカメラのセンサ装置1の画素アレイ面2A4、後方カメラのセンサ装置1の画素アレイ面2A5を示している。
 前方中央を撮像するカメラのセンサ装置1の画素アレイ面2A1では、中央に集中して色彩情報取得点90を配置し、進行方向の物体の色再現機能を強化している。
 前方を広い視野で撮像するカメラのセンサ装置1の画素アレイ面2A2では、垂直方向の数本のライン状に色彩情報取得点90を配置し、左右方向から接近する物体について色再現機能を強化している。
 左右方向の画素アレイ面2A3、2A4では垂直方向の数本のライン状に色彩情報取得点90を配置し、左側や右側で走行する物体や通過する物体について色再現機能を強化している。
 後方カメラのセンサ装置1の画素アレイ面2A5では、全体的に色彩情報取得点90を配置し、全体の色再現機能を広く維持できるようにしている。
 以上の図11、図12の例のようにアプリケーションに応じて、配置する位置や密度を設定することで、目的に適った色再現性を実現できる。
 このように色彩情報取得点90は、一定間隔で配置する例や、非一定間隔で配置する例があり、さらにそれぞれアプリケーションに応じて多様な配置が考えられる。
 例えば色彩情報取得点90を一定間隔で配置する場合、その配置間隔はアプリケーションに応じて多様に考えられる。図13,図14,図15は、間隔が異なることで色彩情報取得点90の密度が異なる例を示している。
 図13Aは、いわゆる4K、8Kなどの大判イメージセンサを採用するカメラの場合や、遠景を写すカメラ、監視カメラ等に用いられるセンサ装置1を想定し、色彩情報取得点90を高い密度で配置した例である。
 例えば図13Bは監視カメラの画像を例示しているが、このような場合、対象となる人が小さく写り、色も多様であることから、色彩情報取得点90を高密度で配置することが望ましい。
 図14Aは、一般的な民生用カメラ等に用いられるセンサ装置1を想定し、色彩情報取得点90を中程度の密度で配置した例である。
 図14Bは一般的な風景の画像を例示しているが、上記の監視カメラ等と比較すると、同等の密度である必要はあまりない。そこである程度の色再現性が確保できる程度の密度で色彩情報取得点90を配置する。
 図15Aは、ウエブカメラ等に用いられるセンサ装置1を想定し、色彩情報取得点90を低密度で配置した例である。
 図15Bはウエブカメラで撮像される画像を例示している。ウエブカメラでそれほどの色再現性を求められないような用途の場合、必要最低限の色再現性が確保できる低密度で色彩情報取得点90を配置することが考えられる。
 また色彩情報取得点90を非一定間隔で配置する場合、その配置例は例えば図16,図17,図18のように各種考えられる。
 図16は中央集中型の配置例を示し、上述のドアカメラなどに好適である。
 図17は拡散型の配置例を示し、例えば車載カメラの正面方向のカメラなどに適用できる。
 図18はライン型の配置例を示し、例えば車載カメラの横方向のカメラなどに適用できる。
 次に色彩情報取得点90の構成について各種の例を挙げる。
 まず一単位の色彩情報取得点90が複数画素で形成される例を示す。
 図19Aは、一単位の色彩情報取得点90を、ベイヤー配列の4つの画素(R画素、G画素、B画素、G画素)で形成した例である。
 図19Bは、一単位の色彩情報取得点90を、隣接する16個の画素で形成した例である。この場合、4つのR画素、4つのG画素、4つのB画素、4つのG画素で色彩情報取得点90を形成している。
 図19Cは、一単位の色彩情報取得点90を、隣接する3つの画素(R画素、G画素、B画素)で形成した例である。
 図19Dは、一単位の色彩情報取得点90を、隣接する12個の画素で形成した例である。この場合、3つのR画素、3つのG画素、3つのB画素、3つのG画素で色彩情報取得点90を形成している。斜線を付していないクリア画素は、色彩情報取得点90に含まないと考えればよい。
 図19Eは、一単位の色彩情報取得点90を垂直方向に隣接して並ぶ3つの画素(R画素、G画素、B画素)で形成した例である。
 図19Fは、一単位の色彩情報取得点90を水平方向に隣接して並ぶ3つの画素(R画素、G画素、B画素)で形成した例である。
 図19Gは、一単位の色彩情報取得点90を水平方向に隣接して並ぶ9つの画素(R画素、G画素、B画素、R画素、G画素、B画素、R画素、G画素、B画素)で形成した例である。
 図20B、図20C、図20Dは、例えば図20Aのベイヤー配列の4つの画素(R画素、G画素、B画素、G画素)を基本として、一単位の色彩情報取得点90の面積を拡大した例を示している。
 図20Bは、ベイヤー配列の4つの画素のグループを水平垂直方向に4個隣接させて、一単位の色彩情報取得点90を形成する例である。
 図20Cは、ベイヤー配列の4つの画素のグループを水平垂直方向に9個隣接させて、一単位の色彩情報取得点90を形成する例である。
 図20Dは、ベイヤー配列の4つの画素のグループを水平垂直方向に16個隣接させて、一単位の色彩情報取得点90を形成する例である。
 また、一単位の色彩情報取得点90は、必ずしもR画素、G画素、B画素の全てを含むものでなくてもよい。
 図21Aは、斜め方向に隣接する2個のG画素で一単位の色彩情報取得点90が形成される例である。
 図21Bは、斜め方向に隣接する8個のG画素で一単位の色彩情報取得点90が形成される例である。
 なおもちろん、図21A、図21Bの例で、B画素、或いはR画素を用いる例も考えられる。
 図21CはR画素、G画素、B画素に加えて他の色の画素を含む例である。
 なお、他の色の画素とは入射光路に当該他の色の光を透過するカラーフィルタが配置された画素である。ここではY(イエロー)画素を例としている。
 図のようにR画素、G画素、B画素、Y画素の4画素で一単位の色彩情報取得点90が形成される。
 図21Dは、図21Cの構造の画素グループを4つ隣接させ、16個のカラー画素で一単位の色彩情報取得点90を形成した例である。
 ここではY画素を例に挙げたが、他の色の画素としてはマゼンタ画素、シアン画素など、他の色の画素を用いてもよい。
 また他の色としてY画素とマゼンタ画素など2種類以上の色の画素を用いてもよい。
 またR画素、G画素、B画素の全てを含まなくてもよい。例えばR画素、G画素、Y画素で一単位の色彩情報取得点90が構成される例や、B画素とY画素で一単位の色彩情報取得点90が構成される例なども考えられる。
 色彩情報取得点90に用いるカラー画素の色の組み合わせは、センサ装置1の用途、目的等に応じて決定されればよい。例えば再現性を確保したい色が特定の色である場合は、その色に合わせて色彩情報取得点90の構造を決めれば良い。
 ここまで一単位の色彩情報取得点90が複数の画素で構成される例を示したが、一単位の色彩情報取得点90が1つの画素で構成されてもよい。
 図22Aは、色彩情報取得点90が1つのR画素で構成される例を示している。
 この場合、画素アレイ面2Aにおいて、図22Bのように1画素による色彩情報取得点90が離散的に配置される。
 もちろん色彩情報取得点90は、G画素で構成することや、B画素で構成することも有り得る。
 また1つの画素による色彩情報取得点90として、図22Cに示すように、各色の画素を配置してもよい。即ちR画素による色彩情報取得点90、G画素による色彩情報取得点90、B画素による色彩情報取得点90を、それぞれ離散的に配置する。
 以上の各例のように、色彩情報取得点90の配置例や、色彩情報取得点90の構成例は多様であり、例示した以外にも各種考えられる。
<5.センサ装置の他の構成例>
 センサ装置1の構成例としては、図1に限らず他の例が考えられる。
 図23は、端末装置100として、センサ装置1とは別体に演算部8が設けられている構成例である。なお端末装置100としては、情報処理端末、撮像装置端末等、各種が考えられる。
 演算部8は、センサ装置1とは別チップとされて端末装置100内に設けられ、センサ装置1とインターフェース部7を介して通信可能とされる。
 そして演算部8は色彩処理部85としてのDNNエンジンを備えることで、上記図1の場合と同様の処理を行うことができる。
 図24の構成例は、色彩処理部85としてのDNNエンジンを、センサ装置1や演算部8とは独立したプロセッサ等により形成される場合の例である。
 例えば端末装置100として、センサ装置1(演算部8を含む)、プロセッサ11、外部センサ12、及び色彩処理部85を有する構成である。
 この場合も色彩処理部85は、センサ装置1とはインターフェース部7を介して通信可能とされ、演算部8と連携して上記図1の構成の場合と同様の処理を行うことができる。
 さらに図示は省略するが、図23のようにセンサ装置1と演算部8が別体の構成において、さらに色彩処理部85が別体のプロセッサなどにより構成されてもよい。
 なお、キーフレーム選択部81、物体領域認識部82、クラス識別部83、パラメータ選択部84などについても、色彩処理部85と同様に、センサ装置1の外、或いは演算部8の外に配置される構成とすることも考えられる。この点は図1の構成の変形例としても適用できる。
<6.まとめ及び変形例>
 以上の実施の形態では、次のような効果が得られる。
 実施の形態のセンサ装置1は、複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、カラーフィルタ配置画素によって色彩情報取得点90が形成されたアレイセンサ2と、演算部8を備える。
 そして演算部8は、色彩情報取得点90を有するアレイセンサ2を用いた撮像により得られた画像について物体検出を行い、検出した物体の画素範囲内に該当する色彩情報取得点90で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う画像処理方法を実行する。
 この場合、アレイセンサ2としては、色彩情報取得点90とされた画素以外は、カラーフィルタが設けられていないクリア画素であるため、入射光子ロスを減らし、入射光子数を増加させることができ、イメージセンサ全体として大幅な感度向上を実現できる。
 また、一般にカラーイメージセンサの場合は、白黒のイメージセンサに比較して解像度が下がる(例えばベイヤー配列の場合1/4に下がる)が、アレイセンサ2の各画素は白黒画素として輝度検出に用いられ、演算部8の処理で着色するものであるため、カラー画素による解像度低下は生じない。つまりカラー画像を出力するイメージセンサとして、高解像度化、高精細化を実現できる。
 また、一般にカラーイメージセンサの場合は偽色や色モアレが発生し、その対処のためにローパスフィルタ処理を行う場合があるが、本実施の形態の場合、そのような問題も発生しないため、ローパスフィルタ処理による解像度低下も発生しない。
 その上で着色処理は、物体検出を行って、物体の画素範囲に該当する色彩情報取得点90の色情報を用いて行う。この場合、現実の色情報を参照することになるため、画像内で検出した物体について再現性の高い着色処理を行うことができる。
 実施の形態では、演算部8は、アレイセンサ2で得られた画像内で検出した物体について学習データに基づく色推定処理を行うことで機械学習に基づく着色が可能である。但し、機械学習による色推定では複数の候補が作成される。また学習データ内容や或いは図4で例示したような色が特定しにくいデザインの物体などでは、再現性に限界が生ずる。そこで色彩情報取得点90による実際の色情報を参照し、機械学習で得られた候補色のうちで実際の色に近い候補色を選定する。これにより機械学習に基づく再現性の高い着色に加えて機械学習による着色の限界をカバーするような着色処理が可能となり、結果として、極めて再現性の高いカラー画像を生成することができる。
 つまり、本実施の形態では、高感度、高解像度でかつ再現性の高いカラー画像を生成できる。
 実施の形態では、色彩情報取得点90から得られた色情報に基づいて選定した候補色に基づいてカラーレイヤーを生成し、カラーレイヤーを前記アレイセンサから得られた輝度情報画像と合成するこことでカラー画像を生成する(図8、図9参照)。
 これによりアレイセンサ2で得られる輝度情報、即ち白黒画像について機械学習及び色彩情報取得点90の情報を用いた着色を反映させることができる。
 実施の形態では、アレイセンサ2から得られる輝度情報画像に対して輝度補正を行う例を挙げた(図8のステップS109)。
 色彩情報取得点90の画素は、カラーフィルタを介しているため、クリア画素に比べて入射光子ロスが大きく、輝度が低下していることになる。すると、白黒レイヤーを構成する輝度情報画像では、色彩情報取得点90の画素の輝度が通常画素よりも低いことになってしまい、画像全体として輝度の不均一性が生ずる。そこで色彩情報取得点90の画素の輝度値を、カラーフィルタでロスする分だけ上昇させるように補正する。これにより白黒レイヤーの画像品質を向上させ、ひいては着色後のカラー画像の品質も向上させることになる。
 この場合、色彩情報取得点90の画素の輝度補正を、周囲の画素の輝度情報から補間することなどで、より正確に実現できるようにもなる。
 実施の形態では、アレイセンサ2において、色彩情報取得点90を形成しない画素の総面積は、前記アレイセンサ上の全有効画素の総面積のうちの25%を超えるものとした。
 即ちクリア画素によるクリアエリアの総面積とカラー画素によるカラーエリアの総面積を比較したときに、
 (クリアエリア総面積)/(クリアエリア総面積+カラーエリア総面積)
 が0.25を超えるものとしている。
 また全ての画素が同面積であれば、
 (クリア画素数)/(クリア画素数+カラー画素数)
 が0.25を超えるものとしている。
 クリアエリアは高感度化、高精細化のために設けられるものであり、クリアエリア面積とカラーエリア面積の比率をこのようにすることは、上述した高感度化、高精細化の効果を良好に発揮させるものとなる。
 なお、高感度化、高精細化を重視する場合は、望ましくはクリアエリア面積が全有効画素の総面積の50%を超えるものとしたり、75%を超えるものとしたりするとよい。
 例えばクリアエリア面積が75%を超えるものとする場合、クリア画素が支配的であり、色彩情報取得点90を構成するカラー画素は少数であることになる。このようにクリア画素が支配的となる画素配置を実現すると、入射光子ロスの削減に極めて有効で、上述した高感度化、高精細化の効果がより良好に現れる。
 実施の形態では、アレイセンサ2において、色彩情報取得点90は離散的に配置されているものとした。
 即ち一単位の色彩情報取得点90は、連続しておらず、2次元に配置された画素アレイ上で離散的に配置されている(図6、図10、図13から図18参照)。
 色彩情報取得点90を離散的に配置することで、色彩情報取得点90の数をなるべく多くせずに、画像内の各部について実際の色情報を取得できるようにすることができる。
 従って画像内の各所で検出された物体について、それぞれ実際の色情報を参照して再現性の高い着色処理が可能となる。
 なお画素が1次元に配置される場合も、離散的に配置することが想定される。
 実施の形態では、アレイセンサ2において、色彩情報取得点90は一定間隔で配置されているものとした(図13、図14、図15参照)。
 色彩情報取得点90を一定間隔で配置することで、画像内でまんべんなく各部の実際の色情報を取得できるようになる。
 また要求される画像品質や、センサ装置1の使用目的などに応じて、一定間隔の密度を設定することで、使用目的等に基づく要求精度に応じた画像撮像、即ちアプリケーションに応じた画像撮像及びカラー画像生成が可能となる。例えば図13、図14、図15では、色彩情報取得点90の密度が異なる例を示したが、これらは使用目的、要求精度に応じた色彩情報取得点90の配置例となる。
 特に感度上昇、高解像度化の点では、カラーフィルタが配置されたカラー画素の数は、少ないほどよい。一方で色彩情報取得点90は多く配置した方が、色再現には有利となる。そこで、色彩情報取得点90の配置は、使用目的、要求精度に応じてできるだけ少なくしつつ、色再現のために必要な数を確保するという考え方で、配置密度を設定することが望ましい。
 なお、色彩情報取得点90を一定間隔で配置する場合、水平方向及び垂直方向ともに同じ間隔で配置してもよいが、水平方向に第1の一定間隔で配置し、垂直方向に第2の一定間隔で配置するというように、水平垂直方向で配置間隔を異なるようにしてもよい。
 また画素が1次元に配置される場合も、配列方向に一定間隔で色彩情報取得点90を配置することが想定される。
 実施の形態では、アレイセンサ2において、色彩情報取得点90は非一定間隔で配置されているものとした(図10、図11、図12、図16、図17、図18参照)。
 色彩情報取得点90を非一定間隔で配置することで、撮像目的に応じた画像内での重要度を考慮して実際の色情報を取得できるようになる。
 センサ装置1が用いられる状況、即ち監視カメラ、車載カメラ、ウエブカメラなどのアプリケーションの違いにより、画像内での重要度の要求は異なる。そこで重要度の要求に合致するように色彩情報取得点90を配置することで、アプリケーションに応じた画像撮像及びカラー画像生成が可能となる。例えば図10、図11、図12、図16、図17、図18では、色彩情報取得点90が非一定間隔とされた配置例を示したが、これらは使用目的に適した色彩情報取得点90の配置例となる。
 上述のように感度上昇、高解像度化の点では、カラーフィルタが配置されたカラー画素の数は少ないほどよいが、色彩情報取得点90は多く配置した方が、色再現には有利となる。そこで、使用目的に応じて重要なエリアに高い密度で色彩情報取得点90を配置することで、より望ましいカラー画像生成ができることになる。
 なお画素が1次元に配置される場合も、配列方向に非一定間隔で色彩情報取得点90を配置することが想定される。
 実施の形態では、アレイセンサ2において、色彩情報取得点90の一単位は、隣接した複数画素で構成される例を挙げた(図19、図20、図21参照)。これらの図では、色彩情報取得点90の一単位は、アレイセンサ2において垂直方向、水平方向、又は斜め方向に隣接した2以上の画素で構成されている。複数画素で構成することで、色情報をより正確に取得できる可能性を高めることができる。
 実施の形態では、アレイセンサ2において、色彩情報取得点90の一単位は、隣接した複数画素で構成され、R画素、G画素、B画素を含む例を挙げた(図19、図20参照)。これらの図では、色彩情報取得点90の一単位において三原色の画素が含まれることで、一単位の色彩情報取得点90で多様な色情報を得ることができる。これにより色情報をより正確に取得できる可能性を高めることができる。
 実施の形態では、アレイセンサ2において、色彩情報取得点90の一単位は、隣接した複数画素で構成され、R画素、G画素、B画素、他の色の画素(例えばY画素)を含む例を挙げた(図21C、図21D参照)。
 この場合も、一単位の色彩情報取得点90で多様な色情報を得ることができる。特に特定の色の物体を検出したい要求がある場合には、その物体の検出に適した色の画素を配置することで、検出精度を向上させることができる。
 なお他の色の画素はイエローに限られない。例えばシアン、マゼンタなど各種の色が想定される。さらに他の色として2種類以上の色の画素が設けられても良い。
 実施の形態では、色彩情報取得点90の一単位は1つの画素で構成され、アレイセンサ2において色彩情報取得点90は離散的に配置されている例を挙げた(図22参照)。
 このように或る1つの色情報を得るための色彩情報取得点90を配置することでも、センサ装置1の撮像目的によっては、十分な色再現を行うことができる。
 図22Bのように全ての色彩情報取得点90を同じ色の画素とすることで、特定の色の物体検出の目的には適したものとなる。
 図22Cのように、それぞれの色彩情報取得点90で異なる色の画素とすることで、画像内の各部で多様な色検出ができる。
 そしてこれらのように一単位の色彩情報取得点90を1画素で形成することで、カラーフィルタによる入射光子数の低下画素をより離散的にできる。
 実施の形態のセンサ装置1は、複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、カラーフィルタ配置画素によって色彩情報取得点90が形成されており、色彩情報取得点90を形成しない画素の総面積は、前記アレイセンサ上の全有効画素の総面積のうちの25%を超えるアレイセンサ2を有するものとした。
 色彩情報取得点90を構成するクリアエリア面積が25%を超えるようにすることで、クリア画素による入射光子ロスの削減に有効になる。
 そのうえで色彩情報取得点90を配置することで、センサ装置1内の演算部8、もしくはセンサ装置1外のプロセッサ11等での着色処理の再現性向上を実現させることができる。
 実施の形態のセンサ装置1は、複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、カラーフィルタ配置画素によって色彩情報取得点90が形成されており、色彩情報取得点90が離散的に配置されているアレイセンサ2を有するものとした。
 色彩情報取得点90を離散的に配置することで、色彩情報取得点90の数をなるべく多くせずに、画像内の各部について実際の色情報を取得できるようにすることができる。従ってセンサ装置1内の演算部8、もしくはセンサ装置1外のプロセッサ11等での着色処理の再現性向上を実現させることができる。
 本開示の技術は実施の形態の構成例に限らず各種の変形例が想定される。
 センサ装置1の構成は図1、図23、図24に例示したものに限られない。
 アレイセンサ2は可視光を受光する画素に限られず、非可視光の撮像素子が複数もうけられるものでもよい。
 色彩情報取得点90の配置や構成は例示したものに限らず、さらに多様な例が考えられる。少なくとも一部の画素が用いられて色彩情報取得点90が構成されればよい。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されたアレイセンサを用いた撮像により得られた画像について物体検出を行い、
 検出した物体の画素範囲内に該当する前記色彩情報取得点で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う
 画像処理方法。
 (2)
 前記着色処理では、
 検出した物体について学習データに基づく色推定処理により候補色を設定し、
 前記色彩情報取得点から得られた色情報に基づいて候補色の選定を行って、検出した物体の画素範囲の着色を行う
 上記(1)に記載の画像処理方法。
 (3)
 複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されたアレイセンサと、
 前記アレイセンサでの撮像により得られた画像について物体検出を行い、検出した物体の画素範囲内に該当する前記色彩情報取得点で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う演算部と、を備えた
 センサ装置。
 (4)
 前記演算部は、
 検出した物体について学習データに基づく色推定処理により候補色を設定し、前記色彩情報取得点から得られた色情報に基づいて候補色の選定を行って、検出した物体の画素範囲の着色処理を行う
 上記(3)に記載のセンサ装置。
 (5)
 前記演算部は、
 前記色彩情報取得点から得られた色情報に基づいて選定した候補色に基づいてカラーレイヤーを生成し、カラーレイヤーを前記アレイセンサから得られた輝度情報画像と合成するこことでカラー画像を生成する
 上記(4)に記載のセンサ装置。
 (6)
 前記演算部は、
 前記アレイセンサから得られる輝度情報画像に対して、前記色彩情報取得点に該当する画素の輝度補正を行ったうえで、輝度情報画像とカラーレイヤーの合成を行う
 上記(5)に記載のセンサ装置。
 (7)
 前記色彩情報取得点を形成しない画素の総面積は、前記アレイセンサ上の全有効画素の総面積のうちの25%を超える
 上記(3)から(6)のいずれかに記載のセンサ装置。
 (8)
 前記アレイセンサにおいて、前記色彩情報取得点は離散的に配置されている
 上記(3)から(7)のいずれかに記載のセンサ装置。
 (9)
 前記アレイセンサにおいて、前記色彩情報取得点は一定間隔で配置されている
 上記(3)から(8)のいずれかに記載のセンサ装置。
 (10)
 前記アレイセンサにおいて、前記色彩情報取得点は非一定間隔で配置されている
 上記(3)から(8)のいずれかに記載のセンサ装置。
 (11)
 前記色彩情報取得点の一単位は、隣接した複数画素で構成される
 上記(3)から(10)のいずれかに記載のセンサ装置。
 (12)
 前記色彩情報取得点の一単位は、隣接した複数画素で構成されるとともに、R画素、G画素、B画素を含む
 上記(3)から(11)のいずれかに記載のセンサ装置。
 (13)
 前記色彩情報取得点の一単位は、隣接した複数画素で構成されるとともに、R画素、G画素、B画素、及び他の色の画素を含む
 上記(3)から(12)のいずれかに記載のセンサ装置。
 (14)
 前記色彩情報取得点の一単位は1つの画素で構成され、前記アレイセンサにおいて前記色彩情報取得点は離散的に配置されている
 上記(3)から(10)のいずれかに記載のセンサ装置。
 (15)
 複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されており、前記色彩情報取得点を形成しない画素の総面積は、アレイセンサ上の全有効画素の総面積のうちの25%を超えるアレイセンサを有する
 センサ装置。
 (16)
 複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されており、前記色彩情報取得点が離散的に配置されているアレイセンサを有する
 センサ装置。
1 センサ装置
2 アレイセンサ
3 ADC/ピクセルセレクタ
4 バッファ
5 ロジック部
6 メモリ
7 インターフェース部
8 演算部
11 プロセッサ
12 外部センサ
30 信号処理部
81 キーフレーム選択部
82 物体領域認識部
83 クラス識別部
84 パラメータ選択部
85 色彩処理部
90 色彩情報検知点
100 端末装置

Claims (16)

  1.  複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されたアレイセンサを用いた撮像により得られた画像について物体検出を行い、
     検出した物体の画素範囲内に該当する前記色彩情報取得点で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う
     画像処理方法。
  2.  前記着色処理では、
     検出した物体について学習データに基づく色推定処理により候補色を設定し、
     前記色彩情報取得点から得られた色情報に基づいて候補色の選定を行って、検出した物体の画素範囲の着色を行う
     請求項1に記載の画像処理方法。
  3.  複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されたアレイセンサと、
     前記アレイセンサでの撮像により得られた画像について物体検出を行い、検出した物体の画素範囲内に該当する前記色彩情報取得点で得られる色情報を参照して、検出した物体の画素範囲の着色処理を行う演算部と、を備えた
     センサ装置。
  4.  前記演算部は、
     検出した物体について学習データに基づく色推定処理により候補色を設定し、前記色彩情報取得点から得られた色情報に基づいて候補色の選定を行って、検出した物体の画素範囲の着色処理を行う
     請求項3に記載のセンサ装置。
  5.  前記演算部は、
     前記色彩情報取得点から得られた色情報に基づいて選定した候補色に基づいてカラーレイヤーを生成し、カラーレイヤーを前記アレイセンサから得られた輝度情報画像と合成するこことでカラー画像を生成する
     請求項4に記載のセンサ装置。
  6.  前記演算部は、
     前記アレイセンサから得られる輝度情報画像に対して、前記色彩情報取得点に該当する画素の輝度補正を行ったうえで、輝度情報画像とカラーレイヤーの合成を行う
     請求項5に記載のセンサ装置。
  7.  前記色彩情報取得点を形成しない画素の総面積は、前記アレイセンサ上の全有効画素の総面積のうちの25%を超える
     請求項3に記載のセンサ装置。
  8.  前記アレイセンサにおいて、前記色彩情報取得点は離散的に配置されている
     請求項3に記載のセンサ装置。
  9.  前記アレイセンサにおいて、前記色彩情報取得点は一定間隔で配置されている
     請求項3に記載のセンサ装置。
  10.  前記アレイセンサにおいて、前記色彩情報取得点は非一定間隔で配置されている
     請求項3に記載のセンサ装置。
  11.  前記色彩情報取得点の一単位は、隣接した複数画素で構成される
     請求項3に記載のセンサ装置。
  12.  前記色彩情報取得点の一単位は、隣接した複数画素で構成されるとともに、R画素、G画素、B画素を含む
     請求項3に記載のセンサ装置。
  13.  前記色彩情報取得点の一単位は、隣接した複数画素で構成されるとともに、R画素、G画素、B画素、及び他の色の画素を含む
     請求項3に記載のセンサ装置。
  14.  前記色彩情報取得点の一単位は1つの画素で構成され、前記アレイセンサにおいて前記色彩情報取得点は離散的に配置されている
     請求項3に記載のセンサ装置。
  15.  複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されており、前記色彩情報取得点を形成しない画素の総面積は、アレイセンサ上の全有効画素の総面積のうちの25%を超えるアレイセンサを有する
     センサ装置。
  16.  複数の撮像素子が1次元または2次元に配列されるとともに、撮像素子の一部は入射光路にカラーフィルタが配置されたカラーフィルタ配置画素とされ、前記カラーフィルタ配置画素によって色彩情報取得点が形成されており、前記色彩情報取得点が離散的に配置されているアレイセンサを有する
     センサ装置。
PCT/JP2020/048890 2020-02-19 2020-12-25 画像処理方法、センサ装置 WO2021166450A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US17/793,034 US20230037953A1 (en) 2020-02-19 2020-12-25 Image processing method and sensor device
EP20919933.0A EP4109895A4 (en) 2020-02-19 2020-12-25 IMAGE PROCESSING METHOD AND SENSING DEVICE
KR1020227026583A KR20220143013A (ko) 2020-02-19 2020-12-25 화상 처리 방법, 센서 장치
JP2022501672A JPWO2021166450A1 (ja) 2020-02-19 2020-12-25
CN202080095191.8A CN115039403B (zh) 2020-02-19 2020-12-25 图像处理方法和传感器装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020025952 2020-02-19
JP2020-025952 2020-02-19

Publications (1)

Publication Number Publication Date
WO2021166450A1 true WO2021166450A1 (ja) 2021-08-26

Family

ID=77390645

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/048890 WO2021166450A1 (ja) 2020-02-19 2020-12-25 画像処理方法、センサ装置

Country Status (7)

Country Link
US (1) US20230037953A1 (ja)
EP (1) EP4109895A4 (ja)
JP (1) JPWO2021166450A1 (ja)
KR (1) KR20220143013A (ja)
CN (1) CN115039403B (ja)
TW (1) TW202135522A (ja)
WO (1) WO2021166450A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116977197A (zh) * 2023-04-11 2023-10-31 北京仁光科技有限公司 用于对rgb数据进行处理的方法、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011199798A (ja) * 2010-03-24 2011-10-06 Sony Corp 物理情報取得装置、固体撮像装置、物理情報取得方法
JP2014515587A (ja) * 2011-06-01 2014-06-30 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー デジタル画像装置用の画像処理パイプラインの学習
JP2015050494A (ja) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 撮像装置
JP2015106791A (ja) * 2013-11-29 2015-06-08 株式会社ニコン 撮像装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339026A (ja) * 1993-05-31 1994-12-06 Matsushita Electric Ind Co Ltd 補正データ生成装置
US6721446B1 (en) * 1999-04-26 2004-04-13 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
US8274715B2 (en) * 2005-07-28 2012-09-25 Omnivision Technologies, Inc. Processing color and panchromatic pixels
US7978240B2 (en) * 2005-10-03 2011-07-12 Konica Minolta Photo Imaging, Inc. Enhancing image quality imaging unit and image sensor
JP5033711B2 (ja) * 2007-06-13 2012-09-26 富士フイルム株式会社 撮像装置及び撮像装置の駆動方法
KR20090120159A (ko) * 2008-05-19 2009-11-24 삼성전자주식회사 영상합성장치 및 영상합성방법
CN102090067B (zh) * 2008-08-04 2013-03-20 松下电器产业株式会社 摄像装置、图像处理方法、图像处理程序及半导体集成电路
JP5476716B2 (ja) * 2009-01-08 2014-04-23 ソニー株式会社 撮像素子および撮像装置
DE102010003668B4 (de) * 2010-04-07 2020-03-26 Robert Bosch Gmbh Farbmaske für einen Bildsensor einer Fahrzeugkamera
WO2012120705A1 (ja) * 2011-03-09 2012-09-13 富士フイルム株式会社 カラー撮像素子
JP5528627B2 (ja) * 2011-07-13 2014-06-25 富士フイルム株式会社 撮像装置、撮像素子及び感度差補正方法
JP5900194B2 (ja) * 2012-07-02 2016-04-06 ソニー株式会社 信号処理装置、信号処理方法、プログラム、固体撮像素子、および電子機器
US9179110B2 (en) * 2012-11-02 2015-11-03 Semiconductor Components Industries, Llc Imaging systems with modified clear image pixels
JP5884847B2 (ja) * 2014-03-12 2016-03-15 ソニー株式会社 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
CN104468578B (zh) * 2014-12-10 2017-12-26 怀效宁 一种无线通讯的优先通讯系统和通讯方法
US9432568B2 (en) * 2014-06-30 2016-08-30 Semiconductor Components Industries, Llc Pixel arrangements for image sensors with phase detection pixels
KR102286136B1 (ko) * 2014-12-01 2021-08-06 에스케이하이닉스 주식회사 컬러 필터 어레이, 이를 포함하는 이미지 센서 및 이를 이용한 적외선 정보 획득 방법
WO2016103430A1 (ja) * 2014-12-25 2016-06-30 キヤノン株式会社 ラインセンサ、画像読取装置、画像形成装置
US9986213B2 (en) * 2016-06-29 2018-05-29 Omnivision Technologies, Inc. Image sensor with big and small pixels and method of manufacture
US10346710B2 (en) * 2016-09-29 2019-07-09 Datacolor Inc. Multi-agent training of a color identification neural network
US20180188427A1 (en) * 2016-12-29 2018-07-05 Uber Technologies, Inc. Color Filter Array for Image Capture Device
KR102395992B1 (ko) * 2017-04-07 2022-05-10 삼성전자주식회사 광대역 컬러 필터를 포함하는 이미지 센서
US10510787B2 (en) * 2017-10-19 2019-12-17 Semiconductor Components Industries, Llc Structures and methods of creating clear pixels
CN107895028B (zh) * 2017-11-17 2019-11-29 天津大学 采用深度学习的草图检索方法
KR102507474B1 (ko) 2018-01-09 2023-03-10 삼성전자주식회사 이미지 센서

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011199798A (ja) * 2010-03-24 2011-10-06 Sony Corp 物理情報取得装置、固体撮像装置、物理情報取得方法
JP2014515587A (ja) * 2011-06-01 2014-06-30 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー デジタル画像装置用の画像処理パイプラインの学習
JP2015050494A (ja) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 撮像装置
JP2015106791A (ja) * 2013-11-29 2015-06-08 株式会社ニコン 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4109895A4 *

Also Published As

Publication number Publication date
TW202135522A (zh) 2021-09-16
KR20220143013A (ko) 2022-10-24
EP4109895A4 (en) 2023-07-26
US20230037953A1 (en) 2023-02-09
CN115039403B (zh) 2024-04-12
JPWO2021166450A1 (ja) 2021-08-26
EP4109895A1 (en) 2022-12-28
CN115039403A (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
US9582863B2 (en) Image processing apparatus, image processing method, and program
US9025871B2 (en) Image processing apparatus and method of providing high sensitive color images
TWI669963B (zh) 雙模式影像擷取裝置
US6493029B1 (en) Image restoration method and associated apparatus
CN106161890B (zh) 成像装置、成像系统以及信号处理方法
CN105592270B (zh) 图像亮度补偿方法、装置及终端设备
CN104247409B (zh) 图像处理装置、图像处理方法以及程序
KR102286136B1 (ko) 컬러 필터 어레이, 이를 포함하는 이미지 센서 및 이를 이용한 적외선 정보 획득 방법
US20070159542A1 (en) Color filter array with neutral elements and color image formation
TWI737979B (zh) 圖像去馬賽克裝置及方法
CN110880163B (zh) 一种基于深度学习的弱光彩色成像方法
CN105578067B (zh) 图像生成方法、装置及终端设备
US20140340553A1 (en) High dynamic range image sensor with full resolution recovery
US20240119867A1 (en) Sensor device and encryption method
KR20210018136A (ko) 영상 처리 방법 및 장치
CN105430363A (zh) 成像方法、成像装置及电子装置
WO2021166450A1 (ja) 画像処理方法、センサ装置
WO2011076974A1 (en) Pixel information reproduction using neural networks
WO2020080139A1 (ja) センサ装置、パラメータ設定方法
CN114173066A (zh) 成像系统和方法
US5821999A (en) Method and system for fractally interpolating intensity values for a single color component array obtained from a single color sensor
CN116309116A (zh) 一种基于raw图像的低弱光图像增强方法与装置
KR20220155840A (ko) 관심 영역의 심도 정보를 생성하는 전자 장치 및 이의 동작 방법
US20130128083A1 (en) High dynamic range image sensing device and image sensing method and manufacturing method thereof
US8223231B2 (en) Imaging apparatus and image processing program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20919933

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022501672

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020919933

Country of ref document: EP

Effective date: 20220919