WO2018012050A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2018012050A1
WO2018012050A1 PCT/JP2017/013487 JP2017013487W WO2018012050A1 WO 2018012050 A1 WO2018012050 A1 WO 2018012050A1 JP 2017013487 W JP2017013487 W JP 2017013487W WO 2018012050 A1 WO2018012050 A1 WO 2018012050A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
far
infrared
target
unit
Prior art date
Application number
PCT/JP2017/013487
Other languages
English (en)
French (fr)
Inventor
厚史 伊藤
小柳津 秀紀
祐基 明壁
横山 正幸
真備 中村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP17827184.7A priority Critical patent/EP3486869B1/en
Priority to JP2018527390A priority patent/JP6911859B2/ja
Priority to US16/314,987 priority patent/US10868978B2/en
Publication of WO2018012050A1 publication Critical patent/WO2018012050A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/06Arrangements for eliminating effects of disturbing radiation; Arrangements for compensating changes in sensitivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/23Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Definitions

  • the present disclosure relates to an image processing apparatus and an image processing method.
  • a far-infrared image is produced
  • a thermal imaging element that converts irradiated far-infrared light into heat and outputs a temperature change as an electrical signal can be used.
  • Pixel values can vary. In view of this, a technique has been proposed for suppressing variations in pixel values caused by variations in the temperature of the image sensor.
  • Patent Document 1 an imaging system including a shutter that can prevent infrared radiation from entering the sensor in order to compensate an output signal of the sensor against temperature fluctuations of the sensor including a thermal imaging element.
  • a shutter that can prevent infrared radiation from entering the sensor in order to compensate an output signal of the sensor against temperature fluctuations of the sensor including a thermal imaging element.
  • a technique for extracting a target region in which a target such as a moving object is shown in the obtained visible light image is used.
  • a technique called background subtraction method that extracts a target region based on a comparison result of a background image that is an image showing a background that does not include the target object and a target image that is an image that shows the target object.
  • the background subtraction method it is conceivable that the target region can be extracted even when it is difficult to extract the target region from the visible light image.
  • the pixel value may vary due to the temperature variation of the image sensor due to the incidence of infrared energy from other than the subject. Therefore, when the background subtraction method is applied to a far-infrared image, a difference in pixel value between the background image and the target image in a region where the background is reflected may occur.
  • the target region is extracted by comparing the pixel values of the background image and the target image. Therefore, it may be difficult to accurately extract the target region for the far-infrared image.
  • the present disclosure proposes a new and improved image processing apparatus and image processing method capable of accurately extracting a target region from a far-infrared image.
  • any one of a background image that is a far-infrared image in which a background not including an object is reflected and a target image that is a far-infrared image in which the object is reflected is used as a time-varying model of an observation pixel value.
  • a processing device is provided.
  • the image processing apparatus observes either a background image that is a far-infrared image in which a background that does not include an object is reflected or a target image that is a far-infrared image in which the object is reflected. Adjusting based on a temporal change model of pixel values, and extracting a target region in which the target object is reflected in the target image based on a comparison result between the background image and the target image after the adjustment.
  • An image processing method is provided.
  • At least one of a target image that is a far-infrared image in which a target object is reflected and a reference image for extracting a target region in which the target object is reflected in the target image, the reference image and the reference image Based on information related to temporal changes caused by fluctuations in temperature of the image sensor due to the incidence of infrared energy from other than the subject of the pixel values of the far-infrared image captured by the image sensor used to capture the target image
  • an image processing apparatus includes an adjustment unit that adjusts, and an extraction unit that extracts the target region based on a comparison result between the reference image and the target image after the adjustment.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of an image processing apparatus according to an embodiment of the present disclosure. It is a schematic diagram which shows an example of a structure of an infrared camera. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus according to the embodiment.
  • FIG. 6 is an explanatory diagram illustrating an example of a function F.
  • FIG. 6 is an explanatory diagram illustrating an example of a function F.
  • FIG. 6 is an explanatory diagram illustrating an example of a function F.
  • FIG. 6 is an explanatory diagram illustrating an example of a function F.
  • FIG. 6 is an explanatory diagram illustrating an example of a function F.
  • FIG. 6 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus according to the embodiment. It is explanatory drawing for demonstrating the outline
  • summary of the difference method between frames. It is a block diagram which shows an example of a function structure of the image processing apparatus which concerns on a modification. 10 is a flowchart illustrating an example of a flow of processing performed by an image processing apparatus according to a modification.
  • FIG. 1 is an explanatory diagram for explaining various uses of infrared images depending on wavelengths.
  • the horizontal direction in FIG. 1 corresponds to the wavelength of infrared rays, and the wavelength increases from left to right.
  • Light having a wavelength of 0.7 ⁇ m or less is visible light, and human vision senses this visible light.
  • the wavelength region adjacent to the visible light region is a near infrared (NIR) region, and infrared rays belonging to the NIR region are referred to as near infrared rays.
  • NIR near infrared
  • the upper limit of the wavelength in the NIR region varies depending on the definition, it is often assumed to be between 2.5 ⁇ m and 4.0 ⁇ m.
  • the relatively long wavelength portion of the NIR region is sometimes called the short wavelength infrared (SWIR) region.
  • Near-infrared light can be used, for example, for night vision, fluoroscopy, optical communication and ranging.
  • a camera that captures a near-infrared image usually irradiates infrared rays in the vicinity and captures the reflected light.
  • a wavelength region adjacent to the NIR region on the long wavelength side is a far infrared (FIR) region, and infrared rays belonging to the FIR region are called far infrared rays.
  • a portion having a relatively short wavelength in the FIR region may be referred to as a mid-wavelength infrared (MWIR) region.
  • MWIR mid-wavelength infrared
  • the medium wavelength infrared can be used for identification of the substance.
  • Far infrared can be utilized for night vision, thermography and heating. Infrared rays emitted by black body radiation from an object correspond to far infrared rays. Therefore, a night vision apparatus using far infrared rays can generate a far infrared image by capturing blackbody radiation from an object without irradiating infrared rays.
  • the boundary values of the wavelength range shown in FIG. 1 are merely examples. Various definitions exist for the boundary value of the infrared classification, and the advantages described below of the technology according to the present disclosure can be enjoyed under any definition.
  • a thermal imaging element that converts irradiated far-infrared light into heat and outputs a temperature change as an electrical signal can be used.
  • Pixel values can vary.
  • a method using a shutter that can prevent far-infrared rays from entering a thermal image sensor has been proposed in order to suppress such fluctuations in pixel values.
  • a closed image that is a far-infrared image is captured when the shutter is temporarily closed, and a far red image that is captured in a state where the shutter is opened after being temporarily closed.
  • An open image that is an outside image is corrected based on the closed image.
  • the open image is corrected by correcting the pixel value of the open image with the pixel value of the closed image.
  • this correction is also referred to as shutter correction.
  • the open image is corrected by subtracting the pixel value of the closed image from the pixel value of the open image.
  • FIG. 2 is an explanatory diagram showing an example of a temporal change in pixel value after shutter correction.
  • FIG. 2 shows an example of a temporal change in pixel value after shutter correction for a representative pixel that is one pixel in a far-infrared image obtained by continuously capturing an object at a constant temperature.
  • the shutter frames Fs1 to Fs6 shown in FIG. 2 are frames corresponding to closed images captured with the shutters temporarily closed. As shown in FIG. 2, the pixel values in the frame immediately after each of the shutter frames Fs1 to Fs6 substantially coincide with each other.
  • the pixel value can fluctuate in the time corresponding to the interval between the shutter frames adjacent to each other. Specifically, heat can be accumulated in the accommodation space in which the image sensor is accommodated by closing the shutter. In that case, the temperature of the image sensor rises after the shutter is temporarily closed. As a result, the pixel value after shutter correction increases after the shutter is closed, as shown in FIG. Then, after the temperature inside the accommodation space and the temperature outside the accommodation space reach equilibrium, the temperature of the image sensor decreases. As a result, the pixel value after the shutter correction decreases after rising after the shutter is temporarily closed as shown in FIG. In this way, pixel value fluctuations caused by fluctuations in the temperature of the image sensor due to the incidence of infrared energy from other than the subject can occur not a little.
  • FIG. 3 is an explanatory diagram for explaining an example of an extraction result by a background difference method for a far-infrared image of each frame.
  • Each of Im3 corresponds.
  • the far-infrared image Im1 corresponds to a background image that is a far-infrared image showing a background that does not include the object, and the far-infrared image Im2 and the far-infrared image Im3 are far-infrared images in which the object is reflected. It corresponds to the target image.
  • the far-infrared image Im1 which is a background image
  • the far-infrared image Im2 and the far-infrared image Im3, which are target images show an interior part b1 as a background and a human arm f1 as a target.
  • shades of hatching indicate differences in pixel values. The darker the hatched area is, the lower the pixel value is.
  • the pixel values after shutter correction corresponding to each of the frames F3 and F1 substantially match. Therefore, the pixel values in the region where the interior portion b1 is reflected in each of the far infrared image Im3 and the far infrared image Im1 are substantially the same. Therefore, the pixel values in the region where the interior portion b1 as the background is reflected substantially coincide with each other for the far-infrared image Im1 as the background image and the far-infrared image Im3 as the target image.
  • the pixel value after shutter correction corresponding to the frame F2 is higher than that of the frame F1.
  • the pixel value in the region where the interior part b1 is reflected in the far-infrared image Im2 is higher than that in the far-infrared image Im1. Therefore, there is a difference in pixel values between the far-infrared image Im1 as the background image and the far-infrared image Im2 as the target image in the region where the interior part b1 as the background is reflected.
  • FIG. 3 shows a binarized image Im30 generated by performing binarization processing on the difference image generated for the far-infrared image Im3 and the far-infrared image Im1.
  • FIG. 3 also shows a binarized image Im20 generated by performing binarization processing on the difference image generated for the far infrared image Im2 and the far infrared image Im1.
  • a first pixel value having a relatively low value is assigned to a pixel having a pixel value lower than the threshold in the difference image, and a comparison is made to a pixel having a pixel value equal to or higher than the threshold in the difference image. Is assigned to the second pixel value having a higher value.
  • the extraction of the target area can be realized by assigning the second pixel value to the target area where the target object is reflected.
  • the first pixel value is assigned to a region that substantially matches the arm region in which the arm f1 appears in the far-infrared image Im3, and the interior portion b1 in the far-infrared image Im3.
  • a second pixel value different from the first pixel value is assigned to an area that substantially coincides with the interior portion area where the image is reflected. Therefore, the arm region as the target region is appropriately extracted.
  • the second pixel value is assigned to a part of the region that substantially matches the arm region in which the arm f1 is reflected in the far infrared image Im3, and the interior portion b1 is reflected in the far infrared image Im3.
  • the first pixel value is assigned to a part of a region that substantially matches the interior portion region. Therefore, the extraction of the arm region as the target region is not properly performed.
  • the present specification proposes a mechanism capable of accurately extracting a target region from a far-infrared image.
  • FIG. 4 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus 1 according to the present embodiment.
  • the image processing apparatus 1 includes an infrared camera 102, an input interface 104, a memory 106, a display 108, a communication interface 110, a storage 112, a processor 114, and a bus 116.
  • an infrared camera 102 an input interface 104
  • a memory 106 a memory 106
  • a display 108 a display 108
  • a communication interface 110 a storage 112
  • a processor 114 and a bus 116.
  • the infrared camera 102 is an imaging module that performs imaging using infrared and obtains an infrared image that is a non-color image.
  • the infrared camera 102 corresponds to an imaging unit according to the present disclosure.
  • the infrared camera 102 has an array of imaging elements that sense far infrared rays having a wavelength belonging to the FIR region, and takes a far infrared image.
  • the infrared camera 102 captures far-infrared images at regular time intervals.
  • a series of far-infrared images obtained by the infrared camera 102 may constitute a video.
  • the infrared camera 102 is provided with a thermal imaging element that converts irradiated far infrared rays into heat and outputs a temperature change as an electrical signal.
  • a bolometer is used as an image sensor in the infrared camera 102. The resistance value of the bolometer changes when heated by irradiation with far infrared rays. By passing a current through the bolometer, a voltage value corresponding to a temperature change can be detected.
  • FIG. 5 is a schematic diagram showing an example of the configuration of the infrared camera 102.
  • the infrared camera 102 includes a housing 102a, a first lens 102b and a second lens 102c, a translucent part 102d, a cover part 102e, a bolometer 102f, and a shutter 102g. .
  • the shutter 102g can temporarily close the accommodation space L102 in which the bolometer 102f is accommodated, and FIG. 5 shows a state where the shutter 102g is opened and a state where the shutter 102g is closed.
  • the accommodation space L102 is provided so that it can be temporarily closed.
  • the housing 102a is provided with an opening on the subject side, and far infrared rays irradiated to the infrared camera 102 enter the housing 102a from the opening.
  • a first lens 102b and a second lens 102c are arranged in order from the outside on the subject side in the housing 102a.
  • the 1st lens 102b and the 2nd lens 102c are provided in order to condense the far infrared rays irradiated to the bolometer 102f.
  • the number and arrangement of such lenses are not particularly limited, and a bolometer 102f and a cover portion 102e that covers the bolometer 102f are provided on the opposite side of the subject in the housing 102a.
  • a translucent portion 102d that transmits the irradiated far infrared rays is provided on the subject side of the cover portion 102e.
  • the far-infrared ray irradiated to the infrared camera 102 passes through the first lens 102b, the second lens 102c, and the translucent part 102d in order, and then is condensed on the bolometer 102f. Thereby, far-infrared rays are detected by the bolometer 102f.
  • the shutter 102g can temporarily close the housing space L102 corresponding to the space on the bolometer 102f side of the shutter 102g in the housing 102a.
  • the shutter 102g is provided so as to be openable and closable between the second lens 102c and the translucent part 102d.
  • the far infrared ray irradiated to the infrared camera 102 passes through the first lens 102b and the second lens 102c in order, and is then blocked by the shutter 102g.
  • the shutter 102g is periodically closed at a constant frame interval, for example. Further, the time when the shutter 102g is closed may be determined based on the temperature in the accommodation space L102 detected by the internal sensor 102s.
  • a far-infrared image captured in a state where the accommodation space L102 is temporarily closed by the shutter 102g is also referred to as a closed image, and the accommodation space L102 is opened after being temporarily closed by the shutter 102g.
  • the captured far-infrared image is also called an open image.
  • the open image includes a background image and a target image.
  • an internal sensor 102s is provided in the accommodation space L102.
  • the internal sensor 102s detects the temperature in the accommodation space L102.
  • An external sensor 102h is provided outside the accommodation space L102.
  • the external sensor 102h detects the temperature outside the accommodation space L102.
  • the external sensor 102h may be provided outside the housing 102a or may be provided closer to the subject than the shutter 102g in the housing 102a.
  • the input interface 104 is used for a user to operate the image processing apparatus 1 or input information to the image processing apparatus 1.
  • the input interface 104 may include an input device such as a touch sensor, a keyboard, a keypad, a button, or a switch.
  • the input interface 104 may include a voice input microphone and a voice recognition module.
  • the input interface 104 may also include a remote control module that receives commands selected by the user from a remote device.
  • the memory 106 is a storage medium that may include a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory 106 is connected to the processor 114 and stores programs and data for processing executed by the processor 114.
  • the display 108 is a display module having a screen for displaying an image.
  • the display 108 may be an LCD (Liquid Crystal Display), an OLED (Organic light-Emitting Diode), or a CRT (Cathode Ray Tube).
  • the communication interface 110 is a module that mediates communication between the image processing apparatus 1 and another apparatus.
  • the communication interface 110 establishes a communication connection according to an arbitrary wireless communication protocol or wired communication protocol.
  • the storage 112 is a storage device that stores infrared image data or stores a database used in image processing.
  • the storage 112 contains a storage medium such as a semiconductor memory or a hard disk. Note that the program and data described in this specification may be acquired from a data source external to the image processing apparatus 1 (for example, a data server, a network storage, or an external memory).
  • the processor 114 is a processing module such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
  • the processor 114 executes a function stored in the memory 106 or another storage medium, thereby operating a function for accurately extracting a target region from the far infrared image.
  • the bus 116 interconnects the infrared camera 102, the input interface 104, the memory 106, the display 108, the communication interface 110, the storage 112, and the processor 114.
  • FIG. 6 is a block diagram illustrating an example of a functional configuration that is realized when the components of the image processing apparatus 1 illustrated in FIG. 4 are linked to each other.
  • the image processing apparatus 1 includes a shutter correction unit 140, a background image update unit 150, a storage unit 160, and a background difference processing unit 170.
  • the shutter correction unit 140 performs shutter correction for correcting the open image captured by the infrared camera 102 based on the closed image, and outputs the open image after the shutter correction to the background image update unit 150.
  • the shutter correction unit 140 corresponds to a correction unit according to the present disclosure. Specifically, the shutter correction unit 140 corrects the open image by correcting the pixel value of the open image with the pixel value of the closed image. For example, the shutter correction unit 140 corrects the open image by subtracting the pixel value of the closed image from the pixel value of the open image. Specifically, the shutter correction unit 140 corrects the open image by subtracting the pixel value of the corresponding pixel of the closed image for each pixel of the open image.
  • the closed image used in the shutter correction is stored in the storage unit 160.
  • the shutter correction unit 140 updates the closed image stored in the storage unit 160 to the far-infrared image.
  • the image processing apparatus 1 can generate information indicating whether or not the frame corresponding to the far-infrared image is a shutter frame.
  • each functional unit in the image processing apparatus 1 can determine whether the captured far-infrared image is a closed image or an open image.
  • the image processing apparatus 1 may generate a shutter flag signal as information indicating whether or not the shutter frame. For example, a shutter flag signal indicating a shutter frame may be “1”, and a shutter flag signal indicating a shutter frame may be “0”.
  • the background image update unit 150 receives the background image stored in the storage unit 160 from the shutter correction unit 140 when the far-infrared image that is an open image captured by the infrared camera 102 is a background image. Update to the far-infrared image after correction.
  • the image processing apparatus 1 indicates whether or not a frame corresponding to the far-infrared image is a frame corresponding to the background image when a far-infrared image that is an open image is captured by the infrared camera 102. Information can be generated. Thereby, each functional unit in the image processing apparatus 1 can determine whether the far-infrared image input from the shutter correction unit 140 is a background image or a target image.
  • the background image can be captured in advance by the infrared camera 102 and stored in the storage unit 160, for example. Specifically, the background image is captured immediately after the accommodation space L102 is temporarily closed by the shutter 102g. In other words, the background image corresponds to the frame immediately after one of the shutter frames.
  • the background image update unit 150 may determine that the far-infrared image input from the shutter correction unit 140 is a background image when it is determined that the target region does not exist over a predetermined frame. The determination of whether or not the target region does not exist over a predetermined frame can be realized by using an interframe difference method described later.
  • the information regarding the target area extracted by the background difference processing unit 170 may be configured to be output from the background difference processing unit 170 to the background image update unit 150.
  • the background image update unit 150 Based on the information, it may be determined whether or not the far-infrared image input from the shutter correction unit 140 is a background image.
  • the background image update unit 150 determines that the target region does not exist over a predetermined frame before the time when the shutter 102g is closed for the first time after a predetermined period has elapsed since the time when the infrared camera 102 was activated. Even in this case, it is not necessary to determine that the far-infrared image input from the shutter correction unit 140 is the background image.
  • the temperature in the housing 102a may rapidly increase before the time when the shutter 102g is closed for the first time after a lapse of a predetermined period from the time when the infrared camera 102 is activated. Such a rapid increase in the temperature in the housing 102a can be a disturbance to the pixel value of the obtained far-infrared image.
  • the background image update unit 150 prohibits the determination of whether or not the image is a background image until it is determined that the temperature in the housing 102a is stable.
  • the background image update unit 150 receives the far-infrared image after the shutter correction input from the shutter correction unit 140. Is output to the background difference processing unit 170.
  • the storage unit 160 stores data referred to in each process performed by the image processing apparatus 1. For example, the storage unit 160 stores the most recently closed image used in the shutter correction process performed by the shutter correction unit 140. In addition, the storage unit 160 stores information on the most recently captured background image and the function F used in the target region extraction processing using the background difference method performed by the background difference processing unit 170.
  • the background difference processing unit 170 uses the background difference method to extract a target area in which the target object is shown in the target image. As shown in FIG. 6, the background difference processing unit 170 includes a counter calculation unit 171, a pixel value conversion unit 173, a subtraction unit 175, and a binarization unit 177.
  • the counter calculation unit 171 calculates a counter value t corresponding to the time elapsed after the accommodation space L102 is temporarily closed by the shutter 102g, and outputs the calculation result of the counter value t to the pixel value conversion unit 173.
  • the counter value t is used in processing performed by the pixel value conversion unit 173. For example, when the shutter flag signal generated when a far-infrared image is captured by the infrared camera 102 is “1”, the counter calculation unit 171 uses a shutter frame as a frame corresponding to the far-infrared image. It is determined that there is, and the counter value t is set to 0.
  • the counter calculation unit 171 sets the counter value t to 0 when the far-infrared image captured by the infrared camera 102 is a closed image. For example, when the shutter flag signal generated when a far-infrared image is captured by the infrared camera 102 is “0”, the counter calculation unit 171 displays a frame corresponding to the far-infrared image as a shutter. It is determined that it is not a frame, and 1 is added to the counter value t. In other words, the counter calculation unit 171 adds 1 to the counter value t when the far-infrared image captured by the infrared camera 102 is an open image.
  • the pixel value conversion unit 173 is a temporal change model of an observed pixel value for any one of a background image that is a far-infrared image showing a background that does not include an object and a target image that is a far-infrared image showing the object. This corresponds to the adjustment unit according to the present disclosure to be adjusted. Specifically, the pixel value conversion unit 173 adjusts the background image stored in the storage unit 160 based on the time change model, and outputs the adjusted background image to the subtraction unit 175. For example, when the far-infrared image captured by the infrared camera 102 is the target image, the pixel value conversion unit 173 performs the adjustment.
  • the time variation model of the observation pixel value specifically, the time variation caused by the temperature variation of the bolometer 102f due to the incidence of infrared energy from other than the subject of the pixel value of the far-infrared image captured by the bolometer 102f.
  • the time change means a characteristic of fluctuation of the pixel value of the captured far-infrared image with the passage of time.
  • a function F in which the time change of the pixel value after shutter correction in the far-infrared image obtained by continuously imaging a constant temperature object can be applied.
  • a pixel value after shutter correction in a far-infrared image obtained by continuously capturing an image of a subject with a constant temperature is also simply referred to as a pixel value after shutter correction.
  • the pixel value conversion unit 173 adjusts the background image stored in the storage unit 160 based on the function F as a time change model of the observed pixel value. Specifically, the pixel value conversion unit 173 adjusts the background image by converting the pixel value based on the function F for each pixel of the background image stored in the storage unit 160.
  • the function F will be described in more detail.
  • the pixel value conversion unit 173 adjusts the background image by applying the time after the accommodation space L102 is temporarily closed to the function F.
  • the function F the temporal change due to the fluctuation of the temperature of the bolometer 102f due to the incidence of infrared energy from other than the subject of the pixel value after the shutter correction after the accommodation space L102 is temporarily closed is defined.
  • the temperature of the bolometer 102f fluctuates due to the accommodation space L102 being temporarily closed by the shutter 102g. Therefore, by setting the function F as described above, it is possible to appropriately express the characteristics of pixel value variation when using shutter correction.
  • the function F is a function of the counter value t, for example, and is represented by the following equation (1). Note that the counter value t corresponds to the time elapsed after the accommodation space L102 is temporarily closed by the shutter 102g, as described above. In the function F, a model value of a pixel value after shutter correction at a time corresponding to each counter value t is defined.
  • A1, A2, and T0 in Equation (1) are constants set according to various design specifications in the image processing apparatus 1, for example.
  • A1 and T0 take positive values, and A2 takes a negative value.
  • Information regarding the function F such as each constant may be stored in the storage unit 160.
  • FIG. 7 is an explanatory diagram showing the function F represented by the equation (1). As shown in FIG. 7, in the function F, the model value of the pixel value after the shutter correction may be set so as to decrease after increasing with the passage of time.
  • C0 in Expression (1) is an actual pixel value after shutter correction in the background image captured immediately after the accommodation space L102 is temporarily closed by the shutter 102g.
  • the function F represented by the expression (1) is an accommodation space for pixel values after shutter correction in a far-infrared image obtained when a background that does not include an object is continuously captured. Defines the time change after L102 is temporarily closed.
  • Each constant in the function F may be a fixed value, and may be set based on the temperature inside the accommodation space L102, the temperature outside the accommodation space L102, and C0, as will be described later.
  • the pixel value conversion unit 173 converts the pixel value of the background image stored in the storage unit 160 into a value obtained by substituting the counter value t calculated by the counter calculation unit 171 into the function F.
  • the background image is adjusted by the conversion. More specifically, the pixel value conversion unit 173 performs such pixel value conversion based on the function F for each pixel of the background image.
  • the background image can be taken immediately after the accommodation space L102 is temporarily closed by the shutter 102g. Therefore, when the far-infrared image captured by the infrared camera 102 is the target image, the counter value t can correspond to the time from the time when the background image is captured to the time when the target image is captured. Therefore, the pixel value conversion unit 173 performs the adjustment based on the function F, whereby the fluctuation of the temperature of the bolometer 102f due to the incidence of infrared energy from other than the subject during the time when the background image and the target image are captured.
  • the background image can be adjusted so as to compensate for the variation in pixel value caused by. Thereby, the pixel value in the region where the background appears in the background image and the pixel value in the region where the background appears in the target image can be substantially matched. Therefore, the accuracy of the comparison result between the background image and the target image can be improved.
  • the temporal change of the pixel value after shutter correction may be defined based on the temperature inside the accommodation space L102 and the temperature outside the accommodation space L102. Thereby, it is possible to more appropriately define the temporal change of the pixel value when using the shutter correction.
  • the function F when the temperature in the accommodation space L102 is higher than the temperature outside the accommodation space L102, the model value of the pixel value after the shutter correction is decreased after increasing with time.
  • a temporal change of the pixel value after the shutter correction may be defined.
  • the function F may be set to a function represented by the equation (1) shown in FIG.
  • the temperature inside the accommodation space L102 is higher than the temperature outside the accommodation space L102.
  • heat can be accumulated in the accommodation space L102 in which the bolometer 102f is accommodated by temporarily closing the accommodation space L102 by the shutter 102g.
  • the temperature of the bolometer 102f rises after the shutter is temporarily closed.
  • the temperature of the bolometer 102f decreases after the temperature in the accommodation space L102 and the temperature outside the accommodation space L102 reach equilibrium. Therefore, the pixel value after shutter correction decreases after rising with the passage of time after the accommodation space L102 is temporarily closed by the shutter 102g. Therefore, when the temperature in the accommodation space L102 is higher than the temperature outside the accommodation space L102, the time change of the pixel value after the shutter correction can be more appropriately defined by setting the function F as described above. .
  • the function F when the temperature in the accommodation space L102 is relatively high, the time change rate of the model value of the pixel value after the shutter correction is compared with the case where the temperature in the accommodation space L102 is relatively low.
  • the time change of the pixel value after the shutter correction may be defined so as to decrease.
  • the function F may be set to the function F represented by the following formula (2), for example.
  • B1 and B2 in Formula (2) are constants.
  • B1 takes a positive value and B2 takes a negative value.
  • the absolute values of B1 and B2 are set to small values as compared with the absolute values of A1 and A2 in Expression (1), respectively.
  • the function F represented by Expression (1) corresponds to a function set when the temperature in the accommodation space L102 is relatively low.
  • FIG. 8 is an explanatory diagram showing the function F represented by the equation (2). In FIG. 8, the function F represented by Formula (1) is shown with the dashed-two dotted line.
  • the temperature in the accommodation space L102 is relatively high, the temperature of the bolometer 102f itself is also relatively high, so that the amount of heat accumulated in the accommodation space L102 can be reduced. Thereby, the rising speed of the temperature of the bolometer 102f after the accommodation space L102 is temporarily closed by the shutter 102g can be relatively low. Therefore, the increase rate of the pixel value after the shutter correction after the shutter is temporarily closed can be relatively low. Therefore, when the temperature in the accommodation space L102 is relatively high, the time change of the pixel value after shutter correction can be more appropriately defined by setting the function F as described above.
  • the function F when the temperature outside the accommodation space L102 is relatively high, the time when the model value of the pixel value after shutter correction starts to decrease is lower than when the temperature outside the accommodation space L102 is relatively low.
  • the time change of the pixel value after the shutter correction may be defined so as to be faster.
  • the function F may be set to the function F represented by the following equation (3), for example.
  • T1 in Formula (3) is a constant. T1 takes a positive value.
  • the absolute value of T1 is set to a small value as compared with the absolute value of T0 in Equation (1).
  • the function F represented by Expression (1) corresponds to a function set when the temperature outside the accommodation space L102 is relatively low.
  • FIG. 9 is an explanatory diagram showing the function F represented by Expression (3). In FIG. 9, the function F represented by Formula (1) is shown with the dashed-two dotted line.
  • the time when the temperature inside the storage space L102 and the temperature outside the storage space L102 reach equilibrium after the storage space L102 is temporarily closed by the shutter 102g is compared. It can be faster. Therefore, the time when the pixel value after the shutter correction starts to decrease after the accommodation space L102 is temporarily closed by the shutter 102g can be relatively early. Therefore, when the temperature outside the storage space L102 is relatively high, the time change of the pixel value after shutter correction can be more appropriately defined by setting the function F as described above.
  • the shutter value when the temperature in the accommodation space L102 is lower than the temperature outside the accommodation space L102, the shutter value is set so that the model value of the pixel value after shutter correction increases after decreasing with time.
  • the temporal change of the pixel value after correction may be defined.
  • the function F When the temperature in the accommodation space L102 is lower than the temperature outside the accommodation space L102, the function F may be set to a function F represented by the following equation (4), for example.
  • C1, C2, and T2 are constants.
  • C1 takes a negative value
  • C2 and T2 take a positive value.
  • the absolute value of T2 may be different from the absolute value of T0 in Equation (1).
  • the absolute value of T2 may be set to a smaller value than the absolute value of T0.
  • FIG. 10 is an explanatory diagram showing the function F represented by Expression (4). In FIG. 10, the function F represented by Formula (1) is shown with the dashed-two dotted line.
  • the accommodation space L102 When the temperature in the accommodation space L102 is lower than the temperature outside the accommodation space L102, the accommodation space L102 is temporarily closed by the shutter 102g, so that heat flows from outside the accommodation space L102 into the accommodation space L102. Can be blocked. Thereby, the temperature of the bolometer 102f decreases after the accommodation space L102 is temporarily closed by the shutter 102g. Then, the temperature of the bolometer 102f rises after the temperature inside the accommodation space L102 and the temperature outside the accommodation space L102 reach equilibrium. Therefore, after the shutter correction, the pixel value after shutter correction rises after decreasing with the passage of time after the accommodation space L102 is temporarily closed by the shutter 102g. Therefore, when the temperature in the accommodation space L102 is lower than the temperature outside the accommodation space L102, the time change of the pixel value after shutter correction can be more appropriately defined by setting the function F as described above. .
  • the function F is not limited to such an example.
  • the function F may be represented by a composition of exponential functions.
  • the function F may be set to the function F represented by the following formula (5), for example.
  • K, a1, and a2 in Equation (5) are constants.
  • k, a1, and a2 may take positive values.
  • each constant in Formula (5) may be a fixed value, and may be set based on the temperature inside the accommodation space L102, the temperature outside the accommodation space L102, and C0.
  • FIG. 11 is an explanatory diagram illustrating the function F represented by Expression (5).
  • the temperature of the bolometer 102f rises as described above, and then the temperature inside the storage space L102 and the temperature outside the storage space L102 reach equilibrium. It is lowered by.
  • the temperature increase rate of the bolometer 102f decreases with time
  • the temperature decrease rate of the bolometer 102f increases with time. Increase. Therefore, before the time when thermal equilibrium occurs, the pixel value increase rate after shutter correction decreases with time, and after the time when thermal equilibrium occurs, the pixel value decrease rate after shutter correction decreases with time. Increases over time. Therefore, by using the function F represented by the synthesis of the exponential function, the time change of the pixel value after the shutter correction is more appropriately compared with the case of using the function F represented by the synthesis of the linear function. Can be prescribed.
  • the background image adjustment processing by the pixel value conversion unit 173 is related to this example. It is not limited.
  • the pixel value conversion unit 173 may adjust the background image by using a data table in which the temporal change of the pixel value after shutter correction is defined as the temporal change model of the observed pixel value.
  • the time change of the pixel value after the shutter correction specified in the data table may substantially coincide with the time change of the pixel value after the shutter correction specified in the function F described above.
  • a pair of the counter value t and the model value of the pixel value after shutter correction corresponding to the counter value t is linked.
  • Such a data table can be stored in the storage unit 160.
  • a plurality of data tables may be stored for each value of the temperature inside the accommodation space L102, the temperature outside the accommodation space L102, and C0.
  • the subtraction unit 175 generates a difference image by taking the difference between the pixel values of the background image and the target image after the adjustment by the pixel value conversion unit 173. Further, the subtraction unit 175 outputs the generated difference image to the binarization unit 177. Specifically, the subtraction unit 175 generates a difference image by subtracting pixel values between corresponding pixels for the target image and the adjusted background image. The difference image corresponds to a comparison result between the background image and the target image.
  • the background value is adjusted by the pixel value conversion unit 173 based on the function F as a time change model of the observed pixel value.
  • the pixel value in the region where the background appears in the background image and the pixel value in the region where the background appears in the target image can be substantially matched. Therefore, the accuracy of the comparison result between the background image and the target image can be improved.
  • the pixel value in the region where the background appears can be made relatively small.
  • the binarization unit 177 extracts a target region by performing binarization processing on the difference image input from the subtraction unit 175. In addition, the binarization unit 177 outputs a binarized image as an extraction result.
  • the binarizing unit 177 may store the binarized image in the storage unit 160 or may transmit the binarized image to a device outside the image processing apparatus 1.
  • the binarization unit 177 assigns a relatively low first pixel value to a pixel having a pixel value lower than the threshold in the difference image, and a pixel having a pixel value equal to or greater than the threshold in the difference image. Is assigned to the second pixel value having a relatively high value. Thereby, the extraction of the target area can be realized by assigning the second pixel value to the target area where the target object is reflected.
  • the background image is adjusted based on the function F as a time change model of the observed pixel value, and as described above, the pixel value in the region where the background appears in the difference image is relatively set. Can be small. Therefore, the first pixel value having a relatively low value is appropriately assigned to the pixel in the region where the background appears in the difference image, and the second pixel having a relatively high value relative to the pixel in the region where the object appears in the difference image. A value is assigned. Thereby, the target region can be extracted appropriately. Therefore, in the present embodiment, the target area can be extracted with high accuracy.
  • the subtraction unit 175 and the binarization unit 177 perform the adjustment using the temporal change model of the observed pixel value by the adjustment unit according to the present disclosure, and then based on the comparison result between the background image and the target image.
  • the extraction unit may extract the target region by comparing the pixel values of the background image and the target image after the adjustment.
  • the subtraction unit 175 and the binarization unit 177 extract the target region by taking the difference between the pixel values of the background image and the target image after the adjustment by the pixel value conversion unit 173. May be.
  • the example in which the target region is extracted by comparing the pixel values of the background image and the target image after the adjustment by the pixel value conversion unit 173 has been described.
  • the target region after the adjustment by the pixel value conversion unit 173 has been described.
  • the extraction process is not limited to this example.
  • the image processing apparatus 1 generates a probability density function of pixel values in the background image after adjustment by the pixel value conversion unit 173, and compares the background image with the target image based on the probability density function, The target area may be extracted.
  • the image processing apparatus 1 After the adjustment by the pixel value conversion unit 173, the image processing apparatus 1 generates a probability density function according to a Gaussian distribution with the adjusted pixel value as the median value for each pixel of the background image. Then, the image processing apparatus 1 compares the background image and the target image between corresponding pixels based on the probability density function. For example, when the probability that the pixel value of a certain pixel of the target image matches the pixel value of the corresponding pixel of the background image is higher than a predetermined probability, the image processing apparatus 1 determines that the pixel of the target image is the background. It can be determined that the background area is reflected. As described above, for each pixel of the target image, it is possible to extract the target region by determining whether or not each pixel constitutes a background region and executing the binarization process based on the determination result. .
  • the extraction unit according to the present disclosure generates a probability density function of pixel values in the background image after adjustment by the adjustment unit according to the present disclosure, and the background image and the target image are generated based on the probability density function.
  • the target region may be extracted by comparison.
  • FIG. 12 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus 1 according to the present embodiment. The process illustrated in FIG. 12 may be executed for each frame, for example.
  • the shutter correction unit 140 reads the far-infrared image Ik imaged by the infrared camera 102 (step S501).
  • the shutter correction unit 140 may directly read the far-infrared image Ik output from the infrared camera 102 and stores the far-infrared image Ik from the storage unit 160 after being stored in the storage unit 160 from the infrared camera 102. May be read.
  • the shutter correction unit 140 determines whether or not the far infrared image Ik is a closed image (step S503).
  • the shutter correction unit 140 updates the closed image Ic stored in the storage unit 160 to the far-infrared image Ik (step S503). S505). Then, the counter calculation unit 171 sets the counter value t to 0 (step S507), and the process illustrated in FIG.
  • step S503 when it is not determined that the far-infrared image Ik is a closed image in the determination process in step S503 (step S503 / NO), the shutter correction unit 140 closes the far-infrared image Ik that is an open image. Based on the image Ic, shutter correction is executed (step S509), and the far-infrared image Ik after the shutter correction is output to the background image update unit 150. Then, the background image update unit 150 determines whether or not the far infrared image Ik is a background image (step S511).
  • the background image update unit 150 updates the background image Ir stored in the storage unit 160 to the far-infrared image Ik (Ste S513). Then, the counter calculation unit 171 adds 1 to the counter value t (step S515), and the process illustrated in FIG.
  • step S511 when it is not determined in step S511 that the far-infrared image Ik is a background image (step S511 / NO), the background image update unit 150 uses the far-infrared image Ik that is the target image as the background. The data is output to the difference processing unit 170. Then, the counter calculation unit 171 adds 1 to the counter value t (step S517). Next, the pixel value conversion unit 173 converts the pixel value of each pixel of the background image Ir based on the function F (step S519). Thereby, the background image Ir is adjusted, and the pixel value conversion unit 173 outputs the adjusted background image Ir to the subtraction unit 175.
  • the subtraction unit 175 subtracts pixel values between corresponding pixels for the far-infrared image Ik and the adjusted background image Ir (step S521). Thereby, a difference image as a comparison result is generated, and the subtraction unit 175 outputs the generated difference image to the binarization unit 177.
  • the binarization unit 177 executes binarization processing on the difference image (step S523). Thereby, the target region is extracted. Then, the binarization unit 177 outputs a binarized image as an extraction result (step S525), and the process illustrated in FIG. 12 ends.
  • an image processing apparatus 2 according to a modification will be described with reference to FIGS. Unlike the image processing apparatus 1 according to the present embodiment, the image processing apparatus 2 according to the modified example extracts a target region in which the target object is reflected in the target image using an inter-frame difference method.
  • FIG. 13 is an explanatory diagram for explaining an outline of the inter-frame difference method.
  • FIG. 13 shows far-infrared images before and after each process in the inter-frame difference method.
  • the far-infrared image Im51, the far-infrared image Im52, and the far-infrared image Im53 shown in FIG. 13 are far-infrared images corresponding to each of successive frames.
  • Each far-infrared image shows a forest road b5 as a background and a vehicle f5 as an object.
  • the vehicle f5 is traveling along the traveling direction. Therefore, the vehicle f5 shown in the far-infrared image Im52 is located forward (rightward in the drawing) compared to the far-infrared image Im51. Further, the vehicle f5 shown in the far-infrared image Im53 is located further forward than the far-infrared image Im52.
  • the far-infrared image Im52 corresponds to a target image corresponding to a target region extracted by the interframe difference method.
  • the far-infrared image Im51 and the far-infrared image Im53 correspond to a first reference image and a second reference image for extracting a target region, respectively.
  • a first difference image is generated by taking a difference between a target image and a first reference image corresponding to the previous frame with respect to the target image.
  • a second difference image is generated by taking the difference between the target image and the second reference image corresponding to the next frame with respect to the target image.
  • a first difference image Im71 generated based on the far-infrared image Im51 and the far-infrared image Im52
  • a second difference image Im72 generated based on the far-infrared image Im52 and the far-infrared image Im53. And are shown.
  • a synthesized image is generated by synthesizing the first difference image and the second difference image.
  • a composite image is generated by taking the logical product of the first difference image and the second difference image.
  • the target area is extracted by performing binarization processing on the composite image.
  • a binarized image is output as the extraction result.
  • FIG. 13 illustrates a binarized image Im91 generated by performing binarization processing on the difference image generated for the first difference image Im71 and the second difference image Im72.
  • the inter-frame difference method it may be difficult to extract the target region with high accuracy, similar to the extraction of the target region by the background difference method.
  • pixel values in a far-infrared image obtained by continuously imaging a constant-temperature subject can be different for successive frames. Therefore, for each of the far-infrared image Im51, the far-infrared image Im52, and the far-infrared image Im53, a difference in pixel value occurs in the region where the forest road b5 is reflected. Therefore, the pixel value in the region where the forest road b5 is reflected in each of the difference image Im71 and the difference image Im72 may not be a relatively small value. Thereby, in the binarization process after the synthesis process, it may be difficult to extract the target region.
  • the image processing device 2 In the extraction of the target area by the inter-frame difference method, a far-infrared image corresponding to each successive frame is used, so the accuracy of the target area extraction is higher than that of the target area extraction by the background difference method. It is difficult to be affected by temperature fluctuations of the image sensor due to the incidence of infrared energy from other than the above. However, also in the extraction of the target area by the inter-frame difference method, as described above, it may be difficult to extract the target area with high accuracy.
  • the inter-frame difference method described above is applied to a captured far-infrared image
  • the image processing device 2 according to a modified example that enables a target region to be accurately extracted from the far-infrared image. Will be described.
  • FIG. 14 is a block diagram illustrating an example of a functional configuration that is realized when the components of the image processing apparatus 2 are linked to each other.
  • the image processing apparatus 2 includes a storage unit 260 and an inter-frame difference processing unit 270.
  • the storage unit 260 stores data referred to in each process performed by the image processing apparatus 2.
  • the storage unit 260 stores a far-infrared image captured by the infrared camera 102 that is used in the target region extraction processing using the inter-frame difference method performed by the inter-frame difference processing unit 270.
  • the inter-frame difference processing unit 270 uses the inter-frame difference method to extract a target area in which the target object appears in the target image. As shown in FIG. 14, the inter-frame difference processing unit 270 includes a first statistic calculation unit 271a, a second statistic calculation unit 271b, a third statistic calculation unit 271c, a coefficient calculation unit 273, A normalization unit 275a, a second normalization unit 275b, a third normalization unit 275c, a first subtraction unit 277a and a second subtraction unit 277b, a synthesis unit 278, and a binarization unit 279 are included.
  • the first statistic calculation unit 271a, the second statistic calculation unit 271b, and the third statistic calculation unit 271c calculate an average luminance value for each of the far-infrared images corresponding to consecutive frames, and calculate the calculation result. It outputs to the coefficient calculation part 273. Note that the average luminance value corresponds to the average value of the pixel values for all the pixels in the far-infrared image.
  • the first statistic calculator 271a calculates the average luminance value of the far-infrared image Ik-2 corresponding to the frame two frames before the most recently captured far-infrared image Ik. Further, the second statistic calculator 271b calculates the average luminance value of the far infrared image Ik-1 corresponding to the immediately preceding frame with respect to the most recently captured far infrared image Ik. In addition, the third statistic calculation unit 271c calculates the average luminance value of the most recently captured far-infrared image Ik.
  • the far-infrared image Ik-1 corresponds to a target image corresponding to a target region extracted by the inter-frame difference method.
  • the far-infrared image Ik-2 and the far-infrared image Ik correspond to a first reference image and a second reference image for extracting a target region, respectively.
  • the coefficient calculation unit 273 calculates a normalization coefficient for matching the average luminance values of the far-infrared image Ik-2, the far-infrared image Ik-1, and the far-infrared image Ik with each other. And the calculation result is output to the first normalization unit 275a, the second normalization unit 275b, and the third normalization unit 275c.
  • the coefficient calculation unit 273 outputs the first normalization coefficient corresponding to the far-infrared image Ik-2 to the first normalization unit 275a. Also, the coefficient calculation unit 273 outputs the second normalization coefficient corresponding to the far-infrared image Ik-1 to the second normalization unit 275b. Further, the coefficient calculation unit 273 outputs the third normalization coefficient corresponding to the far-infrared image Ik to the third normalization unit 275c.
  • Each normalization coefficient is calculated to a value such that the average luminance values of the far-infrared images obtained by multiplying the respective pixels of the corresponding far-infrared image by the respective normalization coefficients coincide with each other.
  • the 1st normalization part 275a, the 2nd normalization part 275b, and the 3rd normalization part 275c perform the normalization process which multiplies the normalization coefficient corresponding to the said each far-infrared image about each far-infrared image. As a result, each far-infrared image is adjusted, and each adjusted far-infrared image is output to the first subtraction unit 277a and the second subtraction unit 277b.
  • the first normalization unit 275a adjusts the far-infrared image Ik-2 by performing a normalization process of multiplying the far-infrared image Ik-2 by the first normalization coefficient, and after the adjustment Is output to the first subtracting unit 277a.
  • the second normalization unit 275b adjusts the far-infrared image Ik-1 by executing a normalization process that multiplies the far-infrared image Ik-1 by the second normalization coefficient, and adjusts the far-red image after adjustment.
  • the outer image Ik-1 is output to the first subtraction unit 277a and the second subtraction unit 277b.
  • the third normalization unit 275c adjusts the far-infrared image Ik by executing a normalization process that multiplies the far-infrared image Ik by the third normalization coefficient, and the adjusted far-infrared image Ik. It outputs to the 2nd subtraction part 277b.
  • the coefficient calculation unit 273, the first normalization unit 275a, the second normalization unit 275b, and the third normalization unit 275c convert the target image and the reference image into the far-infrared images corresponding to a plurality of frames. It adjusts based on the information regarding the luminance value. Specifically, the far-infrared image Ik-1 that is the target image and the far-infrared image Ik-2 and the far-infrared image Ik that are the reference images are based on the average luminance value of each far-infrared image. Adjustment is made so that the average luminance values substantially match.
  • the reference image and the object other than the subject can be adjusted so as to complement the fluctuation of the pixel value caused by the fluctuation of the temperature of the bolometer 102f due to the incidence of the infrared energy from.
  • the pixel values in the region where the background appears in each far-infrared image can be substantially matched. Therefore, the accuracy of the comparison result between the reference image and the target image can be improved.
  • the image processing apparatus 2 determines that the average luminance values for all the pixels are based on the average luminance values for all the pixels of each far infrared image corresponding to three consecutive frames.
  • the adjustment processing by the image processing apparatus 2 is not limited to such an example.
  • the image processing apparatus 2 sets the average luminance value for the far-infrared image Ik-2, the far-infrared image Ik-1, and the far-infrared image corresponding to a plurality of other frames different from the far-infrared image Ik.
  • the temperature change of the pixel value after shutter correction is modeled, and the far-infrared image Ik-2, the far-infrared image Ik-1, and the far-infrared image Ik are based on the temperature change of the modeled pixel value.
  • the pixel value may be adjusted.
  • the image processing apparatus 2 uses the background information of the position of the target region that has already been extracted to display the background in the far-infrared image Ik-2, the far-infrared image Ik-1, and the far-infrared image Ik.
  • the positions of the regions may be predicted, and the far-infrared images may be adjusted so that the average luminance values in the predicted background region substantially match each other.
  • the already extracted target region is, for example, a target region extracted by using the inter-frame difference method for a far infrared image corresponding to a frame before the far infrared image Ik-1 that is the target image. is there.
  • Each of the first subtraction unit 277a and the second subtraction unit 277b takes a difference between pixel values of far-infrared images corresponding to adjacent frames after adjustment by the coefficient calculation unit 273 and the normalization units 275a to 275c. To generate a difference image.
  • the first subtraction unit 277 a and the second subtraction unit 277 b output the generated difference image to the synthesis unit 278. Specifically, each of the first subtraction unit 277a and the second subtraction unit 277b subtracts the pixel value between the corresponding pixels for the adjusted far-infrared image corresponding to the adjacent frame, A difference image is generated.
  • the first subtraction unit 277a performs subtraction of pixel values between corresponding pixels for the adjusted far-infrared image Ik-2 and the adjusted far-infrared image Ik-1, A first difference image is generated and output to the synthesis unit 278. Further, the second subtraction unit 277b subtracts the pixel value between the corresponding pixels for the adjusted far-infrared image Ik-1 and the adjusted far-infrared image Ik, thereby obtaining the second difference image. Generate and output to the synthesis unit 278. Note that the first difference image and the second difference image correspond to a comparison result between the reference image and the target image.
  • the far-infrared image Ik-2, the far-infrared image Ik-1, and the far-infrared image Ik are adjusted based on information about the luminance value of each far-infrared image corresponding to a plurality of frames.
  • the pixel values in the region where the background appears in each far-infrared image can be substantially matched. Therefore, the accuracy of the comparison result between the reference image and the target image can be improved.
  • the pixel value in the region where the background appears can be made relatively small.
  • the synthesizing unit 278 generates a synthesized image by executing a synthesizing process for synthesizing the generated first difference image and the second difference image, and outputs the synthesized image to the binarizing unit 279. Specifically, the synthesis unit 278 generates a synthesized image by taking the logical product of the first difference image and the second difference image.
  • each far-infrared image is adjusted based on information about the luminance value of each far-infrared image corresponding to a plurality of frames, and as described above, the first difference image and the second difference image In the image, the pixel value in the region where the background appears can be made relatively small. Therefore, in the composite image, the pixel value in the region where the background is reflected takes a relatively small value.
  • the binarization unit 279 extracts a target region by performing binarization processing on the composite image input from the synthesis unit 278.
  • the binarization unit 279 outputs a binarized image as an extraction result.
  • the binarization unit 279 may store the binarized image in the storage unit 260 or may transmit the binarized image to an apparatus outside the image processing apparatus 2.
  • the binarizing unit 279 assigns a first pixel value having a relatively low value to a pixel having a pixel value lower than the threshold in the composite image, and a pixel having a pixel value equal to or higher than the threshold in the composite image. Is assigned to the second pixel value having a relatively high value.
  • the extraction of the target area can be realized by assigning the second pixel value to the target area where the target object is reflected.
  • each far-infrared image is adjusted based on information on the luminance value of each far-infrared image corresponding to a plurality of frames.
  • the pixel value at can be made relatively small. Therefore, the first pixel value having a relatively low value is appropriately assigned to the pixel in the region where the background appears in the composite image, and the second pixel having a relatively high value relative to the pixel in the region where the object appears in the composite image. A value is assigned.
  • the target region can be extracted appropriately. Therefore, in the modified example, the target region can be extracted with high accuracy.
  • the first subtraction unit 277a, the second subtraction unit 277b, the synthesis unit 278, and the binarization unit 279 perform the reference image and the target image after adjustment by the coefficient calculation unit 273 and the normalization units 275a to 275c. Based on these comparison results, a target region in which the target object is shown in the target image is extracted. Specifically, the first subtracting unit 277a, the second subtracting unit 277b, the synthesizing unit 278, and the binarizing unit 279 compare the pixel values of the reference image and the target image after the adjustment, thereby comparing the target region. To extract.
  • the first subtraction unit 277a, the second subtraction unit 277b, the synthesis unit 278, and the binarization unit 279 perform the far-infrared image corresponding to the adjacent frame after the adjustment.
  • the target area is extracted by taking the difference between the pixel values of the reference image and target image corresponding to the pair.
  • the target region is extracted by comparing the pixel values of the reference image and the target image after the adjustment by the coefficient calculation unit 273 and the normalization units 275a to 275c has been described.
  • the region extraction process is not limited to this example.
  • the image processing apparatus 2 generates a probability density function of pixel values in the reference image after adjustment by the coefficient calculation unit 273 and the normalization units 275a to 275c, and the reference image and the target image based on the probability density function And the target region may be extracted.
  • the image processing apparatus 2 follows a Gaussian distribution with the adjusted pixel value as the median value for each pixel of the reference image. Generate a probability density function. Then, the image processing device 2 compares the reference image and the target image between corresponding pixels based on the probability density function. For example, when the probability that the pixel value of a certain pixel in the target image matches the pixel value of the corresponding pixel in the reference image is higher than a predetermined probability, the image processing apparatus 2 It can be determined that the background area is reflected.
  • each pixel of the target image it is determined whether or not each pixel constitutes a background region, and the binarization process is executed based on the determination result, so that the background is spread over adjacent frames. An image in which the boundary between the reflected area and other areas is formed is obtained. After executing such processing instead of the subtraction processing described above, the target region can be extracted by executing synthesis processing and binarization processing.
  • FIG. 15 is a flowchart illustrating an example of a flow of processing performed by the image processing apparatus 2 according to the modification. The process illustrated in FIG. 15 may be executed for each frame, for example.
  • the third statistic calculator 271c reads the far-infrared image Ik most recently captured by the infrared camera 102 (step S601).
  • the third statistic calculation unit 271c may directly read the far-infrared image Ik output from the infrared camera 102, and stores the far-red image from the storage unit 260 after being stored in the storage unit 260 from the infrared camera 102.
  • the outside image Ik may be read.
  • the second statistic calculation unit 271b and the first statistic calculation unit 271a read the far infrared image Ik-1 and the far infrared image Ik-2 from the storage unit 260, respectively (step S603).
  • the first statistic calculation unit 271a, the second statistic calculation unit 271b, and the third statistic calculation unit 271c are a far infrared image Ik-2, a far infrared image Ik-1, and a far infrared image.
  • Each average luminance value of Ik is calculated (step S605), and the calculation result is output to the coefficient calculation unit 273.
  • the coefficient calculation unit 273 calculates a normalization coefficient for making the average luminance values of the far infrared image Ik-2, the far infrared image Ik-1, and the far infrared image Ik coincide with each other.
  • Each of the outer images is calculated (step S607), and the calculation result is output to the first normalization unit 275a, the second normalization unit 275b, and the third normalization unit 275c.
  • the first normalization unit 275a, the second normalization unit 275b, and the third normalization unit 275c each of the far-infrared image Ik-2, the far-infrared image Ik-1, and the far-infrared image Ik.
  • each far-infrared image is adjusted, and the first normalization unit 275a, the second normalization unit 275b, and the third normalization unit 275c convert the adjusted far-infrared images into the first subtraction unit 277a. And output to the second subtracting unit 277b.
  • the first subtracting unit 277a subtracts the pixel value between the corresponding pixels for the adjusted far infrared image Ik-2 and the adjusted far infrared image Ik-1 (step S611). Thereby, a first difference image is generated, and the first subtraction unit 277a outputs the first difference image to the synthesis unit 278.
  • the second subtracting unit 277b subtracts pixel values between corresponding pixels for the adjusted far-infrared image Ik-1 and the adjusted far-infrared image Ik (step S613). Thereby, a second difference image is generated, and the second subtraction unit 277b outputs the second difference image to the synthesis unit 278.
  • the synthesizing unit 278 performs a synthesizing process for synthesizing the generated first difference image and the second difference image (step S615). Thereby, a synthesized image is generated, and the synthesizing unit 278 outputs the synthesized image to the binarizing unit 279.
  • the binarization unit 279 performs binarization processing on the composite image (step S617). Thereby, the target region is extracted. Then, the binarization unit 279 outputs a binarized image as an extraction result (step S619).
  • the storage unit 260 is used in the processing performed by the inter-frame difference processing unit 270, and the target image corresponding to the frame immediately before the far-infrared image captured most recently and the latest image are captured.
  • the setting information of the first reference image corresponding to the frame two frames before the far infrared image may be registered.
  • the inter-frame difference processing unit 270 updates the setting information by setting the far-infrared image Ik and the far-infrared image Ik-1 as the target image and the first reference image, respectively (step S621), the process shown in FIG. 15 ends.
  • the image processing apparatus 2 may or may not perform shutter correction on each captured far-infrared image.
  • the image processing apparatus 2 does not set the closed image captured with the shutter 102g closed as the target image or the first reference image. Update.
  • a computer program for realizing each function of the image processing apparatus 1 according to the present embodiment or the image processing apparatus 2 according to the modification as described above can be produced and mounted on a PC or the like.
  • the image processing apparatus 1 according to the present embodiment or the image processing apparatus 2 according to the modification may correspond to a computer.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • each function of the image processing apparatus 1 according to the present embodiment or the image processing apparatus 2 according to the modification may be divided by a plurality of computers. In this case, each function of the plurality of computers is the above computer. It can be realized by a program.
  • the pixel value conversion unit 173 is a background image that is a far-infrared image in which a background that does not include an object is reflected, and a far-infrared image in which the object is reflected.
  • One of the target images is adjusted based on the function F as a time change model of the observed pixel value.
  • the pixel value conversion unit 173 compensates for pixel value variations caused by temperature variations of the bolometer 102f due to incidence of infrared energy from other than the subject between the time when the background image and the target image are captured.
  • either the background image or the target image can be adjusted.
  • the pixel value in the region where the background appears in the background image and the pixel value in the region where the background appears in the target image can be substantially matched. Therefore, the accuracy of the comparison result between the background image and the target image can be improved.
  • the subtraction unit 175 and the binarization unit 177 after the adjustment by the pixel value conversion unit 173, the object in the target image is based on the comparison result of the background image and the target image. Extract the target area. Therefore, the target region can be extracted with high accuracy.
  • the adjustment unit uses at least one of the reference image for extracting the target image and the target region by the imaging element used for capturing the reference image and the target image.
  • information related to temporal changes hereinafter also referred to as related information
  • related information information related to temporal changes caused by fluctuations in the temperature of the image sensor due to the incidence of infrared energy from other than the subject of the pixel value of the captured far-infrared image. Extract the target area.
  • the reference image and the reference image and the change of the pixel value due to the change of the temperature of the image sensor due to the incidence of infrared energy from other than the subject during the respective times when the reference image and the target image are captured are complemented.
  • At least one of the target images can be adjusted.
  • the extraction unit extracts a target region in which the target object appears in the target image based on a comparison result between the reference image and the target image after adjustment by the adjustment unit. Therefore, the target region can be extracted with high accuracy.
  • the background image corresponds to the above reference image.
  • the pixel value conversion unit 173 corresponds to an adjustment unit.
  • the temporal change model of the observed pixel value corresponds to the related information.
  • the subtraction unit 175 and the binarization unit 177 correspond to an extraction unit.
  • the far-infrared image Ik-2 corresponding to the frame two frames before the far-infrared image Ik captured most recently and the far-infrared image Ik captured most recently are referred to Corresponds to an image.
  • the coefficient calculation unit 273, the first normalization unit 275a, the second normalization unit 275b, and the third normalization unit 275c correspond to the adjustment unit.
  • the first subtracting unit 277a, the second subtracting unit 277b, the synthesizing unit 278, and the binarizing unit 279 correspond to the extracting unit.
  • the function F can be set according to the time when the background image is captured.
  • the model value of the pixel value which is a value obtained by substituting the counter value t corresponding to the time when the background image was captured, into the function F is the actual pixel value after shutter correction in the background image.
  • the function F can be set to match the value.
  • the image processing apparatus 1 may adjust the target image.
  • the image processing apparatus 2 adjusts the far-infrared image Ik-2, the far-infrared image Ik-1, and the far-infrared image Ik has been described. At least two of the far-infrared image Ik-1 and the far-infrared image Ik may be adjusted.
  • the time change of the observed pixel value described with reference to the image processing device 1 By applying the adjustment process based on the model, it may be possible to accurately extract the target region from the far-infrared image.
  • the image processing apparatus 1 or the image processing apparatus 2 described above can be used for various electronic devices. Specifically, it may be used as a part of a surveillance camera or an in-vehicle camera. Or you may utilize for the various electronic devices used for a smart home. Also with the electronic apparatus according to the present embodiment, it is possible to obtain the same effects as those of the image processing apparatus 1 or the image processing apparatus 2 described above.
  • a series of control processing by each device described in this specification may be realized using any of software, hardware, and a combination of software and hardware.
  • the program constituting the software is stored in advance in a storage medium (non-transitory medium) provided inside or outside each device.
  • Each program is read into a RAM at the time of execution, for example, and executed by a processor such as a CPU.
  • the number of processors that execute each program may be one or more.
  • processing described using the flowchart in this specification does not necessarily have to be executed in the order shown in the flowchart. Some processing steps may be performed in parallel. Further, additional processing steps may be employed, and some processing steps may be omitted.
  • Adjustment that adjusts either a background image that is a far-infrared image in which a background that does not include an object is reflected or a target image that is a far-infrared image in which the object is reflected based on a time-varying model of observed pixel values
  • An extraction unit that extracts a target region in which the target object is reflected in the target image based on a comparison result between the background image and the target image after the adjustment
  • An image processing apparatus comprising: (2) An accommodation space in which an image sensor used for imaging the background image and the target image is accommodated is provided so as to be temporarily closed, The adjustment unit adjusts one of the background image and the target image by applying a time after the accommodation space is temporarily closed to the time change model, The image processing apparatus according to (1).
  • the image processing device is in a state where the accommodation space is opened after being temporarily closed by a pixel value of a closed image that is a far-infrared image captured in a state where the accommodation space is temporarily closed.
  • the image processing apparatus according to (2) further including a correction unit that corrects the open image by correcting pixel values of the open image that is the captured far-infrared image.
  • a time change caused by a change in temperature of the image sensor due to incidence of infrared energy from other than a subject of a pixel value of a far infrared image captured by the image sensor is defined, The image processing apparatus according to (2) or (3).
  • the image processing apparatus wherein in the time change model, the time change is defined based on a temperature inside the accommodation space and a temperature outside the accommodation space.
  • the model value of the pixel value of the far-infrared image picked up by the image sensor increases with time.
  • the image processing apparatus wherein the time change is defined so as to decrease after the operation.
  • the time change model when the temperature in the accommodation space is relatively high, the time change rate of the model value is smaller than that in the case where the temperature in the accommodation space is relatively low.
  • the image processing device according to (6), wherein a time change is defined.
  • the time change model when the temperature outside the accommodation space is relatively high, the time when the model value starts to decrease is earlier than when the temperature outside the accommodation space is relatively low.
  • the time change is defined so that the model value increases after decreasing with the passage of time when the temperature in the storage space is lower than the temperature outside the storage space.
  • the adjustment unit supplements fluctuations in pixel values caused by fluctuations in temperature of the imaging element due to incidence of infrared energy from other than the subject during each time when the background image and the target image are captured.
  • the image processing apparatus according to any one of (4) to (9), wherein any one of the background image and the target image is adjusted.
  • the image processing apparatus is capable of capturing a far-infrared image and includes an imaging unit having the imaging element.
  • the imaging unit includes a shutter capable of temporarily closing a space in which the imaging element is accommodated.
  • the imaging element includes a bolometer.
  • the extraction unit extracts the target region by comparing pixel values of the background image and the target image after the adjustment. Processing equipment.
  • the extraction unit generates a probability density function of pixel values in the background image after the adjustment, and extracts the target region by comparing the background image and the target image based on the probability density function
  • the image processing device according to any one of (1) to (13).
  • One of a background image that is a far-infrared image showing a background that does not include an object and a target image that is a far-infrared image showing the object is displayed on the basis of a time-varying model of observed pixel values. Adjusting, After the adjustment, based on a comparison result between the background image and the target image, extracting a target region in which the target object appears in the target image; Including an image processing method.
  • Imaging used for imaging the reference image and the target image at least one of a target image that is a far-infrared image showing the target and a reference image for extracting a target region in which the target is reflected in the target image
  • An adjustment unit that adjusts a pixel value of a far-infrared image captured by the element based on information related to a time change caused by a change in temperature of the image sensor due to incidence of infrared energy from other than the subject
  • An extraction unit that extracts the target region based on a comparison result between the reference image and the target image after the adjustment;
  • An image processing apparatus comprising:

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Radiation Pyrometers (AREA)
  • Image Analysis (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

【課題】遠赤外画像について対象領域を精度良く抽出することを可能とする。 【解決手段】対象物を含まない背景が映る遠赤外画像である背景画像及び前記対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整する調整部と、前記調整の後に、前記背景画像及び前記対象画像の比較結果に基づいて、前記対象画像において前記対象物が映る対象領域を抽出する抽出部と、を備える、画像処理装置を提供する。

Description

画像処理装置及び画像処理方法
 本開示は、画像処理装置及び画像処理方法に関する。
 近年、暗視等の目的で、遠赤外画像が利用されている。遠赤外画像は、物体からの黒体放射によって発せられる遠赤外線を撮像素子により捕捉することによって生成される。遠赤外画像の撮像では、照射された遠赤外線を熱に変換し、温度変化を電気信号として出力する熱型の撮像素子が利用され得る。このような撮像素子を用いて撮像される遠赤外画像において、被写体の温度が一定である場合であっても、被写体以外からの赤外線エネルギの入射による撮像素子自体の温度の変動に起因して、画素値が変動し得る。そこで、このような撮像素子の温度の変動に起因する画素値の変動を抑制するための技術が提案されている。
 例えば、特許文献1では、熱型の撮像素子を含むセンサの温度変動に対して当該センサの出力信号を補償するために、当該センサへ赤外線放射が入射することを阻止可能なシャッタを含む撮像システムにおいて、当該シャッタを周期的に動作させて、当該シャッタが閉鎖されているときにおける当該センサを走査することにより得られる当該センサの温度と、現在の当該センサの温度との差に基づいて、当該センサに関連するパラメータを更新する技術が提案されている。
特表2003-532111号公報
 しかしながら、遠赤外画像に関する分野において、被写体以外からの赤外線エネルギの入射による撮像素子の温度の変動に起因する画素値の変動は、少なからず生じ得る。具体的には、特許文献1に開示されている技術では、シャッタが一時的に閉鎖された後においてセンサの温度が変動し得る。それにより、当該センサの温度の変動に起因して、得られる遠赤外画像の画素値の変動が生じ得る。
 ところで、可視光画像に関する分野において、得られた可視光画像において移動物体等の対象物が映る対象領域を抽出する技術が利用されている。具体的には、対象物を含まない背景が映る画像である背景画像及び当該対象物が映る画像である対象画像の比較結果に基づいて、対象領域を抽出する背景差分法と称される技術が知られている。ここで、背景差分法を遠赤外画像に適用することによって、可視光画像について対象領域の抽出が困難である場合であっても、対象領域を抽出し得ることが考えられる。
 上述したように、遠赤外画像において、被写体以外からの赤外線エネルギの入射による撮像素子の温度の変動に起因して画素値の変動が生じ得る。ゆえに、背景差分法を遠赤外画像に適用した場合に、背景画像及び対象画像について、背景が映る領域における画素値の差が生じ得る。ここで、背景差分法では、例えば、背景画像及び対象画像の画素値を比較することによって、対象領域の抽出が行われる。よって、遠赤外画像について対象領域を精度良く抽出することが困難となり得る。
 そこで、本開示では、遠赤外画像について対象領域を精度良く抽出することが可能な、新規かつ改良された画像処理装置及び画像処理方法を提案する。
 本開示によれば、対象物を含まない背景が映る遠赤外画像である背景画像及び前記対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整する調整部と、前記調整の後に、前記背景画像及び前記対象画像の比較結果に基づいて、前記対象画像において前記対象物が映る対象領域を抽出する抽出部と、を備える、画像処理装置が提供される。
 また、本開示によれば、画像処理装置によって、対象物を含まない背景が映る遠赤外画像である背景画像及び前記対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整することと、前記調整の後に、前記背景画像及び前記対象画像の比較結果に基づいて、前記対象画像において前記対象物が映る対象領域を抽出することと、を含む、画像処理方法が提供される。
 また、本開示によれば、対象物が映る遠赤外画像である対象画像及び前記対象画像において前記対象物が映る対象領域を抽出するための参照画像のうち少なくとも一方を、前記参照画像及び前記対象画像の撮像に用いられる撮像素子によって撮像される遠赤外画像の画素値の、被写体以外からの赤外線エネルギの入射による前記撮像素子の温度の変動に起因する、時間変化に関連する情報に基づいて、調整する調整部と、前記調整の後に、前記参照画像及び前記対象画像の比較結果に基づいて、前記対象領域を抽出する抽出部と、を備える、画像処理装置が提供される。
 以上説明したように本開示によれば、遠赤外画像について対象領域を精度良く抽出することが可能である。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果又は本明細書から把握され得る他の効果が奏されてもよい。
波長に依存する赤外線画像の多様な用途について説明するための説明図である。 シャッタ補正後の画素値の時間変化の一例を示す説明図である。 各フレームの遠赤外画像についての背景差分法による抽出結果の一例について説明するための説明図である。 本開示の実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 赤外線カメラの構成の一例を示す模式図である。 同実施形態に係る画像処理装置の機能構成の一例を示すブロック図である。 関数Fの一例を示す説明図である。 関数Fの一例を示す説明図である。 関数Fの一例を示す説明図である。 関数Fの一例を示す説明図である。 関数Fの一例を示す説明図である。 同実施形態に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。 フレーム間差分法の概要について説明するための説明図である。 変形例に係る画像処理装置の機能構成の一例を示すブロック図である。 変形例に係る画像処理装置が行う処理の流れの一例を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.導入
 2.画像処理装置
  2-1.ハードウェア構成
  2-2.機能構成
  2-3.動作
 3.変形例
  3-1.フレーム間差分法の概要
  3-2.機能構成
  3-3.動作
 4.まとめ
 <1.導入>
 図1は、波長に依存する赤外線画像の多様な用途について説明するための説明図である。図1の水平方向は赤外線の波長に対応し、左から右へと波長は長くなる。0.7μm以下の波長を有する光線は可視光線であり、人間の視覚はこの可視光線を感知する。可視光領域に隣接する波長領域は近赤外(NIR)領域であり、NIR領域に属する赤外線を近赤外線という。NIR領域の波長の上限は、定義に依存して異なるものの、2.5μmから4.0μmの間にあるとされることが多い。NIR領域のうち相対的に波長の長い部分は、短波長赤外(SWIR)領域と呼ばれることもある。近赤外線は、例えば、暗視(night vision)、透視、光通信及び測距のために利用され得る。近赤外画像を撮像するカメラは、通常、まず近傍に赤外線を照射し、その反射光を捕捉する。NIR領域に長波長側で隣接する波長領域は遠赤外(FIR)領域であり、FIR領域に属する赤外線を遠赤外線という。FIR領域のうち相対的に波長の短い部分は、中波長赤外(MWIR)領域と呼ばれることもある。中波長赤外線の波長範囲では物質固有の吸収スペクトルが現れることから、中波長赤外線は、物質の同定のために利用され得る。遠赤外線は、暗視、サーモグラフィ及び加熱のために利用され得る。物体からの黒体放射によって発せられる赤外線は、遠赤外線に相当する。そのため、遠赤外線を用いた暗視装置は、赤外線を照射せずとも、物体からの黒体放射を捕捉することにより遠赤外画像を生成することができる。なお、図1に示した波長の範囲の境界値は例に過ぎない。赤外線の分類の境界値には様々な定義が存在しており、本開示に係る技術の後述する利点は、いかなる定義の下でも享受され得る。
 遠赤外画像の撮像では、具体的には、照射された遠赤外線を熱に変換し、温度変化を電気信号として出力する熱型の撮像素子が利用され得る。このような撮像素子を用いて撮像される遠赤外画像において、被写体の温度が一定である場合であっても、被写体以外からの赤外線エネルギの入射による撮像素子自体の温度の変動に起因して、画素値が変動し得る。
 そこで、上述したように、このような画素値の変動を抑制するために、熱型の撮像素子へ遠赤外線が入射することを阻止可能なシャッタを利用する方法が提案されている。シャッタを利用する方法では、例えば、シャッタが一時的に閉鎖されたときに遠赤外画像である閉画像が撮像され、シャッタが一時的に閉鎖された後に開放された状態で撮像された遠赤外画像である開画像が、当該閉画像に基づいて補正される。具体的には、閉画像の画素値により開画像の画素値を補正することによって、当該開画像が補正される。以下、当該補正をシャッタ補正とも称する。シャッタ補正では、より具体的には、開画像の画素値から、閉画像の画素値を減算することによって、当該開画像が補正される。
 図2は、シャッタ補正後の画素値の時間変化の一例を示す説明図である。具体的には、図2では、定温の被写体を継続的に撮像することによって得られる遠赤外画像における1つの画素である代表画素についてのシャッタ補正後の画素値の時間変化の一例が示されている。図2に示したシャッタフレームFs1~Fs6は、シャッタが一時的に閉鎖された状態で撮像された閉画像に相当するフレームである。図2に示したように、シャッタフレームFs1~Fs6の各々の直後のフレームにおける画素値は、互いに略一致する。
 しかしながら、互いに隣接するシャッタフレーム間に相当する時間において、画素値は変動し得る。具体的には、シャッタが閉鎖されることによって、撮像素子が収容される収容空間内に熱が溜まり得る。その場合、シャッタが一時的に閉鎖された後において、撮像素子の温度が上昇する。それにより、シャッタ補正後の画素値は、図2に示したように、シャッタが閉鎖された後において、上昇する。そして、収容空間内の温度と収容空間外の温度とが平衡に達した後、撮像素子の温度は低下する。それにより、シャッタ補正後の画素値は、シャッタが一時的に閉鎖された後において、図2に示したように、上昇した後に低下する。このように、被写体以外からの赤外線エネルギの入射による撮像素子の温度の変動に起因する画素値の変動は、少なからず生じ得る。
 なお、熱型の撮像素子の温度の変動に起因する遠赤外画像の画素値の変動を抑制するための他の方法として、各画素に対応する撮像素子の各々の感度の個体差に着目した画像処理を行う方法が提案されている。しかしながら、このような方法では、各処理において用いられるデータの量が比較的多くなり得るので、シャッタ補正を利用した方法と比較して、メモリの消費量が増大する場合がある。
 ここで、上述したシャッタ補正を利用した方法によって得られる遠赤外画像に対して背景差分法を適用することによって、当該遠赤外画像において対象物が映る対象領域を抽出する場合について考える。図3は、各フレームの遠赤外画像についての背景差分法による抽出結果の一例について説明するための説明図である。図2に示したシャッタフレームFs1とシャッタフレームFs2の間におけるフレームF1、フレームF2、及びフレームF3のそれぞれと、図3に示した遠赤外画像Im1、遠赤外画像Im2、及び遠赤外画像Im3のそれぞれとが対応するものとする。また、遠赤外画像Im1は対象物を含まない背景が映る遠赤外画像である背景画像に相当し、遠赤外画像Im2及び遠赤外画像Im3は対象物が映る遠赤外画像である対象画像に相当する。
 背景差分法では、具体的には、まず、背景画像及び対象画像の画素値の差分をとることによって、差分画像が生成される。次に、当該差分画像に対して2値化処理が施されることによって、対象領域が抽出される。そして、抽出結果として、2値化画像が出力される。図3に示したように、背景画像である遠赤外画像Im1には、例えば、背景としての壁及び天井等の内装部b1が映っている。また、対象画像である遠赤外画像Im2及び遠赤外画像Im3には、背景としての内装部b1と、対象物としての人の腕f1とが映っている。ここで、図3に示した遠赤外画像において、ハッチングの濃淡は画素値の異同を示す。当該ハッチングが濃い区域ほど、画素値が低い区域である。
 図2に示したように、フレームF3及びフレームF1のそれぞれに対応するシャッタ補正後の画素値は、略一致する。ゆえに、遠赤外画像Im3及び遠赤外画像Im1のそれぞれにおいて内装部b1が映る領域における画素値は、略一致する。よって、背景画像としての遠赤外画像Im1及び対象画像としての遠赤外画像Im3について、背景である内装部b1が映る領域における画素値は略一致する。一方、図2に示したように、フレームF2に対応するシャッタ補正後の画素値は、フレームF1と比較して、高い。ゆえに、遠赤外画像Im2において内装部b1が映る領域における画素値は、遠赤外画像Im1と比較して、高い。よって、背景画像としての遠赤外画像Im1及び対象画像としての遠赤外画像Im2について、背景である内装部b1が映る領域における画素値の差が生じる。
 図3では、遠赤外画像Im3及び遠赤外画像Im1について生成される差分画像に2値化処理を施すことによって、生成された2値化画像Im30が示されている。また、図3では、遠赤外画像Im2及び遠赤外画像Im1について生成される差分画像に2値化処理を施すことによって、生成された2値化画像Im20が示されている。2値化処理では、例えば、差分画像において閾値より低い画素値を有する画素に対して比較的低い値の第1画素値を割り当て、差分画像において当該閾値以上の画素値を有する画素に対して比較的高い値の第2画素値へ割り当てる。それにより、対象物が映る対象領域に第2画素値が割り当てられることによって、対象領域の抽出が実現され得る。
 図3に示したように、2値化画像Im30では、遠赤外画像Im3において腕f1が映る腕領域と略一致する領域に第1画素値が割り当てられ、遠赤外画像Im3において内装部b1が映る内装部領域と略一致する領域に第1画素値と異なる第2画素値が割り当てられている。ゆえに、対象領域としての腕領域が適切に抽出されている。一方、2値化画像Im20では、遠赤外画像Im3において腕f1が映る腕領域と略一致する領域内の一部に第2画素値が割り当てられ、遠赤外画像Im3において内装部b1が映る内装部領域と略一致する領域の一部に第1画素値が割り当てられている。ゆえに、対象領域としての腕領域の抽出が適切に行われていない。
 このように、遠赤外画像において、被写体以外からの赤外線エネルギの入射による撮像素子の温度の変動に起因して生じ得る画素値の変動によって、対象領域を精度良く抽出することが困難となり得る。そこで、本明細書では、遠赤外画像について対象領域を精度良く抽出することができる仕組みを提案する。
 <2.画像処理装置>
 続いて、図4~図12を参照して、本開示の実施形態に係る画像処理装置1について説明する。
  [2-1.ハードウェア構成]
 まず、図4及び図5を参照して、本実施形態に係る画像処理装置1のハードウェア構成について説明する。
 図4は、本実施形態に係る画像処理装置1のハードウェア構成の一例を示すブロック図である。図4に示したように、画像処理装置1は、赤外線カメラ102と、入力インタフェース104と、メモリ106と、ディスプレイ108と、通信インタフェース110と、ストレージ112と、プロセッサ114と、バス116と、を備える。
   (赤外線カメラ)
 赤外線カメラ102は、赤外線を利用した撮像を行い、非カラー画像である赤外線画像を得る撮像モジュールである。赤外線カメラ102は、本開示に係る撮像部に相当する。赤外線カメラ102は、具体的には、FIR領域に属する波長を有する遠赤外線を感知する撮像素子の配列を有しており、遠赤外画像を撮像する。赤外線カメラ102は、例えば、一定の時間間隔で遠赤外画像を撮像する。また、赤外線カメラ102により得られる一連の遠赤外画像は、映像を構成してもよい。
 本実施形態に係る赤外線カメラ102には、照射された遠赤外線を熱に変換し、温度変化を電気信号として出力する熱型の撮像素子が設けられる。具体的には、赤外線カメラ102における撮像素子として、ボロメータが利用される。ボロメータの抵抗値は、遠赤外線の照射により熱せられることによって変化する。ボロメータに電流を流すことによって、温度変化に応じた電圧値が検出され得る。
 図5は、赤外線カメラ102の構成の一例を示す模式図である。図5に示したように、赤外線カメラ102は、筐体102aと、第1レンズ102b及び第2レンズ102cと、透光部102dと、カバー部102eと、ボロメータ102fと、シャッタ102gと、を含む。シャッタ102gは、ボロメータ102fが収容される収容空間L102を一時的に閉鎖可能であり、図5では、シャッタ102gが開放された状態及びシャッタ102gが閉鎖された状態がそれぞれ示されている。このように、収容空間L102は、一時的に閉され得るように設けられる。
 筐体102aは、被写体側には開口部が設けられ、赤外線カメラ102へ照射された遠赤外線は、当該開口部から筐体102a内へ入射する。筐体102a内の被写体側には、第1レンズ102b及び第2レンズ102cが外側から順に並設される。第1レンズ102b及び第2レンズ102cは、照射される遠赤外線をボロメータ102fへ集光するために設けられる。なお、このようなレンズの数及び配置は、特に限定されない筐体102a内の被写体と逆側には、ボロメータ102f及びボロメータ102fを覆うカバー部102eが、設けられる。また、カバー部102eにおける被写体側には、照射された遠赤外線を透過させる透光部102dが設けられる。シャッタ102gが開放された状態において、赤外線カメラ102へ照射された遠赤外線は、第1レンズ102b、第2レンズ102c、及び透光部102dを順に通過した後に、ボロメータ102f上に集光される。それにより、ボロメータ102fによって、遠赤外線が感知される。
 シャッタ102gは、筐体102a内においてシャッタ102gよりボロメータ102f側の空間に相当する収容空間L102を一時的に閉鎖可能である。シャッタ102gは、例えば、第2レンズ102cと透光部102dとの間に開閉可能に設けられる。シャッタ102gが閉鎖された状態において、赤外線カメラ102へ照射された遠赤外線は、第1レンズ102b及び第2レンズ102cを順に通過した後に、シャッタ102gによって遮蔽される。シャッタ102gは、例えば、一定のフレーム間隔で周期的に閉鎖される。また、シャッタ102gが閉鎖される時期は、内部センサ102sによって検出される収容空間L102内の温度に基づいて、決定されてもよい。以下では、収容空間L102がシャッタ102gにより一時的に閉鎖された状態で撮像された遠赤外画像を閉画像とも呼び、収容空間L102がシャッタ102gにより一時的に閉鎖された後に開放された状態で撮像された遠赤外画像を開画像とも呼ぶ。なお、開画像は、背景画像と、対象画像と、を含む。
 また、収容空間L102内には、内部センサ102sが設けられる。内部センサ102sは、収容空間L102内の温度を検出する。また、収容空間L102外には、外部センサ102hが設けられる。外部センサ102hは、収容空間L102外の温度を検出する。外部センサ102hは、例えば、筐体102aの外部に設けられてもよく、筐体102a内におけるシャッタ102gより被写体側に設けられてもよい。以下、図4に戻り、画像処理装置1のハードウェア構成の説明を続ける。
   (入力インタフェース)
 入力インタフェース104は、ユーザが画像処理装置1を操作し又は画像処理装置1へ情報を入力するために使用される。例えば、入力インタフェース104は、タッチセンサ、キーボード、キーパッド、ボタン、又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース104は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。また、入力インタフェース104は、ユーザにより選択される命令をリモートデバイスから受信する遠隔制御モジュールを含んでもよい。
   (メモリ)
 メモリ106は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み得る記憶媒体である。メモリ106は、プロセッサ114に連結され、プロセッサ114により実行される処理のためのプログラム及びデータを記憶する。
   (ディスプレイ)
 ディスプレイ108は、画像を表示する画面を有する表示モジュールである。例えば、ディスプレイ108は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)、又はCRT(Cathode Ray Tube)などであってもよい。
   (通信インタフェース)
 通信インタフェース110は、画像処理装置1と他の装置との間の通信を仲介するモジュールである。通信インタフェース110は、任意の無線通信プロトコル又は有線通信プロトコルに従って、通信接続を確立する。
   (ストレージ)
 ストレージ112は、赤外線画像データを蓄積し又は画像処理において利用されるデータベースを記憶する記憶デバイスである。ストレージ112は、半導体メモリ又はハードディスクなどの記憶媒体を内蔵する。なお、本明細書で説明するプログラム及びデータは、画像処理装置1の外部のデータソース(例えば、データサーバ、ネットワークストレージ、又は外付けメモリなど)から取得されてもよい。
   (プロセッサ)
 プロセッサ114は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などの処理モジュールである。プロセッサ114は、メモリ106又は他の記憶媒体に記憶されるプログラムを実行することにより、遠赤外画像について対象領域を精度良く抽出することを可能とするための機能を動作させる。
   (バス)
 バス116は、赤外線カメラ102、入力インタフェース104、メモリ106、ディスプレイ108、通信インタフェース110、ストレージ112、及びプロセッサ114を相互に接続する。
  [2-2.機能構成]
 続いて、図6~図11を参照して、本実施形態に係る画像処理装置1の機能構成について説明する。
 図6は、図4に示した画像処理装置1の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。図6に示したように、画像処理装置1は、シャッタ補正部140と、背景画像更新部150と、記憶部160と、背景差分処理部170と、を備える。
   (シャッタ補正部)
 シャッタ補正部140は、赤外線カメラ102によって撮像された開画像を、閉画像に基づいて補正するシャッタ補正を実行し、シャッタ補正後の開画像を背景画像更新部150へ出力する。シャッタ補正部140は、本開示に係る補正部に相当する。シャッタ補正部140は、具体的には、閉画像の画素値により開画像の画素値を補正することによって、当該開画像を補正する。シャッタ補正部140は、例えば、開画像の画素値から、閉画像の画素値を減算することによって、当該開画像を補正する。具体的には、シャッタ補正部140は、開画像の各画素について、閉画像の対応する画素の画素値を減算することによって、当該開画像を補正する。このようなシャッタ補正を実行することによって、上述したように、被写体以外からの赤外線エネルギの入射によるボロメータ102fの温度の変動に起因する画素値の変動を部分的に抑制することができる。シャッタ補正において用いられる閉画像は、記憶部160に記憶される。
 また、シャッタ補正部140は、赤外線カメラ102によって撮像された遠赤外画像が閉画像である場合には、記憶部160に記憶されている閉画像を当該遠赤外画像へ更新する。なお、画像処理装置1は、赤外線カメラ102によって遠赤外画像が撮像されたときに、当該遠赤外画像に対応するフレームがシャッタフレームであるか否かを示す情報を生成し得る。それにより、画像処理装置1における各機能部は、撮像された遠赤外画像が閉画像であるか開画像であるかを判定し得る。具体的には、画像処理装置1は、シャッタフレームであるか否かを示す情報としてシャッタフラグ信号を生成してもよい。例えば、シャッタフレームであることを示すシャッタフラグ信号を「1」とし、シャッタフレームではないことを示すシャッタフラグ信号を「0」としてもよい。
   (背景画像更新部)
 背景画像更新部150は、赤外線カメラ102によって撮像された開画像である遠赤外画像が背景画像である場合に、記憶部160に記憶されている背景画像をシャッタ補正部140から入力されたシャッタ補正後の当該遠赤外画像へ更新する。なお、画像処理装置1は、赤外線カメラ102によって開画像である遠赤外画像が撮像されたときに、当該遠赤外画像に対応するフレームが背景画像に対応するフレームであるか否かを示す情報を生成し得る。それにより、画像処理装置1における各機能部は、シャッタ補正部140から入力された遠赤外画像が背景画像であるか対象画像であるかを判定し得る。
 背景画像は、例えば、赤外線カメラ102によって事前に予め撮像され、記憶部160に記憶され得る。具体的には、背景画像は、収容空間L102がシャッタ102gによって一時的に閉鎖された直後に撮像される。換言すると、背景画像は、いずれかのシャッタフレームの直後のフレームに対応する。
 なお、背景画像更新部150は、所定のフレームに渡って対象領域が存在しないと判定した場合に、シャッタ補正部140から入力された遠赤外画像が背景画像であると判定してもよい。所定のフレームに渡って対象領域が存在しないか否かの判定は、後述するフレーム間差分法を利用することによって、実現され得る。例えば、背景差分処理部170によって抽出された対象領域に関する情報が、背景差分処理部170から背景画像更新部150へ出力されるように構成されてもよく、その場合、背景画像更新部150は、当該情報に基づいて、シャッタ補正部140から入力された遠赤外画像が背景画像であるか否かを判定してもよい。
 また、背景画像更新部150は、赤外線カメラ102が起動した時刻から所定の期間が経過した後にシャッタ102gが初めて閉鎖される時刻以前において、所定のフレームに渡って対象領域が存在しないと判定される場合であっても、シャッタ補正部140から入力された遠赤外画像が背景画像であると判定しなくてもよい。ここで、赤外線カメラ102が起動した時刻から所定の期間が経過した後にシャッタ102gが初めて閉鎖される時刻以前において、筐体102a内の温度の急激な上昇が生じ得る。このような筐体102a内の温度の急激な上昇は、得られる遠赤外画像の画素値に対する外乱となり得る。ゆえに、上記のように背景画像であるか否かの判定を上記の所定の条件下において禁止することによって、背景画像へ外乱の影響が与えられることを抑制することができる。なお、背景画像更新部150は、筐体102a内の温度が安定したと判定するまでの間、背景画像であるか否かの判定を禁止することが、より好ましい。
 また、背景画像更新部150は、赤外線カメラ102によって撮像された開画像である遠赤外画像が対象画像である場合には、シャッタ補正部140から入力されたシャッタ補正後の当該遠赤外画像を背景差分処理部170へ出力する。
   (記憶部)
 記憶部160は、画像処理装置1が行う各処理において参照されるデータを記憶する。例えば、記憶部160は、シャッタ補正部140が行うシャッタ補正処理において用いられる、直近に撮像された閉画像を記憶する。また、記憶部160は、背景差分処理部170が行う背景差分法を用いた対象領域の抽出処理において用いられる、直近に撮像された背景画像及び関数Fに関する情報を記憶する。
   (背景差分処理部)
 背景差分処理部170は、背景差分法を用いて、対象画像における対象物が映る対象領域を抽出する。背景差分処理部170は、図6に示したように、カウンタ算出部171と、画素値変換部173と、減算部175と、2値化部177と、を含む。
 カウンタ算出部171は、収容空間L102がシャッタ102gによって一時的に閉鎖された後において経過した時間と対応するカウンタ値tを算出し、カウンタ値tの算出結果を画素値変換部173へ出力する。カウンタ値tは、画素値変換部173が行う処理において利用される。カウンタ算出部171は、例えば、赤外線カメラ102によって遠赤外画像が撮像されたときに生成されたシャッタフラグ信号が「1」である場合に、当該遠赤外画像に対応するフレームがシャッタフレームであると判定し、カウンタ値tを0に設定する。換言すると、カウンタ算出部171は、赤外線カメラ102によって撮像された遠赤外画像が閉画像である場合に、カウンタ値tを0に設定する。また、カウンタ算出部171は、例えば、赤外線カメラ102によって遠赤外画像が撮像されたときに生成されたシャッタフラグ信号が「0」である場合に、当該遠赤外画像に対応するフレームがシャッタフレームではないと判定し、カウンタ値tに1を加算する。換言すると、カウンタ算出部171は、赤外線カメラ102によって撮像された遠赤外画像が開画像である場合に、カウンタ値tに1を加算する。
 画素値変換部173は、対象物を含まない背景が映る遠赤外画像である背景画像及び当該対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整する本開示に係る調整部に相当する。具体的には、画素値変換部173は、記憶部160に記憶されている背景画像を、当該時間変化モデルに基づいて、調整し、調整後の背景画像を減算部175へ出力する。画素値変換部173は、例えば、赤外線カメラ102によって撮像された遠赤外画像が対象画像である場合に、当該調整を実行する。
 観測画素値の時間変化モデルでは、具体的には、ボロメータ102fによって撮像される遠赤外画像の画素値の、被写体以外からの赤外線エネルギの入射によるボロメータ102fの温度の変動に起因する時間変化が規定されている。ここで、当該時間変化は、撮像される遠赤外画像の画素値の、時間の経過に伴う、変動の特性を意味する。より具体的には、上記時間変化モデルとして、定温の被写体を継続的に撮像することによって得られる遠赤外画像におけるシャッタ補正後の画素値の時間変化が規定されている関数Fが適用され得る。以下では、定温の被写体を継続的に撮像することによって得られる遠赤外画像におけるシャッタ補正後の画素値を、単に、シャッタ補正後の画素値とも称する。
 本実施形態では、画素値変換部173は、記憶部160に記憶されている背景画像を、観測画素値の時間変化モデルとしての関数Fに基づいて、調整する。具体的には、画素値変換部173は、記憶部160に記憶されている背景画像の各画素について、画素値を関数Fに基づいて変換することによって、当該背景画像を調整する。以下、関数Fについてより詳細に説明する。
 画素値変換部173は、具体的には、収容空間L102が一時的に閉鎖された後における時間を関数Fに適用して、背景画像を調整する。換言すると、関数Fでは、収容空間L102が一時的に閉鎖された後における、シャッタ補正後の画素値の、被写体以外からの赤外線エネルギの入射によるボロメータ102fの温度の変動に起因する時間変化が規定されている。シャッタ補正を利用する場合、上述したように、収容空間L102がシャッタ102gによって一時的に閉鎖されることに起因してボロメータ102fの温度の変動が生じる。ゆえに、関数Fを上記のように設定することによって、シャッタ補正を利用する場合における画素値の変動の特性を適切に表現することができる。
 関数Fは、例えば、カウンタ値tの関数であり、以下の式(1)によって表される。なお、カウンタ値tは、上述したように、収容空間L102がシャッタ102gによって一時的に閉鎖された後において経過した時間と対応する。関数Fでは、各カウンタ値tに対応する時刻におけるシャッタ補正後の画素値のモデル値が規定されている。
Figure JPOXMLDOC01-appb-M000001
 式(1)におけるA1、A2、及びT0は、例えば、画像処理装置1における各種設計仕様に応じて設定される定数である。A1及びT0は正の値をとり、A2は負の値をとる。なお、各定数等の関数Fに関する情報は、記憶部160に記憶され得る。図7は、式(1)によって表される関数Fを示す説明図である。図7に示したように、関数Fにおいて、シャッタ補正後の画素値のモデル値は、時間の経過に伴って上昇した後に低下するように設定されてもよい。式(1)におけるC0は、収容空間L102がシャッタ102gによって一時的に閉鎖された直後に撮像された背景画像におけるシャッタ補正後の画素値の実値である。式(1)によって表される関数Fは、具体的には、仮に対象物を含まない背景を継続的に撮像した場合に得られる遠赤外画像におけるシャッタ補正後の画素値についての、収容空間L102が一時的に閉鎖された後における時間変化を規定する。なお、関数Fにおける各定数は、固定値であってもよく、後述するように、収容空間L102内の温度、収容空間L102外の温度、及び、C0に基づいて設定されてもよい。
 画素値変換部173は、具体的には、記憶部160に記憶されている背景画像の画素値を、カウンタ算出部171によって算出されたカウンタ値tを関数Fに代入することにより得られる値へ変換することによって、当該背景画像を調整する。より具体的には、画素値変換部173は、このような関数Fに基づく画素値の変換を、背景画像の各画素について、実行する。
 ここで、背景画像は、上述したように、収容空間L102がシャッタ102gによって一時的に閉鎖された直後に撮像され得る。ゆえに、赤外線カメラ102によって撮像された遠赤外画像が対象画像である場合において、カウンタ値tは、背景画像が撮像された時刻から対象画像が撮像された時刻までの時間と対応し得る。よって、画素値変換部173は、関数Fに基づいて調整を行うことによって、背景画像及び対象画像が撮像されたそれぞれの時刻の間における被写体以外からの赤外線エネルギの入射によるボロメータ102fの温度の変動に起因する画素値の変動を補完するように、背景画像を調整することができる。それにより、背景画像において背景が映る領域における画素値と、対象画像において背景が映る領域における画素値を略一致させることができる。ゆえに、背景画像及び対象画像の比較結果の精度を向上させることができる。
 関数Fでは、収容空間L102内の温度及び収容空間L102外の温度に基づいて、シャッタ補正後の画素値の時間変化が規定されてもよい。それにより、シャッタ補正を利用する場合における画素値の時間変化をより適切に規定することができる。
 具体的には、関数Fでは、収容空間L102内の温度が収容空間L102外の温度より高い場合において、シャッタ補正後の画素値のモデル値が、時間の経過に伴って上昇した後に低下するように、シャッタ補正後の画素値の時間変化が規定されてもよい。収容空間L102内の温度が収容空間L102外の温度より高い場合、関数Fは、例えば、図7に示した式(1)によって表される関数に設定されてもよい。
 赤外線カメラ102が駆動されている状態において、基本的に、収容空間L102内の温度は収容空間L102外の温度より高い。このような場合には、収容空間L102がシャッタ102gによって一時的に閉鎖されることによって、ボロメータ102fが収容される収容空間L102内に熱が溜まり得る。それにより、ボロメータ102fの温度は、シャッタが一時的に閉鎖された後において、上昇する。そして、ボロメータ102fの温度は、収容空間L102内の温度と収容空間L102外の温度とが平衡に達した後に、低下する。ゆえに、シャッタ補正後の画素値は、収容空間L102がシャッタ102gによって一時的に閉鎖された後において、時間の経過に伴って上昇した後に低下する。よって、収容空間L102内の温度が収容空間L102外の温度より高い場合において、関数Fを上記のように設定することによって、シャッタ補正後の画素値の時間変化をより適切に規定することができる。
 また、関数Fでは、収容空間L102内の温度が比較的高い場合において、シャッタ補正後の画素値のモデル値の時間変化率が、収容空間L102内の温度が比較的低い場合と比較して、小さくなるように、シャッタ補正後の画素値の時間変化が規定されてもよい。収容空間L102内の温度が比較的高い場合、関数Fは、例えば、以下の式(2)によって表される関数Fに設定されてもよい。
Figure JPOXMLDOC01-appb-M000002
 式(2)におけるB1及びB2は、定数である。B1は正の値をとり、B2は負の値をとる。B1及びB2の絶対値は、それぞれ式(1)におけるA1及びA2の絶対値と比較して、小さな値に設定される。ここで、式(1)によって表される関数Fは、収容空間L102内の温度が比較的低い場合において設定される関数に相当する。図8は、式(2)によって表される関数Fを示す説明図である。図8では、二点鎖線によって、式(1)によって表される関数Fが示されている。
 収容空間L102内の温度が比較的高い場合には、ボロメータ102f自体の温度も比較的高いので、収容空間L102内に溜まった熱のボロメータ102fへの流入量は低下し得る。それにより、収容空間L102がシャッタ102gによって一時的に閉鎖された後におけるボロメータ102fの温度の上昇速度は、比較的低くなり得る。ゆえに、シャッタが一時的に閉鎖された後におけるシャッタ補正後の画素値の上昇速度は、比較的低くなり得る。よって、収容空間L102内の温度が比較的高い場合において、関数Fを上記のように設定することによって、シャッタ補正後の画素値の時間変化をより適切に規定することができる。
 また、関数Fでは、収容空間L102外の温度が比較的高い場合において、シャッタ補正後の画素値のモデル値が低下し始める時刻が、収容空間L102外の温度が比較的低い場合と比較して、早くなるように、シャッタ補正後の画素値の時間変化が規定されてもよい。収容空間L102外の温度が比較的高い場合、関数Fは、例えば、以下の式(3)によって表される関数Fに設定されてもよい。
Figure JPOXMLDOC01-appb-M000003
 式(3)におけるT1は、定数である。T1は正の値をとる。T1の絶対値は、式(1)におけるT0の絶対値と比較して、小さな値に設定される。ここで、式(1)によって表される関数Fは、収容空間L102外の温度が比較的低い場合において設定される関数に相当する。図9は、式(3)によって表される関数Fを示す説明図である。図9では、二点鎖線によって、式(1)によって表される関数Fが示されている。
 収容空間L102外の温度が比較的高い場合には、収容空間L102がシャッタ102gによって一時的に閉鎖された後において収容空間L102内の温度と収容空間L102外の温度とが平衡に達する時刻が比較的早くなり得る。ゆえに、収容空間L102がシャッタ102gによって一時的に閉鎖された後においてシャッタ補正後の画素値が低下し始める時刻は、比較的早くなり得る。よって、収容空間L102外の温度が比較的高い場合において、関数Fを上記のように設定することによって、シャッタ補正後の画素値の時間変化をより適切に規定することができる。
 また、関数Fでは、収容空間L102内の温度が収容空間L102外の温度より低い場合において、シャッタ補正後の画素値のモデル値が、時間の経過に伴って低下した後に上昇するように、シャッタ補正後の画素値の時間変化が規定されてもよい。収容空間L102内の温度が収容空間L102外の温度より低い場合、関数Fは、例えば、以下の式(4)によって表される関数Fに設定されてもよい。
Figure JPOXMLDOC01-appb-M000004
 式(4)におけるC1、C2、及びT2は、定数である。C1は負の値をとり、C2及びT2は正の値をとる。T2の絶対値は、式(1)におけるT0の絶対値と異なってもよい。例えば、T2の絶対値は、T0の絶対値と比較して、小さな値に設定されてもよい。図10は、式(4)によって表される関数Fを示す説明図である。図10では、二点鎖線によって、式(1)によって表される関数Fが示されている。
 収容空間L102内の温度が収容空間L102外の温度より低い場合には、収容空間L102がシャッタ102gによって一時的に閉鎖されることによって、収容空間L102外から収容空間L102内への熱の流入が遮断され得る。それにより、ボロメータ102fの温度は、収容空間L102がシャッタ102gによって一時的に閉鎖された後において、低下する。そして、ボロメータ102fの温度は、収容空間L102内の温度と収容空間L102外の温度とが平衡に達した後に、上昇する。ゆえに、シャッタ補正後の画素値は、収容空間L102がシャッタ102gによって一時的に閉鎖された後において、時間の経過に伴って低下した後に上昇する。よって、収容空間L102内の温度が収容空間L102外の温度より低い場合において、関数Fを上記のように設定することによって、シャッタ補正後の画素値の時間変化をより適切に規定することができる。
 上記では、関数Fが一次関数の合成によって表される例について説明したが、関数Fは係る例に限定されない。例えば、関数Fは、指数関数の合成によって表されてもよい。具体的には、関数Fは、例えば、以下の式(5)によって表される関数Fに設定されてもよい。
Figure JPOXMLDOC01-appb-M000005
 式(5)におけるk、a1、及びa2は、定数である。k、a1、及びa2は、例えば、正の値をとってもよい。なお、式(5)における各定数は、固定値であってもよく、収容空間L102内の温度、収容空間L102外の温度、及びC0に基づいて設定されてもよい。図11は、式(5)によって表される関数Fを示す説明図である。
 収容空間L102がシャッタ102gによって一時的に閉鎖された後において、ボロメータ102fの温度は、上述したように、上昇した後に、収容空間L102内の温度と収容空間L102外の温度とが平衡に達することによって、低下する。このような熱平衡が生じる時刻より前において、ボロメータ102fの温度の上昇速度は時間の経過に伴って減少し、当該熱平衡が生じる時刻より後において、ボロメータ102fの温度の低下速度は時間の経過に伴って増大する。よって、熱平衡が生じる時刻より前において、シャッタ補正後の画素値の上昇速度は時間の経過に伴って減少し、当該熱平衡が生じる時刻より後において、シャッタ補正後の画素値の低下速度は時間の経過に伴って増大する。ゆえに、指数関数の合成によって表される関数Fを利用することによって、一次関数の合成によって表される関数Fを利用する場合と比較して、シャッタ補正後の画素値の時間変化をさらに適切に規定することができる。
 上記では、画素値変換部173が観測画素値の時間変化モデルとして関数Fを利用することによって背景画像を調整する例について説明したが、画素値変換部173による背景画像の調整処理は係る例に限定されない。例えば、画素値変換部173は、観測画素値の時間変化モデルとして、シャッタ補正後の画素値の時間変化が規定されているデータテーブルを利用することによって、背景画像を調整してもよい。当該データテーブルにおいて規定されているシャッタ補正後の画素値の時間変化は、上述した関数Fにおいて規定されているシャッタ補正後の画素値の時間変化と略一致してもよい。具体的には、当該データテーブルでは、各カウンタ値tについて、カウンタ値t及び当該カウンタ値tと対応するシャッタ補正後の画素値のモデル値のペアが紐付けられている。このようなデータテーブルは、記憶部160に記憶され得る。また、データテーブルは、収容空間L102内の温度、収容空間L102外の温度、及びC0のそれぞれの各値について複数記憶されてもよい。
 減算部175は、画素値変換部173による調整の後に、背景画像及び対象画像の画素値の差分をとることによって、差分画像を生成する。また、減算部175は、生成された差分画像を2値化部177へ出力する。具体的には、減算部175は、対象画像及び調整後の背景画像について、対応する各画素間で画素値の減算を行うことによって、差分画像を生成する。なお、当該差分画像は、背景画像及び対象画像の比較結果に相当する。
 本実実施形態では、画素値変換部173によって、背景画像が、観測画素値の時間変化モデルとしての関数Fに基づいて、調整される.それにより、背景画像において背景が映る領域における画素値と、対象画像において背景が映る領域における画素値を略一致させることができる。ゆえに、背景画像及び対象画像の比較結果の精度を向上させることができる。具体的には、差分画像において、背景が映る領域における画素値を比較的小さくすることができる。
 2値化部177は、減算部175から入力された差分画像に対して2値化処理を施すことによって、対象領域を抽出する。また、2値化部177は、抽出結果として、2値化画像を出力する。例えば、2値化部177は、2値化画像を記憶部160に記憶させてもよく、画像処理装置1の外部の装置へ送信してもよい。2値化部177は、具体的には、差分画像において閾値より低い画素値を有する画素に対して比較的低い値の第1画素値を割り当て、差分画像において当該閾値以上の画素値を有する画素に対して比較的高い値の第2画素値へ割り当てる。それにより、対象物が映る対象領域に第2画素値が割り当てられることによって、対象領域の抽出が実現され得る。
 本実実施形態では、背景画像が、観測画素値の時間変化モデルとしての関数Fに基づいて、調整されることによって、上述したように、差分画像において背景が映る領域における画素値を、比較的小さくすることができる。ゆえに、差分画像において背景が映る領域における画素に対して比較的低い値の第1画素値が適切に割り当てられ、差分画像において対象物が映る領域における画素に対して比較的高い値の第2画素値が割り当てられる。それにより、対象領域を適切に抽出することができる。従って、本実施形態では、対象領域を精度良く抽出することができる。
 このように、減算部175及び2値化部177は、本開示に係る調整部による観測画素値の時間変化モデルを用いた調整の後に、背景画像及び対象画像の比較結果に基づいて、対象画像において対象物が映る対象領域を抽出する本開示に係る抽出部に相当する。当該抽出部は、当該調整の後に、背景画像及び対象画像の画素値を比較することによって、対象領域を抽出してもよい。具体的には、減算部175及び2値化部177は、上述したように、画素値変換部173による調整の後に、背景画像及び対象画像の画素値の差分をとることによって、対象領域を抽出してもよい。
 上記では、画素値変換部173による調整の後に、背景画像及び対象画像の画素値を比較することによって、対象領域を抽出する例について説明したが、画素値変換部173による調整の後における対象領域の抽出処理は係る例に限定されない。例えば、画像処理装置1は、画素値変換部173による調整の後に、背景画像における画素値の確率密度関数を生成し、当該確率密度関数に基づいて背景画像と対象画像とを比較することによって、対象領域を抽出してもよい。
 具体的には、画像処理装置1は、画素値変換部173による調整の後に、背景画像の各画素について、調整後の画素値を中央値とするガウス分布に従った確率密度関数を生成する。そして、画像処理装置1は、背景画像及び対象画像について、対応する画素間で当該確率密度関数に基づいて、比較する。例えば、画像処理装置1は、対象画像のある画素の画素値と背景画像の当該画素と対応する画素の画素値とが一致する確率が所定の確率より高い場合に、対象画像の上記画素は背景が映る背景領域を構成すると判定し得る。このように、対象画像の各画素について、当該各画素が背景領域を構成するか否かを判定し、判定結果に基づいて2値化処理を実行することによって、対象領域を抽出することができる。
 このように、本開示に係る抽出部は、本開示に係る調整部による調整の後に、背景画像における画素値の確率密度関数を生成し、当該確率密度関数に基づいて背景画像と対象画像とを比較することによって、対象領域を抽出してもよい。
  [2-3.動作]
 続いて、図12を参照して、本実施形態に係る画像処理装置1が行う処理の流れについて説明する。図12は、本実施形態に係る画像処理装置1が行う処理の流れの一例を示すフローチャートである。図12に示した処理は、例えば、各フレームについて、実行され得る。
 図12に示したように、まず、シャッタ補正部140は、赤外線カメラ102によって撮像された遠赤外画像Ikを読み込む(ステップS501)。なお、シャッタ補正部140は、赤外線カメラ102から出力される遠赤外画像Ikを直接的に読み込んでもよく、赤外線カメラ102から記憶部160へ記憶された後に当該記憶部160から遠赤外画像Ikを読み込んでもよい。そして、シャッタ補正部140は、遠赤外画像Ikが閉画像であるか否かを判定する(ステップS503)。遠赤外画像Ikが閉画像であると判定された場合(ステップS503/YES)、シャッタ補正部140は、記憶部160に記憶されている閉画像Icを遠赤外画像Ikへ更新する(ステップS505)。そして、カウンタ算出部171は、カウンタ値tを0に設定し(ステップS507)、図12に示した処理は終了する。
 一方、ステップS503の判定処理において、遠赤外画像Ikが閉画像であると判定されなかった場合(ステップS503/NO)、シャッタ補正部140は、開画像である遠赤外画像Ikについて、閉画像Icに基づいて、シャッタ補正を実行し(ステップS509)、シャッタ補正後の遠赤外画像Ikを背景画像更新部150へ出力する。そして、背景画像更新部150は、遠赤外画像Ikが背景画像であるか否かを判定する(ステップS511)。遠赤外画像Ikが背景画像であると判定された場合(ステップS511/YES)、背景画像更新部150は、記憶部160に記憶されている背景画像Irを遠赤外画像Ikへ更新する(ステップS513)。そして、カウンタ算出部171は、カウンタ値tに1を加算し(ステップS515)、図12に示した処理は終了する。
 一方、ステップS511の判定処理において、遠赤外画像Ikが背景画像であると判定されなかった場合(ステップS511/NO)、背景画像更新部150は、対象画像である遠赤外画像Ikを背景差分処理部170へ出力する。そして、カウンタ算出部171は、カウンタ値tに1を加算する(ステップS517)。次に、画素値変換部173は、背景画像Irの各画素について、画素値を、関数Fに基づいて、変換する(ステップS519)。それにより、背景画像Irが調整され、画素値変換部173は、調整後の背景画像Irを減算部175へ出力する。そして、減算部175は、遠赤外画像Ik及び調整後の背景画像Irについて、対応する各画素間で画素値の減算を行う(ステップS521)。それにより、比較結果としての差分画像が生成され、減算部175は、生成された差分画像を2値化部177へ出力する。次に、2値化部177は、差分画像に対して2値化処理を実行する(ステップS523)。それにより、対象領域が抽出される。そして、2値化部177は、抽出結果として、2値化画像を出力し(ステップS525)、図12に示した処理は終了する。
 <3.変形例>
 続いて、図13~図15を参照して、変形例に係る画像処理装置2について説明する。変形例に係る画像処理装置2は、本実施形態に係る画像処理装置1と異なり、フレーム間差分法を用いて、対象画像における対象物が映る対象領域を抽出する。
  [3-1.フレーム間差分法の概要]
 まず、変形例に係る画像処理装置2の詳細についての説明に先立って、図13を参照して、フレーム間差分法の概要について説明する。図13は、フレーム間差分法の概要について説明するための説明図である。図13では、フレーム間差分法における各処理の前後における遠赤外画像が示されている。
 図13に示した遠赤外画像Im51、遠赤外画像Im52、及び遠赤外画像Im53は、連続するフレームのそれぞれに対応する遠赤外画像である。各遠赤外画像には、背景としての林道b5と、対象物としての車両f5とが映っている。車両f5は進行方向に沿って走行している。ゆえに、遠赤外画像Im52に映る車両f5は、遠赤外画像Im51と比較して、前方(図面における右方)に位置している。また、遠赤外画像Im53に映る車両f5は、遠赤外画像Im52と比較して、さらに前方に位置している。ここで、図13に示した遠赤外画像において、ハッチングの濃淡は画素値の異同を示す。当該ハッチングが濃い区域ほど、画素値が低い区域である。なお、図13に示した例において、遠赤外画像Im52がフレーム間差分法において抽出される対象領域に対応する対象画像に相当する。一方、遠赤外画像Im51及び遠赤外画像Im53は、対象領域を抽出するための第1参照画像及び第2参照画像にそれぞれ相当する。
 フレーム間差分法では、具体的には、まず、対象画像及び当該対象画像に対して1つ前のフレームに対応する第1参照画像の差分をとることによって、第1差分画像が生成される。また、対象画像及び当該対象画像に対して1つ後のフレームに対応する第2参照画像の差分をとることによって、第2差分画像が生成される。図13では、遠赤外画像Im51及び遠赤外画像Im52に基づいて生成された第1差分画像Im71と、遠赤外画像Im52及び遠赤外画像Im53に基づいて生成された第2差分画像Im72と、が示されている。
 続いて、第1差分画像と第2差分画像を合成することによって、合成画像が生成される。具体的には、第1差分画像及び第2差分画像の論理積をとることによって合成画像が生成される。次に、当該合成画像に対して2値化処理が施されることによって、対象領域が抽出される。そして、抽出結果として、2値化画像が出力される。図13では、第1差分画像Im71及び第2差分画像Im72について生成される差分画像に2値化処理を施すことによって生成された2値化画像Im91が示されている。
 フレーム間差分法による対象領域の抽出では、背景差分法による対象領域の抽出と同様に、対象領域を精度良く抽出することが困難となり得る。具体的には、定温の被写体を継続的に撮像することによって得られる遠赤外画像における画素値は、連続するフレームについて異なり得る。ゆえに、遠赤外画像Im51、遠赤外画像Im52、及び遠赤外画像Im53の各々について、林道b5が映る領域における画素値の差が生じる。よって、差分画像Im71及び差分画像Im72の各々において林道b5が映る領域における画素値は、比較的小さな値にならない場合がある。それにより、合成処理の後の2値化処理において、対象領域の抽出が困難となり得る。
 フレーム間差分法による対象領域の抽出では、連続するフレームのそれぞれに対応する遠赤外画像を利用するので、対象領域の抽出の精度は、背景差分法による対象領域の抽出と比較して、被写体以外からの赤外線エネルギの入射による撮像素子の温度の変動の影響を受けにくい。しかしながら、フレーム間差分法による対象領域の抽出においても、上述したように、対象領域を精度良く抽出することが困難となり得る。以下では、撮像される遠赤外画像に対して上述したフレーム間差分法を適用した場合において、遠赤外画像について対象領域を精度良く抽出することを可能とする変形例に係る画像処理装置2について説明する。
  [3-2.機能構成]
 続いて、図14を参照して、変形例に係る画像処理装置2の機能構成について説明する。変形例に係る画像処理装置2のハードウェア構成は、図4を参照して説明した画像処理装置1のハードウェア構成と同様であってもよい。図14は、そのような画像処理装置2の構成要素が互いに連係することにより実現される機能構成の一例を示すブロック図である。図14に示したように、画像処理装置2は、記憶部260と、フレーム間差分処理部270と、を備える。
   (記憶部)
 記憶部260は、画像処理装置2が行う各処理において参照されるデータを記憶する。例えば、記憶部260は、フレーム間差分処理部270が行うフレーム間差分法を用いた対象領域の抽出処理において用いられる、赤外線カメラ102によって撮像された遠赤外画像を記憶する。
   (フレーム間差分処理部)
 フレーム間差分処理部270は、フレーム間差分法を用いて、対象画像における対象物が映る対象領域を抽出する。フレーム間差分処理部270は、図14に示したように、第1統計量算出部271a、第2統計量算出部271b、及び第3統計量算出部271cと、係数算出部273と、第1正規化部275a、第2正規化部275b、及び第3正規化部275cと、第1減算部277a及び第2減算部277bと、合成部278と、2値化部279と、を含む。
 第1統計量算出部271a、第2統計量算出部271b、及び第3統計量算出部271cは、連続するフレームに対応する遠赤外画像の各々について、平均輝度値を算出し、算出結果を係数算出部273へ出力する。なお、平均輝度値は、遠赤外画像における全画素についての画素値の平均値に相当する。
 具体的には、第1統計量算出部271aは、直近に撮像された遠赤外画像Ikに対して2つ前のフレームに対応する遠赤外画像Ik-2の平均輝度値を算出する。また、第2統計量算出部271bは、直近に撮像された遠赤外画像Ikに対して1つ前のフレームに対応する遠赤外画像Ik-1の平均輝度値を算出する。また、第3統計量算出部271cは、直近に撮像された遠赤外画像Ikの平均輝度値を算出する。
 なお、遠赤外画像Ik-1がフレーム間差分法において抽出される対象領域に対応する対象画像に相当する。一方、遠赤外画像Ik-2及び遠赤外画像Ikは、対象領域を抽出するための第1参照画像及び第2参照画像にそれぞれ相当する。
 係数算出部273は、遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikの各々の平均輝度値を互いに一致させるための正規化係数を、各遠赤外画像について、それぞれ算出し、算出結果を第1正規化部275a、第2正規化部275b、及び第3正規化部275cへ出力する。
 具体的には、係数算出部273は、遠赤外画像Ik-2に対応する第1正規化係数を第1正規化部275aへ出力する。また、係数算出部273は、遠赤外画像Ik-1に対応する第2正規化係数を第2正規化部275bへ出力する。また、係数算出部273は、遠赤外画像Ikに対応する第3正規化係数を第3正規化部275cへ出力する。各正規化係数は、当該各正規化係数を対応する遠赤外画像の各画素に乗じることによって得られる各遠赤外画像の平均輝度値が互いに一致するような値に算出される。
 第1正規化部275a、第2正規化部275b、及び第3正規化部275cは、各遠赤外画像について、当該各遠赤外画像に対応する正規化係数を乗じる正規化処理を実行することによって、各遠赤外画像を調整し、調整後の各遠赤外画像を、第1減算部277a及び第2減算部277bへ出力する。
 具体的には、第1正規化部275aは、遠赤外画像Ik-2に第1正規化係数を乗じる正規化処理を実行することによって、遠赤外画像Ik-2を調整し、調整後の遠赤外画像Ik-2を第1減算部277aへ出力する。また、第2正規化部275bは、遠赤外画像Ik-1に第2正規化係数を乗じる正規化処理を実行することによって、遠赤外画像Ik-1を調整し、調整後の遠赤外画像Ik-1を第1減算部277a及び第2減算部277bへ出力する。また、第3正規化部275cは、遠赤外画像Ikに第3正規化係数を乗じる正規化処理を実行することによって、遠赤外画像Ikを調整し、調整後の遠赤外画像Ikを第2減算部277bへ出力する。
 このように、係数算出部273、第1正規化部275a、第2正規化部275b、及び第3正規化部275cは、対象画像及び参照画像を、複数のフレームに対応する各遠赤外画像の輝度値に関する情報に基づいて、調整する。具体的には、対象画像である遠赤外画像Ik-1並びに参照画像である遠赤外画像Ik-2及び遠赤外画像Ikは、各遠赤外画像の平均輝度値に基づいて、互いに平均輝度値が略一致するように、調整される。このように、変形例では、複数のフレームに対応する各遠赤外画像の輝度値に関する情報に基づいた調整を行うことによって、参照画像及び対象画像が撮像されたそれぞれの時刻の間における被写体以外からの赤外線エネルギの入射によるボロメータ102fの温度の変動に起因する画素値の変動を補完するように、参照画像及び対象画像を調整することができる。それにより、各遠赤外画像において背景が映る領域における画素値を略一致させることができる。ゆえに、参照画像及び対象画像の比較結果の精度を向上させることができる。
 上記では、画像処理装置2が、各遠赤外画像を、連続する3つのフレームに対応する各遠赤外画像の全画素についての平均輝度値に基づいて、全画素についての平均輝度値が互いに略一致するように、調整する例について説明したが、画像処理装置2による調整処理は係る例に限定されない。例えば、画像処理装置2は、遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikと異なる他の複数のフレームに対応する遠赤外画像についての平均輝度値に基づいて、シャッタ補正後の画素値の温度変化をモデル化し、モデル化された画素値の温度変化に基づいて遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikの画素値を調整してもよい。
 また、画像処理装置2は、既に抽出された対象領域の位置の履歴情報に基づいて、遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikにおいて背景が映る背景領域の位置を予測し、予測された背景領域における平均輝度値が互いに略一致するように、各遠赤外画像を調整してもよい。なお、既に抽出された対象領域は、例えば、対象画像である遠赤外画像Ik-1より前のフレームに対応する遠赤外画像についてフレーム間差分法を利用することによって抽出された対象領域である。
 第1減算部277a及び第2減算部277bの各々は、係数算出部273及び各正規化部275a~275cによる調整の後に、隣接するフレームに対応する遠赤外画像の画素値の差分をとることによって、差分画像を生成する。また、第1減算部277a及び第2減算部277bは、生成された差分画像を合成部278へ出力する。具体的には、第1減算部277a及び第2減算部277bの各々は、隣接するフレームに対応する調整後の遠赤外画像について、対応する各画素間で画素値の減算を行うことによって、差分画像を生成する。
 具体的には、第1減算部277aは、調整後の遠赤外画像Ik-2及び調整後の遠赤外画像Ik-1について、対応する各画素間で画素値の減算を行うことによって、第1差分画像を生成し、合成部278へ出力する。また、第2減算部277bは、調整後の遠赤外画像Ik-1及び調整後の遠赤外画像Ikについて、対応する各画素間で画素値の減算を行うことによって、第2差分画像を生成し、合成部278へ出力する。なお、第1差分画像及び第2差分画像は、参照画像及び対象画像の比較結果に相当する。
 変形例では、遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikが、複数のフレームに対応する各遠赤外画像の輝度値に関する情報に基づいて、調整される。それにより、各遠赤外画像において背景が映る領域における画素値を略一致させることができる。ゆえに、参照画像及び対象画像の比較結果の精度を向上させることができる。具体的には、第1差分画像及び第2差分画像において、背景が映る領域における画素値を比較的小さくすることができる。
 合成部278は、生成された第1差分画像と第2差分画像を合成する合成処理を実行することによって、合成画像を生成し、2値化部279へ出力する。具体的には、合成部278は、第1差分画像及び第2差分画像の論理積をとることによって、合成画像を生成する。
 変形例では、各遠赤外画像が、複数のフレームに対応する各遠赤外画像の輝度値に関する情報に基づいて、調整されることによって、上述したように、第1差分画像及び第2差分画像において、背景が映る領域における画素値を比較的小さくすることができる。ゆえに、合成画像において、背景が映る領域における画素値は、比較的小さな値をとる。
 2値化部279は、合成部278から入力された合成画像に対して2値化処理を施すことによって、対象領域を抽出する。また、2値化部279は、抽出結果として、2値化画像を出力する。例えば、2値化部279は、2値化画像を記憶部260に記憶させてもよく、画像処理装置2の外部の装置へ送信してもよい。2値化部279は、具体的には、合成画像において閾値より低い画素値を有する画素に対して比較的低い値の第1画素値を割り当て、合成画像において当該閾値以上の画素値を有する画素に対して比較的高い値の第2画素値へ割り当てる。それにより、対象物が映る対象領域に第2画素値が割り当てられることによって、対象領域の抽出が実現され得る。
 変形例では、各遠赤外画像が、複数のフレームに対応する各遠赤外画像の輝度値に関する情報に基づいて、調整されることによって、上述したように、合成画像において、背景が映る領域における画素値を、比較的小さくすることができる。ゆえに、合成画像において背景が映る領域における画素に対して比較的低い値の第1画素値が適切に割り当てられ、合成画像において対象物が映る領域における画素に対して比較的高い値の第2画素値が割り当てられる。それにより、対象領域を適切に抽出することができる。従って、変形例では、対象領域を精度良く抽出することができる。
 このように、第1減算部277a、第2減算部277b、合成部278、及び2値化部279は、係数算出部273及び各正規化部275a~275cによる調整の後に、参照画像及び対象画像の比較結果に基づいて、対象画像において対象物が映る対象領域を抽出する。具体的には、第1減算部277a、第2減算部277b、合成部278、及び2値化部279は、当該調整の後に、参照画像及び対象画像の画素値を比較することによって、対象領域を抽出する。より具体的には、第1減算部277a、第2減算部277b、合成部278、及び2値化部279は、上述したように、当該調整の後に、隣接するフレームに対応する遠赤外画像のペアに相当する参照画像及び対象画像の画素値の差分をとることによって、対象領域を抽出する。
 上記では、係数算出部273及び各正規化部275a~275cによる調整の後に、参照画像及び対象画像の画素値を比較することによって、対象領域を抽出する例について説明したが、調整の後における対象領域の抽出処理は係る例に限定されない。例えば、画像処理装置2は、係数算出部273及び各正規化部275a~275cによる調整の後に、参照画像における画素値の確率密度関数を生成し、当該確率密度関数に基づいて参照画像と対象画像とを比較することによって、対象領域を抽出してもよい。
 具体的には、画像処理装置2は、係数算出部273及び各正規化部275a~275cによる調整の後に、参照画像の各画素について、調整後の画素値を中央値とするガウス分布に従った確率密度関数を生成する。そして、画像処理装置2は、参照画像及び対象画像について、対応する画素間で当該確率密度関数に基づいて、比較する。例えば、画像処理装置2は、対象画像のある画素の画素値と参照画像の当該画素と対応する画素の画素値とが一致する確率が所定の確率より高い場合に、対象画像の上記画素は背景が映る背景領域を構成すると判定し得る。このように、対象画像の各画素について、当該各画素が背景領域を構成するか否かを判定し、判定結果に基づいて2値化処理を実行することによって、隣接するフレームに渡って背景が映る領域とその他の領域との境界が形成された画像が得られる。上述した減算処理に替えてこのような処理を実行した後、合成処理及び2値化処理を実行することによって、対象領域を抽出することができる。
  [3-3.動作]
 続いて、図15を参照して、変形例に係る画像処理装置2が行う処理の流れについて説明する。図15は、変形例に係る画像処理装置2が行う処理の流れの一例を示すフローチャートである。図15に示した処理は、例えば、各フレームについて、実行され得る。
 図15に示したように、まず、第3統計量算出部271cは、赤外線カメラ102によって直近に撮像された遠赤外画像Ikを読み込む(ステップS601)。なお、第3統計量算出部271cは、赤外線カメラ102から出力される遠赤外画像Ikを直接的に読み込んでもよく、赤外線カメラ102から記憶部260へ記憶された後に当該記憶部260から遠赤外画像Ikを読み込んでもよい。次に、第2統計量算出部271b及び第1統計量算出部271aは、記憶部260から遠赤外画像Ik-1及び遠赤外画像Ik-2をそれぞれ読み込む(ステップS603)。次に、第1統計量算出部271a、第2統計量算出部271b、及び第3統計量算出部271cは、遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikの各々の平均輝度値をそれぞれ算出し(ステップS605)、算出結果を係数算出部273へ出力する。
 そして、係数算出部273は、遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikの各々の平均輝度値を互いに一致させるための正規化係数を、各遠赤外画像について、それぞれ算出し(ステップS607)、算出結果を第1正規化部275a、第2正規化部275b、及び第3正規化部275cへ出力する。次に、第1正規化部275a、第2正規化部275b、及び第3正規化部275cは、遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikの各々について、各遠赤外画像に対応する正規化係数を乗じる正規化処理を実行する(ステップS609)。それにより、各遠赤外画像が調整され、第1正規化部275a、第2正規化部275b、及び第3正規化部275cは、調整後の各遠赤外画像を、第1減算部277a及び第2減算部277bへ出力する。
 そして、第1減算部277aは、調整後の遠赤外画像Ik-2及び調整後の遠赤外画像Ik-1について、対応する各画素間で画素値の減算を行う(ステップS611)。それにより、第1差分画像が生成され、第1減算部277aは、第1差分画像を合成部278へ出力する。次に、第2減算部277bは、調整後の遠赤外画像Ik-1及び調整後の遠赤外画像Ikについて、対応する各画素間で画素値の減算を行う(ステップS613)。それにより、第2差分画像が生成され、第2減算部277bは、第2差分画像を合成部278へ出力する。次に、合成部278は、生成された第1差分画像と第2差分画像を合成する合成処理を実行する(ステップS615)。それにより、合成画像が生成され、合成部278は、合成画像を2値化部279へ出力する。
 そして、2値化部279は、合成画像に対して2値化処理を実行する(ステップS617)。それにより、対象領域が抽出される。そして、2値化部279は、抽出結果として、2値化画像を出力する(ステップS619)。ここで、記憶部260には、フレーム間差分処理部270が行う処理において用いられる、直近に撮像された遠赤外画像に対して1つ前のフレームに対応する対象画像及び直近に撮像された遠赤外画像に対して2つ前のフレームに対応する第1参照画像の設定情報が登録されていてもよい。その場合には、フレーム間差分処理部270は、対象画像及び第1参照画像として、それぞれ遠赤外画像Ik及び遠赤外画像Ik-1を設定することによって、当該設定情報を更新し(ステップS621)、図15に示した処理は終了する。
 なお、変形例に係る画像処理装置2は、撮像された各遠赤外画像に対してシャッタ補正を実行してもよく、実行しなくてもよい。シャッタ補正を実行する場合、画像処理装置2は、シャッタ102gが閉鎖された状態で撮像された閉画像を対象画像又は第1参照画像として設定しないように、対象画像及び第1参照画像の設定情報の更新を行う。
 なお、上述のような本実施形態に係る画像処理装置1又は変形例に係る画像処理装置2の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。本実施形態に係る画像処理装置1又は変形例に係る画像処理装置2は、コンピュータに相当し得る。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。また、本実施形態に係る画像処理装置1又は変形例に係る画像処理装置2の各機能は複数のコンピュータにより分割されてもよく、その場合、当該複数のコンピュータが有する各機能は、上記のコンピュータプログラムにより実現され得る。
 <4.まとめ>
 以上説明したように、本開示の実施形態によれば、画素値変換部173は、対象物を含まない背景が映る遠赤外画像である背景画像及び当該対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルとしての関数Fに基づいて、調整する。それにより、画素値変換部173は、背景画像及び対象画像が撮像されたそれぞれの時刻の間における被写体以外からの赤外線エネルギの入射によるボロメータ102fの温度の変動に起因する画素値の変動を補完するように、背景画像及び対象画像のいずれか一方を調整することができる。それにより、背景画像において背景が映る領域における画素値と、対象画像において背景が映る領域における画素値を略一致させることができる。ゆえに、背景画像及び対象画像の比較結果の精度を向上させることができる。また、本開示の実施形態によれば、減算部175及び2値化部177は、画素値変換部173による調整の後に、背景画像及び対象画像の比較結果に基づいて、対象画像において対象物が映る対象領域を抽出する。よって、対象領域を精度良く抽出することができる。
 上記で説明した画像処理装置1及び画像処理装置2において、調整部は、対象画像及び対象領域を抽出するための参照画像のうち少なくとも一方を、参照画像及び対象画像の撮像に用いられる撮像素子によって撮像される遠赤外画像の画素値の、被写体以外からの赤外線エネルギの入射による当該撮像素子の温度の変動に起因する、時間変化に関連する情報(以下、関連情報とも称する。)に基づいて、対象領域を抽出する。それにより、参照画像及び対象画像が撮像されたそれぞれの時刻の間における被写体以外からの赤外線エネルギの入射による当該撮像素子の温度の変動に起因する画素値の変動を補完するように、参照画像及び対象画像のうち少なくとも一方を調整することができる。それにより、参照画像において背景が映る領域における画素値と、対象画像において背景が映る領域における画素値を略一致させることができる。ゆえに、参照画像及び対象画像の比較結果の精度を向上させることができる。また、抽出部は、調整部による調整の後に、参照画像及び対象画像の比較結果に基づいて、対象画像において対象物が映る対象領域を抽出する。よって、対象領域を精度良く抽出することができる。
 なお、画像処理装置1では、背景画像が、上記の参照画像に相当する。また、画素値変換部173が、調整部に相当する。また、観測画素値の時間変化モデルが、上記関連情報に相当する。また、減算部175及び2値化部177が、抽出部に相当する。一方、画像処理装置2では、直近に撮像された遠赤外画像Ikに対して2つ前のフレームに対応する遠赤外画像Ik-2及び直近に撮像された遠赤外画像Ikが、参照画像に相当する。また、係数算出部273、第1正規化部275a、第2正規化部275b、及び第3正規化部275cが、調整部に相当する。また、複数のフレームに対応する各遠赤外画像の輝度値に関する情報が、上記関連情報に相当する。また、第1減算部277a、第2減算部277b、合成部278、及び2値化部279が、抽出部に相当する。
 なお、上述では、収容空間L102がシャッタ102gによって一時的に閉鎖された直後において、背景画像が撮像され得る例について主に説明したが、背景画像が撮像される時刻は、係る例に限定されない。なお、背景画像がシャッタフレームより後のフレームに対応する場合、関数Fは、当該背景画像が撮像された時刻に応じて設定され得る。具体的には、当該背景画像が撮像された時刻に対応するカウンタ値tを関数Fに代入して得られる値である画素値のモデル値が、当該背景画像におけるシャッタ補正後の画素値の実値と一致するように、関数Fは設定され得る。
 なお、上述では、画像処理装置1が背景画像を調整する例について説明したが、画像処理装置1は、対象画像を調整してもよい。また、画像処理装置2が遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikを調整する例について説明したが、画像処理装置2は遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikのうち、少なくとも2つを調整すればよい。
 なお、画像処理装置2における遠赤外画像Ik-2、遠赤外画像Ik-1、及び遠赤外画像Ikの調整処理について、画像処理装置1を参照して説明した観測画素値の時間変化モデルに基づく調整処理を適用することによっても、遠赤外画像について対象領域を精度良く抽出することを可能とし得る。
 なお、上述した画像処理装置1又は画像処理装置2は、様々な電子機器に利用することができる。具体的には、監視カメラや車載カメラの一部として利用されてもよい。あるいは、スマートホームに用いられる各種電子機器に利用されてもよい。本実施形態に係る電子機器によっても、上述した画像処理装置1又は画像処理装置2と同様の効果を得ることが可能である。
 なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。各プログラムを実行するプロセッサは、単数であっても複数であってもよい。
 また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲は係る例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 対象物を含まない背景が映る遠赤外画像である背景画像及び前記対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整する調整部と、
 前記調整の後に、前記背景画像及び前記対象画像の比較結果に基づいて、前記対象画像において前記対象物が映る対象領域を抽出する抽出部と、
 を備える、画像処理装置。
(2)
 前記背景画像及び前記対象画像の撮像に用いられる撮像素子が収容される収容空間は、一時的に閉鎖され得るように設けられ、
 前記調整部は、前記収容空間が一時的に閉鎖された後における時間を前記時間変化モデルに適用して、前記背景画像及び前記対象画像のいずれか一方を調整する、
 前記(1)に記載の画像処理装置。
(3)
 前記画像処理装置は、前記収容空間が一時的に閉鎖された状態で撮像された遠赤外画像である閉画像の画素値により、前記収容空間が一時的に閉鎖された後に開放された状態で撮像された遠赤外画像である開画像の画素値を、補正することによって、前記開画像を補正する補正部を備える、前記(2)に記載の画像処理装置。
(4)
 前記時間変化モデルでは、前記撮像素子によって撮像される遠赤外画像の画素値の、被写体以外からの赤外線エネルギの入射による前記撮像素子の温度の変動に起因する時間変化が規定されている、前記(2)又は(3)に記載の画像処理装置。
(5)
 前記時間変化モデルでは、前記収容空間内の温度及び前記収容空間外の温度に基づいて、前記時間変化が規定されている、前記(4)に記載の画像処理装置。
(6)
 前記時間変化モデルでは、前記収容空間内の温度が前記収容空間外の温度より高い場合において、前記撮像素子によって撮像される遠赤外画像の画素値のモデル値が、時間の経過に伴って上昇した後に低下するように、前記時間変化が規定されている、前記(5)に記載の画像処理装置。
(7)
 前記時間変化モデルでは、前記収容空間内の温度が比較的高い場合において、前記モデル値の時間変化率が、前記収容空間内の温度が比較的低い場合と比較して、小さくなるように、前記時間変化が規定されている、前記(6)に記載の画像処理装置。
(8)
 前記時間変化モデルでは、前記収容空間外の温度が比較的高い場合において、前記モデル値が低下し始める時刻が、前記収容空間外の温度が比較的低い場合と比較して、早くなるように、前記時間変化が規定されている、前記(6)又は(7)に記載の画像処理装置。
(9)
 前記時間変化モデルでは、前記収容空間内の温度が前記収容空間外の温度より低い場合において、前記モデル値が、時間の経過に伴って低下した後に上昇するように、前記時間変化が規定されている、前記(6)~(8)のいずれか一項に記載の画像処理装置。
(10)
 前記調整部は、前記背景画像及び前記対象画像が撮像されたそれぞれの時刻の間における被写体以外からの赤外線エネルギの入射による前記撮像素子の温度の変動に起因する画素値の変動を補完するように、前記背景画像及び前記対象画像のいずれか一方を調整する、前記(4)~(9)のいずれか一項に記載の画像処理装置。
(11)
 遠赤外画像を撮像可能であり、前記撮像素子を有する撮像部を備える、前記(2)~(10)のいずれか一項に記載の画像処理装置。
(12)
 前記撮像部は、前記撮像素子が収容される空間を一時的に閉鎖可能なシャッタを備える、前記(11)に記載の、画像処理装置。
(13)
 前記撮像素子は、ボロメータを含む、前記(2)~(12)のいずれか一項に記載の画像処理装置。
(14)
 前記抽出部は、前記調整の後に、前記背景画像及び前記対象画像の画素値を比較することによって、前記対象領域を抽出する、前記(1)~(13)のいずれか一項に記載の画像処理装置。
(15)
 前記抽出部は、前記調整の後に、前記背景画像における画素値の確率密度関数を生成し、前記確率密度関数に基づいて前記背景画像と前記対象画像とを比較することによって、前記対象領域を抽出する、前記(1)~(13)のいずれか一項に記載の画像処理装置。
(16)
 画像処理装置によって、対象物を含まない背景が映る遠赤外画像である背景画像及び前記対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整することと、
 前記調整の後に、前記背景画像及び前記対象画像の比較結果に基づいて、前記対象画像において前記対象物が映る対象領域を抽出することと、
 を含む、画像処理方法。
(17)
 対象物が映る遠赤外画像である対象画像及び前記対象画像において前記対象物が映る対象領域を抽出するための参照画像のうち少なくとも一方を、前記参照画像及び前記対象画像の撮像に用いられる撮像素子によって撮像される遠赤外画像の画素値の、被写体以外からの赤外線エネルギの入射による前記撮像素子の温度の変動に起因する、時間変化に関連する情報に基づいて、調整する調整部と、
 前記調整の後に、前記参照画像及び前記対象画像の比較結果に基づいて、前記対象領域を抽出する抽出部と、
 を備える、画像処理装置。
1,2 画像処理装置
102 赤外線カメラ
102a 筐体
102b 第1レンズ
102c 第2レンズ
102d 透光部
102e カバー部
102f ボロメータ
102g シャッタ
102h 外部センサ
102s 内部センサ
104 入力インタフェース
106 メモリ
108 ディスプレイ
110 通信インタフェース
112 ストレージ
114 プロセッサ
116 バス
140 シャッタ補正部
150 背景画像更新部
160 記憶部
170 背景差分処理部
171 カウンタ算出部
173 画素値変換部
175 減算部
177 2値化部
260 記憶部
270 フレーム間差分処理部
271a 第1統計量算出部
271b 第2統計量算出部
271c 第3統計量算出部
273 係数算出部
275a 第1正規化部
275b 第2正規化部
275c 第3正規化部
277a 第1減算部
277b 第2減算部
278 合成部
279 2値化部

Claims (17)

  1.  対象物を含まない背景が映る遠赤外画像である背景画像及び前記対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整する調整部と、
     前記調整の後に、前記背景画像及び前記対象画像の比較結果に基づいて、前記対象画像において前記対象物が映る対象領域を抽出する抽出部と、
     を備える、画像処理装置。
  2.  前記背景画像及び前記対象画像の撮像に用いられる撮像素子が収容される収容空間は、一時的に閉鎖され得るように設けられ、
     前記調整部は、前記収容空間が一時的に閉鎖された後における時間を前記時間変化モデルに適用して、前記背景画像及び前記対象画像のいずれか一方を調整する、
     請求項1に記載の画像処理装置。
  3.  前記画像処理装置は、前記収容空間が一時的に閉鎖された状態で撮像された遠赤外画像である閉画像の画素値により、前記収容空間が一時的に閉鎖された後に開放された状態で撮像された遠赤外画像である開画像の画素値を、補正することによって、前記開画像を補正する補正部を備える、請求項2に記載の画像処理装置。
  4.  前記時間変化モデルでは、前記撮像素子によって撮像される遠赤外画像の画素値の、被写体以外からの赤外線エネルギの入射による前記撮像素子の温度の変動に起因する時間変化が規定されている、請求項2に記載の画像処理装置。
  5.  前記時間変化モデルでは、前記収容空間内の温度及び前記収容空間外の温度に基づいて、前記時間変化が規定されている、請求項4に記載の画像処理装置。
  6.  前記時間変化モデルでは、前記収容空間内の温度が前記収容空間外の温度より高い場合において、前記撮像素子によって撮像される遠赤外画像の画素値のモデル値が、時間の経過に伴って上昇した後に低下するように、前記時間変化が規定されている、請求項5に記載の画像処理装置。
  7.  前記時間変化モデルでは、前記収容空間内の温度が比較的高い場合において、前記モデル値の時間変化率が、前記収容空間内の温度が比較的低い場合と比較して、小さくなるように、前記時間変化が規定されている、請求項6に記載の画像処理装置。
  8.  前記時間変化モデルでは、前記収容空間外の温度が比較的高い場合において、前記モデル値が低下し始める時刻が、前記収容空間外の温度が比較的低い場合と比較して、早くなるように、前記時間変化が規定されている、請求項6に記載の画像処理装置。
  9.  前記時間変化モデルでは、前記収容空間内の温度が前記収容空間外の温度より低い場合において、前記モデル値が、時間の経過に伴って低下した後に上昇するように、前記時間変化が規定されている、請求項6に記載の画像処理装置。
  10.  前記調整部は、前記背景画像及び前記対象画像が撮像されたそれぞれの時刻の間における被写体以外からの赤外線エネルギの入射による前記撮像素子の温度の変動に起因する画素値の変動を補完するように、前記背景画像及び前記対象画像のいずれか一方を調整する、請求項4に記載の画像処理装置。
  11.  遠赤外画像を撮像可能であり、前記撮像素子を有する撮像部を備える、請求項2に記載の画像処理装置。
  12.  前記撮像部は、前記撮像素子が収容される空間を一時的に閉鎖可能なシャッタを備える、請求項11に記載の、画像処理装置。
  13.  前記撮像素子は、ボロメータを含む、請求項2に記載の画像処理装置。
  14.  前記抽出部は、前記調整の後に、前記背景画像及び前記対象画像の画素値を比較することによって、前記対象領域を抽出する、請求項1に記載の画像処理装置。
  15.  前記抽出部は、前記調整の後に、前記背景画像における画素値の確率密度関数を生成し、前記確率密度関数に基づいて前記背景画像と前記対象画像とを比較することによって、前記対象領域を抽出する、請求項1に記載の画像処理装置。
  16.  画像処理装置によって、対象物を含まない背景が映る遠赤外画像である背景画像及び前記対象物が映る遠赤外画像である対象画像のいずれか一方を、観測画素値の時間変化モデルに基づいて、調整することと、
     前記調整の後に、前記背景画像及び前記対象画像の比較結果に基づいて、前記対象画像において前記対象物が映る対象領域を抽出することと、
     を含む、画像処理方法。
  17.  対象物が映る遠赤外画像である対象画像及び前記対象画像において前記対象物が映る対象領域を抽出するための参照画像のうち少なくとも一方を、前記参照画像及び前記対象画像の撮像に用いられる撮像素子によって撮像される遠赤外画像の画素値の、被写体以外からの赤外線エネルギの入射による前記撮像素子の温度の変動に起因する、時間変化に関連する情報に基づいて、調整する調整部と、
     前記調整の後に、前記参照画像及び前記対象画像の比較結果に基づいて、前記対象領域を抽出する抽出部と、
     を備える、画像処理装置。
PCT/JP2017/013487 2016-07-14 2017-03-30 画像処理装置及び画像処理方法 WO2018012050A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17827184.7A EP3486869B1 (en) 2016-07-14 2017-03-30 Image processing device and image processing method
JP2018527390A JP6911859B2 (ja) 2016-07-14 2017-03-30 画像処理装置及び画像処理方法
US16/314,987 US10868978B2 (en) 2016-07-14 2017-03-30 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016139427 2016-07-14
JP2016-139427 2016-07-14

Publications (1)

Publication Number Publication Date
WO2018012050A1 true WO2018012050A1 (ja) 2018-01-18

Family

ID=60952936

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/013487 WO2018012050A1 (ja) 2016-07-14 2017-03-30 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US10868978B2 (ja)
EP (1) EP3486869B1 (ja)
JP (1) JP6911859B2 (ja)
WO (1) WO2018012050A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038912A (ja) * 2018-09-05 2020-03-12 株式会社ディスコ ウェーハ認識方法
WO2020250327A1 (ja) * 2019-06-12 2020-12-17 三菱電機株式会社 赤外線撮像装置
WO2021251238A1 (ja) * 2020-06-10 2021-12-16 パナソニックIpマネジメント株式会社 サーモグラフィカメラの制御方法およびサーモグラフィカメラの制御装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3486869B1 (en) * 2016-07-14 2020-06-03 Sony Corporation Image processing device and image processing method
TWI689892B (zh) * 2018-05-18 2020-04-01 瑞昱半導體股份有限公司 基於前景影像的背景虛化方法與電子裝置
CN111988539B (zh) * 2020-07-27 2023-06-02 上海集成电路研发中心有限公司 一种红外探测器合并结构及其合并方法
JP7190478B2 (ja) * 2020-09-04 2022-12-15 インフィニテグラ株式会社 赤外線撮像方法および装置
US11941886B2 (en) * 2021-07-27 2024-03-26 Pixart Imaging Inc. Object detection method and camera apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268440A (ja) * 2000-03-23 2001-09-28 Toshiba Corp 赤外線撮像装置
JP2010058903A (ja) * 2008-09-03 2010-03-18 Hitachi Ltd 画像認識装置
JP2010262422A (ja) * 2009-05-01 2010-11-18 Nippon Ceramic Co Ltd 赤外線異常検知装置
US20160044306A1 (en) * 2014-08-05 2016-02-11 Seek Thermal, Inc. Time based offset correction for imaging systems

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3486869B1 (en) * 2016-07-14 2020-06-03 Sony Corporation Image processing device and image processing method
WO2018163725A1 (ja) * 2017-03-08 2018-09-13 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268440A (ja) * 2000-03-23 2001-09-28 Toshiba Corp 赤外線撮像装置
JP2010058903A (ja) * 2008-09-03 2010-03-18 Hitachi Ltd 画像認識装置
JP2010262422A (ja) * 2009-05-01 2010-11-18 Nippon Ceramic Co Ltd 赤外線異常検知装置
US20160044306A1 (en) * 2014-08-05 2016-02-11 Seek Thermal, Inc. Time based offset correction for imaging systems

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3486869A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038912A (ja) * 2018-09-05 2020-03-12 株式会社ディスコ ウェーハ認識方法
WO2020250327A1 (ja) * 2019-06-12 2020-12-17 三菱電機株式会社 赤外線撮像装置
JPWO2020250327A1 (ja) * 2019-06-12 2021-11-04 三菱電機株式会社 赤外線撮像装置
JP7051010B2 (ja) 2019-06-12 2022-04-08 三菱電機株式会社 赤外線撮像装置
WO2021251238A1 (ja) * 2020-06-10 2021-12-16 パナソニックIpマネジメント株式会社 サーモグラフィカメラの制御方法およびサーモグラフィカメラの制御装置

Also Published As

Publication number Publication date
EP3486869A4 (en) 2019-05-29
JPWO2018012050A1 (ja) 2019-05-16
EP3486869A1 (en) 2019-05-22
JP6911859B2 (ja) 2021-07-28
US20190313035A1 (en) 2019-10-10
US10868978B2 (en) 2020-12-15
EP3486869B1 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
WO2018012050A1 (ja) 画像処理装置及び画像処理方法
JP6356925B2 (ja) 撮像システム、並びにオブジェクト検出装置及びその作動方法
EP3621850B1 (en) Shutterless far infrared (fir) camera for automotive safety and driving systems
EP2721828B1 (en) High resolution multispectral image capture
US8760509B2 (en) Thermal imager with non-uniformity correction
CN204967995U (zh) 用于机柜的监测系统
WO2021073140A1 (zh) 单目摄像机、图像处理系统以及图像处理方法
WO2016139261A1 (en) Wavelength band based passive infrared gas imaging
US20200099825A1 (en) Error smoothing through global source non-uniformity correction
US20180300884A1 (en) Thermal-image based object detection and heat map generation systems and methods
JP6361500B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021179404A (ja) 温度測定システム
KR20230017800A (ko) 상승된 온도 선별검사 시스템 및 방법
JP6337131B2 (ja) 赤外線撮像装置、固定パターンノイズ算出方法、及び固定パターンノイズ算出プログラム
CN113432723B (zh) 用于弱化杂散辐射的图像处理方法、系统及计算机系统
JP7272626B2 (ja) 照合システム、照合方法およびカメラ装置
JP6673223B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101625471B1 (ko) 보급형 열화상 카메라의 해상도 향상 방법 및 장치
Więcek A method for automatic gas detection using wide-band 3-14 µm bolometer camera
JP6251817B2 (ja) 赤外線撮像装置、画像処理方法、及び画像処理プログラム
Parra et al. Modeling and compensating non-uniformity in push-broom NIR hyperspectral imaging system
US20190199943A1 (en) Method and system for generating multiple synchronized thermal video streams for automotive safety and driving systems
US20200011789A1 (en) Wavelength band based passive infrared gas imaging
CN105827992A (zh) 一种红外自动打快门系统及方法
KR101918761B1 (ko) 적외선 열상 검출기의 불량 화소 처리 방법 및 장치

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018527390

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17827184

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017827184

Country of ref document: EP

Effective date: 20190214