WO2019198198A1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2019198198A1
WO2019198198A1 PCT/JP2018/015383 JP2018015383W WO2019198198A1 WO 2019198198 A1 WO2019198198 A1 WO 2019198198A1 JP 2018015383 W JP2018015383 W JP 2018015383W WO 2019198198 A1 WO2019198198 A1 WO 2019198198A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
texture
target area
luminance
Prior art date
Application number
PCT/JP2018/015383
Other languages
English (en)
French (fr)
Inventor
古木 一朗
浩平 岡原
司 深澤
寛夫 松村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112018007258.4T priority Critical patent/DE112018007258T5/de
Priority to PCT/JP2018/015383 priority patent/WO2019198198A1/ja
Priority to JP2020513014A priority patent/JP6821090B2/ja
Priority to CN201880091964.8A priority patent/CN111989910B/zh
Publication of WO2019198198A1 publication Critical patent/WO2019198198A1/ja
Priority to US17/035,386 priority patent/US11526966B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program.
  • captured image data (hereinafter also referred to as “captured image”) acquired by the image capturing apparatus
  • a minute portion of a subject in the captured image may be blurred, that is, image quality may be degraded.
  • an apparatus that determines whether or not noise removal processing is necessary based on the brightness of a captured image, and performs noise removal processing on the captured image when it is determined to be necessary (for example, Patent Documents). 1).
  • the above-described conventional apparatus performs noise removal processing when the captured image is dark, and thus is not suitable for a system that monitors outdoors at night.
  • noise removal processing is performed on a captured image including a dark road and an airspace on the road, there is a problem that an image area of a road with a high monitoring priority and an object (for example, a vehicle) on the road is blurred.
  • the present invention has been made to solve the above-described problems of the prior art, and an image processing apparatus and an image processing that do not cause blur in an image region having a high monitoring priority even when noise removal processing is performed. It is an object to provide a method and an image processing program.
  • An image processing apparatus is an apparatus that performs image processing to reduce noise of a captured image, and from a plurality of image areas obtained by dividing the captured image, the plurality of image areas
  • An image area calculation unit that measures a first texture amount that shows a variation in luminance and determines in advance an image processing target region that is a target of the image processing based on the first texture amount, and the image of the current captured image
  • a luminance determination unit that determines whether or not the image processing is necessary for the current captured image based on the luminance of the processing target region, and the image processing target region that is determined to be necessary for the image processing by the luminance determination unit
  • it has an image processing unit that performs the image processing on the image processing target area is determined to perform the image processing by the texture determination unit.
  • An image processing method is a method for performing image processing for reducing noise of a captured image, wherein the plurality of image regions are obtained from a plurality of image regions obtained by dividing the captured image.
  • a luminance determination step for determining whether or not the image processing is necessary for the current captured image based on the luminance of the image processing target region, and the image processing target region determined to require the image processing in the luminance determination step
  • a second texture amount indicating a variation in brightness of the image is calculated, and it is determined whether or not to perform the image processing on the image processing target region based on the second texture amount.
  • a texture determination step that is characterized by having an image processing step of executing the image processing on the image processing target area is determined to perform the image processing in the texture determination step.
  • FIG. 1 is a block diagram schematically showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram schematically showing a configuration of an image area calculation unit in FIG. 1. It is a figure which shows the example of the captured image imaged with the imaging device.
  • 5 is a flowchart illustrating a region division operation of a captured image and an image processing target region selection operation performed by the image processing apparatus according to the first embodiment.
  • 6 is a diagram illustrating an example of a divided region image obtained by dividing a captured image into two image regions in the image processing apparatus according to Embodiment 1.
  • FIG. 6 is a flowchart illustrating an operation for determining whether or not to apply image processing to an image processing target area in the image processing apparatus according to the first embodiment.
  • FIG. 10 It is a block diagram which shows schematically the structure of the image processing apparatus which concerns on Embodiment 2 of this invention.
  • 10 is a flowchart illustrating operations of a subject position detection unit, a mask processing unit, and an image processing unit of the image processing apparatus according to the second embodiment. It is explanatory drawing which shows the process which converts the object coordinate of a camera coordinate system into the object coordinate of a camera image coordinate system.
  • (A) is a figure which shows the case where a to-be-photographed object image
  • (b) is an image processing device according to the second embodiment It is a figure which shows the case where the mask range which does not perform image processing is superimposed and displayed on the division area image after performing the process by. It is a figure explaining the magnitude
  • FIG. 1 is a block diagram schematically showing a configuration of an image processing apparatus 1 according to the first embodiment.
  • FIG. 2 is a block diagram schematically showing the configuration of the image area calculation unit 110 of FIG.
  • the image processing apparatus 1 is an apparatus that can perform the image processing method according to the first embodiment.
  • the image processing apparatus 1 may be a computer that can execute the image processing program according to the first embodiment.
  • the image processing apparatus 1 includes a control unit 10, a storage unit 20, an input interface 30, and an output interface 40.
  • the control unit 10 includes an image area calculation unit 110, an image area reading unit 120, a luminance determination unit 130, a texture determination unit 140, and an image processing unit 150.
  • the image area calculation unit 110 includes an image area division unit 111, a texture measurement unit 112, and an image processing region selection unit 113.
  • the control unit 10 includes, for example, one or more processors that process information, that is, one or more ICs (Integrated Circuits) that perform processing. Specifically, the control unit 10 includes one or more CPUs (Central Processing Units). The control unit 10 can control other hardware. The control unit 10 can execute software stored in the storage unit 20.
  • processors that process information
  • ICs Integrated Circuits
  • CPUs Central Processing Units
  • the control unit 10 can control other hardware.
  • the control unit 10 can execute software stored in the storage unit 20.
  • the control unit 10 stores information, data, signal values, variable values, and the like in the storage device 210, the memory 220, or a register or cache memory in the control unit 10.
  • an arrow connecting each component in the control unit 10 and the storage device 210 indicates that each component in the control unit 10 stores the processing result in the storage device 210 or each component in the control unit 10. Represents reading information from the storage device 210.
  • the arrow which connects the structures in the control part 10 represents the flow of a process.
  • image information may be exchanged between the components in the control unit 10 through the memory 220.
  • arrows connecting the memory 220 and the components in the control unit 10. Or connection lines are not shown.
  • a computer-readable program for realizing the function of the control unit 10 is stored in a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, a DVD (Digital Versatile Disc), or the like. May be.
  • a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, a DVD (Digital Versatile Disc), or the like. May be.
  • the storage unit 20 is information storage means for storing information.
  • the storage unit 20 includes one or more storage devices 210 and one or more memories 220.
  • the storage device 210 includes, for example, a ROM (Read Only Memory), a flash memory, or an HDD (Hard Disk Drive).
  • the memory 220 includes, for example, a RAM (Random Access Memory).
  • storage part 20 is not limited to the thing of the structure of FIG.
  • a texture threshold value 211 that is a predetermined first threshold value used when dividing the imaging area, image processing area information 212, and the necessity for image processing are determined.
  • the storage device 210 may store an image processing program for realizing the function of the control unit 10.
  • the image processing program is loaded into the memory 220, read by the control unit 10, and executed by the control unit 10.
  • the storage device 210 may store an OS (Operating System). At least a part of the OS is loaded into the memory 220, and the control unit 10 executes the image processing program while executing the OS.
  • OS Operating System
  • the input interface 30 is a port connected to the imaging device 3.
  • the input interface 30 is an image input interface that takes a captured image into the image processing apparatus 1 by the imaging apparatus 3.
  • the captured image captured by the input interface 30 is stored in the memory 220, for example.
  • the input interface 30 may include a port connected to an input device (that is, a user operation unit) such as a mouse, a keyboard, and a touch panel.
  • the input interface 30 may be a port connected to a network such as a LAN (Local Area Network) (registered trademark).
  • the input interface 30 may be a USB (Universal Serial Bus) terminal.
  • the input interface 30 imports SDI (Serial Digital Interface), HDMI (registered trademark) (High Definition Multimedia Interface), VGA (Video Graphics Array), DVI (Digital Video Interface), etc. It can be a capture board.
  • the output interface 40 is a port to which a cable of a display device such as a display is connected.
  • the output interface 40 is, for example, a USB terminal or an HDMI (registered trademark) terminal.
  • the display is, for example, an LCD (Liquid Crystal Display).
  • FIG. 3 is a diagram illustrating an example of a captured image captured by the imaging apparatus 3.
  • the shooting target includes a road 301 and a vehicle running on the road 301.
  • the imaging device 3 is, for example, a monitoring camera that monitors road conditions.
  • the monitoring target (subject) is a vehicle that runs on the road at the bottom of the captured image 300.
  • An airspace is shown in the upper part of the captured image 300.
  • the imaging device 3 is a camera device including an imaging element such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor) and a lens.
  • the imaging device 3 is a fixed camera, for example.
  • the imaging device 3 preferably has an AGC (Automatic Gain Control) function.
  • AGC increases the sensitivity when the input signal is weak (low field illuminance), and conversely reduces the sensitivity when the input signal is strong (high field illuminance), so that the output is always constant. Is variably controlled.
  • the imaging device 3 provides the captured image to the image processing device 1.
  • FIG. 4 is a flowchart showing the region dividing operation of the captured image and the image processing target region selecting operation performed by the image processing apparatus 1.
  • the image processing apparatus 1 resets the image processing area information 212 in the storage device 210 (step S11). That is, the image processing apparatus 1 stores information indicating that there is no image processing area information 212 in the storage device 210.
  • the captured image acquired by the imaging device 3 is taken into the image processing device 1 by the input interface 30, temporarily held in the memory 220, and then sent to the image region calculation unit 110.
  • the image area dividing unit 111 of the image area calculating unit 110 performs processing for detecting an edge portion (that is, the contour of the image) having a difference in density of the image in the captured image, and performs image processing based on edge information indicating the edge portion.
  • the image area is divided into n (n ⁇ 2) image areas (step S12). That is, for example, the image area calculation unit 110 performs a division process for dividing a captured image into an image area having a high monitoring priority and an image area having a low monitoring priority.
  • the texture measurement unit 112 of the image region calculation unit 110 measures the first texture amount in each of the divided image regions.
  • the first texture amount is measured as a variance indicating variation (that is, luminance variation) of pixel values (that is, luminance values) in each of the divided image regions (step S13).
  • the image processing region selection unit 113 of the image region calculation unit 110 determines whether or not the first texture amount (that is, luminance variation) of each of the divided image regions is equal to or less than a predetermined texture threshold value 211. Is determined (step S14).
  • the image processing area selection unit 113 of the image area calculation unit 110 selects an area where the first texture amount in each of the divided image areas is equal to or less than the texture threshold 211 as the image processing target area, and sets the image processing target area as the image processing target area.
  • Position information indicating the position of the selected image area in the captured image is stored in advance in the storage device 210 as image processing area information 212 (step S15).
  • step S16 The processing from step S11 to S15 is repeated until it is executed for all the divided image areas (step S16).
  • “none” information indicating that there is no image processing target area is stored in the image processing area information 212.
  • the region having a high monitoring priority is the surface portion including the road 301, and the monitoring priority of the airspace is low.
  • the image processing area selection unit 113 selects an image area having a small first texture amount (that is, having a small variation in luminance) as an image processing target area, such as an airspace.
  • the processing of the image area calculation unit 110 does not need to be performed constantly, for example, before the start of the monitoring operation, periodically (intermittently) during the monitoring operation, or when the monitoring area is changed. That is, it may be performed at a predetermined time. Thereby, it is possible to avoid applying an excessive calculation load to the image processing apparatus 1. Further, when the field illumination is high (bright), if the processing of the image region calculation unit 110 is performed, the difference in the first texture amount in the image region in the captured image is large, so that the accuracy of region division is improved. be able to.
  • FIG. 5 is a diagram illustrating an example of a divided region image obtained by dividing the captured image 300 into two image regions.
  • the divided region image 310 is divided into two into an image region 330 having a large first texture amount and an image region 320 having a small first texture amount (corresponding to the air space in FIG. 3).
  • the image processing target area is an image area 320 having a small first texture amount (that is, having a small luminance variation).
  • FIG. 6 is a flowchart showing an operation for determining whether or not image processing is applied to an image processing target area.
  • the image area reading unit 120 reads image processing area information stored in the storage device 210 (step S21).
  • the image area reading unit 120 determines whether or not the image processing area information 212 exists in the storage device 210 (step S22). If not (NO in step S22), the image area reading unit 120 ends the process without performing image processing.
  • the luminance determination unit 130 calculates the average luminance of the image processing target area in the captured image based on the image processing area information 212 (step S23).
  • the luminance determination unit 130 determines whether or not the calculated average luminance is equal to or less than the luminance determination threshold value 213 stored in advance in the storage device 210 (step S24).
  • the luminance determination unit 130 has a low imaging field illuminance (dark), and thus the imaging sensitivity is set high by the AGC function of the imaging device 3. It is determined that noise is likely to occur in the captured image and that image processing is necessary.
  • the luminance determination unit 130 determines that the object field illuminance is high (brighter) and image processing such as noise correction is not necessary.
  • step S22 determines the current captured image, that is, the monitored captured image acquired by the imaging device 3.
  • a second texture amount (that is, luminance variation) of the image processing target region is calculated (step S25), and the calculated second texture amount is a texture determination threshold value that is a second threshold value stored in advance in the storage device 210. 214 (step S26).
  • the second texture amount (that is, the luminance variation) may be a variance of the pixel values in the image processing target area, but does not depend on the absolute value of the pixel values in the image processing target area. It is desirable to obtain the pixel value variation coefficient (ie, standard deviation / average value).
  • step S26 If the second texture amount (that is, the luminance variation) is equal to or greater than the texture determination threshold 214 (YES in step S26), the image processing unit 150 determines that there is a lot of noise in the image processing target region and corrects the noise ( Image processing for reduction is executed (step S27). If the second texture amount (that is, the luminance variation) is smaller than the texture determination threshold 214 (NO in step S26), the image processing unit 150 determines that the noise in the image processing target area is small and corrects the noise. It is determined that image processing for (reducing) is unnecessary. The processing from step S23 to S27 is executed for all image processing target areas (step S28).
  • the image-processed image generated as described above is output to a display device such as a display via the output interface 40.
  • the image processing indicates processing for reducing (correcting) noise generated in an image.
  • Image processing includes, for example, processing using a smoothing filter.
  • the image processing method is not limited to these, and may be other processing as long as it is processing that reduces noise generated in the image.
  • ⁇ 1-3 Effect
  • the captured image 300 of FIG. 3 when the field illumination such as nighttime is low (dark), noise is present in the captured image in an airspace far from the imaging device 3 in the captured image 300. Likely to happen.
  • the monitor wants to see the lower part of the screen (road 301, vehicle), which is the area with the higher monitoring priority, but the entire screen is seen due to the noise generated at the upper part (air area) of the lower monitoring priority. Difficult image.
  • noise is perceived as flickering of the video, resulting in an image (video) that is more difficult to see.
  • the captured image of the imaging device 3 that is a monitoring camera is divided into a plurality of image regions, and noise correction processing is performed on regions with low monitoring priority. Therefore, noise in a region with a low monitoring priority can be reduced, and in a region with a high monitoring priority, image blur due to the effect of noise correction does not occur, so that an easy-to-view monitoring image can be obtained.
  • the area determination process that requires image processing is configured to be performed before the monitoring operation is started, periodically (intermittently) during the monitoring operation, or when the monitoring area is changed, the image processing is performed.
  • the calculation load applied to the apparatus 1 can be reduced.
  • Embodiment 2 ⁇ 2-1 Configuration
  • image processing that is, noise correction processing
  • FIG. 7 is a block diagram schematically showing the configuration of the image processing apparatus 2 according to the second embodiment.
  • the image processing apparatus 2 is an apparatus that can perform the image processing method according to the second embodiment.
  • the image processing apparatus 2 may be a computer that can execute the image processing program according to the second embodiment.
  • the image processing apparatus 2 includes a control unit 10a, a storage unit 20a, an input interface 30, an output interface 40, and a subject position information acquisition unit 50 that acquires real space position information of a subject.
  • the control unit 10a converts the subject position in the real space into a position in the camera image captured by the imaging device 3, the image region calculation unit 110, the image region reading unit 120, the luminance determination unit 130, the texture determination unit 140.
  • a subject position detection unit 160 that performs image processing, a mask processing unit 170 that determines a region in the image processing target region that is not subjected to image processing, and an image processing unit 150.
  • the storage unit 20 a includes one or more storage devices 210 and one or more memories 220.
  • a predetermined texture threshold value 211 for example, a predetermined texture threshold value 211, image processing area information 212, a predetermined luminance determination threshold value 213, a predetermined texture determination threshold value 214, and an installation position of the imaging device 3 are stored.
  • Camera installation information 215 indicating information is stored.
  • ⁇ 2-2 Operation The operation until the image processing target area in the image processing apparatus 2 according to the second embodiment is selected is the same as that in the first embodiment (that is, the operation shown in FIG. 4).
  • FIG. 8 is a flowchart for explaining operations of the subject position detection unit 160, the mask processing unit 170, and the image processing unit 150 of the image processing apparatus 2 according to the second embodiment.
  • the subject position detection unit 160 stores the imaging device 3 (i.e., pre-stored from the storage device 210).
  • Camera installation information 215 relating to (camera) is read, and subject position information is read from the subject position information acquisition unit 50 (steps S31 and S32).
  • the camera installation information 215 includes coordinate information representing the camera angle of view, the focal length, the size of the camera image (number of pixels), and the camera position in real space (world coordinate system).
  • the subject position information includes coordinate information representing the subject position in the real space.
  • the camera installation information 215 is acquired in advance when the imaging device 3 is installed.
  • the subject position information sent from the subject position information acquisition unit 50 is acquired by, for example, a GPS (Global Positioning System) module mounted on the subject and transmitted from a transmitter provided in the subject (for example, Latitude, longitude, altitude).
  • the subject position information acquisition unit 50 has a GPS receiver.
  • the subject in the second embodiment is, for example, an unmanned aerial vehicle (for example, a drone) equipped with a GPS module.
  • the subject position detection unit 160 converts the subject position in the real space coordinate system into the coordinate position of the image viewed from the imaging device 3 based on the subject position information and the camera installation information 215 (step S33). Specifically, the subject position detection unit 160 converts the subject position in the real space coordinate system into the camera coordinate system, and then converts the subject position into coordinates on the image captured by the imaging device 3.
  • the camera coordinate system is, for example, a coordinate system having the origin of the lens center of the imaging device 3 that is a camera.
  • the subject position information (world coordinate system) can be converted into the camera coordinate system based on the camera installation information 215 (lens position coordinates in the world coordinate system, the direction of the optical axis, etc.).
  • the subject position detection unit 160 converts the subject position coordinates after being converted into the camera coordinate system into camera image coordinates.
  • FIG. 9 is an explanatory diagram showing processing for converting subject coordinates in the camera coordinate system into camera image coordinates.
  • C indicates the origin (lens center) of the camera coordinate system
  • the Z axis indicates a straight line (optical axis) that passes through C and is orthogonal to the lens surface.
  • (X, y, z) indicates the camera coordinates of the subject Q in the real space.
  • the camera image plane 500 is located at a focal distance f away from the origin C of the camera coordinate system.
  • the coordinate axes U and V of the camera image plane 500 are parallel to the coordinate axes X and Y of the camera coordinate system, respectively.
  • (U, v) indicates the coordinates of the subject q (indicated by white circles in FIG. 9) on the camera image plane 500.
  • the coordinate (u, v) of q is obtained by the following equation.
  • u f ⁇ (x / z) (1)
  • v f ⁇ (y / z)
  • the position of the subject Q can be shown on the camera image.
  • Information on the focal length f is included in the camera installation information 215.
  • the subject position detection unit 160 determines whether or not the subject coordinates q (u, v) on the camera image 400 are included in the image processing target area (step S34).
  • the subject position detection unit 160 includes the surrounding area including the (u, v) coordinates, for example, m ⁇ n.
  • the rectangular range is set as a mask range that is not subjected to image processing (step S35).
  • m and n are integers of 2 or more.
  • the size of the m ⁇ n rectangular range that is a mask range that is an area where image processing is not performed may be determined according to the distance between the subject and the imaging device 3.
  • the mask range is reduced, and when the distance from the subject to the imaging device 3 is small, the mask range is increased.
  • the distance from the subject to the imaging device 3 can be obtained from the camera installation information 215 and the subject position information acquired from the subject position information acquisition unit 50.
  • the mask range is not limited to a rectangle, and may be another shape such as a circle.
  • step S34 If it is determined in step S34 that q (u, v) is not included in the image processing target area, the process of step S35 is not performed, and the process of step S33 to step S35 is performed for the next (other) subject. Processing is executed (step S36). When the processing for all the subjects has been completed, the image processing unit 150 executes noise correction processing as image processing on a portion other than the region set as the mask range within the image processing target region (step S38).
  • FIG. 10A is a diagram illustrating a case where the subject 510 is present in the captured image 300 captured by the imaging device 3 at night when the object field illumination is low (dark) in the second embodiment.
  • the state before implementing the image processing of the form 2 is shown.
  • the operations up to the operation by the texture determination unit 140 for selecting the image processing target area are the same as those in the first embodiment, and the first texture amount that is the image processing target area shown in FIG. This indicates that the subject 510 is located in an area 320 (also referred to as “first texture-less area”) 320 that is less than or equal to the threshold 211.
  • the subject 510 Since the subject 510 is located at a distance away from the imaging device 3, the subject 510 appears as a minute object on the captured image 300.
  • image processing that is, noise correction processing
  • the area on the captured image 300 of the subject 510 is very small, and thus the image portion of the subject 510 is erroneously determined as noise.
  • the subject 510 may disappear from the captured image 300 by the noise removal process when it is determined as noise.
  • light emitting means such as an illumination lamp or a flashing lamp, there is a high possibility that it is determined as noise.
  • FIG. 10B is a diagram in which a rectangular range of the mask range 520 in which image processing is not performed is superimposed and displayed on the divided region image 310 after the processing of the image processing apparatus 2 according to the second embodiment is performed.
  • the mask range 520 is located at a position including the position of the subject 510 on the captured image 300 in the region 320 with the small amount of texture that is the image processing target region.
  • the subject 510 Since the noise correction process is performed on the mask range 520 where the image is located, even if the subject 510 on the captured image 300 is a minute object, it does not disappear from the captured image 300. Therefore, the monitor can visually recognize the subject 510 on the captured image 300.
  • noise correction processing is performed on the first area 320 having a small amount of texture other than the mask range 520 where noise is likely to occur, an image that is easy for the observer to view can be obtained.
  • the outline of the mask range 520 may be displayed using highlighting such as a colored frame. As a result, the position of the subject 510 is more easily understood by the supervisor.
  • the information obtained by the subject position detection unit 160 is position information (for example, longitude, latitude, and altitude) representing the orientation and altitude of the subject.
  • the information obtained by the subject position detection unit 160 also includes individual information of the subject (for example, identification information and machine information)
  • the size of the subject can be known, so that the size of the subject and the distance to the subject are determined.
  • the size of mask range 520 may be determined. For example, when the distance to the subject is L, the number of pixels in the width direction of the captured image is w, and the camera angle of view of the imaging device 3 is ⁇ , the subject size ⁇ d per unit pixel is It is calculated
  • ⁇ d (2L / w) ⁇ tan ( ⁇ / 2) (3)
  • the number of pixels required in the vertical direction of the mask range can be obtained by calculation similar to Equation (4).
  • subject position information is obtained from the subject position detection unit 160 for each image captured by the imaging device 3, but in the case of moving image shooting,
  • the subject position information acquisition cycle of the subject position detector 160 may be different.
  • the shooting cycle of the imaging device 3 is shorter than the acquisition cycle of the subject position information.
  • the previously acquired subject position information is used to determine the mask range 520 until the next subject position information is acquired.
  • the imaging cycle of the imaging device 3 is 1/30 [second] (that is, 30 images are captured per second), and the subject position information acquisition cycle of the subject position detection unit 160 is 1 [second] (that is, every second).
  • the mask range 520 is determined for the first image using the subject position information acquired at that time, and for the subsequent 29 images.
  • a new mask range 520 is obtained.
  • the mask range 520 is set to have a sufficient size so that the next subject position is within the mask range 520 set in advance.
  • the subject position information includes the speed information of the subject, or if the movement speed of the subject can be estimated from the past subject position information, for example, the size of the mask range 520 is determined as follows. Also good.
  • the cycle for acquiring the subject position information is F [seconds]
  • the moving speed of the subject is r [m / second]
  • the size of the subject per unit pixel is ⁇ d [m]
  • the subject position detection unit The distance (number of pixels) p on the image where the subject moves while 160 acquires the next subject position information can be expressed by the following equation (5).
  • p r ⁇ F / ⁇ d (5)
  • FIG. 11 is a diagram for explaining the size of the corrected mask range 530 in which the speed correction is performed when the moving speed of the subject is known.
  • the corrected mask range 520 obtained first is width m and length n
  • the corrected mask range is width m + 2p and length n + 2p from equation (5).
  • 2p is added to the original size in the width direction and the vertical direction is because it is unclear which of the moving directions of the subject moves up, down, left and right.
  • the corrected mask range 530 has a size obtained by adding p to the original size in any one of the upper, lower, left and right directions according to the moving direction of the subject. Also good.
  • noise processing is not performed on the mask range 520 where the subject 510 is located. Even if the subject 510 is very small, it does not disappear from the captured image 300 and can be viewed by the supervisor on the captured image 300. In addition, since noise correction processing is performed on the first area 320 having a small amount of texture other than the mask range 520 where noise is likely to occur, an image that is easy for the observer to view can be obtained.
  • the monitoring target is a road
  • the usage examples of the image processing apparatuses 1 and 2 are not limited to this.
  • the image processing apparatuses 1 and 2 can be applied to a flight scene (airport surface, runway surface) monitoring application.
  • the road in FIG. 3 corresponds to the runway surface
  • the subject (vehicle) corresponds to the airplane, and these are areas with high monitoring priority.
  • the area with low monitoring priority is an airspace above the flight scene, in the case of an airplane, since it is often located in the airspace, the first texture amount is small by applying the image processing device 2.
  • the subject located in the airspace in an easy-to-see manner while reducing the noise in the airspace.
  • plane position information from information such as airport surveillance radar.
  • the subject position information acquisition unit 50 is configured to acquire SSR (Secondary Survey Radar) information and airplane flight information, the airplane position information (distance, azimuth, altitude) and model information are obtained. be able to.
  • first threshold texture threshold
  • second threshold texture determination threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

撮像画像のノイズを低減する画像処理を行う画像処理装置(1)は、撮像画像を分割して得られた複数の画像領域から、複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、第1のテクスチャ量に基づいて画像処理の対象となる画像処理対象領域を予め決定する画像領域演算部(110)と、現在の撮像画像の画像処理対象領域の輝度に基づいて現在の撮像画像に対する前記画像処理の要否を判定する輝度判定部(130)と、輝度判定部によって画像処理が必要であると判定された画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、第2のテクスチャ量に基づいて画像処理対象領域に対して画像処理を行うか否かを判定するテクスチャ判定部(140)と、テクスチャ判定部(140)によって画像処理を行うと判定された画像処理対象領域に対して画像処理を実行する画像処理部(150)とを有する。

Description

画像処理装置、画像処理方法、及び画像処理プログラム
 本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
 撮像装置によって取得された撮像画像データ(以下「撮像画像」とも言う)に対してノイズ除去処理を行うと、撮像画像における被写体の微小部分がぼける、すなわち、画質を低下させることがある。この対策として、ノイズ除去処理の必要性の有無を撮像画像の輝度に基づいて判断し、必要と判断された場合に、撮像画像にノイズ除去処理を施す装置が提案されている(例えば、特許文献1参照)。
特開2005-94087号公報
 しかしながら、上記従来の装置は、撮像画像が暗い場合にノイズ除去処理を行うので、夜間の屋外を監視するシステムには適していない。例えば、暗い道路と道路上の空域とを含む撮像画像にノイズ除去処理が行われると、監視優先度が高い道路及び道路上の物体(例えば、車両)の画像領域がぼけるという問題がある。
 本発明は、上記従来技術の課題を解決するためになされたものであり、ノイズ除去処理を行った場合であっても、監視優先度が高い画像領域にぼけを生じさせない画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
 本発明の一態様に係る画像処理装置は、撮像画像のノイズを低減する画像処理を行う装置であって、前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する画像領域演算部と、現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定部と、前記輝度判定部によって前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定部と、前記テクスチャ判定部によって前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理部とを有することを特徴とする。
 本発明の他の態様に係る画像処理方法は、撮像画像のノイズを低減する画像処理を行う方法であって、前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する対象領域決定ステップと、現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定ステップと、前記輝度判定ステップにおいて前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定ステップと、前記テクスチャ判定ステップにおいて前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理ステップとを有することを特徴とする。
 本発明によれば、ノイズ除去処理を行った場合であっても、監視優先度が高い画像領域にぼけを生じさせないことができる。
本発明の実施の形態1に係る画像処理装置の構成を概略的に示すブロック図である。 図1の画像領域演算部の構成を概略的に示すブロック図である。 撮像装置によって撮像された撮像画像の例を示す図である。 実施の形態1に係る画像処理装置が行う撮像画像の領域分割動作と画像処理対象領域の選定動作を示すフローチャートである。 実施の形態1に係る画像処理装置において撮像画像を2つの画像領域に分割して得られた分割領域画像の例を示す図である。 実施の形態1に係る画像処理装置において画像処理対象領域に対する画像処理の適用の有無の判定動作を示すフローチャートである。 本発明の実施の形態2に係る画像処理装置の構成を概略的に示すブロック図である。 実施の形態2に係る画像処理装置の被写体位置検出部とマスク処理部と画像処理部の動作を示すフローチャートである。 カメラ座標系の被写体座標をカメラ画像座標系の被写体座標に変換する処理を示す説明図である。 (a)は、被写界照度が低い(暗い)夜間に撮像装置により撮像された撮像画像内に被写体がある場合を示す図であり、(b)は、実施の形態2に係る画像処理装置による処理を実施した後の分割領域画像上に画像処理を実施しないマスク範囲を重畳表示した場合を示す図である。 被写体の移動速度が分かっている場合の速度補正が行われた補正後マスク範囲の大きさを説明する図である。
 以下に、本発明の実施の形態に係る画像処理装置、画像処理方法、及び画像処理プログラムを、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
《1》実施の形態1.
《1-1》構成
 図1は、実施の形態1に係る画像処理装置1の構成を概略的に示すブロック図である。図2は、図1の画像領域演算部110の構成を概略的に示すブロック図である。画像処理装置1は、実施の形態1に係る画像処理方法を実施することができる装置である。画像処理装置1は、実施の形態1に係る画像処理プログラムを実行することができるコンピュータであってもよい。
 図1に示されるように、画像処理装置1は、制御部10と、記憶部20と、入力インタフェース30と、出力インタフェース40とを有する。制御部10は、画像領域演算部110と、画像領域読出し部120と、輝度判定部130と、テクスチャ判定部140と、画像処理部150とを有する。図2に示されるように、画像領域演算部110は、画像領域分割部111と、テクスチャ計測部112と、画像処理領域選定部113とを有する。
 制御部10は、例えば、情報を処理する1つ以上のプロセッサ、すなわち、プロセッシングを行う1つ以上のIC(Integrated Circuit)を有する。具体的には、制御部10は、1つ以上のCPU(Central Processing Unit)を有する。制御部10は、他のハードウェアを制御することができる。制御部10は、記憶部20に記憶されているソフトウェアを実行することができる。
 制御部10は、情報、データ、信号値、及び変数値などを、記憶装置210、メモリ220、又は、制御部10内のレジスタ又はキャッシュメモリに記憶させる。図1において、制御部10内の各構成と記憶装置210とを結ぶ矢印は、制御部10内の各構成が処理の結果を記憶装置210に記憶させること、又は、制御部10内の各構成が記憶装置210から情報を読み出すことを表している。また、制御部10内の構成同士を結ぶ矢印は、処理の流れを表している。なお、図1において、制御部10内の構成間の画像情報の授受は、メモリ220を介して行われる場合があるが、図1において、メモリ220と制御部10内の各構成とを結ぶ矢印又は接続線は示していない。
 制御部10の機能を実現するコンピュータ読み取り可能なプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disc)などのような可搬記録媒体に記憶されてもよい。
 記憶部20は、情報を記憶する情報記憶手段である。記憶部20は、1つ以上の記憶装置210と1つ以上のメモリ220とを含む。記憶装置210は、例えば、ROM(Read Only Memory)、フラッシュメモリ、又は、HDD(Hard Disk Drive)を有する。メモリ220は、例えば、RAM(Random Access Memory)を有する。なお、記憶部20は、図1の構成のものに限定されない。
 記憶装置210には、例えば、撮像領域を分割する際に使用される予め決められた第1の閾値であるテクスチャ閾値211と、画像処理領域情報212と、画像処理の必要性を判定するために使用される予め決められた輝度判定閾値213と、同じく画像処理の必要性を判定するために使用される予め決められた第2の閾値であるテクスチャ判定閾値214とが記憶される。
 記憶装置210には、制御部10の機能を実現するための画像処理プログラムが記憶されてもよい。この画像処理プログラムは、メモリ220にロードされ、制御部10によって読み込まれ、制御部10によって実行される。画像処理装置1がコンピュータである場合には、記憶装置210には、OS(Operating System)が記憶されてもよい。OSの少なくとも一部がメモリ220にロードされ、制御部10は、OSを実行しながら、画像処理プログラムを実行する。
 入力インタフェース30は、撮像装置3に接続されるポートである。入力インタフェース30は、撮像装置3により撮像画像を画像処理装置1に取り込む画像入力インタフェースである。入力インタフェース30により取り込まれた撮像画像は、例えば、メモリ220に記憶される。また、入力インタフェース30は、マウス、キーボード、タッチパネルなどのような入力装置(すなわち、ユーザー操作部)と接続されるポートを備えてもよい。入力インタフェース30は、例えば、LAN(Local Area Network)(登録商標)などのネットワークと接続されるポートであってもよい。入力インタフェース30は、USB(Universal Serial Bus)端子であってもよい。入力インタフェース30は、SDI(Serial Digital Interface)、HDMI(登録商標)(High Definition Multimedia Interface)、VGA(Video Graphics Array)、DVI(Digital Video Interface)、コンポーネント等の映像信号を画像処理装置1に取り込むことのできる、キャプチャボードであってもよい。
 出力インタフェース40は、ディスプレイなどのような表示機器のケーブルが接続されるポートである。出力インタフェース40は、例えば、USB端子又はHDMI(登録商標)端子である。ディスプレイは、例えば、LCD(Liquid Crystal Display)である。
《1-2》動作
 図3は、撮像装置3により撮像された撮像画像の例を示す図である。図3の例では、撮影対象は、道路301及び道路301を走る車両を含む。撮像装置3は、例えば、道路状況を監視する監視カメラである。監視対象(被写体)は、撮像画像300内の下部にある道路を走る車両である。撮像画像300内の上部には、空域が映っている。
 撮像装置3は、CCD(Charged-Coupled Device)又はCMOS(Complementary Metal-Oxide-Semiconductor)などのような撮像素子とレンズとを備えるカメラ機器である。撮像装置3は、例えば、固定カメラである。また、撮像装置3は、AGC(Automatic Gain Control)機能を備えることが望ましい。AGCは、入力信号が弱い(被写界照度が低い)場合に感度を上げ、逆に入力信号が強い(被写界照度が高い)場合に感度を下げることで、出力が常に一定であるように可変制御することである。撮像装置3は、画像処理装置1に撮像画像を提供する。
 図4は、画像処理装置1が行う撮像画像の領域分割動作と画像処理対象領域の選定動作を示すフローチャートである。
 まず、画像処理装置1は、記憶装置210における画像処理領域情報212をリセットする(ステップS11)。すなわち、画像処理装置1は、記憶装置210に画像処理領域情報212が無いことを示す情報を記憶させる。
 次に、撮像装置3により取得された撮像画像が、入力インタフェース30によって画像処理装置1に取り込まれ、メモリ220に一時的に保持され、その後、画像領域演算部110に送られる。画像領域演算部110の画像領域分割部111は、撮像画像内の画像の濃淡差のあるエッジ部分(すなわち、画像の輪郭)を検出する処理を行い、エッジ部分を示すエッジ情報に基づいて画像をn個(n≧2)の画像領域に分割する(ステップS12)。すなわち、画像領域演算部110は、例えば、撮像画像を監視の優先度が高い画像領域と、監視の優先度が低い画像領域に分割するための分割処理を行う。
 次に、画像領域演算部110のテクスチャ計測部112は、分割された画像領域の各々における第1のテクスチャ量を計測する。第1のテクスチャ量は、分割された画像領域の各々における画素値(すなわち、輝度値)のバラツキ(すなわち、輝度バラツキ)を示す分散として計測される(ステップS13)。
 次に、画像領域演算部110の画像処理領域選定部113は、分割された画像領域の各々の第1のテクスチャ量(すなわち、輝度バラツキ)が、予め決められたテクスチャ閾値211以下であるか否かを判定する(ステップS14)。
 画像領域演算部110の画像処理領域選定部113は、分割された画像領域の各々における第1のテクスチャ量がテクスチャ閾値211以下である領域を、画像処理対象領域として選定し、画像処理対象領域として選定された画像領域の撮像画像内における位置を示す位置情報を画像処理領域情報212として、予め記憶装置210に記憶させる(ステップS15)。
 ステップS11からS15までの処理は、全ての分割された画像領域に対して実行されるまで繰り返される(ステップS16)。全ての分割された画像領域の第1のテクスチャ量がテクスチャ閾値211を超えた場合は、画像処理領域情報212には、画像処理対象領域が無いことを示す「無」情報が記憶される。
 実施の形態1では、監視優先度が高い領域は、道路301を含む地表部分であり、空域の監視優先度は低い。画像処理領域選定部113は、空域のように、画像領域内の第1のテクスチャ量が少ない(すなわち、輝度バラツキが少ない)画像領域を画像処理対象領域として選定する。
 なお、画像領域演算部110の処理は、常時行われる必要はなく、例えば、監視動作開始前に、又は監視動作中に定期的(間欠的)に、又は、監視領域に変更が生じた場合に、すなわち、予め決められた時点で行えばよい。これにより、画像処理装置1に、過度な演算負荷をかけることを回避することができる。また、被写界照度が高い(明るい)場合に、画像領域演算部110の処理を行えば、撮像画像内における画像領域における第1のテクスチャ量の差が大きいので、領域分割の精度を向上させることができる。
 図5は、撮像画像300を2つの画像領域に分割して得られた分割領域画像の例を示す図である。図5の例では、分割領域画像310は、第1のテクスチャ量の多い画像領域330と、第1のテクスチャ量の少ない画像領域320(図3における空域に対応する)とに2分割されている。この場合、画像処理対象領域は、第1のテクスチャ量の少ない(すなわち、輝度バラツキが少ない)画像領域320である。
 図6は、画像処理対象領域に対する、画像処理の適用の有無の判定動作を示すフローチャートである。まず、画像領域読出し部120は、記憶装置210に記憶された画像処理領域情報を読み出す(ステップS21)。画像領域読出し部120は、記憶装置210に画像処理領域情報212が有るか無いか判定し(ステップS22)、無い場合(ステップS22においてNO)は、画像処理を行わずに処理を終了する。
 画像処理領域情報212が有る場合(ステップS22においてYES)は、輝度判定部130は、画像処理領域情報212に基づき、撮像画像内の画像処理対象領域の平均輝度を算出する(ステップS23)。
 次に、輝度判定部130は、算出された平均輝度が記憶装置210に予め記憶されている輝度判定閾値213以下か否かを判定する(ステップS24)。画像処理対象領域の平均輝度が輝度判定閾値213以下である場合は、輝度判定部130は、被写界照度が低い(暗い)ので、撮像装置3のAGC機能により撮像感度が高く設定されており、撮像画像にノイズが生じやすく、画像処理が必要であると判定する。一方、画像処理対象領域の平均輝度が輝度判定閾値213より高い場合は、輝度判定部130は、被写界照度が高く(明るく)、ノイズ補正などの画像処理の必要はないと判定する。
 ステップS22において、平均輝度が輝度判定閾値213以下と判定された場合(ステップS24においてYES)、テクスチャ判定部140は、現在の撮像画像、すなわち、撮像装置3で取得された監視対象の撮像画像の画像処理対象領域の第2のテクスチャ量(すなわち、輝度バラツキ)を算出し(ステップS25)、算出された第2のテクスチャ量を記憶装置210に予め記憶された第2の閾値であるテクスチャ判定閾値214と比較する(ステップS26)。なお、第2のテクスチャ量(すなわち、輝度バラツキ)は、画像処理対象領域内の画素値の分散としてもよいが、画像処理対象領域内の画素値の絶対値に依存しない、画像処理対象領域内の画素値の変動係数(すなわち、標準偏差/平均値)で求めることが望ましい。
 第2のテクスチャ量(すなわち、輝度バラツキ)がテクスチャ判定閾値214以上の場合(ステップS26においてYES)は、画像処理部150は、画像処理対象領域内のノイズが多いと判断し、ノイズを補正(低減)するための画像処理を実行する(ステップS27)。第2のテクスチャ量(すなわち、輝度バラツキ)がテクスチャ判定閾値214よりも少ない場合(ステップS26においてNO)は、画像処理部150は、画像処理対象領域内のノイズが少ないと判断し、ノイズを補正(低減)するための画像処理は不要と判断する。全ての画像処理対象領域に対して、ステップS23からS27までの処理が実行される(ステップS28)。
 以上のようにして生成された画像処理後の画像は、出力インタフェース40を介して、ディスプレイなどの表示機器に出力される。なお、ここでの画像処理とは、画像に生じたノイズを低減(補正)する処理のことを示す。画像処理は、例えば、平滑化フィルタを用いた処理などがある。ただし、画像処理の方法は、これらに限定せず、画像に生じたノイズを低減する処理であれば他の処理であってもよい。
《1-3》効果
 図3の撮像画像300では、夜間などの被写界照度が低い(暗い)場合、撮像画像300内で撮像装置3から遠方の距離にある空域では、撮像画像にノイズが発生しやすい。監視者は、監視優先度の高い領域である画面下部(道路301、車両)を見たいにもかかわらず、監視優先度の低い画面上部(空域)に発生するノイズの影響で、画面全体が見難い画像となる。特に、動画の場合は、ノイズが映像のチラツキとして知覚され、一層、見難い画像(映像)となる。実施の形態1に係る画像処理装置1によれば、監視カメラである撮像装置3の撮像画像を、複数の画像領域に分割し、監視優先度の低い領域に対してノイズ補正処理を施すようにしたので、監視優先度の低い領域のノイズを低減でき、かつ、監視優先度の高い領域において、ノイズ補正の影響による画像のぼけが発生しないので、見やすい監視画像を得ることができる。
 また、画像処理が必要な領域判定処理を監視動作開始前に、又は監視動作中に定期的(間欠的)に、又は、監視領域に変更が生じた場合に行うように構成したので、画像処理装置1にかかる演算負荷を軽減することができる。
 また、ノイズ補正処理対象である監視優先度の低い領域内の平均輝度及び輝度バラツキ(変動係数)からノイズ補正処理の必要の有無が判断されるため、ノイズ補正処理の必要の有無の判断の精度が向上する。このため、不要なノイズ補正が実施されることがなく、不要な画像処理に起因する画質劣化を防ぐことができる。
《2》実施の形態2.
《2-1》構成
 実施の形態1では、監視すべき被写体が、画像処理対象領域外にある場合を説明した。実施の形態2では、監視対象の1つである被写体が、画像処理対象領域内にある場合の、画像処理(すなわち、ノイズ補正処理)の動作を説明する。
 図7は、実施の形態2に係る画像処理装置2の構成を概略的に示すブロック図である。図7において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。画像処理装置2は、実施の形態2に係る画像処理方法を実施することができる装置である。画像処理装置2は、実施の形態2に係る画像処理プログラムを実行することができるコンピュータであってもよい。
 図7に示されるように、画像処理装置2は、制御部10aと、記憶部20aと、入力インタフェース30と、出力インタフェース40と、被写体の実空間位置情報を取得する被写体位置情報取得部50とを有する。制御部10aは、画像領域演算部110と、画像領域読出し部120と、輝度判定部130と、テクスチャ判定部140と、実空間における被写体位置を撮像装置3で撮影したカメラ画像内の位置に変換する被写体位置検出部160と、画像処理対象領域内で画像処理をかけない領域を決定するマスク処理部170と、画像処理部150とを有する。記憶部20aは、1つ以上の記憶装置210と1つ以上のメモリ220とを含む。記憶装置210には、例えば、予め決められたテクスチャ閾値211と、画像処理領域情報212と、予め決められた輝度判定閾値213と、予め決められたテクスチャ判定閾値214と、撮像装置3の設置位置情報を示すカメラ設置情報215とが記憶される。
《2-2》動作
 実施の形態2に係る画像処理装置2における画像処理対象領域を選定するまでの動作は、実施の形態1のもの(すなわち、図4に示される動作)と同じである。
 図8は、実施の形態2に係る画像処理装置2の被写体位置検出部160とマスク処理部170と画像処理部150の動作を説明するフローチャートである。
 テクスチャ判定部140で、画像処理対象領域の画像処理(すなわち、ノイズ補正処理)が必要と判断された場合、被写体位置検出部160は、記憶装置210から予め記憶されている撮像装置3(すなわち、カメラ)に関するカメラ設置情報215を読み出し、被写体位置情報取得部50から被写体の位置情報を読み出す(ステップS31及びS32)。ここで、カメラ設置情報215は、カメラの画角、焦点距離、カメラの画像の大きさ(画素数)、実空間(世界座標系)でのカメラ位置を表す座標情報を含む。被写体の位置情報は、実空間における被写体位置を表す座標情報を含む。カメラ設置情報215は、撮像装置3を設置する際に予め取得される。また、被写体位置情報取得部50から送られる被写体位置情報は、例えば、被写体に搭載されたGPS(Global Positioning System)モジュールが取得し、被写体に備えられた送信機から送信されたGPS情報(例えば、緯度、経度、高度)である。この場合、被写体位置情報取得部50は、GPSレシーバーを有する。実施の形態2における被写体は、例えば、GPSモジュールを搭載した無人航空機(例えば、ドローン)である。
 次に、被写体位置検出部160は、被写体位置情報とカメラ設置情報215とに基づいて、実空間座標系の被写体位置を、撮像装置3から見た画像の座標位置に変換する(ステップS33)。具体的には、被写体位置検出部160は、実空間座標系の被写体位置をカメラ座標系に変換してから、撮像装置3が撮影する画像上の座標に変換する。カメラ座標系は、例えば、カメラである撮像装置3のレンズ中心を原点とする座標系である。被写体位置情報(世界座標系)は、カメラ設置情報215(世界座標系でのレンズ位置座標、光軸の向きなど)に基づいて、カメラ座標系に変換できる。次に、被写体位置検出部160は、カメラ座標系に変換した後の被写体位置座標を、カメラ画像座標に変換する。
 図9は、カメラ座標系の被写体座標をカメラ画像座標に変換する処理を示す説明図である。図9において、Cは、カメラ座標系の原点(レンズ中心)を示し、Z軸は、Cを通りレンズ面に直交する直線(光軸)を示す。(x,y,z)は、実空間にある被写体Qのカメラ座標を示す。カメラ画像面500は、カメラ座標系の原点Cから焦点距離f離れた位置にある。カメラ画像面500の座標軸U,Vは、カメラ座標系の座標軸X,Yとそれぞれ平行である。(u,v)は、カメラ画像面500上における被写体q(図9において、白丸印で示される)の座標を示す。このとき、qの座標(u,v)は、以下の式で求められる。
u=f・(x/z)    …(1)
v=f・(y/z)    …(2)
 よって、カメラ座標系での被写体Qの座標位置(x,y,z)、すなわち、被写体Qの実空間座標系での緯度、経度、高さ(高度)の情報があれば、被写体Qの位置をカメラ画像上で示すことができる。なお、焦点距離fの情報は、カメラ設置情報215内に含まれている。
 次に、被写体位置検出部160は、カメラ画像400上の被写体座標q(u,v)が、画像処理対象領域に含まれるか否かを判定する(ステップS34)。q(u,v)が、画像処理対象領域に含まれる場合(ステップS34においてYES)は、被写体位置検出部160は、(u,v)座標を含む、その周辺領域、例えば、m×nの矩形範囲を、画像処理をかけないマスク範囲として設定する(ステップS35)。m及びnは、2以上の整数である。このとき、画像処理が行われない領域であるマスク範囲であるm×nの矩形範囲の大きさは、被写体と撮像装置3の距離に応じて決定してもよい。例えば、被写体から撮像装置3までの距離が大きい場合は、マスク範囲を小さくし、被写体から撮像装置3までの距離が小さい場合は、マスク範囲を大きくする。被写体から撮像装置3までの距離は、カメラ設置情報215と、被写体位置情報取得部50から取得する被写体位置情報から求めることができる。なお、マスク範囲は、矩形に限らず、円形などの他の形状であってもよい。
 ステップS34において、q(u,v)が画像処理対象領域に含まれないと判断された場合は、ステップS35の処理を行わず、次の(別の)被写体に対してステップS33からステップS35の処理が実行される(ステップS36)。全ての被写体に対する処理が終了した場合、画像処理対象領域内で、画像処理部150において、マスク範囲に設定された領域を除く部分に画像処理としてのノイズ補正処理を実行する(ステップS38)。
 ここで、実施の形態2に係る画像処理装置2の処理結果について説明する。図10(a)は、実施の形態2における、被写界照度が低い(暗い)夜間に撮像装置3により撮像された撮像画像300内に、被写体510がある場合を示す図であり、実施の形態2の画像処理を実施する前の状態を示す。実施の形態2において、画像処理対象領域を選定するテクスチャ判定部140による動作までは、実施の形態1のものと同じであり、図5に示す画像処理対象領域である第1のテクスチャ量がテクスチャ閾値211以下の領域(「第1のテクスチャ量の少ない領域」とも言う)320に、被写体510が位置していることを示す。
 被写体510は、撮像装置3から離れた距離に位置しているため、撮像画像300上では、微小物体として被写体510が映っている。この状態で、画像処理対象領域320に画像処理(すなわち、ノイズ補正処理)を実施すると、被写体510の撮像画像300上の領域が微小なため、被写体510の画像部分が誤ってノイズと判定される可能性があり、ノイズと判定された場合、ノイズ除去処理によって被写体510が撮像画像300上から消える可能性がある。特に、夜間において、被写体510が照明灯或いは点滅灯のような発光手段を持つ場合は、ノイズと判定される可能性が高い。
 図10(b)は、実施の形態2に係る画像処理装置2の処理を実施した後の分割領域画像310上に、画像処理を実施しないマスク範囲520の矩形範囲を重畳表示した図である。マスク範囲520は、画像処理対象領域である第1のテクスチャ量の少ない領域320内で、撮像画像300上の被写体510の位置を含む位置にあり、この状態でノイズ補正処理を実施すると、被写体510の位置するマスク範囲520には、ノイズ補正処理が行われるので、撮像画像300上の被写体510が微小物体であっても、撮像画像300上から消えることはない。したがって、監視者は、撮像画像300上で被写体510を視認することができる。また、ノイズが発生しやすいマスク範囲520以外の第1のテクスチャ量の少ない領域320には、ノイズ補正処理が行われるので、監視者が見やすい画像を得ることができる。
 なお、マスク範囲520の輪郭を色付きの枠線などの強調表示を用いて表示してもよい。これにより、監視者にとって、被写体510の位置がより判りやすくなる。
 なお、実施の形態2では、被写体位置検出部160で得られる情報が、被写体の方位と高度を表す位置情報(例えば、経度、緯度、高度)であることを前提とした。しかし、被写体位置検出部160で得られる情報に被写体の個体情報(例えば、識別情報、機体情報)も含まれる場合は、被写体の大きさが分かるので、被写体の大きさと被写体までの距離に基づいてマスク範囲520の大きさを決定してもよい。例えば、被写体までの距離がLであり、撮像画像の幅方向の画素数がwであり、撮像装置3のカメラ画角がθである場合、単位画素あたりの被写体の大きさΔdは、以下の式(3)で求められる。
Δd=(2L/w)・tan(θ/2)  …(3)
 被写体の水平方向の大きさがWである場合、式(3)より、マスク範囲の幅方向に必要な画素数mに必要な条件は、以下の式(4)で表すことができる。
m>W/Δd    …(4)
 同様に、被写体の垂直方向の大きさがわかれば、式(4)と同様の計算により、マスク範囲の縦方向に必要な画素数を求めることができる。
 また、実施の形態2では、撮像装置3が撮影する画像毎に、被写体位置検出部160から被写体位置情報を得ることを前提としていたが、動画撮影の場合は、撮像装置3の撮影周期と、被写体位置検出部160の被写体位置情報の取得周期とが異なる場合がある。一般的には、撮像装置3の撮影周期のほうが被写体位置情報の取得周期より短い。このような場合、マスク範囲520の決定には、次の被写体位置情報を取得するまで、先に取得した被写体位置情報を使用する。例えば、撮像装置3の撮影周期が1/30[秒](すなわち、1秒間に30枚撮影する)、被写体位置検出部160の被写体位置情報の取得周期が1[秒](すなわち、1秒毎に1枚撮影する)である場合は、1枚目の画像に対しては、その際に取得した被写体位置情報を用いてマスク範囲520を決定し、その後の29枚分の画像に対しては、前記先の1枚に対する被写体位置情報から決定したマスク範囲520を用い、次の被写体位置情報を取得したら、新たにマスク範囲520を求める。その際、次の被写体位置が先に設定したマスク範囲520内に収まるように、マスク範囲520は、余裕を持った大きさに設定することが望ましい。
 被写体位置情報に、被写体の速度情報が含まれる場合、又は、過去の被写体位置情報から、被写体の移動速度が推定可能な場合は、例えば、以下のようにマスク範囲520の大きさを決定してもよい。被写体位置情報を取得する周期がF[秒]であり、被写体の移動速度がr[m/秒]であり、単位画素あたりの被写体の大きさがΔd[m]である場合、被写体位置検出部160が次の被写体位置情報を取得する間に被写体が移動する画像上の距離(画素数)pは、以下の式(5)で表すことができる。
p=r・F/Δd    …(5)
 図11は、被写体の移動速度が分かっている場合の速度補正が行われた補正後のマスク範囲530の大きさを説明する図である。最初に求めたマスク範囲520の大きさを、幅m、縦nとすると、式(5)より、補正後のマスク範囲は、幅m+2p、縦n+2pである。なお、幅方向と縦方向にそれぞれ元の大きさに2pを加えた理由は、被写体の移動方向が上下左右の内のいずれの方向に移動するか不明だからである。被写体の移動方向が分かっている場合は、補正後のマスク範囲530は、被写体の移動方向に応じて、上下左右の内のいずれかの方向に、元の大きさにpを加えた大きさとしてもよい。
《2-3》効果
 以上に説明したように、実施の形態2に係る画像処理装置2によれば、被写体510の位置するマスク範囲520には、ノイズ処理が行われないので、撮像画像300上の被写体510が微小であっても、撮像画像300上から消えることはなく、監視者が撮像画像300上で視認することが可能である。また、ノイズが発生しやすいマスク範囲520以外の第1のテクスチャ量の少ない領域320には、ノイズ補正処理が行われるので、監視者が見やすい画像を得ることができる。
《3》変形例.
 上記実施の形態では、監視対象を道路としていたが、画像処理装置1及び2の使用例は、これに限るものではない。例えば、画像処理装置1及び2は、飛行場面(空港面、滑走路面)の監視用途に適用することができる。この場合、図3における道路が滑走路面、被写体(車両)が飛行機に相当し、これらが監視優先度の高い領域である。また、監視優先度の低い領域は、飛行場面上空の空域であるが、飛行機の場合は、空域に位置する場合も多いため、画像処理装置2を適用することにより、第1のテクスチャ量の少ない領域である空域のノイズを低減しつつ、空域に位置する被写体(飛行機)を見やすく表示することが可能である。飛行場面の場合、空港監視レーダーの情報等から飛行機の位置情報を得ることができる。例えば、被写体位置情報取得部50を、SSR(Secondary Surveillance Radar)の情報と飛行機のフライト情報を取得するように構成すれば、空域の飛行機の位置情報(距離、方位、高度)及び機種情報を得ることができる。
 1,2 画像処理装置、 3 撮像装置、 10,10a 制御部(プロセッサ)、 20,20a 記憶部、 30 入力インタフェース、 40 出力インタフェース、 50 被写体位置情報取得部、 110 画像領域演算部、 111 画像領域分割部、 112 テクスチャ計測部、 113 画像処理領域選定部、 120 画像領域読出し部、 130 輝度判定部、 140 テクスチャ判定部、 150 画像処理部、 160 被写体位置検出部、 170 マスク処理部、 210 記憶装置、 220 メモリ、 211 テクスチャ閾値(第1の閾値)、 212 画像処理領域情報、 213 輝度判定閾値、 214 テクスチャ判定閾値(第2の閾値)、 215 カメラ設置情報、 300 撮像画像、 301 道路、 310 分割領域画像、 320 第1のテクスチャ量の少ない領域、 330 第1のテクスチャ量の多い領域、 500 カメラ画像面、 510 被写体、 520 マスク範囲、 530 補正後マスク範囲。

Claims (14)

  1.  撮像画像のノイズを低減する画像処理を行う画像処理装置であって、
     前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する画像領域演算部と、
     現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定部と、
     前記輝度判定部によって前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定部と、
     前記テクスチャ判定部によって前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理部と
     を有することを特徴とする画像処理装置。
  2.  前記画像領域演算部は、複数の画像領域の内の前記第1のテクスチャ量が予め決められた第1の閾値以下である画像領域を、前記画像処理対象領域として選定することを特徴とする請求項1に記載の画像処理装置。
  3.  前記輝度判定部は、前記画像処理対象領域の前記輝度が予め決められた輝度判定閾値以下であるときに、前記現在の撮像画像に対する前記画像処理が必要であると判定することを特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記テクスチャ判定部は、前記画像処理対象領域の前記第2のテクスチャ量が予め決められた第2の閾値以上であるときに、前記現在の撮像画像に対する前記画像処理が必要であると判定することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記第1のテクスチャ量は、前記複数の分割領域の各々における分散であることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記画像処理対象領域の前記輝度は、前記画像処理対象領域における輝度値の平均値であることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7.  前記第2のテクスチャ量は、前記画像処理対象領域における画素値の変動係数であることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8.  記憶部をさらに有し、
     前記画像領域演算部によって予め決定された前記画像処理対象領域を示す画像処理領域情報は前記記憶部によって記憶される
     ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9.  前記撮像画像を取得するカメラの位置情報が記憶された記憶部と、
     被写体の位置情報を取得する被写体位置情報取得部と、
     前記被写体の実空間での位置座標を前記カメラのカメラ画像空間の位置座標に変換する被写体位置検出部と、
     前記カメラ画像空間において前記被写体が前記画像処理対象領域内に位置する場合、前記カメラ画像空間において、前記被写体の位置座標を含む領域をマスク範囲として設定するマスク処理部と
     をさらに有し、
     前記画像処理は、前記画像処理対象領域内における前記マスク範囲以外の領域に対して行われる
     ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  10.  前記マスク処理部は、
     前記現在の撮像画像から前記被写体の大きさを示す大きさ情報と前記カメラから前記被写体までの距離を示す距離情報を取得し、
     前記大きさ情報と前記距離情報とに基づいて、前記マスク範囲の大きさを決定する
     ことを特徴とする請求項9に記載の画像処理装置。
  11.  前記マスク処理部は、
     前記現在の撮像画像から前記被写体の移動速度を取得し、
     前記移動速度と、前記位置情報を取得する取得周期と、前記カメラの撮像周期とに基づいて、前記マスク範囲の大きさを決定する
     ことを特徴とする請求項9又は10に記載の画像処理装置。
  12.  前記マスク処理部は、前記マスク範囲を強調表示することを特徴とする請求項9から11のいずれか1項に記載の画像処理装置。
  13.  撮像画像のノイズを低減する画像処理を行う画像処理方法であって、
     前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する対象領域決定ステップと、
     現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定ステップと、
     前記輝度判定ステップにおいて前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定ステップと、
     前記テクスチャ判定ステップにおいて前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理ステップと
     を有することを特徴とする画像処理方法。
  14.  コンピュータに撮像画像のノイズを低減する画像処理を実行させる画像処理プログラムであって、
     前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する対象領域決定ステップと、
     現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定ステップと、
     前記輝度判定ステップにおいて前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定ステップと、
     前記テクスチャ判定ステップにおいて前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理ステップと
     を前記コンピュータに実行させることを特徴とする画像処理プログラム。
PCT/JP2018/015383 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム WO2019198198A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112018007258.4T DE112018007258T5 (de) 2018-04-12 2018-04-12 Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
PCT/JP2018/015383 WO2019198198A1 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020513014A JP6821090B2 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム
CN201880091964.8A CN111989910B (zh) 2018-04-12 2018-04-12 图像处理装置、图像处理方法和记录有图像处理程序的记录介质
US17/035,386 US11526966B2 (en) 2018-04-12 2020-09-28 Image processing device, image processing method, and storage medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/015383 WO2019198198A1 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/035,386 Continuation US11526966B2 (en) 2018-04-12 2020-09-28 Image processing device, image processing method, and storage medium storing image processing program

Publications (1)

Publication Number Publication Date
WO2019198198A1 true WO2019198198A1 (ja) 2019-10-17

Family

ID=68164154

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/015383 WO2019198198A1 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (5)

Country Link
US (1) US11526966B2 (ja)
JP (1) JP6821090B2 (ja)
CN (1) CN111989910B (ja)
DE (1) DE112018007258T5 (ja)
WO (1) WO2019198198A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094087A (ja) * 2003-09-12 2005-04-07 Auto Network Gijutsu Kenkyusho:Kk ノイズ除去装置
JP2007053618A (ja) * 2005-08-18 2007-03-01 Sony Corp データ処理装置およびデータ処理方法、並びにプログラム
JP2008124591A (ja) * 2006-11-09 2008-05-29 Sony Corp 撮像装置および画像処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006067409A (ja) * 2004-08-30 2006-03-09 Olympus Corp 画像処理装置と撮像装置、および画像処理プログラム
JP2006270274A (ja) 2005-03-22 2006-10-05 Olympus Corp 被写体認識装置、および被写体認識方法
CN101297545B (zh) 2005-10-28 2012-05-02 株式会社尼康 摄影装置、图像处理装置
US7587099B2 (en) 2006-01-27 2009-09-08 Microsoft Corporation Region-based image denoising
TWI361618B (en) * 2006-12-26 2012-04-01 Realtek Semiconductor Corp Method and device for estimating noise
JP2008299670A (ja) * 2007-05-31 2008-12-11 Canon Inc 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム
JP5509610B2 (ja) 2009-02-09 2014-06-04 セイコーエプソン株式会社 画像処理装置、画像表示装置及び画像処理方法
TW201035910A (en) * 2009-03-18 2010-10-01 Novatek Microelectronics Corp Method and apparatus for reducing spatial noise of images
JP5669489B2 (ja) * 2009-10-15 2015-02-12 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2011199750A (ja) 2010-03-23 2011-10-06 Olympus Corp 撮像端末、外部端末、撮像システム、及び撮像方法
JP5672527B2 (ja) 2010-09-01 2015-02-18 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
JP5657375B2 (ja) * 2010-12-24 2015-01-21 オリンパス株式会社 内視鏡装置及びプログラム
US20130002936A1 (en) * 2011-06-30 2013-01-03 Nikon Corporation Image pickup apparatus, image processing apparatus, and storage medium storing image processing program
JP5816511B2 (ja) * 2011-10-04 2015-11-18 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP6242072B2 (ja) * 2012-09-27 2017-12-06 オリンパス株式会社 画像処理装置、プログラム及び画像処理装置の作動方法
JP5975932B2 (ja) * 2013-04-24 2016-08-23 キヤノン株式会社 画像処理装置及び画像処理方法
US9639771B2 (en) 2013-09-06 2017-05-02 Sharp Kabushiki Kaisha Image processing device
CN103778609A (zh) * 2014-01-22 2014-05-07 南京航空航天大学 基于像素连续性判断的二值化图像和灰度图像的高效去噪声法
CN103888764B (zh) * 2014-03-14 2017-02-15 西安交通大学 一种自适应补偿视频压缩失真的系统及方法
US9710715B2 (en) * 2014-12-26 2017-07-18 Ricoh Company, Ltd. Image processing system, image processing device, and image processing method
CN105208376B (zh) * 2015-08-28 2017-09-12 青岛中星微电子有限公司 一种数字降噪方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094087A (ja) * 2003-09-12 2005-04-07 Auto Network Gijutsu Kenkyusho:Kk ノイズ除去装置
JP2007053618A (ja) * 2005-08-18 2007-03-01 Sony Corp データ処理装置およびデータ処理方法、並びにプログラム
JP2008124591A (ja) * 2006-11-09 2008-05-29 Sony Corp 撮像装置および画像処理方法

Also Published As

Publication number Publication date
CN111989910B (zh) 2021-12-14
US20210012467A1 (en) 2021-01-14
US11526966B2 (en) 2022-12-13
JPWO2019198198A1 (ja) 2020-10-08
CN111989910A (zh) 2020-11-24
DE112018007258T5 (de) 2020-12-10
JP6821090B2 (ja) 2021-01-27

Similar Documents

Publication Publication Date Title
CA2969482C (en) Method and apparatus for multiple technology depth map acquisition and fusion
US10467733B2 (en) Multiplexed high dynamic range images
US20160005362A1 (en) Determination Of Optical Condition And Adjustment Of Display
US20060119710A1 (en) Systems and methods for de-blurring motion blurred images
US10368063B2 (en) Optical test device for a vehicle camera and testing method
JP5843454B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20130322697A1 (en) Speed Calculation of a Moving Object based on Image Data
US20210152796A1 (en) Image calibration for projected images
CN108024057B (zh) 背景虚化处理方法、装置及设备
CN108053438B (zh) 景深获取方法、装置及设备
US9875423B2 (en) Image pickup apparatus that calculates light amount change characteristic, electronic apparatus, and method of calculating light amount change characteristic
US20190230269A1 (en) Monitoring camera, method of controlling monitoring camera, and non-transitory computer-readable storage medium
CN111917991B (zh) 图像的质量控制方法、装置、设备及存储介质
JP2022537663A (ja) 画像センサに関連付けられた動き特性に基づいて露出設定を制御するためのシステムおよび方法
US9521397B2 (en) System and method for selecting a two-dimensional region of interest using a range sensor
US20190304114A1 (en) Information processing apparatus, information processing method, and storage medium
JP6513309B2 (ja) 画像合成装置、画像合成方法、及び画像合成プログラム
CN103491286A (zh) 成像装置及其图像显示方法
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
WO2019198198A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN112804463A (zh) 一种曝光时间控制方法、装置、终端及可读存储介质
KR20150040559A (ko) 관심영역 기반의 화질개선 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
US11838645B2 (en) Image capturing control apparatus, image capturing control method, and storage medium
US10902574B2 (en) Information processing apparatus, image capture system, control method and storage medium
KR20150087708A (ko) 영상 처리 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18914078

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020513014

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18914078

Country of ref document: EP

Kind code of ref document: A1