JP2019067268A - Image processing apparatus, image processing method, program, and storage medium - Google Patents

Image processing apparatus, image processing method, program, and storage medium Download PDF

Info

Publication number
JP2019067268A
JP2019067268A JP2017193817A JP2017193817A JP2019067268A JP 2019067268 A JP2019067268 A JP 2019067268A JP 2017193817 A JP2017193817 A JP 2017193817A JP 2017193817 A JP2017193817 A JP 2017193817A JP 2019067268 A JP2019067268 A JP 2019067268A
Authority
JP
Japan
Prior art keywords
edge
image
image data
image processing
edge information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017193817A
Other languages
Japanese (ja)
Inventor
宏史 鈴木
Hiroshi Suzuki
宏史 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017193817A priority Critical patent/JP2019067268A/en
Publication of JP2019067268A publication Critical patent/JP2019067268A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing apparatus capable of performing noise suppression with high resolution at an edge portion of an image.SOLUTION: The image processing apparatus includes: a first detection unit that detects first edge information which is information on an edge portion of a subject from first image data; a generation unit that generates second image data by reducing the first image data; a second detection unit that detects second edge information which is information on an edge portion of the subject from the second image data; a first suppression unit that suppresses noise of predetermined pixel data in the first image data by referring to pixel data of a first reference region around the predetermined pixel data; and a setting unit that sets the first reference region based on the first edge information and the second edge information.SELECTED DRAWING: Figure 3

Description

本発明は、画像信号のノイズ補正を行う技術に関するものである。   The present invention relates to a technique for performing noise correction of an image signal.

近年、撮像素子の多画素化が進んでおり、画素が微小化する傾向がある。この画素の微小化に起因して、撮像素子から得られる画像信号のノイズが増加する。そこで、このノイズを信号処理により抑圧する方法として、マルチレート信号処理を利用する方法や、被写体の形状に応じてノイズ成分を抑圧する方法などが知られている。   In recent years, the number of pixels of the imaging device has been increased, and the pixels tend to be miniaturized. Due to the miniaturization of the pixels, noise of the image signal obtained from the imaging device increases. Therefore, as a method of suppressing this noise by signal processing, a method of using multi-rate signal processing, a method of suppressing a noise component according to the shape of an object, and the like are known.

特許文献1には、周波数帯域が重複するように画像を周波数分離する方法が開示されている。例えば、ガウシアンピラミッドを利用する場合、原画像から縮小率の異なる複数の縮小画像を生成する。ガウシアンピラミッドを利用した場合、すべての帯域画像に直流成分が存在する。それぞれの縮小画像に対してノイズ抑圧処理を行うとともに、抽出したエッジ信号に基づいて求めた合成比率を用いて帯域画像を合成し、合成画像を得る。   Patent Document 1 discloses a method of frequency separating images so that frequency bands overlap. For example, when using a Gaussian pyramid, a plurality of reduced images with different reduction ratios are generated from the original image. When the Gaussian pyramid is used, DC components exist in all band images. A noise suppression process is performed on each of the reduced images, and a band image is synthesized using a synthesis ratio obtained based on the extracted edge signal to obtain a synthesized image.

上述の特許文献1に記載の技術によれば、合成比率を調整することにより、例えば、画像の平坦部には低域に帯域制限された画像を多く用いるようにすることで高域のノイズを効果的に削減するなど、ノイズ量を比較的容易にコントロール可能である。   According to the technology described in Patent Document 1 described above, by adjusting the composition ratio, for example, high frequency noise can be reduced by using many images in which band limitation is performed in the low frequency region in the flat portion of the image. The amount of noise can be relatively easily controlled, such as effectively reduced.

また、特許文献2には、被写体の形状に応じてノイズ成分を抑圧する方法が開示されており、この方法では、ノイズ抑圧で参照する領域を制御することで、必要以上に画像をぼかさずにノイズ抑圧を行うことが可能である。   Further, Patent Document 2 discloses a method of suppressing a noise component according to the shape of a subject. In this method, an image is not blurred more than necessary by controlling an area to be referred to by noise suppression. It is possible to perform noise suppression.

特開2009−199104号公報JP, 2009-199104, A 特開2009−20605号公報JP, 2009-20605, A

特許文献1に記載の技術では、画像のエッジ部のノイズを抑圧するためには、低域に帯域制限された画像を多く用いる必要があり、エッジ部がぼけてしまうという課題がある。これに対して、特許文献2に記載の技術では、エッジ部の形状に応じてノイズを抑圧するため、必要以上にエッジ部がぼけることを防げるが、ノイズ量が多い高域の画像ではエッジ部の形状判定の精度が低下し、解像感が劣化するという課題がある。   In the technique described in Patent Document 1, in order to suppress noise in the edge portion of the image, it is necessary to use many images band-limited to the low band, and there is a problem that the edge portion is blurred. On the other hand, in the technique described in Patent Document 2, since noise is suppressed according to the shape of the edge portion, it is possible to prevent the edge portion from being blurred more than necessary, but in a high frequency image having a large amount of noise There is a problem that the accuracy of the shape determination of the image is deteriorated and the resolution feeling is deteriorated.

本発明は上述した課題に鑑みてなされたものであり、その目的は、画像のエッジ部において解像感の高いノイズ抑圧を行うことを可能とする画像処理装置を提供することである。   The present invention has been made in view of the above-described problem, and an object thereof is to provide an image processing apparatus capable of performing noise suppression with a high sense of resolution at an edge portion of an image.

本発明に係わる画像処理装置は、第1の画像データから、被写体のエッジ部分の情報である第1のエッジ情報を検出する第1の検出手段と、前記第1の画像データを縮小して、第2の画像データを生成する生成手段と、前記第2の画像データから、被写体のエッジ部分の情報である第2のエッジ情報を検出する第2の検出手段と、前記第1の画像データのうちの所定の画素データのノイズを、その周囲の第1の参照領域の画素データを参照して抑圧する第1の抑圧手段と、前記第1のエッジ情報と前記第2のエッジ情報とに基づいて、前記第1の参照領域を設定する設定手段と、を備えることを特徴とする。   An image processing apparatus according to the present invention comprises first detection means for detecting first edge information which is information on an edge portion of a subject from first image data, and reducing the first image data. A generation unit configured to generate second image data; a second detection unit configured to detect second edge information, which is information on an edge portion of a subject, from the second image data; First suppressing means for suppressing noise of predetermined one of the pixel data with reference to pixel data of a first reference region therearound, and based on the first edge information and the second edge information And setting means for setting the first reference area.

本発明によれば、画像のエッジ部において解像感の高いノイズ抑圧を行うことが可能となる。   According to the present invention, it is possible to perform noise suppression with a high sense of resolution at an edge portion of an image.

本発明の画像処理装置の第1の実施形態であるデジタルカメラの構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of a digital camera which is a first embodiment of an image processing apparatus of the present invention. ノイズ抑圧処理回路の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of a noise suppression processing circuit. ノイズ抑圧処理の動作の流れを示すフローチャート。The flowchart which shows the flow of operation of noise suppression processing. エッジ検出に用いるパターンの例を示す図。The figure which shows the example of the pattern used for edge detection. ノイズ抑圧に用いる参照領域の例を示す図。The figure which shows the example of the reference area | region used for noise suppression. エッジ検出に用いるパターンの例を示す図。The figure which shows the example of the pattern used for edge detection. 第1の実施形態におけるノイズ抑圧の参照領域を決める処理を示すフローチャート。6 is a flowchart showing a process of determining a noise suppression reference area in the first embodiment. ノイズ抑圧に用いる参照領域の例を示す図。The figure which shows the example of the reference area | region used for noise suppression. ノイズ抑圧に用いる参照領域の例を示す図。The figure which shows the example of the reference area | region used for noise suppression. 合成比率の例を示す図。The figure which shows the example of a synthetic | combination ratio. 第2の実施形態におけるノイズ抑圧の参照領域を決める処理を示すフローチャート。The flowchart which shows the process which determines the reference area | region of noise suppression in 2nd Embodiment.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

(第1の実施形態)
図1は、本発明の画像処理装置の第1の実施形態であるデジタルカメラ100の構成を示すブロック図である。
First Embodiment
FIG. 1 is a block diagram showing the configuration of a digital camera 100 which is a first embodiment of the image processing apparatus of the present invention.

図1において、デジタルカメラ100は、ズームレンズ、フォーカスレンズを含む撮影光学系101、絞り機能を備えるシャッター102、光学像を電気信号に変換するCCDやCMOS素子等からなる撮像素子を有する撮像部103を備える。撮像部103に接続されるA/D変換器104は、撮像部103からのアナログ信号をデジタル信号に変換する。画像処理部105は、A/D変換器104から出力される画像データに対し、ホワイトバランス処理や、γ処理、色補正処理などの各種画像処理を行う。画像メモリ106は、画像処理部105から出力された画像データを一時記憶し、メモリ制御部107は、画像メモリ106への画像データの記憶、画像メモリ106からの画像データの読み出しを制御する。D/A変換器108は、入力されたデジタル信号をアナログ信号に変換する。LCD等の表示器109は、D/A変換器108によりアナログ信号に変換された画像信号を表示する。コーデック部110は、画像データを圧縮符号化・復号化する。インタフェースI/F111はメモリカードやハードディスク等の記録媒体112とのインタフェースである。システム制御部50はデジタルカメラ100のシステム全体を制御する。   In FIG. 1, a digital camera 100 includes an imaging unit 103 including a zoom lens, a photographing optical system 101 including a focus lens, a shutter 102 having an aperture function, and a CCD or CMOS element converting an optical image into an electric signal. Equipped with An A / D converter 104 connected to the imaging unit 103 converts an analog signal from the imaging unit 103 into a digital signal. An image processing unit 105 performs various types of image processing such as white balance processing, γ processing, and color correction processing on the image data output from the A / D converter 104. The image memory 106 temporarily stores the image data output from the image processing unit 105, and the memory control unit 107 controls storage of the image data to the image memory 106 and control of reading of the image data from the image memory 106. The D / A converter 108 converts the input digital signal into an analog signal. A display 109 such as an LCD displays the image signal converted into an analog signal by the D / A converter 108. The codec unit 110 compresses and encodes image data. An interface I / F 111 is an interface with a recording medium 112 such as a memory card or a hard disk. The system control unit 50 controls the entire system of the digital camera 100.

操作部120は、ユーザーが各種の操作指示を入力するための複数の操作部材を有する。電源スイッチ121は、ユーザーがデジタルカメラ100の電源をON/OFFするための操作部材である。電源制御部122は、電源部123における電池の装着の有無、電池の種類、電池残量の検出等を行う。不揮発性メモリ124は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。システムタイマ125は各種制御に用いる時間や、内蔵された時計の時間を計測する。システムメモリ126は、システム制御部50の動作用の定数、変数、不揮発性メモリ124から読み出したプログラム等を展開するのに用いられる。   The operation unit 120 has a plurality of operation members for the user to input various operation instructions. The power switch 121 is an operation member for turning on / off the power of the digital camera 100 by the user. The power supply control unit 122 detects, for example, whether or not the battery is attached to the power supply unit 123, the type of the battery, and the remaining amount of the battery. The non-volatile memory 124 is an electrically erasable / recordable memory, and for example, an EEPROM or the like is used. A system timer 125 measures the time used for various controls and the time of a built-in clock. The system memory 126 is used to expand constants and variables for operation of the system control unit 50, programs read from the non-volatile memory 124, and the like.

次に、上記のように構成されたデジタルカメラ100における被写体撮影時の基本的な動作の流れについて説明する。   Next, the flow of the basic operation at the time of photographing an object in the digital camera 100 configured as described above will be described.

撮像部103は、撮影光学系101及びシャッター102を介して入射した光を光電変換し、入力画像信号としてA/D変換器104へ出力する。A/D変換器104は撮像部103から出力されるアナログ画像信号をデジタル画像信号に変換し画像処理部105に出力する。画像処理部105は、A/D変換器104からの画像データ、又は、メモリ制御部107から読み出した画像データに対し、ホワイトバランスなどの色変換処理、ノイズ抑圧処理、エッジ強調補正処理、γ処理などを行う。そして、ベイヤーRGBデータ、輝度・色差信号Y、R−Y、B−Yの中のいずれかの画像データを出力する。画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。また、画像処理部105では、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、などを行う。画像処理部105では更に、撮像した画像データを解析し、光源を推定し、推定した光源に基づきAWB(オートホワイトバランス)処理も行う。   The imaging unit 103 photoelectrically converts light incident through the photographing optical system 101 and the shutter 102, and outputs the light as an input image signal to the A / D converter 104. The A / D converter 104 converts an analog image signal output from the imaging unit 103 into a digital image signal and outputs the digital image signal to the image processing unit 105. The image processing unit 105 performs color conversion processing such as white balance, noise suppression processing, edge enhancement correction processing, and γ processing on the image data from the A / D converter 104 or the image data read from the memory control unit 107. Etc. Then, it outputs image data of Bayer RGB data and any one of luminance / color difference signals Y, R-Y, and B-Y. The image data output from the image processing unit 105 is written to the image memory 106 via the memory control unit 107. Further, in the image processing unit 105, predetermined operation processing is performed using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through the lens) AF (Auto Focus) processing, AE (Auto Exposure) processing, etc. are performed. The image processing unit 105 further analyzes the captured image data, estimates a light source, and performs AWB (auto white balance) processing based on the estimated light source.

画像メモリ106は、撮像部103から出力された画像データや、表示部109に表示するための画像データを格納する。また、D/A変換器108は、画像メモリ106に格納されている画像表示用のデータをアナログ信号に変換して表示部109に供給する。表示部109は、LCD等の表示器上に、D/A変換器108からのアナログ信号に応じた表示を行う。コーデック部110は、画像メモリ106に記録された画像データをMPEGなどの規格に基づき圧縮符号化する。   The image memory 106 stores image data output from the imaging unit 103 and image data to be displayed on the display unit 109. Also, the D / A converter 108 converts data for image display stored in the image memory 106 into an analog signal and supplies the analog signal to the display unit 109. The display unit 109 performs display according to the analog signal from the D / A converter 108 on a display such as an LCD. The codec unit 110 compresses and encodes the image data recorded in the image memory 106 based on a standard such as MPEG.

上記の基本動作以外に、システム制御部50は、前述した不揮発性メモリ124に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。ここでいうプログラムとは、本実施形態において後述する各種フローチャートを実行するためのプログラムのことである。この際、システム制御部50の動作用の定数、変数、不揮発性メモリ124から読み出したプログラム等をシステムメモリ126に展開する。以上が、デジタルカメラ100のブロック構成と、基本動作である。   In addition to the above-described basic operation, the system control unit 50 implements each process of the present embodiment described later by executing the program stored in the nonvolatile memory 124 described above. The program referred to here is a program for executing various flowcharts to be described later in the present embodiment. At this time, constants and variables for the operation of the system control unit 50, programs read out from the non-volatile memory 124 and the like are expanded in the system memory 126. The above is the block configuration of the digital camera 100 and the basic operation.

次に、画像処理部105で実施するノイズ抑圧処理について説明する。   Next, noise suppression processing performed by the image processing unit 105 will be described.

ノイズ抑圧処理では周波数帯域の異なる複数の画像を用いる。この処理では、入力画像である等倍画像から周波数帯域の異なる複数の縮小画像を生成する。そして、縮小率の大きいほうから順番に、特定の縮小率の縮小画像とそれよりも一段階縮小率の大きい縮小画像とを用いた帯域別ノイズ抑圧処理を反復して実施する。   In the noise suppression process, a plurality of images with different frequency bands are used. In this process, a plurality of reduced images of different frequency bands are generated from an input image, which is an equal-magnification image. Then, band-by-band noise suppression processing using a reduced image of a specific reduction ratio and a reduced image of a larger one-step reduction ratio is repeatedly performed in order from the largest reduction ratio.

ここで、上記の動作について、図2を用いて、より具体的に説明する。図2は、画像処理部105に含まれるノイズ抑制処理回路200のブロック構成を示す図である。   Here, the above operation will be more specifically described with reference to FIG. FIG. 2 is a block diagram of the noise suppression processing circuit 200 included in the image processing unit 105. As shown in FIG.

図2に示すように、縮小部201が、入力画像に対して水平及び垂直方向にプレフィルタを適用後、水平方向及び垂直方向に1/2のサイズに縮小を行い、1/2縮小画像を生成する。また、縮小部202が、1/2縮小画像に対して同様の処理を行い、1/4縮小画像を生成し、異なる周波数帯域の画像を生成する。次に1/2縮小画像とその画像よりも一段階縮小率の大きい1/4縮小画像とを用いて、1/2縮小画像に対する帯域別ノイズ抑圧処理画像(画像合成部214の出力)を生成する。次に、等倍画像と1/2縮小画像に対する帯域別ノイズ抑圧処理結果の画像(拡大部215の出力)とを用いて、等倍画像に対する帯域別ノイズ抑圧処理画像(画像合成部216の出力)を生成し、これをノイズ抑圧処理回路200の出力とする。なお、最も縮小率の大きい画像に対しては、その周波数帯域でのノイズ抑圧処理は行うものの、異なる周波数帯域の画像を用いた帯域別ノイズ抑圧処理は実施しない。この例では、1/4縮小画像が最も縮小率の大きな縮小画像であり、更に縮小した画像は存在しないため1/4縮小画像に対する帯域別ノイズ抑圧処理は実施しない。また、この例では、1/4縮小画像までを用いた場合について示しているが、1/8縮小画像や1/16縮小画像などの更に縮小率の大きい画像を用いて同様の処理を実施してもよい。   As shown in FIG. 2, after the reduction unit 201 applies pre-filters in the horizontal and vertical directions to the input image, the reduction unit 201 reduces the size to 1⁄2 in the horizontal and vertical directions to 1⁄2 reduced image. Generate In addition, the reduction unit 202 performs the same process on the 1⁄2 reduced image, generates a 1⁄4 reduced image, and generates images of different frequency bands. Next, using the 1⁄2 reduced image and the 1⁄4 reduced image having a one-step reduction rate larger than that image, a band-wise noise-suppressed image (output of the image combining unit 214) for the 1⁄2 reduced image is generated Do. Next, using the equal-magnification image and the image (output of the enlargement unit 215) of the result of the band-wise noise suppression processing for the 1/2 reduced image, the band-wise noise suppression processed image (output of the image combining unit 216 for the equal-magnification image ) Are output as the output of the noise suppression processing circuit 200. In addition, although noise suppression processing in the frequency band is performed on an image with the largest reduction ratio, band-wise noise suppression processing using images in different frequency bands is not performed. In this example, the 1⁄4 reduced image is the reduced image with the largest reduction rate, and there is no further reduced image, so the band-wise noise suppression process is not performed on the 1⁄4 reduced image. Further, although this example shows the case of using up to 1⁄4 reduced images, the same processing is performed using an image with a larger reduction ratio, such as 1⁄8 reduced images or 1/16 reduced images. May be

次に、1/2縮小画像と1/4縮小画像とを用いた帯域別ノイズ抑圧処理について図3のフローチャートを用いて説明する。   Next, band-wise noise suppression processing using the 1/2 reduced image and the 1/4 reduced image will be described using the flowchart of FIG.

ステップS301では、エッジ検出部205が1/4縮小画像に対して被写体のエッジ部分の情報を検出するエッジ検出を実施し、エッジ方向及びエッジ強度の2種類を得る。この処理は、例えば、着目画素毎に図4に示す5tapのパターンを用いたパターンマッチングにより行う。図4(a)〜図4(d)に示す着目画素の周囲の各サーチ領域に対して、着目画素の画素データとサーチ領域に含まれる各画素の画素データとの差分絶対値を算出し、その平均値を算出する。次に算出した4つの差分絶対値の平均値が最小となるパターンをその着目画素のエッジ方向とし、エッジ方向のパターンに直交するパターンの差分絶対値の平均値をその着目画素のエッジ強度とする。例えば、図4(a)のパターンでの差分絶対値の平均値が最小となる場合は、水平方向にエッジが伸びていると判断して水平方向をエッジ方向とし、これに直交する垂直方向(図4(b))のパターンを用いた差分絶対値の平均値を着目画素のエッジ強度とする。なお、差分絶対値の平均値処理は正規化のために行っているが、周波数帯域が異なることに起因して各縮小画像でノイズ量が異なることに鑑みて、平均値処理だけでなく各縮小画像のノイズ量に応じた正規化を行ってもよい。   In step S301, the edge detection unit 205 performs edge detection for detecting information on the edge portion of the subject on the 1⁄4 reduced image, and obtains two types of edge direction and edge intensity. This process is performed, for example, by pattern matching using a 5 tap pattern shown in FIG. 4 for each pixel of interest. For each search area around the pixel of interest shown in FIGS. 4 (a) to 4 (d), the difference absolute value between the pixel data of the pixel of interest and the pixel data of each pixel included in the search area is calculated; Calculate the average value. Next, a pattern in which the average value of the four calculated difference absolute values is minimum is taken as the edge direction of the pixel of interest, and the average value of the difference absolute values of patterns orthogonal to the pattern in the edge direction is taken as the edge intensity of the pixel of interest . For example, when the average value of the absolute values of differences in the pattern of FIG. 4A is minimum, it is determined that the edge is extending in the horizontal direction, and the horizontal direction is taken as the edge direction. The average value of the difference absolute values using the pattern of FIG. 4B is taken as the edge strength of the pixel of interest. In addition, although the average value process of the difference absolute value is performed for normalization, not only the average value process but also each reduction is performed in view of the fact that the noise amount is different in each reduced image due to the difference in the frequency band. Normalization according to the noise amount of the image may be performed.

ステップS302では、ノイズ抑圧部210が1/4縮小画像に対して、例えば、以下のようなノイズ抑圧処理を実施する。まず、ステップS301で算出したエッジ強度に基づいて、ノイズ抑圧で参照する領域を決める。エッジ強度が所定の閾値TH1よりも大きい場合は、着目画素はエッジ領域と判断し、ステップS301で検出した5tapのうちのエッジ方向のサーチ領域をノイズ抑圧での参照領域として設定する。反対に、エッジ強度がTH1以下の場合は、着目画素はエッジ領域でないと判断し、図5に示す領域を参照領域として設定する。その後、参照領域内の各画素の中で、着目画素の値との差が所定値以内である画素の値を平均し、着目画素の値と置き換える演算を、着目画素を変更しながら順次行う。このような方法により、ノイズ抑圧処理が実施される。   In step S302, the noise suppression unit 210 performs, for example, the following noise suppression processing on the 1⁄4 reduced image. First, an area to be referred to in noise suppression is determined based on the edge strength calculated in step S301. If the edge strength is larger than the predetermined threshold TH1, the pixel of interest is determined to be an edge area, and a search area in the edge direction of 5 taps detected in step S301 is set as a reference area for noise suppression. On the other hand, when the edge strength is TH1 or less, it is determined that the target pixel is not an edge area, and the area shown in FIG. 5 is set as a reference area. Thereafter, among the pixels in the reference area, the values of the pixels whose difference with the value of the pixel of interest is within a predetermined value are averaged, and the calculation to replace with the value of the pixel of interest is sequentially performed while changing the pixel of interest. Noise suppression processing is performed by such a method.

ステップS303では、エッジ検出部204が1/2縮小画像に対してエッジ検出を実施する。処理内容はステップS301で実施した1/4縮小画像に対するエッジ検出と同様であるが、エッジ検出に用いるパターンが異なる。1/4縮小画像に対しては図4に示す5tapのパターンを用いたが、1/2縮小画像に対しては図6に示す7tapのパターンを用いる。これは、縮小率が大きい画像では縮小率の小さい画像と比較してエッジが細くなりエッジを検出しにくくなる。そのため、縮小率が大きくなるにつれてエッジの検出に用いるtap数の幅を狭めることで適切にエッジを検出可能にする。   In step S303, the edge detection unit 204 performs edge detection on the 1/2 reduced image. The processing content is the same as the edge detection for the 1/4 reduced image performed in step S301, but the pattern used for the edge detection is different. The pattern of 5 tap shown in FIG. 4 is used for the 1⁄4 reduced image, but the pattern of 7 tap shown in FIG. 6 is used for the 1⁄2 reduced image. This is because in an image with a large reduction ratio, the edges become thinner than in an image with a small reduction ratio, and it becomes difficult to detect an edge. Therefore, as the reduction ratio increases, the width of the number of taps used for edge detection is narrowed to appropriately detect the edge.

ステップS304では、ノイズ抑圧部209が、1/2縮小画像に対して、ノイズ抑圧処理を実施する。ステップS302のノイズ抑圧処理と同様に、着目画素毎に参照する領域を決定し、参照領域内の各画素値の中で、着目画素の値との差が所定値以内である値を平均し、着目画素の値と置き換える演算を行う。ただし、参照領域の決め方(設定の仕方)はステップS302のノイズ抑圧処理とは異なり、例えば図7のフローチャートで示すように決める。   In step S304, the noise suppression unit 209 performs noise suppression processing on the 1⁄2 reduced image. As in the noise suppression process of step S302, an area to be referred to for each pixel of interest is determined, and among the pixel values in the reference area, values having differences with the value of the pixel of interest within a predetermined value are averaged. An operation is performed to replace the value of the pixel of interest. However, how to determine the reference area (how to set) is different from the noise suppression process of step S302, and is determined as shown in the flowchart of FIG. 7, for example.

ステップS701では、エッジ検出部204が1/2縮小画像から検出したエッジ強度が所定の閾値TH2よりも大きいか否かを判定する。TH2よりも大きい場合はエッジ領域であると判断しステップS702に進む。ステップS702では、エッジ検出部205が1/4縮小画像から検出したエッジ強度が所定の閾値TH3よりも大きいか否か、及び1/2縮小画像から検出したエッジ方向と1/4縮小画像から検出したエッジ方向とが等しいか否かを判定する。1/4縮小画像から検出したエッジ強度がTH3よりも大きく、かつ1/2縮小画像から検出したエッジ方向と1/4縮小画像から検出したエッジ方向とが等しい場合は、1/4縮小画像のエッジ検出で用いたtap数の信頼度が高いと判断する。そして、ステップS703に進む。ステップS703では、1/4縮小画像から検出した1/2縮小画像と共通のエッジ方向に対応した9tapの参照領域(図8)を用いて1/2縮小画像のノイズ抑圧を実施する。例えば1/4縮小画像から検出したエッジ方向が図4(b)に該当する場合は、参照領域として図8(b)に示す領域を用いるものとする。なお、1/4縮小画像での5tapの処理は1/2縮小画像では9tapに相当するため、1/2縮小画像のノイズ抑圧では参照領域の大きさを9tapとしている。   In step S701, it is determined whether the edge strength detected from the 1/2 reduced image by the edge detection unit 204 is larger than a predetermined threshold TH2. If it is larger than TH2, it is determined that the area is an edge area, and the process proceeds to step S702. In step S702, it is detected whether or not the edge strength detected from the 1⁄4 reduced image by the edge detection unit 205 is larger than a predetermined threshold TH3, and from the edge direction detected from the 1⁄2 reduced image and the 1⁄4 reduced image. It is determined whether the detected edge direction is equal. If the edge strength detected from the 1/4 reduced image is greater than TH3 and the edge direction detected from the 1/2 reduced image and the edge direction detected from the 1/4 reduced image are equal, It is determined that the reliability of the number of taps used in edge detection is high. Then, the process proceeds to step S703. In step S703, noise suppression of the 1/2 reduced image is performed using the 9 tap reference area (FIG. 8) corresponding to the edge direction common to the 1/2 reduced image detected from the 1/4 reduced image. For example, when the edge direction detected from the 1⁄4 reduced image corresponds to FIG. 4B, the area shown in FIG. 8B is used as the reference area. In addition, since the processing of 5 tap in the 1/4 reduced image corresponds to 9 tap in the 1/2 reduced image, the size of the reference area is 9 tap in the noise suppression of the 1/2 reduced image.

ステップS702の条件を満たさない場合(1/4縮小画像のエッジ強度が所定の閾値以下か、または1/2縮小画像から検出したエッジ方向と1/4縮小画像から検出したエッジ方向とが異なる場合)は、1/2縮小画像のエッジ検出で用いたtap数の信頼度が高いと判断し、1/2縮小画像から検出したエッジ方向のサーチ領域を参照領域としてノイズ抑圧を実施する。また、ステップS701で1/2縮小画像のエッジ強度がTH2以下(所定の値以下)の場合は、エッジ領域ではないと判断してステップS705に進み、図9に示す領域を参照領域としてノイズ抑圧を実施する。   When the condition of step S702 is not satisfied (when the edge strength of the 1/4 reduced image is equal to or less than a predetermined threshold or when the edge direction detected from the 1/2 reduced image is different from the edge direction detected from the 1/4 reduced image ) Determines that the reliability of the number of taps used in the edge detection of the 1/2 reduced image is high, and performs noise suppression with the search region in the edge direction detected from the 1/2 reduced image as a reference region. If the edge strength of the 1/2 reduced image is less than or equal to TH2 (less than a predetermined value) in step S701, it is determined that the region is not an edge region, and the process proceeds to step S705 to perform noise suppression using the region shown in FIG. Conduct.

1/4縮小画像は1/2縮小画像と比較すると、帯域が制限されノイズ量が少ないためエッジの検出精度が高い。一方で1/2縮小画像は1/4縮小画像よりも画像のぼけは少ない。そのため、1/4縮小画像で検出したエッジ情報を1/2縮小画像でも用いることで、ぼけの少ない画像に対して精度の高いエッジ検出結果を適用したノイズ抑圧処理を実施することが可能になる。なお、1/4縮小画像のエッジ強度信号は、1/2縮小画像のエッジ強度信号と同じサイズになるように、拡大部207によって、例えばバイリニア拡大処理で拡大しておくものとする。以上説明したようにして参照領域を決めることにより、ノイズ抑圧処理を実施する。   Compared with a 1⁄2 reduced image, the 1⁄4 reduced image has a limited band and a small amount of noise, so the edge detection accuracy is high. On the other hand, the 1/2 reduced image has less blurring of the image than the 1/4 reduced image. Therefore, by using the edge information detected in the 1⁄4 reduced image also in the 1⁄2 reduced image, it is possible to perform the noise suppression process applying the high-accuracy edge detection result to the image with less blur. . Note that the edge strength signal of the 1⁄4 reduced image is enlarged by, for example, bilinear enlargement processing by the enlargement unit 207 so as to have the same size as the edge intensity signal of the 1⁄2 reduced image. The noise suppression process is performed by determining the reference area as described above.

図3の説明に戻って、ステップS305では、拡大部213が、ノイズ抑圧した1/4縮小画像を、ノイズ抑圧した1/2縮小画像と同じサイズになるように拡大する。拡大処理は例えばバイリニア拡大処理を用いればよい。   Returning to the explanation of FIG. 3, in step S305, the enlargement unit 213 enlarges the noise-suppressed 1/4 reduced image to the same size as the noise-suppressed 1/2 reduced image. For example, a bilinear enlargement process may be used for the enlargement process.

ステップS306では、合成比率算出部212が、エッジ検出部204で算出したエッジ強度を用いて図10のようにして合成比率を算出する。図10に示すように、エッジ強度が大きいほどノイズ抑圧した1/2縮小画像の信号を多く(合成比率を高くして)使用し、1/4縮小画像の信号を少なく使用する。また、逆にエッジ強度が小さいほどノイズ抑圧した1/4縮小画像の信号を多く使用し、1/2縮小画像の信号を少なく使用する。図10における閾値TH4及びTH5は、例えば実験的に決定することができる。   In step S306, the combining ratio calculation unit 212 uses the edge intensity calculated by the edge detecting unit 204 to calculate the combining ratio as shown in FIG. As shown in FIG. 10, the larger the edge strength is, the more the signal of the noise-suppressed 1⁄2 reduced image is used (the combination ratio is increased), and the signal of the 1⁄4 reduced image is used less. Also, conversely, the smaller the edge strength, the more the signal of the noise-suppressed 1/4 reduced image is used, and the smaller the signal of the 1/2 reduced image is used. The thresholds TH4 and TH5 in FIG. 10 can be determined experimentally, for example.

ステップS307では、画像合成部214が、ステップS306で算出した合成比率に基づいて、ノイズ抑圧した1/2縮小画像とステップS305で拡大した画像とを合成し、1/2縮小画像に対する帯域別ノイズ抑圧処理画像を生成する。以上のようにして、1/2縮小画像と1/4縮小画像とを用いた、1/2縮小画像に対する帯域別ノイズ抑圧処理が行われる。   In step S307, the image combining unit 214 combines the noise-suppressed 1⁄2 reduced image and the image enlarged in step S305 based on the combining ratio calculated in step S306, and the band-specific noise for the 1⁄2 reduced image. Generate a suppression processed image. As described above, band-wise noise suppression processing is performed on the 1⁄2 reduced image using the 1⁄2 reduced image and the 1⁄4 reduced image.

また、等倍画像と1/2縮小画像に対する帯域別ノイズ抑圧結果の画像とを用いて、等倍画像に対する帯域別ノイズ抑圧処理画像を生成するが、この場合も上記と同様の処理で実施可能である。等倍画像に対するエッジ検出部203、ノイズ抑圧部208、合成比率算出部211の各処理は、1/2縮小画像に対するエッジ検出部204、ノイズ抑圧部209、合成比率算出部212の各処理と同様である。ノイズ抑圧部208は、エッジ検出部203が検出した等倍画像のエッジ情報と、エッジ検出部204が検出した1/2縮小画像のエッジ情報を拡大部206で拡大したものとを用いて、ノイズ抑圧の参照領域を決めてノイズ抑圧処理を実施する。また、画像合成部216の処理では、ノイズ抑圧した等倍画像と、1/2縮小画像に対する帯域別ノイズ抑圧処理画像を拡大部215で拡大した画像とを合成することで等倍画像に対する帯域別ノイズ抑圧処理画像を生成する。そして、これをノイズ抑圧処理回路200の出力とする。以上が、第1の実施形態におけるノイズ抑圧処理である。   Also, although the band-wise noise suppression processed image for the equal-magnification image is generated using the equal-magnification image and the image of the band-wise noise suppression result for the 1⁄2 reduced image, also in this case, the same processing can be performed It is. The processes of the edge detecting unit 203, the noise suppressing unit 208, and the combining ratio calculating unit 211 for the same size image are the same as the processes of the edge detecting unit 204, the noise suppressing unit 209, and the combining ratio calculating unit 212 for the 1/2 reduced image. It is. The noise suppression unit 208 uses the edge information of the equal-magnification image detected by the edge detection unit 203 and the edge information of the 1⁄2 reduced image detected by the edge detection unit 204 enlarged by the enlargement unit 206. A noise suppression process is performed by determining a suppression reference area. Further, in the processing of the image combining unit 216, the noise-suppressed equal-magnification image and the image in which the band-wise noise suppression processing image for the 1⁄2 reduced image is enlarged by the enlargement unit 215 are synthesized A noise suppression processed image is generated. Then, this is used as the output of the noise suppression processing circuit 200. The above is the noise suppression processing in the first embodiment.

(第2の実施形態)
第1の実施形態では、特定サイズの画像のノイズ抑圧を行う際に、その画像から検出したエッジ情報とその画像よりも一段階縮小率の大きな縮小画像から検出したエッジ情報とを用いて、ノイズ抑圧で参照する領域のtap数を制御する場合について説明した。この第2の実施形態では、ノイズ抑圧で参照する領域のtap数及び参照する方向を制御する場合について説明する。
Second Embodiment
In the first embodiment, when performing noise suppression of an image of a specific size, noise is detected using edge information detected from the image and edge information detected from a reduced image having a larger reduction ratio by one step than the image. The case of controlling the number of taps in the region to be referred to in the suppression has been described. In the second embodiment, the case of controlling the number of taps of a region to be referred to in noise suppression and the direction to be referred to will be described.

第2の実施形態は、第1の実施形態におけるノイズ抑圧の処理(ステップS304)以外は、第1の実施形態と同様であるため、異なる部分についてのみ説明する。本実施形態では、図11のフローチャートの手順に従って、ステップS304のノイズ抑圧の処理を行う。   The second embodiment is the same as the first embodiment except the noise suppression process (step S304) in the first embodiment, so only different parts will be described. In the present embodiment, the noise suppression process of step S304 is performed according to the procedure of the flowchart of FIG.

ステップS1101では、ステップS303で検出した1/2縮小画像のエッジ強度が所定の閾値TH6よりも大きいか否かを判定する。TH6よりも大きい場合は、1/2縮小画像からエッジ領域を検出できると判断してステップS1102に進み、1/2縮小画像から検出したエッジ方向のサーチ領域を参照領域としてノイズ抑圧を実施する。1/2縮小画像のエッジ強度がTH6以下の場合は、ステップS1103に進み、1/4縮小画像のエッジ強度が所定の閾値TH7よりも大きいか否かを判定する。TH7よりも大きい場合は、1/4縮小画像からエッジ領域を検出できると判断してステップS1104に進む。そして、1/4縮小画像から検出したエッジ方向に応じた9tapの領域を参照領域として1/2縮小画像のノイズ抑圧を実施する。1/4縮小画像のエッジ強度がTH7以下の場合は、エッジ領域でないと判断して、ステップS1105に進み、図9に示す領域を参照領域として1/2縮小画像のノイズ抑圧を実施する。以上が、第2の実施形態におけるノイズ抑圧処理である。   In step S1101, it is determined whether the edge strength of the 1/2 reduced image detected in step S303 is larger than a predetermined threshold TH6. If larger than TH6, it is determined that the edge area can be detected from the 1/2 reduced image, and the process advances to step S1102, and noise suppression is performed using the search area in the edge direction detected from the 1/2 reduced image as a reference area. If the edge strength of the 1/2 reduced image is equal to or less than TH6, the process advances to step S1103, and it is determined whether the edge strength of the 1/4 reduced image is larger than a predetermined threshold TH7. If larger than TH7, it is determined that the edge area can be detected from the 1⁄4 reduced image, and the process advances to step S1104. Then, noise suppression of the 1⁄2 reduced image is performed with the region of 9 taps corresponding to the edge direction detected from the 1⁄4 reduced image as a reference region. If the edge strength of the 1⁄4 reduced image is equal to or less than TH7, it is determined that the region is not an edge region, and the process advances to step S1105 to perform noise suppression of the 1⁄2 reduced image using the region shown in FIG. The above is the noise suppression processing in the second embodiment.

なお、上記の実施形態では、図4及び図6に示すパターンを用いてエッジの検出を行ったが、パターンの種類はこれに限らずtap数やサーチ領域を適宜変更してもよい。また、パターンを用いず、例えばラプラシンフィルタなどのフィルタ処理によってエッジ強度を算出してもよい。   In the above embodiment, edge detection is performed using the patterns shown in FIG. 4 and FIG. 6, but the type of pattern is not limited to this, and the number of taps and the search area may be changed as appropriate. Alternatively, the edge strength may be calculated by filter processing such as a laplacin filter without using a pattern.

また、上記の実施形態では、特定サイズの画像に帯域別ノイズ抑圧処理を実施する際に、その画像よりも一段階縮小率の大きな縮小画像から検出したエッジ情報の信頼度が高いと判断した場合は、一段階縮小率の大きな縮小画像で用いたtap数をその画像のサイズに合わせるように拡大したtap数を用いてノイズ抑圧を実施する場合について説明した。しかし、例えば処理量の増加を防ぐ目的で、tap数を拡大せずにノイズ抑圧処理を実施してもよい。   Further, in the above embodiment, when performing band-by-band noise suppression processing on an image of a specific size, it is determined that the reliability of edge information detected from a reduced image having a one-step reduction rate larger than that image is high. In the above, the case has been described in which noise suppression is performed using the number of taps expanded in order to match the number of taps used in a reduced image having a large one-stage reduction rate to the size of the image. However, for example, in order to prevent an increase in processing amount, the noise suppression processing may be performed without expanding the number of taps.

また、ノイズ抑圧を行う際の参照領域を決める方法は、第1及び第2の実施形態に記載の方法に限らず、特定サイズの画像から検出したエッジ情報とその画像よりも一段階縮小率の大きな縮小画像から検出したエッジ情報とを用いる方法であればよい。   Further, the method of determining the reference region when performing noise suppression is not limited to the methods described in the first and second embodiments, and edge information detected from an image of a specific size and a one-step reduction rate than that image Any method may be used as long as edge information detected from a large reduced image is used.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
Furthermore, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by the process to be executed. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

50:システム制御部、100:デジタルカメラ、101:撮影光学系、102:シャッター、103:撮像部、104:A/D変換部、105:画像処理部、106・・・画像メモリ、107:メモリ制御部、200:ノイズ抑圧処理回路 50: system control unit, 100: digital camera, 101: photographing optical system, 102: shutter, 103: imaging unit, 104: A / D conversion unit, 105: image processing unit, 106 ... image memory, 107: memory Control unit, 200: noise suppression processing circuit

Claims (14)

第1の画像データから、被写体のエッジ部分の情報である第1のエッジ情報を検出する第1の検出手段と、
前記第1の画像データを縮小して、第2の画像データを生成する生成手段と、
前記第2の画像データから、被写体のエッジ部分の情報である第2のエッジ情報を検出する第2の検出手段と、
前記第1の画像データのうちの所定の画素データのノイズを、その周囲の第1の参照領域の画素データを参照して抑圧する第1の抑圧手段と、
前記第1のエッジ情報と前記第2のエッジ情報とに基づいて、前記第1の参照領域を設定する設定手段と、
を備えることを特徴とする画像処理装置。
First detection means for detecting first edge information, which is information of an edge portion of a subject, from the first image data;
Generation means for reducing the first image data to generate second image data;
Second detection means for detecting second edge information which is information of an edge portion of a subject from the second image data;
First suppressing means for suppressing noise of predetermined pixel data of the first image data with reference to pixel data of a first reference region therearound;
Setting means for setting the first reference area based on the first edge information and the second edge information;
An image processing apparatus comprising:
前記第1のエッジ情報と前記第2のエッジ情報は、それぞれ被写体のエッジ部分のエッジ方向及びエッジ強度の少なくともいずれかを含むことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first edge information and the second edge information include at least one of an edge direction and an edge strength of an edge portion of a subject. 前記設定手段は、前記第1のエッジ情報と前記第2のエッジ情報とに含まれるエッジ方向に沿って前記第1の参照領域を設定することを特徴とする請求項2に記載の画像処理装置。   3. The image processing apparatus according to claim 2, wherein the setting unit sets the first reference area along an edge direction included in the first edge information and the second edge information. . 前記第2のエッジ情報に含まれるエッジ強度が所定の閾値より大きく、前記第1のエッジ情報に含まれるエッジ方向が前記第2のエッジ情報に含まれるエッジ方向と同じである場合に、前記設定手段は、前記第1のエッジ情報と前記第2のエッジ情報に共通のエッジ方向に沿って前記第1の参照領域を設定することを特徴とする請求項3に記載の画像処理装置。   The setting is performed when the edge strength included in the second edge information is larger than a predetermined threshold and the edge direction included in the first edge information is the same as the edge direction included in the second edge information. 4. The image processing apparatus according to claim 3, wherein the means sets the first reference area along an edge direction common to the first edge information and the second edge information. 前記第2のエッジ情報に含まれるエッジ強度が前記所定の閾値以下か、または前記第1のエッジ情報に含まれるエッジ方向が前記第2のエッジ情報に含まれるエッジ方向と同じでない場合に、前記設定手段は、前記第1のエッジ情報に含まれるエッジ方向に沿って前記第1の参照領域を設定することを特徴とする請求項3に記載の画像処理装置。   When the edge strength included in the second edge information is equal to or less than the predetermined threshold or the edge direction included in the first edge information is not the same as the edge direction included in the second edge information The image processing apparatus according to claim 3, wherein the setting unit sets the first reference area along an edge direction included in the first edge information. 前記設定手段は、前記第1のエッジ情報に含まれるエッジ強度が所定の値以下の場合には、被写体のエッジが存在しないと判定して、前記第1の参照領域を設定することを特徴とする請求項2に記載の画像処理装置。   When the edge intensity included in the first edge information is equal to or less than a predetermined value, the setting means determines that the edge of the subject does not exist, and sets the first reference area. The image processing apparatus according to claim 2. 前記設定手段は、前記第1のエッジ情報と前記第2のエッジ情報とに基づいて、前記第1の参照領域の大きさを設定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   7. The apparatus according to any one of claims 1 to 6, wherein the setting unit sets the size of the first reference area based on the first edge information and the second edge information. The image processing apparatus according to claim 1. 前記第2の画像データのうちの所定の画素データのノイズを、その周囲の第2の参照領域の画素データを参照して抑圧する第2の抑圧手段をさらに備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus may further include second suppression means for suppressing noise of a predetermined pixel data of the second image data with reference to pixel data of a second reference area around the second image data. The image processing apparatus according to any one of items 1 to 7. 前記第2の抑圧手段によりノイズが抑圧された前記第2の画像データと、前記第1の抑圧手段によりノイズが抑圧された第1の画像データとを合成する合成手段をさらに備えることを特徴とする請求項8に記載の画像処理装置。   The apparatus further comprises combining means for combining the second image data whose noise has been suppressed by the second suppressing means and the first image data whose noise has been suppressed by the first suppressing means. The image processing apparatus according to claim 8. 前記第1のエッジ情報に基づいて、ノイズが抑圧された前記第2の画像データと、ノイズが抑圧された前記第1の画像データとを合成する合成比率を算出する算出手段をさらに備えることを特徴とする請求項9に記載の画像処理装置。   It further comprises calculation means for calculating a combination ratio for combining the second image data with noise suppressed and the first image data with noise suppressed based on the first edge information. The image processing apparatus according to claim 9, characterized in that: 前記ノイズが抑圧された前記第2の画像データと、ノイズが抑圧された前記第1の画像データとを、前記合成比率に基づいて合成する合成手段をさらに備えることを特徴とする請求項10に記載の画像処理装置。   11. The apparatus according to claim 10, further comprising: combining means for combining the second image data in which the noise is suppressed and the first image data in which the noise is suppressed based on the combining ratio. Image processing apparatus as described. 第1の画像データから、被写体のエッジ部分の情報である第1のエッジ情報を検出する第1の検出工程と、
前記第1の画像データを縮小して、第2の画像データを生成する生成工程と、
前記第2の画像データから、被写体のエッジ部分の情報である第2のエッジ情報を検出する第2の検出工程と、
前記第1の画像データのうちの所定の画素データのノイズを、その周囲の第1の参照領域の画素データを参照して抑圧する第1の抑圧工程と、
前記第1のエッジ情報と前記第2のエッジ情報とに基づいて、前記第1の参照領域を設定する設定工程と、
を備えることを特徴とする画像処理方法。
A first detection step of detecting first edge information which is information of an edge portion of a subject from the first image data;
Generating the second image data by reducing the first image data;
A second detection step of detecting second edge information which is information of an edge portion of a subject from the second image data;
A first suppression step of suppressing noise of predetermined pixel data of the first image data with reference to pixel data of a first reference region therearound;
A setting step of setting the first reference area based on the first edge information and the second edge information;
An image processing method comprising:
請求項12に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the image processing method of Claim 12. 請求項12に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶した記憶媒体。   A storage medium storing a program for causing a computer to execute the steps of the image processing method according to claim 12.
JP2017193817A 2017-10-03 2017-10-03 Image processing apparatus, image processing method, program, and storage medium Pending JP2019067268A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017193817A JP2019067268A (en) 2017-10-03 2017-10-03 Image processing apparatus, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017193817A JP2019067268A (en) 2017-10-03 2017-10-03 Image processing apparatus, image processing method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2019067268A true JP2019067268A (en) 2019-04-25

Family

ID=66337857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193817A Pending JP2019067268A (en) 2017-10-03 2017-10-03 Image processing apparatus, image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2019067268A (en)

Similar Documents

Publication Publication Date Title
JP5980294B2 (en) Data processing apparatus, imaging apparatus, and data processing method
US10291854B2 (en) Image capture apparatus and method of controlling the same
KR102266649B1 (en) Image processing method and device
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
JP6223059B2 (en) Imaging apparatus, control method thereof, and program
JP6720881B2 (en) Image processing apparatus and image processing method
JP2016032181A (en) Image processing apparatus, image pickup device and image processing method
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
JP6227935B2 (en) Image processing apparatus and image processing method
JP6116436B2 (en) Image processing apparatus and image processing method
JP2017038165A (en) Image processing device, imaging device and image processing method
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6516830B2 (en) Image processing apparatus, image processing method and program
JP6020904B2 (en) Image processing apparatus and imaging apparatus
US9710897B2 (en) Image processing apparatus, image processing method, and recording medium
JP2015041865A (en) Image processing apparatus and image processing method
KR102050415B1 (en) Apparatus and method for image processing.
JP2019067268A (en) Image processing apparatus, image processing method, program, and storage medium
JP7204387B2 (en) Image processing device and its control method
JP7009252B2 (en) Image processing equipment, image processing methods and programs
JP2017229025A (en) Image processing apparatus, image processing method, and program
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program
JP6003974B2 (en) Image processing apparatus, image processing method, and program
JP6029464B2 (en) Imaging device, control method thereof, and control program