JP2011147012A - Image display device, and method of displaying image - Google Patents

Image display device, and method of displaying image Download PDF

Info

Publication number
JP2011147012A
JP2011147012A JP2010007185A JP2010007185A JP2011147012A JP 2011147012 A JP2011147012 A JP 2011147012A JP 2010007185 A JP2010007185 A JP 2010007185A JP 2010007185 A JP2010007185 A JP 2010007185A JP 2011147012 A JP2011147012 A JP 2011147012A
Authority
JP
Japan
Prior art keywords
image data
image
frequency reduction
data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010007185A
Other languages
Japanese (ja)
Inventor
Manabu Ichikawa
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010007185A priority Critical patent/JP2011147012A/en
Publication of JP2011147012A publication Critical patent/JP2011147012A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To solve such a problem that a false color may be generated when displaying monochrome image data. <P>SOLUTION: A method of displaying an image includes a step of determining whether or not image data to be displayed is monochrome image data (S820) and a step of carrying out high-frequency reduction processing for reducing high-frequency components to the monochrome image data when it is determined that the image data to be displayed is monochrome image data (S830). By displaying the monochrome image data (S840) subjected to high-frequency reduction processing, the generation of the false color can be suppressed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、単色画像データを表示する画像表示装置および画像表示方法に関する。   The present invention relates to an image display device and an image display method for displaying monochromatic image data.

銀塩写真のような粒状感を再現するために、画像データに対してノイズパターンを重畳する技術が提案されている。特許文献1に記載の技術では、画素単位で乱数を発生させ、周波数フィルタ処理やスケール変更を行って、期待する粒状度の粒状を画像に重畳させている。また、特許文献2に記載の技術では、均一露光されたカラーフィルムから得られた露光画像から平滑化した画像を減算することにより、粒状パターンを算出している。   In order to reproduce a grainy feeling like a silver salt photograph, a technique for superimposing a noise pattern on image data has been proposed. In the technique described in Patent Document 1, random numbers are generated in units of pixels, and frequency filter processing and scale change are performed to superimpose granularity with an expected granularity on an image. In the technique described in Patent Document 2, a granular pattern is calculated by subtracting a smoothed image from an exposure image obtained from a uniformly exposed color film.

米国特許第5,641,596号明細書US Pat. No. 5,641,596 特開平11−85955号公報Japanese Patent Laid-Open No. 11-85955

一般に、自然画においては、隣接画素間の相関が高い。従って、画像データの各画素をそのまま表示パネルの画素に対応させ、表示パネルのカラーフィルタに該当する画像データの色情報のみ表示するような表示方法を用いて表示しても、違和感が無く、かつ、十分な解像感の画像表示が可能である。しかしながら、粒状感が付加されたモノクロ画像においては、隣接する画素の輝度値の相関は低く、輝度値の差が大きいため、同様の表示方法で表示すると、表示パネルにおいて注目している画素の輝度値と、隣接してカラーフィルタの異なる画素の輝度値とが大きく異なることがあり、本来存在しないはずの偽色が生じてしまう可能性がある。   In general, in a natural image, the correlation between adjacent pixels is high. Therefore, even if each pixel of the image data is directly associated with the pixel of the display panel and displayed using a display method that displays only the color information of the image data corresponding to the color filter of the display panel, there is no sense of incongruity, and It is possible to display an image with sufficient resolution. However, in a monochrome image with graininess added, the correlation between the luminance values of adjacent pixels is low, and the difference in luminance values is large. Therefore, when displayed in the same display method, the luminance of the pixel of interest on the display panel is displayed. The value and the luminance value of a pixel adjacent to the color filter may be greatly different from each other, which may cause a false color that should not exist.

本発明は、偽色が発生しないように、単色画像データを表示する技術を提供することを目的とする。   An object of the present invention is to provide a technique for displaying single-color image data so that false colors do not occur.

本発明のある態様に係る画像表示装置は、表示対象の画像データが単色画像データであるか否かを判定する判定部と、画像データに対して高周波成分を低減する高周波低減処理を施す高周波低減処理部と、前記判定部によって、表示対象の画像データが単色画像データであると判定されると、前記単色画像データに対して前記高周波低減処理が行われるように前記高周波低減処理部を制御する制御部と、前記高周波低減処理が施された単色画像データを表示する表示部と、を備える。   An image display apparatus according to an aspect of the present invention includes a determination unit that determines whether image data to be displayed is single-color image data, and high-frequency reduction that performs high-frequency reduction processing that reduces high-frequency components on the image data. When the processing unit and the determination unit determine that the image data to be displayed is single color image data, the high frequency reduction processing unit is controlled so that the high frequency reduction process is performed on the single color image data. A control unit; and a display unit that displays the monochromatic image data subjected to the high-frequency reduction process.

本発明の別の態様に係る画像表示方法は、画像データを表示部に表示する画像表示方法であって、表示対象の画像データが単色画像データであるか否かを判定するステップと、表示対象の画像データが単色画像データであると判定すると、前記単色画像データに対して高周波成分を低減する高周波低減処理を施すステップと、前記高周波低減処理が施された単色画像データを表示するステップと、を備える。   An image display method according to another aspect of the present invention is an image display method for displaying image data on a display unit, the step of determining whether or not the image data to be displayed is monochromatic image data, Determining that the image data is monochrome image data, performing a high frequency reduction process for reducing high frequency components to the monochrome image data, displaying monochromatic image data subjected to the high frequency reduction process, and Is provided.

本発明によれば、単色画像データを表示する際の偽色の発生を抑制することができる。   According to the present invention, it is possible to suppress generation of false colors when displaying monochrome image data.

第1の実施形態における画像表示装置を適用したデジタルスチルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital still camera to which the image display apparatus in 1st Embodiment is applied. 第1の実施形態に係る画像表示装置を適用したデジタルスチルカメラで行われるメインの処理フローを示すフローチャートである。It is a flowchart which shows the main processing flow performed with the digital still camera to which the image display apparatus which concerns on 1st Embodiment is applied. 静止画撮影・画像処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of still image photography and image processing. ライブビュー表示・動画撮影・画像処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a live view display, video recording, and image processing. 再生処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a reproduction | regeneration process. 現像処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a developing process. LCD表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a LCD display process. 画像データをLCDに表示する方法を説明するための図である。It is a figure for demonstrating the method to display image data on LCD. 第2の実施形態における画像表示装置によって行われるLCD表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the LCD display process performed by the image display apparatus in 2nd Embodiment. 第3の実施形態における画像表示装置によって行われるLCD表示処理の詳細を示すフローチャートである。14 is a flowchart illustrating details of an LCD display process performed by the image display device according to the third embodiment. 単色画像データに対して、水平方向3画素の平均化処理を行ってから、LCDに表示させる処理を説明するための図である。It is a figure for demonstrating the process displayed on LCD after performing the averaging process of 3 pixels of horizontal directions with respect to monochrome image data. 第4の実施形態における画像表示装置によって行われるLCD表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the LCD display process performed by the image display apparatus in 4th Embodiment. 単色画像データに対して、水平方向に3分の1のサイズになるように縮小する処理を行った後、ニアレストネイバー補間法によって、水平方向に3倍に拡大する処理を行ってから、LCDに表示させる処理を説明するための図である。After processing to reduce the size of monochromatic image data to one third of the size in the horizontal direction, it performs processing to enlarge it three times in the horizontal direction by the nearest neighbor interpolation method, and then the LCD It is a figure for demonstrating the process displayed on this.

<第1の実施形態>
図1は、第1の実施形態における画像表示装置を適用したデジタルスチルカメラの構成を示すブロック図である。図1に示すデジタルスチルカメラは、カメラ本体1と交換式レンズ2から構成される。
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration of a digital still camera to which the image display apparatus according to the first embodiment is applied. The digital still camera shown in FIG. 1 includes a camera body 1 and an interchangeable lens 2.

交換式レンズ2は、レンズ1010と、Flashメモリ1011と、マイクロコンピュータ1012と、ドライバ1013と、絞り1014と、を有している。交換式レンズ2は、I/F999を介して、カメラ本体1と通信可能に接続されている。   The interchangeable lens 2 includes a lens 1010, a flash memory 1011, a microcomputer 1012, a driver 1013, and a diaphragm 1014. The interchangeable lens 2 is communicably connected to the camera body 1 via the I / F 999.

カメラ本体1は、メカシャッター101と、撮像素子102と、アナログ処理部103と、アナログ/デジタル変換部104(以下、A/D変換部104)と、バス105と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、画像圧縮展開部110と、メモリインターフェース111(以下、メモリI/F111)と、記録媒体112と、LCDドライバ113と、LCD114と、マイクロコンピュータ115と、操作部116と、Flashメモリ117と、ノイズパターン生成部118と、画像加算部119と、を有している。   The camera body 1 includes a mechanical shutter 101, an image sensor 102, an analog processing unit 103, an analog / digital conversion unit 104 (hereinafter referred to as A / D conversion unit 104), a bus 105, an SDRAM 106, and an image processing unit 107. An AE processing unit 108, an AF processing unit 109, an image compression / decompression unit 110, a memory interface 111 (hereinafter referred to as a memory I / F 111), a recording medium 112, an LCD driver 113, an LCD 114, and a microcomputer 115. An operation unit 116, a flash memory 117, a noise pattern generation unit 118, and an image addition unit 119.

レンズ1010は、被写体の光学像を撮像素子102に集光させる。レンズ1010は、単焦点レンズであってもよいし、ズームレンズであってもよい。   The lens 1010 focuses the optical image of the subject on the image sensor 102. The lens 1010 may be a single focus lens or a zoom lens.

マイクロコンピュータ1012は、I/F999、Flashメモリ1011、および、ドライバ1013と接続されていて、Flashメモリ1011に記憶されている情報の読み込み・書き込みを行うとともに、ドライバ1013を制御する。Flashメモリ1011に記憶されている情報には、交換式レンズ2の焦点距離のデータなどが含まれる。   The microcomputer 1012 is connected to the I / F 999, the flash memory 1011 and the driver 1013. The microcomputer 1012 reads and writes information stored in the flash memory 1011 and controls the driver 1013. Information stored in the flash memory 1011 includes data on the focal length of the interchangeable lens 2 and the like.

マイクロコンピュータ1012は、さらに、I/F999を介して、マイクロコンピュータ115と通信することができ、様々な情報をマイクロコンピュータ115へ送信し、また、マイクロコンピュータ115から絞り値等の情報を受信する。   The microcomputer 1012 can further communicate with the microcomputer 115 via the I / F 999, transmits various information to the microcomputer 115, and receives information such as an aperture value from the microcomputer 115.

ドライバ1013は、マイクロコンピュータ1012の指示を受けて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行うとともに、絞り1014を駆動する。絞り1014は、レンズ1010の近傍に設けられ、被写体の光量を調節する。   In response to an instruction from the microcomputer 1012, the driver 1013 drives the lens 1010 to change the focal length and focus position, and drives the aperture 1014. The aperture 1014 is provided in the vicinity of the lens 1010 and adjusts the amount of light of the subject.

メカシャッター101は、マイクロコンピュータ115の指示を受けて駆動し、撮像素子102に被写体を露光する時間を制御する。   The mechanical shutter 101 is driven in response to an instruction from the microcomputer 115 to control the time for exposing the subject to the image sensor 102.

撮像素子102は、各画素を構成するフォトダイオードの前面に、ベイヤー配列のカラーフィルタが配置された撮像素子である。ベイヤー配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインとを有し、さらにその2つのラインを垂直方向にも交互に配置することで構成されている。この撮像素子102は、レンズ1010により集光された光を、画素を構成するフォトダイオードで受光して光電変換することで、光の量を電荷量としてアナログ処理部103へ出力する。なお、撮像素子102は、CMOS方式のものでもCCD方式のものでも良い。   The image sensor 102 is an image sensor in which a Bayer array color filter is arranged in front of a photodiode constituting each pixel. The Bayer array has a line in which R pixels and G (Gr) pixels are alternately arranged in a horizontal direction, and a line in which G (Gb) pixels and B pixels are alternately arranged, and the two lines are further divided. It is configured by alternately arranging in the vertical direction. The imaging element 102 receives the light collected by the lens 1010 by a photodiode that constitutes a pixel and performs photoelectric conversion, and outputs the amount of light to the analog processing unit 103 as a charge amount. The image sensor 102 may be a CMOS type or a CCD type.

アナログ処理部103は、撮像素子102から読み出された電気信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるように、ゲインアップを行う。A/D変換部104は、アナログ処理部103から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。   The analog processing unit 103 performs waveform shaping on the electrical signal (analog image signal) read from the image sensor 102 while reducing reset noise and the like, and further increases the gain so that the target brightness is obtained. . The A / D conversion unit 104 converts the analog image signal output from the analog processing unit 103 into a digital image signal (hereinafter referred to as image data).

バス105は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。バス105は、A/D変換部104と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、画像圧縮展開部110と、メモリI/F111と、LCDドライバ113と、マイクロコンピュータ115と、ノイズパターン生成部118と、画像加算部119に接続されている。   A bus 105 is a transfer path for transferring various data generated in the digital camera to each unit in the digital camera. The bus 105 includes an A / D conversion unit 104, an SDRAM 106, an image processing unit 107, an AE processing unit 108, an AF processing unit 109, an image compression / decompression unit 110, a memory I / F 111, an LCD driver 113, and the like. The microcomputer 115, the noise pattern generation unit 118, and the image addition unit 119 are connected.

A/D変換部104から出力される画像データは、バス105を介して一旦SDRAM106に記憶される。SDRAM106は、A/D変換部104において得られた画像データや、画像処理部107、画像圧縮展開部110、画像加算部119において処理された画像データ等の各種データが一時的に記憶される記憶部である。   The image data output from the A / D conversion unit 104 is temporarily stored in the SDRAM 106 via the bus 105. The SDRAM 106 is a storage in which various data such as image data obtained by the A / D conversion unit 104 and image data processed by the image processing unit 107, the image compression / decompression unit 110, and the image addition unit 119 are temporarily stored. Part.

画像処理部107は、オプティカルブラック減算部1071(以下、OB減算部1071)、ホワイトバランス補正部1072(以下、WB補正部1072)、同時化処理部1073、カラーマトリクス演算部1074、ガンマ・色再現処理部1075、エッジ強調処理部1076、および、ノイズ低減処理部1077(以下、NR処理部1077)を含み、SDRAM106から読み出した画像データに対して様々な画像処理を施す。   The image processing unit 107 includes an optical black subtraction unit 1071 (hereinafter referred to as OB subtraction unit 1071), a white balance correction unit 1072 (hereinafter referred to as WB correction unit 1072), a synchronization processing unit 1073, a color matrix calculation unit 1074, a gamma / color reproduction. The image processing apparatus includes a processing unit 1075, an edge enhancement processing unit 1076, and a noise reduction processing unit 1077 (hereinafter referred to as NR processing unit 1077), and performs various image processing on the image data read from the SDRAM 106.

OB減算部1071は、画像データに対して、オプティカルブラック減算処理(以下、OB減算処理)を行う。OB減算処理は、画像データを構成する各画素の画素値から、撮像素子102の暗電流等に起因するオプティカルブラック値(以下、OB値)を減算する処理である。   The OB subtraction unit 1071 performs optical black subtraction processing (hereinafter referred to as OB subtraction processing) on the image data. The OB subtraction process is a process of subtracting an optical black value (hereinafter referred to as an OB value) caused by a dark current of the image sensor 102 from a pixel value of each pixel constituting image data.

WB補正部1072は、画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。ホワイトバランスモードは、晴天、曇天、電球、蛍光灯などの光源に応じて、ユーザが設定可能である。   The WB correction unit 1072 performs a process of correcting the white balance by multiplying the image data by a white balance gain corresponding to the white balance mode. The white balance mode can be set by the user in accordance with a light source such as sunny weather, cloudy weather, a light bulb, and a fluorescent light.

同時化処理部1073は、ベイヤー配列による画像データから、1画素あたりR、G、Bの情報からなる画像データへ同時化する処理を行う。カラーマトリクス演算部1074は、画像データに対して、カラーマトリクス係数を乗じる線形変換を行って、画像データの色を補正する。ガンマ・色再現処理部1075は、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。   The synchronization processing unit 1073 performs a process of synchronizing image data based on the Bayer array into image data including R, G, and B information per pixel. The color matrix calculation unit 1074 corrects the color of the image data by performing linear conversion on the image data by multiplying the color matrix coefficient. The gamma / color reproduction processing unit 1075 performs gamma correction processing and color reproduction processing for changing the color of an image.

エッジ強調処理部1076は、バンドパスフィルタを用いて、画像データからエッジ成分を抽出し、抽出したエッジ成分のデータに、エッジ強調度に応じた係数を乗じてから、画像データに加算することにより、画像データのエッジを強調する処理を行う。   The edge enhancement processing unit 1076 uses a bandpass filter to extract edge components from the image data, multiply the extracted edge component data by a coefficient corresponding to the degree of edge enhancement, and then add it to the image data. Then, processing for enhancing the edge of the image data is performed.

NR処理部1077は、高周波を低減するフィルタを用いた処理や、コアリング処理等により、ノイズを低減する処理を行う。   The NR processing unit 1077 performs processing for reducing noise by processing using a filter that reduces high frequency, coring processing, and the like.

画像処理部107によって各処理が行われた後の画像データは、SDRAM106に記憶される。   The image data after each processing is performed by the image processing unit 107 is stored in the SDRAM 106.

AE処理部108は、画像データから被写体輝度を算出する。被写体輝度を算出するためのデータは、専用の測光センサの出力であってもよい。AF処理部109は、画像データから高周波成分の信号を取り出し、AF(Auto Focus)積算処理により、合焦評価値を取得する。   The AE processing unit 108 calculates subject luminance from the image data. The data for calculating the subject brightness may be an output of a dedicated photometric sensor. The AF processing unit 109 extracts a high-frequency component signal from the image data, and acquires a focus evaluation value by AF (Auto Focus) integration processing.

ノイズパターン生成部118は、画像データに加算するノイズパターンデータを生成する。具体的には、Flashメモリ117記憶されているノイズパターンデータに基づいて、加算する画像データと同じサイズのノイズパターンデータを生成する。このノイズパターンデータは、銀塩粒子による粒状感に似せた粒状パターンのデータである。生成されたノイズパターンデータは、SDRAM106に記憶される。   The noise pattern generation unit 118 generates noise pattern data to be added to the image data. Specifically, noise pattern data having the same size as the image data to be added is generated based on the noise pattern data stored in the flash memory 117. This noise pattern data is data of a granular pattern resembling the granular feeling due to silver salt particles. The generated noise pattern data is stored in the SDRAM 106.

画像加算部119は、SDRAM106に記憶されている画像データとノイズパターンデータとを加算する。ノイズパターンデータを加算した画像データは、SDRAM106に記憶される。   The image adder 119 adds the image data stored in the SDRAM 106 and the noise pattern data. The image data obtained by adding the noise pattern data is stored in the SDRAM 106.

画像圧縮展開部110は、静止画像データの記録時には、SDRAM106から画像データを読み出し、読み出した画像データをJPEG圧縮方式に従って圧縮して、圧縮したJPEG画像データを、SDRAM106に一旦記憶する。マイクロコンピュータ115は、SDRAM106に記憶されたJPEG画像データに対して、JPEGファイルを構成するために必要なJPEGヘッダを付加してJPEGファイルを作成し、作成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。   When still image data is recorded, the image compression / decompression unit 110 reads the image data from the SDRAM 106, compresses the read image data according to the JPEG compression method, and temporarily stores the compressed JPEG image data in the SDRAM 106. The microcomputer 115 creates a JPEG file by adding a JPEG header necessary for constructing a JPEG file to the JPEG image data stored in the SDRAM 106, and sends the created JPEG file via the memory I / F 111. To the recording medium 112.

画像圧縮展開部110は、また、動画データの記録時には、SDRAM106から動画データを読み出し、読み出した動画データを、例えば、H.264方式に従って圧縮して、圧縮した動画データをSDRAM106に一旦記憶する。画像圧縮展開部110は、さらに、マイクロコンピュータ115からの指令に基づいて、圧縮データを展開(伸長)する処理を行う。   The image compressing / decompressing unit 110 also reads out the moving image data from the SDRAM 106 when recording the moving image data. The compressed moving image data is temporarily stored in the SDRAM 106 after being compressed according to the H.264 system. The image compression / decompression unit 110 further performs a process of decompressing (decompressing) the compressed data based on a command from the microcomputer 115.

記録媒体112は、例えばカメラ本体1に着脱可能なメモリカードからなる記録媒体であるが、これに限定されるものではない。   The recording medium 112 is, for example, a recording medium including a memory card that can be attached to and detached from the camera body 1, but is not limited thereto.

LCDドライバ113は、表示画像処理部120を備え、LCD114に画像を表示させる。表示画像処理部120は、LCD114に表示させる画像が単色画像である場合に、画像の高周波成分を低減させる処理を行う。すなわち、表示画像が単色画像の場合には、高周波低減処理後の画像がLCD114に表示され、非単色画像の場合には、高周波低減処理を施さない画像がLCD114に表示される。LCD114は、後述するように、画像データを構成する各画素のデータのうちの一部のデータを表示する表示部である。   The LCD driver 113 includes a display image processing unit 120 and causes the LCD 114 to display an image. When the image displayed on the LCD 114 is a single color image, the display image processing unit 120 performs a process of reducing the high frequency component of the image. That is, when the display image is a single color image, the image after the high frequency reduction processing is displayed on the LCD 114, and when the display image is a non-monochromatic image, the image not subjected to the high frequency reduction processing is displayed on the LCD 114. As will be described later, the LCD 114 is a display unit that displays a part of the data of each pixel constituting the image data.

ここで、画像の表示には、撮影直後の画像データを短時間だけ表示するレックビュー表示、記録媒体112に記録されたJPEGファイルの再生表示、および、ライブビュー表示等の動画の表示が含まれる。記録媒体112に記録された圧縮データを再生する場合、画像圧縮展開部110は、記録媒体112に記録されている圧縮データを読み出して展開(伸長)処理を施した上で、展開したデータを一旦SDRAM106に記憶させる。LCDドライバ113は、伸張されたデータをSDRAM106から読み出し、読み出したデータを映像信号へ変換した後でLCD114へ出力して表示を行う。   Here, the display of the image includes a REC view display that displays image data immediately after shooting for a short time, a playback display of a JPEG file recorded on the recording medium 112, and a display of a moving image such as a live view display. . When reproducing the compressed data recorded on the recording medium 112, the image compression / decompression unit 110 reads out the compressed data recorded on the recording medium 112, performs decompression (decompression) processing, and then temporarily decompresses the decompressed data. It is stored in the SDRAM 106. The LCD driver 113 reads the decompressed data from the SDRAM 106, converts the read data into a video signal, and then outputs it to the LCD 114 for display.

制御部としての機能を有するマイクロコンピュータ115は、デジタルカメラ本体1の各種シーケンスを統括的に制御する。マイクロコンピュータ115には、操作部116およびFlashメモリ117が接続されている。   The microcomputer 115 having a function as a control unit comprehensively controls various sequences of the digital camera body 1. An operation unit 116 and a flash memory 117 are connected to the microcomputer 115.

操作部116は、電源ボタン、レリーズボタン、動画ボタン、再生ボタン、各種入力キー等の操作部材である。ユーザによって、操作部116の何れかの操作部材が操作されることにより、マイクロコンピュータ115は、ユーザの操作に応じた各種シーケンスを実行する。電源ボタンは、当該デジタルカメラの電源のオン/オフ指示を行うための操作部材である。電源ボタンが押されると、当該デジタルカメラの電源がオンとなる。再度、電源ボタンが押されると当該デジタルカメラの電源はオフとなる。レリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチの2段スイッチを有して構成されている。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、撮影シーケンスを実行して撮影を行う。   The operation unit 116 is an operation member such as a power button, a release button, a moving image button, a playback button, and various input keys. When one of the operation members of the operation unit 116 is operated by the user, the microcomputer 115 executes various sequences according to the user's operation. The power button is an operation member for instructing power on / off of the digital camera. When the power button is pressed, the power of the digital camera is turned on. When the power button is pressed again, the digital camera is turned off. The release button has a two-stage switch of a first release switch and a second release switch. When the release button is pressed halfway and the first release switch is turned on, the microcomputer 115 performs a shooting preparation sequence such as AE processing and AF processing. Further, when the release button is fully pressed and the second release switch is turned on, the microcomputer 115 performs shooting by executing a shooting sequence.

再生ボタンは、撮影により得られた静止画または動画をLCD114に表示させるためのボタンである。   The playback button is a button for causing the LCD 114 to display a still image or a moving image obtained by shooting.

動画ボタンは、動画の撮影を開始させ、また終了させるためのボタンである。初期状態では動画未撮影状態であるので、この状態で動画ボタンを押すと動画の撮影を開始し、動画撮影中に動画ボタンを押すと、動画の撮影を終了する。従って、動画ボタンを押すたびに、動画の撮影開始と終了を交互に繰り返す。   The movie button is a button for starting and ending movie shooting. Since the moving image is not yet shot in the initial state, when the moving image button is pressed in this state, moving image shooting starts. When the moving image button is pressed during moving image shooting, moving image shooting ends. Therefore, each time the moving image button is pressed, the start and end of moving image shooting are repeated alternately.

Flashメモリ117は、ホワイトバランスモードに応じたホワイトバランスゲインやカラーマトリクス係数、ローパスフィルタ係数等のデジタルカメラの動作に必要な各種パラメータ、銀塩粒子による粒状感に似せた粒状パターンのノイズデータ、および、デジタルスチルカメラを特定するための製造番号などを記憶している。また、Flashメモリ117は、マイクロコンピュータ115にて実行する各種プログラムも記憶している。マイクロコンピュータ115は、Flashメモリ117に記憶されているプログラムに従い、またFlashメモリ117から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。   The flash memory 117 includes various parameters necessary for operation of the digital camera such as a white balance gain, a color matrix coefficient, and a low-pass filter coefficient according to the white balance mode, noise data of a granular pattern resembling a granular feeling due to silver salt particles, and A serial number for specifying a digital still camera is stored. The flash memory 117 also stores various programs executed by the microcomputer 115. The microcomputer 115 reads parameters necessary for various sequences from the flash memory 117 according to a program stored in the flash memory 117, and executes each process.

図2は、第1の実施形態に係る画像表示装置を適用したデジタルスチルカメラで行われるメインの処理フローを示すフローチャートである。ユーザにより電源ボタンが押されて、デジタルスチルカメラの電源がオンになると、マイクロコンピュータ115は、ステップS201の処理を開始する。   FIG. 2 is a flowchart showing a main processing flow performed by the digital still camera to which the image display apparatus according to the first embodiment is applied. When the user presses the power button to turn on the digital still camera, the microcomputer 115 starts the process of step S201.

ステップS201では、記録中フラグをオフに初期化する。記録中フラグは、動画撮影中にオン、動画を撮影していない時にオフとなるフラグである。   In step S201, the recording flag is initialized to off. The recording flag is a flag that is turned on during moving image shooting and turned off when no moving image is shot.

ステップS202では、ユーザによって、再生ボタンが操作されたか否かを判定する。再生ボタンが操作されたと判定するとステップS203に進み、操作されていないと判定すると、ステップS204に進む。   In step S202, it is determined whether or not the playback button has been operated by the user. If it is determined that the play button has been operated, the process proceeds to step S203. If it is determined that the play button has not been operated, the process proceeds to step S204.

ステップS203では、撮影により得られた静止画または動画を再生する処理を行う。再生処理の詳細については、図5を用いて後述する。   In step S203, processing for reproducing a still image or a moving image obtained by shooting is performed. Details of the reproduction process will be described later with reference to FIG.

ステップS204では、ユーザによって、動画ボタンが操作されたか否かを判定する。動画ボタンが操作されたと判定するとステップS205に進み、操作されていないと判定すると、ステップS206に進む。   In step S204, it is determined whether or not the video button has been operated by the user. If it is determined that the movie button has been operated, the process proceeds to step S205. If it is determined that the movie button has not been operated, the process proceeds to step S206.

ステップS205では、記録中フラグを反転させて、ステップS206に進む。前述したように、動画ボタンは押されるたびに、動画撮影開始と終了を交互に繰り返すので、このステップでは、記録中フラグがオフであった場合にはオンに、またオンであった場合にはオフに、記録中フラグを反転させる。   In step S205, the recording flag is reversed, and the process proceeds to step S206. As described above, every time the video button is pressed, the video recording start and end are alternately repeated. Therefore, in this step, if the recording flag is off, it is on, and if it is on, Turn off and invert the recording flag.

ステップS206では、記録中フラグがオンであるか否かを判定する。記録中フラグがオンであると判定すると、ステップS211に進む。ステップS211では、動画記録中であると判定すると、撮像素子102からの画像信号に基づく動画の画像データについて画像処理および画像圧縮を行った後、記録媒体112に記録する。また、動画記録中ではないと判定すると、静止画撮影における被写体構図やシャッタタイミングの決定を行うためのライブビュー表示を行う。ステップS211のライブビュー表示・動画撮影・画像処理の詳細については、図4を用いて後述する。   In step S206, it is determined whether the recording flag is on. If it is determined that the recording flag is on, the process proceeds to step S211. If it is determined in step S211 that moving image recording is in progress, image processing and image compression are performed on the image data of the moving image based on the image signal from the image sensor 102 and then recorded on the recording medium 112. If it is determined that the moving image recording is not in progress, a live view display for determining a subject composition and shutter timing in still image shooting is performed. Details of live view display, moving image shooting, and image processing in step S211 will be described later with reference to FIG.

一方、ステップS206において、記録中フラグがオフであると判定すると、ステップS207に進む。ステップS207では、ユーザによってレリーズボタンが半押しされて、ファーストレリーズスイッチがオンされたか否かを判定する。ファーストレリーズスイッチがオンされたと判定すると、ステップS208に進む。   On the other hand, if it is determined in step S206 that the recording flag is off, the process proceeds to step S207. In step S207, it is determined whether or not the user has pressed the release button halfway to turn on the first release switch. If it is determined that the first release switch is turned on, the process proceeds to step S208.

ステップS208では、AF処理を行う。具体的には、まず、AF処理部109において、合焦評価値を算出する。マイクロコンピュータ115は、合焦評価値に基づいて、レンズ1010を駆動させる指令をドライバ1013に出す。ドライバ1013は、この指令に基づいて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行う。   In step S208, AF processing is performed. Specifically, first, the AF processing unit 109 calculates a focus evaluation value. The microcomputer 115 issues a command for driving the lens 1010 to the driver 1013 based on the focus evaluation value. Based on this command, the driver 1013 drives the lens 1010 to change the focal length and the focus position.

ステップS207において、ファーストレリーズスイッチがオンされなかった場合、または、ファーストレリーズスイッチがオンされたままの状態の場合には、ステップS209に進む。ステップS209では、ユーザによってレリーズボタンが全押しされて、セカンドレリーズスイッチがオンされたか否かを判定する。セカンドレリーズスイッチがオンされたと判定するとステップS210に進み、セカンドレリーズスイッチがオンされないと判定すると、ステップS211に進む。   If the first release switch is not turned on in step S207, or if the first release switch remains on, the process proceeds to step S209. In step S209, it is determined whether or not the release button is fully pressed by the user and the second release switch is turned on. If it is determined that the second release switch is turned on, the process proceeds to step S210. If it is determined that the second release switch is not turned on, the process proceeds to step S211.

ステップS210では、静止画撮影・画像処理を行う。静止画撮影・画像処理の詳細については、図3を用いて後述する。   In step S210, still image shooting and image processing are performed. Details of the still image shooting / image processing will be described later with reference to FIG.

ステップS212では、デジタルスチルカメラの電源がオフされたか否かを判定する。電源がオフされていないと判定すると、ステップS202に戻り、上述した処理を行う。一方、ユーザにより電源ボタンが押されて、電源がオフされると、フローチャートの処理を終了する。   In step S212, it is determined whether the power of the digital still camera is turned off. If it is determined that the power is not turned off, the process returns to step S202, and the above-described processing is performed. On the other hand, when the power button is pressed by the user and the power is turned off, the process of the flowchart is ended.

このように、本実施形態におけるメインフローでは、初期設定では静止画撮影モードになっており、この状態では、ステップS202→S204→S206→S207→S209→S211→S212→S202を順次実行し、この間ライブビュー表示を行う。ライブビュー表示中に、レリーズボタンが半押しされると、ステップS208においてAF動作を行い、またレリーズボタンが全押しされると、ステップS210において静止画の撮影を行う。また、動画ボタンを押すと、ステップS205において記録中フラグをオンとし、ステップS206→S211→S212→S202→S204→S206を繰り返し実行することにより、動画撮影を継続する。この状態で再度、動画ボタンを押すと、ステップS205において記録中フラグがオフとなることから、前述の静止画のフローに戻る。   As described above, in the main flow in the present embodiment, the still image shooting mode is set in the initial setting. In this state, steps S202 → S204 → S206 → S207 → S209 → S211 → S212 → S202 are sequentially executed. Perform live view display. If the release button is pressed halfway during live view display, an AF operation is performed in step S208, and if the release button is fully pressed, a still image is shot in step S210. When the moving image button is pressed, the recording flag is turned on in step S205, and moving image shooting is continued by repeatedly executing steps S206 → S211 → S212 → S202 → S204 → S206. When the moving image button is pressed again in this state, the recording flag is turned off in step S205, and the flow returns to the still image flow described above.

図3は、図2に示すフローチャートのステップS210の処理、すなわち、静止画撮影・画像処理の詳細を示すフローチャートである。   FIG. 3 is a flowchart showing details of the process in step S210 of the flowchart shown in FIG. 2, that is, details of still image shooting / image processing.

ステップS310では、AE処理を行う。具体的には、AE処理部108において、被写体輝度を算出し、算出した被写体輝度に基づいて、Flashメモリ117に記憶されている露出条件決定テーブルを参照することにより、撮影時のISO感度、絞り、およびシャッター速を決定する。   In step S310, AE processing is performed. Specifically, the AE processing unit 108 calculates subject brightness, and refers to the exposure condition determination table stored in the flash memory 117 based on the calculated subject brightness, so that the ISO sensitivity at the time of shooting, the aperture , And determine the shutter speed.

ステップS320では、撮影を行う。撮影(静止画撮影)に関しては、従来から用いられている手法と同様である。ドライバ1013は、マイクロコンピュータ1012の指示に基づいて、設定された絞り値になるように絞り1014を駆動させる。そして、決定したシャッター速に基づいて、メカシャッター101を制御して撮影を行い、決定したISO感度に応じた画像データを得る。   In step S320, shooting is performed. The shooting (still image shooting) is the same as a conventionally used method. The driver 1013 drives the aperture 1014 so as to achieve a set aperture value based on an instruction from the microcomputer 1012. Then, based on the determined shutter speed, shooting is performed by controlling the mechanical shutter 101 to obtain image data corresponding to the determined ISO sensitivity.

ステップS330では、ステップS320の撮影で得られた画像データ(ベイヤーデータ)に対して様々な画像処理を施して、輝度(Y)および色差(Cb、Cr)信号データに変換する現像処理を行う。現像処理の詳細については、図6を用いて後述する。   In step S330, various image processes are performed on the image data (Bayer data) obtained in step S320 to perform development processing for conversion into luminance (Y) and color difference (Cb, Cr) signal data. Details of the development processing will be described later with reference to FIG.

ステップS340では、LCDドライバ113により、撮影により得られた画像データを短時間だけLCD114に表示させる。この表示は、いわゆるレックビュー表示である。この表示処理の詳細については、図7を用いて後述する。   In step S340, the LCD driver 113 causes the LCD 114 to display image data obtained by shooting for a short time. This display is a so-called REC view display. Details of this display processing will be described later with reference to FIG.

ステップS350では、画像圧縮展開部110において、画像データに対して、JPEG圧縮を行い、画像サイズや撮影条件などのヘッダ情報を付加して、JPEGファイルを生成する。   In step S350, the image compression / decompression unit 110 performs JPEG compression on the image data, adds header information such as the image size and shooting conditions, and generates a JPEG file.

ステップS360では、ステップS350で生成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。   In step S360, the JPEG file generated in step S350 is recorded on the recording medium 112 via the memory I / F 111.

図4は、図2に示すフローチャートのステップS211の処理、すなわち、ライブビュー表示・動画撮影・画像処理の詳細を示すフローチャートである。   FIG. 4 is a flowchart showing details of the process in step S211 of the flowchart shown in FIG. 2, that is, live view display / moving image capturing / image processing.

ステップS410では、AE処理を行う。この処理は、図3に示すフローチャートのステップS310の処理と同じである。   In step S410, an AE process is performed. This process is the same as the process of step S310 in the flowchart shown in FIG.

ステップS420では、撮影を行う。撮影(動画撮影)に関しては、従来から用いられている手法と同様である。すなわち、決定した絞り、シャッター速、ISO感度に基づいて、いわゆる電子シャッターを制御して撮影を行う。   In step S420, shooting is performed. The shooting (moving image shooting) is the same as a conventionally used method. That is, shooting is performed by controlling a so-called electronic shutter based on the determined aperture, shutter speed, and ISO sensitivity.

ステップS430では、ステップS420の撮影で得られた画像データ(ベイヤーデータ)に対して様々な画像処理を施して、輝度(Y)および色差(Cb、Cr)信号データに変換する現像処理を行う。現像処理の詳細については、図6を用いて後述する。   In step S430, various image processing is performed on the image data (Bayer data) obtained in step S420 to perform development processing for conversion into luminance (Y) and color difference (Cb, Cr) signal data. Details of the development processing will be described later with reference to FIG.

ステップS440では、LCDドライバ113により、画像データをLCD114に表示させる。この表示は、いわゆるライブビュー表示である。この表示処理の詳細については、図7を用いて後述する。   In step S440, the LCD driver 113 displays image data on the LCD 114. This display is a so-called live view display. Details of this display processing will be described later with reference to FIG.

ステップS450では、動画が記録中であるか否かを判定する。記録中フラグがオフの場合には、動画記録中ではないと判定して、本フローチャートの処理を終了し、記録中フラグがオンの場合には、動画記録中であると判定して、ステップS460に進む。   In step S450, it is determined whether a moving image is being recorded. If the recording flag is off, it is determined that the moving image is not being recorded, and the processing of this flowchart is terminated. If the recording flag is on, it is determined that the moving image is being recorded, and step S460 is performed. Proceed to

ステップS460では、動画ファイルを生成して、記録媒体112に記録する。すなわち、画像圧縮展開部110において、画像データに対して、動画ファイルの形式に応じた圧縮を行い、所定のヘッダ情報を付加して、動画ファイルを生成する。動画ファイルの圧縮形式には、「H.264」、「Motion JPEG」、「MPEG」などがある。そして、生成した動画ファイルを、メモリI/F111を介して記録媒体112に記録する。   In step S460, a moving image file is generated and recorded on the recording medium 112. That is, the image compression / decompression unit 110 compresses the image data according to the format of the moving image file, adds predetermined header information, and generates a moving image file. The compression format of the moving image file includes “H.264”, “Motion JPEG”, “MPEG”, and the like. Then, the generated moving image file is recorded on the recording medium 112 via the memory I / F 111.

図5は、図2に示すフローチャートのステップS203の処理、すなわち、再生処理の詳細を示すフローチャートである。   FIG. 5 is a flowchart showing details of the process in step S203 of the flowchart shown in FIG. 2, that is, the reproduction process.

ステップS500では、ユーザによる操作部116の操作に基づいて、LCD114に表示する画像ファイルを決定する。ユーザによって、再生ボタンが押されると、記録媒体112に記録されている動画ファイルおよび静止画ファイルをLCD114に一覧表示(サムネイル表示)させる。動画ファイルについては、最初のフレームの画像をサムネイル表示させる。ユーザは、操作部116に含まれる十字キーなどを操作することによって、LCD114に表示させたいファイルを選択する。この選択されたファイルを、LCD114に表示する画像ファイルとして決定する。   In step S500, an image file to be displayed on the LCD 114 is determined based on the operation of the operation unit 116 by the user. When the user presses the play button, the moving image file and still image file recorded on the recording medium 112 are displayed as a list (thumbnail display) on the LCD 114. For video files, the first frame image is displayed as a thumbnail. The user selects a file to be displayed on the LCD 114 by operating a cross key included in the operation unit 116. The selected file is determined as an image file to be displayed on the LCD 114.

ステップS510では、ステップS500で決定した画像ファイルが動画ファイルであるか否かを判定する。動画ファイルではなく静止画ファイルであると判定すると、ステップS580に進む。   In step S510, it is determined whether the image file determined in step S500 is a moving image file. If it is determined that the file is not a moving image file but a still image file, the process proceeds to step S580.

ステップS580では、画像圧縮展開部110において、記録媒体112に記録されているファイルの中から、ステップS500で決定した静止画ファイルを選択して展開することにより、LCD114に表示させる画像データを取得する。   In step S580, the image compression / expansion unit 110 acquires the image data to be displayed on the LCD 114 by selecting and expanding the still image file determined in step S500 from the files recorded on the recording medium 112. .

ステップS590では、LCDドライバ113により、ステップS580で取得した画像データをLCD114に表示させる。この表示処理の詳細については、図7を用いて後述する。   In step S590, the LCD driver 113 causes the LCD 114 to display the image data acquired in step S580. Details of this display processing will be described later with reference to FIG.

一方、ステップS510において、ステップS500で決定した画像ファイルが動画ファイルであると判定するとステップS520に進む。ステップS520では、動画ファイルのヘッダ情報に含まれるフレーム数の情報を取得する。   On the other hand, if it is determined in step S510 that the image file determined in step S500 is a moving image file, the process proceeds to step S520. In step S520, information on the number of frames included in the header information of the moving image file is acquired.

ステップS530では、フレーム数をカウントするパラメータNを初期値の1に設定する。   In step S530, a parameter N for counting the number of frames is set to an initial value of 1.

ステップS540では、画像圧縮展開部110において、記録媒体112に記録されているファイルの中から、ステップS500で決定した動画ファイルを選択し、Nフレーム目の画像データを展開する処理を行う。   In step S540, the image compression / decompression unit 110 selects the moving image file determined in step S500 from the files recorded on the recording medium 112, and performs a process of expanding the Nth frame image data.

ステップS550では、LCDドライバ113により、ステップS540で取得したNフレーム目の画像データをLCD114に表示させる。この表示処理の詳細については、図7を用いて後述する。   In step S550, the LCD driver 113 causes the LCD 114 to display the image data of the Nth frame acquired in step S540. Details of this display processing will be described later with reference to FIG.

ステップS560では、パラメータNに1を加算して、ステップS570に進む。   In step S560, 1 is added to parameter N, and the process proceeds to step S570.

ステップS570では、パラメータNが動画ファイルのフレーム数より大きいか否かを判定する。パラメータNが動画ファイルのフレーム数以下であると判定すると、ステップS540に戻って、次のフレームの画像データを展開し(ステップS540)、LCD114に表示させる(ステップS550)処理を行う。一方、パラメータNが動画ファイルのフレーム数より大きいと判定すると、再生処理を終了する。   In step S570, it is determined whether the parameter N is larger than the number of frames of the moving image file. If it is determined that the parameter N is equal to or less than the number of frames of the moving image file, the process returns to step S540 to develop the image data of the next frame (step S540) and display it on the LCD 114 (step S550). On the other hand, when it is determined that the parameter N is larger than the number of frames of the moving image file, the reproduction process is terminated.

図6は、図3に示すフローチャートのステップS330の処理、および、図4に示すフローチャートのステップS430の処理、すなわち、現像処理の詳細を示すフローチャートである。   FIG. 6 is a flowchart showing details of the process in step S330 in the flowchart shown in FIG. 3 and the process in step S430 in the flowchart shown in FIG. 4, that is, the development process.

ステップS610では、OB減算部1071により、撮影により得られた画像データから、撮像時に得られたOB値を減算するOB減算処理を施す。   In step S610, the OB subtraction unit 1071 performs OB subtraction processing for subtracting the OB value obtained at the time of imaging from the image data obtained by imaging.

ステップS620では、WB補正部1072により、OB減算処理が施された画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。なお、ホワイトバランスモードは、ユーザが操作部116に含まれる入力キーを操作することによって、1回の撮影ごとに設定することができる。マイクロコンピュータ115は、ユーザによる操作部116の操作に基づいて、ホワイトバランスモードを設定する。また、デジタルスチルカメラがホワイトバランスを自動的に調整するオートホワイトバランス機能を備えている場合、マイクロコンピュータ115は、撮影時の光源に応じたホワイトバランスモードを自動的に設定する。   In step S620, the WB correction unit 1072 performs a process of correcting the white balance by multiplying the image data subjected to the OB subtraction process by a white balance gain corresponding to the white balance mode. Note that the white balance mode can be set for each shooting by the user operating an input key included in the operation unit 116. The microcomputer 115 sets the white balance mode based on the operation of the operation unit 116 by the user. When the digital still camera has an auto white balance function that automatically adjusts the white balance, the microcomputer 115 automatically sets a white balance mode in accordance with the light source at the time of shooting.

ステップS630では、同時化処理部1073により、ホワイトバランス補正処理が施された画像データに対して、同時化処理を施す。   In step S630, the synchronization processing unit 1073 performs synchronization processing on the image data on which the white balance correction processing has been performed.

ステップS640では、カラーマトリクス演算部1075により、同時化処理が施された画像データに対して、ホワイトバランスモードに応じたカラーマトリクス係数を乗じるカラーマトリクス演算を行う。   In step S640, the color matrix calculation unit 1075 performs color matrix calculation on the image data on which the synchronization processing has been performed, by multiplying the color matrix coefficient corresponding to the white balance mode.

ステップS650では、ガンマ・色再現処理部1074により、カラーマトリクス演算が行われた画像データに対して、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。   In step S650, the gamma / color reproduction processing unit 1074 performs gamma correction processing and color reproduction processing for changing the color of the image on the image data on which the color matrix calculation has been performed.

ステップS660では、エッジ強調処理部1076により、ガンマ補正処理および色再現処理が行われた画像データに対して、エッジ強調処理を行う。   In step S660, the edge enhancement processing unit 1076 performs edge enhancement processing on the image data that has been subjected to gamma correction processing and color reproduction processing.

ステップS670では、NR処理部1077により、エッジ強調処理が行われた画像データに対して、ノイズを低減する処理を行う。ノイズ低減処理は、コアリングパラメータに基づいたコアリング処理、または、ノイズ低減パラメータ(以下、NRパラメータ)に基づいて、高周波を低減するフィルタを用いた処理を行う。   In step S670, the NR processing unit 1077 performs noise reduction processing on the image data on which the edge enhancement processing has been performed. In the noise reduction process, a coring process based on the coring parameter or a process using a filter that reduces high frequency is performed based on the noise reduction parameter (hereinafter referred to as NR parameter).

ステップS680では、撮影モードがモノクロフィルムモードであるか否かを判定する。モノクロフィルムモードとは、モノクロフィルムで撮影されたモノクロ写真のような画像を生成する撮影モードである。撮影モードがモノクロフィルムモードであると判定すると、ステップS690に進む。   In step S680, it is determined whether or not the shooting mode is a monochrome film mode. The monochrome film mode is a shooting mode for generating an image like a monochrome photograph taken with a monochrome film. If it is determined that the shooting mode is the monochrome film mode, the process proceeds to step S690.

ステップS690では、ノイズパターン生成部118により、画像データに加算するノイズパターンデータを生成する。具体的には、Flashメモリ117記憶されているノイズパターンデータに基づいて、加算する画像データと同じサイズのノイズパターンデータを生成する。   In step S690, the noise pattern generation unit 118 generates noise pattern data to be added to the image data. Specifically, noise pattern data having the same size as the image data to be added is generated based on the noise pattern data stored in the flash memory 117.

ステップS700では、画像加算部119により、ステップS610からステップS670までの処理が施された画像データと、ステップS690で生成されたノイズパターンデータとを加算する。   In step S700, the image adding unit 119 adds the image data subjected to the processing from step S610 to step S670 and the noise pattern data generated in step S690.

ステップS710では、ガンマ・色再現処理部1074により、ノイズパターンが加算された画像データに対して、色差成分を0に設定するとともに、ハイコントラストなガンマ処理を施す。   In step S710, the gamma / color reproduction processing unit 1074 sets the color difference component to 0 and performs high contrast gamma processing on the image data to which the noise pattern is added.

一方、ステップS680で撮影モードがモノクロフィルムモードではないと判定すると、ステップS720に進む。ステップS720では、撮影モードがセピアモードであるか否かを判定する。セピアモードとは、セピア調の画像を生成する撮影モードである。撮影モードがセピアモードではないと判定すると、現像処理を終了し、セピアモードであると判定すると、ステップS730に進む。   On the other hand, if it is determined in step S680 that the shooting mode is not the monochrome film mode, the process proceeds to step S720. In step S720, it is determined whether the shooting mode is a sepia mode. The sepia mode is a shooting mode that generates a sepia tone image. If it is determined that the shooting mode is not the sepia mode, the development process is terminated. If it is determined that the shooting mode is the sepia mode, the process proceeds to step S730.

ステップS730では、ガンマ・色再現処理部1074により、セピア調の画像を生成するために、色差信号Cb、Crを所定値(例えば、Cb=−10、Cr=12)に固定する処理を行う。   In step S730, the gamma / color reproduction processing unit 1074 performs processing for fixing the color difference signals Cb and Cr to predetermined values (for example, Cb = −10, Cr = 12) in order to generate a sepia tone image.

図7は、図3に示すフローチャートのステップS340の処理、図4に示すフローチャートのステップS440の処理、および、図5に示すフローチャートのステップS550、ステップS590の処理、すなわち、LCD表示処理の詳細を示すフローチャートである。   7 shows the details of the process of step S340 in the flowchart shown in FIG. 3, the process of step S440 in the flowchart shown in FIG. 4, and the processes in steps S550 and S590 of the flowchart shown in FIG. It is a flowchart to show.

ステップS810では、LCD114の表示サイズに合わせて、表示する画像データの大きさをリサイズする。この処理は、画像処理部107で行ってもよいし、マイクロコンピュータ115で行ってもよい。   In step S810, the size of the image data to be displayed is resized in accordance with the display size of the LCD 114. This processing may be performed by the image processing unit 107 or the microcomputer 115.

ステップS820では、表示対象の画像が単色画像であるか否かを判定する。単色画像とは、色相が所定の範囲内に制限された画像であって、例えば、モノクロ画像やセピア調の画像である。この判定は、画像データに付随しているヘッダ情報に基づいて行う。本実施形態では、表示対象の画像がモノクロ画像またはセピア調の画像である場合に、単色画像であると判定する。表示対象の画像が単色画像ではないと判定するとステップS840に進み、単色画像であると判定すると、ステップS830に進む。   In step S820, it is determined whether the display target image is a single color image. A monochromatic image is an image whose hue is limited within a predetermined range, and is, for example, a monochrome image or a sepia tone image. This determination is made based on header information attached to the image data. In this embodiment, when the display target image is a monochrome image or a sepia image, it is determined that the image is a single color image. If it is determined that the image to be displayed is not a monochrome image, the process proceeds to step S840. If it is determined that the image to be displayed is a monochrome image, the process proceeds to step S830.

ステップS830では、表示画像処理部120によって、表示対象の単色画像に対して、水平方向のローパスフィルタ処理を施す。ローパスフィルタ係数は、例えば5タップの場合、水平方向に、9/128、32/128、46/128、32/128、9/128とする。ただし、タップ数およびローパスフィルタ係数は、上記数値に限定されることはない。水平方向にローパスフィルタ処理を施すことにより、隣接する画素間の輝度差を小さくし、LCD114に単色画像を表示した際の偽色の発生を抑制することができる。   In step S830, the display image processing unit 120 performs horizontal low-pass filter processing on the monochrome image to be displayed. For example, in the case of 5 taps, the low-pass filter coefficient is 9/128, 32/128, 46/128, 32/128, 9/128 in the horizontal direction. However, the number of taps and the low-pass filter coefficient are not limited to the above numerical values. By performing the low-pass filter process in the horizontal direction, it is possible to reduce the luminance difference between adjacent pixels and to suppress the generation of false colors when displaying a monochrome image on the LCD 114.

ステップS840では、LCDドライバ113により、処理後の画像データをLCD114に表示する。処理後の画像データとは、単色画像の場合、ステップS830で水平ローパスフィルタ処理が施された画像データであり、単色画像以外の画像では、ステップS810でリサイズ処理が施された画像データである。   In step S840, the processed image data is displayed on the LCD 114 by the LCD driver 113. The processed image data is image data that has been subjected to the horizontal low-pass filter processing in step S830 in the case of a monochrome image, and is image data that has been resized in step S810 for images other than the monochrome image.

図8は、画像データをLCD114に表示する方法を説明するための図である。ここでは、LCD114の画素配列をデルタ配列として説明するが、デルタ配列に限定されることはない。   FIG. 8 is a diagram for explaining a method of displaying image data on the LCD 114. Here, the pixel arrangement of the LCD 114 will be described as a delta arrangement, but is not limited to a delta arrangement.

表示画像データの1画素には、R、G、Bのデータが含まれる。一方、LCD114の1画素には、R、G、Bのうちのいずれか一つのデータしか含まれない。従って、表示画像データをLCD114に表示する場合には、表示画像データの各画素のデータの中から、LCD114の各画素のカラーフィルタの色と同じデータを表示する。例えば、図8のLCD114の画素81はRフィルタに対応しているため、表示画像データの画素85のRGBデータのうち、Rデータを表示する。また、LCDの画素82はGフィルタに対応しているため、表示画像データの画素86のRGBデータのうち、Gデータを表示する。   One pixel of the display image data includes R, G, and B data. On the other hand, one pixel of the LCD 114 includes only one of R, G, and B data. Therefore, when displaying the display image data on the LCD 114, the same data as the color filter color of each pixel of the LCD 114 is displayed from the data of each pixel of the display image data. For example, since the pixel 81 of the LCD 114 in FIG. 8 corresponds to the R filter, R data is displayed among the RGB data of the pixel 85 of the display image data. Further, since the pixel 82 of the LCD corresponds to the G filter, the G data is displayed among the RGB data of the pixel 86 of the display image data.

ここで、表示画像が自然画の場合には、複数の色が使用されており、かつ、画素間の相関が高いので、図8を用いて説明したような表示方法でも、十分な解像感を維持しつつ、偽色が目立たない表示が可能である。しかし、銀塩粒子による粒状感に似せた粒状パターンのようなノイズパターンを加算したモノクロ画像を表示する場合には、隣接する画素の輝度値の相関は低く、輝度値の差が大きいため、偽色が生じてしまう可能性がある。   Here, when the display image is a natural image, since a plurality of colors are used and the correlation between the pixels is high, the display method described with reference to FIG. While maintaining the above, it is possible to display the false color inconspicuously. However, when displaying a monochrome image with a noise pattern such as a granular pattern resembling the graininess of silver salt particles, the correlation between the luminance values of adjacent pixels is low and the difference in luminance values is large. Colors can occur.

しかしながら、第1の実施形態における画像表示装置では、ノイズパターンを加算した単色画像に対して、水平ローパスフィルタ処理を施すので、隣接する画素の輝度値の相関を高くすることによって、偽色の発生を抑制することができる。   However, in the image display device according to the first embodiment, since the horizontal low-pass filter process is performed on the monochromatic image to which the noise pattern is added, generation of false colors can be achieved by increasing the correlation between the luminance values of adjacent pixels. Can be suppressed.

以上、第1の実施形態における画像表示装置によれば、表示対象の画像データが単色画像データであるか否かを判定し、単色画像データであると判定すると、単色画像データに対して高周波低減処理を施してから、LCD114に表示する。これにより、単色画像の隣接する画素の輝度値の差が小さくなるので、LCD114に表示した際に、偽色の発生を抑制することができる。   As described above, according to the image display device in the first embodiment, it is determined whether or not the image data to be displayed is single-color image data. After processing, it is displayed on the LCD 114. As a result, the difference in luminance value between adjacent pixels of the monochromatic image is reduced, so that the occurrence of false colors can be suppressed when displayed on the LCD 114.

また、表示対象の画像データが非単色画像データである場合には、単色画像データに対して行う高周波低減処理を行わないので、非単色画像の表示画質を低下させることはない。   In addition, when the image data to be displayed is non-monochromatic image data, the high-frequency reduction process performed on the monochromatic image data is not performed, so that the display image quality of the non-monochromatic image is not degraded.

<第2の実施形態>
第1の実施形態における画像表示装置では、LCD114に表示する画像が単色画像である場合に、水平方向のローパスフィルタ処理を施した。第2の実施形態における画像表示装置では、LCD114に表示する画像が単色画像以外の画像である場合にも、水平方向のローパスフィルタ処理を施す。
<Second Embodiment>
In the image display device according to the first embodiment, when the image displayed on the LCD 114 is a single-color image, horizontal low-pass filter processing is performed. In the image display device according to the second embodiment, the low-pass filter processing in the horizontal direction is performed even when the image displayed on the LCD 114 is an image other than a monochrome image.

図9は、第2の実施形態における画像表示装置によって行われるLCD表示処理の詳細を示すフローチャートである。図7に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付して詳しい説明は省略する。   FIG. 9 is a flowchart showing details of the LCD display process performed by the image display apparatus according to the second embodiment. Steps for performing the same processing as the processing in the flowchart shown in FIG. 7 are assigned the same reference numerals, and detailed descriptions thereof are omitted.

ステップS820で表示対象の画像が単色画像であると判定するとステップS910に進む。ステップS910では、水平ローパスフィルタ処理を施す際に用いるフィルタ係数Aを設定する。フィルタ係数Aは、単色画像データに水平ローパスフィルタ処理を施すためのフィルタ係数であり、例えば5タップの場合、下記(1)のように表される。このフィルタ係数は、予めFlashメモリ117に格納しておく。
フィルタ係数A:9/128、32/128、46/128、32/128、9/128 (1)
If it is determined in step S820 that the display target image is a single color image, the process proceeds to step S910. In step S910, the filter coefficient A used when performing horizontal low-pass filter processing is set. The filter coefficient A is a filter coefficient for performing horizontal low-pass filter processing on single-color image data. For example, in the case of 5 taps, the filter coefficient A is expressed as (1) below. This filter coefficient is stored in the flash memory 117 in advance.
Filter coefficient A: 9/128, 32/128, 46/128, 32/128, 9/128 (1)

ステップS820で表示対象の画像が単色画像ではないと判定するとステップS920に進む。ステップS920では、水平ローパスフィルタ処理を施す際に用いるフィルタ係数Bを設定する。フィルタ係数Bは、非単色画像データに水平ローパスフィルタ処理を施すためのフィルタ係数であり、例えば5タップの場合、下記(2)で表される。このフィルタ係数は、予めFlashメモリ117に格納しておく。
フィルタ係数B:−9/128、14/128、118/128、14/128、−9/128 (2)
If it is determined in step S820 that the image to be displayed is not a single color image, the process proceeds to step S920. In step S920, a filter coefficient B used when performing horizontal low-pass filter processing is set. The filter coefficient B is a filter coefficient for performing the horizontal low-pass filter processing on the non-monochromatic image data. For example, in the case of 5 taps, the filter coefficient B is expressed by the following (2). This filter coefficient is stored in the flash memory 117 in advance.
Filter coefficient B: -9/128, 14/128, 118/128, 14/128, -9/128 (2)

ステップS930では、表示画像処理部120によって、表示対象の画像に対して、水平ローパスフィルタ処理を施す。この時、ステップS910の処理を行った場合には、フィルタ係数Aを用い、ステップS920の処理を行った場合には、フィルタ係数Bを用いる。フィルタ係数Aとフィルタ係数Bとを比べて分かるように、非単色画像データ対しては、単色画像データに施すローパスフィルタ処理よりも弱いローパスフィルタ処理を施す。すなわち、非単色画像データに対してもローパスフィルタ処理を行うが、隣接する画素間の輝度値の差は、単色画像データに対してローパスフィルタ処理を行った場合ほど小さくならない。   In step S930, the display image processing unit 120 performs horizontal low-pass filter processing on the display target image. At this time, the filter coefficient A is used when the process of step S910 is performed, and the filter coefficient B is used when the process of step S920 is performed. As can be seen by comparing the filter coefficient A and the filter coefficient B, the non-monochromatic image data is subjected to a low-pass filter process that is weaker than the low-pass filter process applied to the monochromatic image data. That is, low-pass filter processing is also performed on non-monochromatic image data, but the difference in luminance value between adjacent pixels is not as small as when low-pass filter processing is performed on single-color image data.

以上、第2の実施形態における画像表示装置によれば、単色画像データに対しては第1の高周波低減処理を行わせ、非単色画像データに対しては第1の高周波低減処理とは異なる第2の高周波低減処理を行わせる。これにより、単色画像データだけでなく、非単色画像データについても偽色の発生を抑制することができる。   As described above, according to the image display device in the second embodiment, the first high-frequency reduction process is performed on single-color image data, and the first high-frequency reduction process is different on non-monochromatic image data. 2 is performed. Thereby, it is possible to suppress the occurrence of false colors not only for single-color image data but also for non-monochromatic image data.

ここで、第1の高周波低減処理は、第2の高周波低減処理よりも高周波成分の低減効果が大きいので、単色画像データについては偽色の発生を効果的に抑制することができ、また、非単色画像データについては、表示画質の低下を抑制しつつ偽色の発生を抑制することができる。   Here, since the first high-frequency reduction process has a higher high-frequency component reduction effect than the second high-frequency reduction process, it is possible to effectively suppress the occurrence of false colors for monochromatic image data. For monochrome image data, it is possible to suppress the occurrence of false colors while suppressing a decrease in display image quality.

<第3の実施形態>
第3の実施形態における画像表示装置では、LCD114に表示する画像が単色画像である場合に、水平方向3画素のR、G、Bのそれぞれの平均値を求める水平平均化処理を行う。
<Third Embodiment>
In the image display device according to the third embodiment, when the image displayed on the LCD 114 is a single-color image, horizontal averaging processing is performed to determine the average values of R, G, and B of the three pixels in the horizontal direction.

図10は、第3の実施形態における画像表示装置によって行われるLCD表示処理の詳細を示すフローチャートである。図7に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付して詳しい説明は省略する。   FIG. 10 is a flowchart showing details of the LCD display process performed by the image display apparatus according to the third embodiment. Steps for performing the same processing as the processing in the flowchart shown in FIG. 7 are assigned the same reference numerals, and detailed descriptions thereof are omitted.

ステップS820で表示対象の画像が単色画像であると判定すると、ステップS1010に進む。ステップS1010では、単色画像データに対して、水平方向3画素のR、G、Bのそれぞれの平均値を求める水平平均化処理を行う。   If it is determined in step S820 that the display target image is a single color image, the process advances to step S1010. In step S1010, horizontal averaging processing is performed on monochromatic image data to determine the average values of R, G, and B for the three pixels in the horizontal direction.

図11は、単色画像データに対して、水平方向3画素の平均化処理を行ってから、LCD114に表示させる処理を説明するための図である。図11では、水平平均化処理前の単色画像データ1170として、水平方向の6画素1110〜1160のみを示している。   FIG. 11 is a diagram for explaining a process of displaying on the LCD 114 after performing the averaging process of three pixels in the horizontal direction on the monochromatic image data. In FIG. 11, only the six pixels 1110 to 1160 in the horizontal direction are shown as the monochrome image data 1170 before the horizontal averaging process.

単色画像データ1170に対して、隣接する水平方向3画素の平均化処理を施すことにより、水平平均化処理後の画像データ1180を得る。例えば、隣接する水平方向3画素1110、1120、1130のRGBデータをそれぞれ、(R1、G1、B1)、(R2、G2、B2)、(R3、G3、B3)とし、R、G、Bデータの平均値Ra、Ga、Baを次式(3)、(4)、(5)よりそれぞれ求める。
Ra=(R1+R2+R3)/3 (3)
Ga=(G1+G2+G3)/3 (4)
Ba=(B1+B2+B3)/3 (5)
The single-color image data 1170 is subjected to the averaging process for three adjacent pixels in the horizontal direction to obtain image data 1180 after the horizontal averaging process. For example, the R, G, and B data of RGB data of adjacent three horizontal pixels 1110, 1120, and 1130 are (R1, G1, B1), (R2, G2, B2), and (R3, G3, B3), respectively. Average values Ra, Ga, and Ba are obtained from the following equations (3), (4), and (5), respectively.
Ra = (R1 + R2 + R3) / 3 (3)
Ga = (G1 + G2 + G3) / 3 (4)
Ba = (B1 + B2 + B3) / 3 (5)

従って、水平平均化処理後の画素1110、1120、1130のRGBデータはそれぞれ、(Ra、Ga、Ba)となる。同様に、隣接する水平方向3画素1140、1150、1160に対して平均化処理を施すことにより、水平平均化処理後のRGBデータ(Rb、Rg、Rb)を得る。水平平均化処理後の画像データ1180を、図8を用いた方法によってLCD114に表示させると、LCD114の各画素のデータ1190は、図11に示すようになる。   Therefore, the RGB data of the pixels 1110, 1120, and 1130 after the horizontal averaging process are (Ra, Ga, Ba), respectively. Similarly, the RGB data (Rb, Rg, Rb) after the horizontal averaging process is obtained by performing the averaging process on the adjacent three pixels 1140, 1150, 1160 in the horizontal direction. When the image data 1180 after the horizontal averaging process is displayed on the LCD 114 by the method shown in FIG. 8, the data 1190 of each pixel of the LCD 114 is as shown in FIG.

ここで、3画素の水平平均化処理により得られたRGBデータRa、Ga、Baの輝度値の比とRb、Gb、Bbの輝度値の比はそれぞれ等しい。図11では、LCD114の各画素のデータ1190を6画素分しか示していないが、他の画素についても同様である。従って、LCD114を構成する各画素のうち、Rフィルタ、Gフィルタ、Bフィルタに対応する隣接3画素の輝度値の比が同じとなるので、偽色の発生を効果的に抑制することができる。また、水平方向のローパスフィルタ処理を施す場合に比べて、画像の解像感の低下を抑制することができる。   Here, the ratio of the luminance values of RGB data Ra, Ga, Ba obtained by the horizontal averaging process of three pixels is equal to the ratio of the luminance values of Rb, Gb, Bb. In FIG. 11, the data 1190 of each pixel of the LCD 114 is shown for only six pixels, but the same applies to other pixels. Therefore, the ratio of the luminance values of the adjacent three pixels corresponding to the R filter, G filter, and B filter among the pixels constituting the LCD 114 is the same, so that the generation of false colors can be effectively suppressed. In addition, it is possible to suppress a decrease in the resolution of the image as compared with the case where the horizontal low-pass filter process is performed.

以上、第3の実施形態における画像表示装置によれば、単色画像データをLCD114に表示した際に、LCD114の注目画素の輝度値と、注目画素とカラーフィルタの異なる1つ以上の隣接画素の輝度値の比が同一になるように、高周波低減処理を行う。これにより、偽色の発生をより効果的に抑制することができる。ここで、高周波低減処理として、水平方向の平均化処理を行うので、LCD114の注目画素の輝度値と、注目画素とカラーフィルタの異なる1つ以上の隣接画素の輝度値を確実に同一にすることができる。   As described above, according to the image display device in the third embodiment, when monochromatic image data is displayed on the LCD 114, the luminance value of the target pixel of the LCD 114 and the luminance of one or more adjacent pixels having different target pixels and color filters. High frequency reduction processing is performed so that the ratio of values is the same. Thereby, generation | occurrence | production of a false color can be suppressed more effectively. Here, since the averaging process in the horizontal direction is performed as the high frequency reduction process, the luminance value of the target pixel of the LCD 114 and the luminance value of one or more adjacent pixels different from the target pixel and the color filter are surely made the same. Can do.

<第4の実施形態>
第4の実施形態における画像表示装置では、LCD114に表示する画像が単色画像である場合に、水平方向に3分の1のサイズになるように縮小する処理を行った後、ニアレストネイバー補間法によって、水平方向に3倍に拡大する処理を行う。
<Fourth Embodiment>
In the image display device according to the fourth embodiment, when the image displayed on the LCD 114 is a single-color image, after performing the process of reducing the size so that the size becomes one third in the horizontal direction, the nearest neighbor interpolation method is performed. The process of enlarging 3 times in the horizontal direction is performed.

図12は、第4の実施形態における画像表示装置によって行われるLCD表示処理の詳細を示すフローチャートである。図7に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付して詳しい説明は省略する。   FIG. 12 is a flowchart illustrating details of the LCD display process performed by the image display apparatus according to the fourth embodiment. Steps for performing the same processing as the processing in the flowchart shown in FIG. 7 are assigned the same reference numerals, and detailed descriptions thereof are omitted.

ステップS820で表示対象の画像が単色画像であると判定すると、ステップS1200に進む。ステップS1200では、単色画像データを水平方向に3分の1のサイズになるように縮小する。   If it is determined in step S820 that the display target image is a single color image, the process advances to step S1200. In step S1200, the monochromatic image data is reduced to a size of one third in the horizontal direction.

ステップS1210では、水平方向に3分の1に縮小した単色画像データに対して、ニアレストネイバー補間法によって、水平方向に3倍に拡大する処理を行う。   In step S1210, the single-color image data reduced to one third in the horizontal direction is subjected to a process of enlarging it three times in the horizontal direction by the nearest neighbor interpolation method.

図13は、単色画像データに対して、水平方向に3分の1のサイズになるように縮小する処理を行った後、ニアレストネイバー補間法によって、水平方向に3倍に拡大する処理を行ってから、LCD114に表示させる処理を説明するための図である。   In FIG. 13, after processing to reduce the size of monochromatic image data to one third of the size in the horizontal direction, the processing to enlarge it by three times in the horizontal direction by the nearest neighbor interpolation method is performed. It is a figure for demonstrating the process displayed on LCD114 later.

単色画像データ1370に対して、水平方向に3分の1のサイズになるように縮小する処理を施すことにより、縮小処理後の画像データ1380を得る。図13に示す例では、水平方向に隣接する3画素のうちの1画素を抜き出すことにより、水平方向に3分の1のサイズになるように縮小している。なお、平均により縮小してもよい。   The monochromatic image data 1370 is subjected to a process of reducing the size so that the size becomes one third in the horizontal direction, thereby obtaining image data 1380 after the reduction process. In the example shown in FIG. 13, one pixel out of three pixels adjacent in the horizontal direction is extracted to reduce the size to one third of the size in the horizontal direction. The average may be reduced.

続いて、縮小された画像データ1380を、ニアレストネイバー補間法によって、水平方向に3倍に拡大する処理を行うことにより、画像データ1390を生成する。ニアレストネイバー補間法では、最近傍の画素の画素値を用いた補間を行うので、図13に示すように、水平方向に隣接する3画素のRGBデータは等しくなる。すなわち、3画素1310、1320、1330のRデータ、Gデータ、Bデータはそれぞれ等しくなり、3画素1340、1350、1360のRデータ、Gデータ、Bデータはそれぞれ等しくなる。   Subsequently, image data 1390 is generated by performing a process of enlarging the reduced image data 1380 three times in the horizontal direction by the nearest neighbor interpolation method. In the nearest neighbor interpolation method, since interpolation is performed using the pixel values of the nearest pixels, the RGB data of the three pixels adjacent in the horizontal direction are equal as shown in FIG. That is, the R data, G data, and B data of the three pixels 1310, 1320, and 1330 are equal, and the R data, G data, and B data of the three pixels 1340, 1350, and 1360 are equal.

その後、水平方向に3倍に拡大した画像データ1190を、図8を用いた方法によってLCD114に表示させると、LCD114の各画素のデータ1400は、図13に示すようになる。   Thereafter, when the image data 1190 enlarged three times in the horizontal direction is displayed on the LCD 114 by the method shown in FIG. 8, the data 1400 of each pixel of the LCD 114 becomes as shown in FIG.

これにより、LCD114を構成する各画素のうち、Rフィルタ、Gフィルタ、Bフィルタに対応する隣接3画素の輝度値が同じとなるので、偽色の発生を効果的に抑制することができる。また、水平方向のローパスフィルタ処理を施す場合に比べて、画像の解像感の低下を抑制することができる。   As a result, the luminance values of the adjacent three pixels corresponding to the R filter, the G filter, and the B filter among the pixels constituting the LCD 114 are the same, so that the generation of false colors can be effectively suppressed. In addition, it is possible to suppress a decrease in the resolution of the image as compared with the case where the horizontal low-pass filter process is performed.

以上、第4の実施形態における画像表示装置によれば、単色画像データを水平方向に1/3倍に縮小した後、縮小後の単色画像データをニアレストネイバー補間法によって、水平方向に3倍に拡大する処理を行う。これにより、水平方向に隣接する3画素の輝度値を同一にすることができるので、偽色の発生をより効果的に抑制することができる。   As described above, according to the image display device of the fourth embodiment, after reducing the monochrome image data to 1/3 times in the horizontal direction, the reduced monochrome image data is multiplied by 3 times in the horizontal direction by the nearest neighbor interpolation method. Perform the process of enlarging. Thereby, since the luminance values of the three pixels adjacent in the horizontal direction can be made the same, the occurrence of false colors can be more effectively suppressed.

なお、上述した第1〜第4の実施形態の説明では、画像表示装置が行う処理としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、画像表示装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えている。ここでは、このプログラムを画像表示プログラムと呼ぶ。そして、CPUが上記記憶媒体に記憶されている画像表示プログラムを読み出して、情報の加工・演算処理を実行することにより、上述の画像表示装置と同様の処理を実現させる。   In the description of the first to fourth embodiments described above, hardware processing is assumed as processing performed by the image display device, but the present invention is not limited to such a configuration. For example, a configuration in which processing is performed separately by software is also possible. In this case, the image display device includes a main storage device such as a CPU and a RAM, and a computer-readable storage medium storing a program for realizing all or part of the above processing. Here, this program is called an image display program. Then, the CPU reads out the image display program stored in the storage medium and executes information processing / calculation processing, thereby realizing processing similar to that of the above-described image display device.

ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、この画像表示プログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該画像表示プログラムを実行するようにしても良い。   Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the image display program may be distributed to a computer via a communication line, and the computer that has received the distribution may execute the image display program.

本発明は、上述した第1〜第4の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、第3の実施形態では、表示画像データがRGBデータにより構成されているため、水平方向3画素の平均化処理を行った。しかし、表示画像データが2色または4色以上のデータにより構成されている場合には、構成色の数と同じ数の画素を対象として平均化処理を行えばよい。   The present invention is not limited to the first to fourth embodiments described above, and various modifications and applications can be made without departing from the scope of the present invention. For example, in the third embodiment, since the display image data is composed of RGB data, the averaging process of three pixels in the horizontal direction is performed. However, when the display image data is composed of data of two colors or four colors or more, the averaging process may be performed on the same number of pixels as the number of constituent colors.

また、第4の実施形態において、表示画像データがN(Nは自然数)色のデータにより構成されている場合には、単色画像データを水平方向に1/N倍に縮小した後、縮小後の単色画像データをニアレストネイバー補間法によって、水平方向にN倍に拡大する処理を行うようにすればよい。   In the fourth embodiment, when the display image data is composed of N (N is a natural number) color data, the monochromatic image data is reduced to 1 / N times in the horizontal direction, and then the reduced image data is displayed. The monochromatic image data may be enlarged N times in the horizontal direction by the nearest neighbor interpolation method.

図8を用いて説明したように、表示画像データの水平方向における各画素と、表示部であるLCD114の水平方向の各画素とを対応させた表示処理を行うので、上述した各実施形態では、水平方向のローパスフィルタ処理、平均化処理、縮小・拡大処理を行うものとして説明した。しかし、表示部の垂直方向における各画素と、表示画像データの垂直方向における各画素とを対応させた表示処理を行う方式の場合には、垂直方向のローパスフィルタ処理、平均化処理、縮小・拡大処理を行うようにすればよい。   As described with reference to FIG. 8, display processing in which each pixel in the horizontal direction of the display image data is associated with each pixel in the horizontal direction of the LCD 114 serving as a display unit is performed. The description has been given assuming that horizontal low-pass filter processing, averaging processing, and reduction / enlargement processing are performed. However, in the case of a display process in which each pixel in the vertical direction of the display unit is associated with each pixel in the vertical direction of the display image data, the low-pass filter process in the vertical direction, the averaging process, the reduction / enlargement What is necessary is just to make it process.

上述した実施形態では、RGBデータにより構成されている画像データから、LCD114の各画素のカラーフィルタに対応するデータを抜き出して表示するものとして説明した。しかし、例えば、YCbCrデータにより構成されている画像データに対して色変換を行うことにより、LCD114への表示を行う表示方式のものにも本発明を適用することができる。   In the above-described embodiment, description has been made on the assumption that data corresponding to the color filter of each pixel of the LCD 114 is extracted from the image data composed of RGB data and displayed. However, for example, the present invention can also be applied to a display system that performs display on the LCD 114 by performing color conversion on image data composed of YCbCr data.

上述した実施形態では、画像表示装置をデジタルスチルカメラに適用した例を挙げて説明したが、デジタルビデオカメラや他の電子機器にも適用することができる。   In the above-described embodiment, an example in which the image display device is applied to a digital still camera has been described. However, the image display device can also be applied to a digital video camera and other electronic devices.

1…カメラ本体
2…交換式レンズ
101…メカシャッター
102…撮像素子
103…アナログ処理部
104…アナログ/デジタル変換部
107…画像処理部
110…画像圧縮展開部
113…LCDドライバ
114…LCD
115…マイクロコンピュータ
117…Flashメモリ
118…ノイズパターン生成部
119…画像加算部
120…表示画像処理部
DESCRIPTION OF SYMBOLS 1 ... Camera body 2 ... Interchangeable lens 101 ... Mechanical shutter 102 ... Imaging element 103 ... Analog processing part 104 ... Analog / digital conversion part 107 ... Image processing part 110 ... Image compression expansion part 113 ... LCD driver 114 ... LCD
115 ... Microcomputer 117 ... Flash memory 118 ... Noise pattern generator 119 ... Image adder 120 ... Display image processor

Claims (12)

表示対象の画像データが単色画像データであるか否かを判定する判定部と、
画像データに対して高周波成分を低減する高周波低減処理を施す高周波低減処理部と、
前記判定部によって、表示対象の画像データが単色画像データであると判定されると、前記単色画像データに対して前記高周波低減処理が行われるように前記高周波低減処理部を制御する制御部と、
前記高周波低減処理が施された単色画像データを表示する表示部と、
を備えることを特徴とする画像表示装置。
A determination unit that determines whether the image data to be displayed is single-color image data;
A high frequency reduction processing unit that performs high frequency reduction processing to reduce high frequency components on the image data;
When the determination unit determines that the image data to be displayed is single-color image data, a control unit that controls the high-frequency reduction processing unit so that the high-frequency reduction processing is performed on the single-color image data;
A display unit for displaying the monochromatic image data subjected to the high-frequency reduction processing;
An image display device comprising:
前記制御部は、前記判定部によって、表示対象の画像データが非単色画像データであると判定されると、前記非単色画像データに対しては前記高周波低減処理が行われないように前記高周波低減処理部を制御することを特徴とする請求項1に記載の画像表示装置。   When the determination unit determines that the image data to be displayed is non-monochromatic image data, the control unit performs the high frequency reduction so that the high frequency reduction processing is not performed on the non-monochromatic image data. The image display device according to claim 1, wherein the processing unit is controlled. 前記制御部は、前記単色画像データに対しては第1の高周波低減処理を行わせ、非単色画像データに対しては前記第1の高周波低減処理とは異なる第2の高周波低減処理を行わせるように前記高周波低減処理部を制御することを特徴とする請求項1に記載の画像表示装置。   The control unit causes the first high-frequency reduction process to be performed on the monochrome image data, and the second high-frequency reduction process different from the first high-frequency reduction process is performed on the non-monochromatic image data. The image display apparatus according to claim 1, wherein the high-frequency reduction processing unit is controlled as described above. 前記第1の高周波低減処理は、前記第2の高周波低減処理よりも高周波成分の低減効果が大きい処理であることを特徴とする請求項3に記載の画像表示装置。   The image display apparatus according to claim 3, wherein the first high-frequency reduction process is a process that has a higher high-frequency component reduction effect than the second high-frequency reduction process. 前記高周波低減処理部は、前記単色画像データに対する高周波低減処理として、水平方向のローパスフィルタ処理を行うことを特徴とする請求項1から請求項4のいずれか一項に記載の画像表示装置。   5. The image display device according to claim 1, wherein the high-frequency reduction processing unit performs horizontal low-pass filter processing as high-frequency reduction processing for the monochromatic image data. 6. 前記高周波低減処理部は、前記単色画像データを前記表示部に表示した際に、前記表示部の注目画素の輝度値と、前記注目画素とカラーフィルタの異なる1つ以上の隣接画素の輝度値の比が同一になるように、前記単色画像データに対する高周波低減処理を行うことを特徴とする請求項1から請求項4のいずれか一項に記載の画像表示装置。   When the high-frequency reduction processing unit displays the monochrome image data on the display unit, the luminance value of the target pixel of the display unit and the luminance value of one or more adjacent pixels different from the target pixel and the color filter are obtained. 5. The image display device according to claim 1, wherein high-frequency reduction processing is performed on the monochromatic image data so that the ratios are the same. 6. 前記高周波低減処理部は、前記単色画像データに対する高周波低減処理として、水平方向の平均化処理を行うことを特徴とする請求項6に記載の画像表示装置。   The image display apparatus according to claim 6, wherein the high frequency reduction processing unit performs horizontal averaging processing as the high frequency reduction processing for the monochrome image data. 前記高周波低減処理部は、前記単色画像データに対する高周波低減処理として、前記単色画像データを縮小する処理と、縮小後の単色画像データを拡大する処理とを行うことを特徴とする請求項1から請求項4のいずれか一項に記載の画像表示装置。   The high-frequency reduction processing unit performs a process of reducing the monochrome image data and a process of expanding the reduced monochrome image data as the high-frequency reduction process for the monochrome image data. Item 5. The image display device according to any one of Items 4 to 6. 前記高周波低減処理部は、前記単色画像データを水平方向に1/N(Nは自然数)倍に縮小した後、縮小後の単色画像データをニアレストネイバー補間法によって、水平方向にN倍に拡大する処理を行うことを特徴とする請求項8に記載の画像表示装置。   The high-frequency reduction processing unit reduces the monochrome image data to 1 / N (N is a natural number) times in the horizontal direction, and then enlarges the reduced monochrome image data to N times in the horizontal direction by a nearest neighbor interpolation method. The image display device according to claim 8, wherein the image display device performs the processing. 前記表示部は、画像データを構成する各画素のデータのうちの一部のデータを表示することを特徴とする請求項1から請求項9のいずれか一項に記載の画像表示装置。   The image display device according to any one of claims 1 to 9, wherein the display unit displays a part of data of data of each pixel constituting the image data. 前記単色画像データは、ノイズデータが付加された単色画像データであることを特徴とする請求項1から請求項10のいずれか一項に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the monochrome image data is monochrome image data to which noise data is added. 画像データを表示部に表示する画像表示方法であって、
表示対象の画像データが単色画像データであるか否かを判定するステップと、
表示対象の画像データが単色画像データであると判定すると、前記単色画像データに対して高周波成分を低減する高周波低減処理を施すステップと、
前記高周波低減処理が施された単色画像データを表示するステップと、
を備えることを特徴とする画像表示方法。
An image display method for displaying image data on a display unit,
Determining whether the image data to be displayed is single-color image data;
If it is determined that the image data to be displayed is single-color image data, performing a high-frequency reduction process for reducing high-frequency components on the single-color image data;
Displaying monochromatic image data subjected to the high-frequency reduction processing;
An image display method comprising:
JP2010007185A 2010-01-15 2010-01-15 Image display device, and method of displaying image Pending JP2011147012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010007185A JP2011147012A (en) 2010-01-15 2010-01-15 Image display device, and method of displaying image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010007185A JP2011147012A (en) 2010-01-15 2010-01-15 Image display device, and method of displaying image

Publications (1)

Publication Number Publication Date
JP2011147012A true JP2011147012A (en) 2011-07-28

Family

ID=44461456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010007185A Pending JP2011147012A (en) 2010-01-15 2010-01-15 Image display device, and method of displaying image

Country Status (1)

Country Link
JP (1) JP2011147012A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278500A (en) * 2001-03-21 2002-09-27 Mitsubishi Electric Corp Device and method for displaying image
JP2005505801A (en) * 2001-10-19 2005-02-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for displaying an image, image processing unit, and display device having the display processing unit
JP2008252242A (en) * 2007-03-29 2008-10-16 Nikon Corp Imaging apparatus
JP2009098718A (en) * 2007-10-12 2009-05-07 Denso Corp Image processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278500A (en) * 2001-03-21 2002-09-27 Mitsubishi Electric Corp Device and method for displaying image
JP2005505801A (en) * 2001-10-19 2005-02-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method for displaying an image, image processing unit, and display device having the display processing unit
JP2008252242A (en) * 2007-03-29 2008-10-16 Nikon Corp Imaging apparatus
JP2009098718A (en) * 2007-10-12 2009-05-07 Denso Corp Image processing device

Similar Documents

Publication Publication Date Title
JP5622513B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP2009159056A (en) Image capturing apparatus
JP5592776B2 (en) Image processing apparatus, image processing method, and image processing program
JP5132495B2 (en) Imaging apparatus and image processing method
JP2010124411A (en) Image processing apparatus, image processing method and image processing program
US20170134648A1 (en) Image processing apparatus, method for controlling image processing apparatus, image pickup apparatus, method for controlling image pickup apparatus, and recording medium
JP5185085B2 (en) Image processing apparatus, image processing method, and image processing program
JP5800970B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5607911B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP2010283504A (en) Imaging device, imaging method, and imaging program
JP6152009B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP2011223146A (en) Electronic camera
JP5530304B2 (en) Imaging apparatus and captured image display method
JP2011160183A (en) Imaging device and method
JP4429148B2 (en) Image photographing and recording apparatus and method
JP2010245810A (en) Imaging apparatus
JP5185027B2 (en) Image display device, imaging device, image display method, and imaging method
JP2011147012A (en) Image display device, and method of displaying image
JP5191941B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
JP6592293B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2020036162A (en) Image processing device, imaging device, image processing method, and program
JP2010245686A (en) Imaging apparatus, method of processing image, and image processing program
JP2008042326A (en) Imaging apparatus and simultaneous display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140304