JP2011151454A - Image processor, imaging apparatus and image processing method - Google Patents
Image processor, imaging apparatus and image processing method Download PDFInfo
- Publication number
- JP2011151454A JP2011151454A JP2010008912A JP2010008912A JP2011151454A JP 2011151454 A JP2011151454 A JP 2011151454A JP 2010008912 A JP2010008912 A JP 2010008912A JP 2010008912 A JP2010008912 A JP 2010008912A JP 2011151454 A JP2011151454 A JP 2011151454A
- Authority
- JP
- Japan
- Prior art keywords
- image
- circuit
- input
- processing
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像に含まれる高輝度領域を強調表示する加工画像を生成する画像処理装置、撮像機器及び画像処理方法に関する。 The present invention relates to an image processing apparatus, an imaging device, and an image processing method for generating a processed image that highlights a high-luminance region included in an image.
従来から、被写体画像の高輝度領域に対して光条を発生させるクロスフィルタが知られている。このクロスフィルタはレンズフィルタの一種で透明な光学ガラスの表面に細い溝を刻むことで、被写体画像の高輝度領域に対して光条を発生させるものであるが、近年ではデジタル画像処理で同様の処理を行う技術が開発されている(例えば、特許文献1,2参照)。このようにクロスフィルタの効果をデジタル画像処理でエミュレートする技術は、一般にクロスフィルタ処理と呼ばれている。 2. Description of the Related Art Conventionally, a cross filter that generates a stripe on a high-luminance region of a subject image is known. This cross filter is a type of lens filter that creates a light stripe in the high brightness area of a subject image by engraving a thin groove on the surface of a transparent optical glass. Techniques for performing processing have been developed (see, for example, Patent Documents 1 and 2). Such a technique of emulating the effect of the cross filter by digital image processing is generally called cross filter processing.
デジタル画像処理によるクロスフィルタ処理は、被写体画像の中から高輝度領域を抽出し、高輝度領域に対して光条を被写体画像に施すものであり、高輝度領域の各ピクセルに対して光条パターンの積和演算処理を行っている。 Cross filter processing by digital image processing extracts a high brightness area from a subject image and applies a light stripe to the subject image with respect to the high brightness area. A light stripe pattern is applied to each pixel in the high brightness area. The product-sum operation processing is performed.
この積和演算処理は、膨大な演算回数が必要なため、リアルタイムで処理をすることが困難である。そのため、静止画処理用のレタッチソフトとして市販されていたが、最近では、デジタルカメラなどの撮像機器に搭載されているものも製品化されてきている。 This product-sum operation process requires a huge number of operations and is difficult to process in real time. For this reason, it has been marketed as retouching software for still image processing, but recently, products installed in imaging devices such as digital cameras have been commercialized.
デジタルカメラなどの撮像機器では、撮像画像の生成が完了するまでの時間を、ユーザが待つことを我慢できる時間以内に、クロスフィルタ処理時間を抑える必要がある。 In an imaging device such as a digital camera, it is necessary to suppress the cross filter processing time within a time period during which the user can wait for the time until generation of a captured image is completed.
しかし、従来のクロスフィルタ処理の技術では、高速にクロスフィルタ処理を行うことができなかったため、動画などにクロスフィルタ処理を施すことが難しかった。このことは、クロスフィルタ処理に限らず、高輝度領域を強調表示した画像を生成する場合であれば同様である。 However, since the conventional cross filter processing technology cannot perform the cross filter processing at high speed, it is difficult to perform the cross filter processing on a moving image or the like. This is not limited to the cross filter process, and the same applies to the case of generating an image in which a high luminance area is highlighted.
そこで、本発明は、クロスフィルタなどのように高輝度領域を強調表示した画像を生成するための処理量を大幅に低減することができる画像処理装置、撮像機器及び画像処理方法を提供することを目的とする。 Therefore, the present invention provides an image processing apparatus, an imaging device, and an image processing method that can significantly reduce the amount of processing for generating an image in which a high luminance region is highlighted, such as a cross filter. Objective.
そこで、上記課題を解決するために、請求項1に記載の発明は、画像処理装置において、入力画像を所定の閾値で2値化する2値化手段と、前記2値化した画像から高輝度領域を特定する高輝度領域特定手段と、前記特定した高輝度領域に対し、所定条件に基づいて優先度を決定する優先度決定手段と、前記特定した高輝度領域が所定数以上あるとき、優先度の高い高輝度領域から順に前記所定数選択する選択手段と、前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成する画像処理手段と、を備えることとした。 Accordingly, in order to solve the above-mentioned problem, the invention according to claim 1 is an image processing device in which binarization means for binarizing an input image with a predetermined threshold and high luminance from the binarized image. High brightness area specifying means for specifying an area, priority determining means for determining priority for the specified high brightness area based on a predetermined condition, and priority when the specified high brightness area is a predetermined number or more Selecting means for selecting the predetermined number in order from a high-intensity area having high degree; and an image processing means for generating an emphasized image for highlighting the selected high-intensity area and synthesizing the emphasized image with the input image. It was decided.
また、請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記優先度決定手段は、前記所定条件として、前記高輝度領域の大きさ、前記入力画像に対する前記高輝度領域の位置及び前記高輝度領域の色相に基づいて前記高輝度領域の優先度を決定することとした。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the priority determination unit includes, as the predetermined condition, a size of the high luminance region and the high luminance region for the input image. The priority of the high luminance region is determined based on the position of the high luminance region and the hue of the high luminance region.
また、請求項3に記載の発明は、請求項1又は2に記載の画像処理装置において、前記画像処理手段は、一つの高輝度領域に対して一定のピクセル数の強調画像を割り当てられ、高輝度領域の面積に応じて強調画像の大きさを変えることとした。 According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, the image processing means is assigned an enhanced image having a certain number of pixels to one high luminance region, The size of the enhanced image is changed according to the area of the luminance region.
また、請求項4に記載の発明は、請求項1〜3のいずれか1項に記載の画像処理装置において、前記画像処理手段は、前記入力画像を縮小した後に、当該縮小した入力画像の高輝度領域を強調表示する強調画像を生成し、当該強調画像を拡大した後に入力画像と合成することとした。 According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the image processing means reduces the input image and then increases the height of the reduced input image. An enhanced image that highlights the luminance region is generated, and the enhanced image is enlarged and then combined with the input image.
また、請求項5に記載の発明は、請求項1〜4のいずれか1項に記載の画像処理装置において、前記画像処理手段は、入力画像の複数フレームの単位で前記強調画像を生成し、前記複数フレームの入力画像に同一の強調画像をそれぞれ合成することとした。 Further, the invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 4, wherein the image processing means generates the enhanced image in units of a plurality of frames of the input image, The same emphasized image is synthesized with the input images of the plurality of frames.
また、請求項6に記載の発明は、請求項1〜5のいずれか1項に記載の画像処理装置において、前記入力画像は、カラー画像であり、前記強調画像の画像パターンは、2以上の色のそれぞれに割り当てられており、前記2値化手段は、前記入力画像から前記2以上の色のそれぞれの成分を抽出して単一色画像を生成し、前記高輝度領域特定手段は、前記単一色画像毎に、前記高輝度領域の特定を行い、前記優先度決定手段は、前記単一色画像毎に前記優先度の決定を行い、前記選択手段は、前記単一色画像毎に前記高輝度領域の選択を行い、前記画像処理手段は、前記単一色画像毎に前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成することとした。 According to a sixth aspect of the present invention, in the image processing device according to any one of the first to fifth aspects, the input image is a color image, and the image pattern of the emphasized image is two or more. Assigned to each of the colors, the binarizing means extracts a component of each of the two or more colors from the input image to generate a single color image, and the high-luminance region specifying means The high-luminance area is specified for each color image, the priority determination means determines the priority for each single-color image, and the selection means is the high-luminance area for each single-color image. The image processing means generates an enhanced image that highlights the selected high-intensity area for each single color image, and synthesizes the enhanced image with the input image.
また、請求項7に記載の発明は、請求項1〜6のいずれか1項に記載の画像処理装置において、前記入力画像から人物の顔画像を検出する顔画像検出手段を備え、前記画像処理手段は、前記入力画像に前記強調画像を合成して生成した合成画像に前記顔検出手段で抽出した顔画像を上書きすることとした。 The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6, further comprising face image detection means for detecting a face image of a person from the input image. The means overwrites the face image extracted by the face detection means on the composite image generated by combining the emphasized image with the input image.
また、請求項8に記載の発明は、画像処理方法において、入力画像を所定の閾値で2値化するステップと、前記2値化した画像から高輝度領域を特定するステップと、前記特定した高輝度領域に対し、所定条件に基づいて優先度を決定するステップと、前記特定した高輝度領域が所定数以上あるとき、優先度の高い高輝度領域から順に前記所定数選択するステップと、前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成するステップと、を有することとした。 The invention according to claim 8 is the image processing method, wherein the input image is binarized with a predetermined threshold, the high-luminance region is identified from the binarized image, and the identified high Determining a priority for a luminance area based on a predetermined condition; selecting a predetermined number in order from a high-luminance area having a higher priority when there are a predetermined number or more of the specified high-luminance areas; Generating an emphasized image for highlighting the high-intensity region, and synthesizing the emphasized image with the input image.
また、請求項9に記載の発明は、撮像機器において、固体撮像素子からの入力画像を処理する画像処理装置を備え、前記画像処理装置は、入力画像を所定の閾値で2値化する2値化手段と、前記2値化した画像から高輝度領域を特定する高輝度領域特定手段と、前記特定した高輝度領域に対し、所定条件に基づいて優先度を決定する優先度決定手段と、前記特定した高輝度領域が所定数以上あるとき、優先度の高い高輝度領域から順に前記所定数選択する選択手段と、前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成する画像処理手段とを備えることとした。 According to a ninth aspect of the present invention, in the imaging device, the image processing apparatus includes an image processing device that processes an input image from the solid-state imaging device, and the image processing device binarizes the input image with a predetermined threshold value. A high brightness area specifying means for specifying a high brightness area from the binarized image, a priority determining means for determining a priority for the specified high brightness area based on a predetermined condition, When there are a predetermined number or more of the specified high-luminance areas, a selection unit that selects the predetermined number in order from the high-luminance areas with higher priority, and an emphasized image that highlights the selected high-luminance areas are generated, Image processing means for synthesizing the input image.
本発明によれば、クロスフィルタなどのように高輝度領域を強調表示した画像を生成するための処理量を大幅に低減することができる画像処理装置、撮像機器及び画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus, an imaging device, and an image processing method capable of significantly reducing the amount of processing for generating an image in which a high luminance region is highlighted such as a cross filter. it can.
以下、発明を実施するための形態(以下、「実施形態」とする)について説明する。なお、説明は以下の順序で行う。
1.撮像機器の構成
2.画像処理装置の構成
3.画像処理装置の処理動作
4.クロスフィルタ回路の動作
5.画像処理装置の第1変形例
6.画像処理装置の第2変形例
Hereinafter, modes for carrying out the invention (hereinafter referred to as “embodiments”) will be described. The description will be given in the following order.
1. Configuration of imaging device 2. Configuration of image processing apparatus 3. Processing operation of image processing apparatus 4. Operation of the cross filter circuit 5. First modification of image processing apparatus Second modification of image processing apparatus
[1.撮像機器の構成]
まず、本実施形態に係る撮像機器の構成について図面を用いて説明する。図1は本発明の一実施形態に係る撮像機器の構成を示す図である。
[1. Configuration of imaging equipment]
First, the configuration of the imaging device according to the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of an imaging device according to an embodiment of the present invention.
図1に示すように、撮像機器1は、固体撮像素子2、A/D(アナログ/デジタル)変換回路3、画像処理装置4、システムコントローラ5、入力部6、光学ブロック7を具備している。また、この撮像機器1には、光学ブロック7内の機構を駆動するためのドライバ8、固体撮像素子2を駆動するためのタイミングジェネレータ(TG)9などが設けられている。なお、固体撮像素子2として、例えば、CMOS型の固体撮像素子やCCD型の固体撮像素子などが用いられる。 As shown in FIG. 1, the imaging device 1 includes a solid-state imaging device 2, an A / D (analog / digital) conversion circuit 3, an image processing device 4, a system controller 5, an input unit 6, and an optical block 7. . The imaging device 1 is provided with a driver 8 for driving a mechanism in the optical block 7, a timing generator (TG) 9 for driving the solid-state imaging device 2, and the like. For example, a CMOS solid-state image sensor or a CCD solid-state image sensor is used as the solid-state image sensor 2.
光学ブロック7は、被写体からの光を固体撮像素子2へ集光するためのレンズ、レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、メカシャッタ、絞りなどを具備している。ドライバ8は、システムコントローラ5からの制御信号に応じて、光学ブロック7内の機構の駆動を制御する。 The optical block 7 includes a lens for condensing light from the subject onto the solid-state imaging device 2, a driving mechanism for moving the lens to perform focusing and zooming, a mechanical shutter, a diaphragm, and the like. The driver 8 controls driving of the mechanism in the optical block 7 in accordance with a control signal from the system controller 5.
固体撮像素子2は、TG9から出力されるタイミング信号に基づいて駆動され、被写体からの入射光を電気信号に変換する。TG9は、システムコントローラ5の制御の下でタイミング信号を出力する。 The solid-state imaging device 2 is driven based on the timing signal output from the TG 9 and converts incident light from the subject into an electrical signal. The TG 9 outputs a timing signal under the control of the system controller 5.
A/D変換回路3は、固体撮像素子2から出力された画像信号をA/D変換してデジタル画像信号を出力する。画像信号は、固体撮像素子2の各画素から出力される画素信号から構成される。 The A / D conversion circuit 3 performs A / D conversion on the image signal output from the solid-state imaging device 2 and outputs a digital image signal. The image signal is composed of pixel signals output from each pixel of the solid-state imaging device 2.
画像処理装置4は、A/D変換回路3から出力されるデジタル画像信号に対して、後述するクロスフィルタ処理のほか、AF(Auto Focus)、AE(Auto Exposure)、欠陥画素の検出処理及び補正処理、ホワイトバランス調整、マトリクス処理などの各種カメラ信号処理を実行する。 The image processing device 4 performs AF (Auto Focus), AE (Auto Exposure), defective pixel detection processing and correction on the digital image signal output from the A / D conversion circuit 3 in addition to cross-filter processing described later. Various camera signal processing such as processing, white balance adjustment, and matrix processing are executed.
システムコントローラ5は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成される。CPUはROMに記憶されたプログラムを実行することにより、この撮像機器1の各部を統括的に制御し、また、その制御のための各種演算を実行する。入力部6は、ユーザの操作入力を受け付ける操作キー、ダイアル、レバーなどを含み、操作入力に応じた制御信号をシステムコントローラ5に出力する。 The system controller 5 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU executes the programs stored in the ROM, thereby controlling the respective units of the imaging device 1 in an integrated manner and executing various calculations for the control. The input unit 6 includes operation keys, dials, levers, and the like that receive user operation inputs, and outputs a control signal corresponding to the operation inputs to the system controller 5.
この撮像機器1では、固体撮像素子2の各光電変換部で受光され、光電変換された画素信号が、順次A/D変換回路3に供給されてデジタル信号に変換され、画像処理装置4により欠陥補正処理などが行われて、画像データとして出力される。 In this imaging device 1, pixel signals received and photoelectrically converted by the respective photoelectric conversion units of the solid-state imaging device 2 are sequentially supplied to the A / D conversion circuit 3 and converted into digital signals, and the image processing device 4 performs defect processing. Correction processing and the like are performed and output as image data.
画像処理装置4から出力された画像データは、図示しないグラフィックインタフェース回路に供給されて表示用の画像信号に変換され、これにより図示しないモニタにカメラスルー画像が表示される。また、入力部6へのユーザの入力操作などによりシステムコントローラ5に対して画像の記録が指示されると、画像処理装置4からの画像データはCODEC(enCOder,DECoder)に供給され、圧縮符号化処理が施されて記録媒体に記録される。本実施形態に係る撮像機器1では、静止画像を記録する静止画像モードと、動画像を記録する動画像モードとを有しており、ユーザは入力部6への入力操作などによりいずれかのモードを選択することができる。静止画像モード時における静止画像の記録の際には、画像処理装置4からは1フレーム分の画像データがCODECに供給され、動画像モード時の動画像の記録の際には、処理された画像データがCODECに連続的に供給される。 The image data output from the image processing device 4 is supplied to a graphic interface circuit (not shown) and converted into an image signal for display, whereby a camera-through image is displayed on a monitor (not shown). When the system controller 5 is instructed to record an image by a user input operation to the input unit 6 or the like, the image data from the image processing device 4 is supplied to a CODEC (enCOder, DEcoder) and compressed and encoded. The processing is performed and recorded on the recording medium. The imaging apparatus 1 according to the present embodiment has a still image mode for recording a still image and a moving image mode for recording a moving image, and the user can select either mode by an input operation to the input unit 6 or the like. Can be selected. When recording a still image in the still image mode, image data for one frame is supplied from the image processing device 4 to the CODEC. When recording a moving image in the moving image mode, the processed image is processed. Data is continuously supplied to the CODEC.
[2.画像処理装置4の構成]
次に、本実施形態に係る画像処理装置4の構成について図面を用いて説明する。画像処理装置4は、動画像モードにおける動画像の記録時などには処理速度優先の処理を行い、静止画像モードにおける静止画像の記録時などには画質優先の処理を行うようにしている。図2は動画像の記録時や動画像のモニタ時に適用される動画像用クロスフィルタ処理を行う回路構成を示す図である。また、図3は静止画像の記録時に適用される静止画像用クロスフィルタ処理を行う回路構成を示す図である。画像処理装置4は、その他の種々の処理を行い、実際にはその他の回路構成も存在するが、ここでは、クロスフィルタ処理を中心に説明することとする。
[2. Configuration of the image processing apparatus 4]
Next, the configuration of the image processing apparatus 4 according to the present embodiment will be described with reference to the drawings. The image processing apparatus 4 performs processing speed priority processing when recording a moving image in the moving image mode, and performs image quality priority processing when recording a still image in the still image mode. FIG. 2 is a diagram showing a circuit configuration for performing moving image cross-filter processing applied when recording a moving image or monitoring a moving image. FIG. 3 is a diagram showing a circuit configuration for performing a still image cross-filter process applied at the time of recording a still image. The image processing apparatus 4 performs various other processes and actually has other circuit configurations, but here, the cross filter process will be mainly described.
まず、図2を参照して、動画像用クロスフィルタ処理を行う回路構成を説明する。 First, a circuit configuration for performing moving image cross filter processing will be described with reference to FIG.
図2に示すように、画像処理装置4は、フレーム補間処理回路11と、強調画像生成回路12と、顔検出回路13と、合成処理回路14と、を有しており、フレーム補間処理やクロスフィルタ処理などを行う。例えば、強調画像生成回路12と合成処理回路14とによりクロスフィルタ処理が行われ、顔検出回路13と合成処理回路14とによりクロスフィルタ除外処理が行われる。 As shown in FIG. 2, the image processing apparatus 4 includes a frame interpolation processing circuit 11, an enhanced image generation circuit 12, a face detection circuit 13, and a synthesis processing circuit 14. Perform filter processing. For example, the emphasized image generation circuit 12 and the composition processing circuit 14 perform cross filter processing, and the face detection circuit 13 and the composition processing circuit 14 perform cross filter exclusion processing.
フレーム補間処理回路11は、フレーム間の画像を補間する処理を行う。具体的には、フレーム補間処理回路11は、フレーム単位で順次入力される入力画像信号により形成されるフレーム単位の画像(以下、「入力画像」という。)間の動きベクトルを検出し、この動きベクトルに基づいて補間画像信号を生成する。このように生成された補間画像信号は、フレーム補間処理回路11により入力画像信号と混合される。 The frame interpolation processing circuit 11 performs processing for interpolating images between frames. Specifically, the frame interpolation processing circuit 11 detects a motion vector between images in units of frames (hereinafter referred to as “input images”) formed by input image signals sequentially input in units of frames. An interpolated image signal is generated based on the vector. The interpolated image signal generated in this way is mixed with the input image signal by the frame interpolation processing circuit 11.
強調画像生成回路12は、入力画像に強調表示を行うための強調画像のラスタデータを生成する。この強調画像は、具体的には光条画像であり、入力画像と合成されることにより、クロスフィルタ処理が行われる。 The emphasized image generation circuit 12 generates raster data of an emphasized image for performing an emphasis display on the input image. The emphasized image is specifically a streak image, and is combined with the input image to perform cross filter processing.
この強調画像生成回路12は、グレースケール変換回路21と、縮小スケーリング回路22と、2値化回路23と、ラベリング回路24と、優先度決定回路25と、選択回路26と、クロスフィルタ処理回路27と、拡大スケーリング回路28と、パターンデータ記憶部29とを有している。パターンデータ記憶部29は、クロスフィルタ処理回路27によって用いられる光条パターンのデータ(以下、「パターンデータ」ともいう。)を記憶している。 The enhanced image generation circuit 12 includes a gray scale conversion circuit 21, a reduction scaling circuit 22, a binarization circuit 23, a labeling circuit 24, a priority determination circuit 25, a selection circuit 26, and a cross filter processing circuit 27. And an expansion scaling circuit 28 and a pattern data storage unit 29. The pattern data storage unit 29 stores light stripe pattern data (hereinafter also referred to as “pattern data”) used by the cross filter processing circuit 27.
グレースケール変換回路21は、入力画像がカラー画像の場合に、この入力画像をグレースケールに変化する処理を行う。すなわち、グレースケール変換回路21は、入力画像を白から黒までの明暗だけで表現し、色の情報は含まない画像に変換する。なお、入力画像のグレースケール変換は、縮小スケーリング回路22による処理の前に実行することにより、縮小スケーリング回路22での処理量を低減させることができる。 When the input image is a color image, the gray scale conversion circuit 21 performs processing for changing the input image to a gray scale. That is, the gray scale conversion circuit 21 expresses the input image only by contrasting from white to black, and converts it into an image that does not include color information. It should be noted that the grayscale conversion of the input image can be performed before the processing by the reduction scaling circuit 22, thereby reducing the processing amount in the reduction scaling circuit 22.
縮小スケーリング回路22は、グレースケール化された入力画像のサイズを所定の縮小率で縮小する処理を行う。この縮小率は、変更可能であり、縮小サイズが小さいほど、クロスフィルタ処理を高速に行うことができる。縮小率の変更は、例えば、入力部6からのユーザによる操作などによって変更することができる。 The reduction scaling circuit 22 performs a process of reducing the size of the gray scaled input image at a predetermined reduction rate. The reduction ratio can be changed, and the smaller the reduction size, the faster the cross filter process can be performed. The reduction rate can be changed by, for example, a user operation from the input unit 6.
2値化回路23は、2値化手段として、グレースケール化及び縮小された入力画像を設定された閾値で2値化して、2値化画像を生成する処理を行う。この閾値は、入力画像の高輝度領域を特定することができる値に設定される。この閾値は、調整が可能であり、例えば、入力部6からのユーザによる操作などによって変更することができる。この閾値の調整により、クロスフィルタ処理を施す領域や範囲を調整することができる。 The binarization circuit 23 performs a process of generating a binarized image by binarizing the grayscale and reduced input image with a set threshold as binarization means. This threshold value is set to a value that can specify a high-luminance region of the input image. This threshold value can be adjusted, and can be changed, for example, by a user operation from the input unit 6. By adjusting the threshold value, it is possible to adjust the area and range to which the cross filter process is performed.
ラベリング回路24は、高輝度領域特定手段として、2値化画像から高輝度領域を特定する処理を行う。具体的には、ラベリング回路24は、2値化画像の高輝度ピクセルが塊で集合した領域を一つの高輝度領域として特定し、このように特定した高輝度領域にそれぞれユニークな識別情報として識別番号を付与する。このラベリング回路24では、予め設定された閾値面積未満の小さな高輝度領域を高輝度領域として特定しないようにしている。高輝度領域を特定するための閾値面積の設定は、調整が可能であり、例えば、入力部6からのユーザによる操作などによって変更することができる。このように、閾値面積未満の高輝度領域を特定しないことにより、後段での処理時間を低減することが可能となる。なお、この閾値面積を大きくすることにより、特定する高輝度領域の数を少なくすることができ、後段での処理時間をさらに低減することが可能となる。 The labeling circuit 24 performs a process of specifying a high brightness area from the binarized image as a high brightness area specifying means. Specifically, the labeling circuit 24 identifies a region in which high-luminance pixels of the binarized image are gathered as a single high-luminance region, and identifies each of the identified high-luminance regions as unique identification information. Give a number. The labeling circuit 24 does not specify a small high luminance area that is smaller than a preset threshold area as a high luminance area. The setting of the threshold area for specifying the high luminance region can be adjusted, and can be changed by, for example, an operation by the user from the input unit 6. In this way, it is possible to reduce the processing time in the subsequent stage by not specifying a high luminance area less than the threshold area. Note that by increasing the threshold area, it is possible to reduce the number of high-luminance areas to be specified, and it is possible to further reduce the processing time in the subsequent stage.
優先度決定回路25は、優先度決定手段として、ラベリング回路24により特定された高輝度領域の優先度を決定して、高輝度領域に優先順位を付与する処理を行う。この優先度決定回路25による優先度の決定は、高輝度領域の大きさに基づいて行われる。例えば、高輝度領域の大きさが大きいほど優先度を高くする。なお、優先度の決定は、高輝度領域の大きさのほか、入力画像に対する高輝度領域の位置や高輝度領域の色相などに基づいて行うこともできる。例えば、高輝度領域の位置が入力画像の中央付近にあるほど優先度が高くなるようにする。また、高輝度領域の大きさと入力画像に対する高輝度領域の位置とに基づくなど、入力部6への入力操作等による設定により、複数の条件を組み合わせて優先度の決定を行うようにすることもできる。なお、2値化画像ではなく、高輝度領域の色相を検出することにより、高輝度領域の優先度の精度を向上させることができるが、図2に示す例では、処理速度を優先するために2値化画像から高輝度領域の優先度の検出を行っている。 The priority determination circuit 25 performs a process of determining the priority of the high luminance area specified by the labeling circuit 24 and assigning priority to the high luminance area as priority determination means. The priority determination by the priority determination circuit 25 is performed based on the size of the high luminance area. For example, the priority is set higher as the size of the high luminance area is larger. Note that the priority can be determined based on the size of the high-luminance area, the position of the high-luminance area with respect to the input image, the hue of the high-luminance area, and the like. For example, the priority is set higher as the position of the high luminance region is near the center of the input image. Further, the priority may be determined by combining a plurality of conditions by setting by an input operation or the like to the input unit 6 such as based on the size of the high luminance area and the position of the high luminance area with respect to the input image. it can. Note that the accuracy of the priority of the high-brightness area can be improved by detecting the hue of the high-brightness area instead of the binarized image. However, in the example shown in FIG. The priority of the high brightness area is detected from the binarized image.
選択回路26は、選択手段として、ラベリング回路24が特定した高輝度領域がn個以上あるとき、優先度の高い高輝度領域から順にn個選択する処理を行う。nは、クロスフィルタ処理を迅速に行うことができる数に設定される。このnは、例えば、入力部6からのユーザによる操作などによって変更することができる。nが大きいほど、クロスフィルタ処理が施される高輝度領域が多くなり、クロスフィルタ処理を高精度に行うことができるが、クロスフィルタ処理に時間がかかる。一方、nが小さいほど、クロスフィルタ処理が施される高輝度領域が少なくなり、クロスフィルタ処理の精度は下がるが、クロスフィルタ処理の時間を低減することができる。なお、このnは、各フレームの入力画像に対してクロスフィルタ処理を施すことが可能な最大数が上限値となり、それ以上は設定変更ができないようになっている。 When there are n or more high-luminance areas specified by the labeling circuit 24, the selection circuit 26 performs a process of selecting n in order from the high-luminance areas with the highest priority. n is set to a number with which the cross filter process can be performed quickly. This n can be changed by, for example, a user operation from the input unit 6. As n increases, more high-luminance regions are subjected to the cross-filter process, and the cross-filter process can be performed with high accuracy, but the cross-filter process takes time. On the other hand, as n is smaller, the number of high-luminance regions that are subjected to cross filter processing decreases, and the accuracy of the cross filter processing decreases, but the time for cross filter processing can be reduced. It should be noted that the maximum number of n that can be subjected to the cross filter process for the input image of each frame is an upper limit value, and the setting cannot be changed beyond that.
クロスフィルタ処理回路27は、ラスタ型のクロスフィルタ処理を行う画像処理手段として、パターンデータ記憶部29に記憶されたパターンデータに基づき、選択回路26で選択した高輝度領域に対してクロスフィルタ処理を施すラスタデータを生成する。このクロスフィルタ処理回路27の処理について、後で詳述する。 The cross filter processing circuit 27 is an image processing unit that performs raster-type cross filter processing, and performs cross filter processing on the high-luminance region selected by the selection circuit 26 based on the pattern data stored in the pattern data storage unit 29. Generate raster data to be applied. The processing of the cross filter processing circuit 27 will be described in detail later.
拡大スケーリング回路28は、画像処理手段として、クロスフィルタ処理回路27で生成された強調画像を所定の拡大率で拡大した強調画像に変換するために、クロスフィルタ処理回路27で生成された強調画像のラスタデータに対して演算処理を行う。拡大スケーリング回路28における拡大率は、縮小スケーリング回路22における縮小率に対応するものであり、入力画像に応じた大きさの強調画像となるように設定される。例えば、縮小率が20%(1/5倍)のとき、拡大率は500%(5倍)となる。 The enlargement / scaling circuit 28 serves as an image processing means for converting the enhanced image generated by the cross filter processing circuit 27 into an enhanced image enlarged at a predetermined enlargement ratio. Arithmetic processing is performed on the raster data. The enlargement ratio in the enlargement scaling circuit 28 corresponds to the reduction ratio in the reduction scaling circuit 22 and is set to be an enhanced image having a size corresponding to the input image. For example, when the reduction ratio is 20% (1/5 times), the enlargement ratio is 500% (5 times).
顔検出回路13は、顔検出手段として、入力画像から人物の顔画像を検出し、顔位置やサイズ情報を出力する処理を行う。顔画像の抽出は、周知の技術であり、例えば、肌色領域の検出や動き検出によって行うことができる。 The face detection circuit 13 performs a process of detecting a human face image from an input image and outputting face position and size information as a face detection unit. Extraction of a face image is a well-known technique, and can be performed, for example, by detecting a skin color area or detecting a motion.
合成処理回路14は、画像処理手段として、拡大スケーリング回路28から出力される強調画像のラスタデータに基づいて、フレーム補間を行った入力画像に強調画像を合成することによって、合成画像を生成する処理を行う。 The synthesis processing circuit 14 is a process for generating a synthesized image by synthesizing the enhanced image with the input image subjected to frame interpolation based on the raster data of the enhanced image output from the enlargement scaling circuit 28 as image processing means. I do.
また、合成処理回路14は、顔検出回路13から出力される顔位置やサイズ情報に基づいて人物の顔画像を検出し、この顔画像を前記合成画像に上書きして、出力画像として出力する。このように顔画像を合成画像に上書きすることで、人物の顔に強調画像が合成されるような場合であっても、人物の顔から強調画像を取り除くことができるため、人物を撮像するときに強調画像によって人物の顔が分からなくなるといった問題を回避することができる。なお、入力画像に強調画像を合成する前に、顔検出回路13から出力される顔位置やサイズ情報に基づき、強調画像のラスタデータから人物の顔部分の領域のラスタデータを除外した後に、この強調画像のラスタデータに基づき、入力画像に強調画像を合成することもできる。 The synthesis processing circuit 14 detects a human face image based on the face position and size information output from the face detection circuit 13, overwrites the face image on the synthesized image, and outputs the image as an output image. Thus, by overwriting the face image on the synthesized image, the enhanced image can be removed from the person's face even when the enhanced image is synthesized with the person's face. In addition, it is possible to avoid the problem that the face of the person cannot be recognized due to the emphasized image. Before combining the enhanced image with the input image, after excluding the raster data of the person's face area from the raster data of the enhanced image based on the face position and size information output from the face detection circuit 13, Based on the raster data of the enhanced image, the enhanced image can be combined with the input image.
このように、動画像の記録時の画像処理装置4では、強調画像生成回路12と合成処理回路14とによりクロスフィルタ処理が行うことで、クロスフィルタなどのように高輝度領域を強調表示した画像を生成するための処理量を大幅に低減することができる。また、顔検出回路13と合成処理回路14とによりクロスフィルタ除外処理を行うことで、人の顔を処理から除外することができ、レンズフィルタで実現できなかったクロスフィルタ効果を得ることができる。 As described above, in the image processing device 4 at the time of recording a moving image, the enhanced image generation circuit 12 and the synthesis processing circuit 14 perform the cross filter process, so that an image in which a high luminance area is highlighted as in a cross filter or the like. The processing amount for generating can be significantly reduced. Further, by performing cross filter exclusion processing by the face detection circuit 13 and the synthesis processing circuit 14, a human face can be excluded from the processing, and a cross filter effect that cannot be realized by a lens filter can be obtained.
次に、静止画像用クロスフィルタ処理を行う回路構成について図3を参照して説明する。なお、上述した要素と同様の機能を有する要素は同一符号を付して、以下において説明を省略するものとする。 Next, a circuit configuration for performing the still image cross filter processing will be described with reference to FIG. In addition, the element which has the same function as the element mentioned above attaches | subjects the same code | symbol, and shall abbreviate | omit description below.
図3に示すように、画像処理装置4は、強調画像生成回路12’と、合成処理回路14’と、顔検出回路13と、を有しており、フレーム補間処理やクロスフィルタ処理などを行う。例えば、強調画像生成回路12’と合成処理回路14’とによりクロスフィルタ処理が行われ、顔検出回路13と合成処理回路14’とによりクロスフィルタ除外処理が行われる。 As shown in FIG. 3, the image processing apparatus 4 includes an enhanced image generation circuit 12 ′, a synthesis processing circuit 14 ′, and a face detection circuit 13, and performs frame interpolation processing, cross filter processing, and the like. . For example, cross filter processing is performed by the enhanced image generation circuit 12 ′ and the synthesis processing circuit 14 ′, and cross filter exclusion processing is performed by the face detection circuit 13 and the synthesis processing circuit 14 ′.
強調画像生成回路12’は、強調画像生成回路12と同様に、入力画像に強調表示を行うための強調画像のベクタデータを生成する。この強調画像は、具体的には光条画像であり、入力画像と合成されることにより、クロスフィルタ処理が行われる。 The enhanced image generation circuit 12 ′, like the enhanced image generation circuit 12, generates enhanced image vector data for emphasizing the input image. The emphasized image is specifically a streak image, and is combined with the input image to perform cross filter processing.
この強調画像生成回路12’では、グレースケール変換回路21と、2値化回路23と、ラベリング回路24と、クロスフィルタ処理回路27’と、パターンデータ記憶部29とを有している。この強調画像生成回路12’では、上記強調画像生成回路12と異なり、入力画像の縮小や強調画像の拡大などの処理を行わず、また、強調画像を付加する高輝度領域の数を制限していない。また、クロスフィルタ処理回路27’において、後述のようにベクタ型のクロスフィルタ処理を行っている。これにより、この静止画像の記録時には、処理時間はかかるものの、動画像に対するクロスフィルタ処理に比べて綺麗なクロスフィルタ処理を行うようにしている。 The emphasized image generation circuit 12 ′ includes a gray scale conversion circuit 21, a binarization circuit 23, a labeling circuit 24, a cross filter processing circuit 27 ′, and a pattern data storage unit 29. Unlike the above-described enhanced image generation circuit 12, the enhanced image generation circuit 12 ′ does not perform processing such as reduction of the input image or enlargement of the enhanced image, and limits the number of high luminance areas to which the enhanced image is added. Absent. Further, in the cross filter processing circuit 27 ', vector type cross filter processing is performed as described later. As a result, when this still image is recorded, although processing time is required, a fine cross filter process is performed compared to the cross filter process for a moving image.
クロスフィルタ処理回路27’は、パターンデータ記憶部29に記憶されたパターンデータに基づき、ラベリング回路24により特定された高輝度領域に対してクロスフィルタ処理を施すベクタデータを生成する。具体的には、クロスフィルタ処理回路27’は、ラベリング回路24で特定した高輝度領域を構成するピクセルのそれぞれに対してパターンデータを割り当て、全てのピクセルに対してパターンデータの割り当てを行うことにより強調画像のベクタデータを生成する。 Based on the pattern data stored in the pattern data storage unit 29, the cross filter processing circuit 27 'generates vector data for performing the cross filter process on the high luminance area specified by the labeling circuit 24. Specifically, the cross filter processing circuit 27 ′ assigns pattern data to each of the pixels constituting the high luminance area specified by the labeling circuit 24, and assigns the pattern data to all the pixels. Generate vector data for the enhanced image.
合成処理回路14’は、画像処理手段として、クロスフィルタ処理回路27’から出力される強調画像のベクタデータに基づいて、入力画像に強調画像を合成して、合成画像を生成する処理を行う。また、合成処理回路14’は、合成処理回路14と同様に、顔検出回路13から出力される顔位置やサイズ情報に基づいて人物の顔画像を検出し、この顔画像を前記合成画像に上書きして、出力画像として出力する。このように顔画像を合成画像に上書きすることで、人物の顔に強調画像が合成される場合であっても、人物の顔から強調画像を取り除くことができるため、人物を撮像するときに強調画像によって人物の顔が分からなくなるといった問題を回避することができる。 As an image processing unit, the synthesis processing circuit 14 ′ performs a process of generating a synthesized image by synthesizing the enhanced image with the input image based on the vector data of the enhanced image output from the cross filter processing circuit 27 ′. Similarly to the composition processing circuit 14, the composition processing circuit 14 ′ detects a human face image based on the face position and size information output from the face detection circuit 13, and overwrites the face image on the composite image. And output as an output image. By overwriting the face image on the composite image in this way, even when the emphasized image is combined with the person's face, the emphasized image can be removed from the person's face. It is possible to avoid the problem that the face of a person cannot be understood by the image.
このように、静止画像の記録時の画像処理装置4では、動画像の記録時などに比べ、入力画像の縮小や強調画像の拡大などの処理を行わず、また、強調画像を付加する高輝度領域の数の制限を行っていない。そのため、時間がかかるが綺麗なクロスフィルタ処理を行った静止画像を出力できる。また、顔検出回路13と合成処理回路14とによりクロスフィルタ除外処理を行うことで、人の顔を処理から除外する機能によって、レンズフィルタで実現できなかったクロスフィルタ効果を得ることができる。 As described above, the image processing apparatus 4 at the time of recording a still image does not perform processing such as reduction of the input image or enlargement of the emphasized image, and high brightness for adding the emphasized image, compared with the case of recording the moving image. There is no limit on the number of areas. Therefore, it is possible to output a still image that takes time but is subjected to beautiful cross filter processing. Further, by performing the cross filter exclusion process by the face detection circuit 13 and the synthesis processing circuit 14, a cross filter effect that cannot be realized by the lens filter can be obtained by the function of excluding a human face from the process.
[3.画像処理装置4の処理動作]
以上のように構成された画像処理装置4の処理動作について、図4〜図14を参照して具体的に説明する。なお、ここでは、動画像の記録時などにおける画像処理装置4の処理動作について説明する。
[3. Processing operation of image processing apparatus 4]
The processing operation of the image processing apparatus 4 configured as described above will be specifically described with reference to FIGS. Here, the processing operation of the image processing apparatus 4 at the time of recording a moving image will be described.
画像処理装置4に入力画像が入力されたときに、画像処理装置4による処理が開始される。入力画像として、例えば、夜間の灯台を被写体としたカラー画像が、高輝度領域がある画像が画像処理装置4に入力されたとする。 When an input image is input to the image processing device 4, processing by the image processing device 4 is started. As an input image, for example, it is assumed that a color image having a night lighthouse as a subject and an image having a high luminance area are input to the image processing device 4.
画像処理装置4に入力された入力画像は、グレースケール変換回路21に入力され、図4に示すように、白から黒までの明暗だけで表現したグレースケール画像に変換される。 The input image input to the image processing apparatus 4 is input to the gray scale conversion circuit 21 and converted into a gray scale image expressed only by light and dark from white to black, as shown in FIG.
グレースケール変換された入力画像のデータは、図5に示すように、縮小スケーリング回路22により所定の縮小率で縮小されて2値化回路23に入力される。2値化回路23では、グレースケール化及び縮小された入力画像を設定された閾値で2値化して、図6に示すように、2値化画像を生成し、この2値化画像のデータをラベリング回路24へ出力する。 As shown in FIG. 5, the input image data subjected to the gray scale conversion is reduced by the reduction scaling circuit 22 at a predetermined reduction rate and is input to the binarization circuit 23. The binarization circuit 23 binarizes the input image that has been grayscaled and reduced with a set threshold value to generate a binarized image as shown in FIG. Output to the labeling circuit 24.
ラベリング回路24は、2値化画像から高輝度領域を特定する処理を行う。具体的には、ラベリング回路24は、2値化画像の高輝度ピクセルが塊で集合した領域のうち予め設定された閾値面積以上の領域を、高輝度領域として特定して抽出する。さらに、ラベリング回路24は、識別情報として、図7に示すように、特定した高輝度領域にそれぞれユニークな識別番号を付与する。なお、付与する識別番号は、高輝度領域を識別するための識別情報であり、重複がなければ番号ではなく記号などであってもよい。 The labeling circuit 24 performs a process of specifying a high luminance area from the binarized image. Specifically, the labeling circuit 24 identifies and extracts a region having a predetermined threshold area or more as a high-luminance region among regions where the high-luminance pixels of the binarized image are gathered in a lump. Further, as shown in FIG. 7, the labeling circuit 24 assigns a unique identification number to each identified high-luminance area as identification information. The identification number to be assigned is identification information for identifying the high-luminance region, and may be a symbol instead of a number if there is no overlap.
ラベリング回路24は、特定した高輝度領域のラスタデータを識別番号に関連づけて優先度決定回路25へ出力する。優先度決定回路25では、ラベリング回路24により特定された高輝度領域の優先度を決定して、高輝度領域に優先順位を付与する。ここでは、優先度の決定を、高輝度領域の大きさに基づいて行っている。図8に示す例では、識別番号1,2,3,4,5,6,7,8,9の高輝度領域に対して、6,4,5,3,1,2,8,9,7の優先度が割り当てられている。なお、この例では、番号が若いほど優先度が高い。 The labeling circuit 24 associates the identified high-brightness area raster data with the identification number and outputs it to the priority determination circuit 25. The priority determination circuit 25 determines the priority of the high luminance area specified by the labeling circuit 24, and gives priority to the high luminance area. Here, the priority is determined based on the size of the high luminance area. In the example shown in FIG. 8, 6, 4, 5, 3, 1, 2, 8, 9, A priority of 7 is assigned. In this example, the lower the number, the higher the priority.
優先度決定回路25は、ラベリング回路24により特定され、識別番号が関連づけられた高輝度領域のラスタデータに、それぞれ優先度の情報を付加して、選択回路26へ出力する。 The priority determination circuit 25 adds priority information to the raster data of the high luminance region specified by the labeling circuit 24 and associated with the identification number, and outputs the raster data to the selection circuit 26.
選択回路26は、優先度決定回路25から入力される情報に基づき、ラベリング回路24が特定した高輝度領域がn個以上あると判定すると、優先度の高い高輝度領域から順にn個選択する。図9に示す例では、nを3としており、優先度の高い高輝度領域として識別番号4,5,6の高輝度領域が選択されている。 When the selection circuit 26 determines that there are n or more high-luminance areas specified by the labeling circuit 24 based on the information input from the priority determination circuit 25, the selection circuit 26 selects n in order from the high-luminance areas with the highest priority. In the example shown in FIG. 9, n is set to 3, and the high-brightness areas with the identification numbers 4, 5, and 6 are selected as high-brightness areas with high priority.
選択回路26は、選択した高輝度領域のラスタデータを識別番号に関連づけてクロスフィルタ処理回路27へ出力する。クロスフィルタ処理回路27は、パターンデータ記憶部29に記憶された光条パターン(図10参照)のデータに基づき、選択回路26で選択した高輝度領域に対してクロスフィルタ処理を施すラスタデータを生成する。すなわち、クロスフィルタ処理回路27は、後述するラスタ型のクロスフィルタ処理により、図11に示すような強調画像のラスタデータを生成する。 The selection circuit 26 associates the raster data of the selected high-luminance area with the identification number and outputs it to the cross filter processing circuit 27. The cross filter processing circuit 27 generates raster data for performing the cross filter process on the high luminance region selected by the selection circuit 26 based on the data of the light stripe pattern (see FIG. 10) stored in the pattern data storage unit 29. To do. That is, the cross filter processing circuit 27 generates raster data of an emphasized image as shown in FIG. 11 by raster type cross filter processing described later.
クロスフィルタ処理回路27で生成された強調画像のラスタデータは、拡大スケーリング回路28に入力される。拡大スケーリング回路28は、図12に示すように、クロスフィルタ処理回路27で生成された強調画像を所定の拡大率で拡大した強調画像とするために、クロスフィルタ処理回路27で生成された強調画像のラスタデータに対して演算処理を行う。 The raster data of the emphasized image generated by the cross filter processing circuit 27 is input to the enlargement scaling circuit 28. As shown in FIG. 12, the enlargement scaling circuit 28 uses the enhanced image generated by the cross filter processing circuit 27 in order to make the enhanced image generated by the cross filter processing circuit 27 enlarged at a predetermined enlargement ratio. The arithmetic processing is performed on the raster data.
合成処理回路14は、拡大スケーリング回路28から出力される強調画像のラスタデータに基づいて、フレーム補間を行った入力画像に強調画像を合成して、図13に示すように、合成画像を生成する。なお、合成処理回路14は、顔検出回路13から出力される顔位置やサイズ情報に基づいて人物の顔画像を合成画像に上書きする機能を有しているが、図4に示す画像には、人物の画像が含まれていないため、顔検出回路13での検出は行われず、顔画像の上書きも行わない。なお、入力画像に人物の顔画像が含まれている場合、合成処理回路14は、例えば、図14に示すように、顔検出回路13から出力される顔位置やサイズ情報に基づいて人物の顔画像を合成画像に上書きした顔除外合成画像を生成する。 The synthesis processing circuit 14 synthesizes the enhanced image with the input image subjected to frame interpolation based on the raster data of the enhanced image output from the enlargement / scaling circuit 28, and generates a synthesized image as shown in FIG. . Note that the synthesis processing circuit 14 has a function of overwriting a person's face image on the synthesized image based on the face position and size information output from the face detection circuit 13, but the image shown in FIG. Since no human image is included, the detection by the face detection circuit 13 is not performed, and the face image is not overwritten. Note that if the input image includes a human face image, the synthesis processing circuit 14, for example, as shown in FIG. 14, the human face based on the face position and size information output from the face detection circuit 13. A face-excluded composite image is generated by overwriting the image on the composite image.
以上のように、本実施形態に係る画像処理装置では、縮小スケーリング回路22により入力画像を縮小した画像に基づいて強調画像を生成してクロスフィルタ処理を行っているので、高輝度領域の特定処理、高輝度領域の選択処理、強調画像の生成処理などを高速に行うことができる。 As described above, in the image processing apparatus according to the present embodiment, the emphasized image is generated based on the image obtained by reducing the input image by the reduction scaling circuit 22 and the cross filter process is performed. In addition, high-luminance area selection processing, enhanced image generation processing, and the like can be performed at high speed.
また、ラベリング回路24により、閾値面積未満の小さな高輝度領域は、高輝度領域として特定しないようにしているため、これによっても、高輝度領域の選択処理、強調画像の生成処理などを高速に行うことができる。 Further, since the labeling circuit 24 does not specify a small high-brightness area less than the threshold area as a high-brightness area, the high-brightness area selection process, the enhanced image generation process, and the like are also performed at high speed. be able to.
さらに、選択回路26において、ラベリング回路24が特定した高輝度領域がn個以上あるとき、優先度の高い高輝度領域から順にn個選択する処理を行っているため、高輝度領域が多数存在するときであっても、強調画像の生成処理を一定時間内に行うことができる。その為、撮像機器1が動画像モードの場合であっても、リアルタイムでクロスフィルタ処理を実行することができる。 Further, in the selection circuit 26, when there are n or more high-luminance regions specified by the labeling circuit 24, a process of selecting n in order from the high-luminance region with the highest priority is performed, so there are many high-luminance regions. Even at times, the enhanced image generation process can be performed within a certain period of time. Therefore, even when the imaging device 1 is in the moving image mode, the cross filter process can be executed in real time.
[4.クロスフィルタ回路の動作]
次に、クロスフィルタ回路の動作について図面を参照してさらに具体的に説明する。なお、ここでは、図面の理解を容易にするために、便宜上、強調画像を光条画像ではなく星形状の画像として表している。
[4. Operation of cross filter circuit]
Next, the operation of the cross filter circuit will be described more specifically with reference to the drawings. Here, in order to facilitate understanding of the drawings, for the sake of convenience, the emphasized image is represented as a star-shaped image instead of a light stripe image.
従来のクロスフィルタ処理は、ベクタ型のクロスフィルタ処理であり、高輝度領域を構成するピクセルのそれぞれに対してパターンデータを割り当て、全てのピクセルに対してパターンデータの割り当てを行うことにより光条画像である強調画像を生成する。すなわち、高輝度領域を構成するピクセルのそれぞれに対して光条パターンの面積分の回数だけ積分処理を行うことになる。そのため、高輝度領域を構成するピクセルが多くなればなるほど、処理量が増加する。また、図15に示すように、高輝度領域の面積により強調画像の拡大率を変更する処理を行う場合、拡大面積に比例して処理量が増加する。 Conventional cross-filter processing is vector-type cross-filter processing, in which pattern data is assigned to each of the pixels constituting the high-luminance region, and pattern data is assigned to all the pixels, thereby creating a stripe image. To generate an enhanced image. That is, the integration process is performed for each pixel constituting the high luminance area by the number of times corresponding to the area of the light stripe pattern. For this reason, the processing amount increases as the number of pixels constituting the high luminance region increases. Further, as shown in FIG. 15, when processing for changing the enlargement ratio of the emphasized image is performed according to the area of the high luminance region, the processing amount increases in proportion to the enlargement area.
そこで、本実施形態に係る画像処理装置4では、クロスフィルタ処理回路27において、その処理量を低減することができるように、ラスタ型のクロスフィルタ処理を行っている。 Therefore, in the image processing apparatus 4 according to this embodiment, the cross filter processing circuit 27 performs raster type cross filter processing so that the processing amount can be reduced.
図16は従来のベクタ型クロスフィルタ処理の説明図であり、図17はラスタ型クロスフィルタ処理の説明図である。 FIG. 16 is an explanatory diagram of conventional vector type cross filter processing, and FIG. 17 is an explanatory diagram of raster type cross filter processing.
従来のベクタ型クロスフィルタ処理では、図16に示すように、対象画像の全ての領域に対してクロスフィルタ処理を行っていた。これに対し、図17に示すラスタ型のクロスフィルタ処理では、パターンデータについてクロスフィルタの拡大率を勘案して対象画像の対象領域に対して拡大率の単位で飛び飛びにクロスフィルタ処理を行う。すなわち、クロスフィルタ処理回路27では、高輝度領域の面積に関わらず、一つの高輝度領域に対して、パターンデータを構成するピクセル数だけ、積分処理が行われることになる。また、クロスフィルタ処理回路27は、高輝度領域の面積が大きくなるほど、パターンデータのサイズが大きくなるようにパターンデータを拡大する処理を行う。 In the conventional vector type cross filter processing, as shown in FIG. 16, the cross filter processing is performed on all regions of the target image. On the other hand, in the raster-type cross filter processing shown in FIG. 17, the cross filter processing is performed in a unit of enlargement ratio on the target area of the target image in consideration of the enlargement ratio of the cross filter for the pattern data. That is, in the cross filter processing circuit 27, integration processing is performed for the number of pixels constituting the pattern data for one high-luminance region regardless of the area of the high-luminance region. Further, the cross filter processing circuit 27 performs a process of enlarging the pattern data so that the size of the pattern data becomes larger as the area of the high luminance region becomes larger.
このようにクロスフィルタ処理回路27では、ラスタ型のクロスフィルタ処理を行うことにより、強調画像はギザギザが目立つようになるものの、ピクセル当たりの処理量がクロスフィルタの拡大率に処理量が依存しなくなり、高速でクロスフィルタ処理を実行できる。 In this way, the cross filter processing circuit 27 performs raster type cross filter processing, so that the emphasis image becomes jagged, but the processing amount per pixel does not depend on the enlargement rate of the cross filter. Cross filter processing can be executed at high speed.
図18にベクタ型とラスタ型のクロスフィルタ処理結果の実際の違いを示す。図18(a)はベクタ型のクロスフィルタ処理結果を示し、図18(b)はラスタ型のクロスフィルタ処理結果を示す。 FIG. 18 shows the actual difference between the vector type and raster type cross filter processing results. FIG. 18A shows a vector type cross filter processing result, and FIG. 18B shows a raster type cross filter processing result.
本実施形態に係る撮像機器1では、例えば、静止画像モードにおいて、動画モニタリング時には、図2に示す回路により、図17に示すラスタ型のクロスフィルタ処理を行って、高速なクロスフィルタ処理を行い、この処理結果をモニタ(図示せず)に表示する。撮像機器1のモニタは、記録する画像の解像度よりも低い解像度のモニタを使用しており、ラスタ型クロスフィルタを用いることでリアルタイムにクロスフィルタ処理が行われる。また、静止画像の記録時には、図3に示す回路により、処理時間をかけて図16に示すベクタ型のクロスフィルタ処理を行うことにより、綺麗なクロスフィルタ処理結果を得ることができる。 In the imaging device 1 according to the present embodiment, for example, in the still image mode, at the time of moving image monitoring, the circuit shown in FIG. 2 performs the raster-type cross filter processing shown in FIG. The processing result is displayed on a monitor (not shown). The monitor of the imaging device 1 uses a monitor having a resolution lower than the resolution of the image to be recorded, and cross filter processing is performed in real time by using a raster type cross filter. Further, when a still image is recorded, a beautiful cross filter processing result can be obtained by performing the vector type cross filter processing shown in FIG. 16 over the processing time shown in FIG.
[5.画像処理装置の第1変形例]
上述の画像処理装置4では、1フレーム毎の入力画像に対してクロスフィルタ処理を行ったが、入力部6へのユーザの入力操作などにより、複数フレーム単位の入力画像に対して同一の強調画像によるクロスフィルタ処理を行うようにしてもよい。
[5. First Modification of Image Processing Device]
In the image processing apparatus 4 described above, the cross filter process is performed on the input image for each frame, but the same enhanced image is applied to the input image in units of a plurality of frames by a user input operation to the input unit 6 or the like. The cross filter processing by may be performed.
すなわち、強調画像生成回路12において、入力画像の複数フレームの単位で強調画像を生成し、合成処理回路14において、複数フレームの入力画像にそれぞれ同一の強調画像をそれぞれ合成するのである。なお、クロスフィルタ処理回路27と合成処理回路14との間には、クロスフィルタ処理回路27で生成した強調画像を保持するフレームバッファ回路31が設けられる。また、フレーム補間処理回路11と合成処理回路14との間には、フレーム補間処理回路11により補間処理が施された入力画像を保持するフレームバッファ回路32が設けられる。 That is, the enhanced image generation circuit 12 generates an enhanced image in units of a plurality of frames of the input image, and the synthesis processing circuit 14 synthesizes the same enhanced image with the input images of the plurality of frames. A frame buffer circuit 31 that holds the enhanced image generated by the cross filter processing circuit 27 is provided between the cross filter processing circuit 27 and the synthesis processing circuit 14. In addition, a frame buffer circuit 32 that holds an input image subjected to the interpolation processing by the frame interpolation processing circuit 11 is provided between the frame interpolation processing circuit 11 and the composition processing circuit 14.
このようにすることで、動画のフレームレートに対してクロスフィルタの処理が間に合わない場合であっても、フレームレートが高速な動画に対してもクロスフィルタ処理を施すことが可能となる。 In this way, even when the cross filter processing cannot keep up with the frame rate of the moving image, the cross filter processing can be performed even on a moving image with a high frame rate.
また、複数フレームの入力画像にそれぞれ同一の強調画像をそれぞれ合成する処理(以下、「複数フレーム単位処理」とする。)は、動きの少ない動画像の場合には、クロスフィルタ処理の処理品質がそれほど悪くならない。従って、例えば、動画像の動きを検出する検出部を設け、動画像の動きが少ない場合には、フレーム単位のクロスフィルタ処理に替えて、このフレーム単位のクロスフィルタ処理を行うことで消費電力を低減することも可能となる。 Further, the process of synthesizing the same emphasized image with each of the input images of a plurality of frames (hereinafter referred to as “multiple frame unit process”) has a processing quality of cross filter processing in the case of a moving image with little motion. Not so bad. Therefore, for example, a detection unit that detects the motion of a moving image is provided, and when the motion of the moving image is small, the power consumption can be reduced by performing the cross filter processing in units of frames instead of the cross filter processing in units of frames. It can also be reduced.
以下、図19〜図22を参照して、上記複数フレーム単位処理について具体的に説明する。ここでは、3フレームを一つの単位とした複数フレーム単位処理について説明する。また、図19〜図22においては、理解を容易にするため、一部の回路を省略している。 Hereinafter, with reference to FIGS. 19 to 22, the above-described multi-frame unit processing will be specifically described. Here, a description will be given of multi-frame unit processing using three frames as one unit. 19 to 22, some circuits are omitted for easy understanding.
図19に示すように、1フレーム目の入力画像は、クロスフィルタ処理回路27に入力され、さらに、フレーム補間処理回路11を介してフレームバッファ回路32に入力される。このとき、1フレーム目の入力画像は、フレームバッファ回路32に蓄積されて合成処理回路14には入力されず、合成画像は出力されない。 As shown in FIG. 19, the input image of the first frame is input to the cross filter processing circuit 27 and further input to the frame buffer circuit 32 via the frame interpolation processing circuit 11. At this time, the input image of the first frame is accumulated in the frame buffer circuit 32 and is not input to the synthesis processing circuit 14, and the synthesized image is not output.
次に、2フレーム目の入力画像が入力されると、この入力画像は、クロスフィルタ処理回路27へ入力されず、フレームバッファ回路32のみに入力される。このとき、1フレーム目の入力画像及び2フレーム目の入力画像は、フレームバッファ回路32に蓄積されて合成処理回路14には入力されず、合成画像は出力されない。 Next, when the input image of the second frame is input, this input image is not input to the cross filter processing circuit 27 but is input only to the frame buffer circuit 32. At this time, the input image of the first frame and the input image of the second frame are accumulated in the frame buffer circuit 32 and are not input to the synthesis processing circuit 14, and the synthesized image is not output.
図20に示すように、3フレーム目の入力画像が入力されるまでに、クロスフィルタ処理回路27での強調画像の生成が終了し、この強調画像がフレームバッファ回路31に蓄積される。そして、3フレーム目の入力画像が入力されると、合成処理回路14は、フレームバッファ回路32から読み出した1フレーム目の入力画像と、フレームバッファ回路31から読み出した強調画像とを加算合成処理を行い、出力画像として出力する。 As shown in FIG. 20, until the input image of the third frame is input, the generation of the emphasized image in the cross filter processing circuit 27 is completed, and this emphasized image is accumulated in the frame buffer circuit 31. When the input image of the third frame is input, the composition processing circuit 14 adds and combines the input image of the first frame read from the frame buffer circuit 32 and the emphasized image read from the frame buffer circuit 31. And output as an output image.
次に、4フレーム目の入力画像が入力されると、この4フレーム目の入力画像は、図21に示すように、1フレーム目の入力画像と同様に、クロスフィルタ処理回路27とフレームバッファ回路32に入力される。合成処理回路14は、フレームバッファ回路32から読み出した2フレーム目の入力画像と、フレームバッファ回路31から読み出した強調画像とを加算合成処理を行い、出力画像として出力する。このときの強調画像は、1フレーム目の入力画像に基づいて生成した強調画像である。 Next, when the input image of the fourth frame is input, the input image of the fourth frame is similar to the input image of the first frame, as shown in FIG. 32. The synthesis processing circuit 14 performs addition synthesis processing on the input image of the second frame read from the frame buffer circuit 32 and the emphasized image read from the frame buffer circuit 31, and outputs the result as an output image. The enhanced image at this time is an enhanced image generated based on the input image of the first frame.
次に、5フレーム目の入力画像が入力されると、この5フレーム目の入力画像は、図21に示すように、2フレーム目の入力画像と同様に、クロスフィルタ処理回路27へ入力されず、フレームバッファ回路32のみに入力される。合成処理回路14は、フレームバッファ回路32から読み出した3フレーム目の入力画像と、フレームバッファ回路31から読み出した強調画像とを加算合成処理を行い、出力画像として出力する。このときの強調画像は、1フレーム目の入力画像に基づいて生成した強調画像である。 Next, when the input image of the fifth frame is input, the input image of the fifth frame is not input to the cross filter processing circuit 27 as in the case of the input image of the second frame, as shown in FIG. The signal is input only to the frame buffer circuit 32. The synthesis processing circuit 14 performs addition synthesis processing on the input image of the third frame read from the frame buffer circuit 32 and the emphasized image read from the frame buffer circuit 31, and outputs the result as an output image. The enhanced image at this time is an enhanced image generated based on the input image of the first frame.
また、図22示すように、6フレーム目の入力画像が入力されるまでに、クロスフィルタ処理回路27での強調画像の生成が終了し、この強調画像がフレームバッファ回路31に蓄積される。このときの強調画像は、4フレーム目の入力画像に基づいて生成した強調画像である。そして、6フレーム目の入力画像が入力されると、合成処理回路14は、フレームバッファ回路32から読み出した4フレーム目の入力画像と、フレームバッファ回路31から読み出した強調画像とを加算合成処理を行い、出力画像として出力する。 Also, as shown in FIG. 22, the generation of the emphasized image in the cross filter processing circuit 27 is completed until the input image of the sixth frame is input, and this emphasized image is accumulated in the frame buffer circuit 31. The enhanced image at this time is an enhanced image generated based on the input image of the fourth frame. Then, when the input image of the sixth frame is input, the synthesis processing circuit 14 adds and combines the input image of the fourth frame read from the frame buffer circuit 32 and the emphasized image read from the frame buffer circuit 31. And output as an output image.
その後、4〜6フレーム目の処理と同様の処理を繰り返し行うことで、3フレームに1回のクロスフィルタ処理を実行する。この処理を行うことで、動画のフレームレートに対してクロスフィルタの処理が間に合わない場合であっても、フレームレートが高速な動画に対してもクロスフィルタ処理を施すことが可能となる。なお、このように複数フレームの入力画像に対して同一のクロスフィルタ処理を行う場合には、選択回路26において選択する高輝度領域の上限値nは、当該複数フレームの入力画像が入力される時間に、クロスフィルタ処理を施すことが可能な最大数となる。 Thereafter, the same processing as the processing in the 4th to 6th frames is repeatedly performed to execute the cross filter processing once in 3 frames. By performing this process, it is possible to perform the cross filter process even on a moving picture with a high frame rate even if the cross filter process cannot keep up with the frame rate of the moving picture. When the same cross filter processing is performed on an input image of a plurality of frames as described above, the upper limit value n of the high luminance region selected by the selection circuit 26 is the time when the input image of the plurality of frames is input. And the maximum number that can be subjected to the cross filter processing.
[6.画像処理装置の第2変形例]
上述の画像処理装置では、クロスフィルタ処理に用いるパターンデータを色毎に設けていないが、第2変形例の画像処理装置では、色毎にパターンデータを設けている。例えば、図23に示すように、R(赤色),G(緑色),B(青色),Y(黄色)のそれぞれのパターンデータをパターンデータ記憶部49に記憶する。
[6. Second Modification of Image Processing Device]
In the image processing apparatus described above, the pattern data used for the cross filter processing is not provided for each color, but in the image processing apparatus of the second modification, pattern data is provided for each color. For example, as shown in FIG. 23, each pattern data of R (red), G (green), B (blue), and Y (yellow) is stored in the pattern data storage unit 49.
第2変形例の画像処理装置では、グレースケール変換回路21を設けておらず、カラーの入力画像が2値化回路43に入力される。この2値化回路43では、2値化手段として、閾値の条件を色空間で決定している。すなわち、2値化回路43には、R,G,B,Yのそれぞれの閾値が設定されており、この2値化回路43は、入力画像におけるR,G,B,Yのそれぞれの色の輝度を抽出し、R,G,B,Yのそれぞれの単一色画像を生成する。そして、2値化回路43は、R,G,B,Yのそれぞれの単一色画像を各閾値に基づき、2値化画像を生成する。その後、2値化回路43は、各2値化画像のデータをラベリング回路24へ出力する。 In the image processing apparatus of the second modified example, the gray scale conversion circuit 21 is not provided, and a color input image is input to the binarization circuit 43. In the binarization circuit 43, threshold conditions are determined in the color space as binarization means. That is, threshold values for R, G, B, and Y are set in the binarization circuit 43, and the binarization circuit 43 sets the colors of R, G, B, and Y in the input image. The luminance is extracted, and single color images of R, G, B, and Y are generated. Then, the binarization circuit 43 generates a binarized image based on each single color image of R, G, B, and Y based on each threshold value. Thereafter, the binarization circuit 43 outputs each binarized image data to the labeling circuit 24.
ラベリング回路44は、高輝度領域特定手段として、R,G,B,Yのそれぞれの2値化色画像毎に、高輝度領域の特定を行う。ラベリング回路44は、特定した高輝度領域のラスタデータを識別番号に関連づけて優先度決定回路25へ出力する。高輝度領域の特定方法は、ラベリング回路24と同様である。なお、入力部6からのユーザによる操作などによって、2値化色画像毎に、閾値面積を変更するようにすることも可能である。 The labeling circuit 44 specifies a high luminance area for each of the binary color images of R, G, B, and Y as a high luminance area specifying means. The labeling circuit 44 associates the identified high-luminance area raster data with the identification number and outputs it to the priority determination circuit 25. The method for specifying the high luminance region is the same as that of the labeling circuit 24. It should be noted that the threshold area can be changed for each binarized color image by a user operation from the input unit 6 or the like.
優先度決定回路45は、優先度決定手段として、R,G,B,Yのそれぞれの高輝度領域のラスタデータ毎に、高輝度領域の優先度を決定し、ラスタデータ毎に、それぞれ優先度の情報を付加して、選択回路26へ出力する。優先度の決定の処理は、優先度決定回路25と同様である。なお、入力部6からのユーザによる操作などによって、2値化色画像毎に、優先度の決定条件を変更することも可能である。 The priority determination circuit 45 determines the priority of the high luminance area for each raster data of each of the high luminance areas R, G, B, and Y as the priority determination means, and the priority for each raster data. Is added to the selection circuit 26. The priority determination process is the same as that of the priority determination circuit 25. Note that the priority determination condition can be changed for each binarized color image by a user operation from the input unit 6.
選択回路46は、選択手段として、単一色画像毎に高輝度領域の選択を行う。すなわち、選択回路46は、優先度決定回路25から入力される優先度の情報に基づき、R,G,B,Yの色毎に、ラベリング回路24が特定した高輝度領域がn個以上あるか否かを判定し、高輝度領域がn個以上あるときには、優先度の高い高輝度領域から順にn個選択する。 The selection circuit 46 selects a high luminance area for each single color image as selection means. That is, the selection circuit 46 determines whether there are n or more high-luminance regions specified by the labeling circuit 24 for each of R, G, B, and Y colors based on the priority information input from the priority determination circuit 25. If there are n or more high-luminance regions, n are selected in order from the high-luminance region with the highest priority.
クロスフィルタ処理回路47は、画像処理手段として、R,G,B,Yの色毎に、選択回路46により選択された高輝度領域を強調表示する強調画像を、パターンデータ記憶部49に記憶した各色のパターンデータに基づいて生成する。クロスフィルタ処理回路47によって生成された各色の強調画像は、合成処理回路50に入力される。合成処理回路50では、各処理の強調画像を入力画像に加算合成処理を行って、合成画像を生成する。 The cross filter processing circuit 47 stores, as an image processing means, an enhanced image that highlights the high-intensity area selected by the selection circuit 46 for each of R, G, B, and Y in the pattern data storage unit 49. Generated based on the pattern data of each color. The enhanced image of each color generated by the cross filter processing circuit 47 is input to the synthesis processing circuit 50. In the synthesis processing circuit 50, the enhanced image of each process is added and synthesized to the input image to generate a synthesized image.
強調画像の色、強調度合い、2値化閾値などを、色毎に変更することによって、多様な強調表示を行うことができる。例えば、図24(a)では、BとYの色の2値化の閾値を下げ、これらの色の強調表示をB(青色)で行うようにしている。また、図24(b)では、RとYの色の2値化の閾値を下げ、これらの色の強調表示をR(赤色)で行うようにしている。図24(c)では、GとYの2値化の閾値を下げ、これらの色の強調表示をG(緑)で行うようにしている。また、図24(d)では、Yの色の2値化の閾値を下げ、この色の強調表示をY(黄色)で行うようにしている。 Various emphasis display can be performed by changing the color, the emphasis degree, the binarization threshold value, and the like of the emphasis image for each color. For example, in FIG. 24A, the threshold value for binarization of B and Y colors is lowered, and these colors are highlighted in B (blue). In FIG. 24B, the threshold value for binarizing the R and Y colors is lowered, and these colors are highlighted with R (red). In FIG. 24C, the threshold for binarization of G and Y is lowered, and these colors are highlighted in G (green). In FIG. 24D, the threshold for binarizing the Y color is lowered, and this color highlighting is performed in Y (yellow).
このように、2色以上の色毎に別々の閾値判定を行い、それぞれの色に対するパターテーブルを適用することによりクロスフィルタのバリエーションを広げることができる。 As described above, by performing separate threshold determination for each of two or more colors and applying a pattern table for each color, it is possible to widen variations of the cross filter.
なお、上述においては、強調画像として光条画像を例に挙げて説明したが、強調画像はこれに限られず、例えば、図25に示すようなャラクターなどであってもよい。また、図26に示すように、色のパターンデータをキャラクターとすることで、光源がキャラクターになった効果を得ることが出来る。 In the above description, the streak image is taken as an example of the enhanced image. However, the enhanced image is not limited to this, and may be, for example, a character as shown in FIG. In addition, as shown in FIG. 26, by using color pattern data as a character, it is possible to obtain an effect that the light source is a character.
以上、本発明の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present invention have been described in detail with reference to the drawings, these are exemplifications, and the present invention is implemented in other forms with various modifications and improvements based on the knowledge of those skilled in the art. Is possible.
例えば、上述した各回路は、ハードウェアで構成してもよく、またソフトウェアで処理するようにしてもよい。 For example, each circuit described above may be configured by hardware or may be processed by software.
1 撮像機器1
2 固体撮像素子
3 A/D変換回路
4 画像処理回路
5 システムコントローラ
6 入力部
7 光学ブロック
8 ドライバ
9 タイミングジェネレータ
11 フレーム補間処理回路
12 強調画像生成回路
13 顔検出回路
14 合成処理回路
21 グレースケール変換回路
22 縮小スケーリング回路
23 2値化回路
24 ラベリング回路
25 優先度決定回路
26 選択回路
27 クロスフィルタ処理回路
28 拡大スケーリング回路
29 パターンデータ記憶部
1 Imaging equipment 1
2 Solid-state imaging device 3 A / D conversion circuit 4 Image processing circuit 5 System controller 6 Input unit 7 Optical block 8 Driver 9 Timing generator 11 Frame interpolation processing circuit 12 Enhanced image generation circuit 13 Face detection circuit 14 Composition processing circuit 21 Grayscale conversion Circuit 22 Reduction scaling circuit 23 Binary circuit 24 Labeling circuit 25 Priority determination circuit 26 Selection circuit 27 Cross filter processing circuit 28 Expansion scaling circuit 29 Pattern data storage unit
Claims (9)
前記2値化した画像から高輝度領域を特定する高輝度領域特定手段と、
前記特定した高輝度領域に対し、所定条件に基づいて優先度を決定する優先度決定手段と、
前記特定した高輝度領域が所定数以上あるとき、優先度の高い高輝度領域から順に前記所定数選択する選択手段と、
前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成する画像処理手段と、を備えた
画像処理装置。 Binarization means for binarizing the input image with a predetermined threshold;
High luminance area specifying means for specifying a high luminance area from the binarized image;
Priority determining means for determining a priority based on a predetermined condition for the identified high-luminance region;
A selection means for selecting the predetermined number in order from a high-luminance area having a higher priority when the specified high-luminance area is a predetermined number or more;
An image processing apparatus comprising: an image processing unit that generates an emphasized image that highlights the selected high-luminance region, and combines the emphasized image with the input image.
請求項1に記載の画像処理装置。 The priority determination means determines the priority of the high brightness area based on the size of the high brightness area, the position of the high brightness area with respect to the input image, and the hue of the high brightness area as the predetermined condition. The image processing apparatus according to claim 1.
請求項1又は2に記載の画像処理装置。 3. The image processing according to claim 1, wherein the image processing unit is assigned an enhanced image having a certain number of pixels to one high brightness area, and changes the size of the enhanced image in accordance with the area of the high brightness area. apparatus.
請求項1〜3のいずれか1項に記載の画像処理装置。 The image processing means generates an emphasized image that highlights a high-intensity region of the reduced input image after reducing the input image, and combines the input image after enlarging the emphasized image. The image processing apparatus according to any one of the above.
請求項1〜4のいずれか1項に記載の画像処理装置。 5. The image according to claim 1, wherein the image processing unit generates the enhanced image in units of a plurality of frames of the input image, and synthesizes the same enhanced image with the input image of the plurality of frames. Processing equipment.
前記強調画像の画像パターンは、2以上の色のそれぞれに割り当てられており、
前記2値化手段は、前記入力画像から前記2以上の色のそれぞれの成分を抽出して単一色画像を生成し、
前記高輝度領域特定手段は、前記単一色画像毎に、前記高輝度領域の特定を行い、
前記優先度決定手段は、前記単一色画像毎に前記優先度の決定を行い、
前記選択手段は、前記単一色画像毎に前記高輝度領域の選択を行い、
前記画像処理手段は、前記単一色画像毎に前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成する
請求項1〜5のいずれか1項に記載の画像処理装置。 The input image is a color image;
The image pattern of the emphasized image is assigned to each of two or more colors,
The binarizing means extracts a component of each of the two or more colors from the input image to generate a single color image,
The high luminance area specifying means specifies the high luminance area for each single color image,
The priority determination means determines the priority for each single color image,
The selection means performs the selection of the high luminance region for each single color image,
The said image processing means produces | generates the highlight image which highlights the said selected high-intensity area | region for every said single color image, and synthesize | combines the said highlight image with the said input image. Image processing apparatus.
前記画像処理手段は、前記入力画像に前記強調画像を合成して生成した合成画像に前記顔検出手段で抽出した顔画像を上書きする
請求項1〜6のいずれか1項に記載の画像処理装置。 Comprising face detection means for detecting a face image of a person from the input image,
The image processing apparatus according to claim 1, wherein the image processing unit overwrites the face image extracted by the face detection unit on a composite image generated by combining the emphasized image with the input image. .
前記2値化した画像から高輝度領域を特定するステップと、
前記特定した高輝度領域に対し、所定条件に基づいて優先度を決定するステップと、
前記特定した高輝度領域が所定数以上あるとき、優先度の高い高輝度領域から順に前記所定数選択するステップと、
前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成するステップと、を有する
画像処理方法。 Binarizing an input image with a predetermined threshold;
Identifying a high brightness region from the binarized image;
Determining a priority for the identified high brightness area based on a predetermined condition;
When there are a predetermined number or more of the specified high-intensity areas, the step of selecting the predetermined number in order from the high-intensity areas with high priority;
Generating an emphasized image that highlights the selected high-luminance region, and synthesizing the emphasized image with the input image.
前記画像処理装置は、
入力画像を所定の閾値で2値化する2値化手段と、
前記2値化した画像から高輝度領域を特定する高輝度領域特定手段と、
前記特定した高輝度領域に対し、所定条件に基づいて優先度を決定する優先度決定手段と、
前記特定した高輝度領域が所定数以上あるとき、優先度の高い高輝度領域から順に前記所定数選択する選択手段と、
前記選択した高輝度領域を強調表示する強調画像を生成し、当該強調画像を前記入力画像に合成する画像処理手段と、を備えた
撮像機器。
An image processing device for processing an input image from the solid-state image sensor;
The image processing apparatus includes:
Binarization means for binarizing the input image with a predetermined threshold;
High luminance area specifying means for specifying a high luminance area from the binarized image;
Priority determining means for determining a priority based on a predetermined condition for the identified high-luminance region;
A selection means for selecting the predetermined number in order from a high-luminance area having a higher priority when the specified high-luminance area is a predetermined number or more;
An imaging apparatus comprising: an image processing unit that generates an emphasized image that highlights the selected high-luminance region and combines the emphasized image with the input image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008912A JP2011151454A (en) | 2010-01-19 | 2010-01-19 | Image processor, imaging apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008912A JP2011151454A (en) | 2010-01-19 | 2010-01-19 | Image processor, imaging apparatus and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011151454A true JP2011151454A (en) | 2011-08-04 |
Family
ID=44538079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010008912A Pending JP2011151454A (en) | 2010-01-19 | 2010-01-19 | Image processor, imaging apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011151454A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013090095A (en) * | 2011-10-17 | 2013-05-13 | Olympus Imaging Corp | Imaging device, imaging method, and program |
JP2013098681A (en) * | 2011-10-31 | 2013-05-20 | Casio Comput Co Ltd | Image processing apparatus, image processing method and program |
US9208546B2 (en) | 2013-01-30 | 2015-12-08 | Socionext Inc. | Image processing apparatus, method and imaging apparatus |
-
2010
- 2010-01-19 JP JP2010008912A patent/JP2011151454A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013090095A (en) * | 2011-10-17 | 2013-05-13 | Olympus Imaging Corp | Imaging device, imaging method, and program |
JP2013098681A (en) * | 2011-10-31 | 2013-05-20 | Casio Comput Co Ltd | Image processing apparatus, image processing method and program |
CN103198469A (en) * | 2011-10-31 | 2013-07-10 | 卡西欧计算机株式会社 | Image processing apparatus and image processing method |
US9092889B2 (en) | 2011-10-31 | 2015-07-28 | Casio Computer Co., Ltd. | Image processing apparatus, image processing method, and program storage medium |
US9208546B2 (en) | 2013-01-30 | 2015-12-08 | Socionext Inc. | Image processing apparatus, method and imaging apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6911202B2 (en) | Imaging control method and imaging device | |
US20140064632A1 (en) | Image processing apparatus, image processing method and recording medium | |
JP5767485B2 (en) | Image processing apparatus and control method | |
JP4844664B2 (en) | Image processing apparatus, image processing method, and program | |
JP5186021B2 (en) | Imaging apparatus, image processing apparatus, and imaging method | |
JP2010021698A (en) | Image processing device, and program | |
JP2011086275A (en) | Image processing device, imaging apparatus and imaging processing method, and program | |
JP2007006021A (en) | Imaging apparatus and image processing program | |
WO2013032008A1 (en) | Image processing device and program | |
JP2022179514A (en) | Control apparatus, imaging apparatus, control method, and program | |
JP2010130069A (en) | Digital camera, image processor, and image processing program | |
JP2009124644A (en) | Image processing device, imaging device, and image reproduction device | |
JP2007274504A (en) | Digital camera | |
JP2009200743A (en) | Image processor, image processing method, image processing program and imaging apparatus | |
JP2011151454A (en) | Image processor, imaging apparatus and image processing method | |
JP2009177508A (en) | Imaging apparatus, and image-effect adding program | |
JP2009152779A (en) | Imaging apparatus, and program for imparting image effect | |
JP2014147047A (en) | Image processing device, method, and program, and image pickup device | |
JP2009296224A (en) | Imaging means and program | |
JP2005117399A (en) | Image processor | |
JP2015023514A (en) | Information processing apparatus, imaging apparatus, control method and program | |
JP6286874B2 (en) | Image processing apparatus and image processing program | |
JP6157274B2 (en) | Imaging apparatus, information processing method, and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009200981A (en) | Video camera |