JP2012133707A - Image processing device and control method of image processing device - Google Patents

Image processing device and control method of image processing device Download PDF

Info

Publication number
JP2012133707A
JP2012133707A JP2010287081A JP2010287081A JP2012133707A JP 2012133707 A JP2012133707 A JP 2012133707A JP 2010287081 A JP2010287081 A JP 2010287081A JP 2010287081 A JP2010287081 A JP 2010287081A JP 2012133707 A JP2012133707 A JP 2012133707A
Authority
JP
Japan
Prior art keywords
noise data
image
noise
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010287081A
Other languages
Japanese (ja)
Other versions
JP5595257B2 (en
Inventor
Satoru Okamura
哲 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010287081A priority Critical patent/JP5595257B2/en
Publication of JP2012133707A publication Critical patent/JP2012133707A/en
Application granted granted Critical
Publication of JP5595257B2 publication Critical patent/JP5595257B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate image in which grain noises or scratches are added to an input image as random noise.SOLUTION: When adding grain noises taken from two-dimensional noise data, the positional difference from the previous position is evaluated every time when taking the noises. When the difference is too small, the taking position is changed. When adding scratches taken from noise data of plural patterns and when the condition is to continuously add the scratches for a certain period of time, the positional difference from the previous position is evaluated with respect to the adding position of the scratches. When the difference is too large, the addition is determined as invalid.

Description

本発明はデジタル画像データに対してフィルム調の効果を与える画像処理装置に関するものである。   The present invention relates to an image processing apparatus that gives a film-like effect to digital image data.

近年、デジタルカメラの画像表現の一つとして、撮影画像に対しフィルム撮影による粒状感の効果を出すために粒状ノイズ(以下、グレインノイズ)をデジタル画像に付加する合成の方法が提案されている。   In recent years, as one of the image expressions of a digital camera, there has been proposed a synthesis method for adding granular noise (hereinafter referred to as grain noise) to a digital image in order to produce a grainy effect by film shooting on the captured image.

特許文献1では、グレインノイズの元となる粒状パターンデータをフィルムから算出し、これを画像サイズに応じたランダムな位置で複数配置することで、空間的にランダムなノイズをグレインノイズとして付加している   In Patent Document 1, granular pattern data that is the source of grain noise is calculated from a film, and a plurality of these are arranged at random positions according to the image size, thereby adding spatially random noise as grain noise. Have

特開平11−085955号公報Japanese Patent Laid-Open No. 11-085955

デジタルカメラにおいて動画像に対しグレインノイズを付加する場合、グレインノイズの粒状感が空間的にランダムに配置されていることに加え、時間的にランダムに変化する必要がある。   When adding grain noise to a moving image in a digital camera, it is necessary to change the graininess of the grain noise randomly in addition to being spatially randomly arranged.

本発明は、上述の課題に鑑みたものであって、パターンデータから切り出したノイズデータを画像に付加し、フィルム調の効果を与える場合に空間的および時間的にランダムノイズに見える効果を与える画像処理装置を提供することにある。   The present invention has been made in view of the above-described problems, and adds noise data cut out from pattern data to an image, and gives an effect that looks like random noise spatially and temporally when giving a film-like effect. It is to provide a processing apparatus.

本発明の画像処理装置は、入力される複数フレームの画像にフィルム風の粒状効果を与えることが可能な画像処理装置であって、2次元データで構成されるノイズデータを記憶する記憶手段と、前記ノイズデータから所定サイズのノイズデータを切り出す切り出し手段と、前記切り出し手段が切り出す前記ノイズデータ上の切り出し位置を指定する指定手段と、前記指定手段で指定される前記ノイズデータ上での前回の所定サイズのノイズデータの切り出し位置と今回の所定サイズのノイズデータの切り出し位置との距離が所定範囲内であるときに、前記指定手段で指定された今回の切り出し位置を変更する変更手段と、前記変更手段は変更された今回の切り出し位置と前回の切り出し位置の距離が前記所定範囲内とならない位置となるように変更し、前記切り出し手段によって切り出された所定サイズのノイズデータに基づくノイズを前記入力される画像に合成する合成手段を備えることを特徴とする。   The image processing apparatus of the present invention is an image processing apparatus capable of giving a film-like grain effect to an input image of a plurality of frames, and storage means for storing noise data composed of two-dimensional data; Cutout means for cutting out noise data of a predetermined size from the noise data, designation means for designating a cutout position on the noise data cut out by the cutout means, and the previous predetermined on the noise data designated by the designation means Changing means for changing the current cut position specified by the specifying means when the distance between the cut position of the noise data of the size and the cut position of the noise data of the predetermined size is within a predetermined range; and the change The means is such that the distance between the changed current cutting position and the previous cutting position is not within the predetermined range. Change, characterized in that it comprises a synthesizing means for synthesizing the image to be the input noise based on the noise data of a predetermined size was cut out by the cutout section.

また、本発明の画像処理装置は、複数フレームの入力される画像にフィルムのスクラッチ傷風の画像効果を与えることが可能な画像処理装置であって、複数パターンのノイズデータを記憶する記憶手段と、前記複数パターンのノイズデータから、今回のフレームの画像に貼り付けるノイズデータを選択する選択手段と、前記今回のフレームの画像上の前記選択手段で選択されたノイズデータを貼り付ける位置を決定する決定手段と、前記決定手段で決定された位置に前記選択手段で選択されたノイズデータを貼り付けて合成する合成手段と、前記合成手段によって前回のフレームの画像にノイズデータが貼り付けられた位置と前記決定手段によって決定された前記今回のフレームの画像にノイズデータを貼り付ける位置との距離が所定範囲より大きい場合に、前記合成手段による前記今回のフレームの画像へのノイズデータの合成を無効にする無効手段を備えることを特徴とする。   Further, the image processing apparatus of the present invention is an image processing apparatus capable of giving an image effect of a scratched wind of film to an input image of a plurality of frames, and a storage means for storing noise data of a plurality of patterns, A selection unit that selects noise data to be pasted to the image of the current frame from the noise data of the plurality of patterns, and a determination to determine a position to paste the noise data selected by the selection unit on the image of the current frame Means for combining the noise data selected by the selecting means at the position determined by the determining means, and the position at which the noise data is pasted on the image of the previous frame by the combining means. The distance from the position where the noise data is pasted to the image of the current frame determined by the determining means is within a predetermined range. Is larger, characterized in that it comprises a disabling means for disabling the synthesis of the noise data to the image of said current frame by said synthesis means.

以上説明したように、本発明によれば、パターンデータから切り出したノイズデータを画像に付加し、フィルム調の効果を与える場合に空間的および時間的にランダムノイズに見える効果を与える画像処理装置を提供することにある。   As described above, according to the present invention, there is provided an image processing apparatus that adds noise data cut out from pattern data to an image and gives an effect that looks like random noise spatially and temporally when giving a film-like effect. It is to provide.

第1の実施形態である画像処理装置の一例を示すブロック図1 is a block diagram illustrating an example of an image processing apparatus according to a first embodiment. 第2の実施形態である画像処理装置の一例を示すブロック図A block diagram showing an example of an image processing apparatus according to a second embodiment 第1の実施形態である画像処理装置のノイズデータを示す図The figure which shows the noise data of the image processing apparatus which is 1st Embodiment. 第1の実施形態である画像処理装置の合成画像の構造を示す図The figure which shows the structure of the synthesized image of the image processing apparatus which is 1st Embodiment. 第2の実施形態である画像処理装置のノイズデータを示す図The figure which shows the noise data of the image processing apparatus which is 2nd Embodiment. 第2の実施形態である画像処理装置の合成画像の構造を示す図The figure which shows the structure of the synthesized image of the image processing apparatus which is 2nd Embodiment. 第1の実施形態におけるノイズデータの切り出し位置決定のフローチャートFlowchart of noise data cutout position determination in the first embodiment 第1の実施形態におけるノイズデータの切り出し位置を示す図The figure which shows the cutout position of the noise data in 1st Embodiment 第1の実施形態におけるノイズデータの切り出し位置の補正後の位置を示す表The table | surface which shows the position after correction | amendment of the cut-out position of the noise data in 1st Embodiment 第1の実施形態におけるノイズデータの補正位置の違いによる重複度を示す図The figure which shows the duplication degree by the difference in the correction position of the noise data in 1st Embodiment 第2の実施形態におけるノイズデータの貼り付け位置決定のフローチャートFlowchart for determining the paste position of noise data in the second embodiment 第2の実施形態におけるスクラッチ傷の付加の要否を時間変化を示す図The figure which shows a time change whether the necessity of addition of the scratching scratch in 2nd Embodiment is required.

以下、本発明の好適な実施形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<第1の実施形態>
本実施形態は、フィルム風のノイズ効果として粒状感を与えるために粒状ノイズであるグレインノイズを画像に付加することが可能な画像処理装置である。
<First Embodiment>
The present embodiment is an image processing apparatus capable of adding grain noise, which is granular noise, to an image in order to give a granular feeling as a film-like noise effect.

図1は第1の実施形態における画像処理装置としてのデジタルビデオカメラのブロック図である。撮像素子100は結像した入射光を光電変換する。光電変換された信号はカメラ信号処理部101へ入力される。カメラ信号処理部101では光電変換された信号に対し各種の画質処理を行い映像信号へ変換し出力する。出力された映像信号はエンコーダ111で所定の記録フォーマットで符号化され、記録メディア112へ記録される。   FIG. 1 is a block diagram of a digital video camera as an image processing apparatus according to the first embodiment. The image sensor 100 photoelectrically converts the incident light that has been imaged. The photoelectrically converted signal is input to the camera signal processing unit 101. The camera signal processing unit 101 performs various kinds of image quality processing on the photoelectrically converted signal, converts it into a video signal, and outputs it. The output video signal is encoded by the encoder 111 in a predetermined recording format and recorded on the recording medium 112.

次にカメラ信号処理部101での信号処理について説明する。信号処理部101へ入力した信号は、まず画像処理部104で輝度成分、色成分、黒成分の各信号成分に対し、各種信号処理が行われる。処理後の信号は撮像画像として第1のフレームメモリ108へ格納される。   Next, signal processing in the camera signal processing unit 101 will be described. The signal input to the signal processing unit 101 is first subjected to various signal processing by the image processing unit 104 for each of the luminance component, the color component, and the black component. The processed signal is stored in the first frame memory 108 as a captured image.

2次元109はグレインノイズとして2次元ノイズデータ301を格納しているメモリである。ノイズデータ301はメモリ109から読み出される。切り出し処理部106はメモリデータ301から所定の位置と大きさのノイズデータ302を切り出す。切り出しされたノイズデータ302は第2のフレームメモリ110へ格納される。第2のフレームメモリ110から読み出されたノイズデータ302は、拡大処理部107で撮像画像との合成に必要な大きさのノイズデータ402にリサイズ処理される。   The two-dimensional 109 is a memory that stores two-dimensional noise data 301 as grain noise. The noise data 301 is read from the memory 109. The cutout processing unit 106 cuts out noise data 302 having a predetermined position and size from the memory data 301. The cut out noise data 302 is stored in the second frame memory 110. The noise data 302 read from the second frame memory 110 is resized by the enlargement processing unit 107 into noise data 402 having a size necessary for synthesis with the captured image.

合成処理部105は所定のタイミングで第1のフレームメモリ108に格納されている撮像画像401と拡大処理部107で処理されたノイズデータ402を読み出し、合成を行い、合成画像を出力する。合成処理部105は撮像画像401とノイズデータ402の合成比率を変更することが可能である。合成比率を変えることで付加するグレインノイズの強度を変えることができる。グレインノイズの生成方法、付加方法については後に詳述する。   The synthesis processing unit 105 reads the captured image 401 stored in the first frame memory 108 and the noise data 402 processed by the enlargement processing unit 107 at a predetermined timing, performs synthesis, and outputs a synthesized image. The composition processing unit 105 can change the composition ratio of the captured image 401 and the noise data 402. The intensity of the grain noise added can be changed by changing the composition ratio. A method for generating and adding grain noise will be described in detail later.

信号発生器103は撮像素子100の駆動タイミングを制御する信号を発生する信号発生器(Signal Generator)である。発生した信号は撮像素子100に供給される。   The signal generator 103 is a signal generator (Signal Generator) that generates a signal for controlling the drive timing of the image sensor 100. The generated signal is supplied to the image sensor 100.

システムコントローラ102は、撮像素子100とカメラ信号処理部101で構成されるカメラブロックの制御を行う。撮像素子100に対しては、信号の蓄積期間や読み出しタイミングの指示を行う。画像処理部104に対しては、各種信号処理で画質設定に必要なパラメータの設定を行う。合成処理部105に対しては、合成対象となるフレームメモリの指定、合成比率の指定および合成タイミングの指示を行う。切り出し処理部106に対しては、グレインノイズを生成するために、メモリ109から読み出しを行うタイミングの指示、切り出し位置と大きさの指示、切り出したデータを第2のフレームメモリ110へ書き出すタイミングの指示を行う。拡大処理部107に対しては、第2のフレームメモリ110から読み出しを行うタイミングの指示、リサイズ時の大きさの指示を行う。信号発生器103に対しては、撮像素子100を駆動する駆動タイミングの指示を行う。   A system controller 102 controls a camera block including the image sensor 100 and the camera signal processing unit 101. A signal accumulation period and readout timing are instructed to the image sensor 100. For the image processing unit 104, parameters necessary for image quality setting are set by various signal processing. For the synthesis processing unit 105, a frame memory to be synthesized is designated, a synthesis ratio is designated, and a synthesis timing is instructed. In order to generate grain noise, the cutout processing unit 106 is instructed to read out from the memory 109, the cutout position and size, and the timing to write out the cutout data to the second frame memory 110. I do. The enlargement processing unit 107 is instructed to read data from the second frame memory 110 and to instruct the size at the time of resizing. The signal generator 103 is instructed to drive timing for driving the image sensor 100.

ここで、図3、図4を用いて、本実施形態の特徴的な処理である画像データにフィルム風の粒状効果を与えるグレインノイズを付加する際に用いるグレインノイズの生成方法、付加方法について詳述する。特許文献1のように粒状パターンデータを複数配置する方法では、動画像の更新周期、つまりフレームレートに同期してパターンデータの配置を行うには、フレームレートの周期以内で毎回異なる配置を行う高速な処理システムが必要となる。また、複数のグレインノイズパターンから選択してこれを付加する方法では、グレインノイズを格納するメモリ領域が複数必要となる。   Here, with reference to FIGS. 3 and 4, the generation method and the addition method of the grain noise used when adding the grain noise that gives the film-like grain effect to the image data, which is a characteristic process of the present embodiment, are described in detail. Describe. In the method of arranging a plurality of granular pattern data as in Patent Document 1, in order to arrange the pattern data in synchronization with the update period of the moving image, that is, the frame rate, a high-speed that performs different arrangements each time within the frame rate period. A simple processing system is required. Further, in the method of selecting and adding a plurality of grain noise patterns, a plurality of memory areas for storing the grain noise are required.

そこで、本実施形態では、あらかじめグレインノイズを2次元データとして持っておき、任意の位置で入力される画像のフレーム全体に対応するノイズデータの切り出しを行い、切り出したノイズデータを動画像に合成する。この時、切り出しのタイミングを動画像のフレームレートに同期させ、切り出しの位置を複数フレームで毎回変化させることで、空間的と時間的にランダムなグレインノイズを動画像に合成することが可能となる。   Therefore, in this embodiment, grain noise is previously stored as two-dimensional data, noise data corresponding to the entire frame of an image input at an arbitrary position is extracted, and the extracted noise data is combined with a moving image. . At this time, by synchronizing the cut-out timing with the frame rate of the moving image and changing the cut-out position every frame, it becomes possible to synthesize spatially and temporally random grain noise into the moving image. .

図3は2次元のノイズデータ(グレインノイズデータ301)とそこから切り出す切り出しノイズデータ302の関係を示した図である。図4は切り出しノイズデータ302と撮像画像の合成の概念を示した図である。グレインノイズデータ301は、本実施形態では最小粒状単位を1画素として、ガウス分布に従った乱数が画素値として1画素ごとに記録されている画素群である。ここで、乱数はガウス分布に従ったものに限らず、一様乱数や指数乱数など多くの乱数の種類が考えられ、乱数の種類は限定されない。ノイズデータとしての実際のデータの形態は、画像データ、もしくはデータ列などさまざまな形態が考えられ、それらの形態のいずれにも限定されない。また、最小粒状単位についても1画素に限定されないが、当然小さければ小さいほどランダム性があがる。   FIG. 3 is a diagram showing the relationship between two-dimensional noise data (grain noise data 301) and cut-out noise data 302 cut out therefrom. FIG. 4 is a diagram showing the concept of combining the cut-out noise data 302 and the captured image. In the present embodiment, the grain noise data 301 is a pixel group in which a minimum granularity unit is one pixel and a random number according to a Gaussian distribution is recorded for each pixel as a pixel value. Here, the random numbers are not limited to those according to the Gaussian distribution, and many types of random numbers such as uniform random numbers and exponential random numbers are conceivable, and the types of random numbers are not limited. Various forms such as image data or a data string can be considered as the form of actual data as noise data, and the form is not limited to any of these forms. Further, the minimum granular unit is not limited to one pixel, but of course, the smaller the unit, the higher the randomness.

グレインノイズデータ301に対して、処理時刻やカメラの姿勢情報や位置情報などのカメラ内で取得できる動的な値を利用して切り出し開始位置X,Yをランダムに決定する。決定された開始位置から所定サイズのデータを切り出しノイズデータ302としてグレインノイズデータ301から切り出し、図4のように撮像画像と合成することで、撮像画像にグレインノイズを付加する。   For the grain noise data 301, the cutout start positions X and Y are randomly determined by using dynamic values that can be acquired within the camera, such as processing time, camera posture information, and position information. Data of a predetermined size is cut out from the grain noise data 301 as cut-out noise data 302 from the determined start position, and is combined with the picked-up image as shown in FIG. 4 to add grain noise to the picked-up image.

ここで、切り出しの開始位置をランダムに毎回変化させる際、前回の切り出しの位置と今回の切り出しの位置が近い場合や水平あるいは垂直方向にずれているだけの場合は、合成結果として2次元のパターンが移動しているように見えてしまう。   Here, when the cutout start position is randomly changed each time, if the previous cutout position and the current cutout position are close to each other or only shifted in the horizontal or vertical direction, a two-dimensional pattern is obtained as a synthesis result. Appears to move.

そこで、本実施形態では、前回切り出し位置から今回の切り出し位置への移動量が、所定の範囲内にならないように今回の切り出し位置を設定する。   Therefore, in the present embodiment, the current cutout position is set so that the amount of movement from the previous cutout position to the current cutout position does not fall within a predetermined range.

図7を用い、本実施例におけるシステムコントローラ102が切り出し処理部106に対し指示するノイズデータ301の切り出し制御について説明する。この制御は、撮影画像に対してフィルム風のノイズ効果を付加する撮影モードのときに行われる。あるいは、記録メディア212等のメモリに記憶された動画像を連続的に読み出して事後処理として行われる。   With reference to FIG. 7, the clipping control of the noise data 301 instructed by the system controller 102 in the present embodiment to the clipping processing unit 106 will be described. This control is performed in a shooting mode in which a film-like noise effect is added to a shot image. Alternatively, the moving images stored in the memory such as the recording medium 212 are continuously read out and performed as post processing.

ステップS701では、メモリ109に格納されているノイズデータから上述したように動的な値を利用して今回どの位置から切り出すかの候補値を指示する。切り出したデータをグレインノイズとして合成するため、毎回ランダムに決定し、前回の切り出し位置とは異なる位置とする。指示する今回の切り出し位置が決定するとステップS702へ進む。   In step S701, candidate values to be extracted from this time are instructed from the noise data stored in the memory 109 using dynamic values as described above. In order to synthesize the cut-out data as grain noise, it is determined at random each time and is set to a position different from the previous cut-out position. When the current cutout position to be instructed is determined, the process proceeds to step S702.

ステップS702では、信号発生器103に指示する駆動タイミング信号に基づき現在の撮像素子100のフレームレート情報を取得する。情報を取得するとステップS703へ進む。   In step S702, the current frame rate information of the image sensor 100 is acquired based on the drive timing signal instructed to the signal generator 103. If information is acquired, it will progress to step S703.

ステップS703では、今回指示されている切り出し位置と一時メモリ(不図示)に保存されている前回の切り出し位置が、どの程度離れた位置にあるかを判断する判定基準値を算出する。フレームレートに同期して合成するグレインノイズの更新を行うため、フレームレートが小さくなるほど、つまり撮像画像の更新周期が長くなるほど、グレインノイズの更新周期も長くなり、見え続ける。そのため、前回の切り出し位置と今回の切り出し位置が近い位置にあると、合成されたグレインノイズが移動しているように見える。そこで、ステップS702で取得したフレームレート情報に応じて、今回指示されている切り出し位置と前回の切り出し位置がどの程度近い位置にあるかを判定する基準(所定値)を変更する。例えば、60fpsのフレームレート(第1のフレームレート)では前回位置を中心として周辺10画素(第1の所定値)以内に今回の位置があった場合に、近い位置であると判定する。一方、30fps(第2のフレームレート)では周辺20画素(第2の所定値)以内に今回の位置があった場合を所定値以下の近い位置であると判定するように判定基準を決定する。判定基準を決定するとステップS704へ進む。   In step S <b> 703, a determination reference value for determining how far the current cutout position is from the previous cutout position stored in the temporary memory (not shown) is calculated. Since the grain noise to be synthesized in synchronism with the frame rate is updated, the grain noise update period becomes longer as the frame rate becomes smaller, that is, the captured image update period becomes longer, and it continues to be seen. Therefore, if the previous cutout position and the current cutout position are close to each other, the synthesized grain noise appears to move. In view of this, the reference (predetermined value) for determining how close the current cutout position is to the previous cutout position is changed according to the frame rate information acquired in step S702. For example, at a frame rate of 60 fps (first frame rate), when the current position is within 10 pixels (first predetermined value) around the previous position, it is determined that the position is close. On the other hand, at 30 fps (second frame rate), the determination criterion is determined so as to determine that the current position is within 20 pixels (second predetermined value) in the vicinity and that the position is close to the predetermined value or less. When the determination criterion is determined, the process proceeds to step S704.

ステップS704では、グレインノイズデータ上の前回のノイズデータの切り出し位置からステップS701で算出した今回の切り出し位置がどの程度変化したかを示す、切り出し位置間の距離を算出する。算出するとステップS705へ進む。   In step S704, a distance between cutout positions is calculated that indicates how much the current cutout position calculated in step S701 has changed from the previous cutout position of the noise data on the grain noise data. If it calculates, it will progress to step S705.

ステップS705では、ステップS704で算出した前回切り出し位置から今回指示されている切り出し位置への距離とステップS703で算出した判定基準との大小を比較する。距離が判定基準より大きい、つまり切り出し位置が前回から今回で大きく変化していると判断した場合は、ステップS707へ進む。一方、距離が判定基準より小さい、つまり切り出し位置が前回から今回で小さく変化していると判断した場合は、ステップS706へ進む。   In step S705, the distance from the previous cutout position calculated in step S704 to the cutout position instructed this time is compared with the determination criterion calculated in step S703. If it is determined that the distance is greater than the criterion, that is, the cutout position has changed significantly from the previous time to the current time, the process proceeds to step S707. On the other hand, if it is determined that the distance is smaller than the criterion, that is, the cutout position has changed slightly from the previous time to this time, the process proceeds to step S706.

ステップS706では、ステップS701で算出した今回指示されている切り出し位置の位置情報に対して補正を行う。切り出し位置の位置情報の補正方法については後述する。切り出し位置の位置情報の補正を行うとステップS707へ進む。   In step S706, correction is performed on the position information of the cutout position instructed this time calculated in step S701. A method for correcting the position information of the cutout position will be described later. When the position information of the cutout position is corrected, the process proceeds to step S707.

ステップS707では、ステップS706で補正した切り出し位置の位置情報を次回の切り出し位置の制御で利用するために、一時メモリに保存し、ステップS708へ進む。   In step S707, the position information of the cutout position corrected in step S706 is stored in a temporary memory so as to be used for the next cutout position control, and the process proceeds to step S708.

ステップS708では、ステップS706で補正した切り出し位置を切り出し処理部106へ指示し、処理を終了する。   In step S708, the cutout position corrected in step S706 is instructed to the cutout processing unit 106, and the process ends.

次にステップS706における切り出し位置の補正処理について説明する。図8、図9、図10は、メモリ103に格納されているノイズデータ301から切り出し位置の補正を行う場合の補正条件と補正位置を説明する図である。ノイズデータ301の幅と高さがそれぞれW 画素、H画素であるとする(W≧4、H≧4)。また、ノイズデータの切り出しは画素単位で行い、左上を切り出し位置の原点(0,0)とする。また、切り出す切り出しノイズデータ302の大きさを幅(W/2)画素、高さ(H/2)画素とする。   Next, the cutout position correction processing in step S706 will be described. 8, 9, and 10 are diagrams illustrating correction conditions and correction positions when correcting the cutout position from the noise data 301 stored in the memory 103. It is assumed that the width and height of the noise data 301 are W pixels and H pixels, respectively (W ≧ 4, H ≧ 4). The noise data is cut out in units of pixels, and the upper left is the origin (0, 0) of the cutting position. The size of the cut-out noise data 302 to be cut out is a width (W / 2) pixel and a height (H / 2) pixel.

例えば、図3に示すように、今回の切り出し位置が(X,Y)であった場合に、上記大きさの切り出しノイズデータを切り出す切り出し開始位置(X,Y)は(0≦X<W/2,0≦Y<Y/2)の範囲の領域を指定し得る(図8)。さらに、この切り出し開始位置の指定し得る領域領域を図8の(a)、(b)、(c)および(d)に示す4つの領域、領域1、2、3および4に分ける。領域1は切り出し位置を(0≦X<W/4,0≦Y<H/4)に含む領域であり、領域2は切り出し位置を(W/4≦X<W/2,0≦Y<H/4)に含む領域である。さらに、領域3が(0≦X<W/4,H/4≦Y<H/2)、領域4が(W/4≦X<W/2,H/4≦Y<H/2)の各範囲で切り出し位置を含む領域である。   For example, as shown in FIG. 3, when the current cutout position is (X, Y), the cutout start position (X, Y) for cutting out the cutout noise data of the above size is (0 ≦ X <W / An area in the range of 2, 0 ≦ Y <Y / 2) can be specified (FIG. 8). Further, the region area where the cutout start position can be designated is divided into four regions, regions 1, 2, 3, and 4 shown in FIGS. 8 (a), (b), (c), and (d). Region 1 is a region including the cutout position (0 ≦ X <W / 4, 0 ≦ Y <H / 4), and region 2 is the cutout position (W / 4 ≦ X <W / 2, 0 ≦ Y <). H / 4). Further, the region 3 is (0 ≦ X <W / 4, H / 4 ≦ Y <H / 2), and the region 4 is (W / 4 ≦ X <W / 2, H / 4 ≦ Y <H / 2). It is an area including the cutout position in each range.

切り出し位置を補正する場合、前回の切り出し位置で切り出したノイズデータと今回指示されている切り出し位置とで、重複するデータの面積が少なく、さらにその位置が離れている方が合成時のランダム性が向上するため好ましい。そこで、補正制御では今回の切り出し位置が上記領域1〜4のどこにあるかを判断し、その箇所に応じて対角の領域である領域上に切り出し位置を補正する。この時、図9の表に示すように切り出し位置(X,Y)を補正切り出し位置(X’,Y’)に補正する。   When correcting the cutout position, the noise data cut out at the previous cutout position and the cutout position instructed this time have a smaller area of overlapping data, and if the position is farther away, the randomness at the time of synthesis is higher. It is preferable because it improves. Therefore, in the correction control, it is determined where the current cutout position is in the areas 1 to 4, and the cutout position is corrected on the diagonal area according to the location. At this time, as shown in the table of FIG. 9, the cutout position (X, Y) is corrected to the corrected cutout position (X ′, Y ′).

例えば、今回の切り出し位置が領域1にあった場合、補正後の位置が領域4となるようにすると(図10 1003)、領域2、領域3に移動した場合(図10 1001、1002)に比べ、切り出されたノイズデータが重複する面積が少なくなる。その結果、ノイズデータの移動が目立ちにくくなり、グレインノイズの時間的なランダム性が向上する。   For example, if the current cut-out position is in area 1 and the corrected position is set to area 4 (FIG. 10 1003), compared to the case of moving to area 2 and area 3 (FIG. 10 1001, 1002). The area where the cut out noise data overlaps is reduced. As a result, the movement of the noise data is less noticeable, and the temporal randomness of the grain noise is improved.

以上のように、第1の実施形態では、2次元ノイズデータから、任意の範囲を撮像画像の更新に合わせて毎回ランダムに切り出し、これを撮像画像と合成する。これにより、動画像であっても粒状ノイズが付加された画像を生成することが可能となる。また、ランダムに決めた切り出し位置が前回と所定範囲内の近い位置にあったとしても、その位置を所定範囲外に補正することで、ノイズのランダム性を確保することを可能としている。本実施形態では、特許文献に比べ、すでに読み込まれているデータから所定大きさのデータを切り出すだけでノイズデータの生成が可能であり、生成に要する時間を短縮することが可能である。   As described above, in the first embodiment, an arbitrary range is randomly extracted from the two-dimensional noise data every time the captured image is updated, and this is combined with the captured image. Thereby, it is possible to generate an image to which granular noise is added even if it is a moving image. Further, even if the randomly determined cut-out position is close to the previous range within the predetermined range, the randomness of the noise can be ensured by correcting the position outside the predetermined range. In this embodiment, compared to patent literature, noise data can be generated simply by cutting out data of a predetermined size from already read data, and the time required for generation can be reduced.

さらに、ノイズデータの今回の切り出し位置が前回の切り出し位置と比較して、位置の変化が少なく、近い位置である場合には、今回の切り出し位置を変更することで、切り出したノイズデータが移動して見えることを防ぎ、ノイズのランダム性が向上する。   Furthermore, if the current cut position of the noise data is nearer than the previous cut position, the cut noise data moves by changing the current cut position. Noise randomness is improved.

本実施形態では、グレインノイズデータ301(幅W、高さH)に対して切り出しノイズデータの大きさを幅(W/2)画素、高さ(H/2)画素とした。しかしグレインノイズデータに対する切り出しノイズデータの大きさとしてはこれに限らず、グレインノイズデータの大きさを超えるものでなければ本実施形態に比べて大きくても小さくてもよい。ただし、切り出しノイズデータの大きさが大きくなるとそれだけランダム性が損なわれやすく、小さいと必要な切り出しノイズデータの大きさに対してグレインノイズデータ301を大きく持ちすぎているため、メモリの容量を食ってしまう。そこで本実施形態では、ノイズデータ301と切り出しノイズデータの大きさの比を4:1程度にし、さらに開始位置が近くならないよう制御する本実施形態の処理を入れることで、ノイズのランダム性の確保とメモリ容量の節約の両方をより好適に実現している。   In the present embodiment, the size of the cut-out noise data with respect to the grain noise data 301 (width W, height H) is set to width (W / 2) pixels and height (H / 2) pixels. However, the size of the cut-out noise data with respect to the grain noise data is not limited to this, and may be larger or smaller than this embodiment as long as it does not exceed the size of the grain noise data. However, if the size of the cut-out noise data is increased, the randomness is easily lost. If the size is small, the grain noise data 301 is too large for the required size of the cut-out noise data. End up. Therefore, in the present embodiment, the ratio of the size of the noise data 301 and the cut-out noise data is set to about 4: 1, and further, the processing of the present embodiment for controlling the start position not to be close is included, thereby ensuring the randomness of noise. And saving memory capacity are more favorably realized.

また、本実施形態では、切り出し開始位置のとり得る領域を4つに分割したが、分割数、分割面積の割り振りとしてはこれに限定されない。   In this embodiment, the area where the cutout start position can be divided is divided into four. However, the allocation of the number of divisions and the divided areas is not limited to this.

また、本実施形態では、今回と前回の切り出し位置間の距離が所定値以下であるかどうかを判定し、所定値以下であった場合に、上記のような切り出し開始位置の領域を移動する補正を行った。しかし、補正方法についてはこれに限らず、単に今回と前回の切り出し位置間の距離が所定値より大きくなる距離以上に座標移動をさせるようにしてもよい。すなわち、60fpsのフレームレートで所定値が周辺10画素であった場合、周辺11画素以上になるように位置(座標)を変更してもよい。また、そもそも初めから今回の開始位置の指定の際に、周辺10画素以内の座標を候補からはずしてランダムに指定させてもよい。   Further, in the present embodiment, it is determined whether the distance between the current and previous cutout positions is equal to or smaller than a predetermined value, and when the distance is equal to or smaller than the predetermined value, correction for moving the region of the cutout start position as described above is performed. Went. However, the correction method is not limited to this, and the coordinate may be simply moved beyond the distance at which the distance between the current and previous cutout positions is greater than a predetermined value. That is, when the predetermined value is 10 pixels around at a frame rate of 60 fps, the position (coordinates) may be changed so that it becomes 11 pixels or more around. In the first place, when designating the start position of this time from the beginning, coordinates within 10 pixels in the vicinity may be removed from the candidates and designated at random.

また、本実施形態では、今回と前回の切り出し位置間の距離が所定値以下であるかどうかを判定し、所定値以下にあった場合に、上記のような切り出し開始位置の領域を移動する補正を行った。しかし、切り出し開始位置の判定方法についてはこれに限らず、今回と前回の切り出し位置の属する領域を判定し(図8の領域1、2、3、4いずれの領域に属しているか)、同じ領域に属していた場合、異なる領域に移動させるように補正してもよい。このとき領域の移動を対角の領域にすると本実施形態のように前回と今回の切り出し領域の重なる領域がより小さくなり好ましい。さらに、本判定方法と今回と前回の切り出し位置間の距離が所定値以下であるか否かを判定する方法とを組み合わせて判定を行うと領域の境界近傍に開始位置があった場合にも有効な判定が可能となる。   Further, in this embodiment, it is determined whether the distance between the current and previous cutout positions is equal to or less than a predetermined value, and when the distance is equal to or less than the predetermined value, the correction for moving the cutout start position area as described above is performed. Went. However, the method for determining the cutout start position is not limited to this, and the area to which the current and previous cutout positions belong is determined (whether it belongs to any of the areas 1, 2, 3, and 4 in FIG. 8), and the same area. May be corrected so as to be moved to a different area. At this time, if the movement of the area is a diagonal area, the area where the previous and current cutout areas overlap is smaller as in the present embodiment, which is preferable. Furthermore, when this judgment method is combined with the method for judging whether or not the distance between the current and previous cutout positions is equal to or less than a predetermined value, it is effective even when the start position is near the boundary of the region. Judgment is possible.

<第2の実施形態>
本実施形態は、フィルム調の効果としてフィルムに傷がついた効果を与えるために縦線状ノイズであるスクラッチ傷を画像に付加することが可能な画像処理装置である。図5、図6は、本実施形態におけるスクラッチ傷のノイズデータの切り出しと合成について説明する。図5は複数パターンのスクラッチ傷で構成されているノイズデータとそこから切り出すノイズデータの関係を示した図である。スクラッチ傷ノイズデータ501は水平方向の1画素を最小単位とし、垂直方向にスクラッチ傷が記憶されており、その強度は乱数で決定されている。また垂直方向は複数画素を最小単位として強度が変化しており、これにより、垂直方向にスクラッチ傷の濃さや太さが変化し、傷の「かすれ」を表現する。乱数はガウス分布をはじめとして様々なものが考えられるが、その種類には依らない。
<Second Embodiment>
The present embodiment is an image processing apparatus capable of adding a scratch scratch, which is vertical line noise, to an image in order to give a film-scratched effect as a film-like effect. 5 and 6 explain the extraction and synthesis of noise data for scratches in the present embodiment. FIG. 5 is a diagram showing a relationship between noise data composed of a plurality of patterns of scratches and noise data cut out therefrom. Scratch flaw noise data 501 has one pixel in the horizontal direction as a minimum unit, scratch scratches are stored in the vertical direction, and the intensity is determined by a random number. In the vertical direction, the intensity changes with a plurality of pixels as a minimum unit. As a result, the density and thickness of the scratches change in the vertical direction, thereby expressing the “blur” of the scratches. Various random numbers can be considered, including a Gaussian distribution, but it does not depend on the type.

図6は切り出したスクラッチ傷と撮像画像の合成の概念を示した図である。本実施形態では、図5のようなスクラッチ傷ノイズデータ501から切り出しノイズデータ502を切り出し、所定の画像サイズにリサイズして貼り付けノイズデータ602を生成する。そして前回までの貼り付けノイズデータ602の貼り付け位置とその位置での貼り付けの継続時間に応じて今回の貼り付けノイズデータ602の貼り付け位置を決定し、貼り付ける。   FIG. 6 is a diagram showing the concept of combining the cut scratch and the captured image. In the present embodiment, the cut-out noise data 502 is cut out from the scratch flaw noise data 501 as shown in FIG. 5 and resized to a predetermined image size to generate the pasted noise data 602. Then, the pasting position of pasting noise data 602 is determined and pasted based on the pasting position of pasting noise data 602 and the pasting time at that position.

図2は第2の実施形態としての画像処理装置としてのデジタルビデオカメラのブロック図である。撮像素子200は結像した入射光を光電変換する。光電変換された信号はカメラ信号処理部201へ入力される。カメラ信号処理部201では光電変換された信号に対し各種の画質処理を行い映像信号へ変換し出力する。出力された映像信号はエンコーダ部211で所定の記録フォーマットで符号化され、記録メディア212へ記録される。   FIG. 2 is a block diagram of a digital video camera as an image processing apparatus according to the second embodiment. The image sensor 200 photoelectrically converts the incident light that has been imaged. The photoelectrically converted signal is input to the camera signal processing unit 201. The camera signal processing unit 201 performs various kinds of image quality processing on the photoelectrically converted signal, converts it into a video signal, and outputs it. The output video signal is encoded in a predetermined recording format by the encoder unit 211 and recorded on the recording medium 212.

次にカメラ信号処理部201での信号処理について説明する。信号処理部201へ入力した信号はまず、画質処理部204で輝度成分、色成分、黒成分の各信号成分に対し、各種信号処理が行われる。処理後の信号は撮像画像としてフレームメモリ209へ格納される。   Next, signal processing in the camera signal processing unit 201 will be described. The signal input to the signal processing unit 201 is first subjected to various types of signal processing on the signal components of the luminance component, color component, and black component by the image quality processing unit 204. The processed signal is stored in the frame memory 209 as a captured image.

210は複数のパターンから構成されているスクラッチ傷のノイズデータ501を格納しているメモリである。ノイズデータ501はメモリ210から読み出される。切り出し処理部206はノイズデータ501上の指定された位置と大きさのスクラッチ傷のノイズデータ502を切り出す。切り出したノイズデータ502は拡大処理部207で撮像画像601との合成に必要な大きさのノイズデータ602にリサイズ処理される。貼り付け処理部208は切り出し位置に依らない任意の位置でノイズデータ602を合成するための貼り付け位置の指定を行う。   A memory 210 stores scratch scratch noise data 501 including a plurality of patterns. The noise data 501 is read from the memory 210. The cut-out processing unit 206 cuts out the noise data 502 of scratches having a designated position and size on the noise data 501. The extracted noise data 502 is resized by the enlargement processing unit 207 into noise data 602 having a size necessary for synthesis with the captured image 601. The pasting processing unit 208 designates a pasting position for synthesizing the noise data 602 at an arbitrary position independent of the cutout position.

合成処理部205は所定のタイミングでフレームメモリ209に格納されている撮像画像601と貼り付け処理部208で処理されたノイズデータ602を読み出し、合成を行い、合成画像を出力する。
信号発生器203は撮像素子200の駆動タイミングを制御する信号を発生する信号発生器である。発生した信号は撮像素子200とシステムコントローラ202に供給される。
The synthesis processing unit 205 reads the captured image 601 stored in the frame memory 209 and the noise data 602 processed by the pasting processing unit 208 at a predetermined timing, performs synthesis, and outputs a synthesized image.
The signal generator 203 is a signal generator that generates a signal for controlling the drive timing of the image sensor 200. The generated signal is supplied to the image sensor 200 and the system controller 202.

システムコントローラ202は、撮像素子200とカメラ信号処理部201で構成されるカメラブロックの制御を行う。撮像素子200に対しては、信号の蓄積期間や読み出しタイミングの指示を行う。画質処理部204に対しては、各種信号処理で画質設定に必要なパラメータの設定を行う。合成処理部205に対しては、合成対象となるフレームメモリの指定、合成比率の指定および合成タイミングの指示を行う。切り出し処理部206に対しては、スクラッチ傷を生成するために、メモリ210から読み出しを行うタイミングの指示、切り出し位置と大きさの指示を行う。拡大処理部207に対しては、リサイズ時の大きさの指示を行う。貼り付け処理部208に対しては、合成時の貼り付け位置の指示を行う。信号発生器203に対しては、撮像素子200を駆動する駆動タイミングの指示を行う。   A system controller 202 controls a camera block including the image sensor 200 and the camera signal processing unit 201. A signal accumulation period and readout timing are instructed to the image sensor 200. For the image quality processing unit 204, parameters necessary for image quality setting are set by various signal processing. For the synthesis processing unit 205, the frame memory to be synthesized is designated, the synthesis ratio is designated, and the synthesis timing is instructed. The cutout processing unit 206 is instructed to read data from the memory 210 and instruct the cutout position and size in order to generate a scratch. The enlargement processing unit 207 is instructed to specify the size at the time of resizing. The paste processing unit 208 is instructed of the paste position at the time of synthesis. The signal generator 203 is instructed to drive timing for driving the image sensor 200.

次に図11、図12を用い、本実施例におけるシステムコントローラ202が貼り付け処理部208に対し指示する貼り付けノイズデータ602の貼り付け制御について説明する。この制御は、撮影画像に対してスクラッチ傷が付加されているかのような画像処理を施す撮影モードのときに行われる。あるいは、記録メディア212等のメモリに記憶された動画像を連続的に読み出して事後処理として行われる。本処理は、垂直同期信号に連動して開始され、同期信号によって一連の処理が繰り返されることになる。   Next, the pasting control of the pasting noise data 602 instructed by the system controller 202 in the present embodiment to the pasting processing unit 208 will be described with reference to FIGS. This control is performed in a shooting mode in which image processing is performed as if a scratch is added to the shot image. Alternatively, the moving images stored in the memory such as the recording medium 212 are continuously read out and performed as post processing. This processing is started in conjunction with the vertical synchronization signal, and a series of processing is repeated by the synchronization signal.

ステップS1101では、一時メモリ(不図示)に保存されているスクラッチ傷が撮像画像に重畳している時間を計測するカウンタである重畳カウンタ(第1の検出手段)の値が、重畳の目標時間(第1の所定時間)に達しているか否かを判断する。目標時間に達していなければステップS1108へ進む。一方、達している場合はステップS1102へ進む。ここで、重畳の目標時間とは、撮影画像に対して同一のスクラッチ傷をどれくらいの時間続けて表示してよいかを決める時間であり、各種条件によって定めてよいし、ユーザが決めてもよい。   In step S1101, the value of the superimposition counter (first detection means), which is a counter that measures the time during which the scratches stored in the temporary memory (not shown) are superimposed on the captured image, is set to the superimposition target time (first detection means). It is determined whether or not the first predetermined time has been reached. If the target time has not been reached, the process proceeds to step S1108. On the other hand, if it has reached, the process proceeds to step S1102. Here, the target time for superimposition is a time for determining how long the same scratches can be continuously displayed on the captured image, and may be determined according to various conditions or may be determined by the user. .

ステップS1102では、目標時間に達した重畳カウンタを初期状態にクリアし、ステップS1103へ進む。   In step S1102, the superposition counter that has reached the target time is cleared to the initial state, and the process proceeds to step S1103.

ステップS1103では、メモリ210に格納されているノイズデータから取り出したスクラッチ傷を今回重畳するか否かの有無を取得する。例えば、スクラッチ傷をランダムに重畳するために乱数発生手段から無作為に得た値を有無情報としてもよい。有無情報を取得するとステップS1104へ進む。   In step S1103, it is acquired whether or not this time scratch scratches extracted from the noise data stored in the memory 210 are to be superimposed. For example, the presence / absence information may be a value randomly obtained from random number generation means in order to randomly superimpose scratches. When the presence / absence information is acquired, the process proceeds to step S1104.

ステップS1104では、ステップS1103で得た有無情報が重畳有りか否かの判定を行う。判定結果は一時メモリに保存される。有無情報は二値で定義されてもよいし、例えば、乱数発生手段から得た値であれば、その値が所定のしきい値より大きければ重畳有り、逆にしきい値以下であれば重畳無しと決定する。時間変化で見えると、ステップS1104の処理が実行されることで、図12に示すように所定フレーム毎に重畳有りと重畳無しの期間がランダムに発生する。本実施形態では、1フレーム毎に重畳の有無を決定するものとする。判定の結果、重畳有りと判定した場合は、ステップS1105へ進む。一方で重畳無しと判定した場合はステップS1121へ進む。   In step S1104, it is determined whether the presence / absence information obtained in step S1103 is superimposed. The determination result is stored in a temporary memory. Presence / absence information may be defined as a binary value. For example, if it is a value obtained from random number generation means, superimposition is present if the value is greater than a predetermined threshold, and conversely if there is less than the threshold. And decide. If it looks as a time change, the process of step S1104 is executed, and as shown in FIG. 12, periods with and without superimposition occur randomly for each predetermined frame. In the present embodiment, the presence / absence of superposition is determined for each frame. As a result of the determination, if it is determined that there is superposition, the process proceeds to step S1105. On the other hand, if it is determined that there is no overlap, the process proceeds to step S1121.

ステップS1105では、メモリ210に格納されているスクラッチ傷ノイズデータ501から、切り出しノイズデータ502の切り出し開始位置、切り出しの幅、高さを決定する。これらが変わることで、重畳するスクラッチ傷のパターン(長さ、強度、本数など)が変わる。そのため毎回異なる開始位置から切り出しを行うように、乱数発生手段を用いて決定してもよい。切り出し位置を算出するとステップS1106へ進む。   In step S <b> 1105, the cut start position, the cut width, and the height of the cut noise data 502 are determined from the scratch flaw noise data 501 stored in the memory 210. By changing these, the pattern (length, strength, number, etc.) of the scratches to be superimposed changes. Therefore, it may be determined using random number generation means so as to cut out from a different start position each time. When the cutout position is calculated, the process proceeds to step S1106.

ステップS1106では、ステップS1105で決定した切り出し位置を切り出し処理部206へ指示し、ステップS1107へ進む。
ステップS1107では、重畳の目標時間を決定して一時メモリへ保存した後、ステップS1108へ進む。
ステップS1108では、重畳カウンタの加算(インクリメント)を行い、ステップS1109へ進む。
In step S1106, the cutout position determined in step S1105 is instructed to the cutout processing unit 206, and the process proceeds to step S1107.
In step S1107, the superimposition target time is determined and stored in the temporary memory, and then the process proceeds to step S1108.
In step S1108, addition (increment) of the superposition counter is performed, and the process proceeds to step S1109.

ステップS1109では、スクラッチ傷の重畳無しの状態から有りの状態と判断されてからの経過時間を計測するために重畳継続カウンタ(第2の検出手段)の加算を行い、ステップS1110へ進む。   In step S1109, a superposition continuation counter (second detection means) is added to measure the elapsed time since it was determined that there was no scratch scratch superposition, and the flow proceeds to step S1110.

ステップS1110では、切り出し処理部206で切り出されたノイズデータを今回撮像された画像上のどの位置に合成して貼り付けるかの貼り付け位置を決定する。貼り付け位置は合成のタイミングによってランダムな貼り付け位置とする。例えば乱数発生手段を用い、貼り付け位置を取得すると、合成の都度、画面上の異なる位置にスクラッチ傷が重畳され、ランダムノイズに見える。貼り付け位置を取得するとステップS1111へ進む。   In step S1110, the position where the noise data cut out by the cut-out processing unit 206 is to be combined and pasted on the currently captured image is determined. The pasting position is a random pasting position depending on the timing of synthesis. For example, when a pasting position is acquired using random number generation means, scratches are superimposed at different positions on the screen every time the composition is performed, and it appears as random noise. When the pasting position is acquired, the process proceeds to step S1111.

ステップS1111では、信号発生器203に指示する駆動タイミング信号に基づき現在の撮像素子200のフレームレート情報を取得する。情報を取得するとステップS1112へ進む。   In step S1111, the current frame rate information of the image sensor 200 is acquired based on the drive timing signal instructed to the signal generator 203. If information is acquired, it will progress to step S1112.

ステップS1112では、今回の貼り付け位置と前回の貼り付け位置がどの程度離れた位置にあるかを判断する判定基準値(所定値)を算出する。フレームレートに同期して、合成するスクラッチ傷の更新を行うため、フレームレートが小さくなるほどつまり撮像画像の更新周期が長くなるほど、スクラッチ傷の更新周期も長くなり、見え続ける。前回の貼り付け位置と今回の貼り付け位置の距離が大きいと、合成されたスクラッチ傷が移動しているように見えてしまう。そこで、ステップS1111で取得したフレームレート情報に応じて、今回と前回の貼り付け位置がどの程度遠い位置にあるかを判定する基準を変更する。例えば、60fpsのフレームレート(第1のフレームレート)では前回位置を中心として水平前後10画素(第1の所定値)より遠い位置に今回の位置があった場合に、所定値より大きい、遠い位置であると判定する。一方、30fps(第2のフレームレート)では水平前後20画素(第2の所定値)より遠い位置に今回の位置があった場合を所定値より大きい、遠い位置であると判定するように判定基準を変更する。判定基準を決定するとステップS1113へ進む。   In step S1112, a determination reference value (predetermined value) for determining how far the current pasting position and the previous pasting position are located is calculated. Since the scratch scratch to be synthesized is updated in synchronization with the frame rate, the scratch scratch update cycle becomes longer as the frame rate decreases, that is, the captured image update cycle becomes longer, and the scratch scratch continues to be seen. If the distance between the previous pasting position and the current pasting position is large, the combined scratches appear to move. Therefore, the criterion for determining how far the current and previous pasting positions are is changed according to the frame rate information acquired in step S1111. For example, at a frame rate of 60 fps (first frame rate), when the current position is at a position farther than 10 pixels (first predetermined value) before and after the horizontal position with the previous position as the center, a far position that is larger than the predetermined value. It is determined that On the other hand, at 30 fps (second frame rate), the criterion is such that if the current position is farther than 20 pixels before and after the horizontal (second predetermined value), it is determined that the position is farther than the predetermined value. To change. When the determination criterion is determined, the process proceeds to step S1113.

ステップS1113では、前回のノイズデータの貼り付け位置からステップS1110で算出した今回の貼り付け位置がどの程度移動したかの距離を算出する。算出するとステップS1114へ進む。   In step S1113, the distance of how much the current pasting position calculated in step S1110 has moved from the previous pasting position of the noise data is calculated. If it calculates, it will progress to step S1114.

ステップS1114では、ステップS1113で算出した貼り付け位置間の距離とステップS1113で算出した判定基準との大小を比較する。距離が判定基準(所定値)より大きい、つまり貼り付け位置が前回から今回で大きく変化していると判断した場合は、ステップS1116へ進む。一方、距離が判定基準より小さい、つまり貼り付け位置が前回から今回で小さく変化していると判断した場合は、ステップS1115へ進む。   In step S1114, the distance between the pasting positions calculated in step S1113 is compared with the determination criterion calculated in step S1113. If it is determined that the distance is greater than the criterion (predetermined value), that is, the pasting position has changed significantly from the previous time to this time, the process proceeds to step S1116. On the other hand, if it is determined that the distance is smaller than the criterion, that is, the pasting position has changed slightly from the previous time to this time, the process proceeds to step S1115.

ステップS1115では、あらかじめ規定されている重畳継続カウンタ上限値(第2の所定時間)を大きくなるように変更する。変更するとステップS1117へ進む。
ステップS1116では、あらかじめ規定されている重畳継続カウンタ上限値を小さくなるように変更する。変更するとステップS1117へ進む。
ステップS1117では、重畳継続カウンタ上限値と一時メモリに保存されている重畳継続カウンタの値を比較する。重畳継続カウンタが上限に達した場合はステップS1122へ進む。一方、上限に達していない場合はステップS1118へ進む。
ステップS1118では、決定した今回の貼り付け位置を一時メモリに保存し、次回の制御に利用する。保存を行うとステップS1119へ進む。
ステップS1119では、今回の貼り付け位置を貼り付け処理部208に対して指示する。指示を行うと、ステップS1120へ進む。
ステップS1120では、合成処理部205に対して貼り付け指示されたスクラッチ傷と撮像画像の重畳を有効とする指示を行う。重畳を有効にすると、制御を終了する。
ステップS1121では、一時メモリに保存されている重畳継続カウンタの値を初期状態にクリアし、保存を行う。保存が終了するとステップS1122へ進む。
In step S1115, the superposition continuation counter upper limit value (second predetermined time) defined in advance is changed to be larger. If it changes, it will progress to step S1117.
In step S1116, the superposition continuation counter upper limit value specified in advance is changed to be smaller. If it changes, it will progress to step S1117.
In step S1117, the superposition continuation counter upper limit value is compared with the value of the superposition continuation counter stored in the temporary memory. If the superposition continuation counter reaches the upper limit, the process proceeds to step S1122. On the other hand, if the upper limit has not been reached, the process proceeds to step S1118.
In step S1118, the determined pasting position is stored in a temporary memory and used for the next control. If it preserve | saves, it will progress to step S1119.
In step S 1119, the current paste position is instructed to the paste processing unit 208. When the instruction is given, the process proceeds to step S1120.
In step S1120, the composition processing unit 205 is instructed to validate the superimposition of the scratch scratch instructed to be pasted and the captured image. When superimposition is enabled, control is terminated.
In step S1121, the value of the superposition continuation counter stored in the temporary memory is cleared to the initial state and stored. When the storage ends, the process proceeds to step S1122.

ステップS1122では、合成処理部205に対して貼り付け指示されたスクラッチ傷と撮像画像の重畳の無効を指示する。無効にする方法は、合成処理そのものを行わず撮像画像のみを出力する方法でもよいし、合成処理は行うが、撮像画像に対するスクラッチ傷の合成比率を下げて、撮像画像のみが出力される方法でもよく、その実現手段はどのようなものであってもよい。重畳を無効にすると、制御を終了する。   In step S <b> 1122, the composition processing unit 205 is instructed to invalidate the superimposition of the scratches instructed for pasting and the captured image. The invalidation method may be a method in which only the captured image is output without performing the synthesis process itself, or a method in which only the captured image is output by reducing the synthesis ratio of the scratches to the captured image, although the synthesis process is performed. Well, any realization means may be used. When superimposing is disabled, the control is terminated.

第2の実施形態では、あらかじめ記憶手段に記憶しておいた複数のパターンのスクラッチ傷で構成されるノイズデータから、任意の位置を撮像画像の更新に合わせて毎回ランダムに切り出し、これを撮像画像と任意の位置で合成する。これにより、時間的と空間的にランダムに発生し、移動するスクラッチ傷を動画像に付加することが可能となる。   In the second embodiment, an arbitrary position is randomly extracted every time in accordance with the update of the captured image from the noise data composed of a plurality of patterns of scratches stored in advance in the storage unit, and this is captured image And at any position. As a result, it is possible to add to the moving image scratch scratches that occur randomly and temporally and spatially.

さらに、スクラッチ傷の付加が一定期間以上継続した場合に、ノイズデータの今回の貼り付け位置と前回の貼り付け位置とを比較する。このとき、位置の移動が大きく遠い位置へのスクラッチ傷の付加を制限することで、実際のスクラッチ傷の発生に近い動作を実現することが可能となる。   Furthermore, when the addition of scratches continues for a certain period or longer, the current pasting position of noise data is compared with the previous pasting position. At this time, it is possible to realize an operation close to the actual occurrence of scratches by restricting the addition of scratches to a position where the movement of the position is far away.

また、上述の第1および第2の実施形態では、グレインノイズの切り出し位置の変更制御およびスクラッチ傷の付加の無効制御は、動画像のフレームレートに依存してグレインノイズの変更条件およびスクラッチ傷の無効条件を変更した。しかし、ノイズデータの合成比率が小さい場合は、合成後の画像においてノイズ成分が視認されにくい。そのため、グレインノイズの切り出し制御において、今回の切り出し位置が前回の位置の近くであったとしても、パターンが移動しているように認識されにくい。   In the first and second embodiments described above, the grain noise cut-out position change control and the scratch scratch addition invalidity control depend on the frame rate of the moving image, and the grain noise change condition and the scratch damage control. The invalid condition was changed. However, when the synthesis ratio of noise data is small, it is difficult for the noise component to be visually recognized in the synthesized image. Therefore, in the grain noise cut-out control, even if the current cut-out position is near the previous position, it is difficult to recognize the pattern as moving.

そこで、合成における撮像画像とノイズデータの合成比率の設定をユーザーによる操作あるいは自動で変更できる場合は、ノイズデータの合成比率に応じた条件の変更が可能であることは言うまでもない。すなわち、撮像画像に対するノイズデータの合成比率が小さいほど、所定値は大きくすることができる。   Therefore, it goes without saying that if the setting of the composite ratio of the captured image and noise data in the synthesis can be changed by a user operation or automatically, the condition can be changed according to the synthesis ratio of the noise data. That is, the smaller the synthesis ratio of noise data to the captured image is, the larger the predetermined value can be.

また、上述の第1および第2の実施形態では、デジタルビデオカメラの動画像撮影時動作でグレインノイズおよびスクラッチ傷を付加する場合について述べた。しかし、本発明は動画像撮影に限られるものではなく、静止画像撮影において連写撮影で、各撮影時に異なるパターンのグレインノイズを付加する場合に用いることも可能である。また動画像あるいは静止画像の再生において、フィルム撮影の効果を付加する場合に利用することが可能であることも言うまでもない。   In the first and second embodiments described above, the case where grain noise and scratches are added in the moving image shooting operation of the digital video camera has been described. However, the present invention is not limited to moving image shooting, and can be used for continuous shooting in still image shooting and adding different patterns of grain noise during each shooting. Needless to say, it can be used to add the effect of film shooting in the reproduction of moving images or still images.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

100、200 撮像素子
101、201 カメラ信号処理部
102、202 システムコントローラ
103、203 信号発生器
104、204 画像処理部
105、201 合成処理部
106、206 切り出し処理部
107、207 拡大処理部
108 第1のフレームメモリ
109、210 メモリ
110 第2のフレームメモリ
111、211 エンコーダ
112、212 記録メディア
208 貼り付け処理部
209 フレームメモリ
100, 200 Image sensor 101, 201 Camera signal processing unit 102, 202 System controller 103, 203 Signal generator 104, 204 Image processing unit 105, 201 Compositing processing unit 106, 206 Cutout processing unit 107, 207 Enlargement processing unit 108 First Frame memory 109, 210 memory 110 second frame memory 111, 211 encoder 112, 212 recording medium 208 pasting processing unit 209 frame memory

Claims (18)

入力される複数フレームの画像にノイズ効果を与えることが可能な画像処理装置であって、
2次元で構成されるノイズデータを記憶する記憶手段と、
前記ノイズデータから入力される画像のフレーム全体に対応したノイズデータを切り出す切り出し手段と、
前記切り出し手段が切り出す前記ノイズデータ上の切り出し位置を指定する指定手段と、
前記切り出し手段によって切り出されたノイズデータを前記入力される画像に合成する合成手段と、を有し、
前記指定手段は、前記ノイズデータ上での前回の切り出し位置と今回の切り出し位置との距離が所定値より大きくなるように今回の切り出し位置を指定することを特徴とする画像処理装置。
An image processing apparatus capable of giving a noise effect to an input image of a plurality of frames,
Storage means for storing noise data composed of two dimensions;
Clipping means for cutting out noise data corresponding to the entire frame of an image input from the noise data;
Designating means for designating a cutout position on the noise data cut out by the cutout means;
Combining the noise data cut out by the cut-out means with the input image,
The image processing apparatus characterized in that the designation means designates the current cutout position so that the distance between the previous cutout position and the current cutout position on the noise data is greater than a predetermined value.
前記指定手段は、
前記切り出し位置をランダムな値に基づいて指示する指示手段と、
前記指示手段によって指示された今回の切り出し位置と前回の切り出し位置との距離が所定値より小さいときに、前記指示手段によって指示された今回の切り出し位置を前記距離が前記所定値より大きくなる位置に変更する変更手段と、
を有することを特徴とする請求項1に記載の画像処理装置。
The designation means is:
Indicating means for indicating the cut-out position based on a random value;
When the distance between the current cut position instructed by the instruction means and the previous cut position is smaller than a predetermined value, the current cut position instructed by the instruction means is set to a position where the distance is larger than the predetermined value. Change means to change;
The image processing apparatus according to claim 1, further comprising:
前記指定手段は、前記ノイズデータ上で切り出し位置を指定し得る領域を複数の領域に分割し、前記指示手段によって指示された切り出し位置がどの領域に属しているかを検出する検出手段を有し、
前記変更手段は、前記指示手段によって指示された今回の切り出し位置を前回の切り出し位置とは異なる領域上の位置に変更することを特徴とする請求項2に記載の画像処理装置。
The specifying unit includes a detection unit that divides an area where a cutout position can be specified on the noise data into a plurality of areas, and detects which area the cutout position instructed by the instruction unit belongs to;
The image processing apparatus according to claim 2, wherein the changing unit changes the current cutout position instructed by the instruction unit to a position on an area different from the previous cutout position.
前記指定手段は、
前記切り出し位置をランダムな値に基づいて指示する指示手段と、
前記ノイズデータ上で切り出し位置を指定し得る領域を複数の領域に分割し、前記指示手段によって指示された切り出し位置がどの領域に属しているかを検出する検出手段と、
前記検出手段によって前記指示手段によって指示された今回の切り出し位置と前回の切り出し位置との位置が同じ領域に属していると検出されたときに、前記指示手段によって指示された今回の切り出し位置を前回の切り出し位置とは異なる領域上の位置に変更する変更手段と、
を有することを特徴とする請求項1に記載の画像処理装置。
The designation means is:
Indicating means for indicating the cut-out position based on a random value;
A detection unit that divides an area where a cutout position can be specified on the noise data into a plurality of areas, and detects which area the cutout position instructed by the instruction unit belongs to;
When it is detected by the detection means that the position of the current cutout position and the previous cutout position indicated by the instruction means belong to the same area, the current cutout position indicated by the instruction means is changed to the previous cutout position. Change means for changing to a position on an area different from the cutout position of
The image processing apparatus according to claim 1, further comprising:
前記変更手段は、前記所定値に前記複数フレームの入力される画像が第1のフレームレートであるときに第1の所定値を用い、前記第1のフレームレートよりも小さい第2のフレームレートのときに前記第1の所定値よりも値の大きい第2の所定値を用いることを特徴とする請求項1に記載の画像処理装置。   The changing unit uses a first predetermined value when an image to which the plurality of frames are input has a first frame rate, and has a second frame rate smaller than the first frame rate. The image processing apparatus according to claim 1, wherein a second predetermined value that is larger than the first predetermined value is sometimes used. 前記合成手段は、前記所定サイズのノイズデータを前記入力される画像データのサイズにリサイズして、前記入力される画像データに合成することを特徴とする請求項1乃至5のいずれか1つに記載の画像処理装置。   6. The composition unit according to claim 1, wherein the synthesizing unit resizes the noise data of the predetermined size to a size of the input image data and combines the noise data with the input image data. The image processing apparatus described. 前記ノイズデータは乱数によって画素値を決められた画素群からなるデータであり、前記ノイズ効果はフィルム風の粒状効果であることを特徴とする請求項1乃至6のいずれか1つに記載の画像処理装置。   The image according to any one of claims 1 to 6, wherein the noise data is data composed of a group of pixels whose pixel values are determined by random numbers, and the noise effect is a film-like granular effect. Processing equipment. 複数フレームの入力される画像にノイズ効果を与えることが可能な画像処理装置であって、
複数パターンのノイズデータを記憶する記憶手段と、
前記複数パターンのノイズデータから、今回のフレームの画像に貼り付けるノイズデータを選択する選択手段と、
前記今回のフレームの画像上の前記選択手段で選択されたノイズデータを貼り付ける位置を決定する決定手段と、
前記決定手段で決定された位置に前記選択手段で選択されたノイズデータを合成することで貼り付ける合成手段と、を有し、
前記合成手段は、前回のフレームの画像にノイズデータが貼り付けられた貼り付け位置と、今回のフレームの画像にノイズデータを貼り付ける貼り付け位置との距離が所定値より大きい場合、今回のノイズデータの貼り付けを制限する
ことを特徴とする画像処理装置。
An image processing apparatus capable of giving a noise effect to an input image of a plurality of frames,
Storage means for storing noise data of a plurality of patterns;
Selecting means for selecting noise data to be pasted to the image of the current frame from the plurality of patterns of noise data;
Determining means for determining a position to paste the noise data selected by the selecting means on the image of the current frame;
Combining means for pasting the noise data selected by the selection means by combining the noise data selected by the selection means at the position determined by the determination means;
When the distance between the pasting position where the noise data is pasted on the previous frame image and the pasting position where the noise data is pasted on the current frame image is larger than a predetermined value, the synthesizing unit An image processing apparatus that restricts pasting of data.
前記複数パターンのノイズデータは2次元データで構成され、
前記選択手段は、前記2次元データからランダムに指定された位置に基づいてノイズデータを切り出すことで今回のフレームの画像に貼り付けるノイズデータを選択することを特徴とする請求項8に記載の画像処理装置。
The plural patterns of noise data are composed of two-dimensional data,
9. The image according to claim 8, wherein the selection unit selects noise data to be pasted on the image of the current frame by cutting out noise data based on a randomly designated position from the two-dimensional data. Processing equipment.
前記複数パターンのノイズデータは水平方向に1画素を最小単位とし、垂直方向に複数画素を最小単位として乱数によって強度が決められていることを特徴とする請求項8または9に記載の画像処理装置。   The image processing apparatus according to claim 8 or 9, wherein the noise data of the plurality of patterns is determined by a random number with one pixel in the horizontal direction as a minimum unit and a plurality of pixels in the vertical direction as a minimum unit. . 前記選択手段によって選択された同一のノイズデータが連続して貼り付けられる時間を検出する第1の検出手段を有し、
前記選択手段は、前記第1の検出手段によって同一のノイズデータが連続して貼り付けられる時間が第1の所定時間を超えたことが検出された場合に、新たにノイズデータを選択することを特徴とする請求項8乃至10のいずれか1つに記載の画像処理装置。
First detection means for detecting a time during which the same noise data selected by the selection means is continuously pasted;
The selecting means selects new noise data when it is detected by the first detecting means that the time during which the same noise data is continuously pasted exceeds a first predetermined time. The image processing apparatus according to claim 8, wherein the image processing apparatus is an image processing apparatus.
前記複数フレームの入力される画像に連続してノイズデータが貼り付けられる継続時間を検出する第2の検出手段を有し、
前記第2の検出手段によって前記継続時間が第2の所定時間を超えたことが検出された場合に、ノイズデータの貼り付けを無効とすることを特徴とする請求項8乃至10のいずれか1つに記載の画像処理装置。
Second detection means for detecting a duration of time during which noise data is continuously pasted to the input image of the plurality of frames;
11. The noise data pasting is invalidated when the second detecting means detects that the duration exceeds a second predetermined time. The image processing apparatus described in one.
前記決定手段は、前記所定値に前記複数フレームの入力される画像が第1のフレームレートであるときに第1の所定値を用い、前記第1のフレームレートよりも小さい第2のフレームレートのときに前記第1の所定値よりも範囲の広い第2の所定値を用いることを特徴とする請求項8乃至12のいずれか1つに記載の画像処理装置。   The determination unit uses a first predetermined value when an image to which the plurality of frames are input has a first frame rate, and has a second frame rate smaller than the first frame rate. 13. The image processing apparatus according to claim 8, wherein a second predetermined value having a wider range than the first predetermined value is sometimes used. 前記選択手段によって選択されたノイズデータを貼り付けるか否かを所定フレーム毎に決定する決定手段を有することを特徴とする請求項8乃至13のいずれか1つに記載の画像処理装置。   The image processing apparatus according to claim 8, further comprising a determination unit that determines, for each predetermined frame, whether or not the noise data selected by the selection unit is to be pasted. 2次元で構成されるノイズデータを記憶する記憶手段と、前記ノイズデータから切り出された所定サイズのノイズデータを前記入力される画像に合成する合成手段と、を有し、入力される複数フレームの画像にノイズ効果を与えることが可能な画像処理装置の制御方法であって、
前記ノイズデータから所定サイズのノイズデータを切り出す切り出しステップと、
前記切り出しステップにて切り出す前記ノイズデータ上の切り出し位置を指定する指定ステップと、
合成手段によって、前記切り出しステップにて切り出された所定サイズのノイズデータに基づくノイズデータを前記入力される画像に合成する合成ステップと、を有し、
前記指定ステップでは、前記ノイズデータ上での前回の切り出し位置と今回の切り出し位置との距離が所定値より大きくなるように今回の切り出し位置を指定することを特徴とする画像処理装置の制御方法。
Storage means for storing noise data configured in two dimensions, and synthesis means for synthesizing noise data of a predetermined size cut out from the noise data into the input image. An image processing apparatus control method capable of giving a noise effect to an image,
A cutout step of cutting out noise data of a predetermined size from the noise data;
A designation step for designating a cutout position on the noise data cut out in the cutout step;
A synthesis step of synthesizing noise data based on the noise data of a predetermined size cut out in the cutout step with the input image by a synthesis unit;
In the specifying step, the current cutout position is specified such that the distance between the previous cutout position on the noise data and the current cutout position is greater than a predetermined value.
複数パターンのノイズデータを記憶する記憶手段と、前記複数パターンのノイズデータから選択されたノイズデータを前記入力される画像に合成することで貼り付ける合成手段と、を有し、複数フレームの入力される画像にノイズ効果を与えることが可能な画像処理装置の制御方法であって、
前記複数パターンのノイズデータから、今回のフレームの画像に貼り付けるノイズデータを選択する選択ステップと、
前記今回のフレームの画像上の前記選択ステップで選択されたノイズデータを貼り付ける位置を決定する決定ステップと、
合成手段によって、前記決定ステップで決定された位置に前記選択ステップで選択されたノイズデータを合成することで貼り付ける合成ステップと、を有し、
前記合成ステップでは、前回のフレームの画像にノイズデータが貼り付けられた貼り付け位置と、今回のフレームの画像にノイズデータを貼り付ける貼り付け位置との距離が所定値より大きい場合、今回のノイズデータの貼り付けが制限されることを特徴とする画像処理装置の制御方法。
Storage means for storing a plurality of patterns of noise data; and a combining means for pasting the noise data selected from the plurality of patterns of noise data by combining the input data with the input image. A control method of an image processing apparatus capable of giving a noise effect to an image,
A selection step of selecting noise data to be pasted to the image of the current frame from the plurality of patterns of noise data;
A determination step for determining a position to paste the noise data selected in the selection step on the image of the current frame;
A synthesis step of pasting the noise data selected in the selection step by synthesis at the position determined in the determination step by a synthesis unit;
In the synthesis step, if the distance between the pasting position where the noise data is pasted on the image of the previous frame and the pasting position where the noise data is pasted on the image of the current frame is greater than a predetermined value, the current noise A method for controlling an image processing apparatus, characterized in that pasting of data is restricted.
請求項16に記載の画像処理装置の制御方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which a procedure of a control method for an image processing apparatus according to claim 16 is described. 請求項16に記載の画像処理装置の制御方法の手順が記述されたプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program in which a procedure of a control method for an image processing apparatus according to claim 16 is described.
JP2010287081A 2010-12-24 2010-12-24 Image processing apparatus and image processing apparatus control method Active JP5595257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010287081A JP5595257B2 (en) 2010-12-24 2010-12-24 Image processing apparatus and image processing apparatus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010287081A JP5595257B2 (en) 2010-12-24 2010-12-24 Image processing apparatus and image processing apparatus control method

Publications (2)

Publication Number Publication Date
JP2012133707A true JP2012133707A (en) 2012-07-12
JP5595257B2 JP5595257B2 (en) 2014-09-24

Family

ID=46649204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010287081A Active JP5595257B2 (en) 2010-12-24 2010-12-24 Image processing apparatus and image processing apparatus control method

Country Status (1)

Country Link
JP (1) JP5595257B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017169233A (en) * 2017-05-25 2017-09-21 株式会社ニコン Image processing apparatus
JP7085555B2 (en) 2017-08-22 2022-06-16 ビークルエナジージャパン株式会社 Battery pack

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005080301A (en) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd Dynamic image encoding method and dynamic image decoding method
JP2007513434A (en) * 2003-12-05 2007-05-24 トムソン ライセンシング Technology for simulating film grain using a film grain pattern database
JP2008011202A (en) * 2006-06-29 2008-01-17 Toshiba Corp Film grain processing circuit
JP2008141436A (en) * 2006-11-30 2008-06-19 Toshiba Corp Moving image encoding method, device and program
JP2010093741A (en) * 2008-10-10 2010-04-22 Sony Corp Information processing apparatus, program, and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005080301A (en) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd Dynamic image encoding method and dynamic image decoding method
JP2007513434A (en) * 2003-12-05 2007-05-24 トムソン ライセンシング Technology for simulating film grain using a film grain pattern database
JP2008011202A (en) * 2006-06-29 2008-01-17 Toshiba Corp Film grain processing circuit
JP2008141436A (en) * 2006-11-30 2008-06-19 Toshiba Corp Moving image encoding method, device and program
JP2010093741A (en) * 2008-10-10 2010-04-22 Sony Corp Information processing apparatus, program, and information processing method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200700079003; 後藤 崇行、外2名: '"フィルムグレインを考慮したH.264/AVC符号化方式に関する一検討"' 情報処理学会研究報告 Vol.2005, No.66, 20050708, p.31-36, 社団法人情報処理学会 *
CSNG201000755002; 宗形 俊、外3名: '"ディジタルシネマ復号におけるフィルムグレイン再現モデルの提案"' 映像情報メディア学会技術報告 Vol.34, No.34, 20100830, p.5-8, (社)映像情報メディア学会 *
JPN6014028582; 後藤 崇行、外2名: '"フィルムグレインを考慮したH.264/AVC符号化方式に関する一検討"' 情報処理学会研究報告 Vol.2005, No.66, 20050708, p.31-36, 社団法人情報処理学会 *
JPN6014028585; 宗形 俊、外3名: '"ディジタルシネマ復号におけるフィルムグレイン再現モデルの提案"' 映像情報メディア学会技術報告 Vol.34, No.34, 20100830, p.5-8, (社)映像情報メディア学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017169233A (en) * 2017-05-25 2017-09-21 株式会社ニコン Image processing apparatus
JP7085555B2 (en) 2017-08-22 2022-06-16 ビークルエナジージャパン株式会社 Battery pack

Also Published As

Publication number Publication date
JP5595257B2 (en) 2014-09-24

Similar Documents

Publication Publication Date Title
JP5484310B2 (en) Image processing apparatus and image processing apparatus control method
US8027534B2 (en) Image processing apparatus, image processing method, and program
US20110043639A1 (en) Image Sensing Apparatus And Image Processing Apparatus
US20120105657A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
CN104301596B (en) A kind of method for processing video frequency and device
JP4650560B2 (en) Image processing apparatus, image processing method, and program
JP2005229198A (en) Image processing apparatus and method, and program
JP5206466B2 (en) Image correction apparatus, image correction program, and image photographing apparatus
JP5526233B2 (en) Stereoscopic image photographing apparatus and control method thereof
JP4821642B2 (en) Image processing method, image processing apparatus, digital camera, and image processing program
JP2006094058A (en) Image processing apparatus, program, and method for pre-process to reproduce stationary image as dynamic image
JP2011023814A (en) Imaging apparatus
JP5595257B2 (en) Image processing apparatus and image processing apparatus control method
JP2009268067A (en) Image recording and reproducing apparatus
JP2007142507A (en) Imaging apparatus
JP5875611B2 (en) Image processing apparatus and image processing apparatus control method
JP5566196B2 (en) Image processing apparatus and control method thereof
JP6147318B2 (en) Image processing apparatus and image processing apparatus control method
JP5479149B2 (en) Image generation device
JP2010068193A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2016129281A (en) Image processor
JP2005236472A (en) Apparatus for editing moving picture
JP5176857B2 (en) Movie editing device
JP2009284411A (en) Imaging apparatus
JP6708490B2 (en) Image processing method and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140805

R151 Written notification of patent or utility model registration

Ref document number: 5595257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151