JP2006203716A - Formation of high resolution image using a plurality of low resolution images - Google Patents

Formation of high resolution image using a plurality of low resolution images Download PDF

Info

Publication number
JP2006203716A
JP2006203716A JP2005015028A JP2005015028A JP2006203716A JP 2006203716 A JP2006203716 A JP 2006203716A JP 2005015028 A JP2005015028 A JP 2005015028A JP 2005015028 A JP2005015028 A JP 2005015028A JP 2006203716 A JP2006203716 A JP 2006203716A
Authority
JP
Japan
Prior art keywords
image
resolution
high resolution
edge
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005015028A
Other languages
Japanese (ja)
Inventor
Tsunesuke Shinkai
恒扶 新開
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005015028A priority Critical patent/JP2006203716A/en
Publication of JP2006203716A publication Critical patent/JP2006203716A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for attaining a high definition image while suppressing increase in noise incident to high resolution by synthesis of low resolution images. <P>SOLUTION: An image processor comprises an edge detecting section and a high resolution processing section. The high resolution processing section selects and executes high resolution processing by synthetic high resolution processing mode at a position where an edge is detected by the edge detecting section, and selects and executes high resolution processing by simple high resolution processing mode at a position where an edge is not detected. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の低解像度画像から高解像度画像を生成する技術に関する。   The present invention relates to a technique for generating a high resolution image from a plurality of low resolution images.

デジタルビデオカメラで撮影された動画像は、動画像の1シーンをそれぞれ表現する複数のフレーム画像を含んでいる。従来から、複数のフレーム画像を用いて、フレーム画像よりも画素の密度の高い(すなわち解像度の高い)静止画像を生成する処理が知られている(例えば、特許文献1参照)。この処理は、「高解像度化処理」又は「高精細化処理」とも呼ばれている。   A moving image photographed by a digital video camera includes a plurality of frame images each representing one scene of the moving image. Conventionally, a process for generating a still image having a higher pixel density (that is, higher resolution) than a frame image using a plurality of frame images is known (see, for example, Patent Document 1). This processing is also called “high resolution processing” or “high definition processing”.

なお、本明細書において、「精細度が高い」という文言は、単に解像度(画素密度)が高いだけでなく、画像情報量が多いことを意味する。従って、例えば単純水増し処理によって解像度を2倍にした場合には、解像度は2倍になるが、精細度は変わらない。   In the present specification, the phrase “high definition” means that not only the resolution (pixel density) is high but also the amount of image information is large. Therefore, for example, when the resolution is doubled by the simple padding process, the resolution is doubled, but the definition is not changed.

特開2004−272751号公報Japanese Patent Laid-Open No. 2004-272751

この高解像度化処理では、複数のフレーム画像を合成することによって1枚の高解像度な画像を作成するので、より高精細な画像を得ることができる。しかし、フレーム画像内のうちで画像成分が平滑な画像領域(いわゆる低周波画像領域)では、高解像度化によって画像の精細度はそれほど大きく向上しない。逆に、平滑な画像領域では、高解像度化によってノイズが強調されてしまい、画質が劣化する場合もある。特に、動画はかなりのノイズを含んでいるので、複数のフレーム画像を合成することによって、平滑な画像領域のノイズが増大してしまうという問題が生じ易い傾向にある。   In this high resolution processing, a single high resolution image is created by combining a plurality of frame images, so that a higher definition image can be obtained. However, in an image region (so-called low-frequency image region) in which the image component is smooth in the frame image, the definition of the image is not greatly improved by increasing the resolution. On the other hand, in a smooth image area, noise is enhanced due to high resolution, and image quality may deteriorate. In particular, since a moving image includes a considerable amount of noise, there is a tendency that a problem that noise in a smooth image region increases by combining a plurality of frame images.

なお、このような問題は、動画像を用いて静止画像を生成する場合に限らず、一般に、複数の低解像度画像を用いて高解像度画像を生成する場合に共通する問題であった。   Such a problem is not limited to a case where a still image is generated using a moving image, but is generally a problem common to a case where a high resolution image is generated using a plurality of low resolution images.

本発明は、上記の課題を解決するためになされたものであり、低解像度画像の合成による高解像度化に伴うノイズの増大を軽減しつつ、高精細な画像を得ることが可能な技術を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a technique capable of obtaining a high-definition image while reducing an increase in noise caused by a higher resolution by combining low-resolution images. The purpose is to do.

本発明による画像処理装置は、
参照画像を含む複数の低解像度画像を用いて1枚の高解像度画像を作成する画像処理装置であって、
前記参照画像を解析することによって、前記参照画像内のエッジを検出するエッジ検出部と、
前記複数の低解像度画像に基づいて、1枚の高解像度画像を作成するための高解像度化処理を実行する高解像度化処理部と、
を備え、
前記高解像度化処理は、
前記複数の低解像度画像を合成することによって前記高解像度画像を作成する合成高解像度化処理モードと、
前記参照画像のみを用いて前記高解像度画像を作成する単純高解像度化処理モードと、を有し、
前記高解像度化処理部は、
(i)前記エッジ検出部によってエッジが検出された位置では前記合成高解像度化処理モードによる高解像度化を選択して実行し、
(ii)エッジが検出されなかった位置では前記単純高解像度化処理モードによる高解像度化を選択して実行する。
An image processing apparatus according to the present invention includes:
An image processing apparatus that creates a single high-resolution image using a plurality of low-resolution images including a reference image,
An edge detection unit that detects edges in the reference image by analyzing the reference image;
A high-resolution processing unit that executes a high-resolution processing for creating one high-resolution image based on the plurality of low-resolution images;
With
The high resolution processing
A combined high-resolution processing mode for creating the high-resolution image by combining the plurality of low-resolution images;
A simple high resolution processing mode for creating the high resolution image using only the reference image, and
The high resolution processing unit
(I) In the position where the edge is detected by the edge detection unit, select and execute high resolution by the synthetic high resolution processing mode;
(Ii) At the position where no edge is detected, resolution enhancement by the simple resolution enhancement processing mode is selected and executed.

エッジのある画像部分は画素値の変化が大きいので、複数の低解像度画像を合成して高解像度画像を作成することによって、より高精細な画像を得ることができる。また、エッジが無い画像部分は、画素値の変化が少ないので、複数の低解像度画像を合成して高解像度化する場合と、参照画像のみを用いて高解像度化する場合とで、得られる高解像度画像の精細度に大きな差は生じない。また、エッジが無い画像部分にノイズが含まれていると、複数の低解像度画像を合成して高解像度化することによってノイズが強調されて却って画質が劣化してしまうおそれがある。本発明による画像処理装置は、エッジ検出の有無に応じて合成高解像度化処理モードと単純高解像度化処理モードを選択的に実行するので、低解像度画像の合成による高解像度化に伴うノイズの増大を軽減しつつ、高精細な画像を得ることができる。   Since an image portion with an edge has a large change in pixel value, a higher resolution image can be obtained by creating a high resolution image by combining a plurality of low resolution images. In addition, since there is little change in the pixel value of an image portion without an edge, a high resolution obtained when combining a plurality of low resolution images to increase the resolution and when increasing the resolution using only the reference image is obtained. There is no significant difference in the resolution of the resolution image. Further, when noise is included in an image portion having no edge, there is a possibility that noise is emphasized by synthesizing a plurality of low resolution images to increase the resolution, and the image quality is deteriorated. Since the image processing apparatus according to the present invention selectively executes the combined high resolution processing mode and the simple high resolution processing mode depending on whether or not the edge is detected, the noise increases due to the high resolution by combining the low resolution images. High-definition images can be obtained while reducing the above.

前記合成高解像度化処理モードと前記単純高解像度化処理モードの選択は、前記参照画像内の1画素毎に行われるようにしてもよい。   The selection of the combined high resolution processing mode and the simple high resolution processing mode may be performed for each pixel in the reference image.

この構成によれば、高精細化とノイズの低減とを画素単位で達成することができる。   According to this configuration, high definition and noise reduction can be achieved in pixel units.

あるいは、前記合成高解像度化処理モードと前記単純高解像度化処理モードの選択は、前記参照画像内の1ライン毎に行われるようにしてもよい。   Alternatively, the selection of the combined high resolution processing mode and the simple high resolution processing mode may be performed for each line in the reference image.

この構成によれば、処理モードの選択がライン毎で済むので、処理時間を短縮することが可能である。   According to this configuration, the processing mode can be selected for each line, so that the processing time can be shortened.

なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理方法および装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。   The present invention can be realized in various forms, for example, an image processing method and apparatus, a computer program for realizing the function of the method or apparatus, a recording medium on which the computer program is recorded, It can be realized in the form of a data signal including the computer program and embodied in a carrier wave.

次に、この発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.実施例:
B.合成高解像度化処理の詳細:
C.変形例:
Next, embodiments of the present invention will be described in the following order based on examples.
A. Example:
B. Details of composite high-resolution processing:
C. Variations:

A.実施例:
図1は、本発明の一実施例としての画像処理システムの構成を示すブロック図である。この画像処理システム800は、プリンタ500と、デジタルビデオカメラ300とを有している。プリンタ500は、データ処理部100と、印刷実行部700(印刷機構)と、を有している。図示は省略しているが、プリンタ500は、画像や操作ガイダンスを表示するための表示部と、ユーザがプリンタ500の動作を指定するための操作部と、を備えている。動画の中から高解像度化のために使用する複数のフレームを選択する操作は、これらの表示部や操作部を用いて行われる。
A. Example:
FIG. 1 is a block diagram showing a configuration of an image processing system as an embodiment of the present invention. The image processing system 800 includes a printer 500 and a digital video camera 300. The printer 500 includes a data processing unit 100 and a print execution unit 700 (printing mechanism). Although not shown, the printer 500 includes a display unit for displaying images and operation guidance, and an operation unit for the user to specify the operation of the printer 500. The operation of selecting a plurality of frames used for increasing the resolution from the moving image is performed using these display units and operation units.

データ処理部100は、ビデオカメラ300から動画像を受け取り、高解像度化処理(後述)を行って高解像度画像を生成するとともに、その印刷データを生成する。印刷実行部700は、この印刷データを受け取って印刷を行う。印刷実行部700としては、インクジェット印刷機構や、熱転写印刷機構等の、周知の種々の印刷機構を採用することができる。   The data processing unit 100 receives a moving image from the video camera 300, performs a resolution increasing process (described later), generates a high resolution image, and generates print data thereof. The print execution unit 700 receives this print data and performs printing. As the printing execution unit 700, various known printing mechanisms such as an ink jet printing mechanism and a thermal transfer printing mechanism can be adopted.

図2は、データ処理部100の内部構成を示すブロック図である。データ処理部100は、エッジ検出部420と、複数のラインバッファ430と、高解像度化処理部440と、印刷データ生成部450と、動きベクトル検出部460を備えている。エッジ検出部420と、高解像度化処理部440と、印刷データ生成部450と、動きベクトル検出部460の機能は、図示しないCPUがコンピュータプログラムを実行することによって実現されている。従って、これらの各部を「プログラムモジュール」、あるいは、単に「モジュール」と呼ぶことも可能である。   FIG. 2 is a block diagram illustrating an internal configuration of the data processing unit 100. The data processing unit 100 includes an edge detection unit 420, a plurality of line buffers 430, a resolution enhancement processing unit 440, a print data generation unit 450, and a motion vector detection unit 460. The functions of the edge detection unit 420, the resolution enhancement processing unit 440, the print data generation unit 450, and the motion vector detection unit 460 are realized by a CPU (not shown) executing a computer program. Therefore, these units can be called “program modules” or simply “modules”.

本実施例では、3枚のフレーム画像Iimg1〜3(以下、「入力画像」と呼ぶ)を用いて1枚の高解像度画像Oimgを生成し、その印刷を実行する。3枚の入力画像Iimg1〜3は、動画像の中から選択されたものであり、ここでは所定の時間間隔Δtだけ離れた3枚のフレーム画像が選択されている。但し、入力画像の枚数や時間間隔は任意に設定することが可能である。   In the present embodiment, one high-resolution image Oimg is generated using three frame images Iimg1 to 3 (hereinafter referred to as “input images”), and printing is executed. The three input images Iimg1 to 3 are selected from the moving images. Here, three frame images separated by a predetermined time interval Δt are selected. However, the number of input images and the time interval can be arbitrarily set.

3枚の入力画像Iimg1〜3のうちの中央の画像Iimg2は、参照入力画像Rimg(「参照画像」とも呼ぶ)として利用される。後述するように、参照入力画像Rimgは、種々の目的のために使用される。すなわち、(i)エッジ検出の対象となり、また、(ii)単純高解像度化処理の元画像として使用される。なお、参照入力画像Rimgとしては、複数の入力画像Iimgの中の任意の画像を選択することが可能である。   The central image Iimg2 of the three input images Iimg1 to 3 is used as a reference input image Rimg (also referred to as “reference image”). As will be described later, the reference input image Rimg is used for various purposes. That is, (i) it becomes an object of edge detection, and (ii) it is used as an original image for simple high resolution processing. As the reference input image Rimg, it is possible to select any image from among the plurality of input images Iimg.

ラインバッファ430は、エッジ検出処理のために、参照入力画像Rimgの3ラインLi-1,Li,Li+1(iはライン番号)の画像データを保持するバッファである。エッジ検出部420は、これらの3ライン分の画像データからエッジの有無を検出する(詳細は後述)。   The line buffer 430 is a buffer that holds image data of three lines Li-1, Li, Li + 1 (i is a line number) of the reference input image Rimg for edge detection processing. The edge detection unit 420 detects the presence or absence of an edge from the image data for these three lines (details will be described later).

高解像度化処理部440は、単純高解像度化処理部442と、合成高解像度化処理部444とを含んでいる。単純高解像度化処理部442は、参照入力画像Rimgのみを用いて高解像度化を実行する。一方、合成高解像度化処理部444は、3枚の入力画像Iimg1〜3を合成することによって高解像度化を実行する。本明細書では、単純高解像度化処理部442による処理を「単純高解像度化モード」と呼び、合成高解像度化処理部444による処理を「合成高解像度化モード」と呼ぶ。高解像度化処理部440は、エッジ検出の結果に応じて、単純高解像度化モードと合成高解像度化モードとのうちの一方を選択して実行する。本実施例では、高解像度化は、処理対象となる1ラインLi 毎に行われる。   The high resolution processing unit 440 includes a simple high resolution processing unit 442 and a combined high resolution processing unit 444. The simple high resolution processing unit 442 performs high resolution using only the reference input image Rimg. On the other hand, the synthetic high resolution processing unit 444 performs high resolution by synthesizing the three input images Iimg1 to Iimg1-3. In this specification, the processing by the simple high resolution processing unit 442 is referred to as “simple high resolution mode”, and the processing by the composite high resolution processing unit 444 is referred to as “combined high resolution mode”. The resolution enhancement processing unit 440 selects and executes one of the simple resolution enhancement mode and the composite resolution enhancement mode according to the edge detection result. In the present embodiment, the resolution is increased for each line Li to be processed.

高解像度化によって作成された高解像度画像Oimgは、印刷データ生成部450に供給される。印刷データ生成部450は、高解像度画像Oimgの印刷データを生成し、印刷実行部700(図1)に供給して印刷を実行させる。   The high-resolution image Oimg created by the high resolution is supplied to the print data generation unit 450. The print data generation unit 450 generates print data of the high resolution image Oimg and supplies it to the print execution unit 700 (FIG. 1) to execute printing.

図3は、低解像度画像と高解像度画像の画素位置の関係の一例を示す説明図である。図3において低解像度画像の画素位置を○印で示し、高解像度画像の画素位置を×印で示す。この例では、高解像度画像の画素ピッチPhighは、低解像度画像の画素ピッチPlow の半分である。すなわち、高解像度画像は、低解像度画像の2倍の解像度(すなわち2倍の画素密度)を有している。また、高解像度画像の画素位置は、低解像度画像の画素位置から高解像度画素ピッチPhighの1/2だけ水平方向及び垂直方向にずれている。   FIG. 3 is an explanatory diagram illustrating an example of a relationship between pixel positions of a low resolution image and a high resolution image. In FIG. 3, the pixel position of the low-resolution image is indicated by a circle, and the pixel position of the high-resolution image is indicated by a cross. In this example, the pixel pitch Phigh of the high resolution image is half of the pixel pitch Plow of the low resolution image. That is, the high resolution image has twice the resolution (that is, twice the pixel density) of the low resolution image. The pixel position of the high resolution image is shifted from the pixel position of the low resolution image in the horizontal direction and the vertical direction by 1/2 of the high resolution pixel pitch Phigh.

図3において、破線で示す枠は、各低解像度画素に対応付けられた4つの高解像度画素の範囲を示している。単純高解像度化においては、1つの低解像度画像の画素値が、この破線内の4つの高解像度画素にコピーされる。すなわち、この破線内の高解像度画素の画素値は、低解像度画素の画素値と同一に設定される。従って、この単純高解像度化では、解像度は高くなるが精細度は変わらない。但し、単純高解像度化処理において、バイリニア法等による補間演算を用いて高解像度画素の画素値を算出してもよい。高解像度化の際に補間演算を利用すると、精細度も若干向上する。一方、合成高解像度化処理では、参照入力画像Rimgのみでなく、複数の入力画像Iimg1〜3を共に使用して高解像度画素の画素値が算出される(詳細は後述)。従って、合成高解像度化処理では、解像度のみでなく精細度も向上する。   In FIG. 3, a frame indicated by a broken line indicates a range of four high-resolution pixels associated with each low-resolution pixel. In the simple high resolution, the pixel value of one low resolution image is copied to the four high resolution pixels in the broken line. That is, the pixel value of the high resolution pixel in the broken line is set to be the same as the pixel value of the low resolution pixel. Therefore, with this simple high resolution, the resolution is increased, but the definition is not changed. However, in the simple high resolution processing, the pixel value of the high resolution pixel may be calculated using an interpolation calculation by a bilinear method or the like. When interpolation is used for higher resolution, the definition is slightly improved. On the other hand, in the composite high-resolution processing, pixel values of high-resolution pixels are calculated using not only the reference input image Rimg but also a plurality of input images Iimg1 to 3 (details will be described later). Therefore, in the composite high resolution processing, not only the resolution but also the definition is improved.

図4は、低解像度画像と高解像度画像の画素位置の関係の他の例を示す説明図である。この例では、高解像度画像内の1/4の画素の位置は、低解像度画像の画素の位置と一致している。低解像度画像と高解像度画像の画素位置の関係としては、図3及び図4に示したもの以外の種々のものを採用することも可能である。但し、以下に説明する実施例では、図3に示した位置関係を使用している。   FIG. 4 is an explanatory diagram illustrating another example of the relationship between the pixel positions of the low resolution image and the high resolution image. In this example, the position of the quarter pixel in the high resolution image matches the position of the pixel in the low resolution image. As the relationship between the pixel positions of the low-resolution image and the high-resolution image, various things other than those shown in FIGS. 3 and 4 can be adopted. However, in the embodiment described below, the positional relationship shown in FIG. 3 is used.

なお、一般に、高解像度画像の画素ピッチPhighは、低解像度画像の画素ピッチPlow の1/M倍(Mは1より大きな任意の値)に設定可能である。但し、Mは2以上に設定することが好ましく、本実施例では、M=2に設定されている。   In general, the pixel pitch Phigh of the high resolution image can be set to 1 / M times the pixel pitch Plow of the low resolution image (M is an arbitrary value larger than 1). However, M is preferably set to 2 or more, and in this embodiment, M = 2.

図5は、本実施例における高解像度化処理の全体手順を示すフローチャートである。ステップS10では、各種の初期化が行われる。この際、高解像度化処理の対象ラインを示す対象ライン番号Nlineと、対象画素を示す対象画素番号Npix も0に初期化される。対象ラインNlineと対象画素Npixは、参照画像Rimg内のライン及び画素(低解像度画素)を示している。   FIG. 5 is a flowchart showing the overall procedure of the resolution enhancement processing in this embodiment. In step S10, various initializations are performed. At this time, the target line number Nline indicating the target line of the resolution enhancement process and the target pixel number Npix indicating the target pixel are also initialized to zero. The target line Nline and the target pixel Npix indicate lines and pixels (low resolution pixels) in the reference image Rimg.

ステップS11では、動きベクトル検出部460によって、各入力画像Iimgの動きベクトル(相対移動量)が算出される。この動きベクトルは、参照入力画像Rimgの全体と、他の入力画像(Iimg1又はIimg3)の全体と、の相対的な位置を表すベクトルである。従って、入力画像が3枚のときは、2つの動きベクトルが得られる。これらの動きベクトルは、合成高解像度化処理の際に利用される。なお、一般に、入力画像Iimgの数が、参照入力画像Rimgを含めてN+1個(Nは1以上の整数)のときには、N個の動きベクトルが算出される。   In step S11, the motion vector detection unit 460 calculates the motion vector (relative movement amount) of each input image Iimg. This motion vector is a vector representing the relative position of the entire reference input image Rimg and the other input images (Iimg1 or Iimg3). Therefore, when there are three input images, two motion vectors are obtained. These motion vectors are used in the synthetic high resolution processing. In general, when the number of input images Iimg is N + 1 (N is an integer equal to or greater than 1) including the reference input image Rimg, N motion vectors are calculated.

ステップS12では、対象ラインNlineを中心とした3ライン分の画像データが、参照入力画像Rimgから選択されてラインバッファ430(図2)に入力される。なお、Nline=0が画像領域の上端ラインを示すものとすると、Nline=0のときには対象ラインNline(=Li)の手前のラインLi-1は現実には存在しない。この場合には、ラインLi-1の画像データとして、対象ラインNline(=Li)の画像データをコピーして使用してもよい。あるいは、ステップS12以降の処理を、Nline=1から開始するようにしてもよい。対象画素Npixに関しても同様である。   In step S12, three lines of image data centered on the target line Nline are selected from the reference input image Rimg and input to the line buffer 430 (FIG. 2). If Nline = 0 indicates the upper end line of the image area, when Nline = 0, the line Li-1 before the target line Nline (= Li) does not actually exist. In this case, the image data of the target line Nline (= Li) may be copied and used as the image data of the line Li-1. Or you may make it start the process after step S12 from Nline = 1. The same applies to the target pixel Npix.

ステップS13では、エッジ検出部420がラインバッファ430内の画像データを用いて、参照画像Rimg内の対象画素Npixのエッジを検出する。図6は、エッジ検出の方法を示す説明図である。図6(A)は、x方向とy方向のエッジ検出用の1次微分フィルタFLx,FLyを示している。図6(B)は、x方向とy方向のエッジ検出用のソーベルフィルタFLx,FLyを示している。本実施例では、1次微分フィルタFLx,FLyを用いている。但し、エッジ検出用フィルタ(「エッジ量算出用フィルタ」とも呼ぶ)としては、これら以外の任意のフィルタを用いることが可能であり、例えば2次微分フィルタを用いることも可能である。   In step S13, the edge detecting unit 420 detects the edge of the target pixel Npix in the reference image Rimg using the image data in the line buffer 430. FIG. 6 is an explanatory diagram showing a method of edge detection. FIG. 6A shows primary differential filters FLx and FLy for edge detection in the x and y directions. FIG. 6B shows Sobel filters FLx and FLy for edge detection in the x and y directions. In the present embodiment, primary differential filters FLx and FLy are used. However, as the edge detection filter (also referred to as “edge amount calculation filter”), any filter other than these can be used, and for example, a secondary differential filter can also be used.

2つの1次微分フィルタFLx,FLyを用いて対象画素Npixにフィルタ処理を行うことによって、対象画素Npixのx方向のエッジ量成分Edxとy方向のエッジ量成分Edyとを算出することができる。対象画素Npixのエッジ量Ed及びエッジ方向θは、例えば図6(C)に示した式に従って算出することができる。このエッジ量Edは、x方向のエッジ量成分Edyとy方向のエッジ量成分Edyとを総合したエッジ量(「総合エッジ量」とも呼ぶ)である。この例のように、エッジの検出(エッジ有無の判定)に用いるエッジ量としては、2つの方向のエッジ量成分を含む総合エッジ量を使用することが好ましい。なお、例えばラプラシアンフィルタを用いて得られるエッジ量は、総合エッジ量の一種と考えることが可能である。   By performing filter processing on the target pixel Npix using the two first-order differential filters FLx and FLy, the edge amount component Edx in the x direction and the edge amount component Edy in the y direction of the target pixel Npix can be calculated. The edge amount Ed and the edge direction θ of the target pixel Npix can be calculated, for example, according to the equation shown in FIG. This edge amount Ed is an edge amount (also referred to as “total edge amount”) obtained by combining the edge amount component Edy in the x direction and the edge amount component Edy in the y direction. As in this example, as the edge amount used for edge detection (edge presence / absence determination), it is preferable to use a total edge amount including edge amount components in two directions. For example, the edge amount obtained using a Laplacian filter can be considered as a kind of total edge amount.

エッジ有無の判定は、エッジ量Edと所定の閾値Ethとの比較によって行われる。すなわち、エッジ量Edが閾値Eth以上のときにはその対象画素にはエッジが有るものと判定され、一方、閾値Eth未満のときにはその対象画素にはエッジが無いものと判定される。   The determination of the presence / absence of an edge is performed by comparing the edge amount Ed with a predetermined threshold value Eth. That is, when the edge amount Ed is equal to or greater than the threshold Eth, it is determined that the target pixel has an edge, and when it is less than the threshold Eth, the target pixel is determined to have no edge.

図5のステップS14において対象画素にエッジが有ると判断された場合には、ステップS15において、合成高解像度化処理部444が高解像度化処理を実行し、対象画素に対応付けられた複数の高解像度画素(図3において破線で囲まれた4つの高解像度画素)の画素値を算出する。この合成高解像度化処理では、参照入力画像Rimgのみでなく、複数の入力画像Iimg1〜3を共に使用して高解像度画素の画素値が算出される。なお、合成高解像度化処理の詳細についてはさらに後述する。   If it is determined in step S14 in FIG. 5 that the target pixel has an edge, in step S15, the combined high resolution processing unit 444 executes the high resolution processing, and a plurality of high resolutions associated with the target pixel are processed. Pixel values of resolution pixels (four high resolution pixels surrounded by a broken line in FIG. 3) are calculated. In this composite high resolution processing, not only the reference input image Rimg but also the plurality of input images Iimg1 to 3 are used together to calculate pixel values of high resolution pixels. Details of the composite high resolution processing will be described later.

一方、対象画素にエッジが無いと判断された場合には、ステップS16において、単純高解像度化処理部442が高解像度化処理を実行し、対象画素に対応付けられた複数の高解像度画素の画素値を算出する。この単純高解像度化処理は、例えば、低解像度画像の画素値を4つの高解像度画素にコピーすることによって実現される。画素値のコピーの代わりに、高解像度画素に近接する複数の低解像度画素の画素値を補間することによって高解像度画素の画素値を決定してもよい。すなわち、単純高解像度化処理では、参照入力画像Rimgのみを用い、1つ以上の最近接画素を参照して各高解像度画素の画素値を生成することができる。   On the other hand, when it is determined that the target pixel does not have an edge, in step S16, the simple high resolution processing unit 442 executes the high resolution processing, and a plurality of high resolution pixel pixels associated with the target pixel. Calculate the value. This simple high resolution processing is realized by, for example, copying pixel values of a low resolution image to four high resolution pixels. Instead of copying the pixel value, the pixel value of the high resolution pixel may be determined by interpolating the pixel values of a plurality of low resolution pixels adjacent to the high resolution pixel. That is, in the simple high resolution process, only the reference input image Rimg is used, and the pixel value of each high resolution pixel can be generated by referring to one or more nearest pixels.

こうして作成された高解像度化画像の画素値は、高解像度化処理部440から印刷データ生成部450(図2)に順次供給される。   The pixel values of the resolution-enhanced image created in this way are sequentially supplied from the resolution-enhancement processing unit 440 to the print data generation unit 450 (FIG. 2).

図5のステップS17では、対象画素番号Npixが更新される。なお、対象画素が各ラインの終端に達した場合には、対象ライン番号Nlineも更新される。全画素の処理が完了していなければ、ステップS18からステップS12に戻り、ラインバッファ430内の画像データが必要に応じて更新されてステップS13〜S18の処理が繰り返される。   In step S17 of FIG. 5, the target pixel number Npix is updated. When the target pixel reaches the end of each line, the target line number Nline is also updated. If the processing for all the pixels has not been completed, the process returns from step S18 to step S12, the image data in the line buffer 430 is updated as necessary, and the processes in steps S13 to S18 are repeated.

このように、本実施例では、エッジが有ると判定された画素位置では合成高解像度化処理を実行するので、画素値の変化が急峻な画像部分についてはより高精細な画像を得ることができる。一方、エッジが無いと判定された画素位置では、単純高解像度化処理を実行するので、画素値の変化が緩慢な画像部分については合成高解像度化処理に起因してノイズが強調されてしまうことを防止することができる。また、単純高解像度化処理は、合成高解像度化処理に比べて処理時間が短いので、全体の処理時間を短縮できるという利点もある。   In this way, in this embodiment, since the composite high resolution processing is executed at the pixel position determined to have an edge, a higher definition image can be obtained for an image portion where the pixel value changes sharply. . On the other hand, since a simple high-resolution process is executed at the pixel position determined to have no edge, noise is emphasized due to the combined high-resolution process for an image portion whose pixel value changes slowly. Can be prevented. Further, the simple high resolution processing has an advantage that the entire processing time can be shortened because the processing time is shorter than the synthetic high resolution processing.

なお、上記実施例では、個々の低解像度画素毎に高解像度化処理モードの選択を行っていたが、この代わりに、各ライン毎に高解像度化処理モードの選択を行うようにしてもよい。例えば、参照入力画像Rimgの各ライン毎に、エッジ量の和に相関のあるエッジ量指標値(例えば、エッジ量の和や、エッジ量の自乗和など)を算出し、そのエッジ量指標値に応じてエッジの有無を判断すれば、各ライン毎に高解像度化処理モードの選択を行うことが可能である。   In the above embodiment, the high resolution processing mode is selected for each individual low resolution pixel, but instead, the high resolution processing mode may be selected for each line. For example, for each line of the reference input image Rimg, an edge amount index value (for example, a sum of edge amounts or a square sum of edge amounts) having a correlation with the sum of edge amounts is calculated, and the edge amount index value is calculated. If the presence / absence of an edge is determined accordingly, it is possible to select a high resolution processing mode for each line.

B.合成高解像度化処理の詳細:
図7は、合成高解像度化処理部444の内部構成を示すブロック図である。合成高解像度化処理部444は、制御部210と、画像選択部215と、低解像度画像推定部220と、高解像度画像推定部230と、低解像度差分画像生成部240と、移動量算出部250と、高解像度差分画像生成部260と、出力高解像度画像更新部270と、を有している。これらの各構成要素の機能については後述する。
B. Details of composite high-resolution processing:
FIG. 7 is a block diagram showing an internal configuration of the composite high resolution processing unit 444. The combined high resolution processing unit 444 includes a control unit 210, an image selection unit 215, a low resolution image estimation unit 220, a high resolution image estimation unit 230, a low resolution difference image generation unit 240, and a movement amount calculation unit 250. A high-resolution difference image generation unit 260, and an output high-resolution image update unit 270. The functions of these components will be described later.

図8は、合成高解像度化処理の内容を示す説明図である。図8の例では、3枚の入力画像Iimgから、1枚の高解像度な出力画像Oimgを生成している。以後、図中において、符号LR(Low Resolution)が付された画像は低解像度な画像を表し、符号HR(High Resolution)が付された画像は高解像度な画像を表すこととする。   FIG. 8 is an explanatory diagram showing the contents of the composite high resolution processing. In the example of FIG. 8, one high-resolution output image Oimg is generated from three input images Iimg. Hereinafter, in the figure, an image with a symbol LR (Low Resolution) represents a low resolution image, and an image with a symbol HR (High Resolution) represents a high resolution image.

図9は、合成高解像度化処理の手順を示すフローチャートである。ステップS110では、高解像度画像推定部230(図7)が、入力画像Iimgを用いて仮の出力画像Oimgを生成する。図8の例では、時系列に沿った順番が中央である参照入力画像Rimgを用いて仮の出力画像Oimgを生成する。具体的には、高解像度画像推定部230は、周知のバイリニア法を用いて、低解像度な参照入力画像Rimgから高解像度な仮の出力画像Oimgを生成する。   FIG. 9 is a flowchart showing the procedure of the composite high resolution processing. In step S110, the high resolution image estimation unit 230 (FIG. 7) generates a temporary output image Oimg using the input image Iimg. In the example of FIG. 8, the temporary output image Oimg is generated using the reference input image Rimg having the center in the order along the time series. Specifically, the high-resolution image estimation unit 230 generates a high-resolution temporary output image Oimg from the low-resolution reference input image Rimg using a known bilinear method.

なお、後述するように、最終的な出力画像Oimgは、仮の出力画像Oimgを修正することによって生成される。従って、仮の出力画像Oimgの生成方法としては、バイリニア法に限らず、種々の方法を採用することができる。例えば、ニアレストネイバ法を用いてもよい。   As will be described later, the final output image Oimg is generated by correcting the temporary output image Oimg. Therefore, the method for generating the temporary output image Oimg is not limited to the bilinear method, and various methods can be employed. For example, the nearest neighbor method may be used.

また、参照入力画像Rimgを他の規則に従って定めてもよい。例えば、時系列に沿った順番が先頭の入力画像Iimgを参照入力画像Rimgとして用いることとしてもよい。   Further, the reference input image Rimg may be determined according to other rules. For example, the first input image Iimg in the order along the time series may be used as the reference input image Rimg.

次のステップS120では、移動量算出部250(図7)が、各入力画像Iimgの相対移動量を算出する。この相対移動量は、ある入力画像Iimgの全体と、参照入力画像Rimgの全体と、の相対的な位置を表す値である。このような相対移動量(相対動き量とも呼ぶ)としては、例えば、入力画像Iimg全体の参照入力画像Rimg全体に対する動きベクトルを用いることができる。また、相対移動量としては、画像の平行移動を表す移動量に限らず、他の種々の動きを表す移動量を採用することができる。例えば、平行移動と回転移動とを含む動きを表す移動量を採用してもよい。いずれの場合も、相対移動量の算出方法としては、周知の種々の方法を採用することができる。例えば、各入力画像Iimgから特徴点を抽出し、特徴点の移動量を算出することによって相対移動量を算出する方法を採用することができる。   In the next step S120, the movement amount calculation unit 250 (FIG. 7) calculates the relative movement amount of each input image Iimg. This relative movement amount is a value representing a relative position between the entire input image Iimg and the entire reference input image Rimg. As such a relative movement amount (also referred to as a relative motion amount), for example, a motion vector of the entire input image Iimg relative to the entire reference input image Rimg can be used. The relative movement amount is not limited to the movement amount representing the parallel movement of the image, and other movement amounts representing various movements can be employed. For example, you may employ | adopt the movement amount showing the motion containing a parallel movement and a rotational movement. In either case, various known methods can be employed as a method for calculating the relative movement amount. For example, a method of calculating a relative movement amount by extracting a feature point from each input image Iimg and calculating a movement amount of the feature point can be employed.

なお、図5に示した処理手順ではステップS11において動きベクトル(相対移動量)が算出されている。従って、ステップS120では、その演算を再度行う必要は無く、ステップS11で得られた値をそのまま使用することができる。この場合には、ステップS120及び移動量算出部250を省略することができる。   In the processing procedure shown in FIG. 5, a motion vector (relative movement amount) is calculated in step S11. Therefore, in step S120, there is no need to perform the calculation again, and the value obtained in step S11 can be used as it is. In this case, step S120 and the movement amount calculation unit 250 can be omitted.

次のステップS130では、低解像度画像推定部220(図7)が、高解像度な仮の出力画像Oimgを用いて、低解像度な3枚の推定画像Eimgを生成する(詳細は後述)。これらの推定画像Eimgは、仮の出力画像Oimgと整合性のある入力画像を表している。換言すれば、これらの推定画像Eimgは、仮の出力画像Oimgが最適な画像であると仮定した場合に、各入力画像Iimgが有すべき画像を表している。ここで、各推定画像Eimgと各入力画像Iimgとは、一対一に対応付けられている。   In the next step S130, the low resolution image estimation unit 220 (FIG. 7) generates three low resolution estimated images Eimg using the high resolution temporary output image Oimg (details will be described later). These estimated images Eimg represent input images that are consistent with the temporary output image Oimg. In other words, these estimated images Eimg represent images that each input image Iimg should have, assuming that the temporary output image Oimg is an optimal image. Here, each estimated image Eimg and each input image Iimg are associated one to one.

具体的には、ステップS130において、低解像度画像推定部220は、仮の出力画像Oimgと、各相対移動量と、を用いて、各推定画像Eimgを生成する。図8の例では、低解像度画像推定部220は、仮の出力画像Oimgに対してぼかし処理を行い、さらに、相対移動量に従って画像を移動させ、低解像度化処理を実行することによって、推定画像Eimgを生成する。ぼかし処理(平滑化処理)としては、周知の種々の処理を採用することができる。画像の移動処理では、仮の出力画像Oimgが、各入力画像Iimgと重なるように移動される。また、低解像度化処理としては、周知の種々の処理を採用することができる。例えば、バイリニア法やニアレストネイバ法等の補間処理を採用することができる。また、各推定画像Eimgの画素位置が、仮の出力画像Oimgの画素位置と重なっている場合には、単純に画素を間引く処理を採用してもよい。   Specifically, in step S130, the low resolution image estimation unit 220 generates each estimated image Eimg using the temporary output image Oimg and each relative movement amount. In the example of FIG. 8, the low-resolution image estimation unit 220 performs a blurring process on the temporary output image Oimg, further moves the image according to the relative movement amount, and executes the low-resolution process, thereby estimating the estimated image. Eimg is generated. Various known processes can be adopted as the blurring process (smoothing process). In the image moving process, the temporary output image Oimg is moved so as to overlap each input image Iimg. Various known processes can be adopted as the resolution reduction process. For example, an interpolation process such as a bilinear method or a nearest neighbor method can be employed. Further, when the pixel position of each estimated image Eimg overlaps the pixel position of the temporary output image Oimg, a process of simply thinning out the pixels may be employed.

次のステップS140では、低解像度差分画像生成部240(図7)が、3枚の入力画像Iimgと3枚の推定画像Eimgとを用いて、各入力画像Iimg毎の低解像度差分画像LDimgを生成する。この低解像度差分画像LDimgの各画素値は、入力画像Iimgと推定画像Eimgとの同じ画素位置における画素値の差分(=Eimg−Iimg)に設定される。この低解像度差分画像LDimgの意味は、以下のように説明できる。仮の出力画像Oimgと、各入力画像Iimgと、の関係が理想的な状態の場合、すなわち、仮の出力画像Oimgと、各入力画像Iimgと、が、位置(相対移動量)のみが異なる同じ画像を表す場合には、各低解像度差分画像LDimgの各画素値はゼロに近い値となる。一方、仮の出力画像Oimgと理想的な出力画像との間の差異が大きい場合、すなわち、仮の出力画像Oimgと各入力画像Iimgとの間の差異が大きい場合には、その差異によって、各低解像度差分画像LDimgの画素値がゼロから離れることとなる。このように、低解像度差分画像LDimgの画素値のゼロからのズレの大きさは、仮の出力画像Oimgと理想的な出力画像との違いの大きさを意味することになる。従って、低解像度差分画像LDimgの画素値を仮の出力画像Oimgにフィードバックさせれば、仮の出力画像Oimgを理想的な出力画像に近づけることが可能となる。   In the next step S140, the low resolution difference image generation unit 240 (FIG. 7) generates a low resolution difference image LDimg for each input image Iimg using the three input images Iimg and the three estimated images Eimg. To do. Each pixel value of the low resolution difference image LDimg is set to a difference (= Eimg−Iimg) of pixel values at the same pixel position between the input image Iimg and the estimated image Eimg. The meaning of this low resolution difference image LDimg can be explained as follows. When the relationship between the temporary output image Oimg and each input image Iimg is in an ideal state, that is, the temporary output image Oimg and each input image Iimg are the same in only the position (relative movement amount). In the case of representing an image, each pixel value of each low resolution difference image LDimg is a value close to zero. On the other hand, when the difference between the temporary output image Oimg and the ideal output image is large, that is, when the difference between the temporary output image Oimg and each input image Iimg is large, The pixel value of the low resolution difference image LDimg will depart from zero. Thus, the magnitude of the deviation of the pixel value of the low resolution difference image LDimg from zero means the magnitude of the difference between the temporary output image Oimg and the ideal output image. Therefore, if the pixel value of the low resolution difference image LDimg is fed back to the temporary output image Oimg, the temporary output image Oimg can be brought close to an ideal output image.

次のステップS150では、高解像度差分画像生成部260(図7)は、各低解像度差分画像LDimg毎に高解像度な差分画像HDimgを生成する。具体的には、高解像度差分画像生成部260は、低解像度差分画像LDimgに対して高解像度化処理を行い、さらに、シャープネス強調処理を行い、その後、推定相対移動量に従って画像を移動させることによって、各高解像度差分画像HDimgを生成する。高解像度化処理としては、周知の種々の処理を採用することができる。例えば、バイリニア法やニアレストネイバ法を採用することができる。シャープネス強調処理としては、周知の種々の処理を採用することができる。例えば、アンシャープマスクを利用した処理を採用してもよい。さらに、画像の移動処理は、高解像度差分画像HDimgが仮の出力画像Oimgと重なるように行われる。この際、各高解像度差分画像HDimgの各画素値は、仮の出力画像Oimgと同じ画素位置の画素値を表すように補正される。画素値を補正する処理としては、周知の種々の補間処理を採用することができる。   In the next step S150, the high resolution difference image generation unit 260 (FIG. 7) generates a high resolution difference image HDimg for each low resolution difference image LDimg. Specifically, the high-resolution difference image generation unit 260 performs high-resolution processing on the low-resolution difference image LDimg, further performs sharpness enhancement processing, and then moves the image according to the estimated relative movement amount. Each high-resolution difference image HDimg is generated. As the resolution enhancement process, various known processes can be employed. For example, a bilinear method or a nearest neighbor method can be employed. As the sharpness enhancement process, various known processes can be employed. For example, processing using an unsharp mask may be employed. Furthermore, the image moving process is performed so that the high-resolution difference image HDimg overlaps the temporary output image Oimg. At this time, each pixel value of each high-resolution difference image HDimg is corrected so as to represent a pixel value at the same pixel position as that of the temporary output image Oimg. Various known interpolation processes can be employed as the process for correcting the pixel value.

次のステップS160では、高解像度差分画像生成部260は、各高解像度差分画像HDimgを合成して1枚の合成済高解像度差分画像CHDimgを生成する。この合成済高解像度差分画像CHDimgの各画素値は、各高解像度差分画像HDimgの同じ画素位置の画素値の和に設定される。   In the next step S160, the high resolution difference image generation unit 260 combines each high resolution difference image HDimg to generate one combined high resolution difference image CHDimg. Each pixel value of the combined high-resolution difference image CHDimg is set to the sum of pixel values at the same pixel position in each high-resolution difference image HDimg.

次のステップS170では、出力高解像度画像更新部270は、合成済高解像度差分画像CHDimgを仮の出力画像Oimgにフィードバックする。このフィードバックは、仮の出力画像Oimgの各画素値を、以下の式(1)に従って修正することによって行われる。   In the next step S170, the output high-resolution image update unit 270 feeds back the synthesized high-resolution difference image CHDimg to the temporary output image Oimg. This feedback is performed by correcting each pixel value of the temporary output image Oimg according to the following equation (1).

更新後画素値 = 更新前画素値 + α×差分画素値 ...(1)   Pixel value after update = Pixel value before update + α × Difference pixel value ... (1)

ここで、更新後画素値は、フィードバック後の仮の出力画像Oimgの画素値である。更新前画素値は、フィードバック前の仮の出力画像Oimgの画素値である。差分画素値は、合成済高解像度差分画像CHDimgの同じ画素位置の画素値である。αは、フィードバックの強度を表す係数である。この係数αは、フィードバックが過剰とならないように予め実験的に設定しておけばよい。なお、この係数αの正負は、負のフィードバックを実現するように決定される。本実施例では、差分画素値は、推定画像Eimgから入力画像Iimgを差し引いた値(Eimg−Iimg)から得られているので、係数αは、負の値である。   Here, the updated pixel value is the pixel value of the provisional output image Oimg after feedback. The pre-update pixel value is a pixel value of the temporary output image Oimg before feedback. The difference pixel value is a pixel value at the same pixel position in the combined high-resolution difference image CHDimg. α is a coefficient representing the strength of feedback. This coefficient α may be experimentally set in advance so that feedback does not become excessive. The sign α of the coefficient α is determined so as to realize negative feedback. In the present embodiment, the difference pixel value is obtained from a value obtained by subtracting the input image Iimg from the estimated image Eimg (Eimg−Iimg), and thus the coefficient α is a negative value.

以上の処理によって、仮の出力画像Oimgを入力画像Iimgにより適した画像に更新することが可能となる。ステップS170の後は、ステップS130に戻り、ステップS130〜S170の処理が繰り返し実行される。そして、合成済高解像度差分画像CHDimgの画素値が充分に小さくなった時点で、制御部210は、処理が収束したものと判断して、更新を完了する。こうして最終的に更新された出力画像Oimgは、最終的な出力画像Oimgとして利用される。   Through the above processing, the temporary output image Oimg can be updated to an image more suitable for the input image Iimg. After step S170, the process returns to step S130, and the processes of steps S130 to S170 are repeatedly executed. Then, when the pixel value of the combined high-resolution difference image CHDimg becomes sufficiently small, the control unit 210 determines that the process has converged and completes the update. The output image Oimg finally updated in this way is used as the final output image Oimg.

なお、この実施例では、ステップS130においてぼかし処理(平滑化処理)を実行しているので、低解像度差分画像LDimgにおいて、各入力画像Iimgの鮮鋭な部分の画素値の絶対値を平滑な部分の画素値の絶対値よりも大きくすることができる。さらに、ステップS150でシャープネス強調処理を実行しているので、高解像度差分画像HDimgにおいて、各入力画像Iimgの鮮鋭な部分を強調させることができる。その結果、更新後の仮の出力画像Oimgを、各入力画像Iimgと整合性のある鮮鋭な画像とすることができる。   In this embodiment, since the blurring process (smoothing process) is executed in step S130, the absolute value of the pixel value of the sharp part of each input image Iimg in the low resolution difference image LDimg is the smooth part. The absolute value of the pixel value can be made larger. Furthermore, since the sharpness enhancement process is executed in step S150, it is possible to emphasize a sharp portion of each input image Iimg in the high resolution difference image HDimg. As a result, the updated temporary output image Oimg can be a sharp image that is consistent with each input image Iimg.

なお、図8及び図9に示した合成高解像度化処理は、1枚の画像全体に対しても実行することができ、あるいは、1ライン毎に実行することも可能である。1ライン毎に実行する場合には、図8の各画像Eimg,LDimg,HDimg,CHDimg,Oimgとしては、処理対象とする1ライン分の画像が少なくとも生成される。   Note that the composite high resolution processing shown in FIGS. 8 and 9 can be executed for the entire image, or can be executed for each line. When the process is executed for each line, at least one line image to be processed is generated as each image Eimg, LDimg, HDimg, CHDimg, and Oimg in FIG.

ところで、図5で説明した高解像度化処理モードの選択は、前述したように各画素毎又は各ライン毎に実行することができる。各画素素毎に高解像度化処理モードの選択を行う場合には、例えば、図8及び図9に示した合成高解像度化処理を各ライン毎に実行し、その後、単純高解像度化処理を選択すべき画素に関しては、合成高解像度化処理で得られた画素値の代わりに単純高解像度化処理で得られた画素値を使用することによって、高解像度画像を生成することが可能である。   Incidentally, the selection of the high resolution processing mode described with reference to FIG. 5 can be executed for each pixel or for each line as described above. When selecting the high resolution processing mode for each pixel element, for example, the composite high resolution processing shown in FIGS. 8 and 9 is executed for each line, and then the simple high resolution processing is selected. With respect to the pixel to be used, it is possible to generate a high-resolution image by using the pixel value obtained by the simple high-resolution processing instead of the pixel value obtained by the synthetic high-resolution processing.

C.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variations:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

C1.変形例1:
合成高解像度化処理としては、図8及び図9に示したもの以外の種々の処理を採用することが可能である。例えば、他の合成高解像度化処理としては、各高解像度画素に近接した低解像度画素を3つの入力画像Iimg1〜3からそれぞれ1つずつ選択し、これらの3つの低解像度画素画素の画素値を補間することによって高解像度画素の画素値を求める方法を採用することができる。また、画素値の補間演算方法としては、例えばバイリニア法やバイキュービック法などの種々の方法を使用することが可能である。
C1. Modification 1:
Various processes other than those shown in FIGS. 8 and 9 can be employed as the composite high resolution process. For example, as another composite high resolution processing, low resolution pixels close to each high resolution pixel are selected one by one from the three input images Iimg1 to Iimg3, and the pixel values of these three low resolution pixel pixels are selected. A method of obtaining the pixel value of the high resolution pixel by interpolation can be employed. Also, as a pixel value interpolation calculation method, various methods such as a bilinear method and a bicubic method can be used.

C2.変形例2:
上記実施例においては、データ処理部100をプリンタ内に設けることとしたが、この代わりに、データ処理部100を、一般的なパーソナルコンピュータを用いて構成することとしてもよい。また、データ処理部100を、情報携帯端末や、携帯電話、デジタルビデオカメラ、デジタルスチルカメラ等の他の種々の電子機器に実装することとしてもよい。
C2. Modification 2:
In the above embodiment, the data processing unit 100 is provided in the printer, but instead, the data processing unit 100 may be configured using a general personal computer. The data processing unit 100 may be mounted on various other electronic devices such as an information portable terminal, a mobile phone, a digital video camera, and a digital still camera.

C3.変形例3:
上記各実施例では、動画像から高解像度な静止画像を生成することとしているが、この代わりに、複数枚の低解像度な静止画像から、高解像度な静止画像を生成することとしてもよい。
C3. Modification 3:
In each of the above embodiments, a high-resolution still image is generated from a moving image. Instead, a high-resolution still image may be generated from a plurality of low-resolution still images.

C4.変形例4:
上記各実施例において、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよく、逆に、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよい。
C4. Modification 4:
In each of the above embodiments, a part of the configuration realized by software may be replaced by hardware, and conversely, a part of the configuration realized by hardware may be replaced by software. .

本発明の一実施例としての画像処理システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing system as an embodiment of the present invention. データ処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a data processing part. 低解像度画像と高解像度画像の画素位置の関係の一例を示す説明図である。It is explanatory drawing which shows an example of the relationship between the pixel position of a low resolution image and a high resolution image. 低解像度画像と高解像度画像の画素位置の関係の他の例を示す説明図である。It is explanatory drawing which shows the other example of the relationship between the pixel position of a low resolution image and a high resolution image. 本実施例における高解像度化処理の全体手順を示すフローチャートである。It is a flowchart which shows the whole procedure of the resolution increasing process in a present Example. エッジ検出の方法を示す説明図である。It is explanatory drawing which shows the method of edge detection. 合成高解像度化処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a synthetic | combination high resolution process part. 合成高解像度化処理の内容を示す説明図である。It is explanatory drawing which shows the content of the synthetic | combination high resolution process. 合成高解像度化処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a synthetic | combination high resolution process.

符号の説明Explanation of symbols

100…データ処理部
210…制御部
215…画像選択部
220…低解像度画像推定部
230…高解像度画像推定部
240…低解像度差分画像生成部
250…移動量算出部
260…高解像度差分画像生成部
270…出力高解像度画像更新部
300…デジタルビデオカメラ
420…エッジ検出部
430…ラインバッファ
440…高解像度化処理部
442…単純高解像度化処理部
444…合成高解像度化処理部
450…印刷データ生成部
460…動きベクトル検出部
500…プリンタ
700…印刷実行部
800…画像処理システム
DESCRIPTION OF SYMBOLS 100 ... Data processing part 210 ... Control part 215 ... Image selection part 220 ... Low resolution image estimation part 230 ... High resolution image estimation part 240 ... Low resolution difference image generation part 250 ... Movement amount calculation part 260 ... High resolution difference image generation part 270: Output high-resolution image update unit 300: Digital video camera 420 ... Edge detection unit 430 ... Line buffer 440 ... High resolution processing unit 442 ... Simple high resolution processing unit 444 ... Composite high resolution processing unit 450 ... Print data generation Unit 460 ... motion vector detection unit 500 ... printer 700 ... print execution unit 800 ... image processing system

Claims (5)

参照画像を含む複数の低解像度画像を用いて1枚の高解像度画像を作成する画像処理装置であって、
前記参照画像を解析することによって、前記参照画像内のエッジを検出するエッジ検出部と、
前記複数の低解像度画像に基づいて、1枚の高解像度画像を作成するための高解像度化処理を実行する高解像度化処理部と、
を備え、
前記高解像度化処理は、
前記複数の低解像度画像を合成することによって前記高解像度画像を作成する合成高解像度化処理モードと、
前記参照画像のみを用いて前記高解像度画像を作成する単純高解像度化処理モードと、を有し、
前記高解像度化処理部は、
(i)前記エッジ検出部によってエッジが検出された位置では前記合成高解像度化処理モードによる高解像度化を選択して実行し、
(ii)エッジが検出されなかった位置では前記単純高解像度化処理モードによる高解像度化を選択して実行する、画像処理装置。
An image processing apparatus that creates a single high-resolution image using a plurality of low-resolution images including a reference image,
An edge detection unit that detects edges in the reference image by analyzing the reference image;
A high-resolution processing unit that executes a high-resolution processing for creating one high-resolution image based on the plurality of low-resolution images;
With
The high resolution processing
A combined high-resolution processing mode for creating the high-resolution image by combining the plurality of low-resolution images;
A simple high resolution processing mode for creating the high resolution image using only the reference image, and
The high resolution processing unit
(I) In the position where the edge is detected by the edge detection unit, select and execute high resolution by the synthetic high resolution processing mode;
(Ii) An image processing apparatus that selects and executes high resolution in the simple high resolution processing mode at a position where no edge is detected.
請求項1記載の画像処理装置であって、
前記合成高解像度化処理モードと前記単純高解像度化処理モードの選択は、前記参照画像内の1画素毎に行われる、画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus in which selection of the combined high resolution processing mode and the simple high resolution processing mode is performed for each pixel in the reference image.
請求項1記載の画像処理装置であって、
前記合成高解像度化処理モードと前記単純高解像度化処理モードの選択は、前記参照画像内の1ライン毎に行われる、画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus, wherein selection of the combined high resolution processing mode and the simple high resolution processing mode is performed for each line in the reference image.
参照画像を含む複数の低解像度画像を用いて1枚の高解像度画像を作成する画像処理方法であって、
(a)前記参照画像を解析することによって、前記参照画像内のエッジを検出する工程と、
(b)前記複数の低解像度画像に基づいて、1枚の高解像度画像を作成するための高解像度化処理を実行する工程と、
を備え、
前記高解像度化処理は、
前記複数の低解像度画像を合成することによって前記高解像度画像を作成する合成高解像度化処理モードと、
前記参照画像のみを用いて前記高解像度画像を作成する単純高解像度化処理モードと、を有し、
前記工程(b)は、
(i)エッジが検出された位置では前記合成高解像度化処理モードによる高解像度化を選択して実行し、
(ii)エッジが検出されなかった位置では前記単純高解像度化処理モードによる高解像度化を選択して実行する工程を含む、画像処理方法。
An image processing method for creating a single high-resolution image using a plurality of low-resolution images including a reference image,
(A) detecting an edge in the reference image by analyzing the reference image;
(B) executing a high resolution process for creating one high resolution image based on the plurality of low resolution images;
With
The high resolution processing
A combined high-resolution processing mode for creating the high-resolution image by combining the plurality of low-resolution images;
A simple high resolution processing mode for creating the high resolution image using only the reference image, and
The step (b)
(I) At the position where the edge is detected, select and execute high resolution in the combined high resolution processing mode;
(Ii) An image processing method including a step of selecting and executing high resolution in the simple high resolution processing mode at a position where no edge is detected.
参照画像を含む複数の低解像度画像を用いて1枚の高解像度画像を作成するためのコンピュータプログラムであって、
前記参照画像を解析することによって、前記参照画像内のエッジを検出するエッジ検出機能と、
前記複数の低解像度画像に基づいて、1枚の高解像度画像を作成するための高解像度化処理を実行する高解像度化処理機能と、
をコンピュータに実現させるコンピュータプログラムを含み、
前記高解像度化処理は、
前記複数の低解像度画像を合成することによって前記高解像度画像を作成する合成高解像度化処理モードと、
前記参照画像のみを用いて前記高解像度画像を作成する単純高解像度化処理モードと、を有し、
前記高解像度化処理部機能は、
(i)エッジが検出された位置では前記合成高解像度化処理モードによる高解像度化を選択して実行し、
(ii)エッジが検出されなかった位置では前記単純高解像度化処理モードによる高解像度化を選択して実行する機能を含む、コンピュータプログラム。
A computer program for creating one high-resolution image using a plurality of low-resolution images including a reference image,
An edge detection function for detecting an edge in the reference image by analyzing the reference image;
A high resolution processing function for executing a high resolution processing for creating a single high resolution image based on the plurality of low resolution images;
Including a computer program for causing a computer to realize
The high resolution processing
A combined high-resolution processing mode for creating the high-resolution image by combining the plurality of low-resolution images;
A simple high resolution processing mode for creating the high resolution image using only the reference image, and
The high resolution processing unit function is:
(I) At the position where the edge is detected, select and execute high resolution in the combined high resolution processing mode;
(Ii) A computer program including a function of selecting and executing high resolution in the simple high resolution processing mode at a position where no edge is detected.
JP2005015028A 2005-01-24 2005-01-24 Formation of high resolution image using a plurality of low resolution images Pending JP2006203716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005015028A JP2006203716A (en) 2005-01-24 2005-01-24 Formation of high resolution image using a plurality of low resolution images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005015028A JP2006203716A (en) 2005-01-24 2005-01-24 Formation of high resolution image using a plurality of low resolution images

Publications (1)

Publication Number Publication Date
JP2006203716A true JP2006203716A (en) 2006-08-03

Family

ID=36961297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005015028A Pending JP2006203716A (en) 2005-01-24 2005-01-24 Formation of high resolution image using a plurality of low resolution images

Country Status (1)

Country Link
JP (1) JP2006203716A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219574A (en) * 2009-03-12 2010-09-30 Ricoh Co Ltd Image compositing device and image compositing program
JP2011197954A (en) * 2010-03-18 2011-10-06 Nippon Hoso Kyokai <Nhk> Signal processing apparatus and program
JP2011243040A (en) * 2010-05-19 2011-12-01 Nippon Hoso Kyokai <Nhk> Signal restoration device and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219574A (en) * 2009-03-12 2010-09-30 Ricoh Co Ltd Image compositing device and image compositing program
JP2011197954A (en) * 2010-03-18 2011-10-06 Nippon Hoso Kyokai <Nhk> Signal processing apparatus and program
JP2011243040A (en) * 2010-05-19 2011-12-01 Nippon Hoso Kyokai <Nhk> Signal restoration device and program

Similar Documents

Publication Publication Date Title
JP4620607B2 (en) Image processing device
JP4646146B2 (en) Image processing apparatus, image processing method, and program
JP4749477B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2006222493A (en) Creation of high resolution image employing a plurality of low resolution images
US8554019B2 (en) Apparatus and method for image processing
CN108463994B (en) Image processing apparatus, image processing method, and storage medium
JP2010246039A (en) Image processing unit, image-forming device, method of processing image, computer program, and recording medium
JP3075269B2 (en) Image data interpolation method, image data interpolation device, and medium recording image data interpolation program
JP5388559B2 (en) Image processing apparatus, image processing method, program for executing image processing method, and storage medium
JP2006221221A (en) Generation of high resolution image using two or more low resolution image
JP2006221220A (en) Generation of high resolution image using two or more low resolution image
JP2006203717A (en) Formation of high resolution image using a plurality of low resolution images
JP2006203716A (en) Formation of high resolution image using a plurality of low resolution images
JP2006202168A (en) Generation of high-resolution image using a plurality of low resolution images
JP4128123B2 (en) Camera shake correction device, camera shake correction method, and computer-readable recording medium recording camera shake correction program
JP2004272751A (en) Creation of still image from plurality of frame images
JP2006344002A (en) Image processor, edge detecting apparatus, image processing method, edge detecting method and its program
JP2000354244A (en) Image processing unit, its method and computer-readable storage medium
JP2008228251A (en) Image processor, image processing method, and image processing program
JP2006202170A (en) Generation of high-resolution image using a plurality of low resolution images
WO2014034242A1 (en) Image processing device, and method and program for image processing
JP3588797B2 (en) Image data interpolation program, image data interpolation method and image data interpolation device
JP3503136B2 (en) Pixel interpolation device and pixel interpolation method
JP6157234B2 (en) Image processing apparatus, image processing method, and program
JP2009027397A (en) Apparatus, method and program for image processing