JP2005182412A - Image processor and its method - Google Patents

Image processor and its method Download PDF

Info

Publication number
JP2005182412A
JP2005182412A JP2003421492A JP2003421492A JP2005182412A JP 2005182412 A JP2005182412 A JP 2005182412A JP 2003421492 A JP2003421492 A JP 2003421492A JP 2003421492 A JP2003421492 A JP 2003421492A JP 2005182412 A JP2005182412 A JP 2005182412A
Authority
JP
Japan
Prior art keywords
image data
frame
base
image
support frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003421492A
Other languages
Japanese (ja)
Other versions
JP2005182412A5 (en
Inventor
Masatoshi Matsudaira
正年 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003421492A priority Critical patent/JP2005182412A/en
Publication of JP2005182412A publication Critical patent/JP2005182412A/en
Publication of JP2005182412A5 publication Critical patent/JP2005182412A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically set an appropriate parameter value corresponding to moving image data and to generate and output images whose resolution is increased appropriately without putting burdens on a user. <P>SOLUTION: An image processor is provided with a means for selecting a frame (called "support frame" hereafter) to be composited with a base frame on the basis of the degree of image change from the base frame, a means for executing a compositing processing on the basis of the image data (called "base image data" hereafter) of the base frame and the image data of the support frame and generating the image data (called "composite image data" hereafter) in which the number of pixels is larger than the base image data, and a means for executing the output processing of the base frame on the basis of the composite image data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像データの高解像度化を図る画像処理技術に関し、特に、低解像度の動画像を出力する場合に適した画像処理技術に関する。   The present invention relates to an image processing technique for increasing the resolution of image data, and more particularly to an image processing technique suitable for outputting a low-resolution moving image.

近年、ビデオカメラのような動画撮影を主機能とした装置以外にも、例えば携帯電話やデジタルカメラなど、手軽に動画撮影を行える装置が普及しつつある。   In recent years, devices that can easily shoot moving images, such as mobile phones and digital cameras, are becoming widespread, in addition to devices that mainly use moving images such as video cameras.

こういった装置での撮影可能な動画の解像度(サイズ)は、例えばQCIFサイズ(176×144画素)、QVGAサイズ(320×240画素)などであり、高解像度化がすすむディスプレイの表示解像度や印刷解像度に比較して、十分に高い解像度(大きいサイズ)であるとは言えないという現状がある。   The resolution (size) of moving images that can be shot with such a device is, for example, QCIF size (176 × 144 pixels), QVGA size (320 × 240 pixels), etc. There is a current situation that it cannot be said that the resolution (large size) is sufficiently higher than the resolution.

また、通信ネットワークを介して動画配信を行うサービスも一般化しつつあるが、通信速度等の問題から高解像度の動画像データを配信することは現実的には難しいという状況もある。   In addition, services that distribute moving images via a communication network are becoming common, but there are situations where it is actually difficult to distribute high-resolution moving image data due to problems such as communication speed.

そのため、撮影又は配信された動画像データに基づいて表示や印刷を行う際に、低解像度の動画像データを合成して高解像度のデータを生成し、表示や印刷に用いる技術が提案・開発されてきている(特許文献1参照)。
特開2000−194845号公報
For this reason, a technique has been proposed and developed for generating high-resolution data by combining low-resolution moving image data when displaying or printing based on captured or distributed moving image data. (See Patent Document 1).
JP 2000-194845 A

このような動画像データを合成して高解像度化を図る技術の多くは、その処理工程に多くのパラメータ(例えば出力解像度、合成フレーム数など)が関与しており、高解像度化を適切に行うためには、これらのパラメータについて動画像データに応じた適切な値を設定する必要がある。   Many techniques for synthesizing moving image data to achieve high resolution involve many parameters (for example, output resolution, number of synthesized frames, etc.) in the processing process, and appropriately increase the resolution. Therefore, it is necessary to set appropriate values according to the moving image data for these parameters.

しかし、一般のユーザにとって、個々の動画像データに応じて適切にパラメータ値を設定することは非常に困難であることから、初期設定されたパラメータ値を固定的に使用せざるを得ないユーザも多く、高解像度化の技術が十分に活用されているとは言えないという問題があった。   However, since it is very difficult for general users to set parameter values appropriately according to individual moving image data, some users have to use the default parameter values fixedly. There are many problems that it cannot be said that high resolution technology is fully utilized.

そこで、本発明は、動画像データに応じて適切なパラメータ値を自動的に設定し、ユーザに負担をかけることなく適切に高解像度化した画像を生成して、出力することを目的とする。   Accordingly, an object of the present invention is to automatically set an appropriate parameter value according to moving image data, and to generate and output an image with high resolution appropriately without imposing a burden on the user.

本発明の画像処理装置は、ベースフレームとの画像変化の程度に基づいて、ベースフレームに合成するフレーム(以下「サポートフレーム」と呼ぶ)を選択する手段と、ベースフレームの画像データ及びサポートフレームの画像データ(以下それぞれ「ベース画像データ」及び「サポート画像データ」と呼ぶ)に基づいて合成処理を実行し、ベース画像データよりも画素数が多い画像データ(以下、「合成画像データ」と呼ぶ)を生成する手段と、前記合成画像データに基づいてベースフレームの出力処理を実行する手段と、を備えることを特徴とする。   The image processing apparatus according to the present invention includes means for selecting a frame to be combined with a base frame (hereinafter referred to as “support frame”) based on the degree of image change from the base frame, image data of the base frame, and support frame Image data having a larger number of pixels than the base image data (hereinafter referred to as “composite image data”) is executed based on the image data (hereinafter referred to as “base image data” and “support image data”). And a means for executing a base frame output process based on the composite image data.

かかる構成によれば、画像変化に基づいて適切なサポートフレームを自動的に選択しつつ合成に用いるフレーム数を自動的に決定することができ、ユーザは自らサポートフレームの選択や合成に用いるフレーム数の決定を行う必要なく容易かつ適切に高解像度化を行って印刷等を実行することができる。   According to such a configuration, it is possible to automatically determine the number of frames to be used for synthesis while automatically selecting an appropriate support frame based on the image change, and the user can select the number of frames to be used for selection and synthesis of the support frame by himself / herself. Therefore, it is possible to execute printing or the like by increasing the resolution easily and appropriately without having to make the determination.

好適には、前記選択する手段は、選択数が所定の上限値以下となるように、サポートフレームを選択することを特徴とする。また好適には、前記選択する手段は、ベースフレームとサポートフレームとのフレーム間隔が所定の上限値以下となるように、サポートフレームを選択することを特徴とする。前記上限値は、前記合成画像データの画素数に基づいて定められることが望ましい。   Preferably, the selecting means selects the support frame so that the number of selections is equal to or less than a predetermined upper limit value. Further preferably, the selecting means selects the support frame so that a frame interval between the base frame and the support frame is equal to or less than a predetermined upper limit value. The upper limit value is preferably determined based on the number of pixels of the composite image data.

かかる構成によれば、ユーザ自ら設定や操作することなく、合成によって画質が向上する範囲で適切にサポートフレームを選択することができる。   According to such a configuration, the support frame can be appropriately selected within a range in which the image quality is improved by the synthesis without setting or operating by the user himself / herself.

好適には、ベース画像データのぼけ具合に基づいて、ベース合成データに対する合成処理の可否を決定する手段を備えることを特徴とする
かかる構成によれば、ユーザ自ら設定や操作することなく、合成を適切に行えない可能性がある場合には適切に合成処理を中止することができる。
Preferably, the image processing apparatus includes means for determining whether or not to perform the combining process on the base combined data based on the degree of blur of the base image data. According to such a configuration, the combining can be performed without setting or operating the user himself / herself. If there is a possibility that it cannot be properly performed, the synthesis process can be stopped appropriately.

本発明の画像形成装置は、本発明の画像処理装置と、画像データに基づいて媒体に画像を形成する手段と、を備えることを特徴とする。   An image forming apparatus according to the present invention includes the image processing apparatus according to the present invention and means for forming an image on a medium based on image data.

本発明の画像処理方法は、ベースフレームとの画像変化の程度に基づいて、ベースフレームに合成するフレーム(以下「サポートフレーム」と呼ぶ)を選択する工程と、ベースフレームの画像データ及びサポートフレームの画像データ(以下それぞれ「ベース画像データ」及び「サポート画像データ」と呼ぶ)に基づいて合成処理を実行し、ベース画像データよりも画素数が多い画像データ(以下、「合成画像データ」と呼ぶ)を生成する工程と、前記合成画像データに基づいてベースフレームの出力処理を実行する工程と、を備えることを特徴とする。   The image processing method of the present invention includes a step of selecting a frame to be combined with a base frame (hereinafter referred to as a “support frame”) based on the degree of image change with the base frame, and image data of the base frame and the support frame. Image data having a larger number of pixels than the base image data (hereinafter referred to as “composite image data”) is executed based on the image data (hereinafter referred to as “base image data” and “support image data”). And a step of executing a base frame output process based on the composite image data.

本発明の画像処理方法は、コンピュータにより実施することができるが、そのためのコンピュータプログラムは、CD−ROM、磁気ディスク、半導体メモリ及び通信ネットワークなどの各種の媒体を通じてコンピュータにインストールまたはロードすることができる。また、コンピュータプログラムが、プリンタ用カードやプリンタ用オプションボードに記録されて流通する場合も含む。   The image processing method of the present invention can be implemented by a computer, and a computer program therefor can be installed or loaded on the computer through various media such as a CD-ROM, a magnetic disk, a semiconductor memory, and a communication network. . It also includes the case where a computer program is recorded and distributed on a printer card or printer option board.

なお、本明細書において、1つの「手段」が有する機能が2つ以上の物理的手段により実現されても、2つ以上の「手段」の機能が1つの物理的手段により実現されてもよい。   In the present specification, the function of one “means” may be realized by two or more physical means, or the functions of two or more “means” may be realized by one physical means. .

本発明によれば、動画像データに応じて適切なパラメータ値を自動的に設定し、ユーザに負担をかけることなく適切に高解像度化した画像を生成して、出力することができる。   According to the present invention, it is possible to automatically set an appropriate parameter value according to moving image data, and to generate and output an image with an appropriately high resolution without imposing a burden on the user.

図面を参照して本発明の実施形態を説明する。図1は、本実施形態のプリンタ1のハードウェア構成を表すブロック図である。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a hardware configuration of the printer 1 according to the present embodiment.

プリンタ1は、用紙をプリンタ内に供給する給紙機構10、印字を行う印刷エンジン11、及び用紙をプリンタ機外に排出する排紙機構12等により構成される動力機構部2を備える。印刷エンジン11は、紙送機構、キャリッジ機構、印刷ヘッドなどを含んで構成される。   The printer 1 includes a power supply mechanism 2 that includes a paper feed mechanism 10 that supplies paper into the printer, a print engine 11 that performs printing, and a paper discharge mechanism 12 that discharges paper to the outside of the printer. The print engine 11 includes a paper feed mechanism, a carriage mechanism, a print head, and the like.

これら動力機構部2を制御し印刷動作を行わせるのは、CPU(プロセッサ)13、ROM14、RAM15、表示パネル及びパネルコントローラ16、PCカードスロット及びPCカードコントローラ17、USB等のインタフェース18等からなる制御部3である。CPU13は、バスを介して各手段14〜18にアクセス可能に構成されている。なお、動力機構部2が独立してCPUを備えていてもよく、その場合は、動力機構部2のCPUが、パラレルインタフェース等を介してCPU13と通信を行い、印刷エンジン11を制御して印刷動作を行わせることになる。   The power mechanism unit 2 is controlled to perform a printing operation by a CPU (processor) 13, a ROM 14, a RAM 15, a display panel and panel controller 16, a PC card slot and a PC card controller 17, an interface 18 such as a USB, and the like. It is the control unit 3. CPU13 is comprised so that each means 14-18 can be accessed via a bus | bath. The power mechanism unit 2 may be provided with a CPU independently. In this case, the CPU of the power mechanism unit 2 communicates with the CPU 13 via a parallel interface or the like to control the print engine 11 to perform printing. It will cause the action to be performed.

動力機構部2、制御部3の構成・動作は原則として従来のプリンタ装置の構成・動作と同様である。例えば、本プリンタ1は、ホスト装置からインタフェース18を介して印刷ジョブを受信し、又は、外部メモリからPCカードスロット等17を介して/デジタルカメラ等の情報機器からインタフェース18を介して画像データを直接読み込み、かかる印刷ジョブや画像データに基づいて動力機構部2を制御して印刷動作を行なわせる機能を備える。   The configuration and operation of the power mechanism unit 2 and the control unit 3 are basically the same as the configuration and operation of the conventional printer. For example, the printer 1 receives a print job from the host device via the interface 18, or receives image data from an external memory via the PC card slot 17 or the like / from an information device such as a digital camera via the interface 18. A function of directly reading and controlling the power mechanism unit 2 based on the print job or image data to perform a printing operation is provided.

ただし、本プリンタ1は、動画像圧縮データの伸長機能を備えており、更に、ベースフレームとの画像変化の程度に基づいて、ベースフレームに合成するフレーム(以下「サポートフレーム」と呼ぶ)を選択し、ベースフレームの画像データ及びサポートフレームの画像データ(以下それぞれ「ベース画像データ」及び「サポート画像データ」と呼ぶ)に基づいて合成処理を実行し(画素値の補間処理を実行し)、ベース画像データよりも画素数が多い画像データ(以下、「合成画像データ」と呼ぶ)を生成する機能を備えている点で、従来の構成と異なっている。   However, the printer 1 has a function of decompressing moving image compressed data, and further selects a frame to be combined with the base frame (hereinafter referred to as “support frame”) based on the degree of image change from the base frame. Then, based on the image data of the base frame and the image data of the support frame (hereinafter referred to as “base image data” and “support image data”, respectively), the synthesis process is executed (the pixel value interpolation process is executed), and the base This is different from the conventional configuration in that it has a function of generating image data having a larger number of pixels than image data (hereinafter referred to as “composite image data”).

図2に、制御部3における主要な機能構成図を示す。図に示すように、制御部3は、パネルIF手段20、伸長手段21、合成手段22、印刷制御手段23等を備えて構成される。上記の各手段は、ROM14又はRAM15に格納されるアプリケーションプログラムをCPU13が実行することにより機能的に実現される。なお、制御部3は、上記の各手段のほか、一般的なプリンタが備える画像処理(サイズ変換処理、ノイズ除去、シャープネスなど)手段を備えることができる。   In FIG. 2, the main function block diagram in the control part 3 is shown. As shown in the figure, the control unit 3 includes a panel IF unit 20, an expansion unit 21, a synthesis unit 22, a print control unit 23, and the like. Each means described above is functionally realized by the CPU 13 executing an application program stored in the ROM 14 or the RAM 15. The control unit 3 can include image processing (size conversion processing, noise removal, sharpness, etc.) included in a general printer in addition to the above-described units.

パネルIF手段20は、例えばLCDや操作キーなどから構成される表示パネル及びパネルコントローラ16を介して、ユーザからプリンタ1に対する印刷制御コマンドなどを受けつけるとともに、ユーザに対して印刷ステータス等を出力する。   The panel IF unit 20 receives, for example, a print control command for the printer 1 from the user via the display panel including the LCD and operation keys and the panel controller 16 and outputs a print status and the like to the user.

伸長手段21は、画像圧縮データ(JPEGデータ、モーションJPEGデータ、MPEGデータなど)に対して伸長処理等を施し、フレーム単位の画像データを復元して、RAM15の所定領域に格納する。伸長処理は圧縮方式に対応した周知の処理を用いることができる。   The decompression means 21 performs decompression processing or the like on the compressed image data (JPEG data, motion JPEG data, MPEG data, etc.), restores the image data for each frame, and stores it in a predetermined area of the RAM 15. For the decompression process, a known process corresponding to the compression method can be used.

合成手段22は、動画像データ(時間的に連続する画像データ)を対象として、ベースフレームとの画像変化の程度に基づいて、ベースフレームに合成するサポートフレームを選択し、ベース画像データ及びサポート画像データに基づいて合成処理を実行し、ベース画像データよりも画素数が多い画像データ(以下、「合成画像データ」と呼ぶ)を生成する。なお、画素数が多いということは、同じサイズに出力する場合であれば解像度(単位面積あたり画素数)が高いということになり、同じ解像度で出力する場合であればサイズが大きい(拡大されている)ということになる。   The synthesizing unit 22 selects the support frame to be synthesized with the base frame based on the degree of image change from the base frame for the moving image data (temporally continuous image data), and the base image data and the support image Composition processing is executed based on the data, and image data having a larger number of pixels than the base image data (hereinafter referred to as “composite image data”) is generated. Note that a large number of pixels means that the resolution (number of pixels per unit area) is high when outputting to the same size, and the size is large (expanded) when outputting at the same resolution. It will be said.

印刷制御手段23は、従来のプリンタ装置と同様に、印刷ジョブの解析、印刷イメージの生成、印刷エンジン11の制御等を実行する。   The print control means 23 executes the analysis of the print job, the generation of the print image, the control of the print engine 11 and the like as in the conventional printer apparatus.

例えば、ホスト装置やデジタルカメラ等の情報機器から送られてくる印刷要求に基づいて、受信バッファから印刷データを順番に読み出し、これを解析してラスタ形式の画像データを生成する。印刷データが画像圧縮データを含む場合は、伸長手段21を制御して、画像データの復元を行う。また、外部からの印刷要求以外にも、例えばパネルIF手段20において受け付けた印刷指示コマンドに基づいて、外部メモリ等からPCカードスロット等17を介して画像圧縮データを読み出し、伸長手段21を制御して画像データを復元する。   For example, based on a print request sent from an information device such as a host device or a digital camera, print data is sequentially read from the reception buffer and analyzed to generate raster format image data. When the print data includes compressed image data, the decompression unit 21 is controlled to restore the image data. Besides the external print request, for example, based on a print instruction command received by the panel IF unit 20, the compressed image data is read from the external memory or the like via the PC card slot 17, and the decompression unit 21 is controlled. To restore the image data.

このとき、例えば前記印刷要求が動画像圧縮データ及び自動合成印刷の指定を含む場合、又はパネルIF手段20において動画像圧縮データ及び自動合成印刷が指定された状態で印刷指示コマンドを受け付けた場合は、印刷制御手段23は、伸長手段21及び合成手段22を制御して、動画像圧縮データに基づき合成画像データを生成する。   At this time, for example, when the print request includes designation of moving image compression data and automatic composite printing, or when the print instruction command is received in the state where the moving image compression data and automatic synthetic printing are designated in the panel IF unit 20 The print control unit 23 controls the decompressing unit 21 and the synthesizing unit 22 to generate synthesized image data based on the compressed moving image data.

そして、かかる復元した画像データ又は生成した合成画像データに基づいて印刷処理(出力処理)を実行する。具体的には、画像データ又は合成画像データに対して印刷動作において通常行われる所定の画像処理(例えば、ノイズ除去など)を施して、印刷イメージを生成する。また、受信バッファから読み出した制御コマンド、又はパネルIF手段20を介して入力されたコマンド等に基づき、例えば印刷エンジン11の紙送機構等を制御して印刷開始に必要な状態を整え、所定単位分(例えば1パス分)の印刷イメージを印刷エンジン11に転送し、印刷エンジン11を制御しながら印刷を実行する。   Then, a printing process (output process) is executed based on the restored image data or the generated composite image data. Specifically, predetermined image processing (for example, noise removal) that is normally performed in the printing operation is performed on the image data or the composite image data to generate a print image. Further, based on a control command read from the reception buffer or a command input via the panel IF means 20, for example, the paper feed mechanism of the print engine 11 is controlled to prepare a state necessary for starting printing, and a predetermined unit. The print image for one minute (for example, one pass) is transferred to the print engine 11, and printing is executed while controlling the print engine 11.

(自動合成処理)
以下、図3、図4に示すフローチャート等を参照して、合成手段22の動作について詳細に説明する。各ステップは処理内容に矛盾を生じない範囲で任意に順番を変更して、又は並列に実行することができる。
(Automatic synthesis processing)
Hereinafter, the operation of the synthesizing means 22 will be described in detail with reference to the flowcharts shown in FIGS. Each step can be executed in any order or in parallel within a range that does not cause a contradiction in processing contents.

なお、本実施形態では、印刷データに含まれる画像圧縮データ又は外部メモリ等から読み出す画像圧縮データが、モーションJPEG方式の動画像圧縮データであるとして処理を説明する。モーションJPEG方式とは、カラー静止画符号化の国際標準であるJPEG方式に基づいて圧縮したカラー静止画像を連続して再生することにより動画表示を実現する方式であり、動画像圧縮データにはフレームごとのJPEGデータが含まれている。   In the present embodiment, the processing will be described on the assumption that the compressed image data included in the print data or the compressed image data read from the external memory or the like is the compressed motion image data of the motion JPEG method. The motion JPEG method is a method for realizing moving image display by continuously reproducing a color still image compressed based on the JPEG method, which is an international standard for color still image coding. Each JPEG data is included.

まず、合成手段22は、合成の基準となるベースフレームを選択する(ステップS100)。   First, the synthesizing unit 22 selects a base frame that is a reference for synthesis (step S100).

ベースフレームは、例えばホスト装置やデジタルカメラ等から送られてくる印刷要求中のフレーム指定データに基づいて、又はパネルIF手段20において受け付けたフレーム指定データに基づいて、選択する。   The base frame is selected based on frame designation data in a print request sent from a host device, a digital camera, or the like, or based on frame designation data received by the panel IF unit 20.

この場合、例えばホスト装置やデジタルカメラ等において動画を表示し、又はプリンタ1が動画表示機能を備える場合であればプリンタ1において動画を表示し、ユーザが所望のシーンで動画を停止させて(又はフレーム番号を指定して)静止画を選択表示させることで、フレームを指定することが考えられる。   In this case, for example, a moving image is displayed on the host device or the digital camera, or if the printer 1 has a moving image display function, the moving image is displayed on the printer 1 and the user stops the moving image at a desired scene (or It is conceivable to specify a frame by selectively displaying a still image (by specifying a frame number).

次に、合成手段22は、ベースフレームに対して伸長処理を実行し、ベース画像データを生成する(ステップS101)。具体的には、受信バッファの印刷データから又は外部メモリ等から読み出した、ベースフレームに対応するJPEGデータについて、8×8ブロックごとに、DC成分についてHuffman符号の復号、AC成分についてHuffman符号の復号、ランレングス圧縮の復号を行い、復号した各成分に逆量子化を行って周波数成分を算出し、かかる周波数成分に逆DCTを行うことにより、ベース画像データを生成する。   Next, the synthesizing unit 22 performs an expansion process on the base frame to generate base image data (step S101). Specifically, for JPEG data corresponding to the base frame read from the print data in the reception buffer or from an external memory, the Huffman code is decoded for the DC component and the Huffman code is decoded for the AC component every 8 × 8 blocks. The base image data is generated by performing run-length compression decoding, performing inverse quantization on each decoded component to calculate frequency components, and performing inverse DCT on the frequency components.

次に、合成手段22は、ベース画像データの画素数(解像度)と、例えばホスト装置やデジタルカメラ等から送られてくる印刷要求中の合成画像データの画素数とに基づいて、又はパネルIF手段20において受け付けた合成画像データの画素数とに基づいて、拡大率を求める(ステップS102)。   Next, the synthesizing means 22 is based on the number of pixels (resolution) of the base image data and the number of pixels of the synthesized image data in the print request sent from, for example, a host device or a digital camera, or the panel IF means. An enlargement ratio is obtained based on the number of pixels of the composite image data received at 20 (step S102).

拡大率は、例えば(合成画像データの縦画素数)/(ベース画像データの縦画素数)×(合成画像データの横画素数)/(ベース画像データの横画素数)に基づいて、求めることができる。なお、合成画像データの画素数が指定されていない場合は、例えば合成画像データの画素数としてVGAサイズ(640画素×480画素)などのデフォルト値を用いるか、又は拡大率自体について例えば(2×2)倍などのデフォルト値を用いればよい。   The enlargement ratio is obtained based on, for example, (number of vertical pixels of composite image data) / (number of vertical pixels of base image data) × (number of horizontal pixels of composite image data) / (number of horizontal pixels of base image data). Can do. When the number of pixels of the composite image data is not specified, for example, a default value such as a VGA size (640 pixels × 480 pixels) is used as the number of pixels of the composite image data, or the enlargement ratio itself is, for example, (2 × 2) A default value such as double may be used.

次に、合成手段22は、拡大率が1より大きいかどうかを判断し(ステップS103)、1以下の場合は処理を中止する。合成処理は、そもそも画素数を増やす(解像度を高くする)ことを目的としており、画素数が変わらない又は減ることになる拡大率が1以下の場合は対象としていないからである。   Next, the synthesizing unit 22 determines whether or not the enlargement ratio is greater than 1 (step S103). This is because the composition process is intended to increase the number of pixels (increase the resolution) in the first place, and is not targeted when the enlargement ratio at which the number of pixels does not change or decreases is 1 or less.

一方、拡大率が1より大きい場合、合成手段22は、かかる拡大率に基づいて、サポートフレーム数の上限値を示すパラメータNmax、ベースフレームとサポートフレームとのフレーム間隔の上限値を示すパラメータDmaxを設定する(ステップS104)。 On the other hand, when the enlargement ratio is greater than 1, the synthesizing unit 22 determines, based on the enlargement ratio, the parameter N max indicating the upper limit value of the number of support frames and the parameter D indicating the upper limit value of the frame interval between the base frame and the support frame. max is set (step S104).

具体的には、例えば図5に示すようなテーブルをRAM15に記憶しておき、このテーブルを参照して設定することが考えられる。図からわかるように、このテーブルでは、拡大率が大きいほど、Nmax、Dmaxは大きな値を取るように対応関係が定められている。合成画像データの画質向上に貢献し得るサポートフレーム数、ベースフレームとサポートフレームとのフレーム間隔には上限があると考えられる一方、その上限値は合成画像データのサイズ(より具体的には、ベース画像データやサポート画像データからの拡大率)に依存していると考えられるからである。 Specifically, for example, a table as shown in FIG. 5 may be stored in the RAM 15 and set by referring to this table. As can be seen from the figure, in this table, the correspondence relationship is determined such that N max and D max take larger values as the enlargement ratio increases. The number of support frames that can contribute to improving the image quality of the composite image data and the frame interval between the base frame and the support frame are considered to have an upper limit, while the upper limit value is the size of the composite image data (more specifically, the base This is because it is considered to depend on the enlargement ratio from the image data and the support image data.

次に、合成手段22は、選択したサポートフレーム数を示すパラメータN及び選択した候補フレーム数を示すパラメータMに初期値0を設定する(ステップS105)。   Next, the synthesizing unit 22 sets an initial value 0 to a parameter N indicating the number of selected support frames and a parameter M indicating the number of selected candidate frames (step S105).

次に、合成手段22は、ベース画像データのぼけ具合を測定する(ステップS106)。ぼけ具合は、例えばエッジ強度の平均値の大小により測定することができ、エッジ強度は、例えばSobel等の従来のエッジ検出フィルターの出力値を用いて計算することができる。   Next, the synthesizing unit 22 measures the degree of blur of the base image data (step S106). The degree of blur can be measured by, for example, the average value of the edge strength, and the edge strength can be calculated using the output value of a conventional edge detection filter such as Sobel.

次に、合成手段22は、ベース画像データのぼけ具合に基づいて、ベース合成データに対する合成処理の可否を決定する(ステップS107)。具体的には、ぼけ具合が一定の限度以上(例えば、エッジ強度の平均値が所定の閾値(例えば32)以上)である場合は、合成処理について「否」とし、処理を中止する。ベース画像データがぼけている場合、後段の工程で候補フレームに対する画像変化の程度を正確に測定できず、サポートフレームを適切に選択できないおそれがあるからである。また、サポートフレームに対する画像変化を正確に測定できず、適切に合成できないおそれがあるからである。この場合、印刷制御手段23は、必要に応じてベース画像データにシャープネス処理を施して印刷処理を実行することが考えられる。   Next, the synthesizing unit 22 determines whether or not to perform the synthesizing process on the base synthesized data based on the degree of blur of the base image data (step S107). Specifically, when the degree of blur is equal to or greater than a certain limit (for example, the average value of edge strength is equal to or greater than a predetermined threshold (for example, 32)), the composition process is set to “No” and the process is stopped. This is because if the base image data is blurred, the degree of image change with respect to the candidate frame cannot be accurately measured in the subsequent process, and the support frame may not be selected appropriately. Further, the image change with respect to the support frame cannot be accurately measured, and there is a possibility that it cannot be appropriately combined. In this case, it is conceivable that the print control unit 23 performs the sharpening process on the base image data as necessary to execute the printing process.

一方、ぼけ具合が限度以上でない場合、合成手段22は、合成処理について「可」とし、候補フレームを選択する(ステップS108)。   On the other hand, when the degree of blur is not more than the limit, the synthesizing unit 22 sets “OK” for the synthesizing process and selects a candidate frame (step S108).

候補フレームの選択方法としては、例えば、ベースフレームを基準に前後のフレームが交互に選択されるように、ベースフレームとサポートフレームとのフレーム間隔DをD=(INT(M/2)+1)により求め、Mが0又は偶数の場合は順方向(時間軸+方向)にDフレーム空けて、Mが奇数の場合は逆方向(時間軸−方向)にDフレーム空けて、候補フレームを選択するようにする。このとき、そのような候補フレームが存在しない場合には、ステップS115に進み、合成処理に移行すればよい。なお、INT(X)は、Xに対し小数点以下を切り捨てて整数化した値を与える関数である。   As a method for selecting candidate frames, for example, the frame interval D between the base frame and the support frame is set to D = (INT (M / 2) +1) so that the preceding and succeeding frames are alternately selected based on the base frame. When M is 0 or an even number, a D frame is left in the forward direction (time axis + direction), and when M is an odd number, a D frame is left in the reverse direction (time axis-direction) to select a candidate frame. To. At this time, if there is no such candidate frame, the process proceeds to step S115, and the process may be shifted to the synthesis process. Note that INT (X) is a function that gives X a value obtained by rounding down the decimal point to an integer.

次に、合成手段22は、前記選択した候補フレームに対して伸長処理を実行し、候補画像データを生成する(ステップS109)。   Next, the synthesizing unit 22 performs a decompression process on the selected candidate frame to generate candidate image data (step S109).

次に、合成手段22は、ベースフレームと候補フレームとの間で、画像変化の程度を測定する(ステップS110)。ここで、画像変化の測定方法として種々の方法が考えられるが、本実施形態では、画像変化の程度を表わす変化量dを以下のようにして求めることとする。   Next, the synthesizing unit 22 measures the degree of image change between the base frame and the candidate frame (step S110). Here, various methods are conceivable as image change measurement methods. In the present embodiment, a change amount d representing the degree of image change is obtained as follows.

変化量d=(各フレームで同座標にある画素の画素値の差の2乗平均)1/2
次に、合成手段22は、画像変化の程度(変化量d)が所定の閾値αより小さいどうかを判断し(ステップS111)、閾値α以上である場合には、候補フレームをサポートフレームとして選択することなく、ステップS113へ進む。
Change amount d = (root mean square of pixel value difference of pixels at the same coordinates in each frame) 1/2
Next, the synthesizing unit 22 determines whether the degree of image change (change amount d) is smaller than a predetermined threshold value α (step S111), and if it is equal to or larger than the threshold value α, selects a candidate frame as a support frame. Without proceeding to step S113.

一方、画像変化の程度が閾値αより小さい場合は、合成手段22は、候補フレームをサポートフレームとして選択し、Nを+1インクリメントする(ステップS112)。   On the other hand, when the degree of image change is smaller than the threshold value α, the synthesizing unit 22 selects the candidate frame as a support frame and increments N by +1 (step S112).

後述するように、合成にあたっては、ベースフレームとサポートフレームとの画像変化に基づいてサポート画像データを逆変化させて擬似ベース画像データを求めることになるが、このとき画像変化が大きいと、ベース画像データと擬似ベース画像データのずれも大きくなってしまい、合成した場合にかえって悪影響を与えてしまうおそれがある。そこで本実施形態では、上記のように画像変化の程度を測定し、閾値αより小さい場合にのみサポートフレームとして選択するよう構成している。閾値αは、画像変化の測定方法に応じて適切に定めることができ、例えば上述のように変化量dに基づいて画像変化を測定する場合であれば、α=1〜10程度(画素値が0〜255を取る場合)とすることが考えられる。なお、閾値αは、ユーザの指示等に基づいて調節可能に構成されていてもよい。   As will be described later, in the synthesis, pseudo base image data is obtained by reversely changing the support image data based on the image change between the base frame and the support frame. If the image change is large at this time, the base image The deviation between the data and the pseudo base image data also becomes large, and there is a possibility that adverse effects will be caused when they are combined. Therefore, in the present embodiment, the degree of image change is measured as described above, and is selected as a support frame only when it is smaller than the threshold value α. The threshold value α can be appropriately determined according to the image change measurement method. For example, when the image change is measured based on the change amount d as described above, α = 1 to about 10 (the pixel value is 0 to 255). The threshold value α may be configured to be adjustable based on a user instruction or the like.

次に、合成手段22は、Mを+1インクリメントする(ステップS113)。   Next, the synthesizing unit 22 increments M by +1 (step S113).

次に、合成手段22は、(N≦Nmax)及び(D≦Dmax)が成立するかどうかを判断し(ステップS114)、成立する場合はステップS107に再帰する。 Next, the synthesizing unit 22 determines whether (N ≦ N max ) and (D ≦ D max ) are satisfied (step S < b > 114), and if satisfied, reverts to step S < b > 107.

一方、成立しない場合は、合成手段22は、サポートフレームの選択を停止し、これまでに選択したN枚のサポートフレームのサポート画像データと、ベース画像データとに基づき、合成処理を実行し、ベースフレームに対応する合成画像データを生成する(ステップS115)。   On the other hand, if it does not hold, the synthesizing means 22 stops the selection of the support frame, executes the synthesizing process based on the support image data of the N support frames selected so far and the base image data. Composite image data corresponding to the frame is generated (step S115).

合成処理は、例えば、1)ベースフレームからサポートフレームへの画像変化に基づいてサポート画像データを逆変化させて擬似ベース画像データを求める、2)ベース画像データ及び各擬似ベース画像データに基づき補間処理を行って、高解像度化した合成画像データの画素値を求める、という手順で行うことができる。   For example, the synthesis process includes 1) obtaining pseudo base image data by reversely changing the support image data based on an image change from the base frame to the support frame, and 2) interpolation processing based on the base image data and each pseudo base image data. To obtain the pixel value of the composite image data with high resolution.

擬似ベース画像データは、以下の方法により求めることができる。まず、ベースフレームからサポートフレームの画像変化として、例えばベースフレームをアフィン変換したものとサポートフレームとの重なりが大きくなるようにアフィン変換パラメータ行列を求める。次に、サポートフレームからベースフレームへの画像変化(逆変化)として、前記求めたアフィン変換パラメータ行列の逆行列を求める。次に、前記求めた逆行列に基づき、サポートフレームをアフィン変換して、擬似ベース画像データを求める(このようにして求めた場合、擬似ベース画像データの各画素の座標は必ずしも整数値となっていない)。なお、アフィン変換パラメータ行列、逆行列は、例えばベースフレームの各MCU(Minimum Coded Unit))ごとに求めてもよい。   The pseudo base image data can be obtained by the following method. First, as an image change from the base frame to the support frame, for example, an affine transformation parameter matrix is obtained so that an overlap between the support frame and an affine transformation of the base frame becomes large. Next, an inverse matrix of the obtained affine transformation parameter matrix is obtained as an image change (inverse change) from the support frame to the base frame. Next, based on the obtained inverse matrix, the support frame is subjected to affine transformation to obtain pseudo base image data (in this case, the coordinates of each pixel of the pseudo base image data are not necessarily integer values). Absent). The affine transformation parameter matrix and the inverse matrix may be obtained for each MCU (Minimum Coded Unit) of the base frame, for example.

補間処理としては、最近傍補間方法、N次関数補間方法など、周知の方法を用いることができる。最近傍補間方法を用いる場合、ベース画像データ及び各擬似ベース画像データの座標(x、y)に縦横の拡大率をそれぞれ乗じて座標(x’、y’)を求め、合成画像データの座標(xhigh、yhigh)の画素値として、座標(xhigh、yhigh)に最も近い座標(x’、y’)に対応する画素値を採用すればよい。また、N次関数補間方法には、N=1のバイリニア(線形)補間方法や、N=3のバイキュービック補間方法等があるが、前者を用いる場合であれば、合成画像データの座標(xhigh、yhigh)の画素値を、例えば座標(xhigh、yhigh)の近傍の4つの座標(x’、y’)の画素値に基づいて線形関数を用いて補間すればよく、後者を用いる場合であれば、同様に例えば近傍16座標の画素値に基づいて3次関数を用いて補間すればよい。 As the interpolation process, a known method such as a nearest neighbor interpolation method or an Nth-order function interpolation method can be used. When using the nearest neighbor interpolation method, the coordinates (x ′, y ′) are obtained by multiplying the coordinates (x, y) of the base image data and each pseudo base image data by the vertical and horizontal enlargement rates, respectively, and the coordinates (x ′, y ′) of the composite image data ( x high, as the pixel value of y high), the coordinates (x high, coordinates closest to y high) (x ', y ' may be adopted pixel value corresponding to). N-order function interpolation methods include N = 1 bilinear (linear) interpolation method and N = 3 bicubic interpolation method. If the former is used, the coordinates (x high , y high ) may be interpolated using a linear function based on the pixel values of four coordinates (x ′, y ′) in the vicinity of the coordinates (x high , y high ), for example. If it is used, similarly, for example, interpolation may be performed using a cubic function based on pixel values of neighboring 16 coordinates.

このように本実施形態では、拡大率に応じてサポートフレーム数の上限値を示すパラメータNmax、サポートフレームとベースフレームとのフレーム間隔の上限値を示すパラメータDmaxを自動的に定め、ベース画像データのぼけ具合に基づいて合成処理の可否を自動的に決定し、画像変化に基づいて適切なサポートフレームを自動的に選択しつつ合成に用いるフレーム数を自動的に決定するよう構成しているため、ユーザは自ら上記の設定や操作を行う必要なく容易かつ適切に高解像度化を行って印刷等を実行することができる。 As described above, in the present embodiment, the parameter N max indicating the upper limit value of the number of support frames and the parameter D max indicating the upper limit value of the frame interval between the support frame and the base frame are automatically determined according to the enlargement ratio, and the base image It is configured to automatically determine whether or not to perform combining processing based on the degree of data blur, and to automatically determine the number of frames used for combining while automatically selecting an appropriate support frame based on image changes. Therefore, the user can execute the printing or the like by increasing the resolution easily and appropriately without having to perform the above settings and operations.

(変形例)
本発明は上記実施形態に限定されることなく、種々に変形して適用することが可能である。
(Modification)
The present invention is not limited to the above-described embodiment, and can be variously modified and applied.

例えば、上記実施形態では、プリンタ1が伸長機能、合成機能を備える構成について説明しているが、例えばホスト装置やデジタルカメラ等の情報機器が伸長機能や合成機能を備えていてもよい。この場合、プリンタ1の構成としては、伸長後の画像データを受け取って(読み出して)合成し、印刷する構成や、合成画像データを受け取って(読み出して)印刷する構成を考えることができる。   For example, in the above embodiment, the configuration in which the printer 1 includes the decompression function and the composition function is described. However, for example, an information device such as a host device or a digital camera may have the decompression function or the composition function. In this case, the configuration of the printer 1 can be a configuration in which the decompressed image data is received (read out) and combined and printed, or a configuration in which the combined image data is received (read out) and printed.

また例えば、ホスト装置等から動画像圧縮データを送信する際、全フレームの画像圧縮データを送信する必要はなく、ベースフレーム付近の画像圧縮データのみ送信する構成としてもよい。又は、プリンタ1(合成機能を有する側)からの要求に応じて対応するフレームの画像圧縮データを送信する構成としてもよい。   Further, for example, when moving image compressed data is transmitted from a host device or the like, it is not necessary to transmit image compressed data for all frames, and only the image compressed data near the base frame may be transmitted. Or it is good also as a structure which transmits the image compression data of a corresponding frame according to the request | requirement from the printer 1 (side which has a synthetic | combination function).

また例えば、プリンタ1が画像出力機能として印刷機能のみならずパネル等に画像を表示する機能をも備えている場合、合成画像データに基づいて高解像度の静止画表示を行ってもよく、更に、複数の時間的に連続する合成画像データに基づいて高解像度の動画表示を行ってもよい。   Further, for example, when the printer 1 has not only a printing function but also a function of displaying an image on a panel or the like as an image output function, high-resolution still image display may be performed based on the composite image data. High-resolution moving image display may be performed based on a plurality of temporally continuous composite image data.

また例えば、上記実施形態では、ベースフレームを基準に前後のフレームが交互に候補フレームとして選択されるように構成しているが、例えば画像変化の程度が小さい一方向のフレームが候補フレームとして選択されるように構成してもよい。   Further, for example, in the above embodiment, the previous and subsequent frames are alternately selected as candidate frames based on the base frame. For example, a unidirectional frame with a small degree of image change is selected as a candidate frame. You may comprise.

また例えば、上記実施形態では、ベース画像データのぼけ具合が限度以上の場合には合成処理を停止する構成としているが、合成処理を停止する代わりに、例えばベース画像データ、候補画像データ、サポート画像データに対して同様の条件でシャープネス処理を施してから、画像変化の程度の測定や、画像変化を求めるように構成してもよい。   Further, for example, in the above embodiment, the composition process is stopped when the degree of blur of the base image data is equal to or greater than the limit, but instead of stopping the composition process, for example, base image data, candidate image data, support image It may be configured that the sharpness process is performed on the data under the same conditions, and then the degree of image change or the image change is obtained.

また例えば、画像変化の程度(変化量)が閾値αより小さいという条件に加えて/代えて、候補画像データのぼけ具合が限度以上でないという条件をサポートフレームの選択条件としてもよい。   For example, in addition to / in place of the condition that the degree of image change (amount of change) is smaller than the threshold value α, a condition that the degree of blurring of the candidate image data is not greater than the limit may be used as the support frame selection condition.

また例えば、上記実施形態では、ベースフレームと候補フレームとの画像変化量が閾値α以上であった場合でも、その後に更にサポートフレームを選択し得る構成としているが、通常、ある候補フレームの画像変化量が閾値α以上であれば、その候補フレームより更にベースフレームから離れている他の候補フレームも画像変化量が閾値α以上である可能性が高いと考えられることから、閾値α以上の候補フレームが見つかった段階でサポートフレームの選択処理を停止し、ステップS115の合成処理に移行する構成としてもよい。   Further, for example, in the above embodiment, even when the image change amount between the base frame and the candidate frame is equal to or greater than the threshold value α, the support frame can be further selected after that. If the amount is greater than or equal to the threshold value α, it is considered that other candidate frames that are further away from the base frame than the candidate frame are more likely to have an image change amount that is greater than or equal to the threshold value α. Alternatively, the support frame selection process may be stopped at the stage where the frame is found, and the process may proceed to the synthesis process in step S115.

また例えば、上記実施形態では、モーションJPEG方式の動画像圧縮データを対象として処理を説明したが、本発明は、MPEG方式など、フレーム単位の画像データを求めることができる方式の動画像圧縮データであれば、適用可能である。MPEG方式の動画像圧縮データを対象とする場合、圧縮データ中にフレーム間の動き情報が含まれているため、上記実施形態のように画像変化の程度(変化量d)を求める代わりに、かかる動き情報を利用して画像変化の程度(変化量d)を求めてもよい。例えば、変化量dとして、2つのフレームにおけるMCU(Minimum Coded Unit)単位の動き情報の最大値や平均値を求めることが考えられる。   Also, for example, in the above embodiment, the processing has been described for the motion JPEG format moving image compressed data, but the present invention is a moving image compressed data of a scheme that can obtain image data in units of frames, such as the MPEG scheme. If applicable, it is applicable. In the case of MPEG moving image compressed data as a target, since the motion information between frames is included in the compressed data, instead of obtaining the degree of image change (change amount d) as in the above embodiment, The degree of image change (change amount d) may be obtained using motion information. For example, it is conceivable to obtain the maximum value or average value of motion information in units of MCU (Minimum Coded Unit) in two frames as the change amount d.

最後に、本発明はプリンタ装置への適用に限られるものではなく、画像出力機能を有する装置又はそのような装置と接続/通信可能な装置(例えばデジタルカメラ、携帯電話、コピー機、汎用コンピュータなど)について適用することが可能である。   Finally, the present invention is not limited to application to a printer device, but a device having an image output function or a device that can be connected / communicated with such a device (for example, a digital camera, a mobile phone, a copier, a general-purpose computer, etc.) ).

本発明の実施形態におけるプリンタ1のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of the printer 1 according to the embodiment of the present invention. 制御部3の機能構成図を示すブロック図である。3 is a block diagram illustrating a functional configuration diagram of a control unit 3. FIG. 合成手段22の動作を示すフローチャートである。3 is a flowchart showing the operation of the combining means 22. 合成手段22の動作を示すフローチャートである。3 is a flowchart showing the operation of the combining means 22. 拡大率と各上限値の関係を示す図である。It is a figure which shows the relationship between an enlarging rate and each upper limit.

符号の説明Explanation of symbols

1 プリンタ、2 動力機構部、3 制御部、10 給紙機構、11 印刷エンジン、12 排紙機構、13 CPU、14 ROM、15 RAM、16 LCDパネル及びLCDコントローラ、17 PCカードスロット及びPCカードコントローラ、18 インタフェース、20 パネルIF手段、21 伸長手段、22 合成手段、23 印刷制御手段
DESCRIPTION OF SYMBOLS 1 Printer, 2 Power mechanism part, 3 Control part, 10 Paper feed mechanism, 11 Print engine, 12 Paper discharge mechanism, 13 CPU, 14 ROM, 15 RAM, 16 LCD panel and LCD controller, 17 PC card slot and PC card controller , 18 interface, 20 panel IF means, 21 expansion means, 22 composition means, 23 print control means

Claims (8)

ベースフレームとの画像変化の程度に基づいて、ベースフレームに合成するフレーム(以下「サポートフレーム」と呼ぶ)を選択する手段と、
ベースフレームの画像データ及びサポートフレームの画像データ(以下それぞれ「ベース画像データ」及び「サポート画像データ」と呼ぶ)に基づいて合成処理を実行し、ベース画像データよりも画素数が多い画像データ(以下、「合成画像データ」と呼ぶ)を生成する手段と、
前記合成画像データに基づいてベースフレームの出力処理を実行する手段と、を備えることを特徴とする画像処理装置。
Means for selecting a frame to be combined with the base frame (hereinafter referred to as “support frame”) based on the degree of image change with the base frame;
Based on the image data of the base frame and the image data of the support frame (hereinafter referred to as “base image data” and “support image data”), image data (hereinafter referred to as “base image data” and “support image data”) having more pixels than the base image data. , Referred to as “composite image data”),
Means for executing a base frame output process based on the composite image data.
前記選択する手段は、選択数が所定の上限値以下となるように、サポートフレームを選択することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the selecting unit selects a support frame so that a selection number is equal to or less than a predetermined upper limit value. 前記選択する手段は、ベースフレームとサポートフレームとのフレーム間隔が所定の上限値以下となるように、サポートフレームを選択することを特徴とする請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the selecting unit selects the support frame so that a frame interval between the base frame and the support frame is equal to or less than a predetermined upper limit value. 前記上限値は、前記合成画像データの画素数に基づいて定められることを特徴とする請求項2又は3記載の画像処理装置。   4. The image processing apparatus according to claim 2, wherein the upper limit value is determined based on the number of pixels of the composite image data. ベース画像データのぼけ具合に基づいて、ベース合成データに対する合成処理の可否を決定する手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, further comprising: a unit that determines whether or not to perform synthesis processing on the base composite data based on a degree of blur of the base image data. 請求項1乃至5のいずれか1項に記載の画像処理装置と、
画像データに基づいて媒体に画像を形成する手段と、を備えることを特徴とする画像形成装置。
The image processing apparatus according to any one of claims 1 to 5,
Means for forming an image on a medium based on image data.
ベースフレームとの画像変化の程度に基づいて、ベースフレームに合成するフレーム(以下「サポートフレーム」と呼ぶ)を選択する工程と、
ベースフレームの画像データ及びサポートフレームの画像データ(以下それぞれ「ベース画像データ」及び「サポート画像データ」と呼ぶ)に基づいて合成処理を実行し、ベース画像データよりも画素数が多い画像データ(以下、「合成画像データ」と呼ぶ)を生成する工程と、
前記合成画像データに基づいてベースフレームの出力処理を実行する工程と、を備えることを特徴とする画像処理方法。
Selecting a frame to be combined with the base frame (hereinafter referred to as “support frame”) based on the degree of image change with the base frame;
Based on the image data of the base frame and the image data of the support frame (hereinafter referred to as “base image data” and “support image data”), image data (hereinafter referred to as “base image data” and “support image data”) having more pixels than the base image data. , Referred to as “composite image data”),
And a step of executing a base frame output process based on the synthesized image data.
請求項7記載の画像処理方法をコンピュータで実行させるためのプログラム。

A program for causing a computer to execute the image processing method according to claim 7.

JP2003421492A 2003-12-18 2003-12-18 Image processor and its method Withdrawn JP2005182412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003421492A JP2005182412A (en) 2003-12-18 2003-12-18 Image processor and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003421492A JP2005182412A (en) 2003-12-18 2003-12-18 Image processor and its method

Publications (2)

Publication Number Publication Date
JP2005182412A true JP2005182412A (en) 2005-07-07
JP2005182412A5 JP2005182412A5 (en) 2007-02-08

Family

ID=34782699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003421492A Withdrawn JP2005182412A (en) 2003-12-18 2003-12-18 Image processor and its method

Country Status (1)

Country Link
JP (1) JP2005182412A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010024265A1 (en) * 2008-08-26 2010-03-04 ソニー株式会社 Image processing device and method, and learning device, method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010024265A1 (en) * 2008-08-26 2010-03-04 ソニー株式会社 Image processing device and method, and learning device, method, and program
JP2010055194A (en) * 2008-08-26 2010-03-11 Sony Corp Image processing device and method, learning device and method, and program
US8494256B2 (en) 2008-08-26 2013-07-23 Sony Corporation Image processing apparatus and method, learning apparatus and method, and program

Similar Documents

Publication Publication Date Title
US8503827B2 (en) Apparatus and method for decoding image data
US20060045381A1 (en) Image processing apparatus, shooting apparatus and image display apparatus
US7567723B2 (en) Resolution changing method and apparatus
JP2007067917A (en) Image data processing apparatus
JP2007206644A (en) Image display system, image display method, image display program, recording medium, data processor, and image display device
US7433544B2 (en) Apparatus and method for producing thumbnail images and for improving image quality of re-sized images
JP2008217785A (en) Display controller and image data converting method
JP5383416B2 (en) Image processing apparatus, control method therefor, and program
JP2011097521A (en) Moving image processing program, device, and method, and imaging apparatus mounting the moving image processing device
JP4464415B2 (en) Image processing apparatus, control method, program, and storage medium
JP2005244934A (en) Image processor, printer, and printer control method
JP2006135565A (en) Image processing apparatus and image processing method
JP2005182412A (en) Image processor and its method
JP2011015092A (en) Imaging device
JP2004354593A (en) Method and system for changing image size
JP5096883B2 (en) Image processing apparatus and image recording / reproducing apparatus
JP4987800B2 (en) Imaging device
JP2004194050A (en) Image processing apparatus
JP2012156867A (en) Inverse discrete cosine transformer, decoder and image processing system
US8837848B2 (en) Image processing device and image processing method
JP2012068951A (en) Image processing apparatus and control method thereof
JP5414384B2 (en) Image processing apparatus, image processing method, and program
JP4828788B2 (en) Image processing device
JP2004214983A (en) Image processing method
JP2005191694A (en) Image processor and method therefor, image forming apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090706

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20091127