JP2011061868A - Image processing apparatus, printing device, image processing method, and, image processing program - Google Patents
Image processing apparatus, printing device, image processing method, and, image processing program Download PDFInfo
- Publication number
- JP2011061868A JP2011061868A JP2010280209A JP2010280209A JP2011061868A JP 2011061868 A JP2011061868 A JP 2011061868A JP 2010280209 A JP2010280209 A JP 2010280209A JP 2010280209 A JP2010280209 A JP 2010280209A JP 2011061868 A JP2011061868 A JP 2011061868A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- image data
- image processing
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、印刷装置、画像処理方法、および、画像処理プログラムに関する。 The present invention relates to an image processing apparatus, a printing apparatus, an image processing method, and an image processing program.
近年、ディジタルカメラ等によって撮像された画像を簡易に印刷できる印刷装置が普及している。最近では、ディジタルカメラの普及に伴い、メモリカードが挿着できるスロットを有する印刷装置、あるいはディジタルカメラとの接続のためのインタフェースを有する高解像度の印刷装置も市販されるようになっている。この種の印刷装置には、プリントエンジンとして、インクジェット式、あるいは昇華式のものがあり、高い解像度での印刷が可能となっている。 In recent years, printing apparatuses that can easily print images taken by a digital camera or the like have become widespread. Recently, with the widespread use of digital cameras, printing devices having a slot into which a memory card can be inserted, or high-resolution printing devices having an interface for connection with a digital camera are also on the market. This type of printing apparatus includes an ink jet type or a sublimation type as a print engine, and printing with high resolution is possible.
ところで、例えば、ディジタルカメラによって撮像された画像は、カメラ自体の特性等によって、例えば、露出値が適切でなかったり、色かぶりが発生したりする場合があるため、これらを補正するための技術が提案されている(特許文献1参照)。 By the way, for example, an image captured by a digital camera may have an exposure value that is not appropriate or a color cast may occur depending on the characteristics of the camera itself. It has been proposed (see Patent Document 1).
ところで、前述したような補正は、被写体の種類(例えば、風景、または、人物等)に応じて行うことが望ましいが、特許文献1に示す技術では、被写体に応じて補正を行うことができないという問題点がある。
By the way, although it is desirable to perform the correction as described above according to the type of subject (for example, landscape, person, etc.), the technique disclosed in
また、近年、パーソナルコンピュータを接続せずに、印刷装置自体に画像データを読み取る手段と、画像処理を行う手段とを有し、印刷装置単独で画像を印刷できるいわゆるスタンドアローンプリンタが流通しているが、このようなスタンドアローンプリンタでは、中央処理装置の処理速度がパーソナルコンピュータに比較して遅いため、被写体に応じて複雑な補正処理を施そうとすると、印刷を開始するまでに長い時間を要するという問題点がある。 In recent years, so-called stand-alone printers that have means for reading image data into a printing apparatus itself and means for performing image processing without connecting a personal computer and that can print an image with the printing apparatus alone have been distributed. However, in such a stand-alone printer, the processing speed of the central processing unit is slower than that of a personal computer, so that it takes a long time to start printing if complicated correction processing is performed according to the subject. There is a problem.
本発明は、上記の事情に基づきなされたもので、その目的とするところは、被写体に応じた最適な補正を短時間で行うことが可能な画像処理装置、印刷装置、画像処理方法、および、画像処理プログラムを提供しよう、とするものである。 The present invention has been made based on the above circumstances, and the object thereof is an image processing apparatus, a printing apparatus, an image processing method, and an image processing apparatus capable of performing optimum correction according to a subject in a short time. An attempt is made to provide an image processing program.
上述の目的を達成するため、本発明の画像処理装置は、画像データの一部の領域を抽出する抽出手段と、抽出手段によって抽出された領域内に人物の顔が含まれているか否か判定する判定手段と、判定手段によって顔が含まれていると判定された場合には、顔の状態に基づいて画像データを補正する補正手段と、を有する。 In order to achieve the above object, an image processing apparatus according to the present invention includes an extraction unit that extracts a partial region of image data, and determines whether a human face is included in the region extracted by the extraction unit. And a correction unit that corrects the image data based on the face state when the determination unit determines that the face is included.
このため、被写体に応じた最適な補正を短時間で行うことが可能な画像処理装置を提供することができる。 Therefore, it is possible to provide an image processing apparatus that can perform an optimal correction according to the subject in a short time.
また、他の発明の画像処理装置は、前述の発明に加えて、抽出手段が、画像データの中央に存在する一部の領域を抽出するようにしている。このため、中央付近に位置するように撮像されることが多い人物の画像を迅速かつ確実に抽出することが可能になる。 In addition to the above-described invention, the image processing apparatus of another invention is configured such that the extraction means extracts a partial region existing in the center of the image data. For this reason, it is possible to quickly and reliably extract an image of a person who is often imaged so as to be located near the center.
また、他の発明の画像処理装置は、前述の発明に加えて、抽出手段によって抽出された領域の画像データを拡大する拡大手段をさらに有するようにしている。このため、顔の特徴部分を拡大することにより、顔が含まれているか否かの判定を正確に行うことができる。 In addition to the above-described invention, an image processing apparatus according to another invention further includes an enlarging means for enlarging the image data of the area extracted by the extracting means. For this reason, it is possible to accurately determine whether or not a face is included by enlarging the facial feature.
また、他の発明の画像処理装置は、前述の発明に加えて、抽出手段によって抽出された領域の画像データを縮小する縮小手段をさらに有するようにしている。このため、縮小および拡大を行うことにより、画像に含まれているノイズ成分を除去し、顔が含まれているか否かの判断をさらに正確に行うことができる。 In addition to the above-described invention, an image processing apparatus of another invention further includes a reduction unit that reduces the image data of the area extracted by the extraction unit. For this reason, by performing reduction and enlargement, it is possible to remove a noise component included in the image and more accurately determine whether or not a face is included.
また、他の発明の印刷装置は、前述の画像処理装置を有している。このため、画像データに顔が含まれている場合には、正確に画像を抽出し、当該顔の撮影状態に応じて、画像データを適切に補正して印刷することが可能になる。 A printing apparatus according to another invention has the above-described image processing apparatus. For this reason, when a face is included in the image data, it is possible to accurately extract the image and appropriately correct and print the image data according to the photographing state of the face.
また、本発明の画像処理方法は、画像データの一部の領域を抽出する抽出ステップと、抽出ステップによって抽出された領域内に人物の顔が含まれているか否か判定する判定ステップと、判定ステップによって顔が含まれていると判定された場合には、顔の状態に基づいて画像データを補正する補正ステップと、を有する。 The image processing method of the present invention includes an extraction step for extracting a partial region of image data, a determination step for determining whether or not a human face is included in the region extracted by the extraction step, A correction step of correcting the image data based on the state of the face when it is determined that the face is included in the step.
このため、被写体に応じた最適な補正を短時間で行うことが可能な画像処理方法を提供することができる。 Therefore, it is possible to provide an image processing method capable of performing an optimal correction according to the subject in a short time.
また、本発明の画像処理プログラムは、画像データの一部の領域を抽出する抽出手段、抽出手段によって抽出された領域内に人物の顔が含まれているか否か判定する判定手段、判定手段によって顔が含まれていると判定された場合には、顔の状態に基づいて画像データを補正する補正手段、としてコンピュータを機能させる。 The image processing program of the present invention includes an extraction unit that extracts a partial area of image data, a determination unit that determines whether a human face is included in the region extracted by the extraction unit, and a determination unit. When it is determined that the face is included, the computer is caused to function as a correction unit that corrects the image data based on the state of the face.
このため、被写体に応じた最適な補正を短時間で行うことが可能な画像処理プログラムを提供することができる。 Therefore, it is possible to provide an image processing program that can perform an optimal correction according to the subject in a short time.
以下、本発明の一実施の形態について、図面を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の実施の形態に係る画像処理装置を用いた印刷装置の構成例を示す図である。以下、本発明の一実施の形態について、図1から図11に基づいて説明する。図1は、本実施の形態に係る印刷装置11の基本構成を示す斜視図である。この図1に示すように、印刷装置11は、ロール紙対応型のインクジェット式印刷装置であり、装置全体を覆うケース12と、印刷媒体としてのロール紙Rおよび印刷用紙(不図示)を供給する給紙装置13と、ロール紙Rまたは印刷用紙に対して印刷を行う印刷部とを備える。
FIG. 1 is a diagram illustrating a configuration example of a printing apparatus using an image processing apparatus according to an embodiment of the present invention. Hereinafter, an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a perspective view showing a basic configuration of a
ケース12は、略四角形状の箱体であり、上面右側に操作パネル部15を備え、操作パネル部15は、LCD(Liquid Crystal Display)17と、操作ボタン18とを備える。LCD17には、印刷装置11のメニュー機能、動作内容、動作状況、エラー内容などが表示され、操作ボタン18は、印刷装置11のメニュー選択等を行う時に押されるようになっている。そして、これらLCD17および操作ボタン18により、カット位置調整等の各種操作が行えるようになっている。
The
ケース12は、前面下部に、排出口12aを備え、印刷されたロール紙Rまたは印刷用紙が排出されるようになっている。また、ケース12の前面右側には、カードスロット21が設けられており、例えばディジタルカメラなどによって撮影された画像データを記録するメモリカードMが、取り外し自在に収納されるようになっている。
The
給紙装置13は、ケース12の背面側に設けられており、ケース12に対して固定されているホルダー22と、ロール紙軸23とを備える。そして、同ロール紙軸23には、ロール紙Rの基端(終端)が連結され巻回されており、この状態で、ホルダー22に対して回転可能に支持されている。そして、ユーザーがロール紙軸23の両端部を掴んでロール紙軸23を正回転、あるいは、逆回転させると、ロール紙Rは給紙装置13から送り出されたり、巻き取られたりするようになっている。
The
つぎに、図1に示す印刷装置の制御系について説明する。図2は、図1に示す印刷装置の制御系を示すブロック図である。この図に示すように、印刷装置の制御系は、CPU(Central Processing Unit)50、ROM(Read Only Memory)51、RAM(Random Access Memory)52、EEPROM(Electrically Erasable and Programmable ROM)53、GP(Graphic Processor)54、I/F(Interface)55、バス56、LCD17、操作ボタン18、カードMが挿入されるカードスロット21、カードI/F回路60、プリンタエンジンコントローラ62、紙送りモータ63、ローラ64、キャリッジモータ65、駆動ベルト66、キャリッジ67、および、記録ヘッド68を有している。
Next, the control system of the printing apparatus shown in FIG. 1 will be described. FIG. 2 is a block diagram showing a control system of the printing apparatus shown in FIG. As shown in this figure, the control system of the printing apparatus includes a CPU (Central Processing Unit) 50, a ROM (Read Only Memory) 51, a RAM (Random Access Memory) 52, an EEPROM (Electrically Erasable and Programmable ROM) 53, a GP ( Graphic Processor) 54, I / F (Interface) 55,
ここで、抽出手段、判定手段、補正手段、拡大手段、および、縮小手段としてのCPU50は、ROM51およびEEPROM53に格納されているプログラムに応じて各種演算処理を実行するとともに、紙送りモータ63およびキャリッジモータ65をはじめとする装置の各部を制御する。
Here, the
ROM51は、CPU50が実行する各種プログラムや各種データを格納している半導体メモリである。RAM52は、CPU50が実行対象とするプログラムやデータを一時的に格納する半導体メモリである。
The
EEPROM53は、CPU50における演算処理結果の所定のデータ等が格納され、印刷装置の電源が切断された後も該データを保持する半導体メモリである。
The
GP54は、CPU50から供給されが描画命令に基づいて描画処理を実行し、得られた画像データをLCD17に供給して表示させる。
The
I/F55は、操作ボタン18、カードI/F回路60、および、プリンタエンジンコントローラ62の間で情報を授受する際に、データの表現形式を適宜変換する装置である。
The I /
バス56は、CPU50、ROM51、RAM52、EEPROM53、GP54、および、I/F55、を相互に接続し、これらの間で情報の授受を可能とするための信号線群である。
The
操作ボタン18は、前述したように、メニュー選択等を行う場合に操作される。メモリカードMは、前述したように、ディジタルカメラによって撮像された画像データが格納されている不揮発メモリである。
As described above, the
カードスロット21は、前述したように印刷装置11のケース12の前面右側に設けられており、当該部分にメモリカードMが挿入される。カードI/F回路60は、メモリカードMとの間で情報を読み書きするためのインタフェースである。
As described above, the
プリンタエンジンコントローラ62は、紙送りモータ63、キャリッジモータ65、および、記録ヘッド68を制御するための制御装置である。紙送りモータ63は、ローラ64を回転させることにより印刷用紙またはロール紙Rを副走査方向に移動させる。ローラ64は、円柱状の部材によって構成され、印刷用紙またはロール紙Rを副走査方向に移動させる。
The
キャリッジモータ65は、キャリッジ67に一端が固定されている駆動ベルト66に駆動力を与えることにより、キャリッジ67を主走査方向に往復動させる。記録ヘッド68は、印刷用紙に対向する面に複数のノズルが形成されており、当該複数のノズルからインクを吐出させることにより情報を印刷用紙に記録する。
The
つぎに、以上の実施の形態の動作について説明する。 Next, the operation of the above embodiment will be described.
図3は、以上の実施の形態の動作を説明するためのフローチャートである。このフローチャートの処理が開始されると、以下のステップが実行される。なお、この処理は、メモリカードMがカードスロット21に挿入された後、所定の画像または画像群を印刷することが指示された場合に、ROM51に格納されているプログラムを読み出して実行することにより、実現される。
FIG. 3 is a flowchart for explaining the operation of the above embodiment. When the processing of this flowchart is started, the following steps are executed. This process is performed by reading and executing a program stored in the
ステップS10:CPU50は、印刷の対象となる画像ファイルをメモリカードMから取得し、ハフマン解凍処理を実行し、量子化DCT(Discrete Cosine Transform)係数を得る。図4に示すように、画像ファイル70は、ヘッダ情報71、テーブル72、および、圧縮データ73によって構成されている。ここで、ヘッダ情報71は、例えば、ファイル名、圧縮方式、画像サイズ、密度単位等の情報を有している。テーブル72は、例えば、量子化テーブルおよびエントロピー符号化テーブル等によって構成されている。圧縮データ73は、JPEG(Joint Photographic Coding Experts Group)方式により圧縮された画像データによって構成されている。CPU50は、図4に示す画像ファイル70のテーブル72からエントロピー符号化テーブルを取得し、圧縮データ73に含まれているY(輝度)成分、Cr(色差成分)、および、Cb(色差成分)のそれぞれのブロックのDC係数と、AC係数とを復号する。なお、この際、最小符号化単位であるMCU単位で復号を行う。
Step S10: The
ステップS11:CPU50は、ステップS11において得られた量子化DCT係数を逆量子化する。具体的には、CPU50は、図4に示す画像ファイル70のテーブル72から量子化テーブルを取得し、ステップS11において得られた量子化DCT係数に乗じることにより(逆量子化することにより)、DCT係数を得る。
Step S11: The
ステップS12:CPU50は、印刷する際に画像を回転させる必要がある場合には、画像を回転させる(例えば、右に90度回転させる)ために必要な情報を、例えば、RAM52にキャッシュする。具体的には、JPEG方式によって圧縮された画像を回転させる場合、MCUのDC成分(直流成分)とAC成分(交流成分)のそれぞれを一度ハフマン展開しなければならない。ここで、DC成分については隣接するDC成分値の差分をハフマン符号化することから、隣接するMCUとの相関関係が問題となる。また、AC成分ではハフマン符号化処理によりそのデータ長が各MCUで一定にならず、JPEGデータのビットストリーム中のどのデータが求めるMCUのAC成分値であるかが不明となることが問題となる。そこで、ステップS12の処理では、各MCUのDC成分値とAC成分のアドレスを求めてキャッシュしておくことにより、ローテート処理を可能とする。
Step S12: If it is necessary to rotate the image when printing, the
ステップS13:CPU50は、ステップS11で得られたDCT係数に対して逆DCT演算を施すことによりもとの画素値を得る。
Step S13: The
ステップS14:CPU50は、ステップS13の処理によって得られたYCC方式の画像をRGB(Red Green Blue)方式の画像と、HSB(Hue Saturation Brightness)方式の画像に変換する。
Step S14: The
ステップS15:CPU50は、ステップS13およびステップS14の処理において得られたYCC,RGB,HSBのそれぞれの画像をRAM52に格納して保持する。なお、このとき、データ量を削減するために画素を所定の割合で間引きした後にRAM52に格納してもよい。
Step S15: The
ステップS16:CPU50は、ステップS15においてRAM52に格納されたYCC,RGB,HSBそれぞれの画像の成分について、ヒストグラムを計算する。具体的には、RGB画像については、R,G,Bそれぞれの画像についてヒストグラムを計算する。その結果、画像を構成する各成分の分布を得る。
Step S16: The
ステップS17:CPU50は、全てのMCUについての処理が終了したか否かを判定し、終了した場合にはステップS18に進み、それ以外の場合にはステップS10に戻って同様の処理を繰り返す。
Step S17: The
ステップS18:CPU50は、ステップS13の処理によって得られた画像の中央部をズームする処理を実行する。なお、この処理の詳細については、図6を参照して後述するが、概略を説明すると、つぎの通りである。すなわち、メインの被写体が人物である場合には、通常は、画像の中央部に人物像が存在している場合が多く、また、中央部分以外に存在する人物像については主な被写体でない場合が多い。そこで、画像から中央部分を抽出することにより、データ量を減らして、処理速度を向上させることができる。また、ズーム処理をすることにより、ステップS19の顔抽出の対象となる目、口等の部分が拡大され、また、拡大によって画素値が平均化されてノイズ成分が減少するので、顔抽出処理の精度を向上させることができる。
Step S18: The
ステップS19:CPU50は、ステップS18において抽出された画像に含まれている顔の画像を抽出する処理を実行する。なお、この処理の詳細については、図8を参照して後述するが、概略を説明するとつぎの通りである。すなわち、この処理では、ステップS18において抽出された画像に顔画像が含まれているか否かを判定するために、例えば、顔画像のテンプレートを利用し、当該テンプレートと相関が高い領域を顔画像が含まれている領域(以下、「顔領域」と称する)として特定する。なお、含まれている顔画像の大きさは、被写体とディジタルカメラの距離によって変化し、また、被写体が複数である場合も想定されるので、ステップS19の処理では、大きさの異なる複数のテンプレートを用いて顔画像の検出を行うとともに、10人分の顔領域が発見されるまで処理を繰り返すようにしている。なお、特定された顔領域については、例えば、その中心部分の座標または左上端の座標がRAM52に格納される。
Step S19: The
ステップS20:CPU50は、ステップS19の処理において顔画像が特定された場合にはステップS21に進み、それ以外の場合にはステップS23に進む。
Step S20: The
ステップS21:CPU50は、ステップS19において特定された顔領域から顔色を取得する。具体的には、顔領域を構成する所定の画素を抽出してR,G,Bそれぞれの値を取得する。このとき、複数の画素を抽出して平均値または中央値を計算し、これらの値を用いるようにしてもよい。なお、複数の顔領域が特定された場合にはそれぞれの顔領域から顔色を取得し、例えば、中央値または平均値を計算する。
Step S21: The
ステップS22:CPU50は、ステップS21において取得された顔色が、正常な顔色となる補正パラメータを算出する。具体的には、R,G,Bのバランスが適正値からずれている場合には、色かぶりが生じているとして、正常値に補正するための補正パラメータをR,G,Bそれぞれについて算出する。また、R,G,Bのトータル値がずれている場合には、露光が適正でないとして、露光を適正とするための補正パラメータをR,G,Bそれぞれについて算出する。
Step S22: The
なお、顔色は、人種および光源の種類によって異なる。そこで、ROM51に格納されているテーブル(図5参照)を参照して、取得したR,G,Bから適正な補正パラメータを算出する。図5の例では、第1〜第3の肌色が列挙してある。ここで、第1の肌色は白色系、第2の肌色は黄色系、第3の肌色は黒色系の肌色となっている。図5では、第1から第3の肌色のそれぞれについて、太陽光、蛍光灯、白熱光を光源とした場合のR,G,Bそれぞれの値の範囲が列挙されている。ステップS22の処理では、顔領域の複数のポイントから画素をサンプリングし、サンプリングされた画素のR,G,B値の平均値または中央値を算出し、図5に示すテーブルと比較することにより、対象となる顔の肌色の種類と、光源の種類を特定する。そして、画素の平均値のR,G,Bのそれぞれの値が図5に示すテーブルの中央値(適正値)となるような補正パラメータを求める。なお、複数人の顔領域が特定された場合には、それぞれの顔領域から複数点におけるサンプリングを行い、得られた複数人分の画素の平均値または中央値を算出し、これらの値に基づいて、補正パラメータを算出する。
The face color differs depending on the race and the type of light source. Therefore, referring to a table (see FIG. 5) stored in the
ステップS23:CPU50は、印刷対象となる画像ファイルにおいて、解凍処理の対象となる位置を示すファイルポインタをリセットし、処理位置を画像ファイルの先頭に復元する。
Step S23: The
ステップS24:CPU50は、RAM52にキャッシュされた1MCUライン分の画像データにハフマン解凍処理を施し、量子化DCT係数を得る。ここで、1MCUラインとは、画像を回転させる場合には、画像を構成する列方向に1列のMCU群をいい、回転させない場合には、画像を構成する行方向に1列のMCU群をいう。
Step S24: The
ステップS25:CPU50は、ステップS24の処理において得られた量子化DCT係数を逆量子化する。
Step S25: The
ステップS26:CPU50は、ステップS25で得られたDCT係数に対して逆DCT演算を施すことによりもとのデータを得る。
Step S26: The
ステップS27:CPU50は、ステップS26の処理によって得られたYCC方式の画像をRGB方式の画像に変換する。
Step S27: The
ステップS28:CPU50は、ステップS27において得られたRGB方式の画像を構成する各画素に対して補正処理を施す。具体的には、それぞれの画素に対して、ステップS22において算出した補正パラメータを適用することにより、色かぶりを解消するとともに、露出が適正となるように補正する。
Step S28: The
ステップS29:CPU50は、補正処理の結果得られた画像データを、プリンタエンジンコントローラ62の図示せぬバンドバッファに供給し、印刷処理を実行させる。この結果、プリンタエンジンコントローラ62は、記録ヘッド68を制御して画像データに対応するインクを吐出させ、キャリッジモータ65を駆動して記録ヘッド68を主走査方向に移動させるとともに、紙送りモータ63を駆動して副走査方向に移動させ、画像を印刷する。
Step S29: The
ステップS30:CPU50は、RAM52にキャッシュされている画像データを、つぎの処理に備えて更新する。
Step S30: The
ステップS31:CPU50は、処理を終了するか否かを判定し、終了しない場合にはステップS24に戻って同様の処理を繰り返し、それ以外の場合には処理を終了する。
Step S31: The
つぎに、図6を参照して、図3のステップS18の詳細な処理について説明する。図6の処理が開始されると、以下のステップが実行される。 Next, with reference to FIG. 6, the detailed process of step S18 of FIG. 3 will be described. When the process of FIG. 6 is started, the following steps are executed.
ステップS40:CPU50は、ステップS15の処理により、RAM52に保持されている画像データを所定の割合で間引きして縮小する処理を実行する。例えば、間引き後の画像がQVGA(Quarter Video Graphics Array)サイズの画像となるように間引き処理を実行する。なお、処理の対象となる画像データとしては、例えば、Y(輝度)成分画像を用いることができる。すなわち、画像データに顔領域が含まれているか否か検索する場合には、後述する白黒濃淡画像であるテンプレートとの類比を判断するので、検索対象となる画像データについても白黒濃淡画像である輝度成分であるY成分画像を利用する。
Step S40: The
ステップS41:CPU50は、ステップS40において間引きされて得られた画像データを所定の大きさに拡大する処理を実行する。例えば、図7(A)に示すように、実線で示す画像データよりも上下にd1画素(例えば、10画素)、左右にd2画素(例えば、10画素)だけ大きい破線で示す領域まで拡大する。なお、拡大処理の方法としては、例えば、最近傍補間、双一次補間、双三次補間、または、線形補間等を用いることができる。
Step S41: The
ステップS42:CPU50は、ステップS41において拡大された画像データから、もとの大きさの画像データを切り出す処理を実行し、もとの処理に復帰する。例えば、図7(B)に示すように、ステップS41で拡大された画像データからもとの大きさの画像データを切り出す。
Step S42: The
以上の処理によれば、被写体である人物が写されている可能性が高い領域(中央部分の領域)の画像を抽出することができる。なお、以上の実施の形態では、画像を拡大した後に中央部分の領域を抽出するようにしたが、例えば、画像の中央部分の領域を抽出した後に、抽出した領域を拡大することも可能である。例えば、図8(A)に示すように、画像から破線で示す領域を切り出した後、図8(B)に示すように、切り出した領域を拡大するようにしてもよい。このような方法によれば、処理コストを要する拡大処理の対象となる領域を狭くすることができるので、図7の場合に比較して、処理速度を短縮することができる。 According to the above processing, it is possible to extract an image of a region (a central portion region) in which there is a high possibility that a person who is a subject is captured. In the above embodiment, the central area is extracted after enlarging the image. However, for example, the extracted area can be expanded after extracting the central area. . For example, as shown in FIG. 8A, after the region indicated by the broken line is cut out from the image, the cut out region may be enlarged as shown in FIG. 8B. According to such a method, the area to be subjected to enlargement processing that requires processing cost can be narrowed, so that the processing speed can be shortened compared to the case of FIG.
つぎに、図9を参照して、図3のステップS19に示す顔抽出処理の詳細について説明する。図9に示す処理が開始されると、以下のステップが実行される。 Next, details of the face extraction process shown in step S19 of FIG. 3 will be described with reference to FIG. When the process shown in FIG. 9 is started, the following steps are executed.
ステップS50:CPU50は、テンプレートを指定する変数nに値“1”を初期設定し、テンプレートの走査位置を指定する変数x,yに値“0”をそれぞれ初期設定する。
Step S50: The
ステップS51:CPU50は、変数nによって指定される第n番目のテンプレート(詳細は後述する)をROM51から選択する。第1回目の処理では、変数nには値“1”が設定されているので、第1番目のテンプレートが選択される。図10(A)は、第1〜第5のテンプレートの一例を示している。この図に示すように、テンプレートは顔の特徴点(目、鼻、口等)を含む画像であり、第1〜第5の順でそのサイズが小さくなっている。なお、テンプレートの画像の解像度が高い場合には、各個人の顔の特徴に影響を受けてマッチング処理の精度が低下するので、図10(B)に示すように、テンプレートにモザイク処理を施すことにより、各個人の特徴に影響を受けにくくしている。
Step S51: The
ステップS52:CPU50は、ステップS18の処理によってズームされた画像データからx,yを左上端とし、ステップS51で選択したテンプレートに対応するサイズの領域を抽出する。なお、以下では、抽出された画像データを抽出画像データと称する。いまの例では、x,y=0であり、第1のテンプレートが選択されているので、x,y=0を左上端とし、第1のテンプレートと同じサイズの領域が抽出画像データとして抽出される。
Step S52: The
ステップS53:CPU50は、ステップS51において選択したテンプレートと、ステップS52において抽出された抽出画像データとのマッチング処理を実行する。マッチング方法としては、例えば、抽出画像データと、テンプレートの各画素の差分の2乗を累積加算し、所定の閾値以下になった場合には、これらの類似性が高い(顔が含まれている)と判断することができる。なお、これ以外にも、例えば、ニューラルネットワークを利用することも可能である。その場合、例えば、入力層、中間層、および、出力層の3層構造を有するニューラルネットワークを利用し、入力層にテンプレートの画像を、例えば、位置等をずらしながら入力して学習を行い、十分に学習を積んだニューラルネットワークを用いてマッチング処理を行うことが可能である。
Step S53: The
また、ニューラルネットワークではなく、例えば、ジェネティックアルゴリズム(遺伝的アルゴリズム)を用いてマッチング処理を行うことも可能である。例えば、テンプレートを原画像に重ねる際のパラメータとして、テンプレートの種類n、左上端のx,y座標を定義し、各固体の染色体をこれらのパラメータに基づいて決定し、マッチング率を固体の適応度とみなして個体集団を進化させることにより、最適な個体をマッチング処理の結果とすることができる。 Further, it is possible to perform the matching process using, for example, a genetic algorithm (genetic algorithm) instead of the neural network. For example, the template type n and the x and y coordinates of the upper left corner are defined as parameters for overlaying the template on the original image, the chromosomes of each solid are determined based on these parameters, and the matching rate is determined by the fitness of the solid It is possible to obtain the optimum individual as a result of the matching processing by regarding the individual population and evolving the individual population.
ステップS54:CPU50は、ステップS53の処理の結果に基づいて、ステップS52で抽出された抽出画像データに顔が含まれているか否かを判定し、含まれていると判定した場合にはステップS55に進み、それ以外の場合にはステップS56に進む。例えば、前述した差分の2乗を計算するマッチング処理の場合には、累積加算値が所定の閾値よりも小さい場合には顔が含まれていると判定する。
Step S54: The
ステップS55:CPU50は、顔が存在すると判定された領域の中心の座標をRAM52に記憶する。なお、中心座標を求めるには、現在選択されているテンプレートのサイズの半分の長さを、現在のx,y座標に加算すればよい。
Step S55: The
ステップS56:CPU50は、それまでの処理で合計して10人分の顔を検出したか否かを判定し、10人分の顔を検出した場合には処理を終了してもとの処理に復帰し、それ以外の場合にはステップS57に進む。例えば、第1のテンプレートで、3人の顔が検出され、第3のテンプレートで7人の顔が検出された場合には処理を終了してもとの処理に復帰する。
Step S56: The
ステップS57:CPU50は、抽出画像データが抽出される領域が画像データの右端に到達したか否かを判定し、到達した場合にはステップS59に進み、それ以外の場合にはステップS58に進む。すなわち、本発明の実施の形態では、図11(A)に示すように、画像データからテンプレートに対応した大きさの画像データを抽出し、図11(B)に示す順序で抽出を繰り返す。このとき、画像を抽出する領域が右端に到達した場合には、ステップS59に進む。
Step S57: The
ステップS58:CPU50は、左上端のx座標に対してΔxを加算する。なお、Δxは、選択されているテンプレートのサイズに応じて最適な値を決定する。例えば、テンプレートのサイズが小さい場合にはΔxの値を小さくし、サイズが大きい場合にはΔxの値を大きくする。
Step S58: The
ステップS59:CPU50は、左上端のy座標に対してΔyを加算する。なお、Δyは、前述のΔxの場合と同様に、テンプレートのサイズに応じて決定する。
Step S59: The
ステップS60:CPU50は、左上端のx座標を“0”に設定する。その結果、画像を抽出する領域が画像の左端に復帰する。
Step S60: The
ステップS61:CPU50は、所定のテンプレートについて、全領域に対する処理が完了したか否かを判定し、終了したと判断した場合にはステップS62に進み、それ以外の場合にはステップS52に戻って同様の処理を繰り返す。
Step S61: The
ステップS62:CPU50は、x,yのそれぞれに対して値“0”を設定する。その結果、画像を抽出する領域が画像データの左上端にリセットされる。
Step S62: The
ステップS63:CPU50は、テンプレートを選択するための変数nを“1”だけインクリメントする。いまの例では、変数nには初期値“1”が設定されているので、変数nの値はこの処理により“2”となる。その結果、ステップS51の処理では第2のテンプレートが選択されることになる。
Step S63: The
ステップS64:CPU50は、変数nの値がテンプレートの最大値を示す値Nよりも大きいか否かを判定し、大きい場合には処理を終了する。いまの例では、図10に示すように、N=5であるので、n>5である場合には処理を終了してもとの処理に復帰し、それ以外の場合にはステップS51に戻って同様の処理を繰り返す。
Step S64: The
以上に説明したように、本発明の実施の形態によれば、画像データの中央部の領域を抽出して顔の有無を判定するようにしたので、処理の対象となる画像データを絞り込むことにより、処理速度を向上させることが可能になる。また、被写体となる人物は、画像の中央付近に存在する場合が多く、また、中央以外に存在する人物は主たる被写体ではない場合が多いので、処理の対象を効率よく絞り込むことが可能になる。 As described above, according to the embodiment of the present invention, since the central region of the image data is extracted and the presence / absence of the face is determined, by narrowing down the image data to be processed, The processing speed can be improved. In addition, since the person who is the subject often exists near the center of the image, and the person who exists outside the center is often not the main subject, it is possible to efficiently narrow down the processing targets.
また、本発明の実施の形態によれば、対象となる画像を間引きにより縮小した後に、拡大するようにしたので、画像に含まれているノイズを除去し、マッチングの精度を向上させることができる。また、原画像よりも拡大することにより、特徴部分となる目、口、鼻等の要素を見つけ出しやすくすることができる。 In addition, according to the embodiment of the present invention, since the target image is reduced by thinning and then enlarged, noise included in the image can be removed and matching accuracy can be improved. . Further, by enlarging the original image, it is possible to easily find elements such as eyes, mouths, and noses that are characteristic portions.
なお、以上の実施の形態では、スタンドアロン型の印刷装置を例に挙げて説明を行ったが通常の印刷装置(パーソナルコンピュータと接続して使用するタイプの印刷装置)に対して本発明を適用することができる。また、図12に示す、スキャナ装置、印刷装置、および、コピー装置が一体となったいわゆる複合型の印刷装置に対して本発明を適用することも可能である。 In the above embodiment, the stand-alone printing apparatus has been described as an example, but the present invention is applied to a normal printing apparatus (a printing apparatus of a type used by being connected to a personal computer). be able to. Further, the present invention can be applied to a so-called composite printing apparatus in which a scanner apparatus, a printing apparatus, and a copying apparatus are integrated as shown in FIG.
図12の例では、印刷装置211は、装置全体を覆うケース212と、印刷媒体としての印刷用紙を供給する給紙装置213と、紙媒体等に印刷された画像を読み取るスキャナ部230と、印刷用紙に対して印刷を行う印刷部(不図示)とを備える。
In the example of FIG. 12, the
ケース212は、略四角形状の箱体であり、上面にスキャナ部230が設けられており、また、前面中央部には、LCD217と、各種操作ボタン218とを備える。LCD217には、図1の場合と同様に、印刷装置211のメニュー機能、動作内容、動作状況、エラー内容などが表示され、操作ボタン218は、印刷装置211のメニュー選択等を行う時に押されるようになっている。
The
ケース212は、前面下部に、排出口212aを備え、印刷された印刷用紙が排出されるようになっている。また、ケース212の前面右側には、カードスロット221が設けられており、例えばディジタルカメラなどによって撮影された画像データを記録するメモリカードMが、取り外し自在に収納されるようになっている。
The
給紙装置213は、ケース212の背面側に設けられており、印刷用紙をストックするとともに、必要に応じて印刷装置211の内部に一枚ずつ供給する。
The
図13は、図12に示す複合型の印刷装置210の制御系の構成例を示す図である。なお、この図において、図2の場合と対応する部分には同一の符号を付してその説明を省略する。図13の例では、図2の場合と比較して、操作ボタン18が操作ボタン218に置換され、また、スキャナ部230が新たに付加されている。なお、その他の構成は、図2の場合と同様である。
FIG. 13 is a diagram illustrating a configuration example of a control system of the composite printing apparatus 210 illustrated in FIG. In this figure, parts corresponding to those in FIG. 2 are denoted by the same reference numerals and description thereof is omitted. In the example of FIG. 13, compared with the case of FIG. 2, the
ここで、操作ボタン218としては、スキャナ装置およびコピー装置を制御するためのボタンが新たに追加されている。スキャナ部230は、紙媒体に印刷されている画像を読み取るための光学系、撮像系、および、これらを制御するための制御系によって構成されており、CPU50の制御に応じて紙媒体に印刷された画像を読み取って、対応する画像データに変換して出力する。
Here, as the
このような複合型の印刷装置211では、メモリカードMから読み込んだ画像データに対して、前述したような処理を実行することにより、画像に含まれている顔に応じて補正処理を行うことが可能となる。
In such a composite-
また、図12に示す実施の形態では、メモリカードMのみならず、スキャナ部230によって読み込まれた画像に含まれている顔に応じて、補正処理を実行することも可能になる。すなわち、スキャナ部230に、例えば、写真等を配置してスキャンすることにより、画像を画像データに変換して読み込み、当該画像データに対して、前述の場合と同様の処理を実行することにより、人物の顔色に応じて補正処理を実行することができる。
In the embodiment shown in FIG. 12, the correction process can be executed not only for the memory card M but also for the face included in the image read by the
なお、以上の実施の形態は、一例であって、これ以外にも種々の変形実施態様が存在する。例えば、以上の実施の形態では、画像データの抽出する領域は固定としたが、例えば、過去の処理に基づいて学習を行い、最適な範囲を設定するようにしてもよい。具体的には、画像データにおける顔が存在する確率が高い部分を過去のデータから特定し、当該部分を含むように領域を設定するようにすればよい。そのような方法によれば、最小限のコストで顔を発見することが可能になる。 The above embodiment is merely an example, and there are various other modified embodiments. For example, in the above embodiment, the region from which image data is extracted is fixed, but for example, learning may be performed based on past processing to set an optimal range. Specifically, a part having a high probability that a face exists in image data may be specified from past data, and an area may be set so as to include the part. Such a method makes it possible to find a face at a minimum cost.
また、以上の実施の形態では、中央部分の切り出す領域としては、略矩形形状の領域を設定するようにしたが、これ以外の形状に領域を切り出すようにしてもよい。例えば、台形形状、三角形状、あるいは、円形形状であってもよい。 In the above embodiment, a substantially rectangular area is set as the area to be cut out at the central portion. However, the area may be cut out in other shapes. For example, a trapezoidal shape, a triangular shape, or a circular shape may be used.
また、以上の実施の形態では、中央部分の領域を拡大または縮小するようにしたが、拡大または縮小をせずに、切り出した領域の画像をそのまま用いて認識処理を実行するようにしてもよい。また、縮小および拡大を何度か繰り返すことにより、ノイズ成分を減少させ、認識精度を向上させることも可能である。さらに、切り出した画像についてもモザイク処理を施した後に顔が含まれているか否かの検出処理を行うこともできる。 Further, in the above embodiment, the area of the central portion is enlarged or reduced. However, the recognition process may be executed using the image of the cut area as it is without being enlarged or reduced. . Further, by repeating the reduction and enlargement several times, it is possible to reduce the noise component and improve the recognition accuracy. Furthermore, it is also possible to perform a detection process as to whether or not a face is included after performing a mosaic process on the cut out image.
また、以上の実施の形態では、YCC方式の画像のY画像を利用して顔を検出するようにしたが、例えば、RGB方式の画像から黒白濃淡画像を生成し、当該白黒濃淡画像から顔を検出することも可能である。 In the above embodiment, the face is detected using the Y image of the YCC system image. For example, a black and white gray image is generated from the RGB system image, and the face is detected from the black and white gray image. It is also possible to detect.
また、以上の実施の形態では、顔の大きさに拘わらず、10人検出した場合に、処理を終了するようにしたが、例えば、小さい顔については重要度が低いと考えることができることから、大きい顔が所定の個数見つかった場合には、処理を終了するようにしてもよい。そのような実施の形態によれば、処理速度を向上させることができる。また、それぞれの大きさについて、個数を定めておき、定められた個数の顔が検出された場合には処理を終了するようにしてもよい。例えば、第1のテンプレートでは1つ、第2のテンプレートでは2つ、といった具合である。そのような処理によれば、主な被写体と考えられる大きな顔が検出された場合には、迅速に処理を終了することにより、処理時間を短縮することができる。 In the above embodiment, the process is terminated when 10 people are detected regardless of the size of the face. For example, it can be considered that the importance is low for a small face. If a predetermined number of large faces are found, the process may be terminated. According to such an embodiment, the processing speed can be improved. Alternatively, the number may be determined for each size, and the processing may be terminated when a predetermined number of faces are detected. For example, one for the first template, two for the second template, and so on. According to such processing, when a large face that is considered to be the main subject is detected, the processing time can be shortened by quickly ending the processing.
また、以上の実施の形態では、正面を向いた顔に対応するテンプレートを使用するようにしたが、例えば、上、下、右、および、左を向いたテンプレートを用いるようにしてもよい。その場合、正面と上、下、右、左の中間の段階のテンプレートを複数用意し、それぞれのテンプレートとのマッチング処理を実行してもよい。そのような実施の形態によれば、被写体の人物が正面以外の方向を向いている場合であっても、顔として認識される確率を向上させることができる。 In the above embodiment, the template corresponding to the face facing front is used. However, for example, templates facing upward, downward, right, and left may be used. In that case, a plurality of templates in the middle of the front, top, bottom, right, and left may be prepared, and matching processing with each template may be executed. According to such an embodiment, it is possible to improve the probability of being recognized as a face even when the subject person is facing in a direction other than the front.
また、以上の実施の形態では、図11(B)に示す順序で顔を検出するようにしたが、例えば、顔が含まれている蓋然性が最も高い、画面の中央から外側に向かって、螺旋状に旋回しながら検出するようにしてもよい。なお、そのとき、画面の中央部分では、抽出範囲の移動ステップを小さくし、外側に行くほどステップを大きくするようにしてもよい。そのような実施の形態によれば、例えば、顔が存在する蓋然性に応じたステップで検出処理を実行することができる。また、前述の大きい顔が見つかった場合には処理を終了する実施の形態と併せて実施するようにすれば、処理速度を向上させることが可能になる。 In the above embodiment, the faces are detected in the order shown in FIG. 11B. For example, the face is most likely to be included, and the spiral is formed outward from the center of the screen. You may make it detect, turning in the shape. At that time, in the central portion of the screen, the moving step of the extraction range may be reduced, and the step may be increased toward the outside. According to such an embodiment, for example, the detection process can be executed in steps corresponding to the probability that a face exists. Further, if the above-described embodiment is executed in combination with the embodiment in which the process is terminated when a large face is found, the processing speed can be improved.
また、以上の実施の形態では、抽出画像データを拡大する方法としては、線形補間を利用するようにしたが、これ以外の処理によって拡大処理することも可能である。例えば、補間点から最も近くにある画像構成点の色をそのまま補間点の色とするニアレストネーバー法、補間点の周囲にある4画像構成点の色の加重平均値を補間点の色とするバイリニア法、および、補間点の周囲にある4×4=16画像構成点をキュービックスプライン法により補間した結果を補間点の色とするバイキュービック法等を用いることができる。 In the above embodiment, linear interpolation is used as a method of enlarging the extracted image data. However, the enlarging process can be performed by other processes. For example, the nearest neighbor method in which the color of the image constituent point closest to the interpolation point is the color of the interpolation point as it is, the weighted average value of the colors of the four image constituent points around the interpolation point is the color of the interpolation point The bilinear method, the bicubic method in which the result of interpolating the 4 × 4 = 16 image constituent points around the interpolation point by the cubic spline method is used as the interpolation point color, and the like.
また、以上の実施の形態では、図3,6,9に示す処理を、印刷装置11または印刷装置211において実行するようにしたが、例えば、印刷装置11または印刷装置211に接続されているホストコンピュータにおいて実行することも可能である。
In the above embodiment, the processing illustrated in FIGS. 3, 6, and 9 is executed in the
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、画像処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disk)、DVD−RAM、CD−ROM(Compact Disk ROM)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。 The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the image processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic recording device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Examples of the optical disc include a DVD (Digital Versatile Disk), a DVD-RAM, a CD-ROM (Compact Disk ROM), and a CD-R (Recordable) / RW (ReWritable). Magneto-optical recording media include MO (Magneto-Optical disk).
プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, portable recording media such as a DVD and a CD-ROM in which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
50 CPU(抽出手段、判定手段、補正手段、拡大手段、縮小手段)、51 ROM、52 RAM、 62 プリンタエンジンコントローラ。 50 CPU (extraction means, determination means, correction means, enlargement means, reduction means), 51 ROM, 52 RAM, 62 Printer engine controller.
Claims (7)
上記抽出手段によって抽出された領域内に人物の顔が含まれているか否か判定する判定手段と、
上記判定手段によって顔が含まれていると判定された場合には、上記顔の状態に基づいて画像データを補正する補正手段と、
を有することを特徴とする画像処理装置。 Extraction means for extracting a partial area of the image data;
Determination means for determining whether or not a person's face is included in the region extracted by the extraction means;
When the determination unit determines that a face is included, a correction unit that corrects image data based on the state of the face;
An image processing apparatus comprising:
上記抽出ステップによって抽出された領域内に人物の顔が含まれているか否か判定する判定ステップと、
上記判定ステップによって顔が含まれていると判定された場合には、上記顔の状態に基づいて画像データを補正する補正ステップと、
を有することを特徴とする画像処理方法。 An extraction step for extracting a part of the image data;
A determination step of determining whether or not a human face is included in the region extracted by the extraction step;
A correction step for correcting the image data based on the state of the face when the determination step determines that a face is included;
An image processing method comprising:
上記抽出手段によって抽出された領域内に人物の顔が含まれているか否か判定する判定手段、
上記判定手段によって顔が含まれていると判定された場合には、上記顔の状態に基づいて画像データを補正する補正手段、
としてコンピュータを機能させるコンピュータ読み取り可能な画像処理プログラム。 Extraction means for extracting a partial region of image data;
Determining means for determining whether or not a human face is included in the region extracted by the extracting means;
Correction means for correcting image data based on the state of the face when the determination means determines that a face is included;
A computer-readable image processing program for causing a computer to function as a computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010280209A JP2011061868A (en) | 2010-12-16 | 2010-12-16 | Image processing apparatus, printing device, image processing method, and, image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010280209A JP2011061868A (en) | 2010-12-16 | 2010-12-16 | Image processing apparatus, printing device, image processing method, and, image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005094814A Division JP4742642B2 (en) | 2005-03-29 | 2005-03-29 | Image processing apparatus, printing apparatus, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011061868A true JP2011061868A (en) | 2011-03-24 |
Family
ID=43948856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010280209A Withdrawn JP2011061868A (en) | 2010-12-16 | 2010-12-16 | Image processing apparatus, printing device, image processing method, and, image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011061868A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002369020A (en) * | 2001-06-07 | 2002-12-20 | Noritsu Koki Co Ltd | Photographic image processing apparatus and method, and photograph processing apparatus |
JP2004246456A (en) * | 2003-02-12 | 2004-09-02 | Omron Corp | Apparatus and method for image editing |
-
2010
- 2010-12-16 JP JP2010280209A patent/JP2011061868A/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002369020A (en) * | 2001-06-07 | 2002-12-20 | Noritsu Koki Co Ltd | Photographic image processing apparatus and method, and photograph processing apparatus |
JP2004246456A (en) * | 2003-02-12 | 2004-09-02 | Omron Corp | Apparatus and method for image editing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7869630B2 (en) | Apparatus and method for processing image | |
US9137417B2 (en) | Systems and methods for processing video data | |
JP4924727B2 (en) | Image processing apparatus and image processing program | |
JP2007087234A (en) | Image processing method and apparatus, and program | |
JP2012027687A (en) | Image processing apparatus and program | |
JP2007074578A (en) | Image processor, photography instrument, and program | |
JP2008099149A (en) | Image processor, image processing method and image processing program | |
JP2006343863A (en) | Image processor and image processing method | |
JPH11215498A (en) | Image processor, image processing method and program storage medium thereof | |
US20060109488A1 (en) | Method of setting background picture in image printer having display unit | |
JP2008061184A (en) | Apparatus and method for image processing, program, and photographing apparatus | |
JP2006279460A (en) | Image processor, printer, image processing method, and image processing program | |
JP4742642B2 (en) | Image processing apparatus, printing apparatus, image processing method, and image processing program | |
JP4636786B2 (en) | Captured image projection device, image processing method and program for captured image projection device | |
JP2011118944A (en) | Image processing device, printer, image processing method, and computer program | |
JP5609555B2 (en) | Image processing apparatus, program, and image processing method | |
JP2006113658A (en) | Image processing apparatus and method, and storage medium with program recorded thereon | |
JP4770231B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2011061868A (en) | Image processing apparatus, printing device, image processing method, and, image processing program | |
JP2008028802A (en) | Unit, method and program for processing image, and printer | |
JP2006306045A (en) | Printing device, method of printing image and image printing program | |
JP2012175500A (en) | Image processing method, control program, and image processing device | |
JP2007200091A (en) | Image processor | |
JP2005202834A (en) | Character recognition system, character recognition method and character recognition program | |
JP2008090399A (en) | Image processor, printer, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111220 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20120202 |