JP2006285469A - Image processor, image processing method and image processing program - Google Patents

Image processor, image processing method and image processing program Download PDF

Info

Publication number
JP2006285469A
JP2006285469A JP2005102564A JP2005102564A JP2006285469A JP 2006285469 A JP2006285469 A JP 2006285469A JP 2005102564 A JP2005102564 A JP 2005102564A JP 2005102564 A JP2005102564 A JP 2005102564A JP 2006285469 A JP2006285469 A JP 2006285469A
Authority
JP
Japan
Prior art keywords
image
date display
area
determination
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005102564A
Other languages
Japanese (ja)
Inventor
Koichi Yoshizawa
孝一 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005102564A priority Critical patent/JP2006285469A/en
Publication of JP2006285469A publication Critical patent/JP2006285469A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To solve such a problem that the vertical directions between an object image and date display are not matched. <P>SOLUTION: The vertical direction of image data 14a expressing an object image is determined, and when the vertical direction and the up and down direction of the image data 14a stored are not matched (the upper direction and direction of the top of the image data are not matched, or the lower direction and direction of the bottom of the image data are not matched), one of the image data 14a and date display data are rotated before the synthesis processing of the image data 14a and the date display data, so that the vertical directions of the object image and the date display can be matched. As a result, it is possible to surely output the image with date display while the vertical directions of the object image and the date display are matched without imposing any additional input operation on a user. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、対象画像の所定位置に日付表示を合成する画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that synthesize a date display at a predetermined position of a target image.

従来、撮影した写真画像等を印刷装置にてプリントする際に日付表示を加えようとした場合、その日付表示は、例えば図4,5に示すように、矩形画像の長辺を上下方向に対抗させた場合の右下位置等、決められた一定位置に印刷されるのが通常であった。   Conventionally, when adding a date display when printing a photographed photograph image or the like with a printing apparatus, the date display is opposed to the long side of the rectangular image vertically as shown in FIGS. Normally, printing is performed at a predetermined fixed position such as a lower right position in the case of printing.

また、日付表示を合成する位置を、ユーザのカーソルキー操作によって変更できる技術が知られている(例えば、特許文献1参照。)。
特開平2002‐135560号公報
In addition, a technique is known in which a position where a date display is synthesized can be changed by a user's cursor key operation (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 2002-135560

従来のように日付表示の位置が固定されていた場合には、画像が縦長に撮影されたか横長に撮影されたかにかかわらず日付表示の方向が不変であるため、画像と日付表示との方向が一致せず違和感のある画像が出力されることがあった。
また、上記文献においては、日付表示位置の変更のためにはユーザが入力操作を行う必要があり、日付表示の合成に要する処理が煩雑になっていた。さらに、上記変更を行っても、画像と日付表示との方向不一致の問題を解決することはできなかった。
If the date display position is fixed as in the past, the date display direction remains unchanged regardless of whether the image was shot vertically or horizontally, so the direction of the image and date display is the same. An image that does not match and feels uncomfortable may be output.
Further, in the above-mentioned document, it is necessary for the user to perform an input operation for changing the date display position, and the processing required for synthesizing the date display has been complicated. Further, even if the above change is made, the problem of the direction mismatch between the image and the date display cannot be solved.

本発明は、上記課題にかんがみてなされたもので、煩雑な入力操作を要することなく自動的に、対象画像上にて適切な方向および位置にて日付表示を合成することの可能な画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and is an image processing apparatus capable of automatically synthesizing a date display in an appropriate direction and position on a target image without requiring a complicated input operation. An object of the present invention is to provide an image processing method and an image processing program.

上記目的を達成するため、本発明の画像処理装置においては、画像データ入力手段が対象画像を表現する画像データを入力した場合、天地判定手段が上記対象画像の天地方向を判定する。そして、画像合成手段が、上記天地の判定に従って、対象画像とこれに付加する日付表示との天地方向が一致するように上記画像データと日付表示を行うための日付表示データとを合成する。
このように、本発明によれば、縦長や横長などそれぞれに天地方向が異なる対象画像毎に、自動的にその天地方向に日付表示の天地方向が一致するように合成されるため、日付表示を付加した場合に違和感のない画像を生成することができる。
In order to achieve the above object, in the image processing apparatus of the present invention, when the image data input means inputs image data representing the target image, the top and bottom determination means determines the top and bottom direction of the target image. Then, the image synthesis means synthesizes the image data and date display data for date display so that the top and bottom directions of the target image and the date display added thereto coincide with each other according to the determination of the top and bottom.
As described above, according to the present invention, for each target image having a different vertical direction such as portrait or landscape, the date display is automatically combined so that the vertical direction of the date display matches the vertical direction. When added, it is possible to generate an image with no sense of incongruity.

本発明の他の構成として、上記天地判定手段は、上記画像データのヘッダ領域から、同ヘッダ領域に予め記録された対象画像の天地方向を示す天地情報を読み出すことにより天地方向を判定するとしてもよい。つまり、画像データのヘッダ情報には、撮影した対象画像に関する各種情報が保存されており、その中に天地情報が含まれている場合がある。よって、当該天地情報を参照することにより、容易に対象画像の天地方向を判定することができる。   As another configuration of the present invention, the top and bottom determination means may determine the top and bottom direction by reading the top and bottom information indicating the top and bottom direction of the target image recorded in advance in the header area from the header area of the image data. Good. That is, various types of information regarding the captured target image are stored in the header information of the image data, and the top and bottom information may be included therein. Therefore, the top and bottom direction of the target image can be easily determined by referring to the top and bottom information.

また、上記天地判定手段は、上記画像データの画素値を解析することによって対象画像の特徴を表す所定の特徴情報を取得するとともに、当該特徴情報を利用した判定ルールを用いて天地方向を判定するとしてもよい。かかる構成によれば、対象画像の特徴を表す特徴情報を利用した判定ルールを用いて天地方向の判定をするので、上記天地情報がヘッダ領域に保存されていない場合であっても、対象画像の天地を自動的に判定することができる。   The top / bottom determination unit obtains predetermined feature information representing a feature of the target image by analyzing a pixel value of the image data, and determines a top / bottom direction using a determination rule using the feature information. It is good. According to such a configuration, since the determination of the top / bottom direction is performed using the determination rule using the feature information representing the feature of the target image, even if the top / bottom information is not stored in the header area, You can automatically determine the top and bottom.

上記画像合成手段は、上記画像データのヘッダ領域から、同ヘッダ領域に予め記録された上記対象画像の記録時期を示す日付情報を読み出し、同読み出した日付情報に従って上記日付表示データを生成するとしてもよい。すなわち、ヘッダ情報には撮影日時など対象画像の記録時期を示す日付情報が保存されているのが通常であるため、かかる日付情報に従って上記日付表示データを生成し、対象画像を表現する画像データ上の所定位置に合成する。   The image synthesizing unit may read date information indicating a recording time of the target image recorded in advance in the header area from the header area of the image data, and generate the date display data according to the read date information. Good. That is, since the header information normally stores date information indicating the recording time of the target image such as the shooting date and time, the date display data is generated according to the date information, and the image data representing the target image is displayed. Is synthesized at a predetermined position.

本発明の他の構成として、上記画像合成手段は、上記天地の判定に従って画像データを所定角度回転させた上で画像データと日付表示データとを合成することにより対象画像と日付表示との天地方向を一致させるとしてもよい。
つまり画像合成手段は、上記天地の判定に基づいて、矩形である対象画像の4辺のうちいずれの辺が上方向を向くべき辺であるかを認識するため、かかる辺が上方向を向くように画像データを所定角度回転させる。そして、回転後の画像データに日付表示データを合成すれば、対象画像と日付表示との天地方向を確実に一致させることができる。
As another configuration of the present invention, the image synthesizing unit rotates the image data by a predetermined angle in accordance with the determination of the top and bottom, and then combines the image data and the date display data, whereby the top and bottom directions of the target image and the date display are displayed. May be matched.
That is, the image composition means recognizes which of the four sides of the rectangular target image is to be directed upward based on the determination of the top and bottom, so that the side is directed upward. The image data is rotated by a predetermined angle. If the date display data is combined with the rotated image data, the top and bottom directions of the target image and the date display can be reliably matched.

さらに、本発明の他の構成として、上記画像合成手段は、上記天地の判定に従って上記日付表示データを所定角度回転させた上で画像データと日付表示データとを合成することにより対象画像と日付表示との天地方向を一致させるとしてもよい。この場合、画像合成手段は、上記対象画像の天地方向を認識したら、これに日付表示の天地方向を一致させるために日付表示データを回転させる角度を決定し、日付表示データを同決定した角度回転させる。すなわち、回転させるのは画像データ側である必要はなく、日付表示データであってもよい。   Furthermore, as another configuration of the present invention, the image synthesizing unit rotates the date display data by a predetermined angle according to the determination of the top and bottom, and synthesizes the image data and the date display data to thereby display the target image and the date display. The top and bottom directions may be matched. In this case, when recognizing the top / bottom direction of the target image, the image compositing means determines an angle for rotating the date display data in order to match the top / bottom direction of the date display, and rotates the date display data by the determined angle rotation Let That is, it is not necessary to rotate the image data side, and date display data may be used.

さらに、上記画像合成手段は、上記画像データと日付表示データとを合成する際に、画像データにおける各領域毎に所定の画像評価を行うとともに評価結果に従って日付表示を合成するための領域を決定し、この決定した領域に日付表示データを合成するとしてもよい。対象画像と日付表示との天地方向を一致させた場合であっても、そのまま日付表示データを合成した場合、背景の対象画像との関係によっては日付表示を付加するにはふさわしくない位置に合成してしまうことも考えられる。
そこで、上記のように各領域毎の画像評価の結果に従って日付表示を合成するための領域を決定し、この決定した領域に日付表示データを合成するとすれば、方向に加えてその位置も最適とした状態にて日付表示を対象画像上に付加することができる。
Further, when the image composition unit composes the image data and the date display data, the image composition unit performs a predetermined image evaluation for each region in the image data and determines a region for composing the date display according to the evaluation result. The date display data may be combined with the determined area. Even if the top and bottom direction of the target image and the date display are matched, if the date display data is combined as it is, it will be combined at a position that is not suitable for adding a date display depending on the relationship with the target image of the background. It can be considered.
Therefore, if the area for combining the date display is determined according to the image evaluation result for each area as described above, and the date display data is combined with the determined area, the position in addition to the direction is also optimal. In this state, a date display can be added on the target image.

これまでは、日付表示の合成処理にかかる本願思想を実現するための画像処理装置として説明を行ったが、本願思想は、これを実現する方法の発明として把握することも可能である。つまり、対象画像を表現する画像データを入力する画像データ入力工程と、上記対象画像の天地方向を判定する天地判定工程と、上記天地の判定に従って、対象画像とこれに付加する日付表示との天地方向が一致するように上記画像データと日付表示を行うための日付表示データとを合成する画像合成工程とからなることを特徴とする画像処理方法としても把握することができる。この場合も、上記各画像処理装置と同様の作用、効果を有する。   Up to this point, the image processing apparatus has been described as realizing the concept of the present application related to the date display composition processing. However, the idea of the present application can also be grasped as an invention of a method for realizing the image processing apparatus. That is, the image data input step of inputting image data representing the target image, the top and bottom determination step of determining the top and bottom direction of the target image, and the top and bottom of the target image and the date display added thereto according to the determination of the top and bottom It can also be grasped as an image processing method characterized by comprising an image synthesizing step for synthesizing the image data and date display data for date display so that the directions coincide. This case also has the same operations and effects as the image processing apparatuses described above.

さらに、画像処理装置の構成をプログラムの発明に対応させることも可能であり、対象画像を表現する画像データを入力する画像データ入力機能と、上記対象画像の天地方向を判定する天地判定機能と、上記天地の判定に従って、対象画像とこれに付加する日付表示との天地方向が一致するように上記画像データと日付表示を行うための日付表示データとを合成する画像合成機能とをコンピュータに実行させることを特徴とする画像処理プログラムとしても把握することができる。この場合も、上記各画像処理装置と同様の作用、効果を有する。
むろん、請求項2〜請求項7の各構成と同様の構成をもって、上記方法またはプログラムの発明に従属する発明を把握することも可能である。
Furthermore, the configuration of the image processing apparatus can also correspond to the invention of the program, an image data input function for inputting image data representing the target image, a top / bottom determination function for determining the top / bottom direction of the target image, In accordance with the determination of the top and bottom, the computer executes an image composition function for combining the image data and date display data for performing date display so that the top and bottom directions of the target image and the date display to be added coincide with each other. It can be grasped as an image processing program characterized by this. This case also has the same operations and effects as the image processing apparatuses described above.
Of course, it is possible to grasp an invention subordinate to the method or the program invention with the same configuration as each of the configurations of claims 2 to 7.

下記の順序に従って本発明の実施形態を説明する。
(1)画像処理装置の概略構成
(2)第一の実施例
(3)第二の実施例
(4)第三の実施例
Embodiments of the present invention will be described in the following order.
(1) Schematic configuration of image processing apparatus (2) First embodiment (3) Second embodiment (4) Third embodiment

(1)画像処理装置の概略
図1は、本発明にかかる画像処理装置であるコンピュータ10と、これに接続したプリンタ20等を示している。
コンピュータ10では、演算処理の中枢をなすCPU11がシステムバス10aを介してコンピュータ10全体を制御する。同バス10aには、書き換え不可能な半導体メモリであるROM12、書き換え可能な半導体メモリであるRAM13、CD‐ROMドライブ15、フレキシブルディスク(FD)ドライブ16、各種インターフェイス(I/F)17a〜17e等が接続され、ハードディスクドライブを介して磁気ディスクであるハードディスク(HD)14も接続されている。
(1) Outline of Image Processing Apparatus FIG. 1 shows a computer 10 that is an image processing apparatus according to the present invention, a printer 20 connected thereto, and the like.
In the computer 10, the CPU 11 which is the center of the arithmetic processing controls the entire computer 10 via the system bus 10a. The bus 10a includes a ROM 12 which is a non-rewritable semiconductor memory, a RAM 13 which is a rewritable semiconductor memory, a CD-ROM drive 15, a flexible disk (FD) drive 16, various interfaces (I / F) 17a to 17e, and the like. And a hard disk (HD) 14 that is a magnetic disk is also connected via a hard disk drive.

HD14にはオペレーティングシステム(OS)やアプリケーションプログラム(APL)等が記憶されており、これらはCPU11によって適宜RAM13に転送され、実行される。本実施形態では、HD14には外部から入力した画像データ14a等が保存されている。画像データ14aは、印刷対象となる画像(対象画像)を表したデータであり、コンピュータ10は、I/F17a(例えばUSBI/F)を介してデジタルカメラ40等の入力機器から当該画像データ14aを入力することができる。
ディスプレイI/F17bには画像データに基づいて当該データに対応する画像を表示するディスプレイ18aが接続され、入力I/F17cにはキーボード18bやマウス18cが操作用入力機器として接続され、プリンタI/F17eには例えばシリアルI/Fケーブルを介してプリンタ20が接続されている。
The HD 14 stores an operating system (OS), an application program (APL), and the like, which are appropriately transferred to the RAM 13 by the CPU 11 and executed. In this embodiment, the HD 14 stores image data 14a and the like input from the outside. The image data 14a is data representing an image to be printed (target image), and the computer 10 receives the image data 14a from an input device such as the digital camera 40 via the I / F 17a (for example, USB I / F). Can be entered.
A display 18a for displaying an image corresponding to the data based on the image data is connected to the display I / F 17b. A keyboard 18b and a mouse 18c are connected to the input I / F 17c as operation input devices, and a printer I / F 17e. For example, the printer 20 is connected via a serial I / F cable.

プリンタ20は、インクジェット式のプリンタでありCMYK(シアン、マゼンタ、イエロー、ブラック)の各色に対応してそれぞれ設けられた4個のインクカートリッジ28に充填された各インクを印刷ヘッド29a〜29dから吐出して、印刷媒体上にドットを形成することにより画像を印刷する。むろん、ライトシアン、ライトマゼンタ、ライトブラック、ダークイエロー、レッド、バイオレット、無着色インク等を使用するプリンタを採用してもよいし、インク種類数も限られない。また、インク通路内に泡を発生させてインクを吐出するバブル方式のプリンタや、トナーインクを使用して印刷媒体上に印刷画像を印刷するレーザープリンタ等、種々の印刷装置を採用可能である。プリンタ20では、CPU21、ROM22、RAM23、通信I/O24、コントロールIC25、ASIC26、I/F27、等がバス20aを介して接続され、CPU21がROM22に書き込まれたプログラムに従って各部を制御する。   The printer 20 is an ink jet printer, and discharges each ink filled in four ink cartridges 28 provided corresponding to each color of CMYK (cyan, magenta, yellow, black) from the print heads 29a to 29d. Then, an image is printed by forming dots on the print medium. Of course, a printer using light cyan, light magenta, light black, dark yellow, red, violet, uncolored ink, or the like may be employed, and the number of ink types is not limited. Various printing apparatuses such as a bubble printer that generates bubbles in the ink passage and discharges the ink and a laser printer that prints a print image on a print medium using toner ink can be employed. In the printer 20, a CPU 21, a ROM 22, a RAM 23, a communication I / O 24, a control IC 25, an ASIC 26, an I / F 27, etc. are connected via a bus 20 a, and the CPU 21 controls each unit according to a program written in the ROM 22.

キャリッジ機構27aにて主走査方向に往復動するキャリッジには、各インクカートリッジ28が装着されているとともに、印刷ヘッドユニット(印刷ヘッドの集合体)29が搭載されている。各カートリッジ28には、例えばRAMからなるメモリチップ28aがそれぞれ設けられており、各メモリチップ28aは電気的にコントロールIC25と接続されている。通信I/O24はコンピュータ10のプリンタI/F17eと接続され、プリンタ20は通信I/O24を介してコンピュータ10から送信される色別のラスタデータを受信する。ASIC26は、CPU21と所定の信号を送受信しつつヘッド駆動部26aに対してラスタデータに対応する印加電圧データを出力する。同ヘッド駆動部26aは、同印加電圧データから印刷ヘッド29a〜29dに内蔵されたピエゾ素子への印加電圧パターンを生成し、印刷ヘッド29a〜29dに各色のインクをドット単位で吐出させる。I/F27に接続されたキャリッジ機構27aや紙送り機構27bは、印刷ヘッドユニット29を主走査させたり、適宜改ページ動作を行いながら印刷用紙を順次送り出して副走査を行ったりする。   Each ink cartridge 28 is mounted on a carriage that reciprocates in the main scanning direction by the carriage mechanism 27a, and a print head unit (print head assembly) 29 is mounted. Each cartridge 28 is provided with a memory chip 28a made of, for example, RAM, and each memory chip 28a is electrically connected to the control IC 25. The communication I / O 24 is connected to the printer I / F 17e of the computer 10, and the printer 20 receives raster data for each color transmitted from the computer 10 via the communication I / O 24. The ASIC 26 outputs applied voltage data corresponding to the raster data to the head driving unit 26a while transmitting / receiving a predetermined signal to / from the CPU 21. The head drive unit 26a generates an applied voltage pattern to the piezo elements built in the print heads 29a to 29d from the applied voltage data, and causes the print heads 29a to 29d to eject ink of each color in dot units. The carriage mechanism 27a and the paper feed mechanism 27b connected to the I / F 27 cause the print head unit 29 to perform main scanning, and sequentially feed print sheets while performing a page break operation as appropriate, thereby performing sub-scanning.

コンピュータ10においてはOSにプリンタI/F17eを制御するプリンタドライバ(PRTDRV)が組み込まれ、当該PRTDRVは、APLから印刷指示が行われた対象画像について所定の画像処理を行って印刷を実行する。PRTDRVは、印刷を実行するために画像合成モジュールと、色変換モジュールと、ハーフトーン(H/T)モジュールと、印刷データ生成モジュールとを備えている。
上記印刷指示がなされるとPRTDRVが駆動し、各モジュールによって画像データ14aの各画素値に対する処理が実施され、ラスタデータが作成される。作成されたラスタデータはプリンタI/F17eを介してプリンタ20に出力され、プリンタ20は当該ラスタデータに基づいて印刷を実行する。
In the computer 10, a printer driver (PRTDRV) that controls the printer I / F 17e is incorporated in the OS, and the PRTDRV performs predetermined image processing on a target image for which a print instruction has been issued from the APL, and executes printing. The PRTDRV includes an image synthesis module, a color conversion module, a halftone (H / T) module, and a print data generation module for executing printing.
When the printing instruction is given, the PRTDRV is driven, and the processing for each pixel value of the image data 14a is performed by each module to create raster data. The created raster data is output to the printer 20 via the printer I / F 17e, and the printer 20 executes printing based on the raster data.

より具体的には、画像合成モジュールが画像データ14aをHD14から取得する。このとき、画像データ14aに対して後述の日付表示データの合成処理を実行するとともに、必要があれば所定の解像度変換処理を行う。画像データ14aはRGBの各要素色を多階調(例えば、256階調)表現して各画素の色を規定したドットマトリクス状のデータであり、sRGB規格に従った表色系を採用している。むろん、YCbCr表色系を採用したJPEG画像データやCMYK表色系を採用した画像データ等、種々のデータも採用可能である。色変換モジュールは各画素の色を示す表色系を変換するモジュールであり、HD14に予め記録された色変換ルックアップテーブル(LUT)を適宜参照して、画像データ14a(RGBデータ)を、各画素毎にCMYK毎の階調値で表現されるインクデータに色変換する。   More specifically, the image composition module acquires the image data 14a from the HD 14. At this time, a composition process of date display data described later is performed on the image data 14a, and a predetermined resolution conversion process is performed if necessary. The image data 14a is dot matrix data in which each element color of RGB is expressed in multiple gradations (for example, 256 gradations) to define the color of each pixel, and adopts a color system according to the sRGB standard. Yes. Of course, various data such as JPEG image data using the YCbCr color system and image data using the CMYK color system can also be used. The color conversion module is a module that converts a color system indicating the color of each pixel. The color conversion module refers to a color conversion look-up table (LUT) recorded in advance in the HD 14 and converts the image data 14a (RGB data) For each pixel, color conversion is performed to ink data expressed by gradation values for each CMYK.

H/Tモジュールは、色変換によって生成されたインクデータを、各画素におけるCMYK毎のインクの吐出/非吐出を特定したH/Tデータに変換する。H/Tモジュールは、誤差拡散法やディザ法等によるH/T処理を実行可能である。最後に、印刷データ生成モジュールは、上記H/Tデータに基づいて、上記ラスタデータを生成しプリンタ20に送出する。
なお、図1ではコンピュータ10とプリンタ20とを個別の機体としているが、プリンタ20が印刷処理に加えてコンピュータ10が実行する画像処理を実行する構成としても良い。
The H / T module converts the ink data generated by the color conversion into H / T data that specifies ink ejection / non-ejection for each CMYK in each pixel. The H / T module can execute H / T processing by an error diffusion method, a dither method, or the like. Finally, the print data generation module generates the raster data based on the H / T data and sends it to the printer 20.
In FIG. 1, the computer 10 and the printer 20 are separate units, but the printer 20 may be configured to execute image processing executed by the computer 10 in addition to print processing.

(2)第一の実施例
ここで、任意の対象画像を表す画像データ14aをデジタルカメラ40などから入力した場合、当該画像データ14aは、それが縦長の画像であるか横長の画像であるかによらず、決まった方向にてHD14の所定の記憶領域に保存される。すなわち、対象画像の天地方向にかかわらず、図4,5に示すように矩形画像の2つの長辺を上下(記憶領域内のX,Y座標軸のYの正方向を上方向とする。)に対抗させた画素の配列状態にて保存される。このような方向にて保存されている画像データ14aに対して、撮影時期を示す日付表示など他の画像を特定の位置(図中の日付表示エリア)に合成した場合、図5のように対象画像の天地方向と他の画像の天地方向とが一致しない場合がある。
そこで、本実施例においては、以下のような画像合成処理を行うこととした。
(2) First Example Here, when image data 14a representing an arbitrary target image is input from the digital camera 40 or the like, is the image data 14a a vertically long image or a horizontally long image? Regardless, it is stored in a predetermined storage area of the HD 14 in a fixed direction. That is, regardless of the vertical direction of the target image, as shown in FIGS. 4 and 5, the two long sides of the rectangular image are up and down (the positive direction of Y of the X and Y coordinate axes in the storage area is the upward direction). Stored in the array state of the opposed pixels. When the image data 14a stored in such a direction is combined with a specific position (date display area in the figure) such as a date display indicating the shooting time, the target as shown in FIG. The vertical direction of an image may not match the vertical direction of another image.
Therefore, in this embodiment, the following image composition processing is performed.

図2は、コンピュータ10が実行する画像合成処理の内容をフローチャートにより示している。当該処理は、主に上記PRTDRVの画像合成モジュールによって実行される。
ステップS(以下、ステップの記載を省略。)700においては、コンピュータ10は、HD14から対象画像を表す上記画像データ14aを読み出す。
S710では、コンピュータ10は、画像データ14aが記録された時期(例えば、デジタルカメラ40にて撮影された年月日)を示す情報(以下、日付情報)を取得する。具体的には、画像データ14aに付加されているヘッダ領域から当該日付情報を取得する。つまり、画像データ14aが所定の画像ファイル形式で記録されている場合、そのヘッダ領域には、撮影年月日や画像データのサイズなど、画像データ14aに関わる各種情報が記録されているため、ヘッダ領域を参照することにより日付情報を獲得できる。
FIG. 2 is a flowchart showing the contents of the image composition process executed by the computer 10. This processing is mainly executed by the PRTDRV image composition module.
In step S (hereinafter, description of steps is omitted) 700, the computer 10 reads the image data 14 a representing the target image from the HD 14.
In S <b> 710, the computer 10 acquires information (hereinafter, date information) indicating the time when the image data 14 a was recorded (for example, the date taken by the digital camera 40). Specifically, the date information is acquired from the header area added to the image data 14a. That is, when the image data 14a is recorded in a predetermined image file format, various information related to the image data 14a such as the shooting date and the size of the image data is recorded in the header area. Date information can be acquired by referring to the area.

S720においては、コンピュータ10は、画像データ14aが表現する対象画像の天地方向を判定する。この判定は大きく分けると、ヘッダ領域から天地情報を読み取ることによって判定する手法と、画像データ14aの内容を解析することで判定する手法とが考えられる。   In S720, the computer 10 determines the top-and-bottom direction of the target image represented by the image data 14a. This determination can be roughly divided into a method for determining by reading the top and bottom information from the header area and a method for determining by analyzing the contents of the image data 14a.

ヘッダ領域から天地情報を読み取る場合について説明する。撮影機器によっては、撮影時の機器の傾きを検知するいわゆる加速度センサを備えたものがあり、このような撮影機器によって画像データ14aを記録した場合、そのヘッダ領域には、対象画像の天地方向を特定する天地情報が他の各種情報とともに記録されている。そこで、コンピュータ10は、上記ヘッダ領域から天地情報を読み出すとともに、当該天地情報に従って対象画像の天地の向きを認識する。   A case where the top and bottom information is read from the header area will be described. Some photographing devices include a so-called acceleration sensor that detects the inclination of the device at the time of photographing. When image data 14a is recorded by such a photographing device, the top and bottom direction of the target image is displayed in the header area. The specified top and bottom information is recorded together with other various information. Therefore, the computer 10 reads the top and bottom information from the header area and recognizes the top and bottom direction of the target image according to the top and bottom information.

次に、画像データ14aを解析して天地方向を判定する場合について説明する。
この場合、コンピュータ10は、画像的な特徴に基づいて天地方向を判定する天地判定ルールを複数有し、各ルールのうち選択されたルールに従って天地判定を行う。
図10は、コンピュータ10が実行する、画像データの解析による天地判定をフローチャートにより示している。
Next, a case where the image data 14a is analyzed to determine the top / bottom direction will be described.
In this case, the computer 10 has a plurality of top and bottom determination rules for determining the top and bottom directions based on image characteristics, and performs top and bottom determination according to the rule selected from the rules.
FIG. 10 is a flowchart showing the top-and-bottom determination performed by the computer 10 by analyzing image data.

S100では、コンピュータ10は、ルール選択基準情報に基づいて天地判定ルールを選択する。ルール選択基準情報とは、各ルールのうちどのルールを用いるかを指定した情報であり、かかる情報はHD14など所定の記憶領域に予め記録されている。ルール選択基準情報が指定するルールの数は1つであっても、複数であってもよい。   In S100, the computer 10 selects the top / bottom determination rule based on the rule selection criterion information. The rule selection criterion information is information that specifies which of the rules is used, and such information is recorded in a predetermined storage area such as the HD 14 in advance. The number of rules specified by the rule selection criterion information may be one or plural.

本実施例では、天地判定ルールとして「人物」と、「空・地上」と、「直線」と、「棒状オブジェクト」との4つの特徴を用いるルールが存在する。「人物」に基づくルールは、画像を解析して人物である領域を画像的特徴として抽出し、この人物領域に基づいて天地を判定するルールである。「空・地上」に基づくルールは、画像を解析して天空または地上である領域を画像的特徴として抽出し、この空・地上領域に基づいて天地を判定するルールである。「直線」に基づくルールは、画像を解析して画像内に含まれている1つまたは複数の直線を画像的特徴として抽出し、この直線に基づいて天地を判定するルールである。「棒状オブジェクト」に基づくルールは、画像を解析してビルディングなどの棒状オブジェクト領域を画像的特徴として抽出し、この棒状オブジェクト領域に基づいて天地を判定するルールである。   In the present embodiment, there is a rule that uses four characteristics of “person”, “sky / ground”, “straight line”, and “bar-shaped object” as the top and bottom determination rule. The rule based on “person” is a rule for analyzing an image, extracting a region that is a person as an image feature, and determining the top and bottom based on the person region. The rule based on “sky / ground” is a rule for analyzing the image, extracting a sky or ground area as an image feature, and determining the sky based on the sky / ground area. The rule based on “straight line” is a rule for analyzing the image, extracting one or more straight lines included in the image as image features, and determining the top and bottom based on the straight line. The rule based on the “bar object” is a rule for analyzing the image, extracting a bar object area such as a building as an image feature, and determining the top and bottom based on the bar object area.

S200,S300,S400,S500では、上記選択された天地判定ルールに従って対象画像の天地方向とその確率が決定される。S200,S300,S400,S500の詳細については後述する。
S600では、選択されたルールに基づく天地判定の結果を総合して、最終的な天地判定を実行する。この処理についても後述する。なお、S100で1つの天地判定ルールのみが選択されているときには、そのルールで決定された結果がそのまま採用される。
In S200, S300, S400, and S500, the vertical direction of the target image and its probability are determined according to the selected vertical determination rule. Details of S200, S300, S400, and S500 will be described later.
In S600, the result of the top and bottom determination based on the selected rule is integrated and a final top and bottom determination is executed. This process will also be described later. When only one top / bottom determination rule is selected in S100, the result determined by the rule is used as it is.

人物領域に基づく天地方向判定手順:
図11は、人物領域に基づく天地判定手順を示すフローチャートである。S202では、画像データ14aが示す対象画像から人物領域を抽出する。図12はS202の詳細手順を示している。
S262では、対象画像から肌色領域を抽出する。この際、まず、画像データ14aをHSV(色相/彩度/輝度)色空間に変換し、画像の平均輝度Vaveを算出する。そして、平均輝度Vaveの所定の範囲毎に、肌色画素値の適切な範囲を設定して肌色画素の抽出を行なっている。肌色画素値の範囲の具体例は以下の通りである(H成分の範囲が0〜359、S,V各成分の範囲が0〜255の場合)。
Top / bottom direction determination procedure based on person area:
FIG. 11 is a flowchart showing the top and bottom determination procedure based on the person area. In S202, a person region is extracted from the target image indicated by the image data 14a. FIG. 12 shows the detailed procedure of S202.
In S262, a skin color area is extracted from the target image. At this time, first, the image data 14a is converted into an HSV (hue / saturation / luminance) color space, and an average luminance Vave of the image is calculated. Then, for each predetermined range of the average luminance Vave, an appropriate range of skin color pixel values is set and skin color pixels are extracted. Specific examples of the skin color pixel value range are as follows (when the H component range is 0 to 359 and the S and V component ranges are 0 to 255).

120≦Vaveの場合の肌色画素値の範囲:
H成分:10<H<40
S成分:S>60
V成分:V>150
但し、V成分が210以上の画素に関しては、S成分の値に無関係に、H成分が10<H<45の画素を肌色画素とする。この理由は、輝度が極めて高い画素、すなわちハイライトと考えられる画素に対しては、S(彩度)成分を無視してH(色相)成分のみで判断を行なう方が適切だからである。
Skin color pixel value range when 120 ≦ Vave:
H component: 10 <H <40
S component: S> 60
V component: V> 150
However, regarding a pixel having a V component of 210 or more, regardless of the value of the S component, a pixel having an H component of 10 <H <45 is defined as a flesh color pixel. This is because it is more appropriate to ignore the S (saturation) component and make a determination only with the H (hue) component for a pixel with extremely high luminance, that is, a pixel considered to be a highlight.

90≦Vave<120の場合の肌色画素値の範囲:
H成分:0<H<40
S成分:S>60
V成分:V>100
但し、V成分が210以上の画素に関しては、S成分の値に無関係に、H成分が10<H<45の画素を肌色画素とする。
Skin color pixel value range when 90 ≦ Vave <120:
H component: 0 <H <40
S component: S> 60
V component: V> 100
However, regarding a pixel having a V component of 210 or more, regardless of the value of the S component, a pixel having an H component of 10 <H <45 is defined as a flesh color pixel.

Vave<90の場合の肌色画素値の範囲:
H成分:0<H<30 又は350<H<360
S成分:30<S<200
V成分:V>80
但し、V成分が210以上の画素に関しては、S成分の値に無関係に、10<H<35の画素を肌色画素とする。
Skin color pixel value range when Vave <90:
H component: 0 <H <30 or 350 <H <360
S component: 30 <S <200
V component: V> 80
However, for a pixel having a V component of 210 or more, a pixel of 10 <H <35 is defined as a skin color pixel regardless of the value of the S component.

このように、画像の平均輝度Vave(または平均明度)を複数の範囲に区分し、各範囲
に対して肌色画素値の範囲を設定するようにすれば、画像全体が明るいか暗いかに応じて、適切な肌色画素の範囲を設定することができる。この結果、肌色画素の検出をより正確に行うことが可能である。
In this way, if the average luminance Vave (or average brightness) of the image is divided into a plurality of ranges and the range of skin color pixel values is set for each range, depending on whether the entire image is bright or dark, An appropriate skin color pixel range can be set. As a result, skin color pixels can be detected more accurately.

こうして検出された肌色画素の集合が肌色領域として抽出される。この際、ある程度の数(例えば10画素、または、画像全体の画素数の1%以上)以上の肌色画素が接した状態で集合している画像領域のみを肌色領域として抽出してもよい。また、肌色領域の中に、顔の器官(眉、目、鼻、口、耳)などが含まれている場合には、これらの器官を包含する領域を1つの肌色領域として抽出してもよい。なお、顔の器官を「顔の要素」とも呼ぶ。   A set of skin color pixels thus detected is extracted as a skin color region. At this time, only an image area gathered in a state where a certain number (for example, 10 pixels or 1% or more of the total number of pixels) or more skin color pixels are in contact may be extracted as the skin color area. If the skin color area includes facial organs (brows, eyes, nose, mouth, ears) and the like, the area including these organs may be extracted as one skin color area. . The organ of the face is also called “face element”.

図13(A)は、対象画像G1から抽出された肌色領域FAの例を示している。この
例では、顔の器官を含む領域が1つの肌色領域FAとして抽出されている。なお、肌色画素の判断方法としては、これ以外の任意の方法を採用することができる。例えば、S成分やV成分の値に無関係に、H成分が予め定められた範囲内の値を有する場合に肌色画素として検出することが可能である。また、色空間としては、CIELab色空間やYIQ色空間などの色空間を用いることも可能である。
FIG. 13A shows an example of the skin color area FA extracted from the target image G1. In this example, an area including a facial organ is extracted as one skin color area FA. It should be noted that any other method can be employed as the skin color pixel determination method. For example, regardless of the values of the S component and the V component, when the H component has a value within a predetermined range, it can be detected as a skin color pixel. As the color space, a color space such as a CIELab color space or a YIQ color space may be used.

S264では、抽出した各肌色領域の縦横比Rを算出する。縦横比Rは、図13(B)に示すように、肌色領域を包含する矩形の長辺の長さWlongと短辺の長さWshortの比である。S266では、この縦横比Rが所定の範囲(本実施例では1.5以上で3未満)の場合に、この肌色領域を人物の顔領域とみなして、その領域に顔領域(または「人物領域」)であることを示すフラグを付ける。S264,S266の処理は対象画像中のすべての肌色領域について実行される(S268)。   In S264, the aspect ratio R of each extracted skin color area is calculated. As shown in FIG. 13B, the aspect ratio R is a ratio of the long side length Wlong and the short side length Wshort of the rectangle including the skin color region. In S266, when the aspect ratio R is within a predetermined range (1.5 or more and less than 3 in this embodiment), the skin color area is regarded as a person's face area, and the face area (or “person area” is included in that area. ”). The processes of S264 and S266 are executed for all skin color regions in the target image (S268).

なお、本実施例では、顔領域を人物領域として抽出するものとしたが、これ以外の方法で人物領域を抽出するものとしてもよい。例えば、人物を構成する複数の要素(頭部、胴体、手足)のいくつかを含む広い領域を人物領域として抽出することも可能である。
こうして人物領域の抽出が終了すると、S204において、対象画像内に人物領域が存在するか否かを判定する。人物領域が存在しない場合には、S206において対象画像の天地方向が不明と判定され、S600に移行して総合的な天地方向判定処理を待つことになる。この場合に、S206における「天地方向が不明」という判定結果は、人物領域に基づく天地方向判定ができないことを意味しており、他の特徴を用いた天地判定はできる可能性がある。
In the present embodiment, the face area is extracted as a person area, but the person area may be extracted by a method other than this. For example, it is possible to extract a wide area including some of a plurality of elements (head, torso, limbs) constituting a person as a person area.
When the extraction of the person area is thus completed, it is determined in S204 whether or not the person area exists in the target image. If the person area does not exist, it is determined in S206 that the top / bottom direction of the target image is unknown, and the process proceeds to S600 to wait for a comprehensive top / bottom direction determination process. In this case, the determination result “Unknown direction” in S206 means that the vertical direction cannot be determined based on the person area, and there is a possibility that the vertical determination using other features can be performed.

一方、対象画像内に人物領域が存在する場合には、人物領域の天地の向きに応じて画像の天地方向が判定される。具体的には、S208において、人物領域内の顔の器官を検出する。顔器官抽出処理は、例えば、ニューラルネットワークによる処理や、画像内の色変化や輝度変化を利用した処理、画像内の形状を利用した処理などの種々の処理を利用することができる。本実施例では、顔の器官として目と口を検出するものと仮定する。   On the other hand, when a person area exists in the target image, the top / bottom direction of the image is determined according to the top / bottom direction of the person area. Specifically, in S208, a facial organ in the person area is detected. For the facial organ extraction process, various processes such as a process using a neural network, a process using a color change or luminance change in an image, or a process using a shape in an image can be used. In this embodiment, it is assumed that eyes and mouth are detected as facial organs.

S210〜S242においては、顔の器官として目と口のいずれが検出されたかに応じて以下のような処理を実行する。
目と口の両方とも検出できた場合(S210)には、顔領域に対する目、口の位置関係から画像の天地方向を判定する(S212)。例えば、図13(A)のように、両目と口とが検出された場合は、両目の中間位置と口とを結ぶ直線によって天地方向が決定される。すなわち、口から両目の中間位置に向かう方向が天方向である。また、片目と口とが検出された場合には、その目と口とを結ぶ直線によって天地方向が決定される。S214では、目と口の検出結果から判定確率が決定される。例えば、両目と口を全て検出できた場合は、判定確率を100%と決定し、片目と口が検出できた場合は判定確立を75%に設定する。
In S210 to S242, the following processing is executed depending on which of the eyes and mouth is detected as the facial organ.
If both eyes and mouth can be detected (S210), the top-to-bottom direction of the image is determined from the positional relationship of the eyes and mouth with respect to the face region (S212). For example, as shown in FIG. 13A, when both eyes and mouth are detected, the top-and-bottom direction is determined by a straight line connecting the middle position of both eyes and the mouth. That is, the direction from the mouth toward the middle position of both eyes is the celestial direction. When one eye and mouth are detected, the top and bottom direction is determined by a straight line connecting the eyes and mouth. In S214, the determination probability is determined from the detection result of the eyes and mouth. For example, if both eyes and mouth can be detected, the determination probability is determined to be 100%, and if one eye and mouth can be detected, the determination probability is set to 75%.

口が検出できずに目だけ検出できた場合(S220)には、顔領域に対する目の位置から画像の天地方向を判定する(S222)。例えば、顔領域のうちで目に近い端部から反対側の端部に向かうに方向を地方向として決定する。この場合には、目のみが検出できているので、S224において、判定確率を50%に設定する。この判定確率は、目と口の両方が検出された場合(S214)よりも小さな値に設定される。   When only the eyes can be detected without detecting the mouth (S220), the top-to-bottom direction of the image is determined from the position of the eyes with respect to the face region (S222). For example, the direction from the end close to the eyes to the opposite end of the face region is determined as the ground direction. In this case, since only eyes can be detected, the determination probability is set to 50% in S224. This determination probability is set to a smaller value than when both eyes and mouth are detected (S214).

目が検出できずに口だけ検出できた場合(S230)には、顔領域に対する口の位置から画像の天地方向を判定する(S232)。例えば、顔領域のうちで口に近い端部から反対側の端部に向かう方向を天方向として決定する。口は目に比べてより顔の端に近い位置に存在するので、目のみ検出できた場合よりも判定確率を少し高めの判定確率(例えば60%)に設定する。   When only the mouth can be detected without detecting the eyes (S230), the top-to-bottom direction of the image is determined from the position of the mouth with respect to the face region (S232). For example, the direction from the end close to the mouth to the opposite end of the face area is determined as the top direction. Since the mouth is located closer to the edge of the face than the eyes, the determination probability is set to a slightly higher determination probability (for example, 60%) than when only the eyes can be detected.

目と口の両方とも検出できなかった場合(S240)には、天地方向が不明としてS250に移行する。なお、天地方向が不明の場合には、画像の4つの辺の判定確率がすべて0%に設定される。また、S212,S222,S232において天地方向(天方向まは地方向)であると判定されなかった辺については、判定確率が0%に設定される。このような判定確率の設定は、他の特徴を用いた処理でも同じである。   If both eyes and mouth cannot be detected (S240), the top-to-bottom direction is unknown and the process proceeds to S250. When the top / bottom direction is unknown, the determination probabilities for the four sides of the image are all set to 0%. In addition, the determination probability is set to 0% for the sides that are not determined to be the top-to-bottom direction (top or bottom direction) in S212, S222, and S232. Such setting of the determination probability is the same in processing using other features.

なお、S240において天地方向を不明とする代わりに、顔領域の長手方向に沿った直線と交差する2つの辺のうちで、顔領域がより近い辺を天方向と判定してもよい。この場合の判定確率は、目や口を検出できた場合よりも低い値(例えば30%)に設定される。
S250では、対象画像内のすべての人物領域に関する処理が終了したか否かが判断され、終了するとS600に移行する。
Instead of making the top-to-bottom direction unknown in S240, the side closer to the face region among the two sides intersecting the straight line along the longitudinal direction of the face region may be determined as the top direction. In this case, the determination probability is set to a lower value (for example, 30%) than when eyes or a mouth can be detected.
In S250, it is determined whether or not the processing related to all the person areas in the target image has been completed. When the processing is completed, the process proceeds to S600.

なお、複数の人物領域において異なる判定結果が得られた場合には、各人物領域の判定結果を総合して、人物領域に基づく判定結果を求めることができる。例えば、複数の判定結果の中で最も判定確率の高いものを採用することができる。また、同じ天地方向を有するものと判定された人物領域が複数個存在する場合には、その方向の判定確率を高めるように判定確率を修正してもよい。例えば、同じ第1の天地方向を有し、かつ、判定確率が75%である人物領域が2つ存在した場合には、その判定確率を90%に修正してもよい。この時、仮に他の人物領域に基づいて判定された第2の天地方向が75%の確率であれば、第1の天地方向およびその判定確率90%が最終的な判定結果として採用される。   When different determination results are obtained in a plurality of person areas, the determination results based on the person areas can be obtained by combining the determination results of the person areas. For example, the determination result having the highest determination probability among a plurality of determination results can be employed. In addition, when there are a plurality of person regions determined to have the same top-and-bottom direction, the determination probability may be modified to increase the determination probability in that direction. For example, when there are two person regions having the same first vertical direction and a determination probability of 75%, the determination probability may be corrected to 90%. At this time, if the second vertical direction determined based on another person area has a probability of 75%, the first vertical direction and the determination probability of 90% are adopted as the final determination result.

ところで、図13(c)のように、人物領域から判定された天方向Fupと、画像の1辺に並行な方向Gupとの間の角度θがかなり大きな値を示す場合がある。この場合には、例えば、4辺の方向Gup,Gdown,Gright,Gleftのうちで、顔領域の天方向Fupと最も
近いものを画像の天方向として選択することが可能である。但し、画像の下方向Gdownは、天方向の候補から除外するようにしてもよい。この理由は、カメラを上下反転して撮影することが極めてまれだからである。
By the way, as shown in FIG. 13C, the angle θ between the sky direction Fup determined from the person area and the direction Gup parallel to one side of the image may show a considerably large value. In this case, for example, among the four side directions Gup, Gdown, Gright, and Gleft, the one closest to the top direction Fup of the face region can be selected as the top direction of the image. However, the downward direction Gdown of the image may be excluded from the candidates for the top direction. This is because it is extremely rare to shoot with the camera turned upside down.

このように、人物領域に基づく天地方向判定処理では、対象画像を解析して人物領域を抽出し、その人物領域の天地の向きから画像の天地方向を判定するので、自動的に天地方向を判定することができる。また、特に、人物領域内における顔の器官の位置から天地方向を判定するようにすれば、より正確に天地方向を判定することができる。
なお、上述の説明では、顔領域内における顔の器官の位置に応じて天地方向を判定していたが、この代わりに、顔領域とその顔領域に隣接する頭髪部分(頭髪領域)との位置関係から天地方向を判定することも可能である。また、肌色領域(顔領域)とその肌色領域に隣接する胴体部分(胴体領域)との位置関係から天地方向を判定することも可能である。頭髪部分や胴体部分の判定は、例えばこれらの部分の典型的な形状を用いた形状テンプレートマッチングを用いて行うことが可能である。
In this way, in the top / bottom direction determination processing based on the person area, the target image is extracted by analyzing the target image, and the top / bottom direction of the image is determined from the top / bottom direction of the person area. can do. In particular, if the top / bottom direction is determined from the position of the facial organ in the person area, the top / bottom direction can be determined more accurately.
In the above description, the top-and-bottom direction is determined according to the position of the facial organ in the face area. Instead, the position of the face area and the hair portion (hair area) adjacent to the face area is determined. It is also possible to determine the top and bottom direction from the relationship. It is also possible to determine the top-and-bottom direction from the positional relationship between the skin color region (face region) and the body part (body region) adjacent to the skin color region. The hair part and the body part can be determined using, for example, shape template matching using typical shapes of these parts.

空・地上領域に基づく天地方向判定手順:
図14は、空・地上領域に基づく天地判定手順を示すフローチャートである。S302では、対象画像の平均輝度を求め、この平均輝度に応じて昼夜の判定を行なう。具体的には、画像の平均輝度が所定のしきい値(例えば110)以上の場合には、昼に撮影された画像と判定し、しきい値未満の場合には夜に撮影された画像と判定する。なお、昼夜判定は、画像データ14aに付されているヘッダ領域に記録された撮影時間情報から行なっても良い。
Top-to-bottom direction determination procedure based on sky and ground area:
FIG. 14 is a flowchart showing the top / bottom determination procedure based on the sky / ground area. In S302, the average luminance of the target image is obtained, and day / night determination is performed according to the average luminance. Specifically, when the average luminance of the image is equal to or higher than a predetermined threshold value (for example, 110), the image is determined to be taken at daytime. judge. The day / night determination may be performed from the shooting time information recorded in the header region attached to the image data 14a.

図15(A)は昼に撮影された対象画像G2を示しており、明るい空領域を含んでいる。昼の画像と判定された場合には、S306以下の処理が実行される。まず、S306では、画像全体の平均輝度よりも明るい画素にフラグ付けを行なう。そして、S308では、フラグ付けされた画素であって、かつ、連続している画素同士を連結する。以下では、こうして画素同士が連結された領域を「連結領域」と呼ぶ。S310では、連結領域の色を調べ、その連結領域が青、白、グレイのいずれかに属する所定の色を有する場合に、空領域候補(「天空領域候補」とも呼ぶ)として再度フラグ付けを行なう。青、白、グレイに属する画素値の範囲は、例えば以下のように設定することができる。   FIG. 15A shows a target image G2 photographed in the daytime and includes a bright sky region. If it is determined that the image is a daytime image, the processing from S306 is executed. First, in S306, flagging is performed on pixels brighter than the average luminance of the entire image. In step S308, pixels that are flagged and are continuous are connected to each other. Hereinafter, an area where pixels are connected in this manner is referred to as a “connected area”. In S310, the color of the connected area is checked, and if the connected area has a predetermined color belonging to any one of blue, white, and gray, it is flagged again as an empty area candidate (also called “sky area candidate”). . The range of pixel values belonging to blue, white, and gray can be set as follows, for example.

青:200<H<240、Sは全範囲、V>(平均輝度Vaveの1.5倍)
白:Hは全範囲、S<10、V>(平均輝度Vaveの1.5倍)
グレイ:Hは全範囲、S<30、V>(平均輝度aveの1.5倍)
Blue: 200 <H <240, S is full range, V> (1.5 times the average luminance Vave)
White: H is the entire range, S <10, V> (1.5 times the average luminance Vave)
Gray: H is the entire range, S <30, V> (1.5 times the average luminance ave)

ある領域を空領域候補としてフラグ付けするかどうかの判断基準としては、例えば、(i)連結領域中の70%以上の画素が青、白、グレイのいずれかに属する色に分類される場合、あるいは、(ii)連結領域の平均色が青、白、グレイのいずれかに属する色に分類される場合、などのいくつかの基準を採用することができる。図15(B)は、上記のように抽出された空領域SA(空領域候補)を示している。   For example, (i) when 70% or more of pixels in a connected region are classified as a color belonging to any one of blue, white, and gray, as a criterion for determining whether or not to flag a certain region as an empty region candidate, Alternatively, (ii) some criteria such as when the average color of the connected region is classified into a color belonging to any of blue, white, and gray can be adopted. FIG. 15B shows the empty area SA (empty area candidate) extracted as described above.

こうして空領域候補が検出されると、S312において、対象画像の4辺のうちで、空領域候補が一番広く存在する端部(辺)を画像の天方向と判定する。この際、空領域候補が複数の辺に接している場合には、各辺上における空領域候補の長さを計算し、各辺の長さに対する空領域候補の長さの比が最も大きい辺が画像の天方向と判定される。図15(B)では、上辺が対象画像の天方向と判定される。   When the sky region candidate is detected in this way, in S312, the edge (side) where the sky region candidate is the widest among the four sides of the target image is determined as the top direction of the image. In this case, when the sky region candidate is in contact with a plurality of sides, the length of the sky region candidate on each side is calculated, and the side having the largest ratio of the length of the sky region candidate to the length of each side is calculated. Is determined to be the top direction of the image. In FIG. 15B, the upper side is determined to be the top direction of the target image.

S314では、空領域候補が一つの辺のみにかかっている場合に、その判定確率が100%に設定される。また、各辺上における空領域候補の長さで天方向を判定した場合には、判定確率が75%に設定される。このように、昼の画像に関しては、空領域が画像の4辺のうちのいずれに最も多く長く接しているかに応じて画像の天地方向を判定すれば、かなり正確に天地方向を判定することが可能である。   In S314, when the sky region candidate covers only one side, the determination probability is set to 100%. When the sky direction is determined based on the length of the sky region candidate on each side, the determination probability is set to 75%. Thus, for a daytime image, if the sky direction of the image is determined according to which of the four sides of the image is the longest, the sky direction can be determined fairly accurately. Is possible.

一方、S304において、昼の画像と判定されなかった場合には、S320において、夜の画像であるか否かの判定が行われる。具体的には、例えば、画像全体の平均輝度Vaveが90未満の場合には夜と判定することができる。あるいは、画像を9等分し、そのうちの中央のブロックの平均輝度Vaveが90未満の場合に夜として判定を行なうことも可能である。昼の画像とも夜の画像とも判定されなかった場合には、S330において天地方向不明と判定され、S600に移行する。   On the other hand, if it is not determined in S304 that the image is a day image, it is determined in S320 whether the image is a night image. Specifically, for example, when the average luminance Vave of the entire image is less than 90, it can be determined that the night. Alternatively, the image may be divided into nine equal parts, and the determination may be made as night when the average luminance Vave of the central block is less than 90. If neither the daytime image nor the nighttime image is determined, it is determined in S330 that the vertical direction is unknown, and the process proceeds to S600.

図16(A)は、全体的に暗い対象画像G3を示している。この場合輝度が低いので、夜に撮影された画像であると判断される。なお、画像内の白い点は、街灯や、建物の窓、自動車のヘッドライトなどの明るい物体である。
S320で夜の画像と判定された場合には、S322において対象画像を4つのブロックに等分し、各ブロックの平均輝度を求める。図16(B)は、対象画像G3が4つのブロックB1〜B4に区分された状態を示している。S324では、図16(C)に示すように、画像の上方にある2つのブロックB1,B2で構成される上方領域Aupperと、下方にある2つのブロックB3,B4で構成される下方領域Alowerの間の輝度コントラストCT1が算出される。輝度コントラストCT1は、上方領域Aupperの平均輝度Vave(Aupper)と、下方領域Alowerの平均輝度Vave(Alower)の比である。同様に、図16(D)に示すように、現在の画像方向の左方にある2つのブロックB1,B3で構成される左方領域Aleftと、右方にある2つのブロックB2,B4で構成される右方領域Arightの間の輝度コントラストCT2=Vave(Aleft)/Vave(Aright)が算出される。
FIG. 16A shows an overall dark target image G3. In this case, since the luminance is low, it is determined that the image is captured at night. White dots in the image are bright objects such as street lamps, building windows, and automobile headlights.
If it is determined in S320 that the image is a night image, the target image is equally divided into four blocks in S322, and the average luminance of each block is obtained. FIG. 16B shows a state in which the target image G3 is divided into four blocks B1 to B4. In S324, as shown in FIG. 16C, an upper area Aupper composed of two blocks B1 and B2 above the image, and a lower area Alower composed of two blocks B3 and B4 below. A luminance contrast CT1 is calculated. The luminance contrast CT1 is a ratio of the average luminance Vave (Aupper) in the upper area Aupper and the average luminance Vave (Alower) in the lower area Alower. Similarly, as shown in FIG. 16D, a left area Aleft composed of two blocks B1 and B3 on the left side of the current image direction, and two blocks B2 and B4 on the right side. The luminance contrast CT2 = Vave (Aleft) / Vave (Aright) between the right areas Aright is calculated.

コンピュータ10は、S324においてこれらの輝度コントラストCT1,CT2を比較し、S326において、より大きなコントラストを与える分割方向を画像の天地方向と判定する。さらに、その天地方向のうちで、より輝度の高い方を地方向と判定する。図の例では、図16(C)の上下分割のコントラストCT1の方が大きいので、現在の画像の上下方向が天地方向であると判定される。また、画像の上下方向のうちで、下方がより輝度が高いので、現在の下方が地方向であると判定される。なお、本明細書において、「分割方向」とは、分割線に垂直な方向を意味する。   The computer 10 compares the luminance contrasts CT1 and CT2 in S324, and determines in S326 that the division direction giving a larger contrast is the vertical direction of the image. Furthermore, among the top and bottom directions, the higher luminance is determined as the ground direction. In the example in the figure, the contrast CT1 of the vertical division in FIG. 16C is larger, so it is determined that the vertical direction of the current image is the top-and-bottom direction. Moreover, since the brightness is higher in the vertical direction of the image, it is determined that the current lower direction is the ground direction. In the present specification, the “dividing direction” means a direction perpendicular to the dividing line.

S328では、輝度コントラストの値が十分大きい場合(例えば2以上の場合)に、判定確率が100%に設定され、それ以外の場合には判定確率が75%に設定される。このように、空・地上領域に基づく天地方向判定処理では、昼の画像の場合には空領域を抽出し、その空領域の画像内の位置に応じて天地方向を判定するので、自動的に天地方向を判定することができる。また、夜の画像の場合には、画像内の上下方向の輝度コントラストと左右方向の輝度コントラストとを用いて天地方向を判定するので、夜の画像に関しても、正しく天地方向を判定することができる。但し、昼の画像か夜の画像かを判定せずに、画像内の空領域を抽出し、空領域の画像内の位置から天地方向を判定するようにしてもよい。   In S328, the determination probability is set to 100% when the value of the luminance contrast is sufficiently large (for example, 2 or more), and the determination probability is set to 75% in other cases. In this way, in the top / bottom direction determination process based on the sky / ground area, the sky area is extracted in the case of a daytime image, and the top / bottom direction is determined according to the position of the sky area in the image. The top and bottom direction can be determined. In the case of a night image, the vertical direction is determined using the vertical and horizontal luminance contrasts in the image, so that the vertical direction can also be correctly determined for a night image. . However, without determining whether the image is a daytime image or a night image, the sky region in the image may be extracted, and the top-and-bottom direction may be determined from the position of the sky region in the image.

また、空領域(空領域候補)が抽出された場合には、それ以外の領域を地上領域として認識するようにしてもよい。あるいは、空領域が認識できない場合にも、特定の色や形状を有する領域(例えば茶色や緑色の広大な領域)を地上領域として抽出するようにしてもよい。この場合には、地上領域の画像内の位置に応じて天地方向を判定することが可能である。   In addition, when an empty area (empty area candidate) is extracted, other areas may be recognized as the ground area. Alternatively, even when the sky area cannot be recognized, an area having a specific color or shape (for example, a vast area of brown or green) may be extracted as the ground area. In this case, it is possible to determine the top / bottom direction according to the position of the ground region in the image.

直線に基づく天地方向判定手順:
図17および図18は、直線に基づく天地判定手順を示すフローチャートである。S402では、コンピュータ10は対象画像内の直線の検出を行なう。なお、画像内の直線は、例えば、対象画像を空間微分して各画素のエッジ量を求め、各画素のエッジ量で構成される画像(エッジ画像)を生成し、このエッジ画像に対してハフ変換を行うことによって求めることができる。なお、画像の空間微分は、例えばラプラシアンフィルタなどの微分フィルタを用いて行うことが可能である。
Top and bottom direction determination procedure based on a straight line:
17 and 18 are flowcharts showing the top and bottom determination procedure based on a straight line. In S402, the computer 10 detects a straight line in the target image. The straight line in the image is obtained by, for example, spatially differentiating the target image to obtain the edge amount of each pixel, and generating an image (edge image) composed of the edge amount of each pixel. It can be obtained by performing conversion. The spatial differentiation of the image can be performed using a differential filter such as a Laplacian filter.

S404では、直線が検出されたか否かを判断する。ここで、直線とは、所定の長さ(例えば100画素)以上の線分を意味している。直線が検出されなかった場合には、S440において天地方向不明と判定し、S600に移行する。一方、直線が検出された場合には、S406において、その直線が画像の縦方向、あるいは横方向全体にわたる直線であるかどうかの判定を行なう。縦方向または横方向全体にわたる直線が存在しない場合には、図18に示す収束直線判定処理(後述)に移行する。   In S404, it is determined whether a straight line is detected. Here, the straight line means a line segment having a predetermined length (for example, 100 pixels) or more. If a straight line is not detected, it is determined in S440 that the vertical direction is unknown, and the process proceeds to S600. On the other hand, if a straight line is detected, it is determined in S406 whether the straight line is a straight line extending in the vertical direction or the entire horizontal direction of the image. When there is no straight line extending in the vertical direction or the entire horizontal direction, the process proceeds to a convergence straight line determination process (described later) shown in FIG.

一方、画像全体にわたる直線が存在する場合には、コンピュータ10はS410以降の処理を実行する。図19は、画像全体にわたる直線(「貫通直線」とも呼ぶ)を含む画像の例を示している。この対象画像G4は水平線を含んでおり、この水平線が貫通直線TSGとして判定される。
S410では、画像の長手方向と貫通直線の方向が一致するかどうか判定を行なう。この判定は、画像の長手方向と貫通直線の方向のなす角度が所定の値(例えば20度)以下であるか否かによって行うことができる。画像の長手方向と一致する長い直線が存在する場合には、その直線が水平線や地平線などであることが多いと考えられる。そこで、これらの2つの方向が一致した場合には、S412において、現在の画像の上方をそのまま上方(天方向)と判定し、判定確率を75%に設定してS600へ移る。この理由は、横長の画像を撮影する際にカメラを上下反転して撮影することが極めてまれだからである。一方、2つの方向が一致しなかった場合には、S420において、空領域の検出を行なう。この処理は、図14のS310で説明したものと同じである。
On the other hand, when there is a straight line over the entire image, the computer 10 executes the processing from S410 onward. FIG. 19 shows an example of an image including a straight line (also referred to as a “penetrating straight line”) over the entire image. The target image G4 includes a horizontal line, and this horizontal line is determined as the through straight line TSG.
In S410, it is determined whether or not the longitudinal direction of the image matches the direction of the through straight line. This determination can be made based on whether or not the angle formed between the longitudinal direction of the image and the direction of the penetrating straight line is equal to or less than a predetermined value (for example, 20 degrees). If there is a long straight line that coincides with the longitudinal direction of the image, it is often considered that the straight line is a horizontal line or a horizon line. Therefore, if these two directions coincide with each other, in S412, the upper part of the current image is determined as it is (upward), the determination probability is set to 75%, and the process proceeds to S600. This is because it is extremely rare to take a picture by turning the camera upside down when taking a landscape image. On the other hand, if the two directions do not match, an empty area is detected in S420. This process is the same as that described in S310 of FIG.

S420において空領域が検出できた場合には、S422において、空領域が検出された方向を上方(天方向)と判定し、判定確率を75%に設定してS600へ移る。但し、図14のS312,S314と同様に、空領域と画像の辺(端部)との関係から判定確率を設定するようにしても良い。
一方、S420で空領域が検出できなかった場合には、S430において、貫通直線近傍に高輝度領域が存在するかどうかの判定を行なう。ここで、「高輝度領域」とは、例えば、HSV色空間でのV値が所定の値(例えば200)以上である画素が、所定数(例えば20画素)以上集合している領域を意味する。例えば、夕焼けの画像を撮影した場合には、太陽が高輝度領域として認識される。貫通直線近辺に高輝度領域が検出された場合には、S432において、貫通直線よりも高輝度領域に近い方の画像の辺を上方(天方向)として判定し、判定確率を75%に設定してS600へ移る。なお、高輝度領域が2つ以上検出された場合には、物体の鏡面反射によるものである可能性が高いので、高輝度領域無しと判定してもよい。S430において貫通直線近傍に高輝度領域が検出できなかった場合には、S440において天地方向不明と判定し、S600へ移る。
If an empty area can be detected in S420, the direction in which the empty area is detected is determined to be upward (upward) in S422, the determination probability is set to 75%, and the process proceeds to S600. However, as in S312 and S314 of FIG. 14, the determination probability may be set based on the relationship between the sky region and the side (edge) of the image.
On the other hand, if an empty area cannot be detected in S420, it is determined in S430 whether a high-luminance area exists in the vicinity of the through straight line. Here, the “high luminance region” means, for example, a region where a predetermined number (for example, 20 pixels) or more of pixels having a V value in the HSV color space that is equal to or larger than a predetermined value (for example, 200). . For example, when a sunset image is taken, the sun is recognized as a high brightness area. If a high-luminance area is detected in the vicinity of the through-line, in S432, the side of the image closer to the high-luminance area than the through-line is determined as the upper side (top direction), and the determination probability is set to 75% To S600. When two or more high-luminance areas are detected, there is a high possibility that the object is due to specular reflection of the object, and it may be determined that there is no high-luminance area. If a high-luminance area cannot be detected in the vicinity of the through straight line in S430, it is determined in S440 that the top-to-bottom direction is unknown, and the process proceeds to S600.

図18に示す収束直線判定処理では、まずS450において、3本以上の直線が検出されているか否かを判断する。3本以上の直線が検出された場合には、S452において、ほぼ1点に収束する3本以上の直線の組(「収束直線群」または「消失線群」と呼ぶ)を探索する。図20(A)は対象画像G5を示し、図20(B)は、収束点CPに収束する直線群CSGを示している。なお、収束直線群CSGの収束点CPは、ある程度の許容範囲を有していてもよい。   In the convergence straight line determination process shown in FIG. 18, first, in S450, it is determined whether or not three or more straight lines are detected. If three or more straight lines are detected, a set of three or more straight lines that converge to approximately one point (referred to as a “converging straight line group” or “disappearing line group”) is searched in S452. 20A shows the target image G5, and FIG. 20B shows a straight line group CSG that converges at the convergence point CP. The convergence point CP of the convergence straight line group CSG may have a certain allowable range.

S450において3本の直線が検出されなかった場合、あるいは、S452において収束直線群が検出されなかった場合には、天地方向不明と判定して、S600へ移る。一方、S452において、収束直線群が検出された場合には、コンピュータ10は収束直線群の両側に関する輝度コントラストを算出する。具体的には、図20(C)に示すように、収束直線群CSGを挟む2つの領域A1,A2における平均輝度をそれぞれ算出して、それらの平均輝度の比を輝度コントラストとして算出する。そして、輝度がより高い方の領域が存在する画像の辺を上方(天方向)と判定し、その判定確率を60%に設定してS600へ移る。輝度がより高い領域を画像の天方向と判定する理由は、輝度が高い方がより空に近い方向である可能性が高いからである。なお、この場合の設定確率も、図14のS312,S314と同様に、より高輝度の領域と画像の辺(端部)との関係に応じて設定するようにしても良い。   If three straight lines are not detected in S450, or if a convergent straight line group is not detected in S452, it is determined that the vertical direction is unknown, and the process proceeds to S600. On the other hand, when the convergence straight line group is detected in S452, the computer 10 calculates the luminance contrast on both sides of the convergence straight line group. Specifically, as shown in FIG. 20C, the average luminance in each of the two regions A1 and A2 sandwiching the convergence straight line group CSG is calculated, and the ratio of the average luminance is calculated as the luminance contrast. Then, the side of the image in which the higher luminance region exists is determined to be upward (upward direction), the determination probability is set to 60%, and the process proceeds to S600. The reason why the area with higher luminance is determined as the top direction of the image is that the higher luminance is more likely to be closer to the sky. Note that the setting probability in this case may also be set according to the relationship between the higher brightness area and the side (edge) of the image, as in S312 and S314 of FIG.

このように、直線に基づく天地方向判定処理では、貫通直線が存在する場合に、貫通直線の方向や、貫通直線と空領域との位置関係に応じて画像の天地を正しく判定することができる。従って、水平線や地平線などのような貫通直線がある場合に、画像の天地を正しく判定することが可能である。また、収束直線群が存在する場合には、収束直線群の両側の輝度に応じて画像の天地を正しく判定することができる。
なお、画像が貫通直線を含む場合には、上述の判定の代わりに、画像の上下方向と左右方向との2つの方向のうちで、貫通直線となす角度がより大きな方向を天地方向と判定するようにしてもよい。例えば、貫通直線の向きが画像の左右方向に近い場合には、画像の上下方向が天地方向となり、画像の方向が正しく天地を向いていると判定される。一方、貫通直線の向きが画像の上下方向に近い場合には、画像の左右方向が天地方向となる。この場合には、他の画像的な特徴(例えば画像の左右のコントラストなど)を用いて天方向または地方向を判定してもよい。
Thus, in the top / bottom direction determination process based on a straight line, when there is a penetrating straight line, the top / bottom of the image can be correctly determined according to the direction of the penetrating straight line or the positional relationship between the penetrating straight line and the sky region. Therefore, it is possible to correctly determine the top and bottom of the image when there is a through straight line such as a horizontal line or a horizon line. Further, when the convergence straight line group exists, the top and bottom of the image can be correctly determined according to the luminance on both sides of the convergence straight line group.
When the image includes a penetrating straight line, instead of the above-described determination, the direction in which the angle formed by the penetrating straight line is larger among the two directions of the vertical and horizontal directions of the image is determined as the vertical direction. You may do it. For example, when the direction of the penetrating straight line is close to the left-right direction of the image, the vertical direction of the image is the top-and-bottom direction, and it is determined that the image direction is correctly facing the top-and-bottom direction. On the other hand, when the direction of the penetrating straight line is close to the vertical direction of the image, the horizontal direction of the image is the vertical direction. In this case, the celestial direction or the ground direction may be determined using other image characteristics (for example, left and right contrast of the image).

また、画像が収束線群を含む場合には、上述の判定の代わりに、収束線群の方向に基づいて天地を判定してもよい。通常は、図20のように、収束線群の収束点CPが画像の上方向に向いている場合が多い。従って、収束線群の向かう方向に基づいて、画像の上下方向または左右方向を天地方向と判定することが可能である。この場合にも、他の画像的な特徴(例えば画像のコントラストなど)を用いて天方向または地方向を判定してもよい。   When the image includes a convergence line group, the top and bottom may be determined based on the direction of the convergence line group instead of the above determination. Usually, as shown in FIG. 20, the convergence point CP of the convergence line group is often directed upward in the image. Therefore, it is possible to determine the vertical direction or the horizontal direction of the image as the top-and-bottom direction based on the direction in which the convergence line group is directed. Also in this case, the celestial direction or the ground direction may be determined using other image characteristics (for example, image contrast).

棒状オブジェクトに基づく天地方向判定手順:
図21は、棒状オブジェクトに基づく天地判定手順を示すフローチャートである。棒状オブジェクトとは、ビルディングなどのような長手の被写体を意味している。
S502では、コンピュータ10が、対象画像の各画素の色情報を用いて領域分割処理(領域分離処理)を行なう。具体的には、例えば、HSV色空間のH成分を所定の複数の範囲に予め区分しておき、各範囲のH成分を有する画素で構成される領域を抽出することによって、領域分割を行うことが可能である。この場合に、ある領域内の画素数が極めて少ない(例えば10画素以下)の場合には、その領域が周囲のより大きな領域に吸収されるものとしてもよい。
Top-and-bottom direction determination procedure based on a bar-shaped object:
FIG. 21 is a flowchart showing the top / bottom determination procedure based on the bar-shaped object. A bar-like object means a long subject such as a building.
In S502, the computer 10 performs region division processing (region separation processing) using the color information of each pixel of the target image. Specifically, for example, the H component of the HSV color space is divided into a plurality of predetermined ranges in advance, and the region composed of pixels having the H component in each range is extracted to perform region division. Is possible. In this case, when the number of pixels in a certain area is extremely small (for example, 10 pixels or less), the area may be absorbed by a larger surrounding area.

なお、領域分割は、他の方法を用いて行うことも可能である。例えば、対象画像を空間微分することによってエッジ画像を求め、このエッジ画像内の閉領域を検出することによって領域分割を行うことも可能である。
S504では、縦横比が所定の値(例えば4倍)以上の領域に対して、棒状オブジェクトとしてのフラグ付けを行なう。図22(A)は、棒状オブジェクトSOBを含む対象画像G6を示している。縦横比Rは、図22(B)に示すように、棒状オブジェクトSOBを包含する矩形の長辺の長さWlongと短辺の長さWshortの比である。
It should be noted that the area division can also be performed using other methods. For example, it is also possible to obtain an edge image by spatially differentiating the target image, and to perform region division by detecting a closed region in the edge image.
In S504, a flag as a rod-shaped object is attached to an area having an aspect ratio of a predetermined value (for example, four times) or more. FIG. 22A shows a target image G6 including a bar-shaped object SOB. As shown in FIG. 22B, the aspect ratio R is the ratio of the long side length Wlong to the short side length Wshort of the rectangle including the rod-shaped object SOB.

S506では、棒状オブジェクトの一方の端が空領域に重なるかどうかの判定を行なう。空領域の抽出処理は、図14のS310で説明したものと同じである。図22(A)のように、棒状オブジェクトの一端が空領域に重なっている(または接している)場合には、重なっている端部の方向を上方(天方向)と判定し、判定確率を75%に設定する(S508,S510)。そして、次の棒状オブジェクトがあればS512からS506に戻り、S506以降の処理を繰り返す。一方、S506において、棒状オブジェクトの両方の端部がいずれも空領域に重ならない場合、または、空領域が存在しない場合には、天地方向不明と判定してS600へ移る。   In S506, it is determined whether one end of the bar-shaped object overlaps the empty area. The empty area extraction processing is the same as that described in S310 of FIG. As shown in FIG. 22A, when one end of the bar-shaped object overlaps (or is in contact with) the empty area, the direction of the overlapping end is determined to be upward (top direction), and the determination probability is It is set to 75% (S508, S510). If there is a next rod-like object, the process returns from S512 to S506, and the processes after S506 are repeated. On the other hand, if both ends of the rod-shaped object do not overlap with the sky area in S506, or if there is no sky area, it is determined that the top and bottom direction is unknown, and the process proceeds to S600.

図22(A)の対象画像G6の場合には、棒状オブジェクトSOBの左側の端部が空領域と重なっているので、画像の左側が天方向であると判定される。
このように、画像内にビルディングのような棒状オブジェクトがある場合には、その長手方向が天地方向である可能性が高い。従って、上述のように、棒状オブジェクトを用いてかなり正確に天地方向を判定することができる。
In the case of the target image G6 in FIG. 22A, since the left end of the rod-shaped object SOB overlaps the empty area, it is determined that the left side of the image is the sky direction.
Thus, when there is a bar-like object such as a building in the image, there is a high possibility that the longitudinal direction is the vertical direction. Therefore, as described above, it is possible to determine the top-and-bottom direction fairly accurately using the rod-like object.

総合天地判定手順:
図23は、総合天地判定処理の手順を示すフローチャートである。コンピュータ10は、S100において選択された各特徴を用いた天地方向判定の結果を用いて、画像の各端ごと(各辺ごと)に判定確率を加算する(S602,S604)。具体的には、画像の上辺と下辺と左辺と右辺について、各特徴を用いて算出された判定確率を加算する。なお、上述したように、各特徴を用いた判定処理において、天地方向不明の場合には4辺のすべての判定確率が0%に設定されている。また、天方向または地方向と判定されていない辺についても判定確率が0%に設定されている。なお、判定確率の加算は、天方向または地方向のいずれかに関して行われる。この場合に、地方向と判定された辺がある場合には、その対向する辺が天方向と判定されたものと見なされる。本実施例では、天方向に関して判定確率を加算している。
Comprehensive top and bottom judgment procedure
FIG. 23 is a flowchart illustrating the procedure of the comprehensive top / bottom determination process. The computer 10 adds the determination probability for each end (each side) of the image using the result of the top / bottom direction determination using each feature selected in S100 (S602, S604). Specifically, the determination probabilities calculated using the features are added to the upper side, the lower side, the left side, and the right side of the image. Note that, as described above, in the determination process using each feature, when the top-to-bottom direction is unknown, all determination probabilities for the four sides are set to 0%. In addition, the determination probability is set to 0% for the sides that are not determined to be the celestial direction or the ground direction. Note that the addition of the determination probability is performed with respect to either the celestial direction or the ground direction. In this case, when there is a side determined as the ground direction, it is considered that the opposite side is determined as the top direction. In this embodiment, the determination probability is added with respect to the sky direction.

判定確率の加算がすべて終了すると、S606において、判定確率が最も高い端(辺)を上方(天方向)と最終的に判断し、S608でその結果を出力する。
このように、複数の特徴についてそれぞれ天地方向とその判定確率を決定し、画像の各辺毎に判定確率を加算し、加算後の判定確率を用いて最終的な天地方向を決定するので、高い精度で天地方向を判定することが可能である。
なお、総合天地判定処理において、各辺の判定確率を加算する代わりに、各特徴を用いて得られた判定確率の中で最も高い値を示す辺を、画像の天地方向(天方向または地方向)として決定するようにしてもよい。但し、判定確率を加算すれば、より確実に正しい天地方向を決定できる可能性がある。
When all of the determination probabilities have been added, in S606, the end (side) having the highest determination probability is finally determined as upward (upward), and the result is output in S608.
In this way, the top and bottom direction and its determination probability are determined for each of the plurality of features, the determination probability is added for each side of the image, and the final top and bottom direction is determined using the determination probability after the addition. It is possible to determine the top and bottom direction with accuracy.
In the comprehensive top / bottom determination processing, instead of adding the determination probabilities for each side, the side indicating the highest value among the determination probabilities obtained using each feature is determined as the top / bottom direction of the image (the top or bottom direction). ) May be determined. However, if the determination probability is added, there is a possibility that the correct top-and-bottom direction can be determined more reliably.

以上の処理によって、図2のS720における天地方向判定処理が終了する。なお、ヘッダ領域から天地情報を読み取る手法と、画像データ14aの内容を解析する手法とは、いずれか一方のみを実行するとしてもよいし、両手法を併用するとしても良い。併用する場合には、ヘッダ領域から天地情報を読み取る手法を先に実行し、ヘッダ領域から天地情報を読み取れなかった場合に、画像データ14aの内容を解析する手法を実行すればよい。   With the above processing, the top / bottom direction determination processing in S720 of FIG. 2 ends. Note that only one of the method of reading the top and bottom information from the header area and the method of analyzing the contents of the image data 14a may be executed, or both methods may be used in combination. When using together, the method of reading top and bottom information from the header area is executed first, and when the top and bottom information cannot be read from the header area, a method of analyzing the contents of the image data 14a may be executed.

図2に戻って説明を続ける。
S730においては、コンピュータ10は、判定した対象画像の天地方向に基づいて、画像データ14aを回転させる角度や方向を決定する。ここでは、画像データ14aを反時計方向に回転させるものとする。
図6に示すように、対象画像の4辺L1,L2,L3,L4のうち、辺L2が画像の天方向を向いている場合には回転角度を90°と決定する。一方、辺L1が天方向を向いている場合には回転角度を270°と決定する。L3が天方向である場合、すなわち、対象画像のもともとの配列状態における上方向と天方向とが一致する場合には、回転角度は0°となる。
Returning to FIG. 2, the description will be continued.
In S730, the computer 10 determines the angle and direction in which the image data 14a is rotated based on the determined vertical direction of the target image. Here, it is assumed that the image data 14a is rotated counterclockwise.
As shown in FIG. 6, among the four sides L1, L2, L3, and L4 of the target image, the rotation angle is determined to be 90 ° when the side L2 faces the top direction of the image. On the other hand, when the side L1 faces the sky, the rotation angle is determined to be 270 °. When L3 is the celestial direction, that is, when the upward direction and the celestial direction in the original arrangement state of the target image coincide with each other, the rotation angle is 0 °.

S740では、上記決定した回転の方向および角度に従って画像データ14aを回転させる。かかる回転は、回転前の各画素について、その座標値を入力値として回転後の座標値を特定する公知の座標変換式を用いることで実現可能である。
この結果、辺L2が天方向である場合には画像データ14aが90°回転されて辺L2が上方向を向いた状態となる。また、辺L1が天方向である場合には画像データ14aが270°回転されて辺L1が上方向を向いた状態となる。なお、辺L1が天方向である場合に時計回り方向に90°回転させてもよいことは言うまでもない。
In S740, the image data 14a is rotated according to the determined rotation direction and angle. Such rotation can be realized by using a known coordinate conversion formula that specifies the coordinate value after rotation for each pixel before rotation with the coordinate value as an input value.
As a result, when the side L2 is in the top direction, the image data 14a is rotated by 90 °, and the side L2 is directed upward. When the side L1 is the top direction, the image data 14a is rotated by 270 °, and the side L1 is directed upward. Needless to say, when the side L1 is in the celestial direction, the side L1 may be rotated by 90 ° in the clockwise direction.

上記のようにして、対象画像の天方向が上方向となるように画像データ14aの画素配列を変換したら、S750においてコンピュータ10は、画像データ14a上に日付表示データを合成する処理を実行する。日付表示データは、上記ヘッダ領域から読み取った日付情報が示す日付を表示するための画像データであり、同日付情報に基づいて生成する。むろん、日付表示データはその日付表示の天方向が上方向を向くように生成される。本実施例においては、日付表示データは、回転処理後の画像データ14a上の特定位置(例えば、右下位置とする。)に合成される。
日付表示データが合成された後の画像データ14aが表す画像は図7のように、対象画像および日付表示の天地方向が一致した状態となり、かかる合成後の画像データを、以降の色変換処理やH/T処理などの対象とする。その結果、プリンタ20からは、対象画像および日付表示の天地方向が一致した画像が出力される。
When the pixel array of the image data 14a is converted so that the top direction of the target image is upward as described above, in S750, the computer 10 executes a process of synthesizing date display data on the image data 14a. The date display data is image data for displaying the date indicated by the date information read from the header area, and is generated based on the date information. Of course, the date display data is generated so that the top of the date display is upward. In this embodiment, the date display data is synthesized at a specific position (for example, the lower right position) on the image data 14a after the rotation process.
As shown in FIG. 7, the image represented by the image data 14a after the date display data is combined is in a state in which the target image and the vertical direction of the date display coincide with each other. The target is H / T processing. As a result, the printer 20 outputs an image in which the target image and the vertical direction of the date display match.

図3は、コンピュータ10が実行する画像合成処理であって、図2とは異なる例を示している。図3においては、S800〜820,850の処理は図2のS700〜720,750の処理と同様である一方、画像データ14aではなく日付表示データの側を回転させる点で図2と異なる。
S830においては、コンピュータ10は、S820で判定した対象画像の天地方向に基づいて、日付表示データを回転させる角度や方向を決定する。ここで、日付表示データは反時計方向に回転させるものとする。
FIG. 3 shows an image composition process executed by the computer 10 and shows an example different from FIG. In FIG. 3, the processes of S800 to 820 and 850 are the same as the processes of S700 to 720 and 750 of FIG. 2, but differ from FIG. 2 in that the date display data side is rotated instead of the image data 14a.
In S830, the computer 10 determines the angle and direction for rotating the date display data based on the top and bottom direction of the target image determined in S820. Here, the date display data is rotated counterclockwise.

図8に示すように、対象画像の4辺L1,L2,L3,L4のうち、辺L1が画像の天方向を向いている場合には日付表示データの回転角度を90°と決定する。一方、辺L2が天方向を向いている場合には回転角度を270°と決定する。L3が天方向である場合には、回転角度は0°となる。なお図8では、日付表示の天方向をl1,地方向をl2と表している。S840では、上記決定した回転の方向および角度に従って日付表示データを回転させる。つまり、辺L1が天方向である場合には日付表示データが90°回転され、辺L2が天方向である場合には日付表示データが270°回転される。
このように回転した日付表示データを画像データ14a上の特定位置に合成すると、合成後の画像データ14aが表す画像は図9に示すように、対象画像および日付表示の天地方向が一致した状態となる。その結果、プリンタ20からは、対象画像および日付表示の天地方向が一致した画像が出力される。
As shown in FIG. 8, among the four sides L1, L2, L3, and L4 of the target image, when the side L1 is facing the top direction of the image, the rotation angle of the date display data is determined to be 90 °. On the other hand, when the side L2 faces the celestial direction, the rotation angle is determined to be 270 °. When L3 is the celestial direction, the rotation angle is 0 °. In FIG. 8, the top direction of date display is represented as l1, and the ground direction is represented as l2. In S840, the date display data is rotated according to the determined rotation direction and angle. That is, the date display data is rotated by 90 ° when the side L1 is in the top direction, and the date display data is rotated by 270 ° when the side L2 is in the top direction.
When the date display data rotated in this way is synthesized at a specific position on the image data 14a, the image represented by the synthesized image data 14a is in a state in which the target image and the date display have the same vertical direction as shown in FIG. Become. As a result, the printer 20 outputs an image in which the target image and the vertical direction of the date display match.

このように、本実施例によれば、対象画像を表現する画像データ14aの天地方向を判定するとともに、保存されている状態の画像データ14aの上下方向と天地方向とが一致(上方向と天方向とが一致、あるいは下方向と地方向とが一致)していない場合には、画像データ14aと日付表示データの合成処理前に、画像データ14aと日付表示データとの一方を回転させることで対象画像および日付表示の天地方向を一致させる。その結果、ユーザに余分な入力操作をさせることなく、対象画像および日付表示の天地方向が一致して好ましい態様にて日付表示のなされた画像を確実に出力することができる。   As described above, according to the present embodiment, the vertical direction of the image data 14a representing the target image is determined, and the vertical direction and the vertical direction of the stored image data 14a match (upward and vertical). If the direction does not match, or the downward direction and the ground direction do not match), before image data 14a and date display data are combined, one of image data 14a and date display data is rotated. Match the top and bottom direction of the target image and date display. As a result, without causing the user to perform an extra input operation, it is possible to reliably output an image on which the date is displayed in a preferable manner with the target image and the vertical direction of the date display matching.

(2)第二の実施例
対象画像に日付表示などの他の画像を合成する際に、各対象画像ごとに、かかる他の画像を合成することがふさわしくない領域というものが存在する。そこで、本実施例においては、以下のような画像合成処理を行うこととした。
図24は、コンピュータ10が実行する画像合成処理の内容をフローチャートにより示している。当該処理は、主に上記PRTDRVの画像合成モジュールによって実行される。
(2) Second Example When other images such as date display are combined with the target image, there is a region that is not suitable for combining the other images for each target image. Therefore, in this embodiment, the following image composition processing is performed.
FIG. 24 is a flowchart showing the contents of the image composition process executed by the computer 10. This processing is mainly executed by the PRTDRV image composition module.

S900,920の処理は、上記第一の実施例におけるS700,710またはS800,810の処理と同様である。すなわち、コンピュータ10は、HD14から対象画像を表現した画像データ14aを読み出すとともに、そのヘッダ領域から日付情報を獲得する。
次に、S940において、コンピュータ10は対象画像の各領域毎に画像評価を実行し、評価結果に基づいて各領域に評価値αを設定する。ここで評価値αとは、日付表示データを合成するための適正を数値で表したものであり、本実施例においてはその値が大きいほど、合成に適した領域であることを示す。
The processing of S900 and 920 is the same as the processing of S700 and 710 or S800 and 810 in the first embodiment. That is, the computer 10 reads the image data 14a representing the target image from the HD 14, and obtains date information from the header area.
Next, in S940, the computer 10 performs image evaluation for each area of the target image, and sets an evaluation value α for each area based on the evaluation result. Here, the evaluation value α is a numerical value representing the appropriateness for synthesizing date display data. In the present embodiment, the larger the value, the more suitable the area for synthesis.

本実施例においては、画像評価の具体的手法として、人物の有無に基づく評価と、ピントの合致度合いに基づく評価と、輝度差の大きさに基づく評価とについて説明を行う。
図28は、人物の有無に基づく画像評価の内容をフローチャートにより示している。まず、S941においてコンピュータ10は、画像データ14aから一つの画素領域を選択する。上記のようにして選択される領域は、横縦m×n個の画素で表された、日付表示を行うのに適したサイズとなっており、図25〜27においては斜線を施した矩形によって一つの領域の大きさを示している。
In this embodiment, as specific image evaluation methods, an evaluation based on the presence or absence of a person, an evaluation based on a degree of focus match, and an evaluation based on the magnitude of a luminance difference will be described.
FIG. 28 is a flowchart showing the contents of image evaluation based on the presence or absence of a person. First, in S941, the computer 10 selects one pixel area from the image data 14a. The area selected as described above has a size suitable for date display, represented by m × n pixels in the horizontal and vertical directions. In FIGS. The size of one area is shown.

ここで、領域の選択の手法としては主に2通り考えられ、いずれを採用しても良い。1つは、図25に示すように、対象画像中の所定箇所(例えば、画像の上下各辺に沿った端部領域における左右両端および略中央の計6箇所)に予め選択対象となる領域を設けておき、かかる各領域を順次選択する手法が考えられる。もう一つは、図26,27に示すように、対象画像中の所定領域内(例えば、画像の上下各辺に沿った端部領域)にて、上記領域のサイズを単位として一画素ずつある方向に領域をずらしながら順次選択していく手法が考えられる。   Here, there are mainly two methods for selecting a region, and either method may be adopted. First, as shown in FIG. 25, regions to be selected in advance are set at predetermined locations in the target image (for example, a total of six locations at both the left and right ends and approximately the center of the end region along the upper and lower sides of the image). There may be a method in which each region is selected in advance. The other is, as shown in FIGS. 26 and 27, within a predetermined area in the target image (for example, end areas along the upper and lower sides of the image), one pixel at a time with the size of the area as a unit. A method of sequentially selecting areas while shifting the area in the direction can be considered.

S942においては、コンピュータ10は、選択した一の領域(選択領域)に人物が存在するか否か判断する。人物の検出は、図11のS202における人物領域抽出処理と同様の処理によって実現可能である。つまり、選択領域内から上記人物の顔領域が抽出された場合に“Yes”と判断し、S943へ進む。一方、人物の顔領域が抽出されない場合にはS946において、評価値α3をその選択領域に対して設定する。
S943においては、選択領域に存在する人物が複数であるか否か判断する。人物の数は、抽出された顔領域の数によって判断する。選択領域内から人物の顔領域が複数抽出されれば“Yes”と判断するとともに、S944において評価値α1を設定する。一方、選択領域内からは一人分の顔領域しか抽出されない場合は、S945において、評価値α2を設定する。
In S942, the computer 10 determines whether or not a person exists in the selected one area (selected area). The person detection can be realized by a process similar to the person area extraction process in S202 of FIG. That is, if the face area of the person is extracted from the selected area, “Yes” is determined, and the process proceeds to S943. On the other hand, if the face area of the person is not extracted, the evaluation value α3 is set for the selected area in S946.
In S943, it is determined whether there are a plurality of persons in the selected area. The number of persons is determined by the number of extracted face areas. If a plurality of human face areas are extracted from the selected area, “Yes” is determined, and an evaluation value α1 is set in S944. On the other hand, if only one face area is extracted from the selected area, the evaluation value α2 is set in S945.

なお、選択領域のサイズは対象画像全体においてはごく小さな範囲であるため、人物の顔領域の全体が選択領域に含まれるという状況はまれである。そこで、S942,943の判断においては、顔領域の抽出処理自体は選択領域を含む大きな画素領域を対象に行い、当該大きな画素領域から顔領域が抽出され、かつ顔領域の一部が選択領域に含まれていれば、その選択領域に人物が存在すると判断してもよい。   Since the size of the selection area is a very small range in the entire target image, the situation where the entire face area of a person is included in the selection area is rare. Therefore, in the determinations in S942 and 943, the face area extraction process itself is performed on a large pixel area including the selected area, the face area is extracted from the large pixel area, and a part of the face area is selected as the selected area. If it is included, it may be determined that a person exists in the selected area.

ここで、上記のように設定された各評価値α1〜α3は、α3>α2>α1の関係をもつ数値である。上述したように評価値は、その値が大きいほど日付表示の合成に適した領域であることを示す指標値であるため、人物が含まれる選択領域に対しては日付表示の合成に不適切であるとして小さな評価値が与えられ、さらに複数の人物が含まれる場合はより小さな値となる。人物が複数存在する場合に設定する評価値については、その人数が多いほどより評価値を小さい値とする。
S947においては、コンピュータ10は、全ての領域を対象として評価値を設定したか否か判断し、全領域についての処理が終了していない場合はS941以下の処理を繰り返す。一方、全領域についての処理が終了している場合は、画像評価処理を終了する。
Here, the evaluation values α1 to α3 set as described above are numerical values having a relationship of α3>α2> α1. As described above, the evaluation value is an index value indicating that the larger the value is, the more suitable the area for combining the date display. A small evaluation value is given as being, and a smaller value is obtained when a plurality of persons are included. As for the evaluation value set when there are a plurality of persons, the evaluation value is set to a smaller value as the number of persons increases.
In S947, the computer 10 determines whether or not evaluation values have been set for all areas. If the processes for all areas have not been completed, the processing from S941 is repeated. On the other hand, when the process for all the areas has been completed, the image evaluation process is terminated.

次に、ピントの合致度合いに基づく画像評価について説明する。つまり、ピントが合っている領域は、対象画像の中でも重要な部分であると考えられるため、ピントの合致度合いによって評価値を異ならせる。
図29は、ピントの合致度合いに基づく画像評価の内容をフローチャートにより示している。S948においては、図28のS941と同様に一つの領域を選択する。S949においては、コンピュータ10は、選択領域内に含まれるエッジ画素の数を集計する。本実施例においては、ある選択領域に対してどれほどピントが合っているか否かを、その選択領域に含まれるエッジ画素数によって判断する。
Next, image evaluation based on the degree of focus match will be described. That is, since the in-focus area is considered to be an important part in the target image, the evaluation value varies depending on the degree of focus matching.
FIG. 29 is a flowchart showing the contents of image evaluation based on the degree of focus match. In S948, one area is selected as in S941 of FIG. In S949, the computer 10 totals the number of edge pixels included in the selected area. In this embodiment, how much a certain selected area is in focus is determined based on the number of edge pixels included in the selected area.

ある画素がエッジ画素であるか否かは様々な公知の手法により判断できるが、ここでは、一つの注目画素の濃度(例えば、輝度)と周囲の画素の濃度との差分が所定の基準値を超える場合に当該注目画素をエッジ画素と判断する。
S950においては、集計したエッジ画素数が所定のしきい値Th1より多いか否か判断する。しきい値Th1は、選択領域を構成する全画素数(m×n個)のうちの数パーセントに対応する値である。集計したエッジ画素数がしきい値Th1を超えない場合は、S954において、その選択領域に対して評価値α6を設定する。一方、しきい値Th1を超える場合には、S951において、集計したエッジ画素数が所定のしきい値Th2より少ないか否か判断する。しきい値Th2はしきい値Th1より大きな値であって選択領域を構成する全画素数のうちの数パーセントに対応する値である。
Whether or not a pixel is an edge pixel can be determined by various known methods. Here, the difference between the density (for example, luminance) of one pixel of interest and the density of surrounding pixels is a predetermined reference value. If it exceeds, the target pixel is determined to be an edge pixel.
In S950, it is determined whether or not the total number of edge pixels is greater than a predetermined threshold value Th1. The threshold value Th1 is a value corresponding to several percent of the total number of pixels (m × n) constituting the selected region. If the total number of edge pixels does not exceed the threshold value Th1, the evaluation value α6 is set for the selected area in S954. On the other hand, if the threshold Th1 is exceeded, it is determined in S951 whether or not the total number of edge pixels is less than the predetermined threshold Th2. The threshold value Th2 is a value larger than the threshold value Th1, and is a value corresponding to several percent of the total number of pixels constituting the selected region.

集計したエッジ画素数がしきい値Th2を超えない場合は、S952において評価値α4を設定し、しきい値Th2を超える場合はS953において評価値α5を設定する。
ここで、各評価値α4〜α6は、α6>α4、α5>α4の関係をもつ。すなわち、エッジ画素数がしきい値Th1〜Th2の範囲内である場合に評価値は最も小さくなり、エッジ画素数がしきい値Th1〜Th2の範囲外である場合には大きな評価値を与える。つまり、本実施例においては、選択領域内におけるエッジ画素比率が大きい場合には基本的にピントの合致度合いが高く日付表示の合成には適さないと判断するが、エッジ画素比率がある値を超えてより高い場合には、例外的に、日付表示の合成にある程度適していると判断する、という思想のもと評価値を設定する。
If the total number of edge pixels does not exceed the threshold Th2, the evaluation value α4 is set in S952, and if it exceeds the threshold Th2, the evaluation value α5 is set in S953.
Here, the evaluation values α4 to α6 have a relationship of α6> α4 and α5> α4. That is, the evaluation value is the smallest when the number of edge pixels is within the range of threshold values Th1 to Th2, and a large evaluation value is given when the number of edge pixels is outside the range of threshold values Th1 to Th2. In other words, in this embodiment, when the edge pixel ratio in the selected area is large, it is basically determined that the degree of focusing is high and is not suitable for date display composition, but the edge pixel ratio exceeds a certain value. If the value is higher, the evaluation value is exceptionally set based on the idea that it is determined to be suitable to some extent for synthesizing the date display.

この結果、衣類の模様や芝生が背景として撮影されている領域など、かなり画像の濃淡変化が活発であるが、あえて日付表示の合成位置から除外する必要性の低い領域に対して低い評価値を与えてしまうことが防がれる。ただし、S951の判断を行うか否かは任意であり、S950の分岐にて“Yes”である場合に即座に上記α6より小さな評価値を与えるとしてもよい。
S955においては、コンピュータ10は、全ての領域を対象として評価値を設定したか否か判断し、全領域についての処理が終了していない場合はS948以下の処理を繰り返す。一方、全領域についての処理が終了している場合は、画像評価処理を終了する。
As a result, there are considerable changes in the shading of the image, such as areas where clothing patterns and lawn are photographed as backgrounds, but low evaluation values are given to areas that are unlikely to be excluded from the date display composition position. It is prevented from giving. However, whether or not to make the determination in S951 is arbitrary, and if “Yes” in the branch in S950, an evaluation value smaller than α6 may be given immediately.
In S955, the computer 10 determines whether or not evaluation values have been set for all regions, and if the processing for all regions has not been completed, the processing from S948 is repeated. On the other hand, when the process for all the areas has been completed, the image evaluation process is terminated.

次に、輝度差の大きさに基づく画像評価について説明する。つまり、領域内における輝度差が大きい場合には、その領域に何らかのオブジェクトが存在すると予測できるため、かかる輝度差によって評価値を異ならせる。
図30は、輝度差の大きさに基づく画像評価の内容をフローチャートにより示している。S956においては、図28のS941と同様に一つの領域を選択する。S957においては、コンピュータ10は、選択領域内における輝度の分散を算出する。つまり、選択領域内の各画素毎にRGB階調を取得し、同RGB階調から公知の変換式により各画素の輝度を算出する。そして、これら輝度についての分散を算出する。
Next, image evaluation based on the magnitude of the luminance difference will be described. That is, when the luminance difference in the area is large, it can be predicted that some object exists in the area, and therefore the evaluation value is varied depending on the luminance difference.
FIG. 30 is a flowchart showing the contents of image evaluation based on the magnitude of the luminance difference. In S956, one area is selected as in S941 of FIG. In S957, the computer 10 calculates the variance of luminance in the selected area. That is, the RGB gradation is acquired for each pixel in the selected region, and the luminance of each pixel is calculated from the RGB gradation by a known conversion formula. And the dispersion | distribution about these brightness | luminances is calculated.

S958においては、輝度差を認識する手法の一つとして、上記算出した分散と所定のしきい値Th3とを比較する。このしきい値Th3は輝度が取りうる範囲の数パーセントに対応する値である。そして、分散がしきい値Th3を超えている場合には、選択領域に対して評価値α7を設定し、一方、分散がしきい値Th3を超えない場合には評価値α8を設定する。評価値α7,α8は、α8>α7なる関係をもつ。
つまり、輝度の分散が大きければ選択領域における輝度のばらつきが大きいと言えるため、選択領域の画像が一様で無く、なんらかのオブジェクトが含まれる可能性が高いといえる。一方、輝度の分散が小されば選択領域は冗長な画像である可能性が高いといえる。従って、上記のように分散がしきい値Th3を超える場合には、日付表示の合成には不適切であるとして低い評価値を与え、逆にしきい値Th3を超えない場合には、高い評価値を与える。
S961においては、コンピュータ10は、全ての領域を対象として評価値を設定したか否か判断し、全領域についての処理が終了していない場合はS956以下の処理を繰り返す。一方、全領域についての処理が終了している場合は、画像評価処理を終了する。
In S958, as one method for recognizing the luminance difference, the calculated variance is compared with a predetermined threshold value Th3. This threshold value Th3 is a value corresponding to several percent of the range that the luminance can take. When the variance exceeds the threshold value Th3, the evaluation value α7 is set for the selected region, while when the variance does not exceed the threshold value Th3, the evaluation value α8 is set. The evaluation values α7 and α8 have a relationship of α8> α7.
In other words, if the luminance variance is large, it can be said that the luminance variation in the selected region is large, so that the image of the selected region is not uniform and it is highly likely that some object is included. On the other hand, if the variance of luminance is small, it can be said that there is a high possibility that the selected area is a redundant image. Therefore, when the variance exceeds the threshold value Th3 as described above, a low evaluation value is given as inappropriate for the composition of date display, and conversely, when the variance does not exceed the threshold value Th3, a high evaluation value is given. give.
In S961, the computer 10 determines whether or not evaluation values have been set for all areas. If the processes for all the areas have not been completed, the processes of S956 and after are repeated. On the other hand, when the process for all the areas has been completed, the image evaluation process is terminated.

コンピュータ10は、上述した人物の有無に基づく評価と、ピントの合致度合いに基づく評価と、輝度差の大きさに基づく評価とのうち、いずれか一つの画像評価処理を実行するとしてもよいし、複数の処理を実行するとしてもよい。
このようにして各選択領域毎の評価値αを設定したら、S970において、コンピュータ10は、各評価値αに基づいて日付表示を合成する領域を一つ選択する。具体的には、コンピュータ10は、最も高い評価値αが設定されている領域を上記合成する領域として決定する。なお、複数の画像評価処理を実行した場合には、各画像評価処理の度に設定された評価値の総和を各選択領域毎に算出し、その総和が最も高い領域を上記合成する領域として決定すればよい。
The computer 10 may execute any one of the above-described evaluation based on the presence / absence of the person, evaluation based on the degree of matching of the focus, and evaluation based on the magnitude of the luminance difference, A plurality of processes may be executed.
When the evaluation value α for each selected area is set in this way, in S970, the computer 10 selects one area to synthesize a date display based on each evaluation value α. Specifically, the computer 10 determines the area where the highest evaluation value α is set as the area to be synthesized. When a plurality of image evaluation processes are executed, the sum of evaluation values set for each image evaluation process is calculated for each selected area, and the area having the highest sum is determined as the area to be combined. do it.

S980においては、コンピュータ10はS970において決定された領域に、日付表示データを合成する処理を行う。日付表示データは、上記ヘッダ領域から読み取った日付情報が示す日付を表示するための画像データであり、同日付情報に基づいて生成する。
日付表示データが合成された画像データ14aは、以降、色変換処理やH/T処理などの対象となる。その結果、プリンタ20からは、対象画像上の領域であって、日付表示を合成するのに最も適した位置に日付表示が合成された画像が印刷される。
なお、日付表示データの色成分は、合成位置となる領域の色成分に応じて決定してもよい。つまり、印刷結果において表示された日付表示が背景の色に埋もれて見難くなることを防ぐため、S970において決定した領域の色成分(例えば、色相の平均値)を判定し、日付表示データの色成分を、この判定した色成分とは異なる色成分とする。その結果、日付表示が確実に視認できる状態にて表示された印刷結果を取得できる。
In S980, the computer 10 performs processing for synthesizing date display data in the area determined in S970. The date display data is image data for displaying the date indicated by the date information read from the header area, and is generated based on the date information.
The image data 14a combined with the date display data is subsequently subjected to color conversion processing, H / T processing, and the like. As a result, the printer 20 prints an image in which the date display is combined in an area on the target image that is most suitable for combining the date display.
Note that the color component of the date display data may be determined according to the color component of the region to be the combination position. That is, in order to prevent the date display displayed in the print result from being buried in the background color and difficult to see, the color component (for example, the average value of the hue) determined in S970 is determined, and the color of the date display data The component is a color component different from the determined color component. As a result, it is possible to acquire a print result displayed in a state in which the date display can be visually recognized with certainty.

上記においては、全ての選択領域について画像評価を行うとともに、最も評価値αの高い領域に日付表示を合成するとしたが、必ずしも全ての選択領域について画像評価を行う必要はない。
つまり、コンピュータ10は、日付表示の合成を許容できる評価値αのレベル(以下、基準評価値αs)を予め備えておき、かかる基準評価値αsを上回る評価値が得られた時点で、残りの領域について画像評価をすることなく、当該上回る評価値を得た領域を日付表示を合成する領域として決定してもよい。
In the above description, image evaluation is performed for all selected areas and date display is combined with an area having the highest evaluation value α. However, it is not always necessary to perform image evaluation for all selected areas.
That is, the computer 10 is prepared in advance with a level of evaluation value α (hereinafter referred to as a reference evaluation value αs) that can allow the composition of date display, and when an evaluation value that exceeds the reference evaluation value αs is obtained, the remaining value is obtained. You may determine the area | region which obtained the said evaluation value exceeding the area | region as an area | region which synthesize | combines a date display, without performing image evaluation about an area | region.

この場合、コンピュータ10は、一つの選択領域についての評価値を設定する度に、その評価値を基準評価値αsと比較する。また、複数の画像評価処理を実行する場合には、一つの選択領域について、複数の画像評価処理を実行してそれぞれ設定した各評価値の総和を算出する度に、その総和を所定の基準値(例えば、基準評価値αsに実行する画像評価処理の数を乗算した値)と比較する。その結果、全ての選択領域を対象として画像評価を行う場合よりも、画像合成処理に要する時間と計算負担とを低減することができる。
このように、全ての領域については必ずしも画像評価を行わないという前提に立てば、画像評価の対象とする選択領域の選択順序も工夫すべきである。
In this case, each time the computer 10 sets an evaluation value for one selected region, the computer 10 compares the evaluation value with the reference evaluation value αs. When a plurality of image evaluation processes are executed, each time a plurality of image evaluation processes are executed and a total sum of evaluation values set for each selected area is calculated, the sum is calculated as a predetermined reference value. (For example, a value obtained by multiplying the reference evaluation value αs by the number of image evaluation processes to be executed). As a result, it is possible to reduce the time required for image composition processing and the calculation burden, compared to the case where image evaluation is performed for all selected regions.
Thus, if it is assumed that image evaluation is not necessarily performed for all regions, the selection order of selection regions to be subjected to image evaluation should be devised.

つまり、図25に示すように、対象画像の上下各辺に沿った端部領域における左右両端および略中央の計6箇所を選択領域としうる場合には、その中でも日付表示を合成する位置としてより好ましい順序(例えば、右下、左下、右上、左上、中央下、中央上の順)でて選択していく。
また、対象画像の上下各辺に沿った端部領域にて、一画素ずつ所定サイズの領域をずらしながら選択領域を把握して画像評価を行う場合には、図26に示すように、下辺に沿った右端の領域からスタートして左下の領域まで移動し、その後、上辺に沿った右端の領域から左上の領域まで移動するという順序にて、選択領域を切り替えてもよい。さらには、図27に示すように、下辺に沿った領域において、右端の領域をスタートにして、左右交互に一画素ずつ中央側に寄るように順次選択領域を切り替え、その後、上辺に沿った領域において、右端の領域をスタートにして、左右交互に一画素ずつ中央側に寄るように順次選択領域を切り替えるとしてもよい。
That is, as shown in FIG. 25, when a total of six places, that is, the left and right ends and substantially the center of the end area along the upper and lower sides of the target image can be selected areas, the date display is combined as a position among them. The selection is made in a preferred order (for example, lower right, lower left, upper right, upper left, lower center, upper center).
In addition, when performing image evaluation by grasping a selection area while shifting an area of a predetermined size by one pixel at an end area along the upper and lower sides of the target image, as shown in FIG. The selection area may be switched in the order of starting from the right end area along the area and moving to the lower left area and then moving from the right end area along the upper side to the upper left area. Further, as shown in FIG. 27, in the region along the lower side, the right end region is started and the selection region is sequentially switched so as to approach the center side one pixel at a time on the left and right sides, and then the region along the upper side. In this case, the selection area may be sequentially switched so that the right end area starts and the left and right areas are alternately shifted to the center side one pixel at a time.

このように、本実施例によれば、対象画像に日付表示を合成する際に、各領域毎に画像評価を行い、その評価結果に基づいて日付表示を合成するために最もふさわしい領域を特定し、同特定した領域において日付表示データを合成する。その結果、対象画像上の人物が写っている箇所や、ピントの合っている箇所や、所定のオブジェクトが写っている箇所などの画像の重要部分を日付表示が覆ってしまうことを自動的に防ぐことができ、日付表示を行う場合でも画像の趣向を維持できる。   As described above, according to this embodiment, when a date display is combined with a target image, image evaluation is performed for each region, and the most suitable region for specifying a date display is specified based on the evaluation result. The date display data is synthesized in the specified area. As a result, the date display is automatically prevented from covering important parts of the image, such as where the person on the target image is shown, where the subject is in focus, or where a given object is shown. It is possible to maintain the taste of the image even when displaying the date.

さらに、日付表示を合成する位置としてより好適な領域から優先的に画像評価を行い、日付表示を合成する領域としてある程度満足できるレベルの評価値が得られたら、その領域に日付表示データを合成することにより、短い時間と少ない計算負担にて、対象画像の重要部分に影響を与えない適切な位置に日付表示がなされた画像を取得することができる。   Further, image evaluation is preferentially performed from a region more suitable as a position for combining date display, and when an evaluation value having a level that is satisfactory to some extent as a region for combining date display is obtained, date display data is combined in that region. As a result, it is possible to acquire an image with the date displayed at an appropriate position that does not affect the important part of the target image in a short time and with a small calculation burden.

(4)第三の実施例
上述した第一および第二の実施例を融合することも可能である。
つまり、対象画像と日付表示との天地方向を一致させる回転処理を実行した上で、日付表示を合成するために最適な領域を決定するとしてもよい。この場合、図2のS700〜S740または、図3のS800〜S840の処理を行った上で、図24のS940〜S980の処理を行う。
(4) Third Embodiment It is possible to fuse the first and second embodiments described above.
That is, it is possible to determine an optimum region for synthesizing the date display after executing a rotation process for matching the top and bottom directions of the target image and the date display. In this case, after the processes of S700 to S740 of FIG. 2 or S800 to S840 of FIG. 3 are performed, the processes of S940 to S980 of FIG. 24 are performed.

S740(S840)までの処理によって、対象画像および日付表示の天地方向が一致するように画像データ14aおよび日付表示データの配置方向が決定されるため、その後、対象画像に対する選択領域の角度を維持しながらその場所を順次切り換えて選択領域毎に画像評価を行い、それぞれの画像評価によって求めた評価値αに基づいて日付表示を合成するための一つの領域を決定する。   By the processing up to S740 (S840), the arrangement direction of the image data 14a and the date display data is determined so that the top direction of the target image and the date display coincide with each other. Thereafter, the angle of the selected area with respect to the target image is maintained. However, the location is sequentially switched and image evaluation is performed for each selected region, and one region for synthesizing the date display is determined based on the evaluation value α obtained by each image evaluation.

本実施例によれば、対象画像と天地方向が一致した状態で、かつ対象画像の重要部分に影響を及ぼさない適切な箇所に日付表示が施される。すなわち、対象画像に対する位置および方向のいずれもが最適な状態となった日付表示を含む印刷画像を取得することができる。   According to the present embodiment, the date is displayed at an appropriate location where the target image and the top-and-bottom direction coincide with each other and which does not affect the important part of the target image. That is, it is possible to acquire a print image including a date display in which both the position and the direction with respect to the target image are in an optimal state.

本発明にかかる画像処理装置の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an image processing apparatus according to the present invention. 第一の実施例にかかる画像合成処理の内容を示すフローチャート。5 is a flowchart showing the contents of image composition processing according to the first embodiment. 第一の実施例にかかる画像合成処理の他の内容を示すフローチャート。7 is a flowchart showing another content of the image composition processing according to the first embodiment. 横長に撮影された対象画像を示す図。The figure which shows the object image image | photographed horizontally. 縦長に撮影された対象画像を示す図。The figure which shows the target image image | photographed vertically long. 画像データを回転させる様子を示した説明図。Explanatory drawing which showed a mode that image data was rotated. 回転・合成後の画像を示した図。The figure which showed the image after rotation and a synthesis | combination. 日付表示データを回転させる様子を示した説明図。Explanatory drawing which showed a mode that date display data was rotated. 回転・合成後の画像を示した図。The figure which showed the image after rotation and a synthesis | combination. 天地方向判定処理の内容を示したフローチャート。The flowchart which showed the content of the top-and-bottom direction determination process. 人物領域に基づく天地判定手順を示すフローチャート。The flowchart which shows the top-and-bottom determination procedure based on a person area. ステップS202の詳細手順を示すフローチャート。The flowchart which shows the detailed procedure of step S202. 人物領域に基づく天地判定処理の内容を示す説明図。Explanatory drawing which shows the content of the top-and-bottom determination process based on a person area. 空・地上領域に基づく天地判定手順を示すフローチャート。The flowchart which shows the top-and-bottom determination procedure based on the sky / ground area. 昼の画像に関する空・地上領域に基づく天地判定処理の内容を示す説明図。Explanatory drawing which shows the content of the top-and-bottom determination process based on the sky and ground area regarding a daytime image. 夜の画像に関する空・地上領域に基づく天地判定処理の内容を示す説明図。Explanatory drawing which shows the content of the top-and-bottom determination process based on the sky and the ground area regarding a night image. 直線に基づく天地判定手順を示すフローチャート。The flowchart which shows the top-and-bottom determination procedure based on a straight line. 収束直線判定の手順を示すフローチャート。The flowchart which shows the procedure of a convergence straight line determination. 画像全体にわたる直線を含む画像の例を示す説明図。Explanatory drawing which shows the example of the image containing the straight line over the whole image. 収束直線群を含む画像の例を示す説明図。Explanatory drawing which shows the example of the image containing a convergence straight line group. 棒状オブジェクトに基づく天地判定手順を示すフローチャート。The flowchart which shows the top-and-bottom determination procedure based on a rod-shaped object. 棒状オブジェクトに基づく天地判定処理の内容を示す説明図。Explanatory drawing which shows the content of the top-and-bottom determination process based on a rod-shaped object. 総合天地判定処理の手順を示すフローチャート。The flowchart which shows the procedure of a general top-and-bottom determination process. 第二の実施例にかかる画像合成処理の内容を示すフローチャート。The flowchart which shows the content of the image composition process concerning a 2nd Example. 選択領域の選択順序の一例を示した図。The figure which showed an example of the selection order of a selection area | region. 選択領域の選択順序の一例を示した図。The figure which showed an example of the selection order of a selection area | region. 選択領域の選択順序の一例を示した図。The figure which showed an example of the selection order of a selection area | region. 人物の有無に基づく画像評価処理を示したフローチャート。The flowchart which showed the image evaluation process based on the presence or absence of a person. ピントの合致度合いに基づく画像評価処理を示したフローチャート。The flowchart which showed the image evaluation process based on the matching degree of focus. 輝度差の大きさに基づく画像評価処理を示したフローチャート。The flowchart which showed the image evaluation process based on the magnitude | size of a brightness | luminance difference.

符号の説明Explanation of symbols

10…コンピュータ、11…CPU、12…ROM、13…RAM、14…ハードディスク(HD)、14a…画像データ、20…プリンタ、40…デジタルカメラ DESCRIPTION OF SYMBOLS 10 ... Computer, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Hard disk (HD), 14a ... Image data, 20 ... Printer, 40 ... Digital camera

Claims (9)

対象画像を表現する画像データを入力する画像データ入力手段と、
上記対象画像の天地方向を判定する天地判定手段と、
上記天地の判定に従って、対象画像とこれに付加する日付表示との天地方向が一致するように上記画像データと日付表示を行うための日付表示データとを合成する画像合成手段と、
を備えることを特徴とする画像処理装置。
Image data input means for inputting image data representing the target image;
A top / bottom determination means for determining the top / bottom direction of the target image;
In accordance with the determination of the top and bottom, image combining means for combining the image data and date display data for performing date display so that the top and bottom directions of the target image and the date display added to the target image match,
An image processing apparatus comprising:
上記天地判定手段は、上記画像データのヘッダ領域から、同ヘッダ領域に予め記録された対象画像の天地方向を示す天地情報を読み出すことにより天地方向を判定することを特徴とする請求項1に記載の画像処理装置。 The top-and-bottom direction determination unit determines the top-and-bottom direction by reading the top-and-bottom information indicating the top and bottom direction of the target image recorded in advance in the header area from the header area of the image data. Image processing apparatus. 上記天地判定手段は、上記画像データの画素値を解析することによって対象画像の特徴を表す所定の特徴情報を取得するとともに、当該特徴情報を利用した判定ルールを用いて天地方向を判定することを特徴とする請求項1または請求項2のいずれかに記載の画像処理装置。 The top / bottom determination means acquires predetermined feature information representing a feature of the target image by analyzing a pixel value of the image data, and determines a top / bottom direction using a determination rule using the feature information. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized. 上記画像合成手段は、上記画像データのヘッダ領域から、同ヘッダ領域に予め記録された上記対象画像の記録時期を示す日付情報を読み出し、同読み出した日付情報に従って上記日付表示データを生成することを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。 The image synthesizing means reads out date information indicating the recording time of the target image recorded in advance in the header area from the header area of the image data, and generates the date display data according to the read date information. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized. 上記画像合成手段は、上記天地の判定に従って画像データを所定角度回転させた上で画像データと日付表示データとを合成することにより対象画像と日付表示との天地方向を一致させることを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。 The image synthesizing unit rotates the image data by a predetermined angle according to the determination of the top and bottom, and synthesizes the image data and the date display data to match the top and bottom directions of the target image and the date display. The image processing apparatus according to claim 1. 上記画像合成手段は、上記天地の判定に従って上記日付表示データを所定角度回転させた上で画像データと日付表示データとを合成することにより対象画像と日付表示との天地方向を一致させることを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。 The image synthesizing unit rotates the date display data by a predetermined angle in accordance with the determination of the top and bottom to synthesize the image data and the date display data, thereby matching the top and bottom directions of the target image and the date display. The image processing apparatus according to any one of claims 1 to 4. 上記画像合成手段は、上記画像データと日付表示データとを合成する際に、画像データにおける各領域毎に所定の画像評価を行うとともに評価結果に従って日付表示を合成するための領域を決定し、この決定した領域に日付表示データを合成することを特徴とする請求項1〜請求項6のいずれかに記載の画像処理装置。 The image synthesizing means, when synthesizing the image data and the date display data, performs a predetermined image evaluation for each area in the image data and determines an area for synthesizing the date display according to the evaluation result. The image processing apparatus according to claim 1, wherein date display data is synthesized with the determined area. 対象画像を表現する画像データを入力する画像データ入力工程と、
上記対象画像の天地方向を判定する天地判定工程と、
上記天地の判定に従って、対象画像とこれに付加する日付表示との天地方向が一致するように上記画像データと日付表示を行うための日付表示データとを合成する画像合成工程とからなることを特徴とする画像処理方法。
An image data input step for inputting image data representing the target image;
A top and bottom determination step for determining the top and bottom direction of the target image,
In accordance with the determination of the top and bottom, the image combining step of combining the image data and the date display data for performing date display so that the top and bottom directions of the target image and the date display added to the target image coincide with each other. An image processing method.
対象画像を表現する画像データを入力する画像データ入力機能と、
上記対象画像の天地方向を判定する天地判定機能と、
上記天地の判定に従って、対象画像とこれに付加する日付表示との天地方向が一致するように上記画像データと日付表示を行うための日付表示データとを合成する画像合成機能とをコンピュータに実行させることを特徴とする画像処理プログラム。
An image data input function for inputting image data representing the target image;
A top / bottom determination function for determining the top / bottom direction of the target image;
In accordance with the determination of the top and bottom, the computer executes an image composition function for combining the image data and date display data for performing date display so that the top and bottom directions of the target image and the date display to be added coincide with each other. An image processing program characterized by that.
JP2005102564A 2005-03-31 2005-03-31 Image processor, image processing method and image processing program Pending JP2006285469A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005102564A JP2006285469A (en) 2005-03-31 2005-03-31 Image processor, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005102564A JP2006285469A (en) 2005-03-31 2005-03-31 Image processor, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2006285469A true JP2006285469A (en) 2006-10-19

Family

ID=37407352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005102564A Pending JP2006285469A (en) 2005-03-31 2005-03-31 Image processor, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2006285469A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205467A (en) * 2008-02-28 2009-09-10 Seiko Epson Corp Image output method, image output device, and image output program
JP2009230556A (en) * 2008-03-24 2009-10-08 Seiko Epson Corp Object detection device, object detection method, object detection program, and printer
JP2010055468A (en) * 2008-08-29 2010-03-11 Nikon Corp Image processing apparatus, and camera
JP2014023051A (en) * 2012-07-20 2014-02-03 Fuji Xerox Co Ltd Image processor, image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205467A (en) * 2008-02-28 2009-09-10 Seiko Epson Corp Image output method, image output device, and image output program
JP2009230556A (en) * 2008-03-24 2009-10-08 Seiko Epson Corp Object detection device, object detection method, object detection program, and printer
JP2010055468A (en) * 2008-08-29 2010-03-11 Nikon Corp Image processing apparatus, and camera
JP2014023051A (en) * 2012-07-20 2014-02-03 Fuji Xerox Co Ltd Image processor, image processing program

Similar Documents

Publication Publication Date Title
JP5187139B2 (en) Image processing apparatus and program
JP4772888B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof
US6831755B1 (en) Printer having image correcting capability
US7945113B2 (en) Enhancement of image data based on plural image parameters
US8498024B2 (en) Image processing apparatus, method, and storage medium for information processing according to information on a scanned sheet
US20090027732A1 (en) Image processing apparatus, image processing method, and computer program
CN104054047B (en) Image processing apparatus and image processing system
US8390905B2 (en) Image processing device extracting desired region to be used as model for image correction
JP2005176230A (en) Image processor and print system
JP2012027687A (en) Image processing apparatus and program
WO2014045788A1 (en) Image processing apparatus, image forming apparatus, and recording medium
CN107566684A (en) Image processing apparatus, image processing method and storage medium
US20080144892A1 (en) Converting A Digital Image From Color To Gray-Scale
US8019128B2 (en) Face detection device
JP2006285469A (en) Image processor, image processing method and image processing program
JP2009038737A (en) Image processing apparatus
JP2008109554A (en) Image forming system, image forming method, image formation program, and recording medium
JP5003445B2 (en) Image processing apparatus, character area specifying method, and character area specifying program
CN104519227B (en) image judgment device and image processing system
US7817303B2 (en) Image processing and image forming with modification of a particular class of colors
JP2006279460A (en) Image processor, printer, image processing method, and image processing program
JP2006262404A (en) Device and method for estimating light source, image processor, and method for image processing
US9191536B2 (en) Processing apparatus
JP2008028802A (en) Unit, method and program for processing image, and printer
JP2006285470A (en) Image processor, image processing method and image processing program