JP2019087282A - Image processing program - Google Patents

Image processing program Download PDF

Info

Publication number
JP2019087282A
JP2019087282A JP2019028672A JP2019028672A JP2019087282A JP 2019087282 A JP2019087282 A JP 2019087282A JP 2019028672 A JP2019028672 A JP 2019028672A JP 2019028672 A JP2019028672 A JP 2019028672A JP 2019087282 A JP2019087282 A JP 2019087282A
Authority
JP
Japan
Prior art keywords
image
processing
program execution
execution unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019028672A
Other languages
Japanese (ja)
Inventor
健介 内田
Kensuke Uchida
健介 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019028672A priority Critical patent/JP2019087282A/en
Publication of JP2019087282A publication Critical patent/JP2019087282A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

To provide a user interface in which an operation for processing an image to an image as if the image were imaged at a different imaging time different from a real imaging time is facilitated.SOLUTION: An image processing program causes a computer to execute: processing for displaying an operation device; operation amount detection processing for detecting an operation amount to the displayed operation device; and image processing for, according to the operation amount detected by the operation amount detection processing, processing an image to be processed to an image which was imaged before or after imaging time of the image to be processed.SELECTED DRAWING: Figure 87

Description

本発明は、画像処理プログラムに関する。   The present invention relates to an image processing program.

画像の色やコントラスト等を調整して画像を加工する画像処理装置が知られている(特許文献1、特許文献2参照)。画像処理装置の多くは、ユーザが自由に画像を加工できるように多数の調整用パラメータが変更可能に構成される。   There is known an image processing apparatus that processes an image by adjusting the color, contrast, and the like of the image (see Patent Document 1 and Patent Document 2). Many image processing apparatuses are configured to be able to change a large number of adjustment parameters so that the user can freely process an image.

特開2006−3603号公報JP, 2006-3603, A 特開2000−330677号公報JP 2000-330677 A

しかしながら、画像加工について専門的な知識をもっていないユーザにとって、多数の調整用パラメータの中から個々の調整用パラメータを変更して意図どおりの加工結果を導き出すことは困難である。すなわち、専門的な知識をもたないユーザが意図どおりの加工結果を導くためのユーザインターフェイスは多くなく、使い勝手が十分とはいえなかった。   However, for a user who does not have expert knowledge of image processing, it is difficult to change individual adjustment parameters from among a large number of adjustment parameters to derive an intended processing result. That is, there were not many user interfaces for users who do not have specialized knowledge to derive the intended processing results, and the usability was not sufficient.

本発明による画像処理プログラムは、操作デバイスを表示する処理と、選択されたタイムスパンにおいて、前記表示した操作デバイスに対する操作量を検出する操作量検出処理と、前記タイムスパンにおいて前記操作量検出処理によって検出された操作量および加工対象画像に付随するタグ情報に基づいて加工方法を決定し、前記加工対象画像を前記加工対象画像の撮影時より前、または後に撮影された画像へ加工する画像加工処理と、をコンピュータに実行させる。   The image processing program according to the present invention includes a process of displaying an operation device, an operation amount detection process of detecting an operation amount of the displayed operation device in the selected time span, and the operation amount detection process of the time span. An image processing process of determining a processing method based on the detected operation amount and tag information attached to the processing target image, and processing the processing target image into an image captured before or after capturing of the processing target image And let the computer execute.

本発明によれば、異なる時刻に撮影したかのような画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。   According to the present invention, it is possible to provide a user interface having a simple operation for processing into an image as if taken at different times.

本発明の第一の実施形態による画像処理装置の外観を例示する図である。It is a figure which illustrates the appearance of the image processing device by a first embodiment of the present invention. 図1の画像処理装置の要部構成を例示するブロック図である。It is a block diagram which illustrates the principal part structure of the image processing apparatus of FIG. 「加工画像の進め方設定」表示画面を例示する図である。It is a figure which illustrates a "procedure setting of a process image" display screen. 初期画面を例示する図である。It is a figure which illustrates an initial screen. フィルタ画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a filter picture. フィルタ画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a filter picture. 変更されたアイコンの新しい名称を例示する図である。It is a figure which illustrates the new name of the changed icon. 加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses processing object picture. 加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses processing object picture. 複数の加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of processing object pictures. 複数の加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of processing object pictures. 一部のパラメータのみを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects only a part of parameters to image processing. 一部のパラメータのみを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects only a part of parameters to image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects a parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects a parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects a parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects a parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects a parameter based on a different filter image on image processing. 携帯電話機の縦長表示画面における配置を例図する図である。It is a figure which illustrates the arrangement | positioning in the vertically long display screen of a mobile telephone. フォトビューワの横長表示画面における配置を例示する図である。It is a figure which illustrates the arrangement | positioning in the landscape display screen of photo viewer. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. 初期画面を例示する図である。It is a figure which illustrates an initial screen. 図23(a)は「色を変える」に対応するサブメニューを含む処理項目ウィンドウを例示する図、図23(b)は「くっきりさせる」に対応するサブメニューを含む処理項目ウィンドウを例示する図である。FIG. 23 (a) illustrates a process item window including a sub-menu corresponding to “change color”, and FIG. 23 (b) illustrates a process item window including a sub-menu corresponding to “sharp”. It is. パラメータ調整用スケールとスライダを表示するウィンドウを例示する図である。It is a figure which illustrates the window which displays the scale for parameter adjustment, and a slider. 画像加工後の表示画面を例示する図である。It is a figure which illustrates the display screen after image processing. ポップアップウィンドウを例示する図である。It is a figure which illustrates a pop-up window. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. ユーザ別メニュー画面を例示する図である。It is a figure which illustrates the menu screen classified by user. 従来例の表示画面を例示する図である。It is a figure which illustrates the display screen of a prior art example. 図32(a)はスクロール前のユーザ別メニュー画面を例示する図、図32(b)はスクロール後のユーザ別メニュー画面を例示する図、図32(c)はユーザ別メニューを例示する図である。32 (a) is a view exemplifying a user-specific menu screen before scrolling, FIG. 32 (b) is a view exemplifying a user-specific menu screen after scrolling, and FIG. 32 (c) is a view exemplifying a user-specific menu is there. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. 効果分類ウィンドウを例示する図である。It is a figure which illustrates an effect classification window. 効果分類ウィンドウを例示する図である。It is a figure which illustrates an effect classification window. 効果分類ウィンドウを例示する図である。It is a figure which illustrates an effect classification window. 変形例3におけるユーザ別メニューの表示画面を例示する図である。FIG. 18 is a view exemplifying a display screen of a user-specific menu in the modification 3; 初期画面を例示する図である。It is a figure which illustrates an initial screen. フィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a filter picture and a feature analysis range. フィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a filter picture and a feature analysis range. フィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a filter picture and a feature analysis range. 加工対象画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing object picture and a feature analysis range. 加工対象画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing object picture and a feature analysis range. 加工対象画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing object picture and a feature analysis range. 楕円形状の特徴分析範囲を例示する図である。It is a figure which illustrates the feature analysis range of elliptical shape. 複数の楕円形状を組み合わせた特徴分析範囲を例示する図である。It is a figure which illustrates the feature-analysis range which combined a plurality of elliptical shapes. 複数に分離されている特徴分析範囲を例示する図である。It is a figure which illustrates the feature-analysis range separated into plurality. 他の特徴分析範囲を例示する図である。It is a figure which illustrates the other feature-analysis range. 複数の特徴分析範囲に対して異なる画像加工を行う場面を説明する図である。It is a figure explaining the scene which performs different image processing to a plurality of feature analysis ranges. スタンプツールを用いる例を説明する図である。It is a figure explaining the example which uses a stamp tool. 加工対象画像において特徴分析範囲を選ばない場合を説明する図である。It is a figure explaining the case where the feature analysis range is not chosen in processing object picture. 加工対象画像の全体に対して画像加工を行う場合を説明する図である。It is a figure explaining the case where image processing is performed with respect to the whole process target image. 加工対象画像の全体に対して画像加工を行う場合を説明する図である。It is a figure explaining the case where image processing is performed with respect to the whole process target image. 加工対象画像の一部を補正する場面を説明する図である。It is a figure explaining the scene which correct | amends a part of process target image. 加工対象画像の一部を補正する場面を説明する図である。It is a figure explaining the scene which correct | amends a part of process target image. 加工対象画像の一部を補正する場面を説明する図である。It is a figure explaining the scene which correct | amends a part of process target image. 画像加工する境界をぼかす例を説明する図である。It is a figure explaining the example which blurs the boundary which carries out image processing. 画像加工する境界をぼかす例を説明する図である。It is a figure explaining the example which blurs the boundary which carries out image processing. 画像加工する境界をぼかす例を説明する図である。It is a figure explaining the example which blurs the boundary which carries out image processing. 複数のフィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of filter pictures and a feature analysis range. 複数のフィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of filter pictures and a feature analysis range. 複数の特徴分析範囲に対して異なる画像加工を行う場面を説明する図である。It is a figure explaining the scene which performs different image processing to a plurality of feature analysis ranges. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where a plurality of feature analysis ranges are close or in contact. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where a plurality of feature analysis ranges are close or in contact. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where a plurality of feature analysis ranges are close or in contact. 特徴分析範囲を座標で指定する場合を説明する図である。It is a figure explaining the case where a feature analysis range is specified by coordinates. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where a plurality of feature analysis ranges are close or in contact. 画像加工前と画像加工後の比較表示を説明する図である。It is a figure explaining the comparison display before an image process and after an image process. 画像加工前と画像加工後の比較表示を説明する図である。It is a figure explaining the comparison display before an image process and after an image process. 画像加工前と画像加工後の比較表示を説明する図である。It is a figure explaining the comparison display before an image process and after an image process. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after image processing and the display which shows the image processing range are made into layer structure. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after image processing and the display which shows the image processing range are made into layer structure. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after image processing and the display which shows the image processing range are made into layer structure. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after image processing and the display which shows the image processing range are made into layer structure. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. 画像加工前と画像加工後の比較表示する他の例を説明する図である。It is a figure explaining the other example displayed by comparison before image processing and after image processing. 画像加工前と画像加工後の比較表示する他の例を説明する図である。It is a figure explaining the other example displayed by comparison before image processing and after image processing. 画像加工前と画像加工後の比較表示する他の例を説明する図である。It is a figure explaining the other example displayed by comparison before image processing and after image processing. 「タイムトラベル」が選択された場合の表示画面を例示する図である。It is a figure which illustrates the display screen when "time travel" is selected. タイムスパンが「1日」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates an adjustment scale and a slider in case time span is "one day." タイムスパンが「1日」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates an adjustment scale and a slider in case time span is "one day." タイムスパンが「1年」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates an adjustment scale and a slider in case time span is "one year." タイムスパンが「10年」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates an adjustment scale and a slider in case time span is "10 years." 他のウィンドウ表示を例示する図である。It is a figure which illustrates other window displays. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which a program execution part performs. 画像処理装置へのプログラム供給を説明する図である。It is a figure explaining the program supply to an image processing device.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による画像処理装置10の外観を例示する図である。画像処理装置10は、例えば、タブレット端末によって構成される。タブレット端末は、オペレーションシステム(OS)と呼ばれる基本プログラムを実行した上で、画像を加工するアプリケーションプログラム(以下、画像処理プログラムと呼ぶ)を実行することにより、画像処理装置10として動作する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a view illustrating the appearance of an image processing apparatus 10 according to a first embodiment of the present invention. The image processing apparatus 10 is configured by, for example, a tablet terminal. The tablet terminal operates as an image processing apparatus 10 by executing an application program (hereinafter, referred to as an image processing program) for processing an image after executing a basic program called an operation system (OS).

図1において、画像処理装置10の正面に表示・入力部20が設けられる。表示・入力部20は、画像やアイコン25などを表示する表示機能と、ユーザによる接触操作を受け付ける入力機能と、を兼ね備えたタッチパネル液晶ディスプレイによって構成される。   In FIG. 1, a display / input unit 20 is provided on the front of the image processing apparatus 10. The display / input unit 20 is configured of a touch panel liquid crystal display having a display function of displaying an image, an icon 25 and the like, and an input function of receiving a touch operation by the user.

表示・入力部20は画像処理装置10の前面を覆うように設けられており、表示面が操作面を兼ねる。表示・入力部20は、ユーザの指で接触操作されると、接触部の静電容量の変化に基づいて、接触操作されたこと、および接触位置を示す位置検出信号を出力する。なお、抵抗膜方式、電磁誘導方式などによって、接触操作されたこと、および接触位置を示す位置検出信号を出力してもよい。   The display / input unit 20 is provided to cover the front surface of the image processing apparatus 10, and the display surface doubles as an operation surface. When the display / input unit 20 is touch-operated by the user's finger, the display / input unit 20 outputs a position detection signal indicating that the touch operation has been made and the touch position, based on a change in capacitance of the touch unit. Note that a position detection signal indicating that the touch operation has been performed and the touch position may be output by a resistance film method, an electromagnetic induction method, or the like.

画像処理装置10は、表示・入力部20に表示するアイコン25に対応づけられているプログラムを起動させることにより、画像加工機能、メール機能や通信機能など、起動プログラムによって実現される機能を発揮する。なお、図1に例示する表示・入力部20の表示例は、いわゆるホーム画面の例である。   The image processing apparatus 10 activates the program associated with the icon 25 displayed on the display / input unit 20 to exhibit functions realized by the activation program, such as an image processing function, a mail function, and a communication function. . The display example of the display / input unit 20 illustrated in FIG. 1 is an example of a so-called home screen.

図2は、図1の画像処理装置10の要部構成を例示するブロック図である。図2において、画像処理装置10は、表示・入力部20と、制御部30と、通信部15とを有する。   FIG. 2 is a block diagram illustrating the main configuration of the image processing apparatus 10 of FIG. In FIG. 2, the image processing apparatus 10 includes a display / input unit 20, a control unit 30, and a communication unit 15.

<表示・入力部20>
表示・入力部20は、位置検出部21と、表示部22とを有する。位置検出部21は、指による接触位置を示す位置検出信号と、表示制御部32が有する表示情報(表示・入力部20の表示部22のどこに、何を表示させているかを示す情報)とに基づいて、表示・入力部20の画面上の対象(画像やアイコン25等)を特定する。表示部22は、表示制御部32からの表示制御信号に基づいて、画像やアイコン25などを表示する。
<Display / Input Unit 20>
The display / input unit 20 has a position detection unit 21 and a display unit 22. The position detection unit 21 includes a position detection signal indicating a contact position by a finger, and display information (display information indicating where and what is displayed on the display unit 22 of the display / input unit 20) that the display control unit 32 has. Based on the information, an object (image, icon 25 or the like) on the screen of the display / input unit 20 is specified. The display unit 22 displays an image, an icon 25 and the like based on the display control signal from the display control unit 32.

<制御部30>
制御部30は、プログラム実行部31と、表示制御部32と、通信制御部33と、不揮発性メモリ34とを含み、画像処理装置10内の各部の動作を制御する。プログラム実行部31は、上記アイコン25に対応づけられており、上記位置検出部21によって特定されたアイコン25に対応するプログラムを実行する。表示制御部32は、上記表示部22に、画像やアイコン25などを表示させる。通信制御部33は、通信部15による外部機器との通信を制御する。不揮発性メモリ34は、プログラムや画像、後述するデータベースを格納する。
<Control unit 30>
The control unit 30 includes a program execution unit 31, a display control unit 32, a communication control unit 33, and a non-volatile memory 34, and controls the operation of each unit in the image processing apparatus 10. The program execution unit 31 is associated with the icon 25 and executes a program corresponding to the icon 25 specified by the position detection unit 21. The display control unit 32 causes the display unit 22 to display an image, an icon 25 and the like. The communication control unit 33 controls communication with the external device by the communication unit 15. The non-volatile memory 34 stores programs, images, and a database to be described later.

<通信部15>
通信部15は、通信制御部33からの指示に応じて無線通信を行う。通信部15は、例えば、無線LAN(Local Area Network)のアクセスポイントを介した通信が可能に構成されている。画像処理装置10で加工する画像は、通信部15を介して外部機器から取得してもよいし、画像処理装置10が備える不図示のカメラユニットで撮影してもよい。また、プログラム実行部31が実行するアプリケーションプログラムは、通信部15を介して外部機器から取得する。
<Communication unit 15>
The communication unit 15 performs wireless communication in response to an instruction from the communication control unit 33. The communication unit 15 is configured to be able to communicate via an access point of a wireless local area network (LAN), for example. The image to be processed by the image processing apparatus 10 may be acquired from an external device via the communication unit 15, or may be photographed by a camera unit (not shown) included in the image processing apparatus 10. The application program executed by the program execution unit 31 is acquired from the external device via the communication unit 15.

<画像加工の進め方設定>
プログラム実行部31が実行する画像処理プログラムを説明する前に、「画像加工の進め方設定」について説明する。本実施形態では、次の3通りの画像加工の進め方の中から選ばれた1つの画像加工の進め方に基づいて、画像に対する加工を行う。このため、画像処理プログラムを起動する前、あるいは起動後に、「画像加工の進め方設定」操作によって1つの画像加工の進め方が決められる。一旦決められた画像加工の進め方は、不揮発性メモリ34に保存されるため、プログラム実行部31は、「画像加工の進め方設定」操作によって変更されない限り前回と同様の画像加工の進め方を選ぶ。
<How to set image processing>
Before describing the image processing program executed by the program execution unit 31, "setting of image processing procedure" will be described. In the present embodiment, processing on an image is performed based on one of the following image processing methods selected from the following three image processing methods. For this reason, before or after the image processing program is started, one image processing proceeding method is determined by the “image processing proceeding method setting” operation. Since the image processing method once decided is stored in the non-volatile memory 34, the program execution unit 31 selects the same image processing method as the previous one unless it is changed by the “image processing method setting” operation.

1.画像サンプルを選んで加工設定を行う
2.直感メニューを開いて加工設定を行う
3.ユーザ別メニューを開いて加工設定を行う
1. Select an image sample and make processing settings 2. Open the intuition menu and make processing settings 3. Open the menu for each user and make processing settings

上記3つの画像加工の進め方の中から1つの画像加工の進め方を選ぶ処理は、画像処理装置10の「設定」メニューの中で行われる。プログラム実行部31は、例えば、表示・入力部20の表示部22に表示されている「設定」アイコン25Bが位置検出部21によって特定されると、設定処理を起動して図3に例示する「画像加工の進め方設定」表示を表示部22に表示させる。ユーザは、選びたい項目のチェックボックスをタップ操作することにより、例えば、「画像サンプルを選んで加工設定を行う」のチェックボックスにチェックを入れる。   The process of selecting one of the three image processing methods is performed in the “setting” menu of the image processing apparatus 10. For example, when the “setting” icon 25 B displayed on the display unit 22 of the display / input unit 20 is specified by the position detection unit 21, the program execution unit 31 starts the setting process and is illustrated in FIG. The display 22 is made to display the "procedure setting of image processing". The user taps the check box of the item to be selected, for example, puts a check in the check box of "select image sample and perform processing setting".

<画像サンプルを選んで加工設定を行う場合>
「画像サンプルを選んで加工設定を行う」が選ばれた場合にプログラム実行部31が実行する画像加工の進め方を説明する。「画像サンプルを選んで加工設定を行う」場合は、先ず、ユーザに加工の見本となる画像(以降、フィルタ画像と呼ぶ)を選んでもらう。次に、プログラム実行部31が、選ばれたフィルタ画像の全体に基づいて、フィルタ画像の特徴を分析する。そして、プログラム実行部31は、画像加工の対象とする画像についても同様に、加工対象画像の全体に基づいて特徴を分析する。その上で、プログラム実行部31が、これら2つの画像(フィルタ画像と加工対象画像)間で画像全体の特徴を近似させるように、加工対象画像に対して画像加工処理を行う。例えば、プログラム実行部31は、フィルタ画像および加工対象画像それぞれに施されている画像処理の各種調整用パラメータや、これらの画像が撮影された際に用いられた撮影用パラメータの特徴を分析する。そして、フィルタ画像および加工対象画像間で画像全体におけるパラメータの特徴を近似させる画像処理加工を、加工対象画像に対して行う。
<When selecting an image sample and making processing settings>
A description will be given of how to proceed with image processing to be executed by the program execution unit 31 when “select an image sample and perform processing setting” is selected. In the case of "selecting an image sample and performing processing setting", first, the user is asked to select an image (hereinafter, referred to as a filter image) as a sample of processing. Next, the program execution unit 31 analyzes the features of the filter image based on the entire selected filter image. Then, the program execution unit 31 analyzes the features of the image to be processed in the same manner based on the entire image to be processed. Then, the program execution unit 31 performs image processing on the processing target image so as to approximate the features of the entire image between the two images (the filter image and the processing target image). For example, the program execution unit 31 analyzes various adjustment parameters of image processing applied to each of the filter image and the processing target image, and the characteristics of the photographing parameters used when these images are photographed. Then, image processing processing is performed on the processing target image to approximate the feature of the parameter in the entire image between the filter image and the processing target image.

プログラム実行部31は、例えば、画像の明るさ、コントラスト、シャープネス、彩度、および色相をパラメータとし、これらパラメータごとに特徴量を算出することによって特徴分析を行う。プログラム実行部31はさらに、撮影時の撮影条件(例えば、ホワイトバランス、露出値、絞り値、シャッタースピードなど)をパラメータとし、パラメータごとに特徴量を抽出することによって特徴分析を行う。撮影時の撮影条件は、画像(フィルタ画像または加工対象画像)に関連付けられて記録されている撮影情報を読み出して用いる。そして、プログラム実行部31は、分析した特徴に基づき、加工対象画像の特徴をフィルタ画像の特徴へ近づける処理を行うことで、両画像間で特徴を近似させる。各パラメータについて行う処理を以下に例示する。   The program execution unit 31 performs feature analysis by calculating feature quantities for each of these parameters, using, for example, brightness, contrast, sharpness, saturation, and hue of an image as parameters. The program execution unit 31 further performs feature analysis by extracting feature quantities for each parameter, using shooting conditions (for example, white balance, exposure value, aperture value, shutter speed, etc.) at the time of shooting as parameters. The shooting conditions at the time of shooting are used by reading out shooting information recorded in association with an image (filter image or processing target image). Then, based on the analyzed features, the program execution unit 31 approximates the features between the two images by performing a process of bringing the features of the processing target image close to the features of the filter image. The processing performed for each parameter is illustrated below.

−明るさ−
プログラム実行部31は、明るさの特徴量として輝度平均値を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、それぞれ各画素値から輝度の平均を求め、フィルタ画像と加工対象画像との間で、平均値が同等(両者の差が所定範囲内)となるように調整する。なお、輝度の平均値の代わりに、最頻値や中央値が同等になるように調整してもよい。調整方法としては、ゲインを変えたり、オフセットを与えたり、γ補正を行うなどの方法を用いる。
-Brightness-
The program execution unit 31 calculates a brightness average value as the feature amount of brightness. The program execution unit 31 obtains an average of luminance from each pixel value for each of the filter image and the processing target image, and the average value is equal between the filter image and the processing target image (the difference between the both is within a predetermined range). Adjust to become Note that, instead of the average value of luminance, adjustment may be made so that the mode value and the median value become equal. As the adjustment method, methods such as changing the gain, giving an offset, and performing γ correction are used.

−コントラスト−
プログラム実行部31は、コントラストの特徴量としてヒストグラムを求める。プログラム実行部31は、フィルタ画像と加工対象画像において、それぞれ各画素値のヒストグラムを作成し、その分布形状を近似させるように調整する。例えば、ヒストグラムのピークとなる画素値を一致させたり、暗部/明部の割合を一致させたりして、両者の分布形状を近づける。調整方法としては、コントラストに影響を与えるように、ゲインを変えたり、LUT(ルックアップテーブル)を変えたり、γ補正を行うなどの方法を用いる。
-Contrast-
The program execution unit 31 obtains a histogram as the contrast feature amount. The program execution unit 31 prepares a histogram of each pixel value in each of the filter image and the processing target image, and adjusts the distribution shape to approximate. For example, the distribution shapes of both are made close by making the pixel values that become the peaks of the histogram coincide with each other, or making the proportions of the dark part / bright part coincide with each other. As an adjustment method, a method such as changing the gain, changing the LUT (look-up table), performing γ correction, or the like is used so as to affect the contrast.

−シャープネス−
プログラム実行部31は、シャープネスの特徴量として微分値や周波数変換値を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、主として画像の輪郭のシャープさを近似させる。例えば、それぞれの画像内の微分値や、それぞれの画像で周波数変換を行った結果の係数分布が近似するように、USM(アン・シャープネス・マスク)処理を行うなどの方法を用いて調整する。なお、画像の全体にわたって微分や周波数変換を行ってもよいが、画像の輪郭部分を抽出し、抽出部分に着目して微分や周波数変換処理を行うようにしてもよい。
-Sharpness-
The program execution unit 31 calculates a differential value or a frequency conversion value as a feature amount of sharpness. The program execution unit 31 mainly approximates the sharpness of the outline of the image for the filter image and the processing target image. For example, adjustment is performed using a method such as USM (unsharpness mask) processing or the like so that the differential value in each image or the coefficient distribution as a result of frequency conversion of each image approximates. Although differentiation or frequency conversion may be performed over the entire image, the outline portion of the image may be extracted, and differentiation or frequency conversion processing may be performed by paying attention to the extracted portion.

−彩度−
プログラム実行部31は、彩度の特徴量として彩度の最大値および平均値を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、それぞれ画面内の彩度の最大値および平均値を算出し、それらが同等(両者の差が所定範囲内)となるように調整する。調整方法としては、ゲインを変えたり、LUT(ルックアップテーブル)を変えたりする方法を用いる。
-Saturation-
The program execution unit 31 calculates the maximum value and the average value of saturation as the feature quantity of saturation. The program execution unit 31 calculates the maximum value and the average value of the saturation in the screen for the filter image and the processing target image, respectively, and adjusts them so as to be equal (the difference between the two is within a predetermined range). As the adjustment method, a method of changing the gain or changing the LUT (look-up table) is used.

−色相−
プログラム実行部31は、色相の特徴量として色相分布を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、それぞれの色相の分布を求め、フィルタ画像と加工対象画像との間で色相の偏りを合わせるように調整する。調整方法としては、例えばフィルタ画像が特定色相に偏っている場合に、加工対象画像の色相を同じように偏らせるように、Mtx(マトリクス)演算のマトリクスを変えたり、LUT(ルックアップテーブル)を変えたりする方法を用いる。なお、色相の偏りを合わせる他に、色相分布の重心や中心を求め、これらを一致させるようにしてもよい。
-Hue-
The program execution unit 31 calculates the hue distribution as the feature amount of the hue. The program execution unit 31 obtains the distribution of each hue for the filter image and the processing target image, and makes adjustments so as to match the deviation of the hue between the filter image and the processing target image. As the adjustment method, for example, when the filter image is biased to a specific hue, the matrix of the Mtx (matrix) operation is changed or the LUT (look-up table) is biased so as to bias the hue of the processing target image in the same manner. Use a changing method. In addition to adjusting the hue bias, the center or the center of the hue distribution may be determined and made to coincide.

−ホワイトバランス−
プログラム実行部31は、ホワイトバランスの情報を抽出する。プログラム実行部31は、フィルタ画像と加工対象画像それぞれについて、撮影時または撮影後に調整されたホワイトバランスの情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間でホワイトバランスを合わせるように調整する。このとき、フィルタ画像と加工対象画像との間で、画像全体の色温度が近似するように調整してもよいし、画像の一部(例えば人物の顔)が近似するように調整してもよい。
-White balance-
The program execution unit 31 extracts white balance information. The program execution unit 31 reads, for each of the filter image and the processing target image, the information of the white balance adjusted at the time of photographing or after the photographing. The program execution unit 31 adjusts the white balance between the filter image and the processing target image. At this time, adjustment may be made so that the color temperature of the entire image approximates between the filter image and the processing target image, or adjustment may be performed so that a part of the image (for example, a human face) approximates. Good.

−露出値−
プログラム実行部31は、露出値の情報を抽出する。プログラム実行部31は、フィルタ画像と加工対象画像それぞれについて、撮影時の露出値の情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間で露出が近似する(合わせる)ように調整する。このとき、フィルタ画像と加工対象画像との間で、それぞれ画像全体の露出値が近似するように調整してもよいし、画像の一部の露出値が近似するように調整してもよい。
-Exposure value-
The program execution unit 31 extracts the information of the exposure value. The program execution unit 31 reads out information on the exposure value at the time of shooting for each of the filter image and the processing target image. The program execution unit 31 adjusts the exposure to approximate (match) between the filter image and the processing target image. At this time, the exposure value of the entire image may be adjusted to approximate each other between the filter image and the processing target image, or the exposure value of a part of the image may be adjusted to approximate.

−絞り値−
プログラム実行部31は、絞り値の情報を抽出する。プログラム実行部31は、フィルタ画像と加工対象画像それぞれについて、撮影時の絞り値の情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間で絞り値が近似する(合わせる)ように調整する。例えば、フィルタ画像の絞り値が加工対象画像の絞り値よりも小さかった場合、加工対象画像の主要被写体以外の背景画像をぼかす(コントラストやシャープネスを下げる)画像処理を行う。フィルタ画像の絞り値が加工対象画像の絞り値よりも大きかった場合、加工対象画像の主要被写体以外の背景画像をくっきりさせる(コントラストやシャープネスを上げる)画像処理を行う。
-Aperture value-
The program execution unit 31 extracts aperture value information. The program execution unit 31 reads the information of the aperture value at the time of shooting for each of the filter image and the processing target image. The program execution unit 31 adjusts the aperture value to approximate (match) between the filter image and the processing target image. For example, when the aperture value of the filter image is smaller than the aperture value of the processing target image, image processing is performed to blur the background image other than the main subject of the processing target image (reduce the contrast and sharpness). When the aperture value of the filter image is larger than the aperture value of the processing target image, image processing is performed to make the background image other than the main subject of the processing target image sharp (increase contrast and sharpness).

―シャッタースピード―
プログラム実行部31は、シャッタースピードの情報を抽出する。フィルタ画像と加工対象画像それぞれについて、撮影時のシャッタースピードの情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間でシャッタースピードが近似する(合わせる)ように調整する。例えば、フィルタ画像のシャッタースピードが加工対象画像のシャッタースピードよりも遅かった場合、加工対象画像の明るさを上げる、またはシャープネスを下げる画像処理を行う。フィルタ画像のシャッタースピードが加工対象画像のシャッタースピードよりも速かった場合、加工対象画像の明るさを下げる、またはシャープネスを上げる画像処理を行う 。
-shutter speed-
The program execution unit 31 extracts shutter speed information. Information on shutter speed at the time of shooting is read out for each of the filter image and the processing target image. The program execution unit 31 adjusts the shutter speed to approximate (match) the filtered image and the processing target image. For example, when the shutter speed of the filter image is slower than the shutter speed of the processing target image, image processing is performed to increase the brightness of the processing target image or to lower the sharpness. When the shutter speed of the filter image is faster than the shutter speed of the processing target image, image processing is performed to lower the brightness of the processing target image or to increase the sharpness.

プログラム実行部31は、フィルタ画像に基づく上記全ての特徴量の算出を、フィルタ画像がユーザによって選ばれた段階で行い、算出結果を参照元パラメータとして不図示のメモリに登録しておく。算出結果を不揮発性メモリ34に保存しておくと、将来同じフィルタ画像を選ぶ場合において算出結果を再利用できるので、特徴量算出をその都度行う場合に比べて、処理負担を軽減させることができる。   The program execution unit 31 performs calculation of all the feature quantities based on the filter image at a stage when the user selects the filter image, and registers the calculation result in a memory (not shown) as a reference source parameter. If the calculation result is stored in the non-volatile memory 34, the calculation result can be reused when selecting the same filter image in the future, so that the processing load can be reduced compared to the case where the feature amount calculation is performed each time. .

なお、フィルタ画像に基づく全ての特徴量の算出をフィルタ画像がユーザによって選ばれた段階で行う代わりに、後述する「参考とするパラメータ」が選択された段階で、そのパラメータに対応する特徴量のみを算出するようにしてもよい。   It should be noted that instead of performing calculation of all feature quantities based on the filter image at the stage when the filter image is selected by the user, only feature quantities corresponding to the parameters at the stage where “reference parameter” described later is selected. May be calculated.

プログラム実行部31は、加工対象画像に基づく特徴量の算出を、加工対象画像が指定された段階で行う。そして、加工対象画像に基づく特徴量を算出してから、加工対象画像をフィルタ画像の特徴に近づけるべく、上述した調整処理を開始する。   The program execution unit 31 calculates the feature amount based on the processing target image at a stage where the processing target image is designated. Then, after calculating the feature amount based on the processing target image, the adjustment processing described above is started in order to bring the processing target image closer to the feature of the filter image.

もっとも、フィルタ画像、後述する「参考とするパラメータ」、および加工対象画像の全てが設定(指定)された段階で、必要なパラメータに対応する特徴量の算出、および調整処理を開始させるようにしても構わない。   However, at the stage where all of the filter image, the “reference parameter” to be described later, and the processing target image are set (designated), calculation of the feature amount corresponding to the necessary parameter and adjustment processing are started. I don't care.

<ユーザインターフェイスの説明>
画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図4は、「画像サンプルを選んで加工設定を行う」場合において、画像処理プログラムの起動時にプログラム実行部31が表示部22に表示させる初期画面を例示する図である。図4において、表示画面は、フィルタ画像および加工対象画像の候補にする画像に対応するサムネイル画像を一覧表示する一覧表示部aと、選ばれたフィルタ画像を示すアイコンを表示するフィルタ表示部bと、加工後の画像に対応するサムネイル画像を一覧表示する一覧表示部cと、に分割される。ここで、一覧表示部a、フィルタ表示部b、および一覧表示部cの大きさ(表示エリア)は、ユーザ操作によって適宜変更可能に構成される。アイコンや表示エリア等の大きさの変更は、指だけでなく、例えばマウスやスタイラスペン等のポインティングデバイスを用いて変更するようにしてもよい。
<Description of user interface>
A specific user interface by the image processing program will be described by exemplifying a display screen displayed on the display unit 22 of the display / input unit 20. FIG. 4 is a view exemplifying an initial screen displayed by the program execution unit 31 on the display unit 22 when the image processing program is started in the case of “select an image sample and perform processing setting”. In FIG. 4, the display screen includes a list display portion a for displaying a list of thumbnail images corresponding to filter images and images to be candidates for processing target images, and a filter display portion b for displaying an icon indicating a selected filter image. , And a list display unit c for displaying a list of thumbnail images corresponding to the processed image. Here, the sizes (display areas) of the list display unit a, the filter display unit b, and the list display unit c are configured to be appropriately changeable by user operation. The size of the icon or the display area may be changed using not only a finger but also a pointing device such as a mouse or a stylus pen.

一覧表示部aは、加工前の画像に対応するサムネイルa1、サムネイルa2、およびサムネイルa3を表示するエリアである。一覧表示部aには、上記サムネイル画像に加えて、サムネイル画像をスクロールするためのアイコン11、12が表示される。サムネイル画像のスクロールは、アイコン11、12に対するタップ操作の他に、一覧表示部aに対するスワイプ操作でも可能である。なお、アイコン11、12の代わりにスクロールバーを表示させてもよい。   The list display unit a is an area for displaying the thumbnail a1, the thumbnail a2, and the thumbnail a3 corresponding to the image before processing. In the list display portion a, in addition to the thumbnail images, icons 11 and 12 for scrolling the thumbnail images are displayed. Scrolling of thumbnail images can be performed not only by tapping on the icons 11 and 12 but also by swiping on the list display unit a. Note that scroll bars may be displayed instead of the icons 11 and 12.

フィルタ表示部bは、フィルタ画像のシンボルとしてアイコンfを表示するエリアである。アイコンfには窓dが設けられており、フィルタ画像が選ばれると、選ばれたフィルタ画像に対応するサムネイル画像が、窓dに表示される。フィルタ画像が選ばれる前は、窓dにはブランク表示がなされる。アイコンfには名称が付与される。初期名称は「新しいフィルタ」であるが、ユーザ操作によって名称を変更することができる。一覧表示部cは、加工後の画像に対応するサムネイル画像を表示するエリアである。図4の場合、画像加工が行われる前であるので、一覧表示部c内はブランク表示である。   The filter display unit b is an area for displaying an icon f as a symbol of a filter image. A window d is provided in the icon f, and when a filter image is selected, a thumbnail image corresponding to the selected filter image is displayed in the window d. Before the filter image is selected, the window d is blanked. The icon f is given a name. The initial name is "new filter", but the name can be changed by user operation. The list display unit c is an area for displaying thumbnail images corresponding to the processed image. In the case of FIG. 4, since the image processing is not performed, the inside of the list display portion c is blank.

<フィルタ画像を選ぶ>
ユーザは、フィルタ画像(加工の見本となる画像)としてサムネイルa1に対応する画像を選ぶ場合、図5に例示するように、一覧表示部aからフィルタ表示部bへサムネイルa1をドラッグ操作する。プログラム実行部31は、図6に例示するように、サムネイルa1をアイコンf1の窓dに表示させるとともに、選ばれたフィルタ画像に基づいてパラメータ分析(すなわち特徴量の算出)を行う。なお、サムネイルa1に対応する画像がフィルタ画像であることを示すため、アイコンfをアイコンf1と図示する。
<Select a filter image>
When the user selects an image corresponding to the thumbnail a1 as a filter image (image serving as a sample of processing), the user drags the thumbnail a1 from the list display unit a to the filter display unit b as illustrated in FIG. The program execution unit 31 displays the thumbnail a1 in the window d of the icon f1 as illustrated in FIG. 6, and performs parameter analysis (that is, calculation of the feature amount) based on the selected filter image. Note that the icon f is illustrated as an icon f1 in order to indicate that the image corresponding to the thumbnail a1 is a filter image.

図7は、ユーザ操作によって変更されたアイコンf1の新しい名称「被写体くっきり」を例示する図である。このように、アイコンf1の名称を、加工内容を示す名称へ変更可能にしたので、専門的な知識を持たないユーザにも、画像処理装置10が扱いやすくなる。   FIG. 7 is a diagram exemplifying the new name “subject clear” of the icon f1 changed by the user operation. As described above, since the name of the icon f1 can be changed to the name indicating the processing content, the image processing apparatus 10 can be easily handled even by a user who does not have specialized knowledge.

<加工対象画像を選ぶ>
ユーザは、加工対象画像としてサムネイルa2に対応する画像を選ぶ場合、図8に例示するように、一覧表示部aからフィルタ表示部bへサムネイルa2をドラッグ操作する。プログラム実行部31は、選ばれた加工対象画像に基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31はさらに、加工対象画像とフィルタ画像との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像に対して画像加工を行う。
<Select an image to process>
When the user selects the image corresponding to the thumbnail a2 as the processing target image, the user drags the thumbnail a2 from the list display unit a to the filter display unit b as illustrated in FIG. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected processing target image. The program execution unit 31 further corrects the parameters for the processing target image so as to approximate the feature of the parameter between the processing target image and the filter image, and performs image processing on the processing target image using the corrected parameters.

プログラム実行部31は、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31は、図9に例示するように、加工後の画像に対応するサムネイルc2(f1)を一覧表示部cに表示させる。なお、サムネイルa2に対応する画像に対し、アイコンf1に係る加工内容で加工したことを示すため、サムネイルの符号をc2(f1)とする。   The program execution unit 31 stores the image after processing in the same memory area as the memory area in which the image before processing is stored, or in the memory area designated by the user operation. The program execution unit 31 causes the list display unit c to display the thumbnail c2 (f1) corresponding to the image after processing as illustrated in FIG. In order to indicate that the image corresponding to the thumbnail a2 has been processed with the processing content related to the icon f1, the sign of the thumbnail is c2 (f1).

<複数の加工対象画像を選ぶ>
加工対象画像を複数選んでもよい。ユーザは、加工対象画像としてサムネイルa2に対応する画像と、サムネイルa3に対応する画像とを選ぶ場合、図10に例示するように、一覧表示部aからフィルタ表示部bへサムネイルa2およびサムネイルa3をドラッグ操作する。プログラム実行部31は、選ばれた複数の加工対象画像に基づいて、それぞれパラメータ分析(すなわち特徴量の算出)を行う。
<Select multiple processing target images>
A plurality of processing target images may be selected. When the user selects an image corresponding to the thumbnail a2 and an image corresponding to the thumbnail a3 as the processing target image, the thumbnail a2 and the thumbnail a3 from the list display unit a to the filter display unit b as illustrated in FIG. Drag operation. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected plurality of processing target images.

プログラム実行部31はさらに、複数の加工対象画像に対し、フィルタ画像との間でパラメータの特徴を近似させるように複数の加工対象画像に対するパラメータをそれぞれ補正し、補正後のパラメータによりそれぞれの加工対象画像に画像加工を行う。そして図11に例示するように、加工後の画像に対応するサムネイルc2(f1)およびサムネイルc3(f1)を、それぞれ一覧表示部cに表示させる。   The program execution unit 31 further corrects the parameters for the plurality of processing target images so as to approximate the feature of the parameter between the plurality of processing target images and the filter image, and the respective processing targets are corrected according to the corrected parameters. Perform image processing on the image. Then, as illustrated in FIG. 11, the thumbnail display unit c displays the thumbnail c2 (f1) and the thumbnail c3 (f1) corresponding to the image after processing.

<一部のパラメータのみを画像加工に反映させる>
プログラム実行部31は通常、フィルタ画像に基づいて上述したパラメータ(画像の明るさ、コントラスト、シャープネス、彩度、および色相)の全てについて特徴量を算出し、画像加工に反映させる。本実施形態では、全てのパラメータを画像加工に反映させる代わりに、フィルタ画像に基づく一部のパラメータのみを画像加工に反映させることができる。
<Reflecting Only Some Parameters to Image Processing>
The program execution unit 31 normally calculates feature quantities for all of the above-described parameters (image brightness, contrast, sharpness, saturation, and hue) based on the filter image, and reflects the feature quantities in image processing. In this embodiment, instead of reflecting all the parameters in image processing, it is possible to reflect only some of the parameters based on the filter image in image processing.

プログラム実行部31は、図12に例示するように、フィルタ表示部bに表示している「詳細」ボタン16がタップ操作されると、図13に例示するパラメータ選択ウィンドウ23を表示させる。パラメータ選択ウィンドウ23において、ユーザは、「参考とするパラメータ」として選びたいパラメータのチェックボックスをタップ操作する。例えば、「コントラスト」のチェックボックスのみがチェックされた場合のプログラム実行部31は、加工対象画像とフィルタ画像との間で、チェックされたパラメータ「コントラスト」のみの特徴を近似させるように加工対象画像に対するパラメータ「コントラスト」を補正し、補正後のパラメータ「コントラスト」により加工対象画像に対して画像加工を行うとともに、加工後の画像に対応するサムネイルを一覧表示部cに表示させる。   The program execution unit 31 causes the parameter selection window 23 illustrated in FIG. 13 to be displayed when the “detail” button 16 displayed on the filter display unit b is tapped as illustrated in FIG. 12. In the parameter selection window 23, the user taps the check box of the parameter to be selected as the "parameter to be referred to". For example, the program execution unit 31 in the case where only the check box of “contrast” is checked is an image to be processed so as to approximate features of only the checked parameter “contrast” between the image to be processed and the filter image. The parameter “contrast” for the image is corrected, and the image processing is performed on the image to be processed with the corrected parameter “contrast”, and the thumbnail corresponding to the image after processing is displayed on the list display unit c.

<異なるフィルタ画像に基づくパラメータを画像加工に反映させる>
フィルタ画像を複数選んでもよい。ユーザは、フィルタ画像(加工の見本となる画像)としてサムネイルa1以外の他のサムネイル画像に対応する画像を選ぶ場合、一覧表示部a(図5)からフィルタ表示部bへサムネイルa1以外の他のサムネイル画像をドラッグ操作する。プログラム実行部31は、選ばれたフィルタ画像に基づいてパラメータ分析(すなわち特徴量の算出)を行い、新たなアイコンfをフィルタ表示部bに表示させる。
<Reflecting parameters based on different filter images to image processing>
A plurality of filter images may be selected. When the user selects an image corresponding to another thumbnail image other than the thumbnail a1 as a filter image (image serving as a sample of processing), the list display unit a (FIG. 5) to the filter display unit b other than the thumbnail a1 Drag the thumbnail image. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected filter image, and causes the filter display unit b to display a new icon f.

(フィルタ表示部bの中に1つのアイコンfのみを表示する場合)
プログラム実行部31は、図14に例示するように、アイコンf1とともに、アイコンf1をスクロールするためのアイコン17をフィルタ表示部bに表示させる。スクロールにより、アイコンf1以外の他のアイコンfをフィルタ表示部bに表示させることができる。図15および図16は、それぞれ、スクロール後のアイコンfp、アイコンfsを例示する図である。アイコンfのスクロールは、アイコン17、アイコン18に対するタップ操作の他に、フィルタ表示部bに対するスワイプ操作でも可能である。なお、アイコン17、アイコン18の代わりにスクロールバーを表示させてもよい。
(When only one icon f is displayed in the filter display section b)
The program execution unit 31 causes the filter display unit b to display an icon 17 for scrolling the icon f1 together with the icon f1 as illustrated in FIG. By scrolling, other icons f other than the icon f1 can be displayed on the filter display unit b. FIGS. 15 and 16 illustrate the icon fp and the icon fs after scrolling, respectively. Scrolling of the icon f can be performed not only by tapping on the icon 17 and the icon 18 but also by swiping on the filter display unit b. Note that scroll bars may be displayed instead of the icons 17 and 18.

図15において、ユーザ操作によって変更された名称「スポーツ撮影」が付与されたアイコンfpが表示されている。図16において、ユーザ操作によって変更された名称「空が背景」が付与されたアイコンfsが表示されている。   In FIG. 15, the icon fp to which the name "sports photography" changed by user operation is given is displayed. In FIG. 16, an icon fs given with the name “sky on background” changed by user operation is displayed.

(フィルタ表示部bの中に複数のアイコンfを表示する場合)
プログラム実行部31は、ユーザがピンチイン操作を行うと、アイコンfの表示サイズを小さく変更し、フィルタ表示部bに複数のアイコンfを表示させる。図17は、アイコンf1と、アイコンfpと、アイコンfsとをフィルタ表示部bに表示させた例である。
(When displaying a plurality of icons f in the filter display section b)
When the user performs a pinch-in operation, the program execution unit 31 changes the display size of the icon f to a smaller size, and causes the filter display unit b to display a plurality of icons f. FIG. 17 shows an example in which the icon f1, the icon fp, and the icon fs are displayed on the filter display unit b.

1つの加工対象画像に対して異なる加工を同時に行ってもよい。ユーザは、図17に例示するように、フィルタ表示部bの中に複数のアイコンf1、アイコンfp、アイコンfsが表示されている場合において、加工対象画像としてサムネイルa3に対応する画像を一覧表示部aからフィルタ表示部bへドラッグ操作する。プログラム実行部31は、選ばれた加工対象画像に基づいて、パラメータ分析(すなわち特徴量の算出)を行う。   Different processing may be simultaneously performed on one processing target image. When a plurality of icons f1, icons fp, and icons fs are displayed in the filter display unit b, the user displays a list display unit of images corresponding to the thumbnails a3 as processing target images as illustrated in FIG. Drag operation from a to the filter display unit b. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected processing target image.

プログラム実行部31はさらに、加工対象画像に対し、アイコンf1、アイコンfp、アイコンfsに対応する3つのフィルタ画像との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを3通りに補正し、これら補正後のパラメータにより加工対象画像に対して3通りの画像加工を行うとともに、図18に例示するように、加工後の画像に対応するサムネイルc2(f1)、c2(fp)およびc2(fs)を、それぞれ一覧表示部cに表示させる。   The program execution unit 31 further corrects the parameter for the processing object image in three ways so as to approximate the feature of the parameter between the processing object image and the three filter images corresponding to the icon f1, the icon fp, and the icon fs. The image processing target image is subjected to three types of image processing based on these corrected parameters, and thumbnails c2 (f1), c2 (fp) and c2 corresponding to the processed image as illustrated in FIG. (f) is displayed on the list display unit c.

図18において、サムネイルa3に対応する画像に対し、アイコンf1に係る加工内容で加工した画像に対応するサムネイルの符号をc3(f1)とする。また、サムネイルa3に対応する画像に対し、アイコンfpに係る加工内容で加工した画像に対応するサムネイルの符号をc3(fp)とする。さらに、サムネイルa3に対応する画像に対し、アイコンfsに係る加工内容で加工した画像に対応するサムネイルの符号をc3(fs)とする。   In FIG. 18, for the image corresponding to the thumbnail a3, the symbol of the thumbnail corresponding to the image processed with the processing content related to the icon f1 is c3 (f1). Further, for the image corresponding to the thumbnail a3, the symbol of the thumbnail corresponding to the image processed with the processing content related to the icon fp is c3 (fp). Furthermore, for the image corresponding to the thumbnail a3, the code of the thumbnail corresponding to the image processed with the processing content related to the icon fs is c3 (fs).

以上の説明では、フィルタ画像(加工の見本となる画像)を先に選び(例えば一覧表示部aからフィルタ表示部bへサムネイルa1をドラッグし)、その後に加工対象画像を選ぶ(例えば一覧表示部aからフィルタ表示部bへサムネイルa2をドラッグ操作する)例を説明した。この代わりに、先に加工対象画像を選び(例えば一覧表示部aから一覧表示部cへサムネイルa2をドラッグし)、その後にフィルタ画像(加工の見本となる画像)を選ぶ(例えば一覧表示部aからフィルタ表示部bへサムネイルa1をドラッグ操作する)ようにしてもよい。   In the above description, the filter image (image serving as a sample of processing) is selected first (for example, the thumbnail a1 is dragged from the list display unit a to the filter display unit b), and then the processing target image is selected (for example, the list display unit The example of dragging the thumbnail a2 from a to the filter display unit b) has been described. Instead, first select the processing target image (for example, drag the thumbnail a2 from the list display section a to the list display section c), and then select the filter image (image serving as a sample of processing) (for example, the list display section a The thumbnail a1 may be dragged to the filter display section b).

この場合のプログラム実行部31は、先に一覧表示部cへドラッグされた加工対象画像に対応するサムネイルa2を、フィルタ画像(加工の見本となる画像)が選ばれるまでそのまま表示させておく。なお、加工対象画像に基づく特徴量の算出は、サムネイルa2がドラッグされた段階で行ってもよい。そして、フィルタ画像(加工の見本となる画像)が選ばれた段階(すなわち一覧表示部aからフィルタ表示部bへサムネイルa1がドラッグされた段階)で、フィルタ画像(加工の見本となる画像)に基づく特徴量を算出する。   The program execution unit 31 in this case causes the thumbnail a2 corresponding to the processing target image dragged to the list display unit c to be displayed as it is until the filter image (image serving as a sample of processing) is selected. The calculation of the feature amount based on the processing target image may be performed at the stage where the thumbnail a2 is dragged. Then, when the filter image (image serving as a processing sample) is selected (ie, when the thumbnail a1 is dragged from the list display unit a to the filter display unit b), the filter image (image serving as a processing sample) is selected. Calculate the feature amount based on.

プログラム実行部31は、加工対象画像の特徴をフィルタ画像(加工の見本となる画像)の特徴に近づけるべく、加工対象画像に対して画像加工を行う。そして、一覧表示部cにおいて、表示中のサムネイルa2に置き換えて加工後の画像に対応するサムネイルc2(f1)を表示させる。   The program execution unit 31 performs image processing on the processing target image so as to bring the feature of the processing target image closer to the feature of the filter image (image serving as a sample of processing). Then, in the list display portion c, the thumbnail c2 (f1) corresponding to the image after processing is displayed in place of the thumbnail a2 being displayed.

なお、先に加工対象画像を選び、後からフィルタ画像(加工の見本となる画像)を選ぶ場合でも、加工対象画像を複数選んだり、フィルタ画像(加工の見本となる画像)を複数選んだりすることが可能である。   Even when the image to be processed is selected first and the filter image (image to be a sample of processing) is selected later, a plurality of images to be processed are selected or a plurality of filter images (image to be a processing example) are selected. It is possible.

以上の説明では、画像処理装置10をタブレット端末で構成する例を説明したが、タブレット端末の代わりにフォトビューワやパーソナルコンピュータで画像処理装置10を構成してもよい。また、高機能携帯電話機(スマートフォンなど)によって画像処理装置10を構成してもよい。アイコンや表示エリア等の大きさの変更は、指だけでなく、例えばマウスやスタイラスペン等のポインティングデバイスを用いて変更するようにしてもよい。以下で説明を行う画像処理装置10についても同様である。   Although the example which comprises the image processing apparatus 10 by a tablet terminal was demonstrated in the above description, you may comprise the image processing apparatus 10 by photo viewer and a personal computer instead of a tablet terminal. In addition, the image processing apparatus 10 may be configured by a high-performance mobile phone (such as a smart phone). The size of the icon or the display area may be changed using not only a finger but also a pointing device such as a mouse or a stylus pen. The same applies to the image processing apparatus 10 described below.

表示部22における一覧表示部a、フィルタ表示部b、一覧表示部cの配置は、表示部22の表示エリアの縦横比や表示面積により、適宜変更して構わない。図19は、携帯電話機の縦長表示画面における配置を例図する図であり、図20は、フォトビューワの横長表示画面における配置を例示する図である。   The arrangement of the list display unit a, the filter display unit b, and the list display unit c in the display unit 22 may be changed as appropriate depending on the aspect ratio or display area of the display area of the display unit 22. FIG. 19 is a diagram exemplifying the arrangement of the cellular phone on the vertically long display screen, and FIG. 20 is a diagram illustrating the arrangement on the horizontally long display screen of the photo viewer.

<フローチャートの説明>
「画像サンプルを選んで加工設定を行う」場合にプログラム実行部31が実行する処理の流れについて図21に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「画像サンプルを選んで加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図21による処理を開始させる。
<Description of flowchart>
A flow of processing executed by the program execution unit 31 in the case of “select image sample and perform processing setting” will be described with reference to the flowchart illustrated in FIG. The program execution unit 31 starts the process in FIG. 21 when the “OK” button 26 is tapped while “select image sample and perform processing setting” is checked on the setting screen in FIG. 3.

図21のステップS10において、プログラム実行部31は、画像を読み込んでステップS20へ進む。画像は、上述したように、通信部15を介して外部機器から取得した画像、または不図示のカメラユニットで撮影した画像である。ステップS20において、プログラム実行部31は、読み込んだ画像のデータに基づいて、縮小画像(サムネイル)を表示部22の一覧表示部aに表示させてステップS30へ進む。   In step S10 of FIG. 21, the program execution unit 31 reads an image and proceeds to step S20. As described above, the image is an image acquired from an external device via the communication unit 15, or an image captured by a camera unit (not shown). In step S20, the program execution unit 31 causes the list display unit a of the display unit 22 to display a reduced image (thumbnail) based on the data of the read image, and proceeds to step S30.

ステップS30において、プログラム実行部31は、フィルタ表示部bの中でフィルタ画像が選ばれる前のアイコンf(すなわち空きアイコン)に縮小画像(サムネイル)がドラッグされたか否かを判定する。プログラム実行部31は、縮小画像(サムネイル)がドラッグされた場合にステップS30を肯定判定してステップS40へ進み、縮小画像(サムネイル)がドラッグされない場合には、ステップS30を否定判定してステップS90へ進む。   In step S30, the program execution unit 31 determines whether the reduced image (thumbnail) is dragged to the icon f (that is, the empty icon) before the filter image is selected in the filter display unit b. The program execution unit 31 makes an affirmative decision in step S30 if a reduced image (thumbnail) is dragged and proceeds to step S40, whereas if the reduced image (thumbnail) is not dragged, it makes a negative determination in step S30 to perform step S90. Go to

プログラム実行部31は、空きアイコンfにドラッグされた縮小画像(サムネイル)に対応する画像をフィルタ画像として扱う。ステップS40において、プログラム実行部31は、ドラッグされた縮小画像(サムネイル)に対応するフィルタ画像に基づいてパラメータ分析(すなわち特徴量の算出)を行い、分析結果を加工情報としてステップS50へ進む。   The program execution unit 31 treats an image corresponding to the reduced image (thumbnail) dragged to the empty icon f as a filter image. In step S40, the program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the filter image corresponding to the dragged reduced image (thumbnail), and proceeds to step S50 with the analysis result as processing information.

プログラム実行部31は、ステップS50において、加工情報に対応するフィルタアイコンfをフィルタ表示部bに表示させてステップS60へ進む。ステップS60において、プログラム実行部31は、フィルタ表示部bの中でフィルタアイコンfに縮小画像(サムネイル)がドラッグされたか否かを判定する。プログラム実行部31は、縮小画像(サムネイル)がドラッグされた場合にステップS60を肯定判定してステップS65へ進み、縮小画像(サムネイル)がドラッグされない場合には、ステップS60を否定判定してステップS90へ進む。   In step S50, the program execution unit 31 causes the filter display unit b to display the filter icon f corresponding to the processing information, and proceeds to step S60. In step S60, the program execution unit 31 determines whether the reduced image (thumbnail) is dragged to the filter icon f in the filter display unit b. The program execution unit 31 makes an affirmative decision in step S60 if the reduced image (thumbnail) is dragged and proceeds to step S65, whereas if the reduced image (thumbnail) is not dragged, the program execution unit 31 makes a negative determination in step S60 to perform step S90. Go to

プログラム実行部31は、フィルタアイコンfにドラッグされた縮小画像(サムネイル)に対応する画像を加工対象画像として扱う。ステップS65において、プログラム実行部31は、ドラッグされた縮小画像(サムネイル)に対応する加工対象画像に基づいてパラメータ分析(すなわち特徴量の算出)を行い、ステップS70へ進む。ステップS70において、プログラム実行部31は、加工対象画像とフィルタ画像との間でパラメータの特徴を近似させるように加工対象画像に対して画像加工を行う。   The program execution unit 31 treats an image corresponding to the reduced image (thumbnail) dragged to the filter icon f as a processing target image. In step S65, the program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the processing target image corresponding to the dragged reduced image (thumbnail), and the process proceeds to step S70. In step S70, the program execution unit 31 performs image processing on the processing target image so as to approximate the feature of the parameter between the processing target image and the filter image.

ステップS80において、プログラム実行部31は、加工後の画像を保存するとともに、その縮小画像(サムネイル)を一覧表示部cに表示させてステップS90へ進む。ステップS90において、プログラム実行部31は、終了か否かを判定する。プログラム実行部31は、終了操作が行われた場合にステップS90を肯定判定して図21による処理を終了する。プログラム実行部31は、終了操作が行われない場合はステップS90を否定判定してステップS20へ戻る。ステップS20へ戻る場合は、上述した処理を繰り返す。   In step S80, the program execution unit 31 stores the image after processing and causes the list display unit c to display the reduced image (thumbnail), and the process proceeds to step S90. In step S90, the program execution unit 31 determines whether or not the process ends. When the end operation is performed, the program execution unit 31 makes an affirmative decision in step S90 to end the processing of FIG. When the end operation is not performed, the program execution unit 31 makes a negative decision in step S90 and returns to step S20. When returning to step S20, the above-described process is repeated.

以上説明した「画像サンプルを選んで加工設定を行う」実施形態によれば、次の作用効果が得られる。
(1)フィルタ画像および加工対象画像のパラメータの特徴量をそれぞれ解析する解析処理(S40、S65)と、加工対象画像についての特徴量をフィルタ画像についての特徴量へ近づけるように、加工対象画像に対するパラメータを補正する加工情報補正処理(S70)と、補正後のパラメータに基づいて、加工対象画像に対して加工を行う画像加工処理(S70)と、をプログラム実行部31に実行させるようにした。これにより、画像加工処理のための操作が簡単なユーザインターフェイスを提供できる。すなわち、加工対象画像と、その加工後のお手本となるフィルタ画像とがあれば、画像加工に関する知識を持たないユーザであっても、簡単に自分の目標とする画像に近づけるような画像加工処理を行うことが可能となる。
According to the “select an image sample and perform processing setting” described above, the following effects can be obtained.
(1) Analysis processing (S40, S65) for analyzing the feature amounts of the parameters of the filter image and the processing target image, and the processing amount for the processing target image is brought closer to the feature amounts for the filter image. The program execution unit 31 causes the program execution unit 31 to execute processing information correction processing (S70) for correcting a parameter and image processing (S70) for processing a processing target image based on the parameter after correction. As a result, it is possible to provide a user interface that is easy to operate for image processing. That is, if there is an image to be processed and a filter image to be a model after the image processing, an image processing process is easily performed so that even a user who does not have knowledge about image processing approaches the image as his / her target. It will be possible to do.

(2)フィルタ画像に基づくサムネイル画像および加工対象画像に基づくサムネイル画像を表示部22にそれぞれ表示させる表示処理(S20)を実行させ、解析処理(S40、S65)は、それぞれサムネイルが表示部22のフィルタ表示部bに表示される場合に、サムネイルに対応するフィルタ画像またはサムネイルに対応する加工対象画像のパラメータの特徴量を解析するようにした。例えば、表示画面上のフィルタ表示部bへサムネイル画像をドラッグ操作するだけで特徴量の解析を開始するので、画像加工処理のための操作が簡単なユーザインターフェイスを提供できる。 (2) Display processing (S20) for displaying the thumbnail image based on the filter image and the thumbnail image based on the processing target image on the display unit 22 respectively, and the analysis processing (S40 and S65) When displayed on the filter display unit b, the feature amount of the parameter of the processing target image corresponding to the filter image corresponding to the thumbnail or the thumbnail is analyzed. For example, since analysis of the feature amount is started only by dragging the thumbnail image to the filter display unit b on the display screen, it is possible to provide a user interface with a simple operation for image processing.

(3)解析処理(S40、S65)は、画像のパラメータごとに特徴量を解析し、加工情報補正処理(S50)は、複数のパラメータごとに加工対象画像に対するパラメータを補正するようにした。これにより、複数の画像加工のそれぞれで、手本となる画像に近づけるような画像加工処理を行える。 (3) The analysis processing (S40, S65) analyzes the feature amount for each parameter of the image, and the processing information correction processing (S50) corrects the parameter for the processing target image for each of a plurality of parameters. In this way, it is possible to perform an image processing process close to an example image in each of the plurality of image processes.

(4)加工情報補正処理(S50)は、複数の画像加工のパラメータのうち指示されたパラメータに対応させてパラメータを補正するので、複数の画像加工のうち必要な画像加工のみについて、手本となる画像に近づけるような画像加工処理を行える。 (4) The processing information correction process (S50) corrects the parameter in accordance with the instructed parameter among the plurality of image processing parameters. The image processing process can be performed to bring the image close to the image.

(5)フィルタ画像は複数存在し、表示処理(S20)は、複数のフィルタ画像に基づく複数のサムネイル画像を表示部22にそれぞれ表示させ、解析処理(S40、S65)は、複数のサムネイル画像が表示部22のフィルタ表示部bに表示されると、対応する複数のフィルタ画像それぞれのパラメータの特徴量を解析し、加工情報補正処理(S50)は、加工対象画像についての特徴量を、複数のフィルタ画像におけるそれぞれの特徴量へ近づけるように、加工対象画像に対する複数通りのパラメータ補正を行い、画像加工処理(S70)は、複数通りのパラメータ補正に基づいて、加工対象画像に対して複数通りの加工処理を行う。これにより、手本となる画像が複数ある場合に、それぞれの手本画像に近づけるような画像加工処理を行える。 (5) A plurality of filter images exist, and the display process (S20) causes the display unit 22 to display a plurality of thumbnail images based on the plurality of filter images, and the analysis process (S40, S65) has a plurality of thumbnail images When displayed on the filter display unit b of the display unit 22, the feature quantities of the parameters of the corresponding plurality of filter images are analyzed, and the processing information correction process (S50) is performed by comparing the feature quantities for the processing target image A plurality of parameter corrections are performed on the processing target image so as to approach respective feature amounts in the filter image, and the image processing (S70) is performed on the processing target image in a plurality of ways based on the plurality of parameter corrections. Perform processing. Thereby, when there are a plurality of images as models, image processing can be performed so as to be close to the respective model images.

(6)加工対象画像は複数存在し、表示処理(S20)は、複数の加工対象画像に基づく複数のサムネイル画像を表示部22にそれぞれ表示させ、解析処理(S40、S65)は、複数のサムネイル画像が表示部22のフィルタ表示部bに表示されると、対応する複数の加工対象画像それぞれの特徴量を解析し、加工情報補正処理(S50)は、複数の加工対象画像についての特徴量を、フィルタ画像における特徴量へそれぞれ近づけるように、複数の加工対象画像に対するパラメータ補正をそれぞれ行い、画像加工処理(S70)は、複数のパラメータ補正に基づいて、複数の加工対象画像に対してそれぞれ加工処理を行う。これにより、加工対象画像が複数ある場合に、それぞれを手本画像に近づけるような画像加工処理を行える。 (6) There are a plurality of processing target images, and the display processing (S20) causes the display unit 22 to display a plurality of thumbnail images based on the plurality of processing target images, and the analysis processing (S40 and S65) includes a plurality of thumbnails. When the image is displayed on the filter display unit b of the display unit 22, the feature amounts of the corresponding plurality of processing target images are analyzed, and the processing information correction process (S50) is performed on the feature amounts of the plurality of processing target images. The parameter correction is performed on the plurality of processing target images so that the feature amounts in the filter image are respectively approached, and the image processing (S70) is performed on the plurality of processing target images based on the plurality of parameter corrections. Do the processing. As a result, when there are a plurality of processing target images, it is possible to perform image processing so as to make each of them approach a model image.

<直感メニューを開いて加工設定を行う場合>
「直感メニューを開いて加工設定を行う」が選ばれた場合にプログラム実行部31が実行する画像加工の進め方を説明する。「直感メニューを開いて加工設定を行う」場合は、先ず、ユーザに加工の目的を選んでもらう。このため、加工の目的を直感的でわかりやすい表現で提示する。例えば、後述のように、「明るさを変える」「色を変える」「くっきりさせる」「サイズを変える」「ノイズをとる」「タイムトラベル」といったように、加工の目的を直感的でわかりやすい表現で提示する。次に、プログラム実行部31が、選ばれた項目(加工目的)に応じて、実際に施す画像処理の各種調整項目をサブメニューとして提示し、ユーザに選んでもらう。そして、プログラム実行部31は、選ばれた調整項目ついて、パラメータ調整用スケールとスライダを表示し、ユーザ操作を受け付ける。プログラム実行部31は、画像加工の対象とする画像に対し、ユーザ操作に基づくパラメータを用いて画像加工処理を行う。
<When setting up the intuition menu and making processing settings>
A description will be given of how to proceed with image processing to be executed by the program execution unit 31 when “open intuition menu and perform processing setting” is selected. In the case of "open the intuition menu and perform processing setting", first, the user is asked to select the processing purpose. Therefore, the purpose of processing is presented in an intuitive and easy-to-understand manner. For example, as described later, the purpose of processing is intuitive and easy to understand, such as "change the brightness", "change the color", "make it sharp", "change the size", "take noise" and "time travel" To present. Next, the program execution unit 31 presents various adjustment items of image processing to be actually applied as sub-menus according to the selected item (processing purpose), and has the user select one. Then, the program execution unit 31 displays the parameter adjustment scale and the slider for the selected adjustment item, and receives the user operation. The program execution unit 31 performs an image processing process on an image to be subjected to image processing using parameters based on a user operation.

<ユーザインターフェイスの説明>
画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図22は、「直感メニューを開いて加工設定を行う」場合において、画像処理プログラムの起動時にプログラム実行部31が表示部22に表示させる初期画面を例示する図である。図22において、表示画面は、加工対象画像に対応する縮小画像51と、処理項目ウィンドウ52とを表示する。ここで、縮小画像51および処理項目ウィンドウ52の大きさ(表示エリア)は、ユーザ操作によって適宜変更可能に構成される。表示エリア等の大きさの変更は、例えば、指や、マウス、スタイラスペン等のポインティングデバイスを用いたユーザ操作によって変更される。
<Description of user interface>
A specific user interface by the image processing program will be described by exemplifying a display screen displayed on the display unit 22 of the display / input unit 20. FIG. 22 is a view exemplifying an initial screen displayed by the program execution unit 31 on the display unit 22 at the start of the image processing program in the case of “open intuition menu and perform processing setting”. In FIG. 22, the display screen displays the reduced image 51 corresponding to the processing target image and the processing item window 52. Here, the sizes (display areas) of the reduced image 51 and the processing item window 52 can be appropriately changed by the user operation. The change of the size of the display area or the like is changed by, for example, a user operation using a pointing device such as a finger, a mouse, or a stylus pen.

<処理項目ウィンドウ>
処理項目ウィンドウ52は、画像加工の目的を直感的にわかりやすく提示するメインメニュー52Aと、メインメニュー52Aにおいて選択されている項目に対応するサブメニュー52Bとで構成される。メインメニュー52Aには、画像に対してどのような目的の加工を行うかを分類する言葉が表示される。例えば、「明るさを変える」、「色を変える」、「くっきりさせる」、「サイズを変える」、…のように、加工目的によって項目が分けられる。
<Processing Item Window>
The processing item window 52 is composed of a main menu 52A for presenting the purpose of image processing in an intuitive and easy-to-understand manner, and a sub-menu 52B corresponding to the item selected in the main menu 52A. In the main menu 52A, words for classifying what purpose processing is to be performed on the image are displayed. For example, items can be divided according to the processing purpose, such as "change brightness", "change color", "make it sharp", "change size", and so on.

サブメニュー52Bには、メインメニュー52Aにおいて選択されている項目(加工目的)に対応する画像加工の調整項目が表示される。例えば、画像の「明るさを変える」場合には、「露出補正」、「ヒストグラム補正」、「トーンカーブ補正」など、「明るさを変える」場合において一般に用いられる調整項目が自動的に並べて表示される。   The submenu 52B displays adjustment items of image processing corresponding to the item (processing purpose) selected in the main menu 52A. For example, in the case of "change the brightness" of an image, adjustment items generally used in the case of "change the brightness" such as "exposure correction", "histogram correction", "tone curve correction", etc. are automatically arranged and displayed Be done.

プログラム実行部31は、メインメニュー52Aにおいて項目がタップ操作された項目を選択する。プログラム実行部31は、選択項目が変わると、処理項目ウィンドウ52におけるサブメニュー52Bの項目を入れ替えて表示させる図37(a)は、「色を変える」に対応するサブメニュー52Bを含む処理項目ウィンドウ52を例示する図である図37(b)は、「くっきりさせる」に対応するサブメニュー52Bを含む処理項目ウィンドウ52を例示する図である。   Program execution unit 31 selects an item for which an item has been tapped in main menu 52A. The program execution unit 31 switches and displays the items of the sub-menu 52B in the process item window 52 when the selection item changes. FIG. 37A shows a process item window including the sub-menu 52B corresponding to “change color”. FIG. 37B, which is a diagram illustrating 52, is a diagram illustrating the process item window 52 including the sub-menu 52B corresponding to "make it sharp".

プログラム実行部31は、サブメニュー52Bにおいてタップ操作された調整項目を選択する。プログラム実行部31は、選択した調整項目に対応するパラメータ調整用スケールとスライダを表示するウィンドウ53を表示部22に表示させる。図24は、「コントラスト補正」の場合のパラメータ調整用スケールとスライダを表示するウィンドウ53を例示する図である。パラメータ調整は、パラメータ調整用スケールとスライダを用いて行ってもよいし、パラメータを増減させる操作ができるものであれば何でもよい。例えば、調整値を直接入力してもよい。   Program execution unit 31 selects the adjustment item tapped on sub-menu 52B. The program execution unit 31 causes the display unit 22 to display a window 53 that displays the parameter adjustment scale and the slider corresponding to the selected adjustment item. FIG. 24 is a view exemplifying the window 53 displaying the parameter adjustment scale and the slider in the case of “contrast correction”. The parameter adjustment may be performed using a parameter adjustment scale and a slider, or anything that can be operated to increase or decrease the parameter. For example, the adjustment value may be directly input.

プログラム実行部31は、ユーザによってノブ53aの位置が変更操作され、「OK」ボタン53bがタップ操作されると、ノブ53aの位置に応じて対応するパラメータを増減させる。これにより、プログラム実行部31は、加工対象画像に対して上記パラメータ増減を反映させた画像加工を施し、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31はさらに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させる。   When the user changes the position of the knob 53a and taps the "OK" button 53b, the program execution unit 31 increases or decreases the corresponding parameter according to the position of the knob 53a. Thereby, the program execution unit 31 performs image processing in which the above parameter increase or decrease is reflected on the processing target image, and the same memory area as the memory area where the image before processing is stored or the user Save to the memory area specified by the operation. The program execution unit 31 further replaces the reduced image 51 with a reduced image corresponding to the processed image and displays the reduced image.

<効果分類ウィンドウ>
図25は、画像加工後の表示部22の表示画面を例示する図である。プログラム実行部31は、ある調整項目について画像加工した際に、その加工が画像に対してどのような効果をもたらすのかをグループに分類し、効果分類ウィンドウ55として表示させる。効果分類ウィンドウ55を表示させることにより、ユーザにとって、加工が画像に対してどんな影響を与えているのかをイメージしやすくする。
<Effect classification window>
FIG. 25 is a view exemplifying the display screen of the display unit 22 after image processing. The program execution unit 31 classifies an effect of the processing on an image when the image processing is performed on a certain adjustment item into a group, and displays the result as an effect classification window 55. By displaying the effect classification window 55, it is easy for the user to imagine what influence the processing has on the image.

効果分類ウィンドウ55における効果の分類は、画像加工について専門的な知識をもっていないユーザにも分かりやすくするため、「くっきりさせる」、「はなやかにする」、「落ち着いた」、「色を変える」などといった、具体的な効果をイメージしやすいものとする。そして、効果に対応させて、ウィンドウ53からパラメータを変更した調整項目を表示させる。図25によれば、画像加工によって「くっきりさせる」および「色を変える」効果が得られたことが示されている。また、「くっきりさせる」効果に寄与したのは、「コントラスト強調」、「輪郭強調」、および「ヒストグラム補正」のパラメータ調整であることが示されている。   The classification of the effects in the effect classification window 55 is "sharp", "make it soft", "calm", "change the color", etc., in order to make it easy for even a user who does not have specialized knowledge about image processing to understand. Make it easy to imagine specific effects. Then, the adjustment item whose parameter has been changed is displayed from the window 53 in accordance with the effect. According to FIG. 25, it is shown that “sharp” and “change color” effects are obtained by image processing. Also, it is shown that the parameter adjustment of "contrast enhancement", "edge enhancement", and "histogram correction" contributed to the "sharp" effect.

<異なるグループに表示する>
プログラム実行部31は、パラメータを変更した調整項目が同じ場合であっても、その効果が異なる場合は別のグループに分類する。例えば、「露出補正」のパラメータ調整をプラス方向へ行った場合は、効果として「はなやかにする」に分類し、「露出補正」のパラメータ調整が「はなやかにする」効果に寄与したことを示す。これとは逆に、「露出補正」のパラメータ調整をマイナス方向へ行った場合は、効果として「落ち着いた」に分類し、「露出補正」のパラメータ調整が「落ちついた」という効果に寄与したことを示す。「露出補正」のパラメータ調整をプラス方向へ行った場合と、「露出補正」のパラメータ調整をマイナス方向へ行った場合とを区別するために、異なるグループ間(例えば「はなやかにする」と「落ち着いた」)で「露出補正」のパラメータ調整をプラス方向あるいはマイナスの方向どちらへ行ったかを文字や記号等を用いて表示してもよい。
<Display in different groups>
Even when the adjustment items whose parameters have been changed are the same, the program execution unit 31 classifies the items into different groups if the effects are different. For example, when the parameter adjustment of “exposure correction” is performed in the positive direction, it is classified as “make it soft” as an effect, and indicates that the parameter adjustment of “exposure correction” contributes to the “make it soft” effect. Conversely, when the parameter adjustment of "exposure compensation" was performed in the negative direction, it was classified as "settled" as an effect, and the parameter adjustment of "exposure compensation" contributed to the effect of "settled up" Indicates In order to distinguish between the case where the parameter adjustment of “exposure compensation” is performed in the positive direction and the case where the parameter adjustment of “exposure compensation” is performed in the negative direction, different groups (for example, “make soft” and “settled” It is also possible to display whether the parameter adjustment of “exposure compensation” has been performed in the plus direction or the minus direction by using characters or symbols.

<異なる名称(呼び名)で表示する>
プログラム実行部31はさらに、効果分類ウィンドウ55において分類する効果の名称を、加工対象画像に応じて変化させる。例えば、「色を変える」における「色」を、加工対象画像がポートレート撮影画像の場合や風景撮影画像の場合に変化させる。具体的には、人物が主要被写体である可能性が高いポートレート撮影画像の場合、「色」を「人肌の印象」と置き換え、「人肌の印象を変える」という効果の名称にする。また、風景が主要被写体である可能性が高い風景撮影画像の場合、「色」を「光の色」と置き換え、「光の色を変える」という効果の名称にする。プログラム実行部31は、加工対象画像がポートレート撮影モードにおいて撮影されている場合にポートレート撮影画像と判定し、加工対象画像が風景撮影モードにおいて撮影されている場合に風景撮影画像と判定する。加工対象画像がどの撮影モードにおいて撮影されているかは、例えば、その画像のタグ情報に基づいて判別する。なお、プログラム実行部31は、加工対象画像の主要被写体を、撮影モードによって判定してもよいし、被写体認識(例えば、顔認識や物体認識)によって判定してもよい。
<Display with different name (nominal name)>
The program execution unit 31 further changes the name of the effect classified in the effect classification window 55 in accordance with the processing target image. For example, “color” in “change color” is changed when the processing target image is a portrait photographed image or a landscape photographed image. Specifically, in the case of a portrait photographed image in which a person is likely to be a main subject, “color” is replaced with “impression of human skin”, and the name of the effect “changes the impression of human skin” is used. Also, in the case of a scene-captured image in which the scene is likely to be the main subject, “color” is replaced with “color of light”, and the name of the effect “changes the color of light” is used. The program execution unit 31 determines that the processing target image is a portrait photographed image when photographed in the portrait photographing mode, and judges the landscape photographed image when the processing target image is photographed in the landscape photographing mode. In which imaging mode the image to be processed is captured, for example, it is determined based on the tag information of the image. Note that the program execution unit 31 may determine the main subject of the processing target image according to the shooting mode, or may determine the subject according to subject recognition (for example, face recognition or object recognition).

効果分類ウィンドウ55において分類する効果の名称を、加工対象画像に応じて変化させる代わりに、加工対象画像のタグ情報から推定されるユーザの(撮影や画像加工における)スキルに応じて変化させてもよい。プログラム実行部31は、例えば、加工対象画像がフルオートモードにおいて撮影されている場合に、そのユーザは初心者であると推定する。また、プログラム実行部31は、加工対象画像が風景撮影モードにおいて撮影されている場合であって、公知のシーン解析処理に基づいてその画像が風景と判断される場合や、加工対象画像がポートレート撮影モードにおいて撮影されている場合であって、公知の顔検出処理に基づいてその画像が人物の顔と判断される場合には、そのユーザは、初心者より画像加工に対する知識を持っている中級者であると推定する。プログラム実行部31はさらに、加工対象画像がマニュアルモードにおいて撮影されている場合であれば、そのユーザは、画像加工に対する専門的な知識を持っている上級者であると推定する。   Even if the name of the effect classified in the effect classification window 55 is changed according to the processing object image, it is also changed according to the user's skill (in shooting or image processing) estimated from tag information of the processing object image Good. For example, when the image to be processed is photographed in the full auto mode, the program execution unit 31 estimates that the user is a beginner. In addition, the program execution unit 31 is a case where the image to be processed is photographed in the landscape shooting mode, and the image is judged to be a landscape based on known scene analysis processing, or the image to be processed is a portrait If the image is determined to be the face of a person based on a known face detection process if the image is taken in the shooting mode, the user is an intermediate person who has knowledge of image processing from a beginner It is estimated that Furthermore, if the processing target image is captured in the manual mode, the program execution unit 31 estimates that the user is an advanced person who has expert knowledge of image processing.

そして、プログラム実行部31は、初心者ユーザであると推定した場合に分かりやすい名称を用いて必要最小限の項目のみを提示する。例えば、上述した「くっきりさせる」や「色を変える」や「明るさを変える」という効果の名称にする。これに対し、プログラム実行部31は、上級者とユーザであると推定した場合は画像処理分野で一般に用いられる用語を用いて提示する。例えば、「くっきりさせる」の代わりに「シャープにする」または「メリハリをつける」としたり、「色を変える」の代わりに「色相を変える」という効果の名称にしたりする。中級者ユーザであると推定した場合には、初心者向けの項目に対して使用頻度の高い項目を加えて提示するなど、ユーザのスキルに応じて表示を切り替えることで、使いやすい表示を提供できる。   Then, the program execution unit 31 presents only the minimum necessary items using an easy-to-understand name when it is estimated that the user is a beginner user. For example, the names of the effects such as “make it clear”, “change the color”, and “change the brightness” described above are used. On the other hand, when the program execution unit 31 estimates that the user is an advanced user, the program execution unit 31 uses commonly used terms in the image processing field. For example, instead of "make it sharp", "make it sharp" or "make sharp" or, instead of "change color", make the name of an effect "change hue". If it is estimated that the user is an intermediate user, it is possible to provide an easy-to-use display by switching the display according to the user's skill, such as adding a frequently used item to the item for beginners and presenting the item.

なお、効果分類ウィンドウ55における効果の分類は、処理項目ウィンドウ52における加工目的の分類と必ずしも一致させなくてもよい。また、分類の名称に使用する言葉は、効果分類ウィンドウ55と処理項目ウィンドウ52との間において同じであってもよいし、異なっていても構わない。   The classification of the effects in the effect classification window 55 may not necessarily coincide with the classification of the processing purpose in the processing item window 52. Further, the words used for the classification name may be the same or different between the effect classification window 55 and the processing item window 52.

例えば、当初処理項目ウィンドウ52のメインメニュー52Aにおいて加工目的「明るさを変える」を選び、サブメニュー52Bにおいて「露出補正」のパラメータ調整をプラス側へ行った場合、効果分類ウィンドウ55における効果として、例えば「明るくする」または「はなやかにする」と分類する。   For example, when the processing purpose “change brightness” is selected in the main menu 52A of the processing item window 52 and the parameter adjustment of “exposure correction” is performed in the sub menu 52B to the positive side, as an effect in the effect classification window 55, For example, it is classified as "brighten" or "brighten".

一方、ポートレート撮影画像を対象に、処理項目ウィンドウ52のメインメニュー52Aにおいて「人肌の印象を変える」を選び、サブメニュー52Bにおいて「色相補正」のパラメータ調整を行った場合は、効果分類ウィンドウ55における効果として、処理項目ウィンドウ52の場合と同じ「人肌の印象を変える」と分類する。   On the other hand, when selecting “Change the impression of human skin” in the main menu 52A of the processing item window 52 for the portrait photographed image and performing “Hue correction” parameter adjustment in the sub menu 52B, the effect classification window As an effect at 55, it is classified as "change the impression of human skin" as in the case of the processing item window 52.

以上説明したように、ある調整項目についてパラメータ調整を行った場合に、その調整項目が画像加工においてどのような効果として寄与しているかを提示することにより、ユーザに対し、パラメータ調整によって得られる結果(効果)をわかりやすく知らせることができる。さらに、効果を得るために行った調整項目について、ユーザにわかりやすく知らせることができる。これにより、ユーザによる無駄なパラメータ調整を防ぐことが可能となる。   As described above, when a parameter adjustment is performed on a certain adjustment item, the result obtained by the parameter adjustment can be provided to the user by presenting what kind of effect the adjustment item contributes to image processing. (Effects) can be notified in an easy-to-understand manner. Furthermore, the user can be informed in an easy-to-understand manner about the adjustment items made to obtain the effect. This makes it possible to prevent unnecessary parameter adjustment by the user.

プログラム実行部31は、ある調整項目についてパラメータ調整が行われた場合に、そのパラメータ調整と典型的に組み合わされる他の処理を提示することで、ユーザ操作をサポートする。具体的には、効果として「くっきりさせる」、および「はなやかにする」ためにパラメータ調整が複数項目(例えばコントラスト強調と彩度強調)行われた場合や、効果として「明るくする」ためのパラメータ調整(例えば輪郭強調、露出補正など)がプラス方向へ所定値以上行われた場合において、ノイズリダクション処理を提示する。   When parameter adjustment is performed on a certain adjustment item, the program execution unit 31 supports user operation by presenting another process that is typically combined with the parameter adjustment. Specifically, when a plurality of items of parameter adjustment (for example, contrast enhancement and saturation enhancement) are performed to make the effect “sharp” and “make it soft”, or the parameter adjustment to “brighten” as the effect A noise reduction process is presented when (e.g., edge enhancement, exposure correction, etc.) is performed in a plus direction by a predetermined value or more.

プログラム実行部31は、図26に例示するポップアップウィンドウ56を表示部22に表示させることにより、ユーザにノイズリダクション処理を提案する。一般に、「くっきりさせる」効果や「明るくする」効果を得るための画像加工はノイズの増加を招く要因となりやすい。このため、ノイズ増加を招きやすい画像加工と典型的に組み合わされる他の処理(本例ではノイズリダクション処理)をポップアップ提示することで、最終的にバランスが取れた画像加工を行えるように、ユーザをサポートできる。   The program execution unit 31 proposes a noise reduction process to the user by causing the display unit 22 to display the pop-up window 56 illustrated in FIG. In general, image processing for obtaining a "sharp" effect and a "bright" effect tends to cause an increase in noise. For this reason, pop-up presentation of other processing (in this example, noise reduction processing) that is typically combined with image processing that is likely to cause an increase in noise allows the user to perform finally balanced image processing. It can support.

<フローチャートの説明>
「直感メニューを開いて加工設定を行う」場合にプログラム実行部31が実行する処理の流れについて、図27〜図29に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「直感メニューを開いて加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図27による処理を開始させる。
<Description of flowchart>
A flow of processing executed by the program execution unit 31 in the case of “open intuition menu and perform processing setting” will be described with reference to the flowcharts illustrated in FIGS. The program execution unit 31 starts the process in FIG. 27 when the “OK” button 26 is tapped while “open intuitive menu and perform processing setting” is checked on the setting screen in FIG.

図27のステップS101において、プログラム実行部31は、加工対象画像を読み込んでステップS102へ進む。ステップS102において、プログラム実行部31は、加工対象画像に関連づけられているタグ情報を取得してステップS103へ進む。ステップS103において、プログラム実行部31は、加工対象画像に対する画像解析を行ってステップS104へ進む。画像解析は、上記シーン解析および顔検出を含む。   In step S101 of FIG. 27, the program execution unit 31 reads an image to be processed and proceeds to step S102. In step S102, the program execution unit 31 acquires tag information associated with the image to be processed, and proceeds to step S103. In step S103, the program execution unit 31 performs image analysis on the processing target image, and proceeds to step S104. Image analysis includes the above scene analysis and face detection.

ステップS104において、プログラム実行部31は、画像解析結果やタグ情報に基づいて、上記効果分類ウィンドウ55における分類方法(例えば、「くっきりさせる」、「はなやかにする」、「落ち着いた」、「色を変える」、…など平易な言葉で表す)を決定してステップS105へ進む。   In step S104, the program execution unit 31 classifies the effect classification window 55 based on the image analysis result and the tag information (for example, “make it clear”, “make it soft”, “calm”, “color”). Change in plain language, etc.) and so on, and the process proceeds to step S105.

ステップS105において、プログラム実行部31は、ユーザ操作に基づくパラメータを用いて、上述したように選ばれた調整項目について画像加工処理を行ってステップS106へ進む。ステップS106において、プログラム実行部31は、画像加工処理が終了か否かを判定する。プログラム実行部31は、処理項目ウィンドウ52において他の調整項目が選ばれた場合にステップS106を否定判定してステップS105へ戻る。プログラム実行部31は、処理項目ウィンドウ52において他の調整項目が選ばれない場合には、ステップS106を肯定判定してステップS107へ進む。   In step S105, the program execution unit 31 performs an image processing process on the adjustment item selected as described above using the parameter based on the user operation, and proceeds to step S106. In step S106, the program execution unit 31 determines whether the image processing process has ended. When another adjustment item is selected in the process item window 52, the program execution unit 31 makes a negative decision in step S106 and returns to step S105. When no other adjustment item is selected in the process item window 52, the program execution unit 31 makes an affirmative determination in step S106 and proceeds to step S107.

ステップS107において、プログラム実行部31は、画像加工処理後の画像をメモリに保存または不図示のプリンタ装置で印刷するなどの終了処理を行って図27による処理を終了する。   In step S107, the program execution unit 31 performs an end process such as saving the image after the image processing process in the memory or printing with an unshown printer, and ends the process in FIG.

画像加工処理時にプログラム実行部31が実行する処理の流れについて、図28に例示するフローチャートを参照して説明する。図28のステップS201において、プログラム実行部31は、処理項目ウィンドウ52を表示部22に表示させて、加工目的および調整項目の選択操作を受け付けてステップS202へ進む。   The flow of processing executed by the program execution unit 31 at the time of image processing will be described with reference to the flowchart illustrated in FIG. In step S201 of FIG. 28, the program execution unit 31 causes the display unit 22 to display the processing item window 52, receives the selection operation of the processing purpose and the adjustment item, and proceeds to step S202.

ステップS202において、プログラム実行部31は、ユーザ操作に基づいて選ばれた調整項目について、上記パラメータ増減を反映させた画像加工処理を行ってステップS203へ進む。ステップS203において、プログラム実行部31は、加工後の画像をメモリに保存するとともに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させる。   In step S202, the program execution unit 31 performs an image processing process in which the increase and decrease of the parameter is reflected on the adjustment item selected based on the user operation, and the process proceeds to step S203. In step S203, the program execution unit 31 stores the processed image in the memory, and replaces the reduced image 51 with a reduced image corresponding to the processed image and displays the reduced image.

ステップS204において、プログラム実行部31は、効果分類表示をするか否かを判定する。プログラム実行部31は、効果分類ウィンドウ55を表示する場合にステップS204を肯定判定してステップS205へ進み、効果分類ウィンドウ55を表示しない場合には、ステップS204を否定判定して図28による処理を終了する。効果分類ウィンドウ55を表示する/しないの設定は、あらかじめ画像処理装置10の「設定」メニューの中で行われる。   In step S204, the program execution unit 31 determines whether or not effect classification display is to be performed. When displaying the effect classification window 55, the program execution unit 31 makes an affirmative decision in step S204 and proceeds to step S205. When the effect classification window 55 is not displayed, the program execution unit 31 makes a negative decision in step S204 and performs the process of FIG. finish. The setting of displaying / not displaying the effect classification window 55 is performed in advance in the “setting” menu of the image processing apparatus 10.

ステップS205において、プログラム実行部31は、図25に例示したように、効果分類ウィンドウ55を表示部22に表示させて図28による処理を終了する。   In step S205, the program execution unit 31 causes the display unit 22 to display the effect classification window 55 as illustrated in FIG. 25, and ends the processing in FIG.

効果分類表示処理時にプログラム実行部31が実行する処理の流れについて、図29に例示するフローチャートを参照して説明する。図29のステップS301において、プログラム実行部31は、ステップS104で決定した分類方法に基づいて、効果分類ウィンドウ55において分類する効果の名称を決定してステップS303へ進む。上述したように、効果の名称は、加工対象画像やユーザのスキルに応じて異ならせる。   A flow of processing executed by the program execution unit 31 at the time of effect classification display processing will be described with reference to the flowchart illustrated in FIG. In step S301 in FIG. 29, the program execution unit 31 determines the name of the effect to be classified in the effect classification window 55 based on the classification method determined in step S104, and proceeds to step S303. As described above, the name of the effect is made different depending on the processing target image and the skill of the user.

ステップS302において、プログラム実行部31は、分類した効果の名称の表示を指示してステップS303へ進む。ステップS03において、プログラム実行部31は、分類した果に対応する調整項目の表示を指示してステップS304へ進む。これにより、効果分類ウィンドウ55が表示される。   In step S302, the program execution unit 31 instructs display of the classified effect name and proceeds to step S303. In step S03, program execution unit 31 instructs display of the adjustment item corresponding to the classified result, and the process proceeds to step S304. Thereby, the effect classification window 55 is displayed.

ステップS304において、プログラム実行部31は、他の処理を提示するか否かを判定する。本実施形態では、上述したように、ある効果を得るために所定数以上の複数の調整項目においてパラメータが増減された場合、もしく所定の調整項目においてパラメータが所定値以上増減された場合に、加工による画質劣化を抑えるための処理を提示する。プログラム実行部31は、他の処理の提示が必要と判断した場合にステップS304を肯定判定してステップS305へ進み、他の処理の提示が不要と判断した場合には、ステップS304を否定判定して図29による処理を終了する。   In step S304, the program execution unit 31 determines whether to present another process. In the present embodiment, as described above, when a parameter is increased or decreased in a plurality of adjustment items of a predetermined number or more to obtain a certain effect, or in a predetermined adjustment item, the parameter is increased or decreased by a predetermined value or more. A process for suppressing image quality deterioration due to processing is presented. If program execution unit 31 determines that presentation of another process is necessary, program execution unit 31 makes an affirmative decision in step S304 and proceeds to step S305. If it is determined that presentation of another process is unnecessary, program execution unit 31 makes a negative decision in step S304. The process according to FIG. 29 ends.

ステップS305において、プログラム実行部31は、図26に例示したポップアップウィンドウ56を表示部22に表示させて、図29による処理を終了する。ポップアップアップウィンドウ56の例では、ユーザに対してノイズリダクション処理が提案される。   In step S305, the program execution unit 31 causes the display unit 22 to display the pop-up window 56 illustrated in FIG. 26, and ends the processing in FIG. In the pop-up window 56 example, noise reduction processing is proposed for the user.

なお、ステップS304の判定処理においては、ある効果を得るためにパラメータが増減された調整項目の数の他に、パラメータ増減量や画質劣化の副作用を含めた点数化を行い、この点数が所定の判定閾値を超えるか否かに基づいて他の処理を提示するか否かを判断するようにしてもよい。ここで、トーンカーブ補正の場合は、パラメータ増減量というよりも、γ曲線の最大の傾きが大きくなるほど点数を大きくする。   In the determination process of step S304, in addition to the number of adjustment items whose parameters have been increased or decreased to obtain a certain effect, the parameter increase / decrease amount and the side effect of image quality deterioration are performed, and this score is predetermined. Whether to present another process may be determined based on whether or not the determination threshold is exceeded. Here, in the case of tone curve correction, the score is increased as the maximum slope of the γ curve becomes larger, rather than the parameter increase / decrease amount.

また、ある効果(例えば「くっきりさせる」)に対して複数の調整項目(例えばコントラスト補正および輪郭強調)のパラメータ調整が行われた場合において、複数の調整項目の間で補正方向が同じ(どちらもくっきりさせる方向)である場合は双方の点数をプラスとし、補正方向が逆(一方がくっきりさせる方向で、他方が曖昧にする方向)である場合はぼかす方向の点数をマイナスとする。そして、「くっきりさせる」において合計点数が判定閾値を超える場合はノイズの増加が見込まれるため、ノイズリダクション処理を推奨する。   In addition, when parameter adjustment of a plurality of adjustment items (for example, contrast correction and edge enhancement) is performed for an effect (for example, "sharp"), the correction direction is the same among the plurality of adjustment items (both are In the case of the clear direction), both points are positive, and in the case where the correction direction is opposite (one direction is sharp and the other is ambiguous), the blur direction point is negative. Then, when the total score exceeds the determination threshold in “make it clear”, an increase in noise is expected, so the noise reduction process is recommended.

上述した処理項目ウィンドウ52の表示においても、効果分類ウィンドウ55の表示と同様に、加工対象画像のタグ情報に基づいて変化させてもよい。すなわち、初心者ユーザにはよりわかりやすい言葉を用い、上級者ユーザには専門的な言葉を用いて表示する。   Also in the display of the processing item window 52 described above, as in the display of the effect classification window 55, the display may be changed based on tag information of the processing target image. That is, it is displayed using a more comprehensible word for the novice user and using a specialized word for the advanced user.

以上説明した「直感メニューを開いて加工設定を行う」実施形態によれば、次の作用効果が得られる。
(1)画像の加工目的を表すメインメニュー52Aを表示する目的表示処理(S201)と、表示した情報のうち指示された情報に対応するサブメニュー52Bをさらに表示する加工表示処理(S201)と、表示した情報に対応するウィンドウ53をさらに表示する調整表示処理(S201)と、ウィンドウ53に対する変更操作に基づいて、加工対象画像に対して加工を行う画像加工処理(S202)と、をプログラム実行部31に実行させるようにした。これにより、画像処理のための操作がわかりやすいユーザインターフェイスを提供できる。
According to the “open intuition menu and perform processing setting” embodiment described above, the following effects can be obtained.
(1) A purpose display process (S201) for displaying a main menu 52A representing a process purpose of the image, and a process display process (S201) for further displaying a submenu 52B corresponding to the instructed information among the displayed information; The program execution unit performs adjustment display processing (S201) for further displaying the window 53 corresponding to the displayed information, and image processing (S202) for processing the processing target image based on the change operation on the window 53 I made it run on 31. This makes it possible to provide a user interface that makes it easy to understand the operation for image processing.

(2)加工対象画像のタグ情報を読み込む処理(S102)と、タグ情報に基づいて、目的表示処理で表示するメインメニュー52Aを平易な言葉に置き換える置換処理(S104)と、をプログラム実行部31に実行させるようにしたので、加工対象画像のタグ情報を使ってわかりやすいユーザインターフェイスを提供できる。 (2) The program execution unit 31 reads the tag information of the processing target image (S102), and replaces the main menu 52A displayed in the purpose display process with plain words based on the tag information (S104). Since it is made to execute, it is possible to provide an easy-to-understand user interface by using tag information of the image to be processed.

(3)タグ情報は、加工対象画像が撮影された撮影モードを示す情報を含み、置換処理(S104)は、撮影モードに基づいてメインメニュー52Aを平易な言葉に置き換えるようにしたので、加工対象画像の撮影モード情報を使ってわかりやすいユーザインターフェイスを提供できる。 (3) The tag information includes information indicating the shooting mode in which the processing target image is captured, and in the replacement process (S104), the main menu 52A is replaced with plain words based on the shooting mode. Image capture mode information can be used to provide an easy-to-understand user interface.

(4)画像加工処理において変更した加工のパラメータを、加工による効果を表す言葉で分類して効果分類ウィンドウ65を表示する効果表示処理(S302−S303)を、プログラム実行部31に実行させるようにしたので、画像処理の効果がわかりやすいユーザインターフェイスを提供できる。 (4) The program execution unit 31 is made to execute the effect display process (S302 to S303) of classifying the processing parameters changed in the image processing process with words representing the effect of the processing and displaying the effect classification window 65. Therefore, it is possible to provide a user interface that makes it easy to understand the effects of image processing.

(5)分類された加工のパラメータの数が所定数に達した場合、または分類されたパラメータにあらかじめ付されている点数の合計が所定点数に達した場合に、あらかじめ定めた所定の加工を勧める推奨表示処理(S305)を、プログラム実行部31に実行させるようにしたので、必要な加工がわかりやすいユーザインターフェイスを提供できる。 (5) If the number of classified processing parameters reaches a predetermined number, or if the total number of points given in advance to the classified parameters reaches a predetermined number, a predetermined predetermined processing is recommended. Since the program display unit 31 is made to execute the recommendation display process (S305), it is possible to provide a user interface in which necessary processing can be easily understood.

<ユーザ別メニューを開いて加工設定を行う場合>
「ユーザ別メニューを開いて加工設定を行う」が選ばれた場合にプログラム実行部31が実行する画像加工の進め方を説明する。「ユーザ別メニューを開いて加工設定を行う」場合は、先ず、ユーザにログイン操作をしてもらう。ユーザごとの使用履歴に基づくユーザ別メニューによって加工処理内容を提示するためである。次に、プログラム実行部31は、ユーザによるメニュー選択操作に応じて、実際に施す画像処理の各種調整項目をサブメニューとして提示し、ユーザに選んでもらう。そして、プログラム実行部31は、選ばれた調整項目ついて、パラメータ調整用スケールとスライダを表示し、ユーザ操作を受け付ける。プログラム実行部31は、画像加工の対象とする画像に対し、ユーザ操作に基づくパラメータを用いて画像加工処理を行う。
<When opening the menu for each user and making processing settings>
A description will be given of how to proceed with image processing to be executed by the program execution unit 31 when “Open the menu for each user and perform processing setting” is selected. In the case of “open the menu for each user and perform processing setting”, first, the user is asked to perform a login operation. This is to present the processing content by the user-specific menu based on the usage history of each user. Next, the program execution unit 31 presents various adjustment items of the image processing to be actually applied as a sub-menu in response to the menu selection operation by the user, and has the user select it. Then, the program execution unit 31 displays the parameter adjustment scale and the slider for the selected adjustment item, and receives the user operation. The program execution unit 31 performs an image processing process on an image to be subjected to image processing using parameters based on a user operation.

<ユーザインターフェイスの説明>
画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図30は、「ユーザ別メニューを開いて加工設定を行う」場合において、プログラム実行部31が表示部22に表示させるユーザ別メニュー画面を例示する図である。図30において、表示画面は、加工対象画像に対応する縮小画像61と、ユーザ別メニュー62とを表示する。
<Description of user interface>
A specific user interface by the image processing program will be described by exemplifying a display screen displayed on the display unit 22 of the display / input unit 20. FIG. 30 is a view exemplifying a user-specific menu screen displayed by the program execution unit 31 on the display unit 22 in the case of “opening the user-specific menu and performing processing setting”. In FIG. 30, the display screen displays a reduced image 61 corresponding to the processing target image and a menu 62 classified by user.

ユーザ別メニューは、例えば「明るさを変える」、「色を変える」、「くっきりさせる」など加工内容を表示するメイン表示621と、メイン表示621に対応する調整項目を表示するサブ表示622〜624とで構成される。サブ表示の数は、メイン表示621に対して1つの場合、2つの場合、3つの場合、それ以上の場合もある。図30の例では、「明るさを変える」メイン表示621に対して3つのサブ表示622〜624を有し、「色を変える」メイン表示621に対して2つのサブ表示622〜623を有し、「くっきりさせる」メイン表示621に対して3つのサブ表示622〜624を有する。   The user-specific menu includes, for example, a main display 621 for displaying processing contents such as “change brightness”, “change color”, and “make it clear”, and sub displays 622 to 624 for displaying adjustment items corresponding to the main display 621. And consists of The number of sub-displays may be one, two, three or more for the main display 621. In the example of FIG. 30, there are three sub-displays 622 to 624 for the "change brightness" main display 621, and two sub-displays 622 to 623 for the "change color" main display 621. There are three sub-displays 622-624 for the “sharp” main display 621.

プログラム実行部31は、サブ表示622〜624のうちタップ操作された調整項目(例えばコントラスト補正)を選択する。プログラム実行部31は、図24の場合と同様に、選択した調整項目に対応するパラメータ調整用スケールとスライダを表示するウィンドウ53を表示部22に表示させる。プログラム実行部31は、ユーザによってノブ53aの位置が変更操作され、「OK」ボタン53bがタップ操作されると、ノブ53aの位置に応じて対応するパラメータを増減させる。これにより、プログラム実行部31は、加工対象画像に対して上記パラメータ増減を反映させた画像加工を施し、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31はさらに、縮小画像61を加工後の画像に対応する縮小画像に置き換えて表示させる。   The program execution unit 31 selects an adjustment item (for example, contrast correction) subjected to a tap operation among the sub-displays 622 to 624. As in the case of FIG. 24, the program execution unit 31 causes the display unit 22 to display a window 53 for displaying parameter adjustment scales and sliders corresponding to the selected adjustment item. When the user changes the position of the knob 53a and taps the "OK" button 53b, the program execution unit 31 increases or decreases the corresponding parameter according to the position of the knob 53a. Thereby, the program execution unit 31 performs image processing in which the above parameter increase or decrease is reflected on the processing target image, and the same memory area as the memory area where the image before processing is stored or the user Save to the memory area specified by the operation. The program execution unit 31 further replaces the reduced image 61 with a reduced image corresponding to the processed image and displays the reduced image.

<一般的な画面表示との比較>
図31は、画像処理装置として一般に用いられている表示画面を例示する図である。図31において、画面上部に上位階層表示73Aとして、プルダウンメニュー1〜プルダウンメニュー6が並べて表示されている。縮小画像71の隣には、下位階層表示73Bとしてプルダウンメニューに対応するメニュー1〜メニュー7が表示される。いずれかのプルダウンメニューがタップ操作された場合、対応する下位階層メニュー1〜メニュー7に表示が切り替わる。メニュー1〜メニュー7のそれぞれには、サブメニュー1〜サブメニュー6が設けられている。
<Comparison with general screen display>
FIG. 31 is a view exemplifying a display screen generally used as an image processing apparatus. In FIG. 31, pull-down menu 1 to pull-down menu 6 are displayed side by side as the upper hierarchy display 73A at the top of the screen. Next to the reduced image 71, menus 1 to 7 corresponding to the pull-down menu are displayed as the lower layer display 73B. When one of the pull-down menus is tapped, the display switches to the corresponding lower hierarchy menu 1 to menu 7. Sub menu 1 to sub menu 6 are provided for each of menu 1 to menu 7.

図31の例では、プルダウンメニュー3の下位階層メニュー1〜メニュー7が下位階層表示73Bとして表示される。ここで、表示部22の表示範囲に下位階層表示73Bの全てが収まらないので、下位階層表示73Bをスクロールするためのアイコン73Cが表示される。   In the example of FIG. 31, the lower hierarchy menus 1 to 7 of the pull-down menu 3 are displayed as the lower hierarchy display 73B. Here, since not all of the lower hierarchy display 73B can be accommodated in the display range of the display unit 22, an icon 73C for scrolling the lower hierarchy display 73B is displayed.

図31に例示した表示画面の場合、上位階層表示73Aと下位階層表示73Bの両方を表示するために表示部22の画面使用率が高まり、縮小画像71の表示範囲が狭くなりやすい。また、ユーザは、プルダウンメニュー→メニュー→サブメニューと決まった操作手順を繰り返し行う必要がある。すなわち、加工対象画像に対して異なる調整項目(サブメニュー)のパラメータ調整をするごとに、一旦上位階層表示73Aのプルダウンメニューへ戻って下位階層表示73Bを切り替えてから、再度サブメニュー操作を行う必要があった。   In the case of the display screen illustrated in FIG. 31, the screen use rate of the display unit 22 is increased to display both the upper hierarchy display 73A and the lower hierarchy display 73B, and the display range of the reduced image 71 is likely to narrow. In addition, the user is required to repeatedly perform an operation procedure determined as pull-down menu → menu → sub-menu. That is, every time the parameter adjustment of a different adjustment item (sub-menu) is performed on the image to be processed, it is necessary to once return to the pull-down menu of the upper hierarchy display 73A and switch the lower hierarchy display 73B and then perform the submenu operation again was there.

例えば、プルダウンメニューが6つに分けられ、1つのプルダウンメニューの下にメニューが7つ設けられ、各メニューにおいてそれぞれサブメニューが6つ設けられていると仮定すると、最大で6×7×6=252のサブメニューが存在する。毎回上位階層表示73Aのプルダウンメニューへ戻る操作は、252個のサブメニューを全て使う場合の手法としては有効であるが、極めて煩わしい。   For example, assuming that the pull-down menu is divided into six, seven menus are provided under one pull-down menu, and six submenus are provided in each menu, at most 6 × 7 × 6 = There are 252 submenus. The operation of returning to the pull-down menu of the upper hierarchy display 73A each time is effective as a method in the case of using all 252 sub menus, but it is extremely troublesome.

ところで、画像処理装置10のユーザの多くは、自身が好む画像へ加工するために、専ら特定の調整項目についてのみ画像加工を行うことが多い。すなわち、画像処理装置10が備える全てのサブメニュー(調整項目)が使用されることは極めて希で、毎回同じような加工目的(メニュー)で、同じ調整項目(サブメニュー)が選ばれる。発明者は、この点に着目している。   By the way, many users of the image processing apparatus 10 often perform image processing only on a specific adjustment item in order to process the image that the user prefers. That is, it is extremely rare that all the sub-menus (adjustment items) included in the image processing apparatus 10 are used, and the same adjustment item (sub-menu) is selected for the same processing purpose (menu) each time. The inventor pays attention to this point.

そこで、本実施形態のプログラム実行部31は、ユーザごとの使用履歴に基づいてユーザ別メニューを生成する。例えば、直近に使用されたサブメニューのうち使用頻度が高い(例えば10回以上使用)サブメニューをプルダウンメニュー別にまとめて、ユーザ別メニューを生成する。図32(c)は、従来例(図31)における252個のサブメニューから使用頻度の高いサブメニューを抽出し、プルダウンメニュー別に並べたユーザ別メニュー62Aを例示する図である。つまり、使用頻度が高い10個のサブメニューに表示を制限している。   Therefore, the program execution unit 31 of the present embodiment generates a menu for each user based on the usage history for each user. For example, among the most recently used submenus, the frequently used (for example, 10 or more) submenus are grouped by pull-down menu to generate a user-specific menu. FIG. 32C is a diagram illustrating a user-specific menu 62A in which frequently used submenus are extracted from 252 submenus in the conventional example (FIG. 31) and arranged by pull-down menu. That is, the display is limited to ten frequently used submenus.

図32(c)によれば、ユーザ別メニュー62Aは、使用頻度が高い10個のサブメニューを有しており、プルダウンメニューごとにまとめて表示されている。ユーザ別メニュー62Aは、通常、図32(a)のユーザ別メニュー画面において縮小画像61の隣に表示される。しかしながら、表示部22の表示範囲にユーザ別メニュー62Aの全てが収まらない場合、ユーザ別メニュー62A1とともに、ユーザ別メニュー62Aをスクロールするためのアイコン63が表示される。   According to FIG. 32C, the user-specific menu 62A has ten frequently used submenus, and is displayed together for each pull-down menu. The user-specific menu 62A is normally displayed next to the reduced image 61 on the user-specific menu screen of FIG. 32 (a). However, when all of the user-specific menus 62A do not fit within the display range of the display unit 22, an icon 63 for scrolling the user-specific menus 62A is displayed together with the user-specific menus 62A1.

図32(b)は、スクロールされたユーザ別メニュー62A2を表示するユーザ別メニュー画面を例示する図である。アイコン63は、ユーザ別メニュー62A2をスクロールするために設けられる。なお、図32(a)および図32(b)において、ユーザ別メニュー62Aのスクロールは、アイコン63に対するタップ操作の他に、スワイプ操作でも可能である。図30におけるユーザ別メニュー62は、図32(a)〜図32(c)のユーザ別メニュー62Aを、実際のプルダウンメニューの名称や調整項目の名称を用いて表したものに相当する。なお、プルダウンメニューの名称およびメインメニューの名称のうち一方の名称表示は、省略しても構わない。   FIG. 32B is a diagram illustrating a user-specific menu screen that displays the scrolled user-specific menu 62A2. The icon 63 is provided to scroll the user-specific menu 62A2. In FIGS. 32A and 32B, the user-specific menu 62A can be scrolled by a swipe operation in addition to the tap operation on the icon 63. The user-specific menu 62 in FIG. 30 corresponds to the user-specific menu 62A of FIGS. 32A to 32C expressed using the names of actual pull-down menus and the names of adjustment items. The display of one of the names of the pull-down menu and the main menu may be omitted.

<フローチャートの説明>
「ユーザ別メニューを開いて加工設定を行う」場合にプログラム実行部31が実行する処理の流れについて、図33〜図34に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「ユーザ別メニューを開いて加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図33による処理を開始させる。
<Description of flowchart>
The flow of the process executed by the program execution unit 31 in the case of “open the menu for each user and perform processing setting” will be described with reference to the flowcharts illustrated in FIGS. The program execution unit 31 starts the process shown in FIG. 33 when the “OK” button 26 is tapped in the state where “Open menu by user and perform processing setting” is checked on the setting screen of FIG. 3.

図33のステップS410において、プログラム実行部31は、表示部22にログイン画面を表示させてステップS420へ進む。ログイン情報に基づいてユーザを判別し、ログインユーザごとにメニューを使い分けるためである。プログラム実行部31は、ステップS420においてログイン操作を受け付ける。ユーザは、あらかじめ登録したユーザIDおよびパスワードを入力するか、新規登録を行う。   In step S410 in FIG. 33, the program execution unit 31 causes the display unit 22 to display a login screen, and proceeds to step S420. This is because the user is determined based on the login information, and the menu is used properly for each login user. Program execution unit 31 accepts a login operation in step S420. The user inputs a previously registered user ID and password or performs new registration.

ステップS430において、プログラム実行部31は登録情報の有無を判定する。プログラム実行部31は、不揮発性メモリ34にあらかじめ設けられているデータベースの中にログインユーザの情報が存在する場合は、ステップS430を肯定判定してステップS440へ進む。プログラム実行部31は、上記データベースにログインユーザの情報が存在しない場合は、ステップS430を否定判定してステップS510へ進む。   In step S430, the program execution unit 31 determines the presence or absence of registration information. When the information on the logged-in user is present in the database provided in advance in the non-volatile memory 34, the program execution unit 31 makes an affirmative decision in step S430 and proceeds to step S440. If there is no log-in user information in the above-mentioned database, the program execution unit 31 makes a negative decision in step S430 and proceeds to step S510.

ステップS440において、プログラム実行部31は、上記データベースからログインユーザの作業履歴情報を読み出してステップS450へ進む。ステップS450において、プログラム実行部31は、作業履歴情報に基づいてユーザ別メニュー62A(図32(c))を決定し、表示部22に表示させてステップS460へ進む(図32(a)、図32(b))。   In step S440, the program execution unit 31 reads the work history information of the logged-in user from the above-mentioned database, and proceeds to step S450. In step S450, the program execution unit 31 determines the user-specific menu 62A (FIG. 32 (c)) based on the work history information, causes the display unit 22 to display the menu 62A, and proceeds to step S460 (FIG. 32 (a), FIG. 32 (b).

ステップS460において、プログラム実行部31は、加工対象画像を読み込んでステップS470へ進む。ステップS470において、プログラム実行部31は、ユーザ別メニュー62Aの中からユーザによるタップ操作で選ばれた調整項目について画像加工処理を行ってステップS480へ進む。ステップS480において、プログラム実行部31は、画像加工処理が終了か否かを判定する。プログラム実行部31は、ユーザ別メニュー62Aにおいて他のサブメニュー(調整項目)が選ばれた場合にステップS480を否定判定してステップS470へ戻る。プログラム実行部31は、ユーザ別メニュー62Aにおいて他のサブメニュー(調整項目)が選ばれない場合には、ステップS480を肯定判定してステップS490へ進む。   In step S460, the program execution unit 31 reads an image to be processed and proceeds to step S470. In step S470, program execution unit 31 performs an image processing process on the adjustment item selected from the user-specific menu 62A by the user's tap operation, and proceeds to step S480. In step S480, the program execution unit 31 determines whether the image processing has been completed. If another submenu (adjustment item) is selected in user-specific menu 62A, program execution unit 31 makes a negative decision in step S480, and returns to step S470. If another sub-menu (adjustment item) is not selected in user-specific menu 62A, program execution unit 31 makes an affirmative decision in step S480 and proceeds to step S490.

ステップS490において、プログラム実行部31は、画像加工処理後の画像をメモリに保存または不図示のプリンタ装置で印刷するなどの終了処理を行ってステップS500へ進む。ステップS500において、プログラム実行部31は、画像処理加工処理において保存していた作業履歴情報をユーザ情報に加えるようにデータベースを更新し、図33による処理を終了する。データベースの更新については、最近の作業内容と過去の作業内容との間で履歴情報に重みを付けてもよい。また、データベースを更新した際に、その旨をメッセージで表示部22に表示させてもよい。   In step S 490, the program execution unit 31 performs end processing such as saving the image after image processing in a memory or printing with an unshown printer, and proceeds to step S 500. In step S500, the program execution unit 31 updates the database so as to add the work history information stored in the image processing process to the user information, and ends the process in FIG. For updating the database, history information may be weighted between recent work content and past work content. In addition, when the database is updated, a message to that effect may be displayed on the display unit 22.

上述したステップ430を否定判定して進むステップS510において、プログラム実行部31は、新規登録処理を行ってユーザ情報をデータベースに記録し、ステップS520へ進む。ステップS520において、プログラム実行部31は、登録されたユーザ情報(年齢、画像処理経験など)に応じて、対応するテンプレートメニュー(例えば初心者向けメニュー、中級者向けメニュー、上級者メニューとして、あらかじめメニュー数が異なる推奨メニューがデータベースに格納されている)をデータベースから読み出し、表示部22に表示させてステップS460へ進む。なお、プルダウンメニューの名称や調整項目の名称は、ユーザ層に応じて変更させてもよい。具体的には、上述した「直感メニューを開いて加工設定を行う」場合と同様に、初心者ユーザにはわかりやすい名称を用い、上級者ユーザには専門的な名称を用いてメニューを表示する。   In step S510, which proceeds with a negative determination in step 430 described above, the program execution unit 31 performs a new registration process, records user information in the database, and proceeds to step S520. In step S520, the program execution unit 31 selects the corresponding template menu (for example, a menu for beginners, a menu for intermediate users, and a menu for advanced users) according to the registered user information (age, experience in image processing, etc.). Is read from the database and displayed on the display unit 22 and the process proceeds to step S460. The name of the pull-down menu and the name of the adjustment item may be changed according to the user level. Specifically, similarly to the above-described “open intuition menu and perform processing setting”, a menu is displayed using a name easy to understand for a beginner user and using a professional name for an advanced user.

画像加工処理時にプログラム実行部31が実行する処理の流れについて、図34に例示するフローチャートを参照して説明する。図34のステップS471において、プログラム実行部31は、ユーザ別メニュー62Aにてサブメニュー(調整項目)の選択操作を受け付けてステップS472へ進む。   The flow of processing executed by the program execution unit 31 at the time of image processing will be described with reference to the flowchart illustrated in FIG. In step S471 in FIG. 34, program execution unit 31 accepts an operation for selecting a sub-menu (adjustment item) in user-specific menu 62A, and proceeds to step S472.

ステップS472において、プログラム実行部31は、ユーザ操作に基づいて選ばれたサブメニュー(調整項目)について、画像加工処理を行ってステップS473へ進む。ステップS473において、プログラム実行部31は、加工後の画像をメモリに保存するとともに、縮小画像61を加工後の画像に対応する縮小画像に置き換えて表示させる。ステップS474において、プログラム実行部31は、画像加工を行ったサブメニュー(調整項目)や対応するパラメータの調整量などを、作業履歴情報としてメモリに一時保存して図34による処理を終了する。作業履歴情報には、サブメニューやパラメータ調整量の他に、作業日や作業回数、画像カテゴリごとの作業手順などを含めてもよい。   In step S472, the program execution unit 31 performs an image processing process on the sub-menu (adjustment item) selected based on the user operation, and proceeds to step S473. In step S 473, the program execution unit 31 stores the processed image in the memory, and replaces the reduced image 61 with a reduced image corresponding to the processed image and displays the reduced image. In step S474, the program execution unit 31 temporarily stores the sub menu (adjustment item) subjected to the image processing, the adjustment amount of the corresponding parameter, and the like in the memory as work history information, and ends the processing in FIG. The work history information may include work days, the number of times of work, work procedures for each image category, and the like, in addition to the sub menu and the parameter adjustment amount.

上述したデータベースを更新するログアウト時において、ユーザ別メニュー62Aを更新する旨のメッセージを表示部22に表示させ、ユーザ操作による更新許可を求めてもよい。そのとき、更新前のユーザ別メニュー62Aと更新しようとするユーザ別メニュー62Aとの間で相違する点を点滅表示させるなどして、差分を明示的に知らせるようにしてもよい。   At the time of logout for updating the above-described database, a message may be displayed on the display unit 22 to update the user-specific menu 62A, and update permission by user operation may be requested. At this time, the difference may be explicitly notified by, for example, displaying a difference between the user-specific menu 62A before update and the user-specific menu 62A to be updated.

以上説明した「ユーザ別メニューを開いて加工設定を行う」実施形態によれば、次の作用効果が得られる。
(1)使用ユーザを判別するユーザ判別処理(S20)と、画像加工のための複数のメインメニュー52A、複数のメインメニュー52Aごとに分類される複数のサブメニュー52Bからなるメニュー体系の中から、使用されたサブメニュー52Bの履歴情報を使用ユーザごとに保存する保存処理(S500)と、保存処理(S500)によって保存されている使用ユーザの履歴情報に基づいて、メニュー体系から使用ユーザへ提示するサブメニュー52Bの数を制限する制限処理(S450)と、制限処理(S450)による制限後のサブメニュー62A、62Bを表示部22に表示させるメニュー表示処理(S450)と、プログラム実行部31実行させるようにした。これにより、ユーザにとって作業効率の良いユーザインターフェイスを提供できる。また、メニュー提示のための表示部22の画面使用率を抑えられるから、縮小画像61の表示範囲を広く確保できる。
According to the “open menu for each user and perform processing setting” described above, the following effects can be obtained.
(1) From a menu system including a user discrimination process (S20) for discriminating the user, a plurality of main menus 52A for image processing, and a plurality of submenus 52B classified into the plurality of main menus 52A, Based on the storage process (S500) for storing the history information of the used sub-menu 52B for each user, and based on the history information of the user used stored by the storage process (S500), the menu system is presented to the user Limit processing (S450) for limiting the number of submenus 52B, menu display processing (S450) for causing the display unit 22 to display the submenus 62A and 62B after limitation by the limitation processing (S450), and executing the program execution unit 31 I did it. As a result, it is possible to provide a user interface that is efficient for the user. In addition, since the screen usage rate of the display unit 22 for menu presentation can be suppressed, a wide display range of the reduced image 61 can be secured.

(2)制限処理(S450)は、メニュー体系に含まれるサブメニュー52Bのうち、使用ユーザによる直近の使用回数が所定数を超えるサブメニュー52Bを提示メニューとするようにしたので、使用頻度の低いサブメニューの表示を適切に抑えることができる。 (2) In the restriction process (S450), since the sub menu 52B of which the number of times of immediate use by the user exceeds the predetermined number among the sub menus 52B included in the menu system is the presentation menu, the frequency of use is low. The display of the sub menu can be appropriately suppressed.

(3)制限処理(S520)は、履歴情報を保存していない新規使用ユーザに対し、あらかじめ定めたテンプレートメニューを提示メニューとするようにした。例えば、メニュー体系から新規使用ユーザへ提示するメニューを制限したテンプレートメニューを設けておく場合に、新規使用ユーザにとって作業効率の良いユーザインターフェイスを提供できる。 (3) In the restriction process (S520), a template menu defined in advance is used as a presentation menu for a new user who has not stored history information. For example, when providing a template menu in which a menu presented from a menu system to a new user is limited, it is possible to provide a user interface having a good work efficiency for the new user.

(4)制限処理(S520)は、新規使用ユーザから登録される情報に応じて異なるサブメニュー数のテンプレートメニューを提示メニューとするので、新規使用ユーザの登録情報に応じたテンプレートメニューを提供できる。 (4) In the restriction process (S520), since the template menu having the number of submenus different according to the information registered by the newly used user is the presentation menu, it is possible to provide the template menu according to the registered information of the newly used user.

(変形例1)
上述した「直感メニューを開いて加工設定を行う」が選ばれた場合において、ある調整項目についてパラメータを増減させた画像加工が、その画像に対してどの程度の影響を与えているかを示す「影響度」を表示するようにしてもよい。「影響度」は、単純に加工処理によって画面全体の画素値がどの程度変化したかを示す積分値から求めることができる。また、各調整項目によって、例えば効果として「くっきりさせる」グループであれば、輝度レベルの変化量から求めることができる。さらにまた、効果として「色を変える」グループであれば、色相、彩度の変化量から求めることができる。そして、画面において、変化量が大きいほど画素を黒(または白)で表し、変化量が小さいほど画素を白(または黒)で表わすことにより、「影響度」をモノトーン画像で表すことができる。
(Modification 1)
When “Open intuition menu and perform processing setting” described above is selected, “Influence” indicates how much the image processing in which the parameter is increased or decreased for a certain adjustment item affects the image. "Degree" may be displayed. The “influence degree” can be obtained from an integral value indicating how much the pixel value of the entire screen has changed simply by processing. In addition, depending on each adjustment item, for example, in the case of a “sharp” group as an effect, it can be obtained from the change amount of the luminance level. Furthermore, if the group is "change color" as an effect, it can be obtained from the amount of change in hue and saturation. Then, on the screen, as the change amount is larger, the pixel is represented by black (or white), and as the change amount is smaller, the pixel is represented as white (or black), so that the “degree of influence” can be represented by a monotone image.

例えば、図35〜図37に例示する効果分類ウィンドウ55Bにおいて、ユーザが調整項目表示を選択する(タップまたはポイントする)と、プログラム実行部31が効果分類ウィンドウ55Bにおいて選択された調整項目における「影響度」をモノトーン画像で表示させる。ここで、図35〜図37は、図1において例示した表示画面の中でいわゆる「壁紙」として用いた画像を加工対象画像としている。図35によれば、「コントラスト強調」前後の差分画像が「影響度」として表示されるので、「コントラスト強調」が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   For example, when the user selects (taps or points) adjustment item display in the effect classification window 55B illustrated in FIG. 35 to FIG. 37, “influence in adjustment item selected by the program execution unit 31 in the effect classification window 55B "Degree" is displayed as a monotone image. Here, in FIGS. 35 to 37, an image used as a so-called “wallpaper” in the display screen illustrated in FIG. 1 is a processing target image. According to FIG. 35, since the difference image before and after “contrast enhancement” is displayed as “influence degree”, it is visually apparent to the user as to what part of the image “contrast enhancement” changes. To make it easy to understand.

図36によれば、「輪郭強調」前後の差分画像が「影響度」として表示されるので、「輪郭強調」が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   According to FIG. 36, since the difference image before and after "outline emphasis" is displayed as "influence degree", it is visually apparent to the user as to what part of the image "outline emphasis" gives change to To make it easy to understand.

図37によれば、「ホワイトバランス変更」前後の差分画像が「影響度」として表示されるので、「ホワイトバランス変更」が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   According to FIG. 37, since the difference image before and after the “white balance change” is displayed as the “influence degree”, to which degree of change the “white balance change” is given is given to the user It can be informed visually and intelligibly.

なお、図35〜図37に例示したように、「影響度」を示すモノトーン画像を効果分類ウィンドウ55Bに小さく表示する代わりに、縮小画像51と並べて大きく表示させてもよい。   As illustrated in FIGS. 35 to 37, instead of displaying the monotone image indicating “the degree of influence” small in the effect classification window 55B, it may be displayed large together with the reduced image 51.

変形例1によれば、分類されたパラメータによる加工の影響度を示す影響度表示をプログラム実行部31に実行させるようにしたので、そのパラメータに基づく画像加工が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   According to the first modification, the program execution unit 31 causes the program execution unit 31 to display the degree of influence indicating the degree of influence of the processing by the classified parameter, so that the image processing based on the parameter changes how much in which part of the image It is possible to visually inform the user in an easy-to-understand manner whether the user is giving.

(変形例2)
上述した「ユーザ別メニューを開いて加工設定を行う」が選ばれた場合において、ユーザ別メニュー62の他に、ユーザ別ウィンドウをユーザ別に設けて表示部22に表示させてもよい。ユーザ別ウィンドウには、例えばそのユーザによって取得された画像のサムネイル画像を一覧表示する。ユーザ別ウィンドウにサムネイル画像を一覧表示することで、ユーザは、サムネイル画像の一覧表示を見ながら加工対象画像の読み込み操作を行う(ステップS460)ことが可能になる。
(Modification 2)
When the above-described “open the user-specific menu and perform processing setting” is selected, a window for each user may be provided for each user and displayed on the display unit 22 in addition to the user-specific menu 62. In the window for each user, for example, thumbnail images of images acquired by the user are displayed in a list. By displaying the thumbnail images in the user-specific window in a list, the user can perform an operation of reading the processing target image while viewing the list display of thumbnail images (step S460).

(変形例3)
上述した「ユーザ別メニューを開いて加工設定を行う」が選ばれた場合において、ユーザ別メニュー62Aの一部を順番に表示させるようにしてもよい。図38は、変形例3におけるユーザ別メニューの表示画面を例示する図である。プログラム実行部31は、ユーザ別メニュー62Aの一部を使用頻度が高いものから順番に選び、選んだメニュー62A3をプルダウンメニュー別に表示部22に表示させる。
(Modification 3)
When the above-described “open the user-specific menu and perform processing setting” is selected, a part of the user-specific menu 62A may be displayed in order. FIG. 38 is a view exemplifying a display screen of the user-specific menu in the third modification. The program execution unit 31 sequentially selects a part of the user-specific menu 62A in descending order of frequency of use, and causes the display unit 22 to display the selected menu 62A3 separately for each pull-down menu.

プログラム実行部31は、表示部22で表示中のメニュー62A3の中からユーザによるタップ操作で選ばれた調整項目について画像加工処理を行う。プログラム実行部31は、画像加工処理を行うと、次の順番のメニュー62A3を表示部22に表示させる。なお、ユーザは、表示されているメニュー62A3に対応する画像加工をしないときは、表示中のメニュー62A3を画面外へスライドさせるようにスワイプ操作する。プログラム実行部31は、スワイプ操作された場合にも、次の順番のメニューを62A3表示部22に表示させる。   The program execution unit 31 performs an image processing process on an adjustment item selected from the menu 62A3 displayed on the display unit 22 by the user's tap operation. When the image processing process is performed, the program execution unit 31 causes the display unit 22 to display the menu 62A3 of the next order. When the user does not process the image corresponding to the displayed menu 62A3, the user swipes the menu 62A3 being displayed to slide it out of the screen. Even when the swipe operation is performed, the program execution unit 31 causes the 62A3 display unit 22 to display the next menu.

ユーザ別メニュー62Aの中に、画像加工用のサブメニューだけでなく、ファイル操作用のサブメニューや、印刷用のサブメニューを含めてもよい。例えば、画像ファイルを開くためのサブメニューを1番目とし、画像ファイルを閉じるためのサブメニューを最後とする。印刷用のサブメニューでは、出力先プリンタを選んだり、出力先プリンタに対する印刷設定を行ったりする。   The user-specific menu 62A may include not only a submenu for image processing but also a submenu for file operation and a submenu for printing. For example, a submenu for opening an image file is first, and a submenu for closing an image file is last. In the submenu for printing, an output destination printer is selected, and print settings for the output destination printer are made.

変形例3によれば、メニュー表示処理(S450)は、提示メニューを順番に切替えて表示部22に表示させるので、操作順を提示する操作ガイドとしても有効である。また、メニュー提示のための画面使用率を抑えられるから、縮小画像61の表示範囲を広く確保できる。   According to the third modification, the menu display process (S450) switches the presentation menu in order and causes the display unit 22 to display the menu, and thus is effective as an operation guide for presenting the operation order. In addition, since the screen usage rate for menu presentation can be suppressed, a wide display range of the reduced image 61 can be secured.

さらに、変形例3によれば、提示メニューをメインメニュー52Aごとに切替えて表示部22に表示させるので、関連性のあるサブメニューをまとめて提示できる。   Furthermore, according to the third modification, the presentation menu is switched for each main menu 52A and displayed on the display unit 22. Therefore, it is possible to collectively present sub menus having relevance.

(第二の実施形態)
第一の実施形態では、「画像サンプルを選んで加工設定を行う」が選ばれた場合において、プログラム実行部31が、フィルタ画像および加工対象画像のそれぞれについて、画像全体のパラメータ(画像全体に施されている画像処理の各種調整用パラメータや、撮影時の撮影用パラメータ)の特徴を分析し、フィルタ画像と加工対象画像との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工処理を行った。この代わりに、第二の実施形態では、画像の一部のパラメータの特徴を分析したり、加工対象画像の一部に対してパラメータの特徴を近似させるよう加工対象画像に対するパラメータを補正したりする構成とする。さらに、補正後のパラメータにより加工対象画像の一部、または全体に対して画像加工処理を行えるように構成する。
Second Embodiment
In the first embodiment, when “select an image sample and perform processing setting” is selected, the program execution unit 31 generates parameters for the entire image (applied to the entire image for each of the filter image and the processing target image). Analyze the characteristics of various adjustment parameters of image processing and the parameters for shooting at the time of shooting, and correct the parameters for the processing target image so as to approximate the features of the parameters between the filter image and the processing target image The image processing process was performed on the entire image to be processed according to the corrected parameters. Instead, in the second embodiment, features of parameters of a part of the image are analyzed, or parameters of the image to be processed are corrected to approximate the features of the parameter to a part of the image to be processed. Configure Further, the image processing process can be performed on a part or the whole of the processing target image according to the parameters after correction.

<ユーザインターフェイスの説明>
第二の実施形態において、「画像サンプルを選んで加工設定を行う」が選ばれた場合の画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図39は、「画像サンプルを選んで加工設定を行う」場合にプログラム実行部31が表示部22に表示させる初期画面を例示する図である。
<Description of user interface>
In the second embodiment, a display screen displayed on the display unit 22 of the display / input unit 20 for a specific user interface by the image processing program when “select an image sample and perform processing setting” is selected. Are illustrated and explained. FIG. 39 is a diagram exemplifying an initial screen displayed by the program execution unit 31 on the display unit 22 in the case of “select image sample and perform processing setting”.

図39において、表示画面は、加工前の画像に対応するサムネイル画像を一覧表示する一覧表示部aと、画像の一部領域を指定したり、加工結果を確認したりするための作業エリア表示部Bxと、フィルタ画像(加工の見本となる画像)を一覧表示するフィルタ一覧表示部Cxと、に分割される。ここで、一覧表示部a、作業エリア表示部Bx、およびフィルタ一覧表示部Cxの大きさ(表示エリア)は、ユーザ操作によって適宜変更可能に構成される。また、一覧表示部aおよびフィルタ一覧表示部Cxは、それぞれ左右方向へのスワイプ操作によって非表示にすることができる。例えば、フィルタ一覧表示部Cxを右方向へスワイプ操作すると、フィルタ一覧表示部Cxを非表示にして作業エリア表示部Bxを広げて表示する。サムネイル画像、作業エリア、表示エリア等の大きさの変更は、例えば、指や、マウスやスタイラスペン等のポインティングデバイスを用いたユーザ操作によって変更される。   In FIG. 39, the display screen is a list display section a for displaying a list of thumbnail images corresponding to images before processing, and a work area display section for specifying a partial area of the image or confirming the processing result It is divided into Bx and a filter list display section Cx that displays a list of filter images (images serving as a sample of processing). Here, the sizes (display areas) of the list display unit a, the work area display unit Bx, and the filter list display unit Cx can be appropriately changed by the user operation. In addition, the list display unit a and the filter list display unit Cx can be hidden by swipe operations in the left and right direction, respectively. For example, when the filter list display unit Cx is swipe in the right direction, the filter list display unit Cx is hidden and the work area display unit Bx is expanded and displayed. The change of the size of the thumbnail image, the work area, the display area, etc. is changed by a user operation using a pointing device such as a finger or a mouse or a stylus pen, for example.

一覧表示部aは、加工前の画像に対応するサムネイルa1、サムネイルa2、およびサムネイルa3を表示するエリアである。一覧表示部aにサムネイル画像をスクロールするためのアイコン11、12が表示される点は、上記実施形態と同様である。サムネイル画像のスクロールは、アイコン11、12に対するタップ操作の他に、一覧表示部aに対する上下方向へのスワイプ操作でも可能である。   The list display unit a is an area for displaying the thumbnail a1, the thumbnail a2, and the thumbnail a3 corresponding to the image before processing. The point that the icons 11 and 12 for scrolling the thumbnail image are displayed on the list display portion a is the same as the above embodiment. Scrolling of thumbnail images can be performed not only by tapping on the icons 11 and 12 but also by swiping vertically on the list display unit a.

作業エリア表示部Bxは、フィルタ画像(加工の見本となる画像)において画像処理パラメータの特徴を分析する特徴分析範囲を指定する際に使用される。また、作業エリア表示部Bxは、加工対象画像における特徴分析範囲を指定する際にも使用される。さらにまた、作業エリア表示部Bxは、画像加工結果の確認にも使用される。   The work area display unit Bx is used to designate a feature analysis range for analyzing features of image processing parameters in a filter image (image serving as a sample of processing). The work area display unit Bx is also used when designating a feature analysis range in the image to be processed. Furthermore, the work area display unit Bx is also used to confirm the image processing result.

フィルタ一覧表示部Cxは、登録されたフィルタ画像(加工の見本となる画像)に対応するサムネイル画像を表示するエリアである。図39の場合、登録が行われる前のフィルタ一覧表示部Cx内はブランク表示である。   The filter list display unit Cx is an area for displaying a thumbnail image corresponding to the registered filter image (image serving as a sample of processing). In the case of FIG. 39, the inside of the filter list display area Cx before registration is performed is blank.

<フィルタ画像、および特徴分析範囲を選ぶ>
ユーザは、フィルタ画像(加工の見本となる画像)としてサムネイルa1に対応する画像を選ぶ場合、一覧表示部aにおいてサムネイルa1をタップ操作する。プログラム実行部31は、図40に例示するように、フィルタ一覧表示部Cxを非表示にし、広げた作業エリア表示部Bxにサムネイルa1より大きな画像B1を表示させる。プログラム実行部31は、図41に例示するように、作業エリア表示部Bxにおいて特徴分析範囲dを指定するドラッグ操作を受け付ける。
<Select a filter image and feature analysis range>
When the user selects an image corresponding to the thumbnail a1 as a filter image (image serving as a sample of processing), the user taps the thumbnail a1 in the list display unit a. As illustrated in FIG. 40, the program execution unit 31 hides the filter list display unit Cx, and displays an image B1 larger than the thumbnail a1 on the expanded work area display unit Bx. The program execution unit 31 accepts a drag operation for specifying the feature analysis range d in the work area display unit Bx as illustrated in FIG.

プログラム実行部31は、サムネイルa1に対応する画像B1のうち、作業エリア表示部Bxにおいて指定された領域dを特徴分析範囲とし、この特徴分析範囲dに基づいてパラメータ分析(すなわち特徴量の算出)を行う。   The program execution unit 31 sets an area d designated in the work area display unit Bx in the image B1 corresponding to the thumbnail a1 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range d. I do.

プログラム実行部31は、作業エリア表示部Bx内に表示する「参照元」ボタン14がタップ操作された段階で、特徴分析範囲dに基づく上記全ての特徴量の算出を行い、算出結果を参照元パラメータとして不図示のメモリに登録する。プログラム実行部31はさらに、図42に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。そして、選ばれたフィルタ画像(本説明ではサムネイルa1に対応する画像)のうち特徴分析範囲dに相当する画像のサムネイルc1をフィルタ一覧表示部Cxに表示させる。なお、サムネイルa1に対応する画像に基づいて特徴量が登録されたことを示すため、サムネイルc1として図示する。後述する図50や図61〜図63等に示すように、複数のフィルタ画像(特徴量)の登録が可能である。   The program execution unit 31 calculates all the feature quantities based on the feature analysis range d at the stage when the “reference source” button 14 displayed in the work area display unit Bx is tapped, and the calculation result is referred to Register in the memory (not shown) as a parameter. Furthermore, as illustrated in FIG. 42, the program execution unit 31 hides the list display unit a and causes the filter list display unit Cx to be displayed. Then, the thumbnail c1 of the image corresponding to the feature analysis range d in the selected filter image (the image corresponding to the thumbnail a1 in the present description) is displayed on the filter list display unit Cx. The thumbnail c1 is illustrated to indicate that the feature amount has been registered based on the image corresponding to the thumbnail a1. As shown in FIG. 50 and FIG. 61 to FIG. 63 and the like described later, registration of a plurality of filter images (features) is possible.

上記特徴量の算出結果を不揮発性メモリ34に保存しておくと、将来同じフィルタ画像を選ぶ場合において算出結果を再利用できるので、特徴量算出をその都度行う場合に比べて、処理負担を軽減させることができる。   If the calculation result of the feature amount is stored in the non-volatile memory 34, the calculation result can be reused when selecting the same filter image in the future, so the processing load is reduced compared to the case where the feature amount calculation is performed each time. It can be done.

なお、上述した実施形態と同様に、「参考とするパラメータ」としてユーザによって選ばれたパラメータのみについて特徴量を算出するようにしてもよい。すなわち、特徴分析範囲dにおいて、明るさ、コントラスト、色相などのパラメータのうち、チェックされたパラメータについてのみ特徴量を算出して登録する。   As in the above-described embodiment, the feature amount may be calculated for only the parameter selected by the user as the “parameter to be referred to”. That is, in the feature analysis range d, the feature amount is calculated and registered only for the checked parameter among the parameters such as brightness, contrast, and hue.

<加工対象画像、および特徴分析範囲を選ぶ>
ユーザは、加工対象画像としてサムネイルa2に対応する画像を選ぶ場合、一覧表示部aを表示させた状態でサムネイルa2をタップ操作する。プログラム実行部31は、図43に例示するように、フィルタ一覧表示部Cxを非表示にし、広げた作業エリア表示部Bxにサムネイルa2より大きな画像B2を表示させる。プログラム実行部31は、図44に例示するように、作業エリア表示部Bxにおいて、画像の加工対象範囲となる特徴分析範囲eを指定するドラッグ操作を受け付ける。
<Select image to be processed and feature analysis range>
When the user selects an image corresponding to the thumbnail a2 as the processing target image, the user taps the thumbnail a2 in a state where the list display unit a is displayed. As illustrated in FIG. 43, the program execution unit 31 hides the filter list display unit Cx, and displays an image B2 larger than the thumbnail a2 on the expanded work area display unit Bx. As illustrated in FIG. 44, the program execution unit 31 accepts, in the work area display unit Bx, a drag operation for specifying a feature analysis range e to be a processing target range of an image.

プログラム実行部31は、サムネイルa2に対応する画像B2のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とし、この特徴分析範囲eに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、特徴分析範囲eに基づく上記全ての特徴量の算出を、ユーザによって特徴分析範囲eが指定された段階で行う。   The program execution unit 31 sets an area e designated by the work area display unit Bx in the image B2 corresponding to the thumbnail a2 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range e. I do. The program execution unit 31 performs calculation of all the feature quantities based on the feature analysis range e at a stage where the feature analysis range e is designated by the user.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、図45に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。さらに、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、加工対象画像(特徴分析範囲e)とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の一部(特徴分析範囲e)に対して画像加工を行う。   When the "apply" button 13 displayed in the work area display unit Bx is tapped, the program execution unit 31 hides the list display unit a and the filter list display unit Cx as illustrated in FIG. Is displayed. Furthermore, when tap operation is performed on the registered thumbnail c1 in the filter list display unit Cx, the feature of the parameter is approximated between the processing target image (feature analysis range e) and the filter image (feature analysis range d) The parameters for the image to be processed are corrected, and image processing is performed on a part of the image to be processed (feature analysis range e) with the corrected parameters.

プログラム実行部31は、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲e内を加工後の画像に対応する画像に置き換えて表示させる。   The program execution unit 31 replaces and displays the inside of the feature analysis range e in the image B2 displayed on the work area display unit Bx with an image corresponding to the image after processing.

ここで、特徴分析範囲dの形状と、特徴分析範囲eの形状とが異なっていてもよく、それぞれが任意の形状(円形、多角形、複数の図形の組み合わせ等)に指定されていて構わない。図46は、矩形形状の特徴分析範囲eの代わりに指定された楕円形状の特徴分析範囲exを例示する図である。図47は、複数の楕円形状を組み合わせた特徴分析範囲eyを例示する図である。また、図48は、任意形状で、複数に分離されている特徴分析範囲ezを例示する図である。また、ユーザが、指で画像B2上をなぞることで、指が触れた範囲を特徴分析範囲eとして指定できるようにしてもよい。同様に、ユーザが、図41で示される矩形形状の特徴分析範囲の代わりに、特徴分析範囲dの形状を任意の形状(円形状、多角形、複数の図形の組み合わせ等)に指定できるようにしてもよい。また、ユーザが、指で画像B1上をなぞることで、指が触れた範囲を特徴分析範囲dとして指定できるようにしてもよい。   Here, the shape of the feature analysis range d may be different from the shape of the feature analysis range e, and each may be designated as any shape (circle, polygon, combination of plural figures, etc.) . FIG. 46 is a diagram illustrating an elliptical feature analysis range ex designated instead of the rectangular feature analysis range e. FIG. 47 is a diagram illustrating a feature analysis range ey in which a plurality of elliptical shapes are combined. Also, FIG. 48 is a diagram illustrating a feature analysis range ez which is arbitrarily divided and divided into a plurality. In addition, the user may specify the range touched by the finger as the feature analysis range e by tracing the image B2 with the finger. Similarly, instead of the rectangular feature analysis range shown in FIG. 41, the user can designate the shape of the feature analysis range d as an arbitrary shape (circular shape, polygon, combination of plural figures, etc.) May be Further, the user may specify the range touched by the finger as the feature analysis range d by tracing the image B1 with the finger.

また、ユーザが筆で色を塗るような操作によって特徴分析範囲eを指定できるようにしてもよい。例えば、ユーザは、登録されているサムネイルc1をあたかもパレット(フィルタ一覧表示部Cx)に出された絵の具のように扱い、サムネイルc1をタップした指で絵の具を塗るかのように、作業エリア表示部Bxに表示されている画像B2上をなぞる。プログラム実行部31は、図49に例示するように、指が触れた範囲を特徴分析範囲e1とする。   In addition, the user may specify the feature analysis range e by an operation such as painting with a brush. For example, the user treats the registered thumbnail c1 as if it were a paint displayed on the palette (filter list display section Cx), and as if painting a paint with a finger tapping the thumbnail c1, the work area display section The image B2 displayed on Bx is traced. The program execution unit 31 sets the range touched by the finger as the feature analysis range e1 as illustrated in FIG.

さらにまた、特徴分析範囲eを複数に分離して指定する場合において、異なるフィルタ画像(加工の見本となる画像)に対応させてもよい。図50は、複数の特徴分析範囲e1およびe3に対して、それぞれ異なる画像加工を行う場面を説明する図である。ユーザは、登録されているサムネイルc1をタップした指で絵の具を塗るかのように、作業エリア表示部Bxに表示されている画像B2上をなぞって特徴分析範囲e1を指定する。また、ユーザは、登録されているサムネイルc3をタップした指で絵の具を塗るかのように、作業エリア表示部Bxに表示されている画像B2上をなぞって特徴分析範囲e3を指定する。   Furthermore, in the case where the feature analysis range e is separated and designated in plural, it may be made to correspond to a different filter image (image serving as a sample of processing). FIG. 50 is a view for explaining a situation in which different image processing is performed on a plurality of feature analysis ranges e1 and e3. The user specifies the feature analysis range e1 by tracing the image B2 displayed on the work area display unit Bx, as if painting a paint with a finger tapping the registered thumbnail c1. Further, the user specifies the feature analysis range e3 by tracing the image B2 displayed on the work area display unit Bx as if painting a paint with the finger tapping the registered thumbnail c3.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、サムネイルc1に対応する特徴分析範囲dと画像B2に対応する特徴分析範囲e1との間、およびサムネイルc3に対応する特徴分析範囲dと画像B2に対応する特徴分析範囲e3との間で、それぞれパラメータの特徴を近似させるように加工対象画像に対するパラメータを2通りに補正し、これら補正後のパラメータにより加工対象画像の全体に対して2通りの画像加工処理を行う。そして、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲e1および特徴分析範囲e3内を、それぞれ加工後の画像に対応する画像に置き換えて表示させる。   When the “apply” button 13 displayed in the work area display unit Bx is tapped, the program execution unit 31 operates between the feature analysis range d corresponding to the thumbnail c1 and the feature analysis range e1 corresponding to the image B2, Between the feature analysis range d corresponding to the thumbnail c 3 and the feature analysis range e 3 corresponding to the image B 2, the parameters for the image to be processed are corrected in two ways so as to approximate the features of the parameters, respectively. Two types of image processing are performed on the entire processing target image according to the parameters. Then, in the image B2 displayed on the work area display unit Bx, the inside of the feature analysis range e1 and the feature analysis range e3 is replaced with an image corresponding to the image after processing and displayed.

また、画像B2において特徴分析範囲eを指定する際にスタンプツールを用いるようにしてもよい。図51は、スタンプツールを用いる例を説明する図である。図51において、スタンプツール表示部kに複数形状のスタンプツールsが表示される。ユーザは、登録されているサムネイルc1をあたかもスタンプ台(フィルタ一覧表示部Cx)のように扱い、作業エリア表示部Bxに表示されている画像B2上に特徴分析範囲esを指定する。例えば星形形状のスタンプツールsをタップした指でサムネイルc1をタップし、さらに画像B2上をタップすると、画像B2上に星形形状に特徴分析範囲esが指定される。次に、三角形状のスタンプツールsをタップした指でサムネイルc1をタップし、さらに画像B2上をタップすると、画像B2上に三角形状に特徴分析範囲esが指定される。   The stamp tool may be used when specifying the feature analysis range e in the image B2. FIG. 51 is a diagram for explaining an example using a stamp tool. In FIG. 51, a plurality of stamp tools s are displayed on the stamp tool display unit k. The user treats the registered thumbnail c1 as if it is a stamp stand (filter list display unit Cx), and designates the feature analysis range es on the image B2 displayed on the work area display unit Bx. For example, when tapping on the thumbnail c1 with a finger tapping on the star-shaped stamp tool s and further tapping on the image B2, the feature analysis range es is designated in the star-shaped on the image B2. Next, when the user taps the thumbnail c1 with a finger tapping the triangular stamp tool s, and further taps on the image B2, the feature analysis range es is specified in a triangular shape on the image B2.

なお、画像B2上に複数の特徴分析範囲esを指定する場合において、複数のサムネイルc1およびc3が登録されている場合には、複数の特徴分析範囲esに異なるフィルタ画像(加工の見本となる画像)を対応させてもよい。これにより、例えば画像B2に対応する画像に対して星形形状の特徴分析範囲esと三角形状の特徴分析範囲esのそれぞれで2通りの画像加工を行うとともに、作業エリア表示部Bxにおいて表示する画像B2のうち、星形形状の特徴分析範囲esおよび三角形状の特徴分析範囲es内に、それぞれ加工後の画像に対応する画像に置き換えて表示できる。   When a plurality of feature analysis ranges es are specified on the image B2, when a plurality of thumbnails c1 and c3 are registered, different filter images (an image serving as a sample of processing) are stored in the plurality of feature analysis ranges es. ) May be made to correspond. Thus, for example, the image corresponding to the image B2 is subjected to two types of image processing in each of the star-shaped feature analysis range es and the triangular feature analysis range es, and an image displayed in the work area display unit Bx In B2, the star-shaped feature analysis range es and the triangular feature analysis range es can be displayed by being replaced with images corresponding to the images after processing.

<加工対象画像において特徴分析範囲を選ばない場合>
プログラム実行部31は、図43において、作業エリア表示部Bxにおいて表示する加工対象画像において特徴分析範囲eの指定が行われずに、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。そして、図52に例示するように、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、加工対象画像の全体を特徴分析範囲eとして扱い、加工対象画像の全体とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工を行う。この場合のプログラム実行部31は、加工対象画像の全体に基づく特徴量の算出を、ユーザによって「適用」ボタン13がタップ操作された段階で行う。
<When the feature analysis range is not selected in the processing target image>
In FIG. 43, the program execution unit 31 taps the “apply” button 13 displayed in the work area display unit Bx without specifying the feature analysis range e in the processing target image displayed in the work area display unit Bx. Then, the list display section a is hidden and the filter list display section Cx is displayed. Then, as exemplified in FIG. 52, when the registered thumbnail c1 is tap-operated in the filter list display unit Cx, the entire processing target image is treated as the feature analysis range e, and the entire processing target image and the filter image The parameters for the image to be processed are corrected so as to approximate the feature of the parameter with (feature analysis range d), and the image processing is performed on the entire image to be processed with the corrected parameters. The program execution unit 31 in this case performs calculation of the feature amount based on the entire processing target image at a stage where the user taps the “apply” button 13.

<加工対象画像の一部とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように、加工対象画像の全体に対して画像加工を行う場合>
プログラム実行部31は、図53に例示するように、作業エリア表示部Bxにおいて特徴分析範囲eを指定するドラッグ操作を受け付ける。プログラム実行部31は、サムネイルa4に対応する画像B4のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とし、この特徴分析範囲eに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、特徴分析範囲eに基づく特徴量の算出を、ユーザによって特徴分析範囲eが指定された段階で行う。
<When the image processing is performed on the entire processing target image so that the feature of the parameter is approximated between a part of the processing target image and the filter image (feature analysis range d)>
As illustrated in FIG. 53, the program execution unit 31 receives a drag operation for specifying the feature analysis range e in the work area display unit Bx. The program execution unit 31 sets an area e designated by the work area display unit Bx in the image B4 corresponding to the thumbnail a4 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range e. I do. The program execution unit 31 calculates the feature amount based on the feature analysis range e at a stage where the feature analysis range e is designated by the user.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、図54に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。さらに、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、特徴分析範囲eとフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工を行う。   When the "apply" button 13 displayed in the work area display unit Bx is tapped, the program execution unit 31 hides the list display unit a and the filter list display unit Cx as illustrated in FIG. 54. Is displayed. Furthermore, when the thumbnail c1 registered is tap-operated in the filter list display unit Cx, the feature of the parameter is approximated to approximate the feature of the parameter between the feature analysis range e and the filter image (feature analysis range d). The parameters are corrected, and image processing is performed on the entire image to be processed with the corrected parameters.

プログラム実行部31は、作業エリア表示部Bxにおいて表示する画像B4を、加工後の画像に対応する画像に置き換えて表示させる。図54によれば、特徴分析範囲eに対して行う加工と同じ加工を画像全体に対して行うことで、特徴分析範囲eとそれ以外の領域との境界をなくすことができる。   The program execution unit 31 replaces the image B4 displayed on the work area display unit Bx with an image corresponding to the image after processing and displays the image. According to FIG. 54, the boundary between the feature analysis range e and the other area can be eliminated by performing the same process as the process performed on the feature analysis range e on the entire image.

図55〜図57を参照して、画像の一部を補正する場面を説明する。図55において、ユーザは、加工対象画像としてサムネイルa5に対応する画像を選ぶ場合、一覧表示部aを表示させた状態でサムネイルa5をタップ操作する。プログラム実行部31は、作業エリア表示部Bxにサムネイルa5より大きな画像B5を表示させる。図55によれば、右側被写体が明るすぎる。ユーザは、画像の加工対象範囲となる特徴分析範囲eとして、明るすぎる右側被写体を指定する操作を行う。プログラム実行部31は、作業エリア表示部Bxにおいて特徴分析範囲eを指定する操作を受け付ける。プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、図56に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。   The scene of correcting a part of the image will be described with reference to FIGS. In FIG. 55, when the user selects an image corresponding to the thumbnail a5 as a processing target image, the user taps the thumbnail a5 in a state where the list display unit a is displayed. The program execution unit 31 causes the work area display unit Bx to display an image B5 larger than the thumbnail a5. According to FIG. 55, the right subject is too bright. The user performs an operation of designating a too bright right object as a feature analysis range e to be an image processing target range. The program execution unit 31 receives an operation of specifying the feature analysis range e in the work area display unit Bx. As exemplified in FIG. 56, the program execution unit 31 hides the list display unit a and the filter list display unit Cx when the “apply” button 13 displayed in the work area display unit Bx is tapped. Is displayed.

プログラム実行部31は、サムネイルa5に対応する画像B5のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とし、この特徴分析範囲eに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、特徴分析範囲eに基づく特徴量の算出を、ユーザによって特徴分析範囲eが指定された段階で行う。   The program execution unit 31 sets an area e designated by the work area display unit Bx in the image B5 corresponding to the thumbnail a5 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range e. I do. The program execution unit 31 calculates the feature amount based on the feature analysis range e at a stage where the feature analysis range e is designated by the user.

プログラム実行部31は、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、特徴分析範囲eとフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工を行う。図57によれば、補正したい領域を特徴分析範囲eとして指定することで、画像B5のうち補正したい領域のみを適正な明るさに加工することができる。   The program execution unit 31 approximates the feature of the parameter between the feature analysis range e and the filter image (feature analysis range d) when the registered thumbnail c1 is tap-operated in the filter list display unit Cx. The parameters for the image to be processed are corrected, and image processing is performed on the entire image to be processed with the corrected parameters. According to FIG. 57, by designating the area to be corrected as the feature analysis range e, it is possible to process only the area to be corrected in the image B5 into an appropriate brightness.

<加工対象画像の一部を画像加工する場合に境界をぼかす>
例えば、図58に例示するように、サムネイルa2に対応する画像B2のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とする場合、プログラム実行部31は、加工対象画像(特徴分析範囲e)とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の特徴分析範囲eに対して画像加工を行う。このとき、プログラム実行部31は、特徴分析範囲eの境界をぼかすように特徴分析範囲eの外側において加工の強度を徐々に弱くする。図59によれば、境界をぼかすように加工することで、特徴分析範囲eとそれ以外の領域との境界を目立ちにくくすることができる。
<Bounding the boundary when processing part of the processing target image>
For example, as illustrated in FIG. 58, when an area e designated in the work area display unit Bx in the image B2 corresponding to the thumbnail a2 is set as the feature analysis range, the program execution unit 31 selects the processing target image (feature The parameter for the processing object image is corrected so that the feature of the parameter is approximated between the analysis range e) and the filter image (feature analysis range d), and the corrected parameter is used for the feature analysis range e of the processing target image Perform image processing. At this time, the program execution unit 31 gradually weakens the processing intensity outside the feature analysis range e so as to blur the boundary of the feature analysis range e. According to FIG. 59, by processing so as to blur the boundary, the boundary between the feature analysis range e and the other region can be made less noticeable.

ぼかし方の一例としては、図60に例示するように、画像加工済み画像を画像加工前の画像の上に重ね、特徴分析範囲e内の画像加工済み画像を不透明度100% とし、特徴分析範囲eの境界からぼかし範囲gまでの間で、不透明度を0%(画像加工前の画像が完全に見える)にするよう透明度を徐々に変化させる方法がある。   As an example of how to blur, as illustrated in FIG. 60, the image processed image is superimposed on the image before the image processing, and the image processed image in the feature analysis range e is made 100% opaque, and the feature analysis range There is a method of gradually changing the transparency so that the opacity is 0% (the image before image processing is completely visible) between the boundary of e and the blurring range g.

<複数のフィルタ画像、および特徴分析範囲を選ぶ>
ユーザは、図61において、2枚目以降のフィルタ画像(加工の見本となる画像)としてサムネイルa3に対応する画像を選ぶ場合、一覧表示部aにおいてサムネイルa3をタップ操作する。プログラム実行部31は、サムネイルa3に対応する画像B3のうち、作業エリア表示部Bxにおいて指定された領域hを特徴分析範囲とし、この特徴分析範囲hに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、作業エリア表示部Bx内に表示する「参照元」ボタン14がタップ操作された段階で、特徴分析範囲hに基づく特徴量の算出を行い、算出結果を参照元パラメータとして不図示のメモリに登録する。
<Select multiple filter images and feature analysis range>
When the user selects an image corresponding to the thumbnail a3 as a second or subsequent filter image (an image serving as a sample of processing) in FIG. 61, the user taps the thumbnail a3 in the list display unit a. The program execution unit 31 sets an area h designated in the work area display unit Bx in the image B3 corresponding to the thumbnail a3 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range h. I do. The program execution unit 31 calculates the feature amount based on the feature analysis range h at the stage when the “reference source” button 14 displayed in the work area display unit Bx is tapped, and the calculation result is not used as the reference source parameter Register in the illustrated memory.

プログラム実行部31は、選ばれたフィルタ画像(本説明ではサムネイルa3に対応する画像)のうち特徴分析範囲hに相当する画像のサムネイルc3をフィルタ一覧表示部Cxに表示させる(図62)。なお、サムネイルa3に対応する画像に基づいて特徴量が登録されたことを示すため、サムネイルc3として図示する。   The program execution unit 31 causes the filter list display unit Cx to display the thumbnail c3 of the image corresponding to the feature analysis range h in the selected filter image (the image corresponding to the thumbnail a3 in the present description) (FIG. 62). In order to indicate that the feature amount has been registered based on the image corresponding to the thumbnail a3, the thumbnail c3 is shown.

複数に分離した特徴分析範囲ez1およびez3が指定されている場合において、プログラム実行部31は、図50の場合と異なる手法で、特徴分析範囲ez1およびez2に対して異なるフィルタ画像(加工の見本となる画像)を対応させる。図63は、複数の特徴分析範囲ez1およびez3に対してそれぞれ異なる画像加工を行う場面を説明する図である。ユーザは、例えばフィルタ一覧表示部Cxにおいて登録されているサムネイルc1をタップし、次に作業エリア表示部Bxにおいて特徴分析範囲ez1をタップする。ユーザはさらに、フィルタ一覧表示部Cxにおいて登録されているサムネイルc3をタップし、次に作業エリア表示部Bxにおいて特徴分析範囲ez3をタップする。   In the case where feature analysis ranges ez1 and ez3 separated into a plurality of parts are designated, the program execution unit 31 uses different methods for the feature analysis ranges ez1 and ez2 in a method different from the case of FIG. Image) to correspond. FIG. 63 is a diagram for explaining a scene in which different image processing is performed on a plurality of feature analysis ranges ez1 and ez3. The user taps, for example, the thumbnail c1 registered in the filter list display unit Cx, and then taps the feature analysis range ez1 in the work area display unit Bx. The user further taps the thumbnail c3 registered in the filter list display unit Cx, and then taps the feature analysis range ez3 in the work area display unit Bx.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、サムネイルc1に対応する特徴分析範囲dと画像B2に対応する特徴分析範囲ez1との間、およびサムネイルc3に対応する特徴分析範囲hと画像B2に対応する特徴分析範囲ez3との間で、それぞれパラメータの特徴を近似させるように加工対象画像に対するパラメータを2通りに補正し、これら補正後のパラメータにより加工対象画像の特徴分析範囲ez1、特徴分析範囲ez3に対してそれぞれ画像加工処理を行う。そして、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲ez1および特徴分析範囲ez3内を、それぞれ加工後の画像に対応する画像に置き換えて表示させる。   When the program execution unit 31 taps the “apply” button 13 displayed in the work area display unit Bx, the program execution unit 31 operates between the feature analysis range d corresponding to the thumbnail c1 and the feature analysis range ez1 corresponding to the image B2, Between the feature analysis range h corresponding to the thumbnail c 3 and the feature analysis range ez 3 corresponding to the image B 2, the parameters for the image to be processed are corrected in two ways so as to approximate the features of the parameters, respectively. The image processing process is performed on each of the feature analysis range ez1 and the feature analysis range ez3 of the image to be processed according to the parameters. Then, in the image B2 displayed in the work area display unit Bx, the inside of the feature analysis range ez1 and the feature analysis range ez3 is replaced with an image corresponding to the image after processing and displayed.

上述したように、作業エリア表示部Bxにおいて特徴分析範囲ez1、特徴分析範囲ez3を指定した後、それぞれにパラメータの特徴を対応させるサムネイルc1、c3を指定してもよいし、特徴分析範囲ez1または特徴分析範囲ez3を指定するごとに、パラメータの特徴を対応させるサムネイルc1またはc3を指定してもよい。また、先にサムネイルc1またはc3を指定した後に、パラメータの特徴を対応させる特徴分析範囲ez1または特徴分析範囲ez3を指定してもよい。   As described above, after the feature analysis range ez1 and the feature analysis range ez3 are designated in the work area display unit Bx, the thumbnails c1 and c3 corresponding to the feature of the parameter may be designated respectively, or the feature analysis range ez1 or Each time the feature analysis range ez3 is specified, the thumbnail c1 or c3 to which the feature of the parameter is made to correspond may be specified. In addition, after designating the thumbnail c1 or c3 first, the feature analysis range ez1 or the feature analysis range ez3 to which the feature of the parameter corresponds may be specified.

<加工対象画像において複数の特徴分析範囲が近接または接触している場合>
プログラム実行部31は、図64に例示するように、作業エリア表示部Bxにおいて特徴分析範囲ez1と特徴分析範囲ez3とが接する場合、両者の間に境界線を設ける。そして、境界線を境として、加工対象画像の特徴分析範囲ez1と特徴分析範囲ezとの間で画像加工処理を明確に分ける。
<When a plurality of feature analysis ranges are close to or in contact with each other in the processing target image>
As illustrated in FIG. 64, when the feature analysis range ez1 and the feature analysis range ez3 are in contact with each other in the work area display unit Bx, the program execution unit 31 provides a boundary between the two. Then, the image processing process is clearly divided between the feature analysis range ez1 of the processing target image and the feature analysis range ez, with the boundary as a boundary.

なお、境界線を境として、加工対象画像の特徴分析範囲ez1と特徴分析範囲ez3との間で画像加工処理を明確に分ける代わりに、図65に例示するように、境界線を挟む画像加工処理を徐々に変化させて境界線をぼかしてもよい。   Note that instead of clearly dividing the image processing process between the feature analysis range ez1 of the processing target image and the feature analysis range ez3 bordering on the border line, as illustrated in FIG. May be gradually changed to blur the border.

そして、境界線の位置や画像加工処理を徐々に変化させる範囲は、作業エリア表示部Bxにおいて表示する画像B2をユーザが指でなぞって調整できるようにしてもよい。   Then, the position of the boundary line and the range in which the image processing process is gradually changed may be adjusted so that the user can trace the image B2 displayed on the work area display unit Bx with a finger.

また、作業エリア表示部Bxにおいて複数の特徴分析範囲ez1および特徴分析範囲ez3を指定する場合において、特徴分析範囲ez1およびez3の境界をぼかすように画像加工の強度を徐々に弱くしてもよい。図66によれば、特徴分析範囲ez1および特徴分析範囲ez3においてそれぞれ境界をぼかすように加工することで、特徴分析範囲ez1、ez3とそれ以外の領域との境界を目立ちにくくすることができる。   When a plurality of feature analysis ranges ez1 and feature analysis ranges ez3 are designated in the work area display unit Bx, the strength of image processing may be gradually weakened so as to blur the boundaries of the feature analysis ranges ez1 and ez3. According to FIG. 66, by processing the boundaries in the feature analysis range ez1 and the feature analysis range ez3 so as to blur the boundaries, it is possible to make the boundaries between the feature analysis ranges ez1 and ez3 and the other regions inconspicuous.

さらにまた、作業エリア表示部Bxにおいて円形状の特徴分析範囲を指定する場合において、その中心座標を指定して行うようにしてもよい。プログラム実行部31は、指定された座標位置から所定距離の範囲を特徴分析範囲とする。図67は、中心座標O1および中心座標O2に基づいて指定した2つの円形状の特徴分析範囲を例示する図である。   Furthermore, when specifying a circular feature analysis range in the work area display unit Bx, the center coordinates may be specified and performed. The program execution unit 31 sets a range of a predetermined distance from the designated coordinate position as a feature analysis range. FIG. 67 is a diagram illustrating two circular feature analysis ranges specified based on the center coordinates O1 and the center coordinates O2.

2つの円形状の特徴分析範囲が接する場合は、図64または図65の場合と同様に2つの特徴分析範囲の間に境界線を設け、境界線を境として画像加工処理を明確に分けたり、境界線をぼかすように境界線を挟む画像加工処理を徐々に変化させたりしてもよい。図68は、2つの円形状特徴分析範囲の間の境界線を境として、画像加工処理を分けた場合を例示する図である。   When two circular feature analysis areas are in contact with each other, as in the case of FIG. 64 or FIG. 65, a boundary line is provided between the two feature analysis areas, and image processing processing is clearly divided at the boundary lines. The image processing process that sandwiches the boundary may be gradually changed so as to blur the boundary. FIG. 68 is a diagram illustrating a case where image processing is divided at the boundary between two circular feature analysis ranges.

<画像加工前と、画像加工後の比較表示>
以上の説明では、作業エリア表示部Bxにおいて「適用」ボタン13がタップ操作されると、画像加工後の画像を作業エリア表示部Bxに表示する例を説明した。この代わりに、図69〜図71に例示するように、画像加工前の画像と画像加工後の画像を見比べできるように表示をしてもよい。
<Comparison display before and after image processing>
In the above description, when the “apply” button 13 is tapped in the work area display unit Bx, an example in which the image after image processing is displayed on the work area display unit Bx has been described. Instead of this, as illustrated in FIGS. 69 to 71, display may be made so that the image before image processing and the image after image processing can be compared.

図69は、作業エリア表示部Bxにおいて画像加工(適用)前の画像と画像加工(適用)後の画像を並べて表示する場合を例示する図である。複数のパラメータについて補正を行って画像加工を行う場合、画像加工(適用)前の画像として、全てのパラメータに対する補正をOFF(キャンセル)した画像を表示してもよいし、一部のパラメータに対する補正のみをOFF(キャンセル)した画像を表示してもよい。   FIG. 69 is a diagram illustrating a case where an image before image processing (application) and an image after image processing (application) are displayed side by side in the work area display unit Bx. When performing image processing by performing correction on a plurality of parameters, an image in which correction for all parameters is turned off (cancelled) may be displayed as an image before image processing (application), or correction for some parameters You may display an image with only OFF (canceled).

図70および図71は、作業エリア表示部Bxにおいて画像加工(適用)前の画像と画像加工(適用)後の画像とをレイヤー構造にした例である。プログラム実行部31は、「切替」ボタン19がタップ操作されるたびに、レイヤーを切り替える。これにより、ユーザは、画像加工(適用)前の画像と画像加工(適用)後の画像とを見比べることができる。なお、レイヤー構造が分かりやすいように画像を斜めにずらして配置しているが、より見比べやすいよう同じ位置に画像を重ねて配置してもよい。   FIGS. 70 and 71 show examples in which an image before image processing (application) and an image after image processing (application) have a layer structure in the work area display unit Bx. The program execution unit 31 switches layers each time the “switch” button 19 is tapped. Thus, the user can compare the image before image processing (application) with the image after image processing (application). In addition, although the image is diagonally shifted and arranged so that the layer structure can be easily understood, the image may be overlapped and arranged at the same position so as to be easily compared.

<補正パラメータを適用して画像加工した範囲の表示>
図72および図73は、作業エリア表示部Bxにおいて画像加工(適用)後の画像と画像加工範囲を示す表示とをレイヤー構造にした例である。プログラム実行部31は、「切替」ボタン19がタップ操作されるたびに、レイヤーを切り替える。これにより、ユーザは、画像加工(適用)後の画像と画像加工範囲、補正の種別とを見比べることができる。フィルタ一覧表示部Cxにおいて、サムネイルc1に対してパラメータの特徴を対応させる補正を「補正1」とし、サムネイルc3に対してパラメータの特徴を対応させる補正を「補正2」と表示した。なお、レイヤー構造が分かりやすいように画像を斜めにずらして配置しているが、より見比べやすいよう同じ位置に画像を重ねて配置してもよい。
<Display of range processed by applying correction parameters>
FIGS. 72 and 73 show an example in which the image after image processing (application) and the display showing the image processing range have a layer structure in the work area display section Bx. The program execution unit 31 switches layers each time the “switch” button 19 is tapped. As a result, the user can compare the image after image processing (application) with the image processing range and the type of correction. In the filter list display unit Cx, the correction that makes the feature of the parameter correspond to the thumbnail c1 is “correction 1”, and the correction that makes the feature of the parameter correspond to the thumbnail c3 is “correction 2”. In addition, although the image is diagonally shifted and arranged so that the layer structure can be easily understood, the image may be overlapped and arranged at the same position so as to be easily compared.

図74および図75は、作業エリア表示部Bxにおいて画像加工(適用)後の画像と画像加工範囲を示す表示とに、グレースケール加工や半透過加工を組み合わせてレイヤー構造にした例である。プログラム実行部31は、「切替」ボタン19がタップ操作されるたびに、レイヤーを切り替える。図74の例では、画像加工(適用)後の画像の上から、画像加工範囲を示す表示を半透過で重ねる。左側被写体の部分に「補正1」を対応させ、右側被写体の部分に「補正2」を対応させる例を示す。   FIG. 74 and FIG. 75 show examples in which gray scale processing and semi-transmission processing are combined with a display showing an image after image processing (application) and an image processing range in the work area display section Bx to form a layer structure. The program execution unit 31 switches layers each time the “switch” button 19 is tapped. In the example of FIG. 74, the display indicating the image processing range is semi-transparently superimposed on the image after image processing (application). An example is shown in which “correction 1” corresponds to the part of the left subject and “correction 2” corresponds to the part of the right subject.

図75の例では、画像加工(適用)後の画像において加工範囲に対応する部分の彩色を残し、加工範囲以外の部分をグレー表示する。これにより、ユーザは、画像加工(適用)後の画像と、画像加工範囲、補正種別とを見比べることができる。なお、レイヤー構造が分かりやすいように画像を斜めにずらして配置しているが、より見比べやすいよう同じ位置に画像を重ねて配置してもよい。   In the example of FIG. 75, in the image after image processing (application), the coloring of the portion corresponding to the processing range is left, and the portion other than the processing range is displayed in gray. Thus, the user can compare the image after image processing (application) with the image processing range and the correction type. In addition, although the image is diagonally shifted and arranged so that the layer structure can be easily understood, the image may be overlapped and arranged at the same position so as to be easily compared.

<フローチャートの説明>
第二の実施形態においてプログラム実行部31が実行する処理の流れについて図76に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「画像サンプルを選んで加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図76による処理を開始させる。
<Description of flowchart>
The flow of processing executed by the program execution unit 31 in the second embodiment will be described with reference to the flowchart illustrated in FIG. The program execution unit 31 starts the process shown in FIG. 76 when the “OK” button 26 is tapped while “select image sample and perform processing setting” is checked on the setting screen shown in FIG.

図76のステップS110において、プログラム実行部31は、画像を読み込んでステップS120へ進む。画像は、上述したように、通信部15を介して外部機器から取得した画像、または不図示のカメラユニットで撮影した画像である。ステップS120において、プログラム実行部31は、読み込んだ画像のデータに基づいて、縮小画像(サムネイル)を表示部22の一覧表示部aに表示させてステップS130へ進む。   In step S110 of FIG. 76, the program execution unit 31 reads an image and proceeds to step S120. As described above, the image is an image acquired from an external device via the communication unit 15, or an image captured by a camera unit (not shown). In step S120, the program execution unit 31 causes the list display unit a of the display unit 22 to display a reduced image (thumbnail) based on the data of the read image, and proceeds to step S130.

ステップS130において、プログラム実行部31は、一覧表示部aに表示する縮小画像(サムネイル)からフィルタ画像が選ばれ、参照元ボタン14がタップ操作されたか否かを判定する。プログラム実行部31は、選ばれた画像を作業エリア表示部Bxに表示し、特徴分析範囲の指定操作を受け付ける。そして、参照元ボタン14がタップ操作された場合にステップS130を肯定判定してステップS140へ進み、参照元ボタン14がタップ操作されない場合には、ステップS130を否定判定してステップS190へ進む。   In step S130, the program execution unit 31 determines whether the filter image is selected from the reduced images (thumbnails) displayed on the list display unit a and the reference source button 14 is tapped. The program execution unit 31 displays the selected image on the work area display unit Bx, and receives a specification analysis range specification operation. When the reference source button 14 is tapped, step S130 is affirmed to proceed to step S140. When the reference source button 14 is not tapped, the step S130 is negatively decided to proceed to step S190.

ステップS140において、プログラム実行部31は、フィルタ画像の特徴分析範囲に基づいてパラメータ分析(すなわち特徴量の算出)を行い、分析結果を加工情報としてステップS150へ進む。   In step S140, the program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range of the filter image, and proceeds to step S150 with the analysis result as processing information.

プログラム実行部31は、ステップS150において、加工情報をサムネイルとしてフィルタ一覧表示部Cxに表示させてステップS160へ進む。ステップS160において、プログラム実行部31は、一覧表示部aに表示する縮小画像(サムネイル)から加工対象画像が選ばれ、適用ボタン13がタップ操作されたか否かを判定する。プログラム実行部31は、選ばれた画像を作業エリア表示部Bxに表示し、特徴分析範囲の指定操作を受け付ける。そして、適用ボタン13がタップ操作された場合にステップS160を肯定判定してステップS165へ進み、適用ボタン13がタップ操作されない場合には、ステップS160を否定判定してステップS190へ進む。   In step S150, program execution unit 31 causes processing information to be displayed as a thumbnail on filter list display unit Cx, and proceeds to step S160. In step S160, the program execution unit 31 determines whether the image to be processed is selected from the reduced images (thumbnails) displayed on the list display unit a and the application button 13 is tapped. The program execution unit 31 displays the selected image on the work area display unit Bx, and receives a specification analysis range specification operation. Then, when the apply button 13 is tapped, the step S160 is affirmed to proceed to step S165, and when the apply button 13 is not tapped, the step S160 is negatively decided to proceed to the step S190.

ステップS165において、プログラム実行部31は、加工対象画像の特徴分析範囲に基づいてパラメータ分析(すなわち特徴量の算出)を行い、ステップS170へ進む。特徴分析範囲が指定されていない場合は、加工対象画像の全域に基づいてパラメータ分析を行う。ステップS170において、プログラム実行部31は、加工対象画像とフィルタ画像との間でパラメータの特徴を近似させるように、加工対象画像に対して画像加工を行う。画像加工範囲は、特徴分析範囲内または全域について行う。   In step S165, the program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range of the processing target image, and the process proceeds to step S170. If the feature analysis range is not specified, parameter analysis is performed based on the entire area of the processing target image. In step S170, the program execution unit 31 performs image processing on the processing target image so as to approximate the feature of the parameter between the processing target image and the filter image. The image processing range is performed within or across the feature analysis range.

ステップS180において、プログラム実行部31は、加工後の画像を保存するとともに、その画像を作業エリア表示部Bxに表示させてステップS190へ進む。ステップ1S90において、プログラム実行部31は、終了か否かを判定する。プログラム実行部31は、終了操作が行われた場合にステップS190を肯定判定して図76による処理を終了する。プログラム実行部31は、終了操作が行われない場合はステップS190を否定判定してステップS120へ戻る。ステップS120へ戻る場合は、上述した処理を繰り返す。   In step S180, the program execution unit 31 stores the processed image and causes the work area display unit Bx to display the image, and the process proceeds to step S190. In step S90, the program execution unit 31 determines whether or not the process ends. When the end operation is performed, the program execution unit 31 makes an affirmative decision in step S190 to end the processing of FIG. When the end operation is not performed, the program execution unit 31 makes a negative decision in step S190 and returns to step S120. When returning to step S120, the above-described process is repeated.

以上説明した第二の実施形態によれば、以下の作用効果が得られる。
(1)フィルタ画像の特徴分析範囲dおよび加工対象画像の特徴分析範囲eのパラメータの特徴量をそれぞれ解析する解析処理(S140、S165)と、加工対象画像についての特徴量をフィルタ画像についての特徴量へ近づけるように、加工対象画像に対するパラメータを補正する加工情報補正処理(S170)と、補正後のパラメータに基づいて、加工対象画像に対して加工を行う画像加工処理(S170)と、をプログラム実行部31に実行させるようにした。これにより、画像加工処理のための操作が簡単なユーザインターフェイスを提供できる。すなわち、加工対象画像と、その加工後のお手本となるフィルタ画像とがあれば、画像加工に関する知識を持たないユーザであっても、簡単に自分の目標とする画像に近づけるような画像加工処理を行うことが可能となる。
According to the second embodiment described above, the following effects can be obtained.
(1) Analysis processing (S140, S165) for analyzing the feature amounts of the parameters of the feature analysis range d of the filter image and the feature analysis range e of the processing target image, and the feature amount of the processing target image for the filter image The processing information correction processing (S170) which corrects the parameter to the processing object image so as to be close to the amount, and the image processing (S170) which processes the processing object image based on the parameter after correction The execution unit 31 is made to execute. As a result, it is possible to provide a user interface that is easy to operate for image processing. That is, if there is an image to be processed and a filter image to be a model after the image processing, an image processing process is easily performed so that even a user who does not have knowledge about image processing approaches the image as his / her target. It will be possible to do.

(2)画像加工処理(S170)は、加工情報補正処理(S170)で補正されたパラメータに基づいて、加工対象画像の特徴分析範囲eに対して加工を行うようにしたので、ユーザが加工したい範囲において画像加工処理を行うことができる。 (2) In the image processing process (S170), the processing is performed on the feature analysis range e of the processing target image based on the parameters corrected in the processing information correction process (S170), so the user wants to process Image processing can be performed in the range.

(3)画像加工処理(S170)は、加工対象画像の特徴分析範囲eの境界をぼかすように加工を行うようにしたので、画像加工後の境界がユーザに違和感を与えるおそれを低減できる。 (3) Since the image processing (S170) is performed so as to blur the boundary of the feature analysis range e of the processing target image, the possibility that the boundary after the image processing gives the user a sense of discomfort can be reduced.

(4)画像加工処理(S170)は、加工情報補正処理(S170)で補正されたパラメータに基づいて、加工対象画像の全体に対して加工を行うようにしたので、画像全体において画像加工処理を行うことができる。 (4) In the image processing (S170), the entire image to be processed is processed based on the parameters corrected in the processing information correction (S170). It can be carried out.

(5)解析処理(S140、S165)は、第1フィルタ画像の特徴分析範囲d、第2フィルタ画像の特徴分析範囲d、および加工対象画像の第1特徴分析範囲eと第2特徴分析範囲eとにおいて、それぞれの特徴量をそれぞれ解析し、加工情報補正処理(S170)は、加工対象画像の第1特徴分析範囲eについての特徴量を第1フィルタ画像についての特徴量へ近づけるように加工対象画像の第1特徴分析範囲eに対する第1パラメータを補正するとともに、加工対象画像の第2特徴分析範囲eについての特徴量を第2フィルタ画像についての特徴量へ近づけるように加工対象画像の第2特徴分析範囲eに対する第2パラメータを補正し、画像加工処理(S170)は、加工情報補正処理(S170)で補正された第1パラメータに基づいて加工対象画像の第1特徴分析範囲eを加工するとともに、第2パラメータに基づいて加工対象画像の第2特徴分析範囲eを加工するようにした。これにより、ユーザが加工したい複数の範囲において異なる画像加工処理を行うことができる。 (5) The analysis process (S140, S165) includes the feature analysis range d of the first filter image, the feature analysis range d of the second filter image, and the first feature analysis range e of the processing target image and the second feature analysis range e And each of the feature quantities is analyzed, and the processing information correction process (S170) performs processing target so that the feature quantity of the first feature analysis range e of the processing target image approaches the feature quantity of the first filter image. The first parameter for the first feature analysis range e of the image is corrected, and the feature quantity for the second feature analysis range e of the processing target image is made closer to the feature quantity for the second filter image. The second parameter for the feature analysis range e is corrected, and the image processing (S170) is based on the first parameter corrected in the processing information correction (S170). With processing the first feature analysis range e of the processing target image Te, and adapted to process the second feature analysis range e of the processing target image based on the second parameter. Thereby, different image processing can be performed in a plurality of ranges that the user wants to process.

(6)画像加工処理(S170)は、加工対象画像の第1特徴分析範囲eおよび第2特徴分析範囲eの境界をぼかすように加工を行うようにしたので、画像加工後のそれぞれの境界がユーザに違和感を与えるおそれを低減できる。 (6) Since the image processing (S170) is performed so as to blur the boundaries of the first feature analysis range e and the second feature analysis range e of the image to be processed, each boundary after the image processing is It is possible to reduce the possibility of giving the user a sense of discomfort.

(変形例4)
図77および図78は、画像加工前の画像と画像加工後の画像を見比べるように表示する他の例を説明する図である。図77において、画像B2は加工前の画像である。画面右端にあるタブ76およびタブ77は、それぞれフィルタ画像(加工の見本となる画像)に対応するサムネイル画像を表示する。サムネイルc1は、サムネイルa1に対応する画像に基づいて特徴量が登録されていることを示す。サムネイルc3は、サムネイルa3に対応する画像に基づいて特徴量が登録されていることを示す。
(Modification 4)
FIGS. 77 and 78 are diagrams for explaining another example of displaying an image before image processing and an image after image processing so as to compare the images. In FIG. 77, an image B2 is an image before processing. A tab 76 and a tab 77 at the right end of the screen each display a thumbnail image corresponding to the filter image (image serving as a sample of processing). The thumbnail c1 indicates that the feature amount is registered based on the image corresponding to the thumbnail a1. The thumbnail c3 indicates that the feature amount is registered based on the image corresponding to the thumbnail a3.

変形例4において、プログラム実行部31は、サムネイルc1を表示するタグ76が矢印方向へドラッグされると、図78に例示するように、タグ76を矢印方向へ移動させ、サムネイルc1に対応するフィルタ画像に基づく加工後の画像B2’が現れるように表示する。   In the fourth modification, when the tag 76 displaying the thumbnail c1 is dragged in the arrow direction, the program execution unit 31 moves the tag 76 in the arrow direction, as illustrated in FIG. 78, and a filter corresponding to the thumbnail c1. It displays so that image B2 'after process based on an image may appear.

図79は、加工後の画像B2’を表示する他の例を説明する図である。図79によれば、プログラム実行部31は、サムネイルc1を表示するタグ76が矢印方向へドラッグされると、加工前の画像B2とタグ76とが重なった領域から、画像B2を加工後の画像B2’に置き換えて表示する。   FIG. 79 is a diagram for explaining another example of displaying the image B2 'after processing. According to FIG. 79, when the tag 76 displaying the thumbnail c1 is dragged in the arrow direction, the program execution unit 31 processes the image B2 from the area where the image B2 before processing and the tag 76 overlap. Replace with B2 'and display.

(変形例5)
上述した第二の実施形態では、加工対象画像および特徴分析範囲を選ぶ場合において、ユーザ操作によって、加工対象画像上に特徴分析範囲eを指定するようにした(図44)。この代わりに、プログラム実行部31が加工対象画像において加工推奨領域を自動的に決定してもよい。変形例5におけるプログラム実行部31は、自動的に決定した加工推奨領域を特徴分析範囲eとして扱う。
(Modification 5)
In the second embodiment described above, when selecting the processing target image and the feature analysis range, the feature analysis range e is specified on the processing target image by the user operation (FIG. 44). Instead of this, the program execution unit 31 may automatically determine the processing recommendation region in the processing target image. The program execution unit 31 in the fifth modification treats the processing recommendation area automatically determined as the feature analysis range e.

プログラム実行部31は、図45において登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作された際に、サムネイルc1に対応するフィルタ画像に基づく加工によって効果的な処理が見込める領域を決定する。例えば、サムネイルc1が「顔」を含む場合、加工対象画像中の「顔」を含む所定範囲を加工推奨領域として、この領域を枠で囲む表示を行う。   Program execution unit 31 determines an area where effective processing can be expected by processing based on a filter image corresponding to thumbnail c1 when thumbnail c1 registered in FIG. 45 is tap-operated in filter list display unit Cx. . For example, when the thumbnail c1 includes a "face", a display is made such that a predetermined range including the "face" in the processing target image is a processing recommendation area and this area is surrounded by a frame.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、加工推奨領域(すなわち特徴分析範囲e)とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の一部(特徴分析範囲e)に対して画像加工を行う。   When the “apply” button 13 displayed in the work area display unit Bx is tapped by the program execution unit 31, the program execution unit 31 selects between the processing recommended area (ie, feature analysis range e) and the filter image (feature analysis range d). The parameters for the processing target image are corrected so as to approximate the feature of the parameter, and image processing is performed on a part of the processing target image (feature analysis range e) using the corrected parameters.

プログラム実行部31は、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲e内を加工後の画像に対応する画像に置き換えて表示させる(図45)。このように、効果的な加工処理が見込める推奨領域をユーザへ知らせることにより、画像処理に不慣れなユーザに対しても、適切な加工が行えるようにサポートできる。   The program execution unit 31 replaces the area of the feature analysis range e in the image B2 displayed on the work area display unit Bx with an image corresponding to the image after processing (FIG. 45). In this way, by notifying the user of a recommended area where effective processing can be expected, it is possible to support appropriate processing even for a user who is not accustomed to image processing.

(第三の実施形態)
第三の実施形態では、「タイムトラベル」を目的に行う画像加工について説明する。この画像加工は、あたかも撮影時刻と異なる時刻で撮影したかのように画像を加工する。例えば、日中の屋外で撮影された画像から、夕焼けが赤い夕刻に撮影した画像のように加工したり、日中の屋外で撮影された画像から、黄昏時の暗い画像に加工したりする。また、新緑の季節に撮影された画像から、紅葉の季節に撮影したかのように木々の葉の色を赤または黄色に加工する。そしてまた、あたかも40年前に撮影したかのように、セピア色の画像やモノクロの画像に加工する。さらに、あたかも100年前に撮影したかのように、石版画像に加工する。
Third Embodiment
In the third embodiment, image processing performed for the purpose of "time travel" will be described. In this image processing, an image is processed as if it was shot at a time different from the shooting time. For example, images taken outdoors during the daytime may be processed like images taken during the evening when the sunset is red, or images taken outdoors during the daytime may be processed into dark images during jaundice. In addition, from the image taken in the fresh green season, the color of the leaves of the trees is processed into red or yellow as if taken in the autumn leaves season. Also, as if taken 40 years ago, they are processed into sepia or monochrome images. Furthermore, it is processed into a lithographic image as if taken 100 years ago.

図80は、図22に例示した「直感メニューを開いて加工設定を行う」場合において、処理項目ウィンドウ52のメインメニュー52Aの中から「タイムトラベル」が選択された場合の表示部22に表示される画面を例示する図である。図80において、「タイムトラベル」に対応するサブメニューがサブメニュー52Bにおいて表示される。例えば、「1日」、「1年」、「10年」、「100年」など、異なる時刻までのタイムスパンを示す項目が自動的に並べて表示される。   FIG. 80 is displayed on the display unit 22 when “time travel” is selected from the main menu 52A of the processing item window 52 in the case of “open the intuitive menu and perform processing setting” illustrated in FIG. Is a diagram illustrating an example screen. In FIG. 80, a sub-menu corresponding to "time travel" is displayed in sub-menu 52B. For example, items indicating time spans to different times, such as “1 day”, “1 year”, “10 year”, and “100 year” are automatically displayed side by side.

プログラム実行部31は、サブメニュー52Bにおいてタップ操作された項目を選択する。プログラム実行部31は、選択した項目(例えば「1日」)に対応する調整用スケールとスライダを表示するウィンドウ53を表示部22に表示させる。図81および図82は、「タイムトラベル」であって、タイムスパンが「1日」の場合の調整用スケールとスライダを表示するウィンドウ53を例示する図である。   Program execution unit 31 selects an item tapped on sub menu 52B. The program execution unit 31 causes the display unit 22 to display a window 53 that displays an adjustment scale and a slider corresponding to the selected item (for example, “1 day”). FIGS. 81 and 82 are views exemplifying the window 53 displaying the adjustment scale and the slider in the case of “time travel” and the time span is “one day”.

プログラム実行部31は、ユーザによってノブ53aの位置が変更操作され、「OK」ボタン53bがタップ操作されると、ノブ53aの位置に応じて撮影時刻を前後させる。時間を進めると未来へ向かい、時間を戻すと過去へ向かう。図81の場合、例えば午後3時に撮影された画像に対し、11時間進めて午前2時の撮影画像のように加工する場合を例示する。また、図82の場合、上記午後3時に撮影された画像に対し、10時間戻して午前5時の撮影画像のように加工する場合を例示する。   When the user changes the position of the knob 53a and taps the "OK" button 53b, the program execution unit 31 moves the photographing time back and forth according to the position of the knob 53a. Going forward will go to the future and going back will go to the past. In the case of FIG. 81, for example, the case where the image captured at 3 pm is advanced by 11 hours to be processed like a captured image at 2 am will be illustrated. Further, in the case of FIG. 82, a case where the image photographed at 3 pm is returned 10 hours and processed like a photographed image at 5 am will be illustrated.

プログラム実行部31は、加工対象画像に対して、例えば明るさを増減させるなどして撮影時刻が異なる画像加工を施し、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31はさらに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させる。なお、撮影日時と明るさとの関係を示す情報は、あらかじめ不揮発性メモリ34内に格納されている。   The program execution unit 31 performs image processing with different photographing times by, for example, increasing or decreasing brightness on the processing target image, and the same memory as the memory area in which the image before processing is stored. Save to area or memory area specified by user operation. The program execution unit 31 further replaces the reduced image 51 with a reduced image corresponding to the processed image and displays the reduced image. The information indicating the relationship between the shooting date and time and the brightness is stored in advance in the non-volatile memory 34.

図83は、サブメニュー52Bにおいて選択した項目(例えば「1年」)に対応する調整用スケールとスライダを表示するウィンドウ53を例示する図である。図83(a)の場合、例えば7月に撮影された画像に対し、5ヵ月進めて12月の撮影画像のように加工する場合を例示する。また、図83(b)の場合、上記7月に撮影された画像に対し、5ヵ月戻して2月の撮影画像のように加工する場合を例示する。   FIG. 83 exemplifies a window 53 displaying an adjustment scale and a slider corresponding to the item (eg, “1 year”) selected in the sub-menu 52B. In the case of FIG. 83 (a), for example, the case where the image photographed in July is advanced by 5 months and processed like a photographed image in December is illustrated. Further, in the case of FIG. 83 (b), an example is shown in which the image captured in the above July is processed back as in the captured image of February by returning five months.

図84は、サブメニュー52Bにおいて選択した項目(例えば「10年」)に対応する調整用スケールとスライダを表示するウィンドウ53を例示する図である。図84(a)の場合、例えば2013年に撮影された画像に対し、1年戻して2012年の撮影画像のように加工する場合を例示する。また、図84(b)の場合、上記2013年に撮影された画像に対し、3年進めて2016年の撮影画像のように加工する場合を例示する。   FIG. 84 is a view exemplifying the window 53 displaying the adjustment scale and the slider corresponding to the item (for example, “10 years”) selected in the submenu 52B. In the case of FIG. 84 (a), for example, a case where the image captured in 2013 is processed one year back and processed like a captured image in 2012 is illustrated. Further, in the case of FIG. 84 (b), the case where the image photographed in the above-mentioned 2013 is advanced by three years and processed like a photographed image of 2016 is exemplified.

画像加工においては、画像のタグ情報に基づいて撮影位置情報や撮影方位情報が得られる場合は、太陽の明るさや陰の方向を反映させる。撮影位置情報から北半球か南半球かを判別し、季節を判定できる。なお、画像のタグ情報に基づいて主要被写体を判別できる場合は、主要被写体別に加工処理を異ならせてもよい。例えば、人物や動物が主要被写体の場合であって、暗い画像へ加工する場合には、主要被写体については暗く加工せずに、他の領域を暗く加工する。一方、風景を撮影した画像の場合であって、暗い画像へ加工する場合には、画像全体を暗く加工する。   In image processing, when photographing position information and photographing orientation information can be obtained based on tag information of an image, the direction of the brightness or shade of the sun is reflected. It is possible to determine whether it is the northern hemisphere or the southern hemisphere from the imaging position information and determine the season. If the main subject can be determined based on the tag information of the image, the processing may be different for each main subject. For example, in the case where a person or an animal is a main subject and processing is performed to a dark image, other areas are processed to be dark without processing the main subject as dark. On the other hand, in the case of an image obtained by photographing a landscape, in the case of processing into a dark image, the entire image is processed to be dark.

夜間に撮影したような画像へ加工する場合、点光源部分を他の部分ほど暗く加工せずに、結果として際だたせるように加工してもよい。水の流れを撮影した画像の場合、シャッター速度を遅く撮影したように線状に加工してもよい。   In the case of processing into an image as photographed at night, the point light source part may be processed so as to be highlighted as a result without being processed as dark as other parts. In the case of the image which image | photographed the flow of water, you may process into linear shape like shutter speed was slow slowed.

数十年前に遡る過去の画像については、公知のセピア画像へ加工する。さらに100年以上遡る場合は、色を排して、いわゆる石版画像へ加工する。一方、1年以上先へ進む未来の画像については、色および陰を排した線画像へ加工する。   About the past image which goes back several decades ago, it is processed into a well-known sepia image. Furthermore, when going back for more than 100 years, the color is excluded and processed into a so-called lithographic image. On the other hand, the image of the future, which advances for more than one year, is processed into a line image excluding color and shade.

調整用スケールとスライダを表示するウィンドウ531の中でタイムスパンを変更操作できるように構成してもよい。図85は、この場合のウィンドウ531を例示する図である。ユーザがタイムトラベル環532のうち「1年」に相当する位置をタップ操作すると、プログラム実行部31は、調整用スケールのメモリを「1年」用に切り替える。プログラム実行部31は、タイムトラベル環532のタップ位置に応じて調整用スケールのメモリを切り替える。   The time span may be changed in the window 531 for displaying the adjustment scale and the slider. FIG. 85 is a diagram illustrating the window 531 in this case. When the user taps the position corresponding to “1 year” in the time travel ring 532, the program execution unit 31 switches the memory of the adjustment scale to “1 year”. The program execution unit 31 switches the memory of the adjustment scale according to the tap position of the time travel ring 532.

<フローチャートの説明>
「タイムトラベル」が選択された場合にプログラム実行部31が実行する処理の流れについて、図86〜図87に例示するフローチャートを参照して説明する。プログラム実行部31は、図80に例示した画面においてサブメニュー52Bがタップ操作されると、図86による処理を開始させる。
<Description of flowchart>
The flow of processing executed by the program execution unit 31 when “time travel” is selected will be described with reference to the flowcharts illustrated in FIGS. Program execution unit 31 starts the process in FIG. 86 when tap operation is performed on sub-menu 52B in the screen illustrated in FIG.

図86のステップS501において、プログラム実行部31は、加工対象画像を読み込んでステップS502へ進む。ステップS502において、プログラム実行部31は、加工対象画像に関連づけられているタグ情報を取得してステップS503へ進む。ステップS503において、プログラム実行部31は、加工対象画像に対する画像解析を行ってステップS504へ進む。画像解析は、上記シーン解析および顔検出を含む。   In step S501 of FIG. 86, the program execution unit 31 reads an image to be processed and proceeds to step S502. In step S502, the program execution unit 31 acquires tag information associated with the image to be processed, and proceeds to step S503. In step S503, the program execution unit 31 performs image analysis on the processing target image, and proceeds to step S504. Image analysis includes the above scene analysis and face detection.

ステップS504において、プログラム実行部31は、画像解析結果やタグ情報に基づいて、加工方法(例えば、「顔」領域については明暗加工から除外する、「風景」を撮影した画像は全体を加工する、…など)を決定してステップS505へ進む。   In step S 504, the program execution unit 31 processes the entire processing method (for example, excluding “brightness” for the “face” region from the light and dark processing) based on the image analysis result and the tag information. ... etc) and the process proceeds to step S505.

ステップS505において、プログラム実行部31は、ユーザ操作に基づくタイムスパンにおいて画像加工処理を行ってステップS506へ進む。ステップS506において、プログラム実行部31は、画像加工処理が終了か否かを判定する。プログラム実行部31は、サブメニュー52Bにおいて他のタイムスパンが選ばれた場合にステップS506を否定判定してステップS505へ戻る。プログラム実行部31は、サブメニュー52Bにおいて他のタイムスパンが選ばれない場合には、ステップS506を肯定判定してステップS507へ進む。   In step S505, the program execution unit 31 performs the image processing process in the time span based on the user operation, and proceeds to step S506. In step S506, the program execution unit 31 determines whether the image processing has been completed. When another time span is selected in submenu 52B, program execution unit 31 makes a negative decision in step S506, and returns to step S505. If another time span is not selected in sub-menu 52B, program execution unit 31 makes an affirmative decision in step S506 and proceeds to step S507.

ステップS507において、プログラム実行部31は、画像加工処理後の画像をメモリに保存または不図示のプリンタ装置で印刷するなどの終了処理を行って図86による処理を終了する。   In step S507, the program execution unit 31 performs termination processing such as saving the image after image processing processing in a memory or printing with an unshown printer, and terminates the processing in FIG.

画像加工処理時にプログラム実行部31が実行する処理の流れについて、図87に例示するフローチャートを参照して説明する。図87のステップS601において、プログラム実行部31は、サブメニュー52Bを表示部22に表示させて、タイムスパンの選択操作を受け付けてステップS602へ進む。   The flow of processing executed by the program execution unit 31 at the time of image processing will be described with reference to the flowchart illustrated in FIG. In step S601 in FIG. 87, program execution unit 31 causes display unit 22 to display sub-menu 52B, receives a time span selection operation, and proceeds to step S602.

ステップS602において、プログラム実行部31は、ユーザ操作で選択されたタイムスパンに対応する操作ウィンドウ53を表示させて、上記ユーザによるノブ53aの位置変更に応じて画像加工処理を行ってステップS603へ進む。ステップS603において、プログラム実行部31は、加工後の画像をメモリに保存するとともに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させ、図87による処理を終了する。   In step S602, the program execution unit 31 causes the operation window 53 corresponding to the time span selected by the user operation to be displayed, performs image processing according to the position change of the knob 53a by the user, and proceeds to step S603. . In step S603, the program execution unit 31 stores the image after processing in the memory, replaces the reduced image 51 with a reduced image corresponding to the image after processing, and displays the reduced image, and ends the processing in FIG.

以上説明した第三の実施形態によれば、以下の作用効果が得られる。
(1)操作ウィンドウ53を表示する処理(S602)と、表示した操作ウィンドウ53に対する操作量を検出する操作量検出処理(S602)と、検出した操作量に応じて、加工対象画像の撮影時より前、または後に撮影された画像へ加工対象画像を加工する画像加工処理(S602)と、プログラム実行部31に実行させるようにした。これにより、異なる時刻に撮影したかのような画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。
According to the third embodiment described above, the following effects can be obtained.
(1) Process of displaying the operation window 53 (S602), operation amount detection process (S602) of detecting the operation amount of the displayed operation window 53, and from the time of photographing of the processing target image according to the detected operation amount The program execution unit 31 is caused to execute an image processing process (S602) for processing the processing target image into the image captured before or after. As a result, it is possible to provide a user interface with a simple operation for processing an image as if taken at different times.

(2)操作量検出処理(S602)は、1日スパンに対応する操作量を検出し、画像加工処理(S602)は、加工対象画像を朝、日中、夕または夜に撮影された画像へ加工するので、1日スパンの異なる時刻に撮影したかのような画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。 (2) The operation amount detection process (S602) detects an operation amount corresponding to a one-day span, and the image processing (S602) converts an image to be processed into an image captured in the morning, daytime, evening or night Since processing is performed, it is possible to provide a simple user interface for processing into an image as if taken at different times of day span.

(3)操作量検出処理(S602)は、1年スパンに対応する操作量を検出し、画像加工処理(S602)は、加工対象画像を異なる季節に撮影された画像へ加工するので、1年スパンの異なる季節に撮影したかのような画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。 (3) The operation amount detection process (S602) detects an operation amount corresponding to a one-year span, and the image processing (S602) processes an image to be processed into an image captured in different seasons. It is possible to provide an easy-to-use user interface for processing an image as if it were shot in a season different in span.

(4)操作量検出処理(S602)は、10〜100年スパンに対応する操作量を検出し、画像加工処理(S602)は、加工対象画像の撮影時より前に撮影された画像へ加工する場合、加工対象画像をセピア色画像または石版画像へ加工するので、10〜100年スパンの過去へ遡った撮影画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。 (4) The operation amount detection process (S602) detects the operation amount corresponding to the span of 10 to 100 years, and the image processing (S602) processes the image taken before the time of photographing the processing target image In this case, since the image to be processed is processed into a sepia color image or a lithographic image, it is possible to provide a user interface with a simple operation for processing into a captured image that has been traced back to the past for 10 to 100 years.

以上説明した各実施形態において、画像処理装置10へのプログラムの供給は、図88に例示するように、プログラムを格納したCD−ROMなどの記憶媒体45をユーザへ提供してもよいし、ネットワークなどの通信回線42を経由する方法で画像処理装置10へローディングしてもよい。通信回線42に接続されている無線LANのアクセスポイント43を介して、無線通信で画像処理装置10へ提供される。通信回線42を経由する場合は、通信回線42に接続されたサーバー41のストレージ装置などにプログラムを格納しておく。プログラムは、記憶媒体45や通信回線42を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   In each of the embodiments described above, the program may be supplied to the image processing apparatus 10 by providing the user with a storage medium 45 such as a CD-ROM storing the program, as illustrated in FIG. , Etc. may be loaded to the image processing apparatus 10 by a method via the communication line 42. The image processing apparatus 10 is provided by wireless communication via the wireless LAN access point 43 connected to the communication line 42. In the case of passing through the communication line 42, the program is stored in a storage device of the server 41 connected to the communication line 42 or the like. The program can be supplied as various forms of computer program products, such as provision via the storage medium 45 and the communication line 42.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and the present invention is not limited to the configuration of the above embodiment.

以上説明した各実施形態において、画像処理装置10におけるユーザ操作は、指による操作(タップ操作、スワイプ操作、スライド操作、ドラッグ操作等)を説明したが、これに限定されない。画像処理装置10は、マウスやスタイラスペン等のポインティングデバイスを用いてユーザ操作を行えるようにしてもよい。   In each of the embodiments described above, the user operation in the image processing apparatus 10 has described an operation (a tap operation, a swipe operation, a slide operation, a drag operation, and the like) with a finger, but is not limited thereto. The image processing apparatus 10 may perform user operation using a pointing device such as a mouse or a stylus pen.

10…画像処理装置
15…通信部
20…表示・入力部
22…表示部
30…制御部
31…プログラム実行部
34…不揮発性メモリ
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus 15 ... Communications part 20 ... Display / input part 22 ... Display part 30 ... Control part 31 ... Program execution part 34 ... Non-volatile memory

Claims (4)

操作デバイスを表示する処理と、
選択されたタイムスパンにおいて、前記表示した操作デバイスに対する操作量を検出する操作量検出処理と、
前記タイムスパンにおいて前記操作量検出処理によって検出された操作量および加工対象画像に付随するタグ情報に基づいて加工方法を決定し、前記加工対象画像を前記加工対象画像の撮影時より前、または後に撮影された画像へ加工する画像加工処理と、
をコンピュータに実行させる画像処理プログラム。
A process of displaying an operation device;
An operation amount detection process of detecting an operation amount of the displayed operation device in a selected time span;
The processing method is determined based on the operation amount detected by the operation amount detection processing and the tag information attached to the processing target image in the time span, and the processing target image is before or after photographing the processing target image Image processing to process the captured image,
An image processing program that causes a computer to execute.
請求項1に記載の画像処理プログラムにおいて、
前記操作量検出処理は、前記タイムスパンが1日であると、1日スパンに対応する操作量を検出し、
前記画像加工処理は、前記加工対象画像を朝、日中、夕または夜に撮影された画像へ加工する画像処理プログラム。
In the image processing program according to claim 1,
The operation amount detection process detects an operation amount corresponding to a one-day span when the time span is one day.
The image processing process is an image processing program for processing the image to be processed into an image photographed in the morning, daytime, evening or night.
請求項1に記載の画像処理プログラムにおいて、
前記操作量検出処理は、前記タイムスパンが1年であると、1年スパンに対応する操作量を検出し、
前記画像加工処理は、前記加工対象画像を異なる季節に撮影された画像へ加工する画像処理プログラム。
In the image processing program according to claim 1,
The operation amount detection process detects an operation amount corresponding to a one-year span when the time span is one year.
The image processing process is an image processing program for processing the processing target image into an image captured in different seasons.
請求項1に記載の画像処理プログラムにおいて、
前記操作量検出処理は、前記タイムスパンが10〜100年であると、10〜100年スパンに対応する操作量を検出し、
前記画像加工処理は、前記加工対象画像の撮影時より前の撮影された画像へ加工する場合、前記加工対象画像をセピア色画像、モノクロ画像または石版画像へ加工する画像処理プログラム。
In the image processing program according to claim 1,
The operation amount detection process detects an operation amount corresponding to a 10 to 100 year span when the time span is 10 to 100 years,
The image processing program is an image processing program for processing the processing target image into a sepia color image, a monochrome image, or a lithographic image, when processing into a captured image prior to shooting of the processing target image.
JP2019028672A 2019-02-20 2019-02-20 Image processing program Pending JP2019087282A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019028672A JP2019087282A (en) 2019-02-20 2019-02-20 Image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028672A JP2019087282A (en) 2019-02-20 2019-02-20 Image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013116470A Division JP2014235556A (en) 2013-05-31 2013-05-31 Image process program

Publications (1)

Publication Number Publication Date
JP2019087282A true JP2019087282A (en) 2019-06-06

Family

ID=66763221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028672A Pending JP2019087282A (en) 2019-02-20 2019-02-20 Image processing program

Country Status (1)

Country Link
JP (1) JP2019087282A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077779A (en) * 2000-08-29 2002-03-15 Matsushita Electric Ind Co Ltd Image management device
JP2003204459A (en) * 2001-10-23 2003-07-18 Konica Corp Digital camera and image reproducing apparatus
JP2003259137A (en) * 2002-02-28 2003-09-12 Seiko Epson Corp Image color correction device and method thereof, and computer program
JP2006031087A (en) * 2004-07-12 2006-02-02 Nec Corp Real estate property guiding system, server and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077779A (en) * 2000-08-29 2002-03-15 Matsushita Electric Ind Co Ltd Image management device
JP2003204459A (en) * 2001-10-23 2003-07-18 Konica Corp Digital camera and image reproducing apparatus
JP2003259137A (en) * 2002-02-28 2003-09-12 Seiko Epson Corp Image color correction device and method thereof, and computer program
JP2006031087A (en) * 2004-07-12 2006-02-02 Nec Corp Real estate property guiding system, server and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山本 ゆり子: "Photoshop解体工房 第7回 「素材を巧みに組み立てるコラージュ」", MDN, vol. 第75巻, JPN6017022891, 1 July 2000 (2000-07-01), JP, pages 94 - 99, ISSN: 0004316273 *

Similar Documents

Publication Publication Date Title
US10735642B1 (en) User interfaces for capturing and managing visual media
US11706521B2 (en) User interfaces for capturing and managing visual media
US11770601B2 (en) User interfaces for capturing and managing visual media
EP3792738B1 (en) User interfaces for capturing and managing visual media
JP5990600B2 (en) Color adjuster for color classification
US8385681B2 (en) Blemish removal
US9299168B2 (en) Context aware user interface for image editing
US9959649B2 (en) Image compositing device and image compositing method
US8847973B2 (en) Automatic adjustment of computer interface colors using image processing
US20130236091A1 (en) Method and interface for converting images to grayscale
GB2570415A (en) User interface tools for cropping and straightening image
US9053568B2 (en) Applying a realistic artistic texture to images
JP6330262B2 (en) Image processing program
JP2014235553A (en) Image process program
JP2014235556A (en) Image process program
JP2019087282A (en) Image processing program
JP6205860B2 (en) Image processing program
JP2014236358A (en) Image processing program
JP2018152100A (en) Image processing program
JP2017228313A (en) Image processing program
Hoeschen Photoshop Elements 4 for Windows: Visual QuickStart Guide

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200804