JP6205860B2 - Image processing program - Google Patents

Image processing program Download PDF

Info

Publication number
JP6205860B2
JP6205860B2 JP2013116467A JP2013116467A JP6205860B2 JP 6205860 B2 JP6205860 B2 JP 6205860B2 JP 2013116467 A JP2013116467 A JP 2013116467A JP 2013116467 A JP2013116467 A JP 2013116467A JP 6205860 B2 JP6205860 B2 JP 6205860B2
Authority
JP
Japan
Prior art keywords
image
processing
program execution
execution unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013116467A
Other languages
Japanese (ja)
Other versions
JP2014235554A (en
Inventor
務 西澤
務 西澤
顕之 利根川
顕之 利根川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013116467A priority Critical patent/JP6205860B2/en
Publication of JP2014235554A publication Critical patent/JP2014235554A/en
Application granted granted Critical
Publication of JP6205860B2 publication Critical patent/JP6205860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、画像処理プログラムに関する。   The present invention relates to an image processing program.

画像の色やコントラスト等を調整して画像を加工する画像処理装置が知られている(特許文献1、特許文献2参照)。画像処理装置の多くは、ユーザが自由に画像を加工できるように多数の調整用パラメータが変更可能に構成される。   2. Description of the Related Art Image processing apparatuses that process an image by adjusting the color or contrast of the image are known (see Patent Document 1 and Patent Document 2). Many image processing apparatuses are configured such that a large number of adjustment parameters can be changed so that a user can freely process an image.

特開2006−3603号公報Japanese Patent Laid-Open No. 2006-3603 特開2000−330677号公報JP 2000-330677 A

しかしながら、画像加工について専門的な知識をもっていないユーザにとって、多数の調整用パラメータの中から個々の調整用パラメータを変更して意図どおりの加工結果を導き出すことは困難である。すなわち、専門的な知識をもたないユーザが意図どおりの加工結果を導くためのユーザインターフェイスは多くなく、使い勝手が十分とはいえなかった。   However, it is difficult for a user who does not have specialized knowledge about image processing to derive an intended processing result by changing individual adjustment parameters from among a large number of adjustment parameters. That is, there are not many user interfaces for a user who has no specialized knowledge to guide a processing result as intended, and the usability is not sufficient.

発明の第1の態様による画像処理プログラムは、複数の第1画像および第2画像の特徴をそれぞれ解析する解析処理と、前記複数の第1画像にそれぞれ対応する複数の第1縮小画像を、表示装置の第1領域に表示させる第1表示処理と、前記解析の結果に基づき、前記第2画像に対し、前記複数の第1画像の特徴にそれぞれ近づける補正を行って、第3画像を複数生成する生成処理と、前記表示装置の前記第1領域とは異なる第2領域に、前記複数の第3画像にそれぞれ対応する複数の第3縮小画像を、前記複数の第1縮小画像にそれぞれ対応づけて表示させる第2表示処理と、をコンピュータに実行させる。An image processing program according to a first aspect of the invention displays an analysis process for analyzing characteristics of a plurality of first images and a second image, and a plurality of first reduced images respectively corresponding to the plurality of first images. Based on the first display processing to be displayed in the first area of the apparatus and the result of the analysis, the second image is corrected so as to be close to the characteristics of the plurality of first images, and a plurality of third images are generated. And a plurality of third reduced images respectively corresponding to the plurality of third images in a second region different from the first region of the display device and the plurality of first reduced images, respectively. And causing the computer to execute a second display process to be displayed.
発明の第2の態様による画像処理プログラムは、複数の第1画像にそれぞれ対応する複数の第1縮小画像を、表示装置の第1領域に表示させる第1表示処理と、前記複数の第1画像および第2画像の特徴をそれぞれ解析する解析処理と、前記解析の結果に基づき、前記第2画像に対し、前記複数の第1画像の特徴にそれぞれ近づける補正を行って、第3画像を複数生成する生成処理と、前記表示装置の前記第1領域とは異なる第2領域に、前記複数の第3画像にそれぞれ対応する複数の第3縮小画像を、前記複数の第1縮小画像にそれぞれ対応づけて表示させる第2表示処理と、をコンピュータに実行させる。An image processing program according to a second aspect of the invention includes a first display process for displaying a plurality of first reduced images respectively corresponding to a plurality of first images in a first region of a display device, and the plurality of first images. And a plurality of third images by performing an analysis process for analyzing the features of the second image and a correction for approaching the features of the plurality of first images to the second image based on the analysis result. And a plurality of third reduced images respectively corresponding to the plurality of third images in a second region different from the first region of the display device and the plurality of first reduced images, respectively. And causing the computer to execute a second display process to be displayed.

本発明によれば、画像処理のための操作が簡単なユーザインターフェイスを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the user interface with easy operation for image processing can be provided.

本発明の第一の実施形態による画像処理装置の外観を例示する図である。It is a figure which illustrates the external appearance of the image processing apparatus by 1st embodiment of this invention. 図1の画像処理装置の要部構成を例示するブロック図である。FIG. 2 is a block diagram illustrating a main configuration of the image processing apparatus in FIG. 1. 「加工画像の進め方設定」表示画面を例示する図である。It is a figure which illustrates a "processed image advance setting" display screen. 初期画面を例示する図である。It is a figure which illustrates an initial screen. フィルタ画像を選ぶ操作を説明する図である。It is a figure explaining operation which selects a filter picture. フィルタ画像を選ぶ操作を説明する図である。It is a figure explaining operation which selects a filter picture. 変更されたアイコンの新しい名称を例示する図である。It is a figure which illustrates the new name of the changed icon. 加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing target picture. 加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing target picture. 複数の加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of processing target images. 複数の加工対象画像を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of processing target images. 一部のパラメータのみを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects only some parameters on image processing. 一部のパラメータのみを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects only some parameters on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects the parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects the parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects the parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects the parameter based on a different filter image on image processing. 異なるフィルタ画像に基づくパラメータを画像加工に反映させる操作を説明する図である。It is a figure explaining operation which reflects the parameter based on a different filter image on image processing. 携帯電話機の縦長表示画面における配置を例図する図である。It is a figure which illustrates the arrangement | positioning in the portrait display screen of a mobile telephone. フォトビューワの横長表示画面における配置を例示する図である。It is a figure which illustrates arrangement | positioning in the landscape display screen of a photo viewer. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. 初期画面を例示する図である。It is a figure which illustrates an initial screen. 図23(a)は「色を変える」に対応するサブメニューを含む処理項目ウィンドウを例示する図、図23(b)は「くっきりさせる」に対応するサブメニューを含む処理項目ウィンドウを例示する図である。FIG. 23A is a diagram illustrating a processing item window including a submenu corresponding to “change color”, and FIG. 23B is a diagram illustrating a processing item window including a submenu corresponding to “clear”. It is. パラメータ調整用スケールとスライダを表示するウィンドウを例示する図である。It is a figure which illustrates the window which displays the scale for parameter adjustment, and a slider. 画像加工後の表示画面を例示する図である。It is a figure which illustrates the display screen after image processing. ポップアップウィンドウを例示する図である。It is a figure which illustrates a pop-up window. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. ユーザ別メニュー画面を例示する図である。It is a figure which illustrates a menu screen classified by user. 従来例の表示画面を例示する図である。It is a figure which illustrates the display screen of a prior art example. 図32(a)はスクロール前のユーザ別メニュー画面を例示する図、図32(b)はスクロール後のユーザ別メニュー画面を例示する図、図32(c)はユーザ別メニューを例示する図である。FIG. 32A is a diagram illustrating a user-specific menu screen before scrolling, FIG. 32B is a diagram illustrating a user-specific menu screen after scrolling, and FIG. 32C is a diagram illustrating a user-specific menu screen. is there. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. 効果分類ウィンドウを例示する図である。It is a figure which illustrates an effect classification window. 効果分類ウィンドウを例示する図である。It is a figure which illustrates an effect classification window. 効果分類ウィンドウを例示する図である。It is a figure which illustrates an effect classification window. 変形例3におけるユーザ別メニューの表示画面を例示する図である。It is a figure which illustrates the display screen of the menu classified by user in the modification 3. 初期画面を例示する図である。It is a figure which illustrates an initial screen. フィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which selects a filter picture and a feature analysis range. フィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which selects a filter picture and a feature analysis range. フィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which selects a filter picture and a feature analysis range. 加工対象画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing object picture and a feature analysis range. 加工対象画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing object picture and a feature analysis range. 加工対象画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a processing object picture and a feature analysis range. 楕円形状の特徴分析範囲を例示する図である。It is a figure which illustrates the feature analysis range of an ellipse shape. 複数の楕円形状を組み合わせた特徴分析範囲を例示する図である。It is a figure which illustrates the feature analysis range which combined several ellipse shape. 複数に分離されている特徴分析範囲を例示する図である。It is a figure which illustrates the feature analysis range separated into plurality. 他の特徴分析範囲を例示する図である。It is a figure which illustrates the other feature analysis range. 複数の特徴分析範囲に対して異なる画像加工を行う場面を説明する図である。It is a figure explaining the scene which performs different image processing with respect to several feature analysis range. スタンプツールを用いる例を説明する図である。It is a figure explaining the example using a stamp tool. 加工対象画像において特徴分析範囲を選ばない場合を説明する図である。It is a figure explaining the case where the feature-analysis range is not selected in a process target image. 加工対象画像の全体に対して画像加工を行う場合を説明する図である。It is a figure explaining the case where an image process is performed with respect to the whole process target image. 加工対象画像の全体に対して画像加工を行う場合を説明する図である。It is a figure explaining the case where an image process is performed with respect to the whole process target image. 加工対象画像の一部を補正する場面を説明する図である。It is a figure explaining the scene which correct | amends a part of process target image. 加工対象画像の一部を補正する場面を説明する図である。It is a figure explaining the scene which correct | amends a part of process target image. 加工対象画像の一部を補正する場面を説明する図である。It is a figure explaining the scene which correct | amends a part of process target image. 画像加工する境界をぼかす例を説明する図である。It is a figure explaining the example which blurs the boundary which processes an image. 画像加工する境界をぼかす例を説明する図である。It is a figure explaining the example which blurs the boundary which processes an image. 画像加工する境界をぼかす例を説明する図である。It is a figure explaining the example which blurs the boundary which processes an image. 複数のフィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of filter images and a feature analysis range. 複数のフィルタ画像および特徴分析範囲を選ぶ操作を説明する図である。It is a figure explaining operation which chooses a plurality of filter images and a feature analysis range. 複数の特徴分析範囲に対して異なる画像加工を行う場面を説明する図である。It is a figure explaining the scene which performs different image processing with respect to several feature analysis range. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where several feature analysis range is adjoining or contacting. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where several feature analysis range is adjoining or contacting. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where several feature analysis range is adjoining or contacting. 特徴分析範囲を座標で指定する場合を説明する図である。It is a figure explaining the case where the feature analysis range is designated with a coordinate. 複数の特徴分析範囲が近接または接触している場合を説明する図である。It is a figure explaining the case where several feature analysis range is adjoining or contacting. 画像加工前と画像加工後の比較表示を説明する図である。It is a figure explaining the comparative display before image processing and after image processing. 画像加工前と画像加工後の比較表示を説明する図である。It is a figure explaining the comparative display before image processing and after image processing. 画像加工前と画像加工後の比較表示を説明する図である。It is a figure explaining the comparative display before image processing and after image processing. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after an image process and the display which shows an image process range are made into a layer structure. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after an image process and the display which shows an image process range are made into a layer structure. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after an image process and the display which shows an image process range are made into a layer structure. 画像加工後の画像と画像加工範囲を示す表示とをレイヤー構造にした場合を説明する図である。It is a figure explaining the case where the image after an image process and the display which shows an image process range are made into a layer structure. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. 画像加工前と画像加工後の比較表示する他の例を説明する図である。It is a figure explaining the other example which carries out the comparison display before image processing and after image processing. 画像加工前と画像加工後の比較表示する他の例を説明する図である。It is a figure explaining the other example which carries out the comparison display before image processing and after image processing. 画像加工前と画像加工後の比較表示する他の例を説明する図である。It is a figure explaining the other example which carries out the comparison display before image processing and after image processing. 「タイムトラベル」が選択された場合の表示画面を例示する図である。It is a figure which illustrates a display screen when "time travel" is selected. タイムスパンが「1日」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates the scale for adjustment and a slider in case a time span is "1 day." タイムスパンが「1日」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates the scale for adjustment and a slider in case a time span is "1 day." タイムスパンが「1年」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates the scale for adjustment and a slider in case a time span is "1 year". タイムスパンが「10年」の場合の調整用スケールとスライダを例示する図である。It is a figure which illustrates the scale for adjustment and a slider in case a time span is "10 years." 他のウィンドウ表示を例示する図である。It is a figure which illustrates other window displays. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. プログラム実行部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a program execution part performs. 画像処理装置へのプログラム供給を説明する図である。It is a figure explaining the program supply to an image processing apparatus.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による画像処理装置10の外観を例示する図である。画像処理装置10は、例えば、タブレット端末によって構成される。タブレット端末は、オペレーションシステム(OS)と呼ばれる基本プログラムを実行した上で、画像を加工するアプリケーションプログラム(以下、画像処理プログラムと呼ぶ)を実行することにより、画像処理装置10として動作する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating an appearance of an image processing apparatus 10 according to the first embodiment of the present invention. The image processing apparatus 10 is configured by a tablet terminal, for example. The tablet terminal operates as the image processing apparatus 10 by executing an application program (hereinafter referred to as an image processing program) for processing an image after executing a basic program called an operation system (OS).

図1において、画像処理装置10の正面に表示・入力部20が設けられる。表示・入力部20は、画像やアイコン25などを表示する表示機能と、ユーザによる接触操作を受け付ける入力機能と、を兼ね備えたタッチパネル液晶ディスプレイによって構成される。   In FIG. 1, a display / input unit 20 is provided in front of the image processing apparatus 10. The display / input unit 20 is configured by a touch panel liquid crystal display having both a display function for displaying an image, an icon 25, and the like and an input function for receiving a contact operation by a user.

表示・入力部20は画像処理装置10の前面を覆うように設けられており、表示面が操作面を兼ねる。表示・入力部20は、ユーザの指で接触操作されると、接触部の静電容量の変化に基づいて、接触操作されたこと、および接触位置を示す位置検出信号を出力する。なお、抵抗膜方式、電磁誘導方式などによって、接触操作されたこと、および接触位置を示す位置検出信号を出力してもよい。   The display / input unit 20 is provided so as to cover the front surface of the image processing apparatus 10, and the display surface also serves as an operation surface. When a contact operation is performed with a user's finger, the display / input unit 20 outputs a position detection signal indicating that the contact operation has been performed and a contact position based on a change in capacitance of the contact unit. A position detection signal indicating that the contact operation has been performed and the contact position may be output by a resistance film method, an electromagnetic induction method, or the like.

画像処理装置10は、表示・入力部20に表示するアイコン25に対応づけられているプログラムを起動させることにより、画像加工機能、メール機能や通信機能など、起動プログラムによって実現される機能を発揮する。なお、図1に例示する表示・入力部20の表示例は、いわゆるホーム画面の例である。   The image processing apparatus 10 activates a program associated with the icon 25 displayed on the display / input unit 20 to exhibit functions realized by the activation program such as an image processing function, a mail function, and a communication function. . The display example of the display / input unit 20 illustrated in FIG. 1 is an example of a so-called home screen.

図2は、図1の画像処理装置10の要部構成を例示するブロック図である。図2において、画像処理装置10は、表示・入力部20と、制御部30と、通信部15とを有する。   FIG. 2 is a block diagram illustrating the main configuration of the image processing apparatus 10 of FIG. In FIG. 2, the image processing apparatus 10 includes a display / input unit 20, a control unit 30, and a communication unit 15.

<表示・入力部20>
表示・入力部20は、位置検出部21と、表示部22とを有する。位置検出部21は、指による接触位置を示す位置検出信号と、表示制御部32が有する表示情報(表示・入力部20の表示部22のどこに、何を表示させているかを示す情報)とに基づいて、表示・入力部20の画面上の対象(画像やアイコン25等)を特定する。表示部22は、表示制御部32からの表示制御信号に基づいて、画像やアイコン25などを表示する。
<Display / input unit 20>
The display / input unit 20 includes a position detection unit 21 and a display unit 22. The position detection unit 21 uses a position detection signal indicating a contact position with a finger and display information (information indicating where and what is displayed on the display unit 22 of the display / input unit 20) included in the display control unit 32. Based on this, an object (image, icon 25, etc.) on the screen of the display / input unit 20 is specified. The display unit 22 displays an image, an icon 25, and the like based on the display control signal from the display control unit 32.

<制御部30>
制御部30は、プログラム実行部31と、表示制御部32と、通信制御部33と、不揮発性メモリ34とを含み、画像処理装置10内の各部の動作を制御する。プログラム実行部31は、上記アイコン25に対応づけられており、上記位置検出部21によって特定されたアイコン25に対応するプログラムを実行する。表示制御部32は、上記表示部22に、画像やアイコン25などを表示させる。通信制御部33は、通信部15による外部機器との通信を制御する。不揮発性メモリ34は、プログラムや画像、後述するデータベースを格納する。
<Control unit 30>
The control unit 30 includes a program execution unit 31, a display control unit 32, a communication control unit 33, and a nonvolatile memory 34, and controls the operation of each unit in the image processing apparatus 10. The program execution unit 31 is associated with the icon 25 and executes a program corresponding to the icon 25 specified by the position detection unit 21. The display control unit 32 causes the display unit 22 to display images, icons 25, and the like. The communication control unit 33 controls communication with an external device by the communication unit 15. The nonvolatile memory 34 stores programs, images, and a database described later.

<通信部15>
通信部15は、通信制御部33からの指示に応じて無線通信を行う。通信部15は、例えば、無線LAN(Local Area Network)のアクセスポイントを介した通信が可能に構成されている。画像処理装置10で加工する画像は、通信部15を介して外部機器から取得してもよいし、画像処理装置10が備える不図示のカメラユニットで撮影してもよい。また、プログラム実行部31が実行するアプリケーションプログラムは、通信部15を介して外部機器から取得する。
<Communication unit 15>
The communication unit 15 performs wireless communication according to an instruction from the communication control unit 33. The communication unit 15 is configured to be able to communicate via a wireless LAN (Local Area Network) access point, for example. An image to be processed by the image processing apparatus 10 may be acquired from an external device via the communication unit 15, or may be taken by a camera unit (not shown) provided in the image processing apparatus 10. An application program executed by the program execution unit 31 is acquired from an external device via the communication unit 15.

<画像加工の進め方設定>
プログラム実行部31が実行する画像処理プログラムを説明する前に、「画像加工の進め方設定」について説明する。本実施形態では、次の3通りの画像加工の進め方の中から選ばれた1つの画像加工の進め方に基づいて、画像に対する加工を行う。このため、画像処理プログラムを起動する前、あるいは起動後に、「画像加工の進め方設定」操作によって1つの画像加工の進め方が決められる。一旦決められた画像加工の進め方は、不揮発性メモリ34に保存されるため、プログラム実行部31は、「画像加工の進め方設定」操作によって変更されない限り前回と同様の画像加工の進め方を選ぶ。
<Setting for image processing>
Before describing the image processing program executed by the program execution unit 31, “image processing advancement setting” will be described. In the present embodiment, an image is processed based on one image processing method selected from the following three image processing methods. For this reason, before or after the image processing program is started, one image processing method is determined by an “image processing progress setting” operation. Since the image processing advancement method once determined is stored in the nonvolatile memory 34, the program execution unit 31 selects the same image processing advancement method as before unless changed by the “image processing advancement setting” operation.

1.画像サンプルを選んで加工設定を行う
2.直感メニューを開いて加工設定を行う
3.ユーザ別メニューを開いて加工設定を行う
1. Select the image sample and set the processing. 2. Open the intuitive menu and set machining settings. Open the user-specific menu and set the machining settings

上記3つの画像加工の進め方の中から1つの画像加工の進め方を選ぶ処理は、画像処理装置10の「設定」メニューの中で行われる。プログラム実行部31は、例えば、表示・入力部20の表示部22に表示されている「設定」アイコン25Bが位置検出部21によって特定されると、設定処理を起動して図3に例示する「画像加工の進め方設定」表示を表示部22に表示させる。ユーザは、選びたい項目のチェックボックスをタップ操作することにより、例えば、「画像サンプルを選んで加工設定を行う」のチェックボックスにチェックを入れる。   The process of selecting one image processing method from among the three image processing methods is performed in the “setting” menu of the image processing apparatus 10. For example, when the “setting” icon 25B displayed on the display unit 22 of the display / input unit 20 is specified by the position detection unit 21, the program execution unit 31 activates the setting process and is illustrated in FIG. The display unit 22 is displayed with “Image processing advance setting” display. The user taps a check box of an item to be selected, thereby checking, for example, a check box of “Select an image sample and perform processing setting”.

<画像サンプルを選んで加工設定を行う場合>
「画像サンプルを選んで加工設定を行う」が選ばれた場合にプログラム実行部31が実行する画像加工の進め方を説明する。「画像サンプルを選んで加工設定を行う」場合は、先ず、ユーザに加工の見本となる画像(以降、フィルタ画像と呼ぶ)を選んでもらう。次に、プログラム実行部31が、選ばれたフィルタ画像の全体に基づいて、フィルタ画像の特徴を分析する。そして、プログラム実行部31は、画像加工の対象とする画像についても同様に、加工対象画像の全体に基づいて特徴を分析する。その上で、プログラム実行部31が、これら2つの画像(フィルタ画像と加工対象画像)間で画像全体の特徴を近似させるように、加工対象画像に対して画像加工処理を行う。例えば、プログラム実行部31は、フィルタ画像および加工対象画像それぞれに施されている画像処理の各種調整用パラメータや、これらの画像が撮影された際に用いられた撮影用パラメータの特徴を分析する。そして、フィルタ画像および加工対象画像間で画像全体におけるパラメータの特徴を近似させる画像処理加工を、加工対象画像に対して行う。
<When selecting an image sample and making processing settings>
A method of proceeding with image processing executed by the program execution unit 31 when “select an image sample and perform processing setting” is selected will be described. In the case of “selecting an image sample and performing processing settings”, first, the user selects an image to be processed (hereinafter referred to as a filter image). Next, the program execution unit 31 analyzes the characteristics of the filter image based on the entire selected filter image. And the program execution part 31 analyzes a characteristic similarly about the image made into the object of image processing based on the whole process target image. Then, the program execution unit 31 performs an image processing process on the processing target image so that the characteristics of the entire image are approximated between these two images (filter image and processing target image). For example, the program execution unit 31 analyzes various adjustment parameters for image processing applied to each of the filter image and the processing target image, and the characteristics of the shooting parameters used when these images are shot. Then, image processing that approximates the characteristics of parameters in the entire image between the filter image and the processing target image is performed on the processing target image.

プログラム実行部31は、例えば、画像の明るさ、コントラスト、シャープネス、彩度、および色相をパラメータとし、これらパラメータごとに特徴量を算出することによって特徴分析を行う。プログラム実行部31はさらに、撮影時の撮影条件(例えば、ホワイトバランス、露出値、絞り値、シャッタースピードなど)をパラメータとし、パラメータごとに特徴量を抽出することによって特徴分析を行う。撮影時の撮影条件は、画像(フィルタ画像または加工対象画像)に関連付けられて記録されている撮影情報を読み出して用いる。そして、プログラム実行部31は、分析した特徴に基づき、加工対象画像の特徴をフィルタ画像の特徴へ近づける処理を行うことで、両画像間で特徴を近似させる。各パラメータについて行う処理を以下に例示する。   For example, the program execution unit 31 uses the brightness, contrast, sharpness, saturation, and hue of the image as parameters, and performs feature analysis by calculating a feature amount for each parameter. The program execution unit 31 further performs feature analysis by extracting a feature amount for each parameter using shooting conditions (for example, white balance, exposure value, aperture value, shutter speed, etc.) at the time of shooting as parameters. As shooting conditions at the time of shooting, shooting information recorded in association with an image (filter image or image to be processed) is read and used. And the program execution part 31 approximates a feature between both images by performing the process which brings the feature of a process target image close to the feature of a filter image based on the analyzed feature. The processing performed for each parameter is exemplified below.

−明るさ−
プログラム実行部31は、明るさの特徴量として輝度平均値を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、それぞれ各画素値から輝度の平均を求め、フィルタ画像と加工対象画像との間で、平均値が同等(両者の差が所定範囲内)となるように調整する。なお、輝度の平均値の代わりに、最頻値や中央値が同等になるように調整してもよい。調整方法としては、ゲインを変えたり、オフセットを与えたり、γ補正を行うなどの方法を用いる。
-Brightness-
The program execution unit 31 calculates a luminance average value as a feature value of brightness. The program execution unit 31 obtains an average of luminance from each pixel value for the filter image and the processing target image, and the average value is equal between the filter image and the processing target image (the difference between the two is within a predetermined range). Adjust so that Note that, instead of the average value of luminance, the mode value and the median value may be adjusted to be equal. As an adjustment method, a method of changing a gain, giving an offset, or performing γ correction is used.

−コントラスト−
プログラム実行部31は、コントラストの特徴量としてヒストグラムを求める。プログラム実行部31は、フィルタ画像と加工対象画像において、それぞれ各画素値のヒストグラムを作成し、その分布形状を近似させるように調整する。例えば、ヒストグラムのピークとなる画素値を一致させたり、暗部/明部の割合を一致させたりして、両者の分布形状を近づける。調整方法としては、コントラストに影響を与えるように、ゲインを変えたり、LUT(ルックアップテーブル)を変えたり、γ補正を行うなどの方法を用いる。
-Contrast-
The program execution unit 31 obtains a histogram as the contrast feature amount. The program execution unit 31 creates a histogram of each pixel value in the filter image and the image to be processed, and adjusts so that the distribution shape is approximated. For example, the pixel values that are the peaks of the histogram are matched, or the ratios of the dark part / bright part are matched, so that the distribution shapes of both are made closer. As an adjustment method, a method of changing the gain, changing the LUT (lookup table), or performing γ correction so as to affect the contrast is used.

−シャープネス−
プログラム実行部31は、シャープネスの特徴量として微分値や周波数変換値を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、主として画像の輪郭のシャープさを近似させる。例えば、それぞれの画像内の微分値や、それぞれの画像で周波数変換を行った結果の係数分布が近似するように、USM(アン・シャープネス・マスク)処理を行うなどの方法を用いて調整する。なお、画像の全体にわたって微分や周波数変換を行ってもよいが、画像の輪郭部分を抽出し、抽出部分に着目して微分や周波数変換処理を行うようにしてもよい。
-Sharpness-
The program execution unit 31 calculates a differential value and a frequency conversion value as the sharpness feature amount. The program execution unit 31 mainly approximates the sharpness of the image outline for the filter image and the processing target image. For example, adjustment is performed using a method such as USM (unsharpness mask) processing so that the differential value in each image and the coefficient distribution resulting from frequency conversion in each image approximate. Although differentiation and frequency conversion may be performed over the entire image, the contour portion of the image may be extracted, and differentiation and frequency conversion processing may be performed while paying attention to the extracted portion.

−彩度−
プログラム実行部31は、彩度の特徴量として彩度の最大値および平均値を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、それぞれ画面内の彩度の最大値および平均値を算出し、それらが同等(両者の差が所定範囲内)となるように調整する。調整方法としては、ゲインを変えたり、LUT(ルックアップテーブル)を変えたりする方法を用いる。
-Saturation-
The program execution unit 31 calculates a maximum value and an average value of saturation as feature values of saturation. The program execution unit 31 calculates a maximum value and an average value of saturation within the screen for the filter image and the processing target image, respectively, and adjusts them so that they are equivalent (the difference between them is within a predetermined range). As an adjustment method, a method of changing the gain or changing the LUT (look-up table) is used.

−色相−
プログラム実行部31は、色相の特徴量として色相分布を算出する。プログラム実行部31は、フィルタ画像と加工対象画像について、それぞれの色相の分布を求め、フィルタ画像と加工対象画像との間で色相の偏りを合わせるように調整する。調整方法としては、例えばフィルタ画像が特定色相に偏っている場合に、加工対象画像の色相を同じように偏らせるように、Mtx(マトリクス)演算のマトリクスを変えたり、LUT(ルックアップテーブル)を変えたりする方法を用いる。なお、色相の偏りを合わせる他に、色相分布の重心や中心を求め、これらを一致させるようにしてもよい。
-Hue-
The program execution unit 31 calculates a hue distribution as a hue feature amount. The program execution unit 31 obtains the hue distribution of the filter image and the processing target image, and adjusts the hue deviation between the filter image and the processing target image. As an adjustment method, for example, when the filter image is biased to a specific hue, the matrix of the Mtx (matrix) operation is changed or the LUT (lookup table) is changed so that the hue of the processing target image is biased in the same way. Use a method of changing. In addition to matching the hue bias, the center of gravity and center of the hue distribution may be obtained and matched.

−ホワイトバランス−
プログラム実行部31は、ホワイトバランスの情報を抽出する。プログラム実行部31は、フィルタ画像と加工対象画像それぞれについて、撮影時または撮影後に調整されたホワイトバランスの情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間でホワイトバランスを合わせるように調整する。このとき、フィルタ画像と加工対象画像との間で、画像全体の色温度が近似するように調整してもよいし、画像の一部(例えば人物の顔)が近似するように調整してもよい。
-White balance-
The program execution unit 31 extracts white balance information. The program execution unit 31 reads out white balance information adjusted at the time of shooting or after shooting for each of the filter image and the processing target image. The program execution unit 31 adjusts the white balance between the filter image and the processing target image. At this time, adjustment may be performed so that the color temperature of the entire image is approximated between the filter image and the image to be processed, or adjustment may be performed so that a part of the image (for example, a human face) is approximated. Good.

−露出値−
プログラム実行部31は、露出値の情報を抽出する。プログラム実行部31は、フィルタ画像と加工対象画像それぞれについて、撮影時の露出値の情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間で露出が近似する(合わせる)ように調整する。このとき、フィルタ画像と加工対象画像との間で、それぞれ画像全体の露出値が近似するように調整してもよいし、画像の一部の露出値が近似するように調整してもよい。
-Exposure value-
The program execution unit 31 extracts exposure value information. The program execution unit 31 reads exposure value information at the time of photographing for each of the filter image and the processing target image. The program execution unit 31 adjusts the exposure so as to approximate (match) the filter image and the processing target image. At this time, adjustment may be made so that the exposure value of the entire image is approximated between the filter image and the processing target image, or may be adjusted so that the exposure value of a part of the image is approximated.

−絞り値−
プログラム実行部31は、絞り値の情報を抽出する。プログラム実行部31は、フィルタ画像と加工対象画像それぞれについて、撮影時の絞り値の情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間で絞り値が近似する(合わせる)ように調整する。例えば、フィルタ画像の絞り値が加工対象画像の絞り値よりも小さかった場合、加工対象画像の主要被写体以外の背景画像をぼかす(コントラストやシャープネスを下げる)画像処理を行う。フィルタ画像の絞り値が加工対象画像の絞り値よりも大きかった場合、加工対象画像の主要被写体以外の背景画像をくっきりさせる(コントラストやシャープネスを上げる)画像処理を行う。
-Aperture value-
The program execution unit 31 extracts aperture value information. The program execution unit 31 reads aperture value information at the time of shooting for each of the filter image and the processing target image. The program execution unit 31 performs adjustment so that the aperture value approximates (matches) between the filter image and the processing target image. For example, when the aperture value of the filter image is smaller than the aperture value of the processing target image, image processing is performed to blur the background image other than the main subject of the processing target image (decrease the contrast and sharpness). When the aperture value of the filter image is larger than the aperture value of the processing target image, image processing is performed to sharpen the background image other than the main subject of the processing target image (increase the contrast and sharpness).

―シャッタースピード―
プログラム実行部31は、シャッタースピードの情報を抽出する。フィルタ画像と加工対象画像それぞれについて、撮影時のシャッタースピードの情報を読み出す。プログラム実行部31は、フィルタ画像と加工対象画像との間でシャッタースピードが近似する(合わせる)ように調整する。例えば、フィルタ画像のシャッタースピードが加工対象画像のシャッタースピードよりも遅かった場合、加工対象画像の明るさを上げる、またはシャープネスを下げる画像処理を行う。フィルタ画像のシャッタースピードが加工対象画像のシャッタースピードよりも速かった場合、加工対象画像の明るさを下げる、またはシャープネスを上げる画像処理を行う 。
-shutter speed-
The program execution unit 31 extracts shutter speed information. For each of the filter image and the image to be processed, information on the shutter speed at the time of shooting is read out. The program execution unit 31 performs adjustment so that the shutter speed is approximated (matched) between the filter image and the processing target image. For example, when the shutter speed of the filter image is slower than the shutter speed of the processing target image, image processing that increases the brightness of the processing target image or decreases the sharpness is performed. When the shutter speed of the filter image is faster than the shutter speed of the processing target image, image processing is performed to lower the brightness of the processing target image or increase the sharpness.

プログラム実行部31は、フィルタ画像に基づく上記全ての特徴量の算出を、フィルタ画像がユーザによって選ばれた段階で行い、算出結果を参照元パラメータとして不図示のメモリに登録しておく。算出結果を不揮発性メモリ34に保存しておくと、将来同じフィルタ画像を選ぶ場合において算出結果を再利用できるので、特徴量算出をその都度行う場合に比べて、処理負担を軽減させることができる。   The program execution unit 31 calculates all the feature amounts based on the filter image when the filter image is selected by the user, and registers the calculation result in a memory (not shown) as a reference source parameter. If the calculation result is stored in the non-volatile memory 34, the calculation result can be reused when the same filter image is selected in the future, so that the processing load can be reduced as compared with the case where the feature amount calculation is performed each time. .

なお、フィルタ画像に基づく全ての特徴量の算出をフィルタ画像がユーザによって選ばれた段階で行う代わりに、後述する「参考とするパラメータ」が選択された段階で、そのパラメータに対応する特徴量のみを算出するようにしてもよい。   Instead of calculating all the feature values based on the filter image at the stage when the filter image is selected by the user, only the feature quantity corresponding to the parameter is selected when the “reference parameter” described later is selected. May be calculated.

プログラム実行部31は、加工対象画像に基づく特徴量の算出を、加工対象画像が指定された段階で行う。そして、加工対象画像に基づく特徴量を算出してから、加工対象画像をフィルタ画像の特徴に近づけるべく、上述した調整処理を開始する。   The program execution unit 31 calculates the feature amount based on the processing target image when the processing target image is specified. Then, after the feature amount based on the processing target image is calculated, the above-described adjustment process is started in order to bring the processing target image closer to the feature of the filter image.

もっとも、フィルタ画像、後述する「参考とするパラメータ」、および加工対象画像の全てが設定(指定)された段階で、必要なパラメータに対応する特徴量の算出、および調整処理を開始させるようにしても構わない。   However, when all of the filter image, “reference parameter” (to be described later), and the image to be processed are set (designated), calculation of feature amounts corresponding to necessary parameters and adjustment processing are started. It doesn't matter.

<ユーザインターフェイスの説明>
画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図4は、「画像サンプルを選んで加工設定を行う」場合において、画像処理プログラムの起動時にプログラム実行部31が表示部22に表示させる初期画面を例示する図である。図4において、表示画面は、フィルタ画像および加工対象画像の候補にする画像に対応するサムネイル画像を一覧表示する一覧表示部aと、選ばれたフィルタ画像を示すアイコンを表示するフィルタ表示部bと、加工後の画像に対応するサムネイル画像を一覧表示する一覧表示部cと、に分割される。ここで、一覧表示部a、フィルタ表示部b、および一覧表示部cの大きさ(表示エリア)は、ユーザ操作によって適宜変更可能に構成される。アイコンや表示エリア等の大きさの変更は、指だけでなく、例えばマウスやスタイラスペン等のポインティングデバイスを用いて変更するようにしてもよい。
<Description of user interface>
A specific user interface based on the image processing program will be described by exemplifying a display screen displayed on the display unit 22 of the display / input unit 20. FIG. 4 is a diagram illustrating an initial screen that is displayed on the display unit 22 by the program execution unit 31 when the image processing program is activated in the case of “selecting an image sample and performing processing settings”. In FIG. 4, the display screen includes a list display portion a that displays a list of thumbnail images corresponding to filter images and images to be processed images, and a filter display portion b that displays an icon indicating the selected filter image. And a list display section c for displaying a list of thumbnail images corresponding to the processed images. Here, the size (display area) of the list display part a, the filter display part b, and the list display part c is configured to be appropriately changed by a user operation. The size of the icon or the display area may be changed using not only a finger but also a pointing device such as a mouse or a stylus pen.

一覧表示部aは、加工前の画像に対応するサムネイルa1、サムネイルa2、およびサムネイルa3を表示するエリアである。一覧表示部aには、上記サムネイル画像に加えて、サムネイル画像をスクロールするためのアイコン11、12が表示される。サムネイル画像のスクロールは、アイコン11、12に対するタップ操作の他に、一覧表示部aに対するスワイプ操作でも可能である。なお、アイコン11、12の代わりにスクロールバーを表示させてもよい。   The list display part a is an area for displaying a thumbnail a1, a thumbnail a2, and a thumbnail a3 corresponding to the image before processing. In addition to the thumbnail image, icons 11 and 12 for scrolling the thumbnail image are displayed on the list display portion a. The scrolling of thumbnail images can be performed by a swipe operation on the list display part a in addition to a tap operation on the icons 11 and 12. A scroll bar may be displayed instead of the icons 11 and 12.

フィルタ表示部bは、フィルタ画像のシンボルとしてアイコンfを表示するエリアである。アイコンfには窓dが設けられており、フィルタ画像が選ばれると、選ばれたフィルタ画像に対応するサムネイル画像が、窓dに表示される。フィルタ画像が選ばれる前は、窓dにはブランク表示がなされる。アイコンfには名称が付与される。初期名称は「新しいフィルタ」であるが、ユーザ操作によって名称を変更することができる。一覧表示部cは、加工後の画像に対応するサムネイル画像を表示するエリアである。図4の場合、画像加工が行われる前であるので、一覧表示部c内はブランク表示である。   The filter display part b is an area for displaying an icon f as a symbol of the filter image. A window d is provided in the icon f, and when a filter image is selected, a thumbnail image corresponding to the selected filter image is displayed in the window d. Before the filter image is selected, a blank display is made in the window d. A name is given to the icon f. The initial name is “new filter”, but the name can be changed by a user operation. The list display part c is an area for displaying thumbnail images corresponding to the processed images. In the case of FIG. 4, since the image processing is not performed, the list display part c is blank.

<フィルタ画像を選ぶ>
ユーザは、フィルタ画像(加工の見本となる画像)としてサムネイルa1に対応する画像を選ぶ場合、図5に例示するように、一覧表示部aからフィルタ表示部bへサムネイルa1をドラッグ操作する。プログラム実行部31は、図6に例示するように、サムネイルa1をアイコンf1の窓dに表示させるとともに、選ばれたフィルタ画像に基づいてパラメータ分析(すなわち特徴量の算出)を行う。なお、サムネイルa1に対応する画像がフィルタ画像であることを示すため、アイコンfをアイコンf1と図示する。
<Select filter image>
When the user selects an image corresponding to the thumbnail a1 as a filter image (an image to be processed), as shown in FIG. 5, the user drags the thumbnail a1 from the list display part a to the filter display part b. As illustrated in FIG. 6, the program execution unit 31 displays the thumbnail a1 in the window d of the icon f1, and performs parameter analysis (that is, calculation of a feature amount) based on the selected filter image. Note that the icon f is illustrated as an icon f1 in order to indicate that the image corresponding to the thumbnail a1 is a filter image.

図7は、ユーザ操作によって変更されたアイコンf1の新しい名称「被写体くっきり」を例示する図である。このように、アイコンf1の名称を、加工内容を示す名称へ変更可能にしたので、専門的な知識を持たないユーザにも、画像処理装置10が扱いやすくなる。   FIG. 7 is a diagram illustrating the new name “subject sharpness” of the icon f1 changed by the user operation. As described above, since the name of the icon f1 can be changed to a name indicating the processing content, the image processing apparatus 10 is easy to handle even for a user who does not have specialized knowledge.

<加工対象画像を選ぶ>
ユーザは、加工対象画像としてサムネイルa2に対応する画像を選ぶ場合、図8に例示するように、一覧表示部aからフィルタ表示部bへサムネイルa2をドラッグ操作する。プログラム実行部31は、選ばれた加工対象画像に基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31はさらに、加工対象画像とフィルタ画像との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像に対して画像加工を行う。
<Select an image to process>
When selecting an image corresponding to the thumbnail a2 as the processing target image, the user drags the thumbnail a2 from the list display part a to the filter display part b as illustrated in FIG. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected processing target image. The program execution unit 31 further corrects the parameter for the processing target image so as to approximate the feature of the parameter between the processing target image and the filter image, and performs image processing on the processing target image with the corrected parameter.

プログラム実行部31は、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31は、図9に例示するように、加工後の画像に対応するサムネイルc2(f1)を一覧表示部cに表示させる。なお、サムネイルa2に対応する画像に対し、アイコンf1に係る加工内容で加工したことを示すため、サムネイルの符号をc2(f1)とする。   The program execution unit 31 saves the processed image in the same memory area where the unprocessed image is stored, or in a memory area specified by a user operation. As illustrated in FIG. 9, the program execution unit 31 displays the thumbnail c2 (f1) corresponding to the processed image on the list display unit c. In addition, in order to indicate that the image corresponding to the thumbnail a2 has been processed with the processing content related to the icon f1, the thumbnail code is c2 (f1).

<複数の加工対象画像を選ぶ>
加工対象画像を複数選んでもよい。ユーザは、加工対象画像としてサムネイルa2に対応する画像と、サムネイルa3に対応する画像とを選ぶ場合、図10に例示するように、一覧表示部aからフィルタ表示部bへサムネイルa2およびサムネイルa3をドラッグ操作する。プログラム実行部31は、選ばれた複数の加工対象画像に基づいて、それぞれパラメータ分析(すなわち特徴量の算出)を行う。
<Select multiple images to process>
A plurality of images to be processed may be selected. When the user selects an image corresponding to the thumbnail a2 and an image corresponding to the thumbnail a3 as the processing target images, the thumbnail a2 and the thumbnail a3 are transferred from the list display unit a to the filter display unit b as illustrated in FIG. Drag operation. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected plurality of processing target images.

プログラム実行部31はさらに、複数の加工対象画像に対し、フィルタ画像との間でパラメータの特徴を近似させるように複数の加工対象画像に対するパラメータをそれぞれ補正し、補正後のパラメータによりそれぞれの加工対象画像に画像加工を行う。そして図11に例示するように、加工後の画像に対応するサムネイルc2(f1)およびサムネイルc3(f1)を、それぞれ一覧表示部cに表示させる。   The program execution unit 31 further corrects the parameters for the plurality of processing target images so as to approximate the characteristics of the parameters with the filter image for the plurality of processing target images, and uses the corrected parameters for each processing target. Perform image processing on images. Then, as illustrated in FIG. 11, the thumbnail c2 (f1) and the thumbnail c3 (f1) corresponding to the processed image are displayed on the list display unit c.

<一部のパラメータのみを画像加工に反映させる>
プログラム実行部31は通常、フィルタ画像に基づいて上述したパラメータ(画像の明るさ、コントラスト、シャープネス、彩度、および色相)の全てについて特徴量を算出し、画像加工に反映させる。本実施形態では、全てのパラメータを画像加工に反映させる代わりに、フィルタ画像に基づく一部のパラメータのみを画像加工に反映させることができる。
<Only some parameters are reflected in image processing>
The program execution unit 31 normally calculates feature amounts for all of the above-described parameters (image brightness, contrast, sharpness, saturation, and hue) based on the filter image and reflects them in image processing. In this embodiment, instead of reflecting all parameters in image processing, only some parameters based on the filter image can be reflected in image processing.

プログラム実行部31は、図12に例示するように、フィルタ表示部bに表示している「詳細」ボタン16がタップ操作されると、図13に例示するパラメータ選択ウィンドウ23を表示させる。パラメータ選択ウィンドウ23において、ユーザは、「参考とするパラメータ」として選びたいパラメータのチェックボックスをタップ操作する。例えば、「コントラスト」のチェックボックスのみがチェックされた場合のプログラム実行部31は、加工対象画像とフィルタ画像との間で、チェックされたパラメータ「コントラスト」のみの特徴を近似させるように加工対象画像に対するパラメータ「コントラスト」を補正し、補正後のパラメータ「コントラスト」により加工対象画像に対して画像加工を行うとともに、加工後の画像に対応するサムネイルを一覧表示部cに表示させる。   As illustrated in FIG. 12, when the “detail” button 16 displayed on the filter display unit b is tapped, the program execution unit 31 displays the parameter selection window 23 illustrated in FIG. 13. In the parameter selection window 23, the user taps a check box of a parameter desired to be selected as “reference parameter”. For example, when only the “contrast” check box is checked, the program execution unit 31 approximates the feature of only the checked parameter “contrast” between the processing target image and the filter image. The parameter “contrast” is corrected, and the image to be processed is processed with the corrected parameter “contrast”, and thumbnails corresponding to the processed image are displayed on the list display section c.

<異なるフィルタ画像に基づくパラメータを画像加工に反映させる>
フィルタ画像を複数選んでもよい。ユーザは、フィルタ画像(加工の見本となる画像)としてサムネイルa1以外の他のサムネイル画像に対応する画像を選ぶ場合、一覧表示部a(図5)からフィルタ表示部bへサムネイルa1以外の他のサムネイル画像をドラッグ操作する。プログラム実行部31は、選ばれたフィルタ画像に基づいてパラメータ分析(すなわち特徴量の算出)を行い、新たなアイコンfをフィルタ表示部bに表示させる。
<Reflecting parameters based on different filter images in image processing>
Multiple filter images may be selected. When the user selects an image corresponding to a thumbnail image other than the thumbnail a1 as a filter image (an image to be processed), the list display unit a (FIG. 5) transfers to the filter display unit b other than the thumbnail a1. Drag the thumbnail image. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected filter image, and displays a new icon f on the filter display unit b.

(フィルタ表示部bの中に1つのアイコンfのみを表示する場合)
プログラム実行部31は、図14に例示するように、アイコンf1とともに、アイコンf1をスクロールするためのアイコン17をフィルタ表示部bに表示させる。スクロールにより、アイコンf1以外の他のアイコンfをフィルタ表示部bに表示させることができる。図15および図16は、それぞれ、スクロール後のアイコンfp、アイコンfsを例示する図である。アイコンfのスクロールは、アイコン17、アイコン18に対するタップ操作の他に、フィルタ表示部bに対するスワイプ操作でも可能である。なお、アイコン17、アイコン18の代わりにスクロールバーを表示させてもよい。
(When only one icon f is displayed in the filter display part b)
The program execution part 31 displays the icon 17 for scrolling the icon f1 on the filter display part b with the icon f1, as illustrated in FIG. By scrolling, other icons f than the icon f1 can be displayed on the filter display part b. 15 and 16 are diagrams illustrating the icons fp and the icons fs after scrolling, respectively. The scrolling of the icon f can be performed by a swipe operation on the filter display unit b in addition to a tap operation on the icon 17 and the icon 18. A scroll bar may be displayed instead of the icons 17 and 18.

図15において、ユーザ操作によって変更された名称「スポーツ撮影」が付与されたアイコンfpが表示されている。図16において、ユーザ操作によって変更された名称「空が背景」が付与されたアイコンfsが表示されている。   In FIG. 15, an icon fp to which the name “sports shooting” changed by a user operation is given is displayed. In FIG. 16, an icon fs with the name “sky background” changed by a user operation is displayed.

(フィルタ表示部bの中に複数のアイコンfを表示する場合)
プログラム実行部31は、ユーザがピンチイン操作を行うと、アイコンfの表示サイズを小さく変更し、フィルタ表示部bに複数のアイコンfを表示させる。図17は、アイコンf1と、アイコンfpと、アイコンfsとをフィルタ表示部bに表示させた例である。
(When displaying a plurality of icons f in the filter display part b)
When the user performs a pinch-in operation, the program execution unit 31 changes the display size of the icon f to be small and causes the filter display unit b to display a plurality of icons f. FIG. 17 shows an example in which the icon f1, the icon fp, and the icon fs are displayed on the filter display unit b.

1つの加工対象画像に対して異なる加工を同時に行ってもよい。ユーザは、図17に例示するように、フィルタ表示部bの中に複数のアイコンf1、アイコンfp、アイコンfsが表示されている場合において、加工対象画像としてサムネイルa3に対応する画像を一覧表示部aからフィルタ表示部bへドラッグ操作する。プログラム実行部31は、選ばれた加工対象画像に基づいて、パラメータ分析(すなわち特徴量の算出)を行う。   Different processing may be simultaneously performed on one processing target image. As illustrated in FIG. 17, when a plurality of icons f1, icons fp, and icons fs are displayed in the filter display unit b, the user displays an image corresponding to the thumbnail a3 as a processing target image. Drag from a to the filter display b. The program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the selected processing target image.

プログラム実行部31はさらに、加工対象画像に対し、アイコンf1、アイコンfp、アイコンfsに対応する3つのフィルタ画像との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを3通りに補正し、これら補正後のパラメータにより加工対象画像に対して3通りの画像加工を行うとともに、図18に例示するように、加工後の画像に対応するサムネイルc2(f1)、c2(fp)およびc2(fs)を、それぞれ一覧表示部cに表示させる。   The program execution unit 31 further corrects the parameters for the processing target image in three ways so as to approximate the characteristics of the parameters with the three filter images corresponding to the icon f1, the icon fp, and the icon fs for the processing target image. Then, three types of image processing are performed on the processing target image using these corrected parameters, and as illustrated in FIG. 18, thumbnails c2 (f1), c2 (fp), and c2 corresponding to the processed images are exemplified. (fs) is displayed on the list display section c.

図18において、サムネイルa3に対応する画像に対し、アイコンf1に係る加工内容で加工した画像に対応するサムネイルの符号をc3(f1)とする。また、サムネイルa3に対応する画像に対し、アイコンfpに係る加工内容で加工した画像に対応するサムネイルの符号をc3(fp)とする。さらに、サムネイルa3に対応する画像に対し、アイコンfsに係る加工内容で加工した画像に対応するサムネイルの符号をc3(fs)とする。   In FIG. 18, for the image corresponding to the thumbnail a3, the code of the thumbnail corresponding to the image processed with the processing content related to the icon f1 is c3 (f1). In addition, for the image corresponding to the thumbnail a3, the code of the thumbnail corresponding to the image processed with the processing content related to the icon fp is set to c3 (fp). Furthermore, for the image corresponding to the thumbnail a3, the code of the thumbnail corresponding to the image processed with the processing content related to the icon fs is set to c3 (fs).

以上の説明では、フィルタ画像(加工の見本となる画像)を先に選び(例えば一覧表示部aからフィルタ表示部bへサムネイルa1をドラッグし)、その後に加工対象画像を選ぶ(例えば一覧表示部aからフィルタ表示部bへサムネイルa2をドラッグ操作する)例を説明した。この代わりに、先に加工対象画像を選び(例えば一覧表示部aから一覧表示部cへサムネイルa2をドラッグし)、その後にフィルタ画像(加工の見本となる画像)を選ぶ(例えば一覧表示部aからフィルタ表示部bへサムネイルa1をドラッグ操作する)ようにしてもよい。   In the above description, a filter image (an image to be processed) is selected first (for example, the thumbnail a1 is dragged from the list display unit a to the filter display unit b), and then a processing target image is selected (for example, the list display unit). The example in which the thumbnail a2 is dragged from “a” to the filter display portion “b” has been described. Instead, an image to be processed is first selected (for example, the thumbnail a2 is dragged from the list display unit a to the list display unit c), and then a filter image (an image to be processed) is selected (for example, the list display unit a). The thumbnail a1 may be dragged to the filter display portion b).

この場合のプログラム実行部31は、先に一覧表示部cへドラッグされた加工対象画像に対応するサムネイルa2を、フィルタ画像(加工の見本となる画像)が選ばれるまでそのまま表示させておく。なお、加工対象画像に基づく特徴量の算出は、サムネイルa2がドラッグされた段階で行ってもよい。そして、フィルタ画像(加工の見本となる画像)が選ばれた段階(すなわち一覧表示部aからフィルタ表示部bへサムネイルa1がドラッグされた段階)で、フィルタ画像(加工の見本となる画像)に基づく特徴量を算出する。   In this case, the program execution unit 31 displays the thumbnail a2 corresponding to the image to be processed previously dragged to the list display unit c until the filter image (image to be processed) is selected. The calculation of the feature amount based on the processing target image may be performed when the thumbnail a2 is dragged. Then, when the filter image (image to be processed) is selected (that is, the thumbnail a1 is dragged from the list display section a to the filter display section b), the filter image (image to be processed) is displayed. Based on the feature amount,

プログラム実行部31は、加工対象画像の特徴をフィルタ画像(加工の見本となる画像)の特徴に近づけるべく、加工対象画像に対して画像加工を行う。そして、一覧表示部cにおいて、表示中のサムネイルa2に置き換えて加工後の画像に対応するサムネイルc2(f1)を表示させる。   The program execution unit 31 performs image processing on the processing target image so as to bring the characteristics of the processing target image closer to the characteristics of the filter image (an image serving as a processing sample). In the list display section c, the thumbnail c2 (f1) corresponding to the processed image is displayed in place of the currently displayed thumbnail a2.

なお、先に加工対象画像を選び、後からフィルタ画像(加工の見本となる画像)を選ぶ場合でも、加工対象画像を複数選んだり、フィルタ画像(加工の見本となる画像)を複数選んだりすることが可能である。   Even if you select the image to be processed first and then select the filter image (image to be processed) later, select multiple images to be processed or select multiple filter images (images to be processed) It is possible.

以上の説明では、画像処理装置10をタブレット端末で構成する例を説明したが、タブレット端末の代わりにフォトビューワやパーソナルコンピュータで画像処理装置10を構成してもよい。また、高機能携帯電話機(スマートフォンなど)によって画像処理装置10を構成してもよい。アイコンや表示エリア等の大きさの変更は、指だけでなく、例えばマウスやスタイラスペン等のポインティングデバイスを用いて変更するようにしてもよい。以下で説明を行う画像処理装置10についても同様である。   In the above description, an example in which the image processing apparatus 10 is configured by a tablet terminal has been described. However, the image processing apparatus 10 may be configured by a photo viewer or a personal computer instead of the tablet terminal. Further, the image processing apparatus 10 may be configured by a high-function mobile phone (such as a smartphone). The size of the icon or the display area may be changed using not only a finger but also a pointing device such as a mouse or a stylus pen. The same applies to the image processing apparatus 10 described below.

表示部22における一覧表示部a、フィルタ表示部b、一覧表示部cの配置は、表示部22の表示エリアの縦横比や表示面積により、適宜変更して構わない。図19は、携帯電話機の縦長表示画面における配置を例図する図であり、図20は、フォトビューワの横長表示画面における配置を例示する図である。   The arrangement of the list display unit a, the filter display unit b, and the list display unit c in the display unit 22 may be appropriately changed depending on the aspect ratio and display area of the display area of the display unit 22. FIG. 19 is a diagram illustrating an example of an arrangement on a portrait display screen of a mobile phone, and FIG. 20 is a diagram illustrating an example of an arrangement on a landscape display screen of a photo viewer.

<フローチャートの説明>
「画像サンプルを選んで加工設定を行う」場合にプログラム実行部31が実行する処理の流れについて図21に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「画像サンプルを選んで加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図21による処理を開始させる。
<Description of flowchart>
A flow of processing executed by the program execution unit 31 in the case of “selecting an image sample and performing processing setting” will be described with reference to a flowchart illustrated in FIG. When the “OK” button 26 is tapped in the state where “Select an image sample and perform processing setting” is checked on the setting screen of FIG. 3, the program execution unit 31 starts the processing of FIG.

図21のステップS10において、プログラム実行部31は、画像を読み込んでステップS20へ進む。画像は、上述したように、通信部15を介して外部機器から取得した画像、または不図示のカメラユニットで撮影した画像である。ステップS20において、プログラム実行部31は、読み込んだ画像のデータに基づいて、縮小画像(サムネイル)を表示部22の一覧表示部aに表示させてステップS30へ進む。   In step S10 of FIG. 21, the program execution unit 31 reads an image and proceeds to step S20. As described above, the image is an image acquired from an external device via the communication unit 15 or an image taken by a camera unit (not shown). In step S20, the program execution unit 31 displays a reduced image (thumbnail) on the list display unit a of the display unit 22 based on the read image data, and proceeds to step S30.

ステップS30において、プログラム実行部31は、フィルタ表示部bの中でフィルタ画像が選ばれる前のアイコンf(すなわち空きアイコン)に縮小画像(サムネイル)がドラッグされたか否かを判定する。プログラム実行部31は、縮小画像(サムネイル)がドラッグされた場合にステップS30を肯定判定してステップS40へ進み、縮小画像(サムネイル)がドラッグされない場合には、ステップS30を否定判定してステップS90へ進む。   In step S30, the program execution unit 31 determines whether or not the reduced image (thumbnail) is dragged to the icon f (that is, the empty icon) before the filter image is selected in the filter display unit b. When the reduced image (thumbnail) is dragged, the program execution unit 31 makes a positive determination in step S30 and proceeds to step S40. When the reduced image (thumbnail) is not dragged, the program execution unit 31 makes a negative determination in step S30 and performs step S90. Proceed to

プログラム実行部31は、空きアイコンfにドラッグされた縮小画像(サムネイル)に対応する画像をフィルタ画像として扱う。ステップS40において、プログラム実行部31は、ドラッグされた縮小画像(サムネイル)に対応するフィルタ画像に基づいてパラメータ分析(すなわち特徴量の算出)を行い、分析結果を加工情報としてステップS50へ進む。   The program execution unit 31 handles an image corresponding to the reduced image (thumbnail) dragged to the empty icon f as a filter image. In step S40, the program execution unit 31 performs parameter analysis (that is, calculation of feature amounts) based on the filter image corresponding to the dragged reduced image (thumbnail), and proceeds to step S50 using the analysis result as processing information.

プログラム実行部31は、ステップS50において、加工情報に対応するフィルタアイコンfをフィルタ表示部bに表示させてステップS60へ進む。ステップS60において、プログラム実行部31は、フィルタ表示部bの中でフィルタアイコンfに縮小画像(サムネイル)がドラッグされたか否かを判定する。プログラム実行部31は、縮小画像(サムネイル)がドラッグされた場合にステップS60を肯定判定してステップS65へ進み、縮小画像(サムネイル)がドラッグされない場合には、ステップS60を否定判定してステップS90へ進む。   In step S50, the program execution unit 31 displays the filter icon f corresponding to the processing information on the filter display unit b, and proceeds to step S60. In step S60, the program execution unit 31 determines whether or not a reduced image (thumbnail) is dragged to the filter icon f in the filter display unit b. If the reduced image (thumbnail) is dragged, the program execution unit 31 makes an affirmative decision in step S60 and proceeds to step S65. If the reduced image (thumbnail) is not dragged, the program execution unit 31 makes a negative decision in step S60 and step S90. Proceed to

プログラム実行部31は、フィルタアイコンfにドラッグされた縮小画像(サムネイル)に対応する画像を加工対象画像として扱う。ステップS65において、プログラム実行部31は、ドラッグされた縮小画像(サムネイル)に対応する加工対象画像に基づいてパラメータ分析(すなわち特徴量の算出)を行い、ステップS70へ進む。ステップS70において、プログラム実行部31は、加工対象画像とフィルタ画像との間でパラメータの特徴を近似させるように加工対象画像に対して画像加工を行う。   The program execution unit 31 handles an image corresponding to the reduced image (thumbnail) dragged to the filter icon f as a processing target image. In step S65, the program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the processing target image corresponding to the dragged reduced image (thumbnail), and proceeds to step S70. In step S70, the program execution unit 31 performs image processing on the processing target image so as to approximate the parameter features between the processing target image and the filter image.

ステップS80において、プログラム実行部31は、加工後の画像を保存するとともに、その縮小画像(サムネイル)を一覧表示部cに表示させてステップS90へ進む。ステップS90において、プログラム実行部31は、終了か否かを判定する。プログラム実行部31は、終了操作が行われた場合にステップS90を肯定判定して図21による処理を終了する。プログラム実行部31は、終了操作が行われない場合はステップS90を否定判定してステップS20へ戻る。ステップS20へ戻る場合は、上述した処理を繰り返す。   In step S80, the program execution unit 31 stores the processed image, displays the reduced image (thumbnail) on the list display unit c, and proceeds to step S90. In step S90, the program execution unit 31 determines whether or not the process is finished. When the end operation is performed, the program execution unit 31 makes an affirmative determination in step S90 and ends the process of FIG. If the end operation is not performed, the program execution unit 31 makes a negative determination in step S90 and returns to step S20. When returning to step S20, the above-described processing is repeated.

以上説明した「画像サンプルを選んで加工設定を行う」実施形態によれば、次の作用効果が得られる。
(1)フィルタ画像および加工対象画像のパラメータの特徴量をそれぞれ解析する解析処理(S40、S65)と、加工対象画像についての特徴量をフィルタ画像についての特徴量へ近づけるように、加工対象画像に対するパラメータを補正する加工情報補正処理(S70)と、補正後のパラメータに基づいて、加工対象画像に対して加工を行う画像加工処理(S70)と、をプログラム実行部31に実行させるようにした。これにより、画像加工処理のための操作が簡単なユーザインターフェイスを提供できる。すなわち、加工対象画像と、その加工後のお手本となるフィルタ画像とがあれば、画像加工に関する知識を持たないユーザであっても、簡単に自分の目標とする画像に近づけるような画像加工処理を行うことが可能となる。
According to the embodiment described above “selecting image sample and performing processing setting”, the following operational effects can be obtained.
(1) Analysis processing (S40, S65) for analyzing the feature quantities of the parameters of the filter image and the processing target image, and the processing target image with respect to the processing target image so that the feature quantity of the processing target image approaches the feature quantity of the filter image The program execution unit 31 is caused to execute the processing information correction processing (S70) for correcting the parameters and the image processing processing (S70) for processing the processing target image based on the corrected parameters. As a result, a user interface that can be easily operated for image processing can be provided. In other words, if there is an image to be processed and a filter image that serves as a model after the processing, even a user who does not have knowledge about image processing can easily perform image processing that makes it closer to the target image. Can be done.

(2)フィルタ画像に基づくサムネイル画像および加工対象画像に基づくサムネイル画像を表示部22にそれぞれ表示させる表示処理(S20)を実行させ、解析処理(S40、S65)は、それぞれサムネイルが表示部22のフィルタ表示部bに表示される場合に、サムネイルに対応するフィルタ画像またはサムネイルに対応する加工対象画像のパラメータの特徴量を解析するようにした。例えば、表示画面上のフィルタ表示部bへサムネイル画像をドラッグ操作するだけで特徴量の解析を開始するので、画像加工処理のための操作が簡単なユーザインターフェイスを提供できる。 (2) A display process (S20) for displaying the thumbnail image based on the filter image and the thumbnail image based on the processing target image on the display unit 22 is executed, and the analysis process (S40, S65) When displayed on the filter display unit b, the feature amount of the parameter of the filter image corresponding to the thumbnail or the processing target image corresponding to the thumbnail is analyzed. For example, since the analysis of the feature amount is started simply by dragging the thumbnail image to the filter display part b on the display screen, it is possible to provide a user interface that can be easily operated for image processing.

(3)解析処理(S40、S65)は、画像のパラメータごとに特徴量を解析し、加工情報補正処理(S50)は、複数のパラメータごとに加工対象画像に対するパラメータを補正するようにした。これにより、複数の画像加工のそれぞれで、手本となる画像に近づけるような画像加工処理を行える。 (3) The analysis process (S40, S65) analyzes the feature amount for each parameter of the image, and the processing information correction process (S50) corrects the parameter for the processing target image for each of the plurality of parameters. As a result, each of the plurality of image processings can perform an image processing process that approximates an image serving as a model.

(4)加工情報補正処理(S50)は、複数の画像加工のパラメータのうち指示されたパラメータに対応させてパラメータを補正するので、複数の画像加工のうち必要な画像加工のみについて、手本となる画像に近づけるような画像加工処理を行える。 (4) Since the processing information correction process (S50) corrects the parameter in correspondence with the instructed parameter among the plurality of image processing parameters, only the necessary image processing out of the plurality of image processing is described as an example. The image processing can be performed so as to be close to the image.

(5)フィルタ画像は複数存在し、表示処理(S20)は、複数のフィルタ画像に基づく複数のサムネイル画像を表示部22にそれぞれ表示させ、解析処理(S40、S65)は、複数のサムネイル画像が表示部22のフィルタ表示部bに表示されると、対応する複数のフィルタ画像それぞれのパラメータの特徴量を解析し、加工情報補正処理(S50)は、加工対象画像についての特徴量を、複数のフィルタ画像におけるそれぞれの特徴量へ近づけるように、加工対象画像に対する複数通りのパラメータ補正を行い、画像加工処理(S70)は、複数通りのパラメータ補正に基づいて、加工対象画像に対して複数通りの加工処理を行う。これにより、手本となる画像が複数ある場合に、それぞれの手本画像に近づけるような画像加工処理を行える。 (5) There are a plurality of filter images. In the display process (S20), a plurality of thumbnail images based on the plurality of filter images are displayed on the display unit 22, respectively. In the analysis processes (S40, S65), a plurality of thumbnail images are displayed. When displayed on the filter display unit b of the display unit 22, the feature amount of the parameter of each of the corresponding filter images is analyzed, and the processing information correction process (S50) converts the feature amount of the processing target image into the plurality of feature amounts. A plurality of parameter corrections are performed on the processing target image so as to approximate each feature amount in the filter image, and the image processing (S70) is performed on the processing target image based on the plurality of parameter corrections. Processing is performed. As a result, when there are a plurality of model images, it is possible to perform an image processing process that approaches each model image.

(6)加工対象画像は複数存在し、表示処理(S20)は、複数の加工対象画像に基づく複数のサムネイル画像を表示部22にそれぞれ表示させ、解析処理(S40、S65)は、複数のサムネイル画像が表示部22のフィルタ表示部bに表示されると、対応する複数の加工対象画像それぞれの特徴量を解析し、加工情報補正処理(S50)は、複数の加工対象画像についての特徴量を、フィルタ画像における特徴量へそれぞれ近づけるように、複数の加工対象画像に対するパラメータ補正をそれぞれ行い、画像加工処理(S70)は、複数のパラメータ補正に基づいて、複数の加工対象画像に対してそれぞれ加工処理を行う。これにより、加工対象画像が複数ある場合に、それぞれを手本画像に近づけるような画像加工処理を行える。 (6) There are a plurality of processing target images, the display processing (S20) displays a plurality of thumbnail images based on the plurality of processing target images on the display unit 22, respectively, and the analysis processing (S40, S65) includes a plurality of thumbnails. When the image is displayed on the filter display unit b of the display unit 22, the feature amount of each of the plurality of corresponding processing target images is analyzed, and the processing information correction process (S50) calculates the feature amount of the plurality of processing target images. Then, parameter correction is performed on each of the plurality of processing target images so as to approach the feature amounts in the filter image, respectively, and image processing (S70) is performed on each of the plurality of processing target images based on the plurality of parameter corrections. Process. As a result, when there are a plurality of processing target images, it is possible to perform an image processing process in which each image is brought close to a model image.

<直感メニューを開いて加工設定を行う場合>
「直感メニューを開いて加工設定を行う」が選ばれた場合にプログラム実行部31が実行する画像加工の進め方を説明する。「直感メニューを開いて加工設定を行う」場合は、先ず、ユーザに加工の目的を選んでもらう。このため、加工の目的を直感的でわかりやすい表現で提示する。例えば、後述のように、「明るさを変える」「色を変える」「くっきりさせる」「サイズを変える」「ノイズをとる」「タイムトラベル」といったように、加工の目的を直感的でわかりやすい表現で提示する。次に、プログラム実行部31が、選ばれた項目(加工目的)に応じて、実際に施す画像処理の各種調整項目をサブメニューとして提示し、ユーザに選んでもらう。そして、プログラム実行部31は、選ばれた調整項目ついて、パラメータ調整用スケールとスライダを表示し、ユーザ操作を受け付ける。プログラム実行部31は、画像加工の対象とする画像に対し、ユーザ操作に基づくパラメータを用いて画像加工処理を行う。
<When opening the intuitive menu and setting machining settings>
A method of proceeding with image processing executed by the program execution unit 31 when “Open intuitive menu and perform processing setting” is selected will be described. In the case of “opening the intuitive menu and performing machining settings”, the user first selects the purpose of machining. Therefore, the purpose of processing is presented in an intuitive and easy-to-understand expression. For example, as described later, the purpose of processing is expressed in an intuitive and easy-to-understand manner, such as “change brightness”, “change color”, “clear”, “change size”, “take noise”, and “time travel”. Present. Next, according to the selected item (processing purpose), the program execution unit 31 presents various adjustment items for image processing to be actually performed as submenus, and the user selects them. Then, the program execution unit 31 displays a parameter adjustment scale and a slider for the selected adjustment item, and accepts a user operation. The program execution unit 31 performs image processing on an image to be processed using parameters based on a user operation.

<ユーザインターフェイスの説明>
画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図22は、「直感メニューを開いて加工設定を行う」場合において、画像処理プログラムの起動時にプログラム実行部31が表示部22に表示させる初期画面を例示する図である。図22において、表示画面は、加工対象画像に対応する縮小画像51と、処理項目ウィンドウ52とを表示する。ここで、縮小画像51および処理項目ウィンドウ52の大きさ(表示エリア)は、ユーザ操作によって適宜変更可能に構成される。表示エリア等の大きさの変更は、例えば、指や、マウス、スタイラスペン等のポインティングデバイスを用いたユーザ操作によって変更される。
<Description of user interface>
A specific user interface based on the image processing program will be described by exemplifying a display screen displayed on the display unit 22 of the display / input unit 20. FIG. 22 is a diagram exemplifying an initial screen that the program execution unit 31 displays on the display unit 22 when the image processing program is activated in the case of “opening the intuitive menu and performing processing settings”. In FIG. 22, the display screen displays a reduced image 51 corresponding to the processing target image and a processing item window 52. Here, the size (display area) of the reduced image 51 and the processing item window 52 can be appropriately changed by a user operation. The size of the display area or the like is changed by a user operation using a pointing device such as a finger, a mouse, or a stylus pen, for example.

<処理項目ウィンドウ>
処理項目ウィンドウ52は、画像加工の目的を直感的にわかりやすく提示するメインメニュー52Aと、メインメニュー52Aにおいて選択されている項目に対応するサブメニュー52Bとで構成される。メインメニュー52Aには、画像に対してどのような目的の加工を行うかを分類する言葉が表示される。例えば、「明るさを変える」、「色を変える」、「くっきりさせる」、「サイズを変える」、…のように、加工目的によって項目が分けられる。
<Processing item window>
The processing item window 52 includes a main menu 52A that presents the purpose of image processing intuitively and easily, and a submenu 52B corresponding to an item selected in the main menu 52A. The main menu 52A displays words for classifying what purpose processing is performed on the image. For example, items are divided according to the purpose of processing, such as “change brightness”, “change color”, “clear”, “change size”, and so on.

サブメニュー52Bには、メインメニュー52Aにおいて選択されている項目(加工目的)に対応する画像加工の調整項目が表示される。例えば、画像の「明るさを変える」場合には、「露出補正」、「ヒストグラム補正」、「トーンカーブ補正」など、「明るさを変える」場合において一般に用いられる調整項目が自動的に並べて表示される。   In the submenu 52B, adjustment items for image processing corresponding to the item (processing purpose) selected in the main menu 52A are displayed. For example, when changing the brightness of an image, adjustment items that are commonly used for changing the brightness, such as exposure correction, histogram correction, and tone curve correction, are automatically displayed side by side. Is done.

プログラム実行部31は、メインメニュー52Aにおいて項目がタップ操作された項目を選択する。プログラム実行部31は、選択項目が変わると、処理項目ウィンドウ52におけるサブメニュー52Bの項目を入れ替えて表示させる図37(a)は、「色を変える」に対応するサブメニュー52Bを含む処理項目ウィンドウ52を例示する図である図37(b)は、「くっきりさせる」に対応するサブメニュー52Bを含む処理項目ウィンドウ52を例示する図である。   The program execution unit 31 selects an item whose item is tapped on the main menu 52A. When the selected item changes, the program execution unit 31 switches the items of the submenu 52B in the processing item window 52 and displays the processing item window including the submenu 52B corresponding to “change color”. FIG. 37B, which is a diagram illustrating 52, illustrates a process item window 52 including a submenu 52B corresponding to “clear”.

プログラム実行部31は、サブメニュー52Bにおいてタップ操作された調整項目を選択する。プログラム実行部31は、選択した調整項目に対応するパラメータ調整用スケールとスライダを表示するウィンドウ53を表示部22に表示させる。図24は、「コントラスト補正」の場合のパラメータ調整用スケールとスライダを表示するウィンドウ53を例示する図である。パラメータ調整は、パラメータ調整用スケールとスライダを用いて行ってもよいし、パラメータを増減させる操作ができるものであれば何でもよい。例えば、調整値を直接入力してもよい。   The program execution unit 31 selects the adjustment item tapped on the submenu 52B. The program execution unit 31 causes the display unit 22 to display a window 53 that displays a parameter adjustment scale and a slider corresponding to the selected adjustment item. FIG. 24 is a diagram illustrating a window 53 that displays a parameter adjustment scale and a slider in the case of “contrast correction”. The parameter adjustment may be performed using a parameter adjustment scale and a slider, or any parameter adjustment operation can be performed. For example, the adjustment value may be directly input.

プログラム実行部31は、ユーザによってノブ53aの位置が変更操作され、「OK」ボタン53bがタップ操作されると、ノブ53aの位置に応じて対応するパラメータを増減させる。これにより、プログラム実行部31は、加工対象画像に対して上記パラメータ増減を反映させた画像加工を施し、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31はさらに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させる。   When the position of the knob 53a is changed by the user and the “OK” button 53b is tapped, the program execution unit 31 increases or decreases the corresponding parameter according to the position of the knob 53a. As a result, the program execution unit 31 performs image processing that reflects the above parameter increase / decrease on the processing target image, and the processed image is the same memory area as the memory area in which the image before processing is stored, or the user Save to the memory area specified by the operation. The program execution unit 31 further displays the reduced image 51 by replacing it with a reduced image corresponding to the processed image.

<効果分類ウィンドウ>
図25は、画像加工後の表示部22の表示画面を例示する図である。プログラム実行部31は、ある調整項目について画像加工した際に、その加工が画像に対してどのような効果をもたらすのかをグループに分類し、効果分類ウィンドウ55として表示させる。効果分類ウィンドウ55を表示させることにより、ユーザにとって、加工が画像に対してどんな影響を与えているのかをイメージしやすくする。
<Effect classification window>
FIG. 25 is a diagram illustrating a display screen of the display unit 22 after image processing. When an image is processed for a certain adjustment item, the program execution unit 31 classifies the effects of the processing on the image into groups and displays them as an effect classification window 55. By displaying the effect classification window 55, it is easy for the user to image what kind of influence the processing has on the image.

効果分類ウィンドウ55における効果の分類は、画像加工について専門的な知識をもっていないユーザにも分かりやすくするため、「くっきりさせる」、「はなやかにする」、「落ち着いた」、「色を変える」などといった、具体的な効果をイメージしやすいものとする。そして、効果に対応させて、ウィンドウ53からパラメータを変更した調整項目を表示させる。図25によれば、画像加工によって「くっきりさせる」および「色を変える」効果が得られたことが示されている。また、「くっきりさせる」効果に寄与したのは、「コントラスト強調」、「輪郭強調」、および「ヒストグラム補正」のパラメータ調整であることが示されている。   The effect classification in the effect classification window 55 is “clear”, “smooth”, “calm”, “change color”, etc., in order to make it easy to understand even for users who do not have specialized knowledge about image processing. , Make it easy to imagine specific effects. Then, in accordance with the effect, the adjustment item whose parameter has been changed is displayed from the window 53. FIG. 25 shows that the effect of “clear” and “change color” was obtained by image processing. Further, it is shown that the parameter adjustment of “contrast enhancement”, “contour enhancement”, and “histogram correction” contributed to the “clear” effect.

<異なるグループに表示する>
プログラム実行部31は、パラメータを変更した調整項目が同じ場合であっても、その効果が異なる場合は別のグループに分類する。例えば、「露出補正」のパラメータ調整をプラス方向へ行った場合は、効果として「はなやかにする」に分類し、「露出補正」のパラメータ調整が「はなやかにする」効果に寄与したことを示す。これとは逆に、「露出補正」のパラメータ調整をマイナス方向へ行った場合は、効果として「落ち着いた」に分類し、「露出補正」のパラメータ調整が「落ちついた」という効果に寄与したことを示す。「露出補正」のパラメータ調整をプラス方向へ行った場合と、「露出補正」のパラメータ調整をマイナス方向へ行った場合とを区別するために、異なるグループ間(例えば「はなやかにする」と「落ち着いた」)で「露出補正」のパラメータ調整をプラス方向あるいはマイナスの方向どちらへ行ったかを文字や記号等を用いて表示してもよい。
<Display in different groups>
Even if the adjustment items whose parameters have been changed are the same, the program execution unit 31 classifies them into different groups if the effects are different. For example, when the parameter adjustment of “exposure correction” is performed in the positive direction, the effect is classified as “make it sharable”, and the parameter adjustment of “exposure correction” contributes to the “make sway” effect. On the other hand, if the parameter adjustment of “Exposure Compensation” was made in the negative direction, it was classified as “Established” as an effect, and parameter adjustment of “Exposure Compensation” contributed to the effect of “Calm down” Indicates. In order to distinguish between the case where the parameter adjustment for “Exposure Compensation” is performed in the positive direction and the case where the parameter adjustment for “Exposure Compensation” is performed in the negative direction, between the different groups (for example, ”), It may be displayed using characters, symbols, or the like whether the parameter adjustment of“ exposure correction ”is performed in the plus direction or minus direction.

<異なる名称(呼び名)で表示する>
プログラム実行部31はさらに、効果分類ウィンドウ55において分類する効果の名称を、加工対象画像に応じて変化させる。例えば、「色を変える」における「色」を、加工対象画像がポートレート撮影画像の場合や風景撮影画像の場合に変化させる。具体的には、人物が主要被写体である可能性が高いポートレート撮影画像の場合、「色」を「人肌の印象」と置き換え、「人肌の印象を変える」という効果の名称にする。また、風景が主要被写体である可能性が高い風景撮影画像の場合、「色」を「光の色」と置き換え、「光の色を変える」という効果の名称にする。プログラム実行部31は、加工対象画像がポートレート撮影モードにおいて撮影されている場合にポートレート撮影画像と判定し、加工対象画像が風景撮影モードにおいて撮影されている場合に風景撮影画像と判定する。加工対象画像がどの撮影モードにおいて撮影されているかは、例えば、その画像のタグ情報に基づいて判別する。なお、プログラム実行部31は、加工対象画像の主要被写体を、撮影モードによって判定してもよいし、被写体認識(例えば、顔認識や物体認識)によって判定してもよい。
<Display with a different name (call name)>
The program execution unit 31 further changes the name of the effect classified in the effect classification window 55 according to the processing target image. For example, “color” in “change color” is changed when the processing target image is a portrait photographed image or a landscape photographed image. Specifically, in the case of a portrait shot image in which there is a high possibility that a person is a main subject, “color” is replaced with “human skin impression”, and the name of the effect is “change human skin impression”. Also, in the case of a landscape photographed image where landscape is highly likely to be the main subject, “color” is replaced with “light color” and the name of the effect is “change light color”. The program execution unit 31 determines that the image to be processed is a portrait image when the image is captured in the portrait shooting mode, and determines that the image is a landscape image when the image to be processed is captured in the landscape shooting mode. In which shooting mode the image to be processed is shot is determined based on, for example, tag information of the image. Note that the program execution unit 31 may determine the main subject of the processing target image based on the shooting mode or may be determined based on subject recognition (for example, face recognition or object recognition).

効果分類ウィンドウ55において分類する効果の名称を、加工対象画像に応じて変化させる代わりに、加工対象画像のタグ情報から推定されるユーザの(撮影や画像加工における)スキルに応じて変化させてもよい。プログラム実行部31は、例えば、加工対象画像がフルオートモードにおいて撮影されている場合に、そのユーザは初心者であると推定する。また、プログラム実行部31は、加工対象画像が風景撮影モードにおいて撮影されている場合であって、公知のシーン解析処理に基づいてその画像が風景と判断される場合や、加工対象画像がポートレート撮影モードにおいて撮影されている場合であって、公知の顔検出処理に基づいてその画像が人物の顔と判断される場合には、そのユーザは、初心者より画像加工に対する知識を持っている中級者であると推定する。プログラム実行部31はさらに、加工対象画像がマニュアルモードにおいて撮影されている場合であれば、そのユーザは、画像加工に対する専門的な知識を持っている上級者であると推定する。   Instead of changing the name of the effect to be classified in the effect classification window 55 according to the processing target image, the name of the effect may be changed according to the user's skill (in shooting or image processing) estimated from the tag information of the processing target image. Good. For example, the program execution unit 31 estimates that the user is a beginner when the processing target image is captured in the full auto mode. Further, the program execution unit 31 is a case where the processing target image is captured in the landscape shooting mode, and when the processing target image is determined to be a landscape based on a known scene analysis process, or the processing target image is a portrait. If the image is shot in the shooting mode and the image is determined to be a human face based on a known face detection process, the user is an intermediate person who has more knowledge about image processing than a beginner. It is estimated that. Furthermore, if the processing target image is captured in the manual mode, the program execution unit 31 estimates that the user is an advanced person who has specialized knowledge about image processing.

そして、プログラム実行部31は、初心者ユーザであると推定した場合に分かりやすい名称を用いて必要最小限の項目のみを提示する。例えば、上述した「くっきりさせる」や「色を変える」や「明るさを変える」という効果の名称にする。これに対し、プログラム実行部31は、上級者とユーザであると推定した場合は画像処理分野で一般に用いられる用語を用いて提示する。例えば、「くっきりさせる」の代わりに「シャープにする」または「メリハリをつける」としたり、「色を変える」の代わりに「色相を変える」という効果の名称にしたりする。中級者ユーザであると推定した場合には、初心者向けの項目に対して使用頻度の高い項目を加えて提示するなど、ユーザのスキルに応じて表示を切り替えることで、使いやすい表示を提供できる。   Then, the program execution unit 31 presents only the minimum necessary items using an easy-to-understand name when it is estimated that the user is a beginner user. For example, the names of the above-described effects such as “clear”, “change color”, and “change brightness” are used. On the other hand, when it is estimated that the program execution unit 31 is an advanced user and a user, the program execution unit 31 presents the program execution unit 31 using terms generally used in the image processing field. For example, “sharp” or “sharp” is used instead of “clear”, or “change hue” is used instead of “change color”. When it is estimated that the user is an intermediate user, an easy-to-use display can be provided by switching the display according to the user's skill, such as adding an item with a high frequency of use to an item for beginners.

なお、効果分類ウィンドウ55における効果の分類は、処理項目ウィンドウ52における加工目的の分類と必ずしも一致させなくてもよい。また、分類の名称に使用する言葉は、効果分類ウィンドウ55と処理項目ウィンドウ52との間において同じであってもよいし、異なっていても構わない。   It should be noted that the effect classification in the effect classification window 55 does not necessarily coincide with the processing purpose classification in the processing item window 52. Further, the word used for the classification name may be the same or different between the effect classification window 55 and the processing item window 52.

例えば、当初処理項目ウィンドウ52のメインメニュー52Aにおいて加工目的「明るさを変える」を選び、サブメニュー52Bにおいて「露出補正」のパラメータ調整をプラス側へ行った場合、効果分類ウィンドウ55における効果として、例えば「明るくする」または「はなやかにする」と分類する。   For example, when the processing purpose “change brightness” is selected in the main menu 52A of the initial processing item window 52 and the “exposure correction” parameter adjustment is performed on the plus side in the submenu 52B, For example, it is classified as “brighten” or “brighten”.

一方、ポートレート撮影画像を対象に、処理項目ウィンドウ52のメインメニュー52Aにおいて「人肌の印象を変える」を選び、サブメニュー52Bにおいて「色相補正」のパラメータ調整を行った場合は、効果分類ウィンドウ55における効果として、処理項目ウィンドウ52の場合と同じ「人肌の印象を変える」と分類する。   On the other hand, when selecting “change the impression of human skin” in the main menu 52A of the processing item window 52 and adjusting the parameters of “hue correction” in the submenu 52B for the portrait photographed image, the effect classification window As an effect at 55, the processing item window 52 is classified as “change the impression of human skin”.

以上説明したように、ある調整項目についてパラメータ調整を行った場合に、その調整項目が画像加工においてどのような効果として寄与しているかを提示することにより、ユーザに対し、パラメータ調整によって得られる結果(効果)をわかりやすく知らせることができる。さらに、効果を得るために行った調整項目について、ユーザにわかりやすく知らせることができる。これにより、ユーザによる無駄なパラメータ調整を防ぐことが可能となる。   As described above, when parameter adjustment is performed for an adjustment item, the effect obtained by parameter adjustment is presented to the user by presenting the effect of the adjustment item in image processing. (Effects) can be intelligibly notified. Furthermore, it is possible to inform the user in an easy-to-understand manner about the adjustment items performed to obtain the effect. As a result, useless parameter adjustment by the user can be prevented.

プログラム実行部31は、ある調整項目についてパラメータ調整が行われた場合に、そのパラメータ調整と典型的に組み合わされる他の処理を提示することで、ユーザ操作をサポートする。具体的には、効果として「くっきりさせる」、および「はなやかにする」ためにパラメータ調整が複数項目(例えばコントラスト強調と彩度強調)行われた場合や、効果として「明るくする」ためのパラメータ調整(例えば輪郭強調、露出補正など)がプラス方向へ所定値以上行われた場合において、ノイズリダクション処理を提示する。   The program execution unit 31 supports user operations by presenting other processing typically combined with parameter adjustment when parameter adjustment is performed for a certain adjustment item. Specifically, parameter adjustment is performed when multiple items (for example, contrast enhancement and saturation enhancement) are performed to make the effect “clear” and “smooth”. When (for example, contour enhancement, exposure correction, etc.) is performed in the plus direction by a predetermined value or more, noise reduction processing is presented.

プログラム実行部31は、図26に例示するポップアップウィンドウ56を表示部22に表示させることにより、ユーザにノイズリダクション処理を提案する。一般に、「くっきりさせる」効果や「明るくする」効果を得るための画像加工はノイズの増加を招く要因となりやすい。このため、ノイズ増加を招きやすい画像加工と典型的に組み合わされる他の処理(本例ではノイズリダクション処理)をポップアップ提示することで、最終的にバランスが取れた画像加工を行えるように、ユーザをサポートできる。   The program execution unit 31 proposes a noise reduction process to the user by causing the display unit 22 to display a pop-up window 56 illustrated in FIG. In general, image processing for obtaining a “clear” effect and a “bright” effect tends to cause an increase in noise. For this reason, by popping up other processing (in this example, noise reduction processing) that is typically combined with image processing that is likely to cause an increase in noise, the user will be able to perform balanced image processing. Can support.

<フローチャートの説明>
「直感メニューを開いて加工設定を行う」場合にプログラム実行部31が実行する処理の流れについて、図27〜図29に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「直感メニューを開いて加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図27による処理を開始させる。
<Description of flowchart>
A flow of processing executed by the program execution unit 31 in the case of “opening the intuitive menu and performing processing setting” will be described with reference to flowcharts illustrated in FIGS. 27 to 29. When the “OK” button 26 is tapped in the state where “Open intuitive menu and perform machining settings” is checked on the setting screen of FIG. 3, the program execution unit 31 starts the processing of FIG. 27.

図27のステップS101において、プログラム実行部31は、加工対象画像を読み込んでステップS102へ進む。ステップS102において、プログラム実行部31は、加工対象画像に関連づけられているタグ情報を取得してステップS103へ進む。ステップS103において、プログラム実行部31は、加工対象画像に対する画像解析を行ってステップS104へ進む。画像解析は、上記シーン解析および顔検出を含む。   In step S101 of FIG. 27, the program execution unit 31 reads the processing target image and proceeds to step S102. In step S102, the program execution unit 31 acquires tag information associated with the processing target image, and proceeds to step S103. In step S103, the program execution unit 31 performs image analysis on the processing target image and proceeds to step S104. Image analysis includes the scene analysis and face detection.

ステップS104において、プログラム実行部31は、画像解析結果やタグ情報に基づいて、上記効果分類ウィンドウ55における分類方法(例えば、「くっきりさせる」、「はなやかにする」、「落ち着いた」、「色を変える」、…など平易な言葉で表す)を決定してステップS105へ進む。   In step S104, the program execution unit 31 determines the classification method in the effect classification window 55 based on the image analysis result and the tag information (for example, “clear”, “smooth”, “settled”, “color”). “Change”,... (Expressed in plain language, etc.) are determined and the process proceeds to step S105.

ステップS105において、プログラム実行部31は、ユーザ操作に基づくパラメータを用いて、上述したように選ばれた調整項目について画像加工処理を行ってステップS106へ進む。ステップS106において、プログラム実行部31は、画像加工処理が終了か否かを判定する。プログラム実行部31は、処理項目ウィンドウ52において他の調整項目が選ばれた場合にステップS106を否定判定してステップS105へ戻る。プログラム実行部31は、処理項目ウィンドウ52において他の調整項目が選ばれない場合には、ステップS106を肯定判定してステップS107へ進む。   In step S105, the program execution unit 31 performs image processing on the adjustment item selected as described above using the parameter based on the user operation, and proceeds to step S106. In step S106, the program execution unit 31 determines whether or not the image processing process is finished. If another adjustment item is selected in the processing item window 52, the program execution unit 31 makes a negative determination in step S106 and returns to step S105. If no other adjustment item is selected in the process item window 52, the program execution unit 31 makes a positive determination in step S106 and proceeds to step S107.

ステップS107において、プログラム実行部31は、画像加工処理後の画像をメモリに保存または不図示のプリンタ装置で印刷するなどの終了処理を行って図27による処理を終了する。   In step S107, the program execution unit 31 performs an end process such as saving the image after the image processing process in a memory or printing it with a printer (not shown), and ends the process of FIG.

画像加工処理時にプログラム実行部31が実行する処理の流れについて、図28に例示するフローチャートを参照して説明する。図28のステップS201において、プログラム実行部31は、処理項目ウィンドウ52を表示部22に表示させて、加工目的および調整項目の選択操作を受け付けてステップS202へ進む。   A flow of processing executed by the program execution unit 31 during image processing will be described with reference to a flowchart illustrated in FIG. In step S201 of FIG. 28, the program execution unit 31 displays a processing item window 52 on the display unit 22, accepts a processing purpose and adjustment item selection operation, and proceeds to step S202.

ステップS202において、プログラム実行部31は、ユーザ操作に基づいて選ばれた調整項目について、上記パラメータ増減を反映させた画像加工処理を行ってステップS203へ進む。ステップS203において、プログラム実行部31は、加工後の画像をメモリに保存するとともに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させる。   In step S202, the program execution unit 31 performs an image processing process that reflects the above parameter increase / decrease for the adjustment item selected based on the user operation, and then proceeds to step S203. In step S203, the program execution unit 31 saves the processed image in the memory, and displays the reduced image 51 by replacing it with a reduced image corresponding to the processed image.

ステップS204において、プログラム実行部31は、効果分類表示をするか否かを判定する。プログラム実行部31は、効果分類ウィンドウ55を表示する場合にステップS204を肯定判定してステップS205へ進み、効果分類ウィンドウ55を表示しない場合には、ステップS204を否定判定して図28による処理を終了する。効果分類ウィンドウ55を表示する/しないの設定は、あらかじめ画像処理装置10の「設定」メニューの中で行われる。   In step S204, the program execution unit 31 determines whether to display effect classification. When displaying the effect classification window 55, the program execution unit 31 makes a positive determination in step S204 and proceeds to step S205. When not displaying the effect classification window 55, the program execution unit 31 makes a negative determination in step S204 and performs the process of FIG. finish. The setting of whether to display the effect classification window 55 is performed in advance in the “setting” menu of the image processing apparatus 10.

ステップS205において、プログラム実行部31は、図25に例示したように、効果分類ウィンドウ55を表示部22に表示させて図28による処理を終了する。   In step S205, the program execution unit 31 displays the effect classification window 55 on the display unit 22 as illustrated in FIG. 25, and ends the processing in FIG.

効果分類表示処理時にプログラム実行部31が実行する処理の流れについて、図29に例示するフローチャートを参照して説明する。図29のステップS301において、プログラム実行部31は、ステップS104で決定した分類方法に基づいて、効果分類ウィンドウ55において分類する効果の名称を決定してステップS303へ進む。上述したように、効果の名称は、加工対象画像やユーザのスキルに応じて異ならせる。   The flow of processing executed by the program execution unit 31 during the effect classification display processing will be described with reference to the flowchart illustrated in FIG. In step S301 of FIG. 29, the program execution unit 31 determines the name of the effect to be classified in the effect classification window 55 based on the classification method determined in step S104, and proceeds to step S303. As described above, the name of the effect varies depending on the image to be processed and the skill of the user.

ステップS302において、プログラム実行部31は、分類した効果の名称の表示を指示してステップS303へ進む。ステップS03において、プログラム実行部31は、分類した果に対応する調整項目の表示を指示してステップS304へ進む。これにより、効果分類ウィンドウ55が表示される。   In step S302, the program execution unit 31 instructs display of the name of the classified effect, and proceeds to step S303. In step S03, the program execution unit 31 instructs display of the adjustment item corresponding to the classified result, and proceeds to step S304. Thereby, the effect classification window 55 is displayed.

ステップS304において、プログラム実行部31は、他の処理を提示するか否かを判定する。本実施形態では、上述したように、ある効果を得るために所定数以上の複数の調整項目においてパラメータが増減された場合、もしく所定の調整項目においてパラメータが所定値以上増減された場合に、加工による画質劣化を抑えるための処理を提示する。プログラム実行部31は、他の処理の提示が必要と判断した場合にステップS304を肯定判定してステップS305へ進み、他の処理の提示が不要と判断した場合には、ステップS304を否定判定して図29による処理を終了する。   In step S304, the program execution unit 31 determines whether to present other processing. In the present embodiment, as described above, when a parameter is increased or decreased in a plurality of adjustment items of a predetermined number or more to obtain a certain effect, or when a parameter is increased or decreased by a predetermined value or more in a predetermined adjustment item, Presents processing to suppress image quality degradation due to processing. The program execution unit 31 makes an affirmative determination in step S304 when it is determined that presentation of another process is necessary, and proceeds to step S305. If it is determined that presentation of another process is not necessary, the program execution unit 31 makes a negative determination in step S304. Then, the process according to FIG.

ステップS305において、プログラム実行部31は、図26に例示したポップアップウィンドウ56を表示部22に表示させて、図29による処理を終了する。ポップアップアップウィンドウ56の例では、ユーザに対してノイズリダクション処理が提案される。   In step S305, the program execution unit 31 displays the pop-up window 56 illustrated in FIG. 26 on the display unit 22, and ends the process of FIG. In the example of the pop-up window 56, a noise reduction process is proposed to the user.

なお、ステップS304の判定処理においては、ある効果を得るためにパラメータが増減された調整項目の数の他に、パラメータ増減量や画質劣化の副作用を含めた点数化を行い、この点数が所定の判定閾値を超えるか否かに基づいて他の処理を提示するか否かを判断するようにしてもよい。ここで、トーンカーブ補正の場合は、パラメータ増減量というよりも、γ曲線の最大の傾きが大きくなるほど点数を大きくする。   In the determination process in step S304, in addition to the number of adjustment items whose parameters have been increased / decreased to obtain a certain effect, scoring is performed including the amount of parameter increase / decrease and the side effects of image quality degradation. You may make it judge whether another process is shown based on whether it exceeds a determination threshold value. Here, in the case of tone curve correction, the score is increased as the maximum slope of the γ curve increases rather than the parameter increase / decrease amount.

また、ある効果(例えば「くっきりさせる」)に対して複数の調整項目(例えばコントラスト補正および輪郭強調)のパラメータ調整が行われた場合において、複数の調整項目の間で補正方向が同じ(どちらもくっきりさせる方向)である場合は双方の点数をプラスとし、補正方向が逆(一方がくっきりさせる方向で、他方が曖昧にする方向)である場合はぼかす方向の点数をマイナスとする。そして、「くっきりさせる」において合計点数が判定閾値を超える場合はノイズの増加が見込まれるため、ノイズリダクション処理を推奨する。   In addition, when parameter adjustment of a plurality of adjustment items (for example, contrast correction and contour enhancement) is performed for an effect (for example, “clear”), the correction directions are the same among the plurality of adjustment items (both are both If it is a clear direction), the score of both is positive, and if the correction direction is reverse (one is a clear direction and the other is ambiguous), the score in the blur direction is negative. Then, if the total score exceeds the determination threshold in “Keep it clear”, noise increase is expected, so noise reduction processing is recommended.

上述した処理項目ウィンドウ52の表示においても、効果分類ウィンドウ55の表示と同様に、加工対象画像のタグ情報に基づいて変化させてもよい。すなわち、初心者ユーザにはよりわかりやすい言葉を用い、上級者ユーザには専門的な言葉を用いて表示する。   Also in the display of the processing item window 52 described above, similarly to the display of the effect classification window 55, it may be changed based on the tag information of the processing target image. That is, words that are easier to understand for beginner users and specialized words for advanced users are displayed.

以上説明した「直感メニューを開いて加工設定を行う」実施形態によれば、次の作用効果が得られる。
(1)画像の加工目的を表すメインメニュー52Aを表示する目的表示処理(S201)と、表示した情報のうち指示された情報に対応するサブメニュー52Bをさらに表示する加工表示処理(S201)と、表示した情報に対応するウィンドウ53をさらに表示する調整表示処理(S201)と、ウィンドウ53に対する変更操作に基づいて、加工対象画像に対して加工を行う画像加工処理(S202)と、をプログラム実行部31に実行させるようにした。これにより、画像処理のための操作がわかりやすいユーザインターフェイスを提供できる。
According to the embodiment described above “opening the intuition menu and performing processing setting”, the following operational effects can be obtained.
(1) A purpose display process (S201) for displaying a main menu 52A representing the purpose of image processing, a process display process (S201) for further displaying a submenu 52B corresponding to the instructed information among the displayed information, The program execution unit includes an adjustment display process (S201) for further displaying the window 53 corresponding to the displayed information, and an image processing process (S202) for processing the processing target image based on a change operation on the window 53. 31 to be executed. Thereby, it is possible to provide a user interface in which an operation for image processing is easy to understand.

(2)加工対象画像のタグ情報を読み込む処理(S102)と、タグ情報に基づいて、目的表示処理で表示するメインメニュー52Aを平易な言葉に置き換える置換処理(S104)と、をプログラム実行部31に実行させるようにしたので、加工対象画像のタグ情報を使ってわかりやすいユーザインターフェイスを提供できる。 (2) The program execution unit 31 includes a process of reading tag information of an image to be processed (S102) and a replacement process (S104) of replacing the main menu 52A displayed in the purpose display process with plain words based on the tag information. Therefore, it is possible to provide an easy-to-understand user interface using the tag information of the image to be processed.

(3)タグ情報は、加工対象画像が撮影された撮影モードを示す情報を含み、置換処理(S104)は、撮影モードに基づいてメインメニュー52Aを平易な言葉に置き換えるようにしたので、加工対象画像の撮影モード情報を使ってわかりやすいユーザインターフェイスを提供できる。 (3) The tag information includes information indicating the shooting mode in which the image to be processed is shot, and the replacement process (S104) replaces the main menu 52A with plain words based on the shooting mode. An easy-to-understand user interface can be provided using image shooting mode information.

(4)画像加工処理において変更した加工のパラメータを、加工による効果を表す言葉で分類して効果分類ウィンドウ65を表示する効果表示処理(S302−S303)を、プログラム実行部31に実行させるようにしたので、画像処理の効果がわかりやすいユーザインターフェイスを提供できる。 (4) The program execution unit 31 is caused to execute an effect display process (S302-S303) for displaying the effect classification window 65 by classifying the processing parameters changed in the image processing process with words representing the effect of the processing. Therefore, it is possible to provide a user interface in which the effect of image processing is easy to understand.

(5)分類された加工のパラメータの数が所定数に達した場合、または分類されたパラメータにあらかじめ付されている点数の合計が所定点数に達した場合に、あらかじめ定めた所定の加工を勧める推奨表示処理(S305)を、プログラム実行部31に実行させるようにしたので、必要な加工がわかりやすいユーザインターフェイスを提供できる。 (5) When the number of classified processing parameters reaches a predetermined number, or when the total number of points assigned in advance to the classified parameters reaches a predetermined number of points, a predetermined predetermined processing is recommended. Since the recommended display process (S305) is executed by the program execution unit 31, it is possible to provide a user interface in which necessary processing is easily understood.

<ユーザ別メニューを開いて加工設定を行う場合>
「ユーザ別メニューを開いて加工設定を行う」が選ばれた場合にプログラム実行部31が実行する画像加工の進め方を説明する。「ユーザ別メニューを開いて加工設定を行う」場合は、先ず、ユーザにログイン操作をしてもらう。ユーザごとの使用履歴に基づくユーザ別メニューによって加工処理内容を提示するためである。次に、プログラム実行部31は、ユーザによるメニュー選択操作に応じて、実際に施す画像処理の各種調整項目をサブメニューとして提示し、ユーザに選んでもらう。そして、プログラム実行部31は、選ばれた調整項目ついて、パラメータ調整用スケールとスライダを表示し、ユーザ操作を受け付ける。プログラム実行部31は、画像加工の対象とする画像に対し、ユーザ操作に基づくパラメータを用いて画像加工処理を行う。
<When setting the processing by opening the menu for each user>
A description will be given of how to proceed with image processing executed by the program execution unit 31 when “Open user menu and perform processing setting” is selected. In the case of “open the user-specific menu and perform processing settings”, first, the user performs a login operation. This is because the processing content is presented by a menu for each user based on the usage history for each user. Next, in response to a menu selection operation by the user, the program execution unit 31 presents various adjustment items for image processing to be actually performed as submenus and allows the user to select them. Then, the program execution unit 31 displays a parameter adjustment scale and a slider for the selected adjustment item, and accepts a user operation. The program execution unit 31 performs image processing on an image to be processed using parameters based on a user operation.

<ユーザインターフェイスの説明>
画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図30は、「ユーザ別メニューを開いて加工設定を行う」場合において、プログラム実行部31が表示部22に表示させるユーザ別メニュー画面を例示する図である。図30において、表示画面は、加工対象画像に対応する縮小画像61と、ユーザ別メニュー62とを表示する。
<Description of user interface>
A specific user interface based on the image processing program will be described by exemplifying a display screen displayed on the display unit 22 of the display / input unit 20. FIG. 30 is a diagram illustrating a user-specific menu screen that the program execution unit 31 displays on the display unit 22 in the case of “opening the user-specific menu and performing processing settings”. In FIG. 30, the display screen displays a reduced image 61 corresponding to the image to be processed and a menu 62 for each user.

ユーザ別メニューは、例えば「明るさを変える」、「色を変える」、「くっきりさせる」など加工内容を表示するメイン表示621と、メイン表示621に対応する調整項目を表示するサブ表示622〜624とで構成される。サブ表示の数は、メイン表示621に対して1つの場合、2つの場合、3つの場合、それ以上の場合もある。図30の例では、「明るさを変える」メイン表示621に対して3つのサブ表示622〜624を有し、「色を変える」メイン表示621に対して2つのサブ表示622〜623を有し、「くっきりさせる」メイン表示621に対して3つのサブ表示622〜624を有する。   The user-specific menu includes, for example, a main display 621 that displays processing contents such as “change brightness”, “change color”, and “clear”, and sub-displays 622 to 624 that display adjustment items corresponding to the main display 621. It consists of. The number of sub-displays may be one, two, three, or more for the main display 621. In the example of FIG. 30, there are three sub-displays 622 to 624 for the “change brightness” main display 621, and two sub-displays 622 to 623 for the “change color” main display 621. The main display 621 “clear” has three sub-displays 622 to 624.

プログラム実行部31は、サブ表示622〜624のうちタップ操作された調整項目(例えばコントラスト補正)を選択する。プログラム実行部31は、図24の場合と同様に、選択した調整項目に対応するパラメータ調整用スケールとスライダを表示するウィンドウ53を表示部22に表示させる。プログラム実行部31は、ユーザによってノブ53aの位置が変更操作され、「OK」ボタン53bがタップ操作されると、ノブ53aの位置に応じて対応するパラメータを増減させる。これにより、プログラム実行部31は、加工対象画像に対して上記パラメータ増減を反映させた画像加工を施し、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31はさらに、縮小画像61を加工後の画像に対応する縮小画像に置き換えて表示させる。   The program execution unit 31 selects an adjustment item (for example, contrast correction) that has been tapped from the sub-displays 622 to 624. As in the case of FIG. 24, the program execution unit 31 causes the display unit 22 to display a window 53 that displays a parameter adjustment scale and a slider corresponding to the selected adjustment item. When the position of the knob 53a is changed by the user and the “OK” button 53b is tapped, the program execution unit 31 increases or decreases the corresponding parameter according to the position of the knob 53a. As a result, the program execution unit 31 performs image processing that reflects the above parameter increase / decrease on the processing target image, and the processed image is the same memory area as the memory area in which the image before processing is stored, or the user Save to the memory area specified by the operation. The program execution unit 31 further displays the reduced image 61 by replacing it with a reduced image corresponding to the processed image.

<一般的な画面表示との比較>
図31は、画像処理装置として一般に用いられている表示画面を例示する図である。図31において、画面上部に上位階層表示73Aとして、プルダウンメニュー1〜プルダウンメニュー6が並べて表示されている。縮小画像71の隣には、下位階層表示73Bとしてプルダウンメニューに対応するメニュー1〜メニュー7が表示される。いずれかのプルダウンメニューがタップ操作された場合、対応する下位階層メニュー1〜メニュー7に表示が切り替わる。メニュー1〜メニュー7のそれぞれには、サブメニュー1〜サブメニュー6が設けられている。
<Comparison with general screen display>
FIG. 31 is a diagram illustrating a display screen generally used as an image processing apparatus. In FIG. 31, pull-down menu 1 to pull-down menu 6 are displayed side by side as upper layer display 73A at the top of the screen. Next to the reduced image 71, menus 1 to 7 corresponding to the pull-down menu are displayed as the lower layer display 73B. When any one of the pull-down menus is tapped, the display is switched to the corresponding lower hierarchy menu 1 to menu 7. Each of menu 1 to menu 7 is provided with sub menu 1 to sub menu 6.

図31の例では、プルダウンメニュー3の下位階層メニュー1〜メニュー7が下位階層表示73Bとして表示される。ここで、表示部22の表示範囲に下位階層表示73Bの全てが収まらないので、下位階層表示73Bをスクロールするためのアイコン73Cが表示される。   In the example of FIG. 31, the lower hierarchy menu 1 to menu 7 of the pull-down menu 3 are displayed as the lower hierarchy display 73B. Here, since the entire lower hierarchy display 73B does not fit within the display range of the display unit 22, an icon 73C for scrolling the lower hierarchy display 73B is displayed.

図31に例示した表示画面の場合、上位階層表示73Aと下位階層表示73Bの両方を表示するために表示部22の画面使用率が高まり、縮小画像71の表示範囲が狭くなりやすい。また、ユーザは、プルダウンメニュー→メニュー→サブメニューと決まった操作手順を繰り返し行う必要がある。すなわち、加工対象画像に対して異なる調整項目(サブメニュー)のパラメータ調整をするごとに、一旦上位階層表示73Aのプルダウンメニューへ戻って下位階層表示73Bを切り替えてから、再度サブメニュー操作を行う必要があった。   In the case of the display screen illustrated in FIG. 31, since both the upper layer display 73A and the lower layer display 73B are displayed, the screen usage rate of the display unit 22 increases, and the display range of the reduced image 71 tends to be narrowed. Further, the user needs to repeatedly perform a predetermined operation procedure of pull-down menu → menu → submenu. That is, every time parameter adjustment of a different adjustment item (submenu) is performed on the image to be processed, it is necessary to return to the pull-down menu of the upper hierarchy display 73A, switch the lower hierarchy display 73B, and then perform the submenu operation again. was there.

例えば、プルダウンメニューが6つに分けられ、1つのプルダウンメニューの下にメニューが7つ設けられ、各メニューにおいてそれぞれサブメニューが6つ設けられていると仮定すると、最大で6×7×6=252のサブメニューが存在する。毎回上位階層表示73Aのプルダウンメニューへ戻る操作は、252個のサブメニューを全て使う場合の手法としては有効であるが、極めて煩わしい。   For example, assuming that the pull-down menu is divided into six, seven menus are provided under one pull-down menu, and six submenus are provided in each menu, a maximum of 6 × 7 × 6 = There are 252 submenus. The operation of returning to the pull-down menu of the upper hierarchy display 73A every time is effective as a method when all 252 submenus are used, but is extremely troublesome.

ところで、画像処理装置10のユーザの多くは、自身が好む画像へ加工するために、専ら特定の調整項目についてのみ画像加工を行うことが多い。すなわち、画像処理装置10が備える全てのサブメニュー(調整項目)が使用されることは極めて希で、毎回同じような加工目的(メニュー)で、同じ調整項目(サブメニュー)が選ばれる。発明者は、この点に着目している。   By the way, many users of the image processing apparatus 10 often perform image processing only for specific adjustment items in order to process the image into a preferred image. That is, it is extremely rare that all the submenus (adjustment items) included in the image processing apparatus 10 are used, and the same adjustment item (submenu) is selected for the same processing purpose (menu) every time. The inventor has focused on this point.

そこで、本実施形態のプログラム実行部31は、ユーザごとの使用履歴に基づいてユーザ別メニューを生成する。例えば、直近に使用されたサブメニューのうち使用頻度が高い(例えば10回以上使用)サブメニューをプルダウンメニュー別にまとめて、ユーザ別メニューを生成する。図32(c)は、従来例(図31)における252個のサブメニューから使用頻度の高いサブメニューを抽出し、プルダウンメニュー別に並べたユーザ別メニュー62Aを例示する図である。つまり、使用頻度が高い10個のサブメニューに表示を制限している。   Therefore, the program execution unit 31 of the present embodiment generates a user-specific menu based on the usage history for each user. For example, among the most recently used submenus, submenus that are frequently used (for example, used 10 times or more) are grouped by pull-down menu to generate a menu for each user. FIG. 32 (c) is a diagram illustrating a user-specific menu 62A in which sub-menus with high use frequency are extracted from the 252 sub-menus in the conventional example (FIG. 31) and arranged according to pull-down menus. That is, the display is limited to ten submenus that are frequently used.

図32(c)によれば、ユーザ別メニュー62Aは、使用頻度が高い10個のサブメニューを有しており、プルダウンメニューごとにまとめて表示されている。ユーザ別メニュー62Aは、通常、図32(a)のユーザ別メニュー画面において縮小画像61の隣に表示される。しかしながら、表示部22の表示範囲にユーザ別メニュー62Aの全てが収まらない場合、ユーザ別メニュー62A1とともに、ユーザ別メニュー62Aをスクロールするためのアイコン63が表示される。   According to FIG. 32 (c), the user-specific menu 62A has ten submenus that are frequently used, and is displayed together for each pull-down menu. The user-specific menu 62A is normally displayed next to the reduced image 61 on the user-specific menu screen of FIG. However, when the user-specific menu 62A does not all fit within the display range of the display unit 22, an icon 63 for scrolling the user-specific menu 62A is displayed together with the user-specific menu 62A1.

図32(b)は、スクロールされたユーザ別メニュー62A2を表示するユーザ別メニュー画面を例示する図である。アイコン63は、ユーザ別メニュー62A2をスクロールするために設けられる。なお、図32(a)および図32(b)において、ユーザ別メニュー62Aのスクロールは、アイコン63に対するタップ操作の他に、スワイプ操作でも可能である。図30におけるユーザ別メニュー62は、図32(a)〜図32(c)のユーザ別メニュー62Aを、実際のプルダウンメニューの名称や調整項目の名称を用いて表したものに相当する。なお、プルダウンメニューの名称およびメインメニューの名称のうち一方の名称表示は、省略しても構わない。   FIG. 32B is a diagram exemplifying a user-specific menu screen that displays the scrolled user-specific menu 62A2. The icon 63 is provided for scrolling the user-specific menu 62A2. In FIG. 32A and FIG. 32B, scrolling of the user-specific menu 62A can be performed by a swipe operation in addition to the tap operation on the icon 63. The user-specific menu 62 in FIG. 30 corresponds to the user-specific menu 62A shown in FIGS. 32 (a) to 32 (c) expressed using the names of actual pull-down menus and adjustment items. Note that the display of one of the pull-down menu name and the main menu name may be omitted.

<フローチャートの説明>
「ユーザ別メニューを開いて加工設定を行う」場合にプログラム実行部31が実行する処理の流れについて、図33〜図34に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「ユーザ別メニューを開いて加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図33による処理を開始させる。
<Description of flowchart>
The flow of processing executed by the program execution unit 31 when “user-specific menu is opened and processing setting is performed” will be described with reference to the flowcharts illustrated in FIGS. 33 to 34. When the “OK” button 26 is tapped in a state where “Open user menu and perform machining settings” is checked on the setting screen of FIG. 3, the program execution unit 31 starts the processing of FIG. 33.

図33のステップS410において、プログラム実行部31は、表示部22にログイン画面を表示させてステップS420へ進む。ログイン情報に基づいてユーザを判別し、ログインユーザごとにメニューを使い分けるためである。プログラム実行部31は、ステップS420においてログイン操作を受け付ける。ユーザは、あらかじめ登録したユーザIDおよびパスワードを入力するか、新規登録を行う。   In step S410 of FIG. 33, the program execution unit 31 causes the display unit 22 to display a login screen and proceeds to step S420. This is because the user is discriminated based on the login information, and the menu is properly used for each login user. The program execution unit 31 accepts a login operation in step S420. The user inputs a user ID and password registered in advance or newly registers.

ステップS430において、プログラム実行部31は登録情報の有無を判定する。プログラム実行部31は、不揮発性メモリ34にあらかじめ設けられているデータベースの中にログインユーザの情報が存在する場合は、ステップS430を肯定判定してステップS440へ進む。プログラム実行部31は、上記データベースにログインユーザの情報が存在しない場合は、ステップS430を否定判定してステップS510へ進む。   In step S430, the program execution unit 31 determines the presence / absence of registration information. If the logged-in user information exists in the database provided in advance in the nonvolatile memory 34, the program execution unit 31 makes a positive determination in step S430 and proceeds to step S440. If there is no login user information in the database, the program execution unit 31 makes a negative determination in step S430 and proceeds to step S510.

ステップS440において、プログラム実行部31は、上記データベースからログインユーザの作業履歴情報を読み出してステップS450へ進む。ステップS450において、プログラム実行部31は、作業履歴情報に基づいてユーザ別メニュー62A(図32(c))を決定し、表示部22に表示させてステップS460へ進む(図32(a)、図32(b))。   In step S440, the program execution unit 31 reads the logged-in user's work history information from the database, and proceeds to step S450. In step S450, the program execution unit 31 determines the user-specific menu 62A (FIG. 32 (c)) based on the work history information, displays the menu 62A on the display unit 22, and proceeds to step S460 (FIG. 32 (a), FIG. 32 (b)).

ステップS460において、プログラム実行部31は、加工対象画像を読み込んでステップS470へ進む。ステップS470において、プログラム実行部31は、ユーザ別メニュー62Aの中からユーザによるタップ操作で選ばれた調整項目について画像加工処理を行ってステップS480へ進む。ステップS480において、プログラム実行部31は、画像加工処理が終了か否かを判定する。プログラム実行部31は、ユーザ別メニュー62Aにおいて他のサブメニュー(調整項目)が選ばれた場合にステップS480を否定判定してステップS470へ戻る。プログラム実行部31は、ユーザ別メニュー62Aにおいて他のサブメニュー(調整項目)が選ばれない場合には、ステップS480を肯定判定してステップS490へ進む。   In step S460, the program execution unit 31 reads the processing target image and proceeds to step S470. In step S470, the program execution unit 31 performs image processing on the adjustment item selected by the user's tap operation from the user-specific menu 62A, and then proceeds to step S480. In step S480, the program execution unit 31 determines whether the image processing process is finished. If another submenu (adjustment item) is selected in the user-specific menu 62A, the program execution unit 31 makes a negative determination in step S480 and returns to step S470. If no other submenu (adjustment item) is selected in the user-specific menu 62A, the program execution unit 31 makes a positive determination in step S480 and proceeds to step S490.

ステップS490において、プログラム実行部31は、画像加工処理後の画像をメモリに保存または不図示のプリンタ装置で印刷するなどの終了処理を行ってステップS500へ進む。ステップS500において、プログラム実行部31は、画像処理加工処理において保存していた作業履歴情報をユーザ情報に加えるようにデータベースを更新し、図33による処理を終了する。データベースの更新については、最近の作業内容と過去の作業内容との間で履歴情報に重みを付けてもよい。また、データベースを更新した際に、その旨をメッセージで表示部22に表示させてもよい。   In step S490, the program execution unit 31 performs an end process such as saving the image after the image processing process in a memory or printing it with a printer device (not shown), and the process proceeds to step S500. In step S500, the program execution unit 31 updates the database so that the work history information stored in the image processing process is added to the user information, and ends the process shown in FIG. Regarding database update, history information may be weighted between recent work contents and past work contents. Further, when the database is updated, a message to that effect may be displayed on the display unit 22.

上述したステップ430を否定判定して進むステップS510において、プログラム実行部31は、新規登録処理を行ってユーザ情報をデータベースに記録し、ステップS520へ進む。ステップS520において、プログラム実行部31は、登録されたユーザ情報(年齢、画像処理経験など)に応じて、対応するテンプレートメニュー(例えば初心者向けメニュー、中級者向けメニュー、上級者メニューとして、あらかじめメニュー数が異なる推奨メニューがデータベースに格納されている)をデータベースから読み出し、表示部22に表示させてステップS460へ進む。なお、プルダウンメニューの名称や調整項目の名称は、ユーザ層に応じて変更させてもよい。具体的には、上述した「直感メニューを開いて加工設定を行う」場合と同様に、初心者ユーザにはわかりやすい名称を用い、上級者ユーザには専門的な名称を用いてメニューを表示する。   In step S510, which proceeds after making a negative determination in step 430 described above, the program execution unit 31 performs new registration processing, records the user information in the database, and proceeds to step S520. In step S520, the program execution unit 31 determines the number of menus in advance as a corresponding template menu (for example, a beginner menu, an intermediate menu, or an advanced menu) according to the registered user information (age, image processing experience, etc.). (Recommended menus different from each other are stored in the database) are read from the database, displayed on the display unit 22, and the process proceeds to step S460. The name of the pull-down menu and the name of the adjustment item may be changed according to the user layer. Specifically, the menu is displayed using a name that is easy to understand for a novice user and a specialized name for an advanced user, as in the case of “opening an intuitive menu and performing processing settings” described above.

画像加工処理時にプログラム実行部31が実行する処理の流れについて、図34に例示するフローチャートを参照して説明する。図34のステップS471において、プログラム実行部31は、ユーザ別メニュー62Aにてサブメニュー(調整項目)の選択操作を受け付けてステップS472へ進む。   The flow of processing executed by the program execution unit 31 during image processing will be described with reference to the flowchart illustrated in FIG. In step S471 in FIG. 34, the program execution unit 31 accepts a submenu (adjustment item) selection operation in the user-specific menu 62A, and proceeds to step S472.

ステップS472において、プログラム実行部31は、ユーザ操作に基づいて選ばれたサブメニュー(調整項目)について、画像加工処理を行ってステップS473へ進む。ステップS473において、プログラム実行部31は、加工後の画像をメモリに保存するとともに、縮小画像61を加工後の画像に対応する縮小画像に置き換えて表示させる。ステップS474において、プログラム実行部31は、画像加工を行ったサブメニュー(調整項目)や対応するパラメータの調整量などを、作業履歴情報としてメモリに一時保存して図34による処理を終了する。作業履歴情報には、サブメニューやパラメータ調整量の他に、作業日や作業回数、画像カテゴリごとの作業手順などを含めてもよい。   In step S472, the program execution unit 31 performs image processing on the submenu (adjustment item) selected based on the user operation, and then proceeds to step S473. In step S473, the program execution unit 31 stores the processed image in the memory and displays the reduced image 61 by replacing it with a reduced image corresponding to the processed image. In step S474, the program execution unit 31 temporarily stores the submenu (adjustment item) on which image processing has been performed, the adjustment amount of the corresponding parameter, and the like as work history information in the memory, and ends the process of FIG. The work history information may include, in addition to the submenu and parameter adjustment amount, a work day, a work frequency, a work procedure for each image category, and the like.

上述したデータベースを更新するログアウト時において、ユーザ別メニュー62Aを更新する旨のメッセージを表示部22に表示させ、ユーザ操作による更新許可を求めてもよい。そのとき、更新前のユーザ別メニュー62Aと更新しようとするユーザ別メニュー62Aとの間で相違する点を点滅表示させるなどして、差分を明示的に知らせるようにしてもよい。   At the time of logout for updating the above-described database, a message indicating that the user-specific menu 62A is updated may be displayed on the display unit 22 to request update permission by a user operation. At that time, the difference may be explicitly notified by, for example, blinking a point that is different between the user-specific menu 62A before the update and the user-specific menu 62A to be updated.

以上説明した「ユーザ別メニューを開いて加工設定を行う」実施形態によれば、次の作用効果が得られる。
(1)使用ユーザを判別するユーザ判別処理(S20)と、画像加工のための複数のメインメニュー52A、複数のメインメニュー52Aごとに分類される複数のサブメニュー52Bからなるメニュー体系の中から、使用されたサブメニュー52Bの履歴情報を使用ユーザごとに保存する保存処理(S500)と、保存処理(S500)によって保存されている使用ユーザの履歴情報に基づいて、メニュー体系から使用ユーザへ提示するサブメニュー52Bの数を制限する制限処理(S450)と、制限処理(S450)による制限後のサブメニュー62A、62Bを表示部22に表示させるメニュー表示処理(S450)と、プログラム実行部31実行させるようにした。これにより、ユーザにとって作業効率の良いユーザインターフェイスを提供できる。また、メニュー提示のための表示部22の画面使用率を抑えられるから、縮小画像61の表示範囲を広く確保できる。
According to the embodiment described above “open the user-specific menu and perform processing setting”, the following operational effects can be obtained.
(1) From a menu system comprising a user discrimination process (S20) for discriminating a user, a plurality of main menus 52A for image processing, and a plurality of submenus 52B classified for each of the plurality of main menus 52A. Based on the storage information (S500) for storing the history information of the used submenu 52B for each user and the user information stored by the storage process (S500), it is presented to the user from the menu system. A restriction process (S450) for restricting the number of submenus 52B, a menu display process (S450) for displaying the submenus 62A and 62B after restriction by the restriction process (S450) on the display unit 22, and the program execution unit 31 are executed. I did it. Thereby, a user interface with good work efficiency can be provided for the user. In addition, since the screen usage rate of the display unit 22 for menu presentation can be suppressed, a wide display range of the reduced image 61 can be secured.

(2)制限処理(S450)は、メニュー体系に含まれるサブメニュー52Bのうち、使用ユーザによる直近の使用回数が所定数を超えるサブメニュー52Bを提示メニューとするようにしたので、使用頻度の低いサブメニューの表示を適切に抑えることができる。 (2) In the restriction process (S450), among the submenus 52B included in the menu system, the submenu 52B in which the number of recent uses by the user exceeds the predetermined number is used as the presentation menu. The display of the submenu can be appropriately suppressed.

(3)制限処理(S520)は、履歴情報を保存していない新規使用ユーザに対し、あらかじめ定めたテンプレートメニューを提示メニューとするようにした。例えば、メニュー体系から新規使用ユーザへ提示するメニューを制限したテンプレートメニューを設けておく場合に、新規使用ユーザにとって作業効率の良いユーザインターフェイスを提供できる。 (3) In the restriction process (S520), a template menu determined in advance is used as a presentation menu for a new user who has not saved history information. For example, when a template menu that restricts the menu presented to the newly used user from the menu system is provided, a user interface with high work efficiency can be provided for the newly used user.

(4)制限処理(S520)は、新規使用ユーザから登録される情報に応じて異なるサブメニュー数のテンプレートメニューを提示メニューとするので、新規使用ユーザの登録情報に応じたテンプレートメニューを提供できる。 (4) Since the restriction process (S520) uses a template menu with a different number of submenus according to information registered from a newly used user as a presentation menu, it is possible to provide a template menu according to registration information of the newly used user.

(変形例1)
上述した「直感メニューを開いて加工設定を行う」が選ばれた場合において、ある調整項目についてパラメータを増減させた画像加工が、その画像に対してどの程度の影響を与えているかを示す「影響度」を表示するようにしてもよい。「影響度」は、単純に加工処理によって画面全体の画素値がどの程度変化したかを示す積分値から求めることができる。また、各調整項目によって、例えば効果として「くっきりさせる」グループであれば、輝度レベルの変化量から求めることができる。さらにまた、効果として「色を変える」グループであれば、色相、彩度の変化量から求めることができる。そして、画面において、変化量が大きいほど画素を黒(または白)で表し、変化量が小さいほど画素を白(または黒)で表わすことにより、「影響度」をモノトーン画像で表すことができる。
(Modification 1)
“Impact” indicates how much the image processing with the increased or decreased parameters for a certain adjustment item has an effect on the image when “Open intuitive menu and perform processing settings” is selected. "Degree" may be displayed. The “influence degree” can be obtained from an integral value that indicates how much the pixel value of the entire screen has been changed by simple processing. Further, depending on each adjustment item, for example, if it is a “clear” group as an effect, it can be obtained from the amount of change in luminance level. Furthermore, as an effect, the “color changing” group can be obtained from the amount of change in hue and saturation. In the screen, the larger the change amount, the more black the pixel (or white), and the smaller the change amount, the white (or black) the pixel, so that the “influence” can be expressed as a monotone image.

例えば、図35〜図37に例示する効果分類ウィンドウ55Bにおいて、ユーザが調整項目表示を選択する(タップまたはポイントする)と、プログラム実行部31が効果分類ウィンドウ55Bにおいて選択された調整項目における「影響度」をモノトーン画像で表示させる。ここで、図35〜図37は、図1において例示した表示画面の中でいわゆる「壁紙」として用いた画像を加工対象画像としている。図35によれば、「コントラスト強調」前後の差分画像が「影響度」として表示されるので、「コントラスト強調」が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   For example, in the effect classification window 55B illustrated in FIGS. 35 to 37, when the user selects (tap or points) the adjustment item display, the program execution unit 31 selects “influence” in the adjustment item selected in the effect classification window 55B. "Degree" is displayed as a monotone image. Here, in FIGS. 35 to 37, an image used as a so-called “wallpaper” in the display screen illustrated in FIG. 1 is a processing target image. According to FIG. 35, since the difference image before and after “contrast enhancement” is displayed as “influence”, it is visually shown to the user how much the “contrast enhancement” has changed in which part of the image. Can be easily understood.

図36によれば、「輪郭強調」前後の差分画像が「影響度」として表示されるので、「輪郭強調」が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   According to FIG. 36, since the difference image before and after “contour emphasis” is displayed as “influence”, it is visually shown to the user how much the “contour emphasis” has changed in which part of the image. Can be easily understood.

図37によれば、「ホワイトバランス変更」前後の差分画像が「影響度」として表示されるので、「ホワイトバランス変更」が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   According to FIG. 37, the difference image before and after the “white balance change” is displayed as the “influence”, so it is shown to the user how much the “white balance change” has changed to which part of the image. Visually understandable.

なお、図35〜図37に例示したように、「影響度」を示すモノトーン画像を効果分類ウィンドウ55Bに小さく表示する代わりに、縮小画像51と並べて大きく表示させてもよい。   In addition, as illustrated in FIGS. 35 to 37, a monotone image indicating “degree of influence” may be displayed in a large size alongside the reduced image 51 instead of being displayed small in the effect classification window 55B.

変形例1によれば、分類されたパラメータによる加工の影響度を示す影響度表示をプログラム実行部31に実行させるようにしたので、そのパラメータに基づく画像加工が画像のどの部分にどの程度変化を与えているかを、ユーザに対して視覚的に分かりやすく知らせることができる。   According to the first modification, the program execution unit 31 is caused to execute the influence display indicating the influence of the processing based on the classified parameter, and therefore, how much the image processing based on the parameter changes in which part of the image. The user can be visually informed of whether or not the information is given.

(変形例2)
上述した「ユーザ別メニューを開いて加工設定を行う」が選ばれた場合において、ユーザ別メニュー62の他に、ユーザ別ウィンドウをユーザ別に設けて表示部22に表示させてもよい。ユーザ別ウィンドウには、例えばそのユーザによって取得された画像のサムネイル画像を一覧表示する。ユーザ別ウィンドウにサムネイル画像を一覧表示することで、ユーザは、サムネイル画像の一覧表示を見ながら加工対象画像の読み込み操作を行う(ステップS460)ことが可能になる。
(Modification 2)
When the above-mentioned “Open user menu and perform processing setting” is selected, in addition to the user menu 62, a user window may be provided for each user and displayed on the display unit 22. In the user-specific window, for example, thumbnail images of images acquired by the user are displayed in a list. By displaying a list of thumbnail images in the window for each user, the user can perform an operation of reading the processing target image while viewing the list display of thumbnail images (step S460).

(変形例3)
上述した「ユーザ別メニューを開いて加工設定を行う」が選ばれた場合において、ユーザ別メニュー62Aの一部を順番に表示させるようにしてもよい。図38は、変形例3におけるユーザ別メニューの表示画面を例示する図である。プログラム実行部31は、ユーザ別メニュー62Aの一部を使用頻度が高いものから順番に選び、選んだメニュー62A3をプルダウンメニュー別に表示部22に表示させる。
(Modification 3)
When the above-mentioned “Open user menu and perform processing setting” is selected, a part of the user menu 62A may be displayed in order. FIG. 38 is a diagram illustrating an example of a user-specific menu display screen according to the third modification. The program execution unit 31 selects a part of the user-specific menu 62A in descending order of frequency of use, and displays the selected menu 62A3 on the display unit 22 by pull-down menu.

プログラム実行部31は、表示部22で表示中のメニュー62A3の中からユーザによるタップ操作で選ばれた調整項目について画像加工処理を行う。プログラム実行部31は、画像加工処理を行うと、次の順番のメニュー62A3を表示部22に表示させる。なお、ユーザは、表示されているメニュー62A3に対応する画像加工をしないときは、表示中のメニュー62A3を画面外へスライドさせるようにスワイプ操作する。プログラム実行部31は、スワイプ操作された場合にも、次の順番のメニューを62A3表示部22に表示させる。   The program execution unit 31 performs image processing on an adjustment item selected by a tap operation by the user from the menu 62A3 being displayed on the display unit 22. When performing the image processing, the program execution unit 31 displays the next order menu 62A3 on the display unit 22. When the user does not perform image processing corresponding to the displayed menu 62A3, the user performs a swipe operation to slide the displayed menu 62A3 to the outside of the screen. The program execution unit 31 also displays the next order menu on the 62A3 display unit 22 even when a swipe operation is performed.

ユーザ別メニュー62Aの中に、画像加工用のサブメニューだけでなく、ファイル操作用のサブメニューや、印刷用のサブメニューを含めてもよい。例えば、画像ファイルを開くためのサブメニューを1番目とし、画像ファイルを閉じるためのサブメニューを最後とする。印刷用のサブメニューでは、出力先プリンタを選んだり、出力先プリンタに対する印刷設定を行ったりする。   The user-specific menu 62A may include not only an image processing submenu but also a file operation submenu and a printing submenu. For example, the submenu for opening an image file is first, and the submenu for closing an image file is last. In the submenu for printing, an output destination printer is selected and print settings for the output destination printer are made.

変形例3によれば、メニュー表示処理(S450)は、提示メニューを順番に切替えて表示部22に表示させるので、操作順を提示する操作ガイドとしても有効である。また、メニュー提示のための画面使用率を抑えられるから、縮小画像61の表示範囲を広く確保できる。   According to the third modification, the menu display process (S450) is effective as an operation guide for presenting the operation order because the presentation menu is switched in order and displayed on the display unit 22. In addition, since the screen usage rate for presenting the menu can be suppressed, a wide display range of the reduced image 61 can be secured.

さらに、変形例3によれば、提示メニューをメインメニュー52Aごとに切替えて表示部22に表示させるので、関連性のあるサブメニューをまとめて提示できる。   Furthermore, according to the modification 3, since a presentation menu is switched for every main menu 52A and it displays on the display part 22, a related submenu can be shown collectively.

(第二の実施形態)
第一の実施形態では、「画像サンプルを選んで加工設定を行う」が選ばれた場合において、プログラム実行部31が、フィルタ画像および加工対象画像のそれぞれについて、画像全体のパラメータ(画像全体に施されている画像処理の各種調整用パラメータや、撮影時の撮影用パラメータ)の特徴を分析し、フィルタ画像と加工対象画像との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工処理を行った。この代わりに、第二の実施形態では、画像の一部のパラメータの特徴を分析したり、加工対象画像の一部に対してパラメータの特徴を近似させるよう加工対象画像に対するパラメータを補正したりする構成とする。さらに、補正後のパラメータにより加工対象画像の一部、または全体に対して画像加工処理を行えるように構成する。
(Second embodiment)
In the first embodiment, when “select an image sample and perform processing setting” is selected, the program execution unit 31 sets the parameters of the entire image (applied to the entire image) for each of the filter image and the processing target image. Analyzing the characteristics of various image processing adjustment parameters and shooting parameters at the time of shooting), and correcting the parameters for the image to be processed so as to approximate the characteristics of the parameters between the filter image and the image to be processed Then, image processing was performed on the entire processing target image using the corrected parameters. Instead, in the second embodiment, the characteristics of some parameters of the image are analyzed, or the parameters for the processing target image are corrected so as to approximate the characteristics of the parameters to a part of the processing target image. The configuration. Furthermore, it is configured such that the image processing can be performed on a part or the whole of the processing target image according to the corrected parameters.

<ユーザインターフェイスの説明>
第二の実施形態において、「画像サンプルを選んで加工設定を行う」が選ばれた場合の画像処理プログラムによる具体的なユーザインターフェイスについて、表示・入力部20の表示部22に表示される表示画面を例示して説明する。図39は、「画像サンプルを選んで加工設定を行う」場合にプログラム実行部31が表示部22に表示させる初期画面を例示する図である。
<Description of user interface>
In the second embodiment, a display screen displayed on the display unit 22 of the display / input unit 20 regarding a specific user interface by the image processing program when “select image sample and perform processing setting” is selected. An example will be described. FIG. 39 is a diagram illustrating an initial screen that the program execution unit 31 displays on the display unit 22 in the case of “selecting an image sample and performing processing settings”.

図39において、表示画面は、加工前の画像に対応するサムネイル画像を一覧表示する一覧表示部aと、画像の一部領域を指定したり、加工結果を確認したりするための作業エリア表示部Bxと、フィルタ画像(加工の見本となる画像)を一覧表示するフィルタ一覧表示部Cxと、に分割される。ここで、一覧表示部a、作業エリア表示部Bx、およびフィルタ一覧表示部Cxの大きさ(表示エリア)は、ユーザ操作によって適宜変更可能に構成される。また、一覧表示部aおよびフィルタ一覧表示部Cxは、それぞれ左右方向へのスワイプ操作によって非表示にすることができる。例えば、フィルタ一覧表示部Cxを右方向へスワイプ操作すると、フィルタ一覧表示部Cxを非表示にして作業エリア表示部Bxを広げて表示する。サムネイル画像、作業エリア、表示エリア等の大きさの変更は、例えば、指や、マウスやスタイラスペン等のポインティングデバイスを用いたユーザ操作によって変更される。   In FIG. 39, the display screen includes a list display section a for displaying a list of thumbnail images corresponding to the image before processing, and a work area display section for designating a partial area of the image and confirming the processing result. It is divided into Bx and a filter list display section Cx that displays a list of filter images (images to be processed samples). Here, the size (display area) of the list display part a, the work area display part Bx, and the filter list display part Cx can be changed as appropriate by a user operation. The list display part a and the filter list display part Cx can be hidden by a swipe operation in the left-right direction. For example, when the filter list display portion Cx is swiped rightward, the filter list display portion Cx is not displayed and the work area display portion Bx is expanded and displayed. The size of the thumbnail image, the work area, the display area, and the like is changed by a user operation using a finger, a pointing device such as a mouse or a stylus pen, for example.

一覧表示部aは、加工前の画像に対応するサムネイルa1、サムネイルa2、およびサムネイルa3を表示するエリアである。一覧表示部aにサムネイル画像をスクロールするためのアイコン11、12が表示される点は、上記実施形態と同様である。サムネイル画像のスクロールは、アイコン11、12に対するタップ操作の他に、一覧表示部aに対する上下方向へのスワイプ操作でも可能である。   The list display part a is an area for displaying a thumbnail a1, a thumbnail a2, and a thumbnail a3 corresponding to the image before processing. The point that icons 11 and 12 for scrolling thumbnail images are displayed on the list display part a is the same as in the above embodiment. The scrolling of thumbnail images can be performed by a swipe operation in the vertical direction with respect to the list display portion a in addition to the tap operation on the icons 11 and 12.

作業エリア表示部Bxは、フィルタ画像(加工の見本となる画像)において画像処理パラメータの特徴を分析する特徴分析範囲を指定する際に使用される。また、作業エリア表示部Bxは、加工対象画像における特徴分析範囲を指定する際にも使用される。さらにまた、作業エリア表示部Bxは、画像加工結果の確認にも使用される。   The work area display unit Bx is used when designating a feature analysis range for analyzing the characteristics of image processing parameters in a filter image (an image to be processed). The work area display unit Bx is also used when designating a feature analysis range in the processing target image. Furthermore, the work area display part Bx is also used for confirming the image processing result.

フィルタ一覧表示部Cxは、登録されたフィルタ画像(加工の見本となる画像)に対応するサムネイル画像を表示するエリアである。図39の場合、登録が行われる前のフィルタ一覧表示部Cx内はブランク表示である。   The filter list display unit Cx is an area for displaying thumbnail images corresponding to registered filter images (images to be processed). In the case of FIG. 39, the filter list display portion Cx before registration is blank.

<フィルタ画像、および特徴分析範囲を選ぶ>
ユーザは、フィルタ画像(加工の見本となる画像)としてサムネイルa1に対応する画像を選ぶ場合、一覧表示部aにおいてサムネイルa1をタップ操作する。プログラム実行部31は、図40に例示するように、フィルタ一覧表示部Cxを非表示にし、広げた作業エリア表示部Bxにサムネイルa1より大きな画像B1を表示させる。プログラム実行部31は、図41に例示するように、作業エリア表示部Bxにおいて特徴分析範囲dを指定するドラッグ操作を受け付ける。
<Select filter image and feature analysis range>
When the user selects an image corresponding to the thumbnail a1 as a filter image (an image to be processed), the user taps the thumbnail a1 on the list display unit a. As illustrated in FIG. 40, the program execution unit 31 hides the filter list display unit Cx and causes the expanded work area display unit Bx to display an image B1 larger than the thumbnail a1. As illustrated in FIG. 41, the program execution unit 31 receives a drag operation for designating the feature analysis range d in the work area display unit Bx.

プログラム実行部31は、サムネイルa1に対応する画像B1のうち、作業エリア表示部Bxにおいて指定された領域dを特徴分析範囲とし、この特徴分析範囲dに基づいてパラメータ分析(すなわち特徴量の算出)を行う。   The program execution unit 31 sets a region d designated in the work area display unit Bx in the image B1 corresponding to the thumbnail a1 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range d. I do.

プログラム実行部31は、作業エリア表示部Bx内に表示する「参照元」ボタン14がタップ操作された段階で、特徴分析範囲dに基づく上記全ての特徴量の算出を行い、算出結果を参照元パラメータとして不図示のメモリに登録する。プログラム実行部31はさらに、図42に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。そして、選ばれたフィルタ画像(本説明ではサムネイルa1に対応する画像)のうち特徴分析範囲dに相当する画像のサムネイルc1をフィルタ一覧表示部Cxに表示させる。なお、サムネイルa1に対応する画像に基づいて特徴量が登録されたことを示すため、サムネイルc1として図示する。後述する図50や図61〜図63等に示すように、複数のフィルタ画像(特徴量)の登録が可能である。   The program execution unit 31 calculates all the feature amounts based on the feature analysis range d when the “reference source” button 14 displayed in the work area display unit Bx is tapped, and the calculation result is referred to by the reference source. A parameter is registered in a memory (not shown). Further, as illustrated in FIG. 42, the program execution unit 31 hides the list display unit a and displays the filter list display unit Cx. Then, a thumbnail c1 of an image corresponding to the feature analysis range d among the selected filter images (images corresponding to the thumbnail a1 in this description) is displayed on the filter list display unit Cx. In addition, in order to indicate that the feature amount is registered based on the image corresponding to the thumbnail a1, it is illustrated as a thumbnail c1. As shown in FIGS. 50 and 61 to 63 described later, a plurality of filter images (feature amounts) can be registered.

上記特徴量の算出結果を不揮発性メモリ34に保存しておくと、将来同じフィルタ画像を選ぶ場合において算出結果を再利用できるので、特徴量算出をその都度行う場合に比べて、処理負担を軽減させることができる。   If the calculation result of the feature amount is stored in the non-volatile memory 34, the calculation result can be reused when the same filter image is selected in the future. Therefore, the processing load is reduced as compared with the case where the feature amount calculation is performed each time. Can be made.

なお、上述した実施形態と同様に、「参考とするパラメータ」としてユーザによって選ばれたパラメータのみについて特徴量を算出するようにしてもよい。すなわち、特徴分析範囲dにおいて、明るさ、コントラスト、色相などのパラメータのうち、チェックされたパラメータについてのみ特徴量を算出して登録する。   Similar to the above-described embodiment, the feature amount may be calculated only for the parameter selected by the user as the “reference parameter”. That is, in the feature analysis range d, feature amounts are calculated and registered only for the checked parameters among parameters such as brightness, contrast, and hue.

<加工対象画像、および特徴分析範囲を選ぶ>
ユーザは、加工対象画像としてサムネイルa2に対応する画像を選ぶ場合、一覧表示部aを表示させた状態でサムネイルa2をタップ操作する。プログラム実行部31は、図43に例示するように、フィルタ一覧表示部Cxを非表示にし、広げた作業エリア表示部Bxにサムネイルa2より大きな画像B2を表示させる。プログラム実行部31は、図44に例示するように、作業エリア表示部Bxにおいて、画像の加工対象範囲となる特徴分析範囲eを指定するドラッグ操作を受け付ける。
<Select image to be processed and feature analysis range>
When the user selects an image corresponding to the thumbnail a2 as the processing target image, the user taps the thumbnail a2 while the list display part a is displayed. As illustrated in FIG. 43, the program execution unit 31 hides the filter list display unit Cx and causes the expanded work area display unit Bx to display an image B2 larger than the thumbnail a2. As illustrated in FIG. 44, the program execution unit 31 receives a drag operation for designating a feature analysis range e that is an image processing target range in the work area display unit Bx.

プログラム実行部31は、サムネイルa2に対応する画像B2のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とし、この特徴分析範囲eに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、特徴分析範囲eに基づく上記全ての特徴量の算出を、ユーザによって特徴分析範囲eが指定された段階で行う。   The program execution unit 31 sets a region e designated in the work area display unit Bx in the image B2 corresponding to the thumbnail a2 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range e. I do. The program execution unit 31 calculates all the feature amounts based on the feature analysis range e when the feature analysis range e is designated by the user.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、図45に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。さらに、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、加工対象画像(特徴分析範囲e)とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の一部(特徴分析範囲e)に対して画像加工を行う。   When the “apply” button 13 displayed in the work area display section Bx is tapped, the program execution section 31 hides the list display section a and also displays the filter list display section Cx as illustrated in FIG. Is displayed. Further, when the registered thumbnail c1 is tapped on the filter list display unit Cx, the parameter features are approximated between the processing target image (feature analysis range e) and the filter image (feature analysis range d). Then, the parameters for the processing target image are corrected, and image processing is performed on a part of the processing target image (feature analysis range e) using the corrected parameters.

プログラム実行部31は、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲e内を加工後の画像に対応する画像に置き換えて表示させる。   The program execution unit 31 displays the image B2 displayed on the work area display unit Bx by replacing the feature analysis range e with an image corresponding to the processed image.

ここで、特徴分析範囲dの形状と、特徴分析範囲eの形状とが異なっていてもよく、それぞれが任意の形状(円形、多角形、複数の図形の組み合わせ等)に指定されていて構わない。図46は、矩形形状の特徴分析範囲eの代わりに指定された楕円形状の特徴分析範囲exを例示する図である。図47は、複数の楕円形状を組み合わせた特徴分析範囲eyを例示する図である。また、図48は、任意形状で、複数に分離されている特徴分析範囲ezを例示する図である。また、ユーザが、指で画像B2上をなぞることで、指が触れた範囲を特徴分析範囲eとして指定できるようにしてもよい。同様に、ユーザが、図41で示される矩形形状の特徴分析範囲の代わりに、特徴分析範囲dの形状を任意の形状(円形状、多角形、複数の図形の組み合わせ等)に指定できるようにしてもよい。また、ユーザが、指で画像B1上をなぞることで、指が触れた範囲を特徴分析範囲dとして指定できるようにしてもよい。   Here, the shape of the feature analysis range d and the shape of the feature analysis range e may be different, and each may be designated as an arbitrary shape (a circle, a polygon, a combination of a plurality of figures, etc.). . FIG. 46 is a diagram illustrating an elliptical feature analysis range ex designated instead of the rectangular feature analysis range e. FIG. 47 is a diagram illustrating a feature analysis range ey obtained by combining a plurality of elliptical shapes. FIG. 48 is a diagram illustrating a feature analysis range ez that has an arbitrary shape and is divided into a plurality of parts. In addition, the user may be able to designate the range touched by the finger as the feature analysis range e by tracing the image B2 with the finger. Similarly, the user can designate the shape of the feature analysis range d as an arbitrary shape (a circle, a polygon, a combination of a plurality of figures, etc.) instead of the rectangular feature analysis range shown in FIG. May be. In addition, the user may be able to designate the range touched by the finger as the feature analysis range d by tracing the image B1 with the finger.

また、ユーザが筆で色を塗るような操作によって特徴分析範囲eを指定できるようにしてもよい。例えば、ユーザは、登録されているサムネイルc1をあたかもパレット(フィルタ一覧表示部Cx)に出された絵の具のように扱い、サムネイルc1をタップした指で絵の具を塗るかのように、作業エリア表示部Bxに表示されている画像B2上をなぞる。プログラム実行部31は、図49に例示するように、指が触れた範囲を特徴分析範囲e1とする。   Further, the feature analysis range e may be designated by an operation in which the user paints a color with a brush. For example, the user treats the registered thumbnail c1 as if it were a paint on the palette (filter list display part Cx), and paints it with a finger tapping the thumbnail c1. The image B2 displayed on Bx is traced. As illustrated in FIG. 49, the program execution unit 31 sets a range touched by a finger as a feature analysis range e1.

さらにまた、特徴分析範囲eを複数に分離して指定する場合において、異なるフィルタ画像(加工の見本となる画像)に対応させてもよい。図50は、複数の特徴分析範囲e1およびe3に対して、それぞれ異なる画像加工を行う場面を説明する図である。ユーザは、登録されているサムネイルc1をタップした指で絵の具を塗るかのように、作業エリア表示部Bxに表示されている画像B2上をなぞって特徴分析範囲e1を指定する。また、ユーザは、登録されているサムネイルc3をタップした指で絵の具を塗るかのように、作業エリア表示部Bxに表示されている画像B2上をなぞって特徴分析範囲e3を指定する。   Furthermore, in the case where the feature analysis range e is specified by being divided into a plurality, it may be made to correspond to different filter images (images to be processed). FIG. 50 is a diagram illustrating a scene in which different image processing is performed on each of the plurality of feature analysis ranges e1 and e3. The user designates the feature analysis range e1 by tracing over the image B2 displayed on the work area display unit Bx as if painting a paint with a finger tapping the registered thumbnail c1. In addition, the user designates the feature analysis range e3 by tracing over the image B2 displayed on the work area display unit Bx as if painting with a finger tapping the registered thumbnail c3.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、サムネイルc1に対応する特徴分析範囲dと画像B2に対応する特徴分析範囲e1との間、およびサムネイルc3に対応する特徴分析範囲dと画像B2に対応する特徴分析範囲e3との間で、それぞれパラメータの特徴を近似させるように加工対象画像に対するパラメータを2通りに補正し、これら補正後のパラメータにより加工対象画像の全体に対して2通りの画像加工処理を行う。そして、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲e1および特徴分析範囲e3内を、それぞれ加工後の画像に対応する画像に置き換えて表示させる。   When the “apply” button 13 displayed in the work area display unit Bx is tapped, the program execution unit 31 performs the operation between the feature analysis range d corresponding to the thumbnail c1 and the feature analysis range e1 corresponding to the image B2. In addition, between the feature analysis range d corresponding to the thumbnail c3 and the feature analysis range e3 corresponding to the image B2, the parameters for the processing target image are corrected in two ways so as to approximate the characteristics of the parameters, respectively. Two types of image processing are performed on the entire processing target image according to the parameters. Then, in the image B2 displayed on the work area display unit Bx, the feature analysis range e1 and the feature analysis range e3 are respectively replaced with images corresponding to the processed images and displayed.

また、画像B2において特徴分析範囲eを指定する際にスタンプツールを用いるようにしてもよい。図51は、スタンプツールを用いる例を説明する図である。図51において、スタンプツール表示部kに複数形状のスタンプツールsが表示される。ユーザは、登録されているサムネイルc1をあたかもスタンプ台(フィルタ一覧表示部Cx)のように扱い、作業エリア表示部Bxに表示されている画像B2上に特徴分析範囲esを指定する。例えば星形形状のスタンプツールsをタップした指でサムネイルc1をタップし、さらに画像B2上をタップすると、画像B2上に星形形状に特徴分析範囲esが指定される。次に、三角形状のスタンプツールsをタップした指でサムネイルc1をタップし、さらに画像B2上をタップすると、画像B2上に三角形状に特徴分析範囲esが指定される。   Further, a stamp tool may be used when specifying the feature analysis range e in the image B2. FIG. 51 is a diagram for explaining an example using a stamp tool. In FIG. 51, stamp tools s having a plurality of shapes are displayed on the stamp tool display section k. The user treats the registered thumbnail c1 as if it were a stamp stand (filter list display portion Cx) and designates the feature analysis range es on the image B2 displayed on the work area display portion Bx. For example, when the thumbnail c1 is tapped with a finger tapping the star-shaped stamp tool s, and further on the image B2, the feature analysis range es is designated as a star shape on the image B2. Next, when the thumbnail c1 is tapped with a finger tapping the triangular stamp tool s and further on the image B2, the feature analysis range es is designated in a triangular shape on the image B2.

なお、画像B2上に複数の特徴分析範囲esを指定する場合において、複数のサムネイルc1およびc3が登録されている場合には、複数の特徴分析範囲esに異なるフィルタ画像(加工の見本となる画像)を対応させてもよい。これにより、例えば画像B2に対応する画像に対して星形形状の特徴分析範囲esと三角形状の特徴分析範囲esのそれぞれで2通りの画像加工を行うとともに、作業エリア表示部Bxにおいて表示する画像B2のうち、星形形状の特徴分析範囲esおよび三角形状の特徴分析範囲es内に、それぞれ加工後の画像に対応する画像に置き換えて表示できる。   In the case where a plurality of feature analysis ranges es are specified on the image B2, when a plurality of thumbnails c1 and c3 are registered, different filter images (images to be processed as examples of processing) are stored in the plurality of feature analysis ranges es. ). Thus, for example, the image corresponding to the image B2 is subjected to two types of image processing in each of the star-shaped feature analysis range es and the triangle-shaped feature analysis range es, and the image displayed on the work area display unit Bx In B2, the image can be displayed in the star-shaped feature analysis range es and the triangle-shaped feature analysis range es by replacing them with images corresponding to the processed images.

<加工対象画像において特徴分析範囲を選ばない場合>
プログラム実行部31は、図43において、作業エリア表示部Bxにおいて表示する加工対象画像において特徴分析範囲eの指定が行われずに、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。そして、図52に例示するように、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、加工対象画像の全体を特徴分析範囲eとして扱い、加工対象画像の全体とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工を行う。この場合のプログラム実行部31は、加工対象画像の全体に基づく特徴量の算出を、ユーザによって「適用」ボタン13がタップ操作された段階で行う。
<When the feature analysis range is not selected in the image to be processed>
In FIG. 43, the program execution unit 31 taps the “apply” button 13 displayed in the work area display unit Bx without specifying the feature analysis range e in the processing target image displayed in the work area display unit Bx. Then, the list display part a is hidden and the filter list display part Cx is displayed. Then, as illustrated in FIG. 52, when the registered thumbnail c1 is tapped on the filter list display unit Cx, the entire processing target image is handled as the feature analysis range e, and the entire processing target image and the filter image are displayed. The parameter for the processing target image is corrected so that the feature of the parameter is approximated with (feature analysis range d), and the entire processing target image is processed using the corrected parameter. In this case, the program execution unit 31 calculates the feature amount based on the entire processing target image when the “apply” button 13 is tapped by the user.

<加工対象画像の一部とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように、加工対象画像の全体に対して画像加工を行う場合>
プログラム実行部31は、図53に例示するように、作業エリア表示部Bxにおいて特徴分析範囲eを指定するドラッグ操作を受け付ける。プログラム実行部31は、サムネイルa4に対応する画像B4のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とし、この特徴分析範囲eに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、特徴分析範囲eに基づく特徴量の算出を、ユーザによって特徴分析範囲eが指定された段階で行う。
<When image processing is performed on the entire processing target image so that the feature of the parameter is approximated between a part of the processing target image and the filter image (feature analysis range d)>
As illustrated in FIG. 53, the program execution unit 31 receives a drag operation for designating the feature analysis range e in the work area display unit Bx. The program execution unit 31 sets a region e designated in the work area display unit Bx of the image B4 corresponding to the thumbnail a4 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range e. I do. The program execution unit 31 calculates the feature amount based on the feature analysis range e when the feature analysis range e is designated by the user.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、図54に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。さらに、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、特徴分析範囲eとフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工を行う。   When the “apply” button 13 displayed in the work area display section Bx is tapped, the program execution section 31 hides the list display section a and also displays the filter list display section Cx as illustrated in FIG. Is displayed. Further, when the registered thumbnail c1 is tapped on the filter list display unit Cx, the processing target image is approximated so that the feature of the parameter is approximated between the feature analysis range e and the filter image (feature analysis range d). The parameters are corrected, and image processing is performed on the entire processing target image using the corrected parameters.

プログラム実行部31は、作業エリア表示部Bxにおいて表示する画像B4を、加工後の画像に対応する画像に置き換えて表示させる。図54によれば、特徴分析範囲eに対して行う加工と同じ加工を画像全体に対して行うことで、特徴分析範囲eとそれ以外の領域との境界をなくすことができる。   The program execution unit 31 displays the image B4 displayed on the work area display unit Bx by replacing it with an image corresponding to the processed image. According to FIG. 54, the same processing as that performed on the feature analysis range e is performed on the entire image, so that the boundary between the feature analysis range e and other regions can be eliminated.

図55〜図57を参照して、画像の一部を補正する場面を説明する。図55において、ユーザは、加工対象画像としてサムネイルa5に対応する画像を選ぶ場合、一覧表示部aを表示させた状態でサムネイルa5をタップ操作する。プログラム実行部31は、作業エリア表示部Bxにサムネイルa5より大きな画像B5を表示させる。図55によれば、右側被写体が明るすぎる。ユーザは、画像の加工対象範囲となる特徴分析範囲eとして、明るすぎる右側被写体を指定する操作を行う。プログラム実行部31は、作業エリア表示部Bxにおいて特徴分析範囲eを指定する操作を受け付ける。プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、図56に例示するように、一覧表示部aを非表示にするとともにフィルタ一覧表示部Cxを表示させる。   With reference to FIGS. 55 to 57, a scene in which a part of an image is corrected will be described. In FIG. 55, when the user selects an image corresponding to the thumbnail a5 as the processing target image, the user taps the thumbnail a5 while the list display portion a is displayed. The program execution unit 31 displays an image B5 larger than the thumbnail a5 on the work area display unit Bx. According to FIG. 55, the right subject is too bright. The user performs an operation of designating a right subject that is too bright as the feature analysis range e that is a processing target range of the image. The program execution unit 31 receives an operation for designating the feature analysis range e in the work area display unit Bx. When the “apply” button 13 displayed in the work area display section Bx is tapped, the program execution section 31 hides the list display section a and also displays the filter list display section Cx as illustrated in FIG. Is displayed.

プログラム実行部31は、サムネイルa5に対応する画像B5のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とし、この特徴分析範囲eに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、特徴分析範囲eに基づく特徴量の算出を、ユーザによって特徴分析範囲eが指定された段階で行う。   The program execution unit 31 sets a region e designated in the work area display unit Bx of the image B5 corresponding to the thumbnail a5 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range e. I do. The program execution unit 31 calculates the feature amount based on the feature analysis range e when the feature analysis range e is designated by the user.

プログラム実行部31は、登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作されると、特徴分析範囲eとフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の全体に対して画像加工を行う。図57によれば、補正したい領域を特徴分析範囲eとして指定することで、画像B5のうち補正したい領域のみを適正な明るさに加工することができる。   When the registered thumbnail c1 is tapped on the filter list display unit Cx, the program execution unit 31 approximates the feature of the parameter between the feature analysis range e and the filter image (feature analysis range d). The parameters for the processing target image are corrected, and image processing is performed on the entire processing target image using the corrected parameters. According to FIG. 57, by designating the region to be corrected as the feature analysis range e, only the region to be corrected in the image B5 can be processed to an appropriate brightness.

<加工対象画像の一部を画像加工する場合に境界をぼかす>
例えば、図58に例示するように、サムネイルa2に対応する画像B2のうち、作業エリア表示部Bxにおいて指定された領域eを特徴分析範囲とする場合、プログラム実行部31は、加工対象画像(特徴分析範囲e)とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の特徴分析範囲eに対して画像加工を行う。このとき、プログラム実行部31は、特徴分析範囲eの境界をぼかすように特徴分析範囲eの外側において加工の強度を徐々に弱くする。図59によれば、境界をぼかすように加工することで、特徴分析範囲eとそれ以外の領域との境界を目立ちにくくすることができる。
<Blur boundaries when processing part of the image to be processed>
For example, as illustrated in FIG. 58, when the region e designated in the work area display unit Bx is set as the feature analysis range in the image B2 corresponding to the thumbnail a2, the program execution unit 31 selects the processing target image (feature The parameter for the processing target image is corrected so that the feature of the parameter is approximated between the analysis range e) and the filter image (feature analysis range d). Perform image processing. At this time, the program execution unit 31 gradually decreases the processing intensity outside the feature analysis range e so as to blur the boundary of the feature analysis range e. According to FIG. 59, the boundary between the feature analysis range e and other regions can be made inconspicuous by processing so as to blur the boundary.

ぼかし方の一例としては、図60に例示するように、画像加工済み画像を画像加工前の画像の上に重ね、特徴分析範囲e内の画像加工済み画像を不透明度100% とし、特徴分析範囲eの境界からぼかし範囲gまでの間で、不透明度を0%(画像加工前の画像が完全に見える)にするよう透明度を徐々に変化させる方法がある。   As an example of the blurring method, as illustrated in FIG. 60, the image processed image is superimposed on the image before image processing, the image processed image in the feature analysis range e is set to 100% opacity, and the feature analysis range is set. There is a method of gradually changing the transparency so that the opacity is 0% (the image before image processing is completely visible) between the boundary of e and the blurring range g.

<複数のフィルタ画像、および特徴分析範囲を選ぶ>
ユーザは、図61において、2枚目以降のフィルタ画像(加工の見本となる画像)としてサムネイルa3に対応する画像を選ぶ場合、一覧表示部aにおいてサムネイルa3をタップ操作する。プログラム実行部31は、サムネイルa3に対応する画像B3のうち、作業エリア表示部Bxにおいて指定された領域hを特徴分析範囲とし、この特徴分析範囲hに基づいてパラメータ分析(すなわち特徴量の算出)を行う。プログラム実行部31は、作業エリア表示部Bx内に表示する「参照元」ボタン14がタップ操作された段階で、特徴分析範囲hに基づく特徴量の算出を行い、算出結果を参照元パラメータとして不図示のメモリに登録する。
<Select multiple filter images and feature analysis ranges>
In FIG. 61, when the user selects an image corresponding to the thumbnail a3 as the second and subsequent filter images (images to be processed), the user taps the thumbnail a3 in the list display portion a. The program execution unit 31 sets a region h designated in the work area display unit Bx in the image B3 corresponding to the thumbnail a3 as a feature analysis range, and performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range h. I do. The program execution unit 31 calculates the feature amount based on the feature analysis range h when the “reference source” button 14 displayed in the work area display unit Bx is tapped, and the calculation result is not used as a reference source parameter. Register in the memory shown.

プログラム実行部31は、選ばれたフィルタ画像(本説明ではサムネイルa3に対応する画像)のうち特徴分析範囲hに相当する画像のサムネイルc3をフィルタ一覧表示部Cxに表示させる(図62)。なお、サムネイルa3に対応する画像に基づいて特徴量が登録されたことを示すため、サムネイルc3として図示する。   The program execution unit 31 causes the filter list display unit Cx to display the thumbnail c3 of the image corresponding to the feature analysis range h among the selected filter images (images corresponding to the thumbnail a3 in this description) (FIG. 62). In addition, in order to indicate that the feature amount is registered based on the image corresponding to the thumbnail a3, it is illustrated as a thumbnail c3.

複数に分離した特徴分析範囲ez1およびez3が指定されている場合において、プログラム実行部31は、図50の場合と異なる手法で、特徴分析範囲ez1およびez2に対して異なるフィルタ画像(加工の見本となる画像)を対応させる。図63は、複数の特徴分析範囲ez1およびez3に対してそれぞれ異なる画像加工を行う場面を説明する図である。ユーザは、例えばフィルタ一覧表示部Cxにおいて登録されているサムネイルc1をタップし、次に作業エリア表示部Bxにおいて特徴分析範囲ez1をタップする。ユーザはさらに、フィルタ一覧表示部Cxにおいて登録されているサムネイルc3をタップし、次に作業エリア表示部Bxにおいて特徴分析範囲ez3をタップする。   When a plurality of separated feature analysis ranges ez1 and ez3 are specified, the program execution unit 31 uses different filter images (processing samples and processing samples) for the feature analysis ranges ez1 and ez2 by a method different from that shown in FIG. Corresponding image). FIG. 63 is a diagram illustrating a scene in which different image processing is performed on each of the plurality of feature analysis ranges ez1 and ez3. For example, the user taps the thumbnail c1 registered in the filter list display unit Cx, and then taps the feature analysis range ez1 in the work area display unit Bx. The user further taps the thumbnail c3 registered in the filter list display unit Cx, and then taps the feature analysis range ez3 in the work area display unit Bx.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、サムネイルc1に対応する特徴分析範囲dと画像B2に対応する特徴分析範囲ez1との間、およびサムネイルc3に対応する特徴分析範囲hと画像B2に対応する特徴分析範囲ez3との間で、それぞれパラメータの特徴を近似させるように加工対象画像に対するパラメータを2通りに補正し、これら補正後のパラメータにより加工対象画像の特徴分析範囲ez1、特徴分析範囲ez3に対してそれぞれ画像加工処理を行う。そして、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲ez1および特徴分析範囲ez3内を、それぞれ加工後の画像に対応する画像に置き換えて表示させる。   When the “apply” button 13 displayed in the work area display unit Bx is tapped, the program execution unit 31 performs the operation between the feature analysis range d corresponding to the thumbnail c1 and the feature analysis range ez1 corresponding to the image B2. In addition, between the feature analysis range h corresponding to the thumbnail c3 and the feature analysis range ez3 corresponding to the image B2, the parameters for the processing target image are corrected in two ways so as to approximate the characteristics of the parameters, respectively. Image processing is performed on the feature analysis range ez1 and the feature analysis range ez3 of the processing target image according to the parameters. In the image B2 displayed on the work area display unit Bx, the feature analysis range ez1 and the feature analysis range ez3 are each replaced with an image corresponding to the processed image and displayed.

上述したように、作業エリア表示部Bxにおいて特徴分析範囲ez1、特徴分析範囲ez3を指定した後、それぞれにパラメータの特徴を対応させるサムネイルc1、c3を指定してもよいし、特徴分析範囲ez1または特徴分析範囲ez3を指定するごとに、パラメータの特徴を対応させるサムネイルc1またはc3を指定してもよい。また、先にサムネイルc1またはc3を指定した後に、パラメータの特徴を対応させる特徴分析範囲ez1または特徴分析範囲ez3を指定してもよい。   As described above, after specifying the feature analysis range ez1 and the feature analysis range ez3 in the work area display unit Bx, the thumbnails c1 and c3 corresponding to the feature of each parameter may be specified, or the feature analysis range ez1 or Each time the feature analysis range ez3 is designated, the thumbnail c1 or c3 associated with the parameter feature may be designated. In addition, after specifying the thumbnail c1 or c3 first, the feature analysis range ez1 or the feature analysis range ez3 to which the feature of the parameter is associated may be specified.

<加工対象画像において複数の特徴分析範囲が近接または接触している場合>
プログラム実行部31は、図64に例示するように、作業エリア表示部Bxにおいて特徴分析範囲ez1と特徴分析範囲ez3とが接する場合、両者の間に境界線を設ける。そして、境界線を境として、加工対象画像の特徴分析範囲ez1と特徴分析範囲ezとの間で画像加工処理を明確に分ける。
<When multiple feature analysis ranges are close or in contact with the image to be processed>
As illustrated in FIG. 64, the program execution unit 31 provides a boundary line between the feature analysis range ez1 and the feature analysis range ez3 in the work area display unit Bx. Then, the image processing is clearly divided between the feature analysis range ez1 and the feature analysis range ez of the processing target image with the boundary line as a boundary.

なお、境界線を境として、加工対象画像の特徴分析範囲ez1と特徴分析範囲ez3との間で画像加工処理を明確に分ける代わりに、図65に例示するように、境界線を挟む画像加工処理を徐々に変化させて境界線をぼかしてもよい。   Note that instead of clearly dividing the image processing process between the feature analysis range ez1 and the feature analysis range ez3 of the processing target image with the boundary line as a boundary, as illustrated in FIG. The boundary line may be blurred by gradually changing.

そして、境界線の位置や画像加工処理を徐々に変化させる範囲は、作業エリア表示部Bxにおいて表示する画像B2をユーザが指でなぞって調整できるようにしてもよい。   The boundary position and the range in which the image processing process is gradually changed may be adjusted by the user tracing the image B2 displayed on the work area display unit Bx with a finger.

また、作業エリア表示部Bxにおいて複数の特徴分析範囲ez1および特徴分析範囲ez3を指定する場合において、特徴分析範囲ez1およびez3の境界をぼかすように画像加工の強度を徐々に弱くしてもよい。図66によれば、特徴分析範囲ez1および特徴分析範囲ez3においてそれぞれ境界をぼかすように加工することで、特徴分析範囲ez1、ez3とそれ以外の領域との境界を目立ちにくくすることができる。   Further, when a plurality of feature analysis ranges ez1 and feature analysis ranges ez3 are designated in the work area display section Bx, the intensity of image processing may be gradually reduced so as to blur the boundaries between the feature analysis ranges ez1 and ez3. According to FIG. 66, the boundaries between the feature analysis ranges ez1 and ez3 and the other regions can be made inconspicuous by processing the boundaries in the feature analysis range ez1 and the feature analysis range ez3.

さらにまた、作業エリア表示部Bxにおいて円形状の特徴分析範囲を指定する場合において、その中心座標を指定して行うようにしてもよい。プログラム実行部31は、指定された座標位置から所定距離の範囲を特徴分析範囲とする。図67は、中心座標O1および中心座標O2に基づいて指定した2つの円形状の特徴分析範囲を例示する図である。   Furthermore, when specifying a circular feature analysis range in the work area display section Bx, the center coordinates may be specified. The program execution unit 31 sets a range of a predetermined distance from the designated coordinate position as a feature analysis range. FIG. 67 is a diagram illustrating a feature analysis range of two circular shapes designated based on the center coordinates O1 and the center coordinates O2.

2つの円形状の特徴分析範囲が接する場合は、図64または図65の場合と同様に2つの特徴分析範囲の間に境界線を設け、境界線を境として画像加工処理を明確に分けたり、境界線をぼかすように境界線を挟む画像加工処理を徐々に変化させたりしてもよい。図68は、2つの円形状特徴分析範囲の間の境界線を境として、画像加工処理を分けた場合を例示する図である。   When two circular feature analysis ranges are in contact with each other, a boundary line is provided between the two feature analysis ranges in the same manner as in FIG. 64 or 65, and image processing processing is clearly divided on the boundary line, The image processing that sandwiches the boundary line may be gradually changed so as to blur the boundary line. FIG. 68 is a diagram exemplifying a case where the image processing is divided on the boundary line between two circular feature analysis ranges.

<画像加工前と、画像加工後の比較表示>
以上の説明では、作業エリア表示部Bxにおいて「適用」ボタン13がタップ操作されると、画像加工後の画像を作業エリア表示部Bxに表示する例を説明した。この代わりに、図69〜図71に例示するように、画像加工前の画像と画像加工後の画像を見比べできるように表示をしてもよい。
<Comparison display before and after image processing>
In the above description, when the “apply” button 13 is tapped on the work area display unit Bx, an example in which an image after image processing is displayed on the work area display unit Bx has been described. Instead, as illustrated in FIGS. 69 to 71, display may be performed so that an image before image processing and an image after image processing can be compared.

図69は、作業エリア表示部Bxにおいて画像加工(適用)前の画像と画像加工(適用)後の画像を並べて表示する場合を例示する図である。複数のパラメータについて補正を行って画像加工を行う場合、画像加工(適用)前の画像として、全てのパラメータに対する補正をOFF(キャンセル)した画像を表示してもよいし、一部のパラメータに対する補正のみをOFF(キャンセル)した画像を表示してもよい。   FIG. 69 is a diagram illustrating a case where an image before image processing (application) and an image after image processing (application) are displayed side by side in the work area display unit Bx. When performing image processing by correcting multiple parameters, an image with all parameters corrected (OFF) may be displayed as an image before image processing (application), or correction for some parameters Alternatively, an image with only OFF (cancelled) may be displayed.

図70および図71は、作業エリア表示部Bxにおいて画像加工(適用)前の画像と画像加工(適用)後の画像とをレイヤー構造にした例である。プログラム実行部31は、「切替」ボタン19がタップ操作されるたびに、レイヤーを切り替える。これにより、ユーザは、画像加工(適用)前の画像と画像加工(適用)後の画像とを見比べることができる。なお、レイヤー構造が分かりやすいように画像を斜めにずらして配置しているが、より見比べやすいよう同じ位置に画像を重ねて配置してもよい。   FIG. 70 and FIG. 71 are examples in which an image before image processing (application) and an image after image processing (application) have a layer structure in the work area display section Bx. The program execution unit 31 switches layers each time the “switch” button 19 is tapped. Thereby, the user can compare the image before image processing (application) with the image after image processing (application). The images are arranged obliquely so that the layer structure can be easily understood. However, the images may be arranged in the same position so that the images can be compared more easily.

<補正パラメータを適用して画像加工した範囲の表示>
図72および図73は、作業エリア表示部Bxにおいて画像加工(適用)後の画像と画像加工範囲を示す表示とをレイヤー構造にした例である。プログラム実行部31は、「切替」ボタン19がタップ操作されるたびに、レイヤーを切り替える。これにより、ユーザは、画像加工(適用)後の画像と画像加工範囲、補正の種別とを見比べることができる。フィルタ一覧表示部Cxにおいて、サムネイルc1に対してパラメータの特徴を対応させる補正を「補正1」とし、サムネイルc3に対してパラメータの特徴を対応させる補正を「補正2」と表示した。なお、レイヤー構造が分かりやすいように画像を斜めにずらして配置しているが、より見比べやすいよう同じ位置に画像を重ねて配置してもよい。
<Displaying the range of images processed by applying correction parameters>
72 and 73 are examples in which the image after image processing (application) and the display indicating the image processing range are arranged in a layer structure in the work area display section Bx. The program execution unit 31 switches layers each time the “switch” button 19 is tapped. Thus, the user can compare the image after image processing (application) with the image processing range and the type of correction. In the filter list display section Cx, the correction for associating the parameter feature with the thumbnail c1 is “Correction 1”, and the correction for associating the parameter feature with the thumbnail c3 is “Correction 2”. The images are arranged obliquely so that the layer structure can be easily understood. However, the images may be arranged in the same position so that the images can be compared more easily.

図74および図75は、作業エリア表示部Bxにおいて画像加工(適用)後の画像と画像加工範囲を示す表示とに、グレースケール加工や半透過加工を組み合わせてレイヤー構造にした例である。プログラム実行部31は、「切替」ボタン19がタップ操作されるたびに、レイヤーを切り替える。図74の例では、画像加工(適用)後の画像の上から、画像加工範囲を示す表示を半透過で重ねる。左側被写体の部分に「補正1」を対応させ、右側被写体の部分に「補正2」を対応させる例を示す。   FIGS. 74 and 75 are examples in which a layer structure is formed by combining an image after image processing (application) and a display indicating an image processing range in the work area display unit Bx with gray scale processing or semi-transparent processing. The program execution unit 31 switches layers each time the “switch” button 19 is tapped. In the example of FIG. 74, the display indicating the image processing range is superimposed semi-transparently on the image after image processing (application). An example is shown in which “correction 1” is associated with the left subject portion and “correction 2” is associated with the right subject portion.

図75の例では、画像加工(適用)後の画像において加工範囲に対応する部分の彩色を残し、加工範囲以外の部分をグレー表示する。これにより、ユーザは、画像加工(適用)後の画像と、画像加工範囲、補正種別とを見比べることができる。なお、レイヤー構造が分かりやすいように画像を斜めにずらして配置しているが、より見比べやすいよう同じ位置に画像を重ねて配置してもよい。   In the example of FIG. 75, the color of the portion corresponding to the processing range is left in the image after image processing (application), and the portion other than the processing range is displayed in gray. Thereby, the user can compare the image after image processing (application) with the image processing range and the correction type. The images are arranged obliquely so that the layer structure can be easily understood. However, the images may be arranged in the same position so that the images can be compared more easily.

<フローチャートの説明>
第二の実施形態においてプログラム実行部31が実行する処理の流れについて図76に例示するフローチャートを参照して説明する。プログラム実行部31は、図3の設定画面において「画像サンプルを選んで加工設定を行う」がチェックされた状態で「OK」ボタン26がタップ操作されると、図76による処理を開始させる。
<Description of flowchart>
The flow of processing executed by the program execution unit 31 in the second embodiment will be described with reference to the flowchart illustrated in FIG. When the “OK” button 26 is tapped with “Select an image sample and perform processing setting” checked on the setting screen in FIG. 3, the program execution unit 31 starts the processing in FIG. 76.

図76のステップS110において、プログラム実行部31は、画像を読み込んでステップS120へ進む。画像は、上述したように、通信部15を介して外部機器から取得した画像、または不図示のカメラユニットで撮影した画像である。ステップS120において、プログラム実行部31は、読み込んだ画像のデータに基づいて、縮小画像(サムネイル)を表示部22の一覧表示部aに表示させてステップS130へ進む。   In step S110 of FIG. 76, the program execution unit 31 reads an image and proceeds to step S120. As described above, the image is an image acquired from an external device via the communication unit 15 or an image taken by a camera unit (not shown). In step S120, the program execution unit 31 displays a reduced image (thumbnail) on the list display unit a of the display unit 22 based on the read image data, and proceeds to step S130.

ステップS130において、プログラム実行部31は、一覧表示部aに表示する縮小画像(サムネイル)からフィルタ画像が選ばれ、参照元ボタン14がタップ操作されたか否かを判定する。プログラム実行部31は、選ばれた画像を作業エリア表示部Bxに表示し、特徴分析範囲の指定操作を受け付ける。そして、参照元ボタン14がタップ操作された場合にステップS130を肯定判定してステップS140へ進み、参照元ボタン14がタップ操作されない場合には、ステップS130を否定判定してステップS190へ進む。   In step S <b> 130, the program execution unit 31 determines whether a filter image is selected from the reduced images (thumbnail images) displayed on the list display unit a and whether the reference source button 14 is tapped. The program execution unit 31 displays the selected image on the work area display unit Bx, and accepts a feature analysis range designation operation. When the reference source button 14 is tapped, step S130 is positively determined and the process proceeds to step S140. When the reference source button 14 is not tapped, step S130 is negatively determined and the process proceeds to step S190.

ステップS140において、プログラム実行部31は、フィルタ画像の特徴分析範囲に基づいてパラメータ分析(すなわち特徴量の算出)を行い、分析結果を加工情報としてステップS150へ進む。   In step S140, the program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range of the filter image, and proceeds to step S150 using the analysis result as processing information.

プログラム実行部31は、ステップS150において、加工情報をサムネイルとしてフィルタ一覧表示部Cxに表示させてステップS160へ進む。ステップS160において、プログラム実行部31は、一覧表示部aに表示する縮小画像(サムネイル)から加工対象画像が選ばれ、適用ボタン13がタップ操作されたか否かを判定する。プログラム実行部31は、選ばれた画像を作業エリア表示部Bxに表示し、特徴分析範囲の指定操作を受け付ける。そして、適用ボタン13がタップ操作された場合にステップS160を肯定判定してステップS165へ進み、適用ボタン13がタップ操作されない場合には、ステップS160を否定判定してステップS190へ進む。   In step S150, the program execution unit 31 displays the processing information as a thumbnail on the filter list display unit Cx, and proceeds to step S160. In step S160, the program execution unit 31 determines whether a processing target image is selected from the reduced images (thumbnail) displayed on the list display unit a, and the apply button 13 is tapped. The program execution unit 31 displays the selected image on the work area display unit Bx, and accepts a feature analysis range designation operation. If the application button 13 is tapped, step S160 is affirmed and the process proceeds to step S165. If the application button 13 is not tapped, step S160 is determined negative and the process proceeds to step S190.

ステップS165において、プログラム実行部31は、加工対象画像の特徴分析範囲に基づいてパラメータ分析(すなわち特徴量の算出)を行い、ステップS170へ進む。特徴分析範囲が指定されていない場合は、加工対象画像の全域に基づいてパラメータ分析を行う。ステップS170において、プログラム実行部31は、加工対象画像とフィルタ画像との間でパラメータの特徴を近似させるように、加工対象画像に対して画像加工を行う。画像加工範囲は、特徴分析範囲内または全域について行う。   In step S165, the program execution unit 31 performs parameter analysis (that is, calculation of a feature amount) based on the feature analysis range of the processing target image, and proceeds to step S170. When the feature analysis range is not designated, parameter analysis is performed based on the entire area of the processing target image. In step S170, the program execution unit 31 performs image processing on the processing target image so as to approximate the characteristics of the parameters between the processing target image and the filter image. The image processing range is performed within the entire feature analysis range or the entire region.

ステップS180において、プログラム実行部31は、加工後の画像を保存するとともに、その画像を作業エリア表示部Bxに表示させてステップS190へ進む。ステップ1S90において、プログラム実行部31は、終了か否かを判定する。プログラム実行部31は、終了操作が行われた場合にステップS190を肯定判定して図76による処理を終了する。プログラム実行部31は、終了操作が行われない場合はステップS190を否定判定してステップS120へ戻る。ステップS120へ戻る場合は、上述した処理を繰り返す。   In step S180, the program execution unit 31 stores the processed image, displays the image on the work area display unit Bx, and proceeds to step S190. In step 1S90, the program execution unit 31 determines whether or not it is finished. When the end operation is performed, the program execution unit 31 makes an affirmative determination in step S190 and ends the process of FIG. If the end operation is not performed, the program execution unit 31 makes a negative determination in step S190 and returns to step S120. When returning to step S120, the above-described processing is repeated.

以上説明した第二の実施形態によれば、以下の作用効果が得られる。
(1)フィルタ画像の特徴分析範囲dおよび加工対象画像の特徴分析範囲eのパラメータの特徴量をそれぞれ解析する解析処理(S140、S165)と、加工対象画像についての特徴量をフィルタ画像についての特徴量へ近づけるように、加工対象画像に対するパラメータを補正する加工情報補正処理(S170)と、補正後のパラメータに基づいて、加工対象画像に対して加工を行う画像加工処理(S170)と、をプログラム実行部31に実行させるようにした。これにより、画像加工処理のための操作が簡単なユーザインターフェイスを提供できる。すなわち、加工対象画像と、その加工後のお手本となるフィルタ画像とがあれば、画像加工に関する知識を持たないユーザであっても、簡単に自分の目標とする画像に近づけるような画像加工処理を行うことが可能となる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) Analysis processing (S140, S165) for analyzing the feature amounts of the parameters in the feature analysis range d of the filter image and the feature analysis range e of the processing target image, and the feature amount of the processing target image Processing information correction processing (S170) for correcting parameters for the processing target image so as to approach the amount, and image processing processing (S170) for processing the processing target image based on the corrected parameters The execution unit 31 is made to execute. As a result, a user interface that can be easily operated for image processing can be provided. In other words, if there is an image to be processed and a filter image that serves as a model after the processing, even a user who does not have knowledge about image processing can easily perform image processing that makes it closer to the target image. Can be done.

(2)画像加工処理(S170)は、加工情報補正処理(S170)で補正されたパラメータに基づいて、加工対象画像の特徴分析範囲eに対して加工を行うようにしたので、ユーザが加工したい範囲において画像加工処理を行うことができる。 (2) Since the image processing (S170) is performed on the feature analysis range e of the processing target image based on the parameters corrected in the processing information correction processing (S170), the user wants to process Image processing can be performed in the range.

(3)画像加工処理(S170)は、加工対象画像の特徴分析範囲eの境界をぼかすように加工を行うようにしたので、画像加工後の境界がユーザに違和感を与えるおそれを低減できる。 (3) Since the image processing (S170) is performed so as to blur the boundary of the feature analysis range e of the processing target image, it is possible to reduce the possibility that the boundary after the image processing gives the user a sense of incongruity.

(4)画像加工処理(S170)は、加工情報補正処理(S170)で補正されたパラメータに基づいて、加工対象画像の全体に対して加工を行うようにしたので、画像全体において画像加工処理を行うことができる。 (4) Since the image processing (S170) is performed on the entire processing target image based on the parameters corrected in the processing information correction processing (S170), the image processing is performed on the entire image. It can be carried out.

(5)解析処理(S140、S165)は、第1フィルタ画像の特徴分析範囲d、第2フィルタ画像の特徴分析範囲d、および加工対象画像の第1特徴分析範囲eと第2特徴分析範囲eとにおいて、それぞれの特徴量をそれぞれ解析し、加工情報補正処理(S170)は、加工対象画像の第1特徴分析範囲eについての特徴量を第1フィルタ画像についての特徴量へ近づけるように加工対象画像の第1特徴分析範囲eに対する第1パラメータを補正するとともに、加工対象画像の第2特徴分析範囲eについての特徴量を第2フィルタ画像についての特徴量へ近づけるように加工対象画像の第2特徴分析範囲eに対する第2パラメータを補正し、画像加工処理(S170)は、加工情報補正処理(S170)で補正された第1パラメータに基づいて加工対象画像の第1特徴分析範囲eを加工するとともに、第2パラメータに基づいて加工対象画像の第2特徴分析範囲eを加工するようにした。これにより、ユーザが加工したい複数の範囲において異なる画像加工処理を行うことができる。 (5) The analysis process (S140, S165) includes a feature analysis range d of the first filter image, a feature analysis range d of the second filter image, and a first feature analysis range e and a second feature analysis range e of the processing target image. Then, each feature amount is analyzed, and the processing information correction process (S170) is performed so that the feature amount for the first feature analysis range e of the processing target image approaches the feature amount for the first filter image. The first parameter for the first feature analysis range e of the image is corrected, and the feature amount for the second feature analysis range e of the processing target image is made closer to the feature amount of the second filter image. The second parameter for the feature analysis range e is corrected, and the image processing process (S170) is based on the first parameter corrected in the processing information correction process (S170). With processing the first feature analysis range e of the processing target image Te, and adapted to process the second feature analysis range e of the processing target image based on the second parameter. Accordingly, different image processing processes can be performed in a plurality of ranges that the user wants to process.

(6)画像加工処理(S170)は、加工対象画像の第1特徴分析範囲eおよび第2特徴分析範囲eの境界をぼかすように加工を行うようにしたので、画像加工後のそれぞれの境界がユーザに違和感を与えるおそれを低減できる。 (6) Since the image processing (S170) is performed so as to blur the boundary between the first feature analysis range e and the second feature analysis range e of the processing target image, each boundary after the image processing is The possibility of giving the user a sense of incongruity can be reduced.

(変形例4)
図77および図78は、画像加工前の画像と画像加工後の画像を見比べるように表示する他の例を説明する図である。図77において、画像B2は加工前の画像である。画面右端にあるタブ76およびタブ77は、それぞれフィルタ画像(加工の見本となる画像)に対応するサムネイル画像を表示する。サムネイルc1は、サムネイルa1に対応する画像に基づいて特徴量が登録されていることを示す。サムネイルc3は、サムネイルa3に対応する画像に基づいて特徴量が登録されていることを示す。
(Modification 4)
FIG. 77 and FIG. 78 are diagrams for explaining another example of display so as to compare the image before image processing with the image after image processing. In FIG. 77, an image B2 is an image before processing. Tabs 76 and 77 at the right end of the screen display thumbnail images corresponding to the filter images (images to be processed), respectively. The thumbnail c1 indicates that the feature amount is registered based on the image corresponding to the thumbnail a1. The thumbnail c3 indicates that the feature amount is registered based on the image corresponding to the thumbnail a3.

変形例4において、プログラム実行部31は、サムネイルc1を表示するタグ76が矢印方向へドラッグされると、図78に例示するように、タグ76を矢印方向へ移動させ、サムネイルc1に対応するフィルタ画像に基づく加工後の画像B2’が現れるように表示する。   In the fourth modification, when the tag 76 that displays the thumbnail c1 is dragged in the direction of the arrow, the program execution unit 31 moves the tag 76 in the direction of the arrow as illustrated in FIG. 78, and the filter corresponding to the thumbnail c1. It displays so that image B2 'after processing based on an image may appear.

図79は、加工後の画像B2’を表示する他の例を説明する図である。図79によれば、プログラム実行部31は、サムネイルc1を表示するタグ76が矢印方向へドラッグされると、加工前の画像B2とタグ76とが重なった領域から、画像B2を加工後の画像B2’に置き換えて表示する。   FIG. 79 is a diagram for explaining another example of displaying the processed image B2 '. According to FIG. 79, when the tag 76 for displaying the thumbnail c1 is dragged in the direction of the arrow, the program execution unit 31 processes the image B2 after processing the image B2 from the area where the image B2 before processing and the tag 76 overlap. Replace with B2 'and display.

(変形例5)
上述した第二の実施形態では、加工対象画像および特徴分析範囲を選ぶ場合において、ユーザ操作によって、加工対象画像上に特徴分析範囲eを指定するようにした(図44)。この代わりに、プログラム実行部31が加工対象画像において加工推奨領域を自動的に決定してもよい。変形例5におけるプログラム実行部31は、自動的に決定した加工推奨領域を特徴分析範囲eとして扱う。
(Modification 5)
In the second embodiment described above, when the processing target image and the feature analysis range are selected, the feature analysis range e is designated on the processing target image by a user operation (FIG. 44). Instead, the program execution unit 31 may automatically determine the recommended processing area in the processing target image. The program execution unit 31 in the modified example 5 handles the automatically recommended machining recommended area as the feature analysis range e.

プログラム実行部31は、図45において登録されているサムネイルc1がフィルタ一覧表示部Cxにおいてタップ操作された際に、サムネイルc1に対応するフィルタ画像に基づく加工によって効果的な処理が見込める領域を決定する。例えば、サムネイルc1が「顔」を含む場合、加工対象画像中の「顔」を含む所定範囲を加工推奨領域として、この領域を枠で囲む表示を行う。   When the thumbnail c1 registered in FIG. 45 is tapped on the filter list display unit Cx, the program execution unit 31 determines an area in which effective processing can be expected by processing based on the filter image corresponding to the thumbnail c1. . For example, when the thumbnail c1 includes “face”, a predetermined range including “face” in the processing target image is set as a recommended processing region, and the region is displayed in a frame.

プログラム実行部31は、作業エリア表示部Bx内に表示する「適用」ボタン13がタップ操作されると、加工推奨領域(すなわち特徴分析範囲e)とフィルタ画像(特徴分析範囲d)との間でパラメータの特徴を近似させるように加工対象画像に対するパラメータを補正し、補正後のパラメータにより加工対象画像の一部(特徴分析範囲e)に対して画像加工を行う。   When the “apply” button 13 displayed in the work area display section Bx is tapped, the program execution section 31 moves between the recommended processing area (that is, the feature analysis range e) and the filter image (feature analysis range d). The parameters for the processing target image are corrected so as to approximate the characteristics of the parameters, and image processing is performed on a part of the processing target image (feature analysis range e) using the corrected parameters.

プログラム実行部31は、作業エリア表示部Bxにおいて表示する画像B2のうち、特徴分析範囲e内を加工後の画像に対応する画像に置き換えて表示させる(図45)。このように、効果的な加工処理が見込める推奨領域をユーザへ知らせることにより、画像処理に不慣れなユーザに対しても、適切な加工が行えるようにサポートできる。   The program execution unit 31 displays the image B2 displayed on the work area display unit Bx by replacing the feature analysis range e with an image corresponding to the processed image (FIG. 45). In this way, by notifying the user of a recommended area where an effective processing process can be expected, it is possible to support a user who is unfamiliar with image processing so that appropriate processing can be performed.

(第三の実施形態)
第三の実施形態では、「タイムトラベル」を目的に行う画像加工について説明する。この画像加工は、あたかも撮影時刻と異なる時刻で撮影したかのように画像を加工する。例えば、日中の屋外で撮影された画像から、夕焼けが赤い夕刻に撮影した画像のように加工したり、日中の屋外で撮影された画像から、黄昏時の暗い画像に加工したりする。また、新緑の季節に撮影された画像から、紅葉の季節に撮影したかのように木々の葉の色を赤または黄色に加工する。そしてまた、あたかも40年前に撮影したかのように、セピア色の画像やモノクロの画像に加工する。さらに、あたかも100年前に撮影したかのように、石版画像に加工する。
(Third embodiment)
In the third embodiment, image processing performed for the purpose of “time travel” will be described. In this image processing, the image is processed as if it was shot at a time different from the shooting time. For example, an image taken outdoors during the day is processed like an image taken in the evening when the sunset is red, or an image taken outdoors during the day is changed into a dark image at twilight. Further, the leaves of trees are processed into red or yellow from an image taken in the fresh green season as if taken in the autumn season. Also, it is processed into a sepia image or a monochrome image as if it were taken 40 years ago. Furthermore, it is processed into a lithographic image as if it were taken 100 years ago.

図80は、図22に例示した「直感メニューを開いて加工設定を行う」場合において、処理項目ウィンドウ52のメインメニュー52Aの中から「タイムトラベル」が選択された場合の表示部22に表示される画面を例示する図である。図80において、「タイムトラベル」に対応するサブメニューがサブメニュー52Bにおいて表示される。例えば、「1日」、「1年」、「10年」、「100年」など、異なる時刻までのタイムスパンを示す項目が自動的に並べて表示される。   FIG. 80 is displayed on the display unit 22 when “time travel” is selected from the main menu 52A of the processing item window 52 in the case of “opening the intuitive menu and performing processing setting” illustrated in FIG. FIG. In FIG. 80, a submenu corresponding to “time travel” is displayed in the submenu 52B. For example, items indicating time spans up to different times, such as “1 day”, “1 year”, “10 years”, “100 years”, are automatically displayed side by side.

プログラム実行部31は、サブメニュー52Bにおいてタップ操作された項目を選択する。プログラム実行部31は、選択した項目(例えば「1日」)に対応する調整用スケールとスライダを表示するウィンドウ53を表示部22に表示させる。図81および図82は、「タイムトラベル」であって、タイムスパンが「1日」の場合の調整用スケールとスライダを表示するウィンドウ53を例示する図である。   The program execution unit 31 selects an item tapped on the submenu 52B. The program execution unit 31 causes the display unit 22 to display a window 53 that displays an adjustment scale and a slider corresponding to the selected item (for example, “1 day”). 81 and 82 are diagrams illustrating a window 53 that displays an adjustment scale and a slider when “time travel” is set and the time span is “1 day”.

プログラム実行部31は、ユーザによってノブ53aの位置が変更操作され、「OK」ボタン53bがタップ操作されると、ノブ53aの位置に応じて撮影時刻を前後させる。時間を進めると未来へ向かい、時間を戻すと過去へ向かう。図81の場合、例えば午後3時に撮影された画像に対し、11時間進めて午前2時の撮影画像のように加工する場合を例示する。また、図82の場合、上記午後3時に撮影された画像に対し、10時間戻して午前5時の撮影画像のように加工する場合を例示する。   When the position of the knob 53a is changed by the user and the “OK” button 53b is tapped, the program execution unit 31 moves the shooting time back and forth according to the position of the knob 53a. If time is advanced, it goes to the future, and if time is returned, it goes to the past. In the case of FIG. 81, for example, an image taken at 3:00 pm is illustrated as being processed like a photographed image at 2:00 am after 11 hours. In the case of FIG. 82, the case where the image photographed at 3:00 pm is processed back like a photographed image at 5:00 am by returning 10 hours.

プログラム実行部31は、加工対象画像に対して、例えば明るさを増減させるなどして撮影時刻が異なる画像加工を施し、加工後の画像を加工前の画像が格納されているメモリ領域と同じメモリ領域、またはユーザ操作により指定されたメモリ領域に保存する。プログラム実行部31はさらに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させる。なお、撮影日時と明るさとの関係を示す情報は、あらかじめ不揮発性メモリ34内に格納されている。   The program execution unit 31 performs image processing with different shooting times, for example, by increasing / decreasing brightness on the processing target image, and the processed image is the same memory as the memory area in which the image before processing is stored Save to an area or a memory area specified by a user operation. The program execution unit 31 further displays the reduced image 51 by replacing it with a reduced image corresponding to the processed image. Information indicating the relationship between the shooting date and time and the brightness is stored in the nonvolatile memory 34 in advance.

図83は、サブメニュー52Bにおいて選択した項目(例えば「1年」)に対応する調整用スケールとスライダを表示するウィンドウ53を例示する図である。図83(a)の場合、例えば7月に撮影された画像に対し、5ヵ月進めて12月の撮影画像のように加工する場合を例示する。また、図83(b)の場合、上記7月に撮影された画像に対し、5ヵ月戻して2月の撮影画像のように加工する場合を例示する。   FIG. 83 is a diagram illustrating a window 53 that displays an adjustment scale and a slider corresponding to the item (for example, “1 year”) selected in the submenu 52B. In the case of FIG. 83 (a), for example, a case where an image photographed in July is processed like a photographed image in December by proceeding five months. Further, in the case of FIG. 83 (b), a case where the image taken in July is processed five months back so as to be processed as a photographed image in February.

図84は、サブメニュー52Bにおいて選択した項目(例えば「10年」)に対応する調整用スケールとスライダを表示するウィンドウ53を例示する図である。図84(a)の場合、例えば2013年に撮影された画像に対し、1年戻して2012年の撮影画像のように加工する場合を例示する。また、図84(b)の場合、上記2013年に撮影された画像に対し、3年進めて2016年の撮影画像のように加工する場合を例示する。   FIG. 84 is a diagram illustrating a window 53 that displays an adjustment scale and a slider corresponding to the item (for example, “10 years”) selected in the submenu 52B. In the case of FIG. 84 (a), for example, a case where an image captured in 2013 is processed back like a captured image of 2012 by returning one year is illustrated. Further, in the case of FIG. 84 (b), the case where the image taken in 2013 is processed like a taken image in 2016 after three years is illustrated.

画像加工においては、画像のタグ情報に基づいて撮影位置情報や撮影方位情報が得られる場合は、太陽の明るさや陰の方向を反映させる。撮影位置情報から北半球か南半球かを判別し、季節を判定できる。なお、画像のタグ情報に基づいて主要被写体を判別できる場合は、主要被写体別に加工処理を異ならせてもよい。例えば、人物や動物が主要被写体の場合であって、暗い画像へ加工する場合には、主要被写体については暗く加工せずに、他の領域を暗く加工する。一方、風景を撮影した画像の場合であって、暗い画像へ加工する場合には、画像全体を暗く加工する。   In image processing, when shooting position information and shooting direction information are obtained based on image tag information, the brightness of the sun and the shadow direction are reflected. It is possible to determine the season by determining whether it is the northern or southern hemisphere from the shooting position information. If the main subject can be identified based on the tag information of the image, the processing may be different for each main subject. For example, when a person or animal is a main subject and the image is to be processed into a dark image, the main subject is not processed to be dark and other regions are processed to be dark. On the other hand, in the case of an image obtained by shooting a landscape, when processing a dark image, the entire image is processed dark.

夜間に撮影したような画像へ加工する場合、点光源部分を他の部分ほど暗く加工せずに、結果として際だたせるように加工してもよい。水の流れを撮影した画像の場合、シャッター速度を遅く撮影したように線状に加工してもよい。   In the case of processing to an image taken at night, the point light source portion may be processed so as to be prominent as a result without being processed as dark as the other portions. In the case of an image in which the flow of water is photographed, it may be processed into a linear shape as if the shutter speed was slow.

数十年前に遡る過去の画像については、公知のセピア画像へ加工する。さらに100年以上遡る場合は、色を排して、いわゆる石版画像へ加工する。一方、1年以上先へ進む未来の画像については、色および陰を排した線画像へ加工する。   A past image that goes back several decades is processed into a known sepia image. Further, when going back more than 100 years, the color is eliminated and the image is processed into a so-called lithographic image. On the other hand, the future image that goes forward more than one year is processed into a line image that excludes color and shade.

調整用スケールとスライダを表示するウィンドウ531の中でタイムスパンを変更操作できるように構成してもよい。図85は、この場合のウィンドウ531を例示する図である。ユーザがタイムトラベル環532のうち「1年」に相当する位置をタップ操作すると、プログラム実行部31は、調整用スケールのメモリを「1年」用に切り替える。プログラム実行部31は、タイムトラベル環532のタップ位置に応じて調整用スケールのメモリを切り替える。   You may comprise so that a time span can be changed in the window 531 which displays the scale for adjustment and a slider. FIG. 85 is a diagram illustrating a window 531 in this case. When the user taps a position corresponding to “1 year” in the time travel ring 532, the program execution unit 31 switches the adjustment scale memory to “1 year”. The program execution unit 31 switches the adjustment scale memory according to the tap position of the time travel ring 532.

<フローチャートの説明>
「タイムトラベル」が選択された場合にプログラム実行部31が実行する処理の流れについて、図86〜図87に例示するフローチャートを参照して説明する。プログラム実行部31は、図80に例示した画面においてサブメニュー52Bがタップ操作されると、図86による処理を開始させる。
<Description of flowchart>
A flow of processing executed by the program execution unit 31 when “time travel” is selected will be described with reference to flowcharts illustrated in FIGS. 86 to 87. When the submenu 52B is tapped on the screen illustrated in FIG. 80, the program execution unit 31 starts the process illustrated in FIG.

図86のステップS501において、プログラム実行部31は、加工対象画像を読み込んでステップS502へ進む。ステップS502において、プログラム実行部31は、加工対象画像に関連づけられているタグ情報を取得してステップS503へ進む。ステップS503において、プログラム実行部31は、加工対象画像に対する画像解析を行ってステップS504へ進む。画像解析は、上記シーン解析および顔検出を含む。   In step S501 of FIG. 86, the program execution unit 31 reads the processing target image and proceeds to step S502. In step S502, the program execution unit 31 acquires tag information associated with the processing target image, and proceeds to step S503. In step S503, the program execution unit 31 performs image analysis on the processing target image and proceeds to step S504. Image analysis includes the scene analysis and face detection.

ステップS504において、プログラム実行部31は、画像解析結果やタグ情報に基づいて、加工方法(例えば、「顔」領域については明暗加工から除外する、「風景」を撮影した画像は全体を加工する、…など)を決定してステップS505へ進む。   In step S504, based on the image analysis result and the tag information, the program execution unit 31 removes the processing method (for example, the “face” region is excluded from the light / dark processing, and the image of the “landscape” is processed entirely. ...) And the process proceeds to step S505.

ステップS505において、プログラム実行部31は、ユーザ操作に基づくタイムスパンにおいて画像加工処理を行ってステップS506へ進む。ステップS506において、プログラム実行部31は、画像加工処理が終了か否かを判定する。プログラム実行部31は、サブメニュー52Bにおいて他のタイムスパンが選ばれた場合にステップS506を否定判定してステップS505へ戻る。プログラム実行部31は、サブメニュー52Bにおいて他のタイムスパンが選ばれない場合には、ステップS506を肯定判定してステップS507へ進む。   In step S505, the program execution unit 31 performs image processing in the time span based on the user operation, and then proceeds to step S506. In step S506, the program execution unit 31 determines whether or not the image processing process is finished. When another time span is selected in the submenu 52B, the program execution unit 31 makes a negative determination in step S506 and returns to step S505. If no other time span is selected in the submenu 52B, the program execution unit 31 makes a positive determination in step S506 and proceeds to step S507.

ステップS507において、プログラム実行部31は、画像加工処理後の画像をメモリに保存または不図示のプリンタ装置で印刷するなどの終了処理を行って図86による処理を終了する。   In step S507, the program execution unit 31 performs an end process such as saving the image after the image processing process in a memory or printing it with a printer (not shown), and ends the process of FIG.

画像加工処理時にプログラム実行部31が実行する処理の流れについて、図87に例示するフローチャートを参照して説明する。図87のステップS601において、プログラム実行部31は、サブメニュー52Bを表示部22に表示させて、タイムスパンの選択操作を受け付けてステップS602へ進む。   The flow of processing executed by the program execution unit 31 during image processing will be described with reference to the flowchart illustrated in FIG. In step S601 of FIG. 87, the program execution unit 31 displays the submenu 52B on the display unit 22, receives a time span selection operation, and proceeds to step S602.

ステップS602において、プログラム実行部31は、ユーザ操作で選択されたタイムスパンに対応する操作ウィンドウ53を表示させて、上記ユーザによるノブ53aの位置変更に応じて画像加工処理を行ってステップS603へ進む。ステップS603において、プログラム実行部31は、加工後の画像をメモリに保存するとともに、縮小画像51を加工後の画像に対応する縮小画像に置き換えて表示させ、図87による処理を終了する。   In step S602, the program execution unit 31 displays the operation window 53 corresponding to the time span selected by the user operation, performs image processing according to the position change of the knob 53a by the user, and proceeds to step S603. . In step S603, the program execution unit 31 stores the processed image in the memory, displays the reduced image 51 by replacing it with a reduced image corresponding to the processed image, and ends the processing in FIG.

以上説明した第三の実施形態によれば、以下の作用効果が得られる。
(1)操作ウィンドウ53を表示する処理(S602)と、表示した操作ウィンドウ53に対する操作量を検出する操作量検出処理(S602)と、検出した操作量に応じて、加工対象画像の撮影時より前、または後に撮影された画像へ加工対象画像を加工する画像加工処理(S602)と、プログラム実行部31に実行させるようにした。これにより、異なる時刻に撮影したかのような画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。
According to the third embodiment described above, the following operational effects can be obtained.
(1) A process for displaying the operation window 53 (S602), an operation amount detection process for detecting an operation amount for the displayed operation window 53 (S602), and a time when the processing target image is captured according to the detected operation amount. An image processing process (S602) for processing the processing target image into an image photographed before or after, and the program execution unit 31 are executed. Thereby, it is possible to provide a user interface that can be easily manipulated to process an image as if it were taken at different times.

(2)操作量検出処理(S602)は、1日スパンに対応する操作量を検出し、画像加工処理(S602)は、加工対象画像を朝、日中、夕または夜に撮影された画像へ加工するので、1日スパンの異なる時刻に撮影したかのような画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。 (2) The operation amount detection process (S602) detects an operation amount corresponding to the daily span, and the image processing process (S602) converts the processing target image into an image captured in the morning, daytime, evening or night. Since processing is performed, a user interface that can be easily processed to process an image as if taken at different times of the day span can be provided.

(3)操作量検出処理(S602)は、1年スパンに対応する操作量を検出し、画像加工処理(S602)は、加工対象画像を異なる季節に撮影された画像へ加工するので、1年スパンの異なる季節に撮影したかのような画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。 (3) The operation amount detection process (S602) detects an operation amount corresponding to a one-year span, and the image processing process (S602) processes the processing target image into images taken in different seasons. It is possible to provide a user interface that can be easily operated to process an image as if it was shot in a season with a different span.

(4)操作量検出処理(S602)は、10〜100年スパンに対応する操作量を検出し、画像加工処理(S602)は、加工対象画像の撮影時より前に撮影された画像へ加工する場合、加工対象画像をセピア色画像または石版画像へ加工するので、10〜100年スパンの過去へ遡った撮影画像へ加工処理するための操作が簡単なユーザインターフェイスを提供できる。 (4) The operation amount detection process (S602) detects an operation amount corresponding to a span of 10 to 100 years, and the image processing process (S602) processes an image captured before the processing target image is captured. In this case, since the image to be processed is processed into a sepia image or a lithographic image, it is possible to provide a user interface that can be easily operated to process a captured image that goes back to the past of 10 to 100 years.

以上説明した各実施形態において、画像処理装置10へのプログラムの供給は、図88に例示するように、プログラムを格納したCD−ROMなどの記憶媒体45をユーザへ提供してもよいし、ネットワークなどの通信回線42を経由する方法で画像処理装置10へローディングしてもよい。通信回線42に接続されている無線LANのアクセスポイント43を介して、無線通信で画像処理装置10へ提供される。通信回線42を経由する場合は、通信回線42に接続されたサーバー41のストレージ装置などにプログラムを格納しておく。プログラムは、記憶媒体45や通信回線42を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   In each of the embodiments described above, the program may be supplied to the image processing apparatus 10 by providing the user with a storage medium 45 such as a CD-ROM storing the program, as illustrated in FIG. The image processing apparatus 10 may be loaded by a method via the communication line 42 such as. The data is provided to the image processing apparatus 10 by wireless communication via a wireless LAN access point 43 connected to the communication line 42. When passing through the communication line 42, the program is stored in a storage device of the server 41 connected to the communication line 42. The program can be supplied as various forms of computer program products such as provision via the storage medium 45 or the communication line 42.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

以上説明した各実施形態において、画像処理装置10におけるユーザ操作は、指による操作(タップ操作、スワイプ操作、スライド操作、ドラッグ操作等)を説明したが、これに限定されない。画像処理装置10は、マウスやスタイラスペン等のポインティングデバイスを用いてユーザ操作を行えるようにしてもよい。   In each of the embodiments described above, the user operation in the image processing apparatus 10 has been described with a finger operation (tap operation, swipe operation, slide operation, drag operation, etc.), but is not limited thereto. The image processing apparatus 10 may perform a user operation using a pointing device such as a mouse or a stylus pen.

10…画像処理装置
15…通信部
20…表示・入力部
22…表示部
30…制御部
31…プログラム実行部
34…不揮発性メモリ
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus 15 ... Communication part 20 ... Display / input part 22 ... Display part 30 ... Control part 31 ... Program execution part 34 ... Non-volatile memory

Claims (6)

複数の第1画像および第2画像の特徴をそれぞれ解析する解析処理と、
前記複数の第1画像にそれぞれ対応する複数の第1縮小画像を、表示装置の第1領域に表示させる第1表示処理と、
前記解析の結果に基づき、前記第2画像に対し、前記複数の第1画像の特徴にそれぞれ近づける補正を行って、第3画像を複数生成する生成処理と、
前記表示装置の前記第1領域とは異なる第2領域に、前記複数の第3画像にそれぞれ対応する複数の第3縮小画像を、前記複数の第1縮小画像にそれぞれ対応づけて表示させる第2表示処理と、
をコンピュータに実行させる画像処理プログラム
Respectively analyzing process for analyzing feature a plurality of first and second images,
A first display process for displaying a plurality of first reduced images respectively corresponding to the plurality of first images in a first region of a display device;
Based on the result of the analysis, a generation process for generating a plurality of third images by performing correction on the second image so as to approach the characteristics of the plurality of first images,
A second area in which a plurality of third reduced images respectively corresponding to the plurality of third images are displayed in a second area different from the first area of the display device in association with the plurality of first reduced images; Display processing,
An image processing program for causing a computer to execute .
複数の第1画像にそれぞれ対応する複数の第1縮小画像を、表示装置の第1領域に表示させる第1表示処理と、A first display process for displaying a plurality of first reduced images respectively corresponding to the plurality of first images in a first region of the display device;
前記複数の第1画像および第2画像の特徴をそれぞれ解析する解析処理と、Analysis processing for analyzing the characteristics of the plurality of first images and second images, respectively.
前記解析の結果に基づき、前記第2画像に対し、前記複数の第1画像の特徴にそれぞれ近づける補正を行って、第3画像を複数生成する生成処理と、  Based on the result of the analysis, a generation process for generating a plurality of third images by performing correction on the second image so as to approach the characteristics of the plurality of first images,
前記表示装置の前記第1領域とは異なる第2領域に、前記複数の第3画像にそれぞれ対応する複数の第3縮小画像を、前記複数の第1縮小画像にそれぞれ対応づけて表示させる第2表示処理と、  A second area in which a plurality of third reduced images respectively corresponding to the plurality of third images are displayed in a second area different from the first area of the display device in association with the plurality of first reduced images; Display processing,
をコンピュータに実行させる画像処理プログラム。  Image processing program for causing a computer to execute
請求項1または2に記載の画像処理プログラムにおいて、The image processing program according to claim 1 or 2,
前記表示装置の前記第1領域および前記第2領域とは異なる第3領域に、前記第2画像に対応する第2縮小画像を表示させる第3表示処理を実行させ、Executing a third display process for displaying a second reduced image corresponding to the second image in a third area different from the first area and the second area of the display device;
前記解析処理は、前記第1縮小画像が前記第1領域に表示される場合、または、前記第2縮小画像が前記第3領域に表示される場合に実行される画像処理プログラム。The analysis processing is an image processing program that is executed when the first reduced image is displayed in the first area or when the second reduced image is displayed in the third area.
請求項3に記載の画像処理プログラムにおいて、
前記解析処理は、画像に対する複数の調整項目ごとに特徴量を解析し、
前記生成処理は、前記複数の調整項目ごとに前記特徴量を近づける補正を行って前記第3画像を生成する画像処理プログラム。
The image processing program according to claim 3 .
The analysis process analyzes the feature amount for each of a plurality of adjustment items for image,
The generation process is an image processing program for generating the third image by performing a correction for bringing the feature amount closer for each of the plurality of adjustment items.
請求項4に記載の画像処理プログラムにおいて、
前記生成処理は、前記複数の調整項目のうち指示された項目の前記特徴量を近づける補正を行って前記第3画像を生成する画像処理プログラム。
The image processing program according to claim 4 ,
The generation process is an image processing program for generating the third image by performing a correction to bring the feature amount of the designated item out of the plurality of adjustment items closer .
請求項1または2に記載の画像処理プログラムにおいて、
前記第2画像は複数存在し、
前記解析処理は、前記複数の第2画像の特徴をそれぞれ解析し、
前記表示装置の前記第1領域および前記第2領域とは異なる第3領域に、前記複数の第2画像にそれぞれ対応する複数の第2縮小画像を表示させる第3表示処理を実行させ、
前記生成処理は、前記解析の結果に基づき、前記複数の第2画像に対し、前記複数の第1画像の特徴にそれぞれ近づける補正を行って、前記第3画像を複数生成し、
前記第2表示処理は、前記表示装置の前記第2領域に、前記複数の第3画像にそれぞれ対応する複数の第3縮小画像を、前記複数の第1縮小画像にそれぞれ対応づけて表示させる、
画像処理プログラム。
The image processing program according to claim 1 or 2 ,
There are a plurality of the second images,
The analysis process analyzes the characteristics of the plurality of second images,
Performing a third display process for displaying a plurality of second reduced images respectively corresponding to the plurality of second images in a third region different from the first region and the second region of the display device;
The generation processing generates a plurality of the third images by performing a correction for approaching the characteristics of the plurality of first images to the plurality of second images based on the result of the analysis,
In the second display process, a plurality of third reduced images respectively corresponding to the plurality of third images are displayed in the second region of the display device in association with the plurality of first reduced images.
Image processing program.
JP2013116467A 2013-05-31 2013-05-31 Image processing program Active JP6205860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013116467A JP6205860B2 (en) 2013-05-31 2013-05-31 Image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013116467A JP6205860B2 (en) 2013-05-31 2013-05-31 Image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017172000A Division JP2017228313A (en) 2017-09-07 2017-09-07 Image processing program

Publications (2)

Publication Number Publication Date
JP2014235554A JP2014235554A (en) 2014-12-15
JP6205860B2 true JP6205860B2 (en) 2017-10-04

Family

ID=52138216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013116467A Active JP6205860B2 (en) 2013-05-31 2013-05-31 Image processing program

Country Status (1)

Country Link
JP (1) JP6205860B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121681A (en) * 1993-10-26 1995-05-12 Toppan Printing Co Ltd Automatic color tone corrector
JP4904798B2 (en) * 2005-12-09 2012-03-28 セイコーエプソン株式会社 Multi-image retouching device, computer program, and recording medium
JP2007293582A (en) * 2006-04-25 2007-11-08 Dainippon Screen Mfg Co Ltd Image processor, setting method of image processing condition in the image processor, and program
JP4985243B2 (en) * 2007-08-31 2012-07-25 ブラザー工業株式会社 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2014235554A (en) 2014-12-15

Similar Documents

Publication Publication Date Title
US10791273B1 (en) User interfaces for capturing and managing visual media
JP5990600B2 (en) Color adjuster for color classification
US8847973B2 (en) Automatic adjustment of computer interface colors using image processing
US9299168B2 (en) Context aware user interface for image editing
US10304408B2 (en) Method and apparatus for changing background color of toolbar with dominant color of picture
US8385681B2 (en) Blemish removal
US8971617B2 (en) Method and interface for converting images to grayscale
JP5986232B2 (en) User interface tool for image cropping and angle correction
JP6077020B2 (en) Integrated slider control for modifying multiple image properties
JP2009278623A (en) Method and apparatus for performing touch-based adjustments within imaging device
US9251169B2 (en) Systems and methods for creating photo collages
US9053568B2 (en) Applying a realistic artistic texture to images
JP6330262B2 (en) Image processing program
JP2014235553A (en) Image process program
JP2014235556A (en) Image process program
JP6205860B2 (en) Image processing program
JP2014236358A (en) Image processing program
JP2018152100A (en) Image processing program
JP2017228313A (en) Image processing program
JP4904798B2 (en) Multi-image retouching device, computer program, and recording medium
JP2019087282A (en) Image processing program
Garness CS4 Digital Retouching for Fashion Beauty and Portrait Photography
Hoeschen Photoshop Elements 4 for Windows: Visual QuickStart Guide

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R150 Certificate of patent or registration of utility model

Ref document number: 6205860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250