JP2015026122A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2015026122A
JP2015026122A JP2013153634A JP2013153634A JP2015026122A JP 2015026122 A JP2015026122 A JP 2015026122A JP 2013153634 A JP2013153634 A JP 2013153634A JP 2013153634 A JP2013153634 A JP 2013153634A JP 2015026122 A JP2015026122 A JP 2015026122A
Authority
JP
Japan
Prior art keywords
data
image
image data
image processing
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013153634A
Other languages
Japanese (ja)
Inventor
篤史 河合
Atsushi Kawai
篤史 河合
康一 上條
Koichi Kamijo
康一 上條
裕彦 井上
Hirohiko Inoue
裕彦 井上
昌隆 森尾
Masataka Morio
昌隆 森尾
賢美 鈴木
Masami Suzuki
賢美 鈴木
義一 平山
Giichi Hirayama
義一 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013153634A priority Critical patent/JP2015026122A/en
Publication of JP2015026122A publication Critical patent/JP2015026122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of estimating image processing having high possibility of being required for an image before a user manually executes it.SOLUTION: An image processing device comprises a first estimation data generation unit that on the basis of history data representing a history of image processing applied to image data, generates estimation data representing image processing having high possibility of being applied to the image data in the future.

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

従来、カメラで撮影した画像を管理する装置が知られている。例えば特許文献1には、撮影画像に含まれる物体を抽出し識別し、その物体に関する情報をデータベースから検索して携帯端末で閲覧することができる画像認識用サーバが記載されている。   2. Description of the Related Art Conventionally, an apparatus that manages images taken with a camera is known. For example, Patent Document 1 describes an image recognition server that can extract and identify an object included in a captured image, retrieve information about the object from a database, and browse the information on a mobile terminal.

特開2004−145416号公報JP 2004-145416 A

従来技術には、撮影画像を編集加工するための画像処理を、ユーザが手動で行わなければならないという問題があった。   The prior art has a problem that a user has to manually perform image processing for editing and processing a captured image.

請求項1に記載の画像処理装置は、画像データに加えられている画像処理の履歴を表す履歴データに基づいて、前記画像データに対して将来的に加えられる可能性の高い画像処理を表す推定データを生成する第1推定データ生成部を備えることを特徴とする。   The image processing apparatus according to claim 1, based on history data representing a history of image processing applied to the image data, estimation representing image processing that is likely to be added to the image data in the future. A first estimated data generation unit for generating data is provided.

本発明によれば、画像に対して要求される可能性の高い画像処理を、ユーザが手動で実行する前に推定することができる。   According to the present invention, it is possible to estimate image processing that is highly likely to be required for an image before the user manually executes the image processing.

本発明の第1の実施の形態に係る画像処理システムの構成を示す模式図である。1 is a schematic diagram showing a configuration of an image processing system according to a first embodiment of the present invention. 画像処理装置10の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus 10. 画像処理装置10が有する各データベースのデータ構造を示す図である。It is a figure which shows the data structure of each database which the image processing apparatus 10 has. カテゴリの階層の一例を示す図である。It is a figure which shows an example of the hierarchy of a category. 制御部11により実行される画像データ生成処理のフローチャートである。3 is a flowchart of image data generation processing executed by a control unit 11.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る画像処理システムの構成を示す模式図である。画像処理システム1は、ネットワーク20に接続された画像処理装置10と複数の電子機器30とから構成される。
(First embodiment)
FIG. 1 is a schematic diagram showing the configuration of an image processing system according to the first embodiment of the present invention. The image processing system 1 includes an image processing apparatus 10 connected to a network 20 and a plurality of electronic devices 30.

画像処理装置10は、複数の電子機器30との画像データの授受や、受信した画像データの記憶および編集等を行う装置である。複数の電子機器30は、例えばプリンター31、カメラ32、スマートフォン33、スキャナー34、タブレット端末35、パーソナルコンピュータ(PC)36等である。複数の電子機器30は、それぞれ同一のユーザにより操作されてもよいし、それぞれ異なるユーザにより操作されてもよい。   The image processing apparatus 10 is an apparatus that exchanges image data with a plurality of electronic devices 30 and stores and edits received image data. The plurality of electronic devices 30 are, for example, a printer 31, a camera 32, a smartphone 33, a scanner 34, a tablet terminal 35, a personal computer (PC) 36, and the like. The plurality of electronic devices 30 may be operated by the same user, or may be operated by different users.

カメラ32、スマートフォン33、スキャナー34、タブレット端末35、およびPC36は、ネットワーク20を介して、画像処理装置10に画像データを送信することができる。また、プリンター31、スマートフォン33、タブレット端末35、およびPC36は、ネットワーク20を介して、画像処理装置10から画像データを受信することができる。ユーザは、スマートフォン33、タブレット端末35、およびPC36を用いて、画像処理装置10に、画像データの編集加工を指示することができる。   The camera 32, the smartphone 33, the scanner 34, the tablet terminal 35, and the PC 36 can transmit image data to the image processing apparatus 10 via the network 20. In addition, the printer 31, the smartphone 33, the tablet terminal 35, and the PC 36 can receive image data from the image processing apparatus 10 via the network 20. The user can instruct the image processing apparatus 10 to edit image data using the smartphone 33, the tablet terminal 35, and the PC 36.

図2は、画像処理装置10の構成を示すブロック図である。画像処理装置10は、制御部11、フラッシュメモリ12、通信部13、画像データベース(DB)14、個別被写体DB15、および被写体パターンDB16を備える。   FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus 10. The image processing apparatus 10 includes a control unit 11, a flash memory 12, a communication unit 13, an image database (DB) 14, an individual subject DB 15, and a subject pattern DB 16.

制御部11は、画像処理装置10の各部を制御する電子回路であり、CPUとその周辺回路とから構成される。不揮発性の記憶媒体であるフラッシュメモリ12には、予め所定の制御プログラムが書き込まれている。制御部11は、フラッシュメモリ12から制御プログラムを読み込んで実行することにより、各部の制御を行う。   The control unit 11 is an electronic circuit that controls each unit of the image processing apparatus 10 and includes a CPU and its peripheral circuits. A predetermined control program is written in advance in the flash memory 12 which is a nonvolatile storage medium. The control unit 11 controls each unit by reading and executing a control program from the flash memory 12.

通信部13は、ネットワーク20を介して電子機器30と通信を行うためのインタフェースである。画像DB14、個別被写体DB15、および被写体パターンDB16については後に詳述する。   The communication unit 13 is an interface for communicating with the electronic device 30 via the network 20. The image DB 14, the individual subject DB 15, and the subject pattern DB 16 will be described in detail later.

制御部11は、被写体データ生成部11a、感性データ生成部11b、画像処理部11c、履歴データ生成部11d、推定データ生成部11e、および画像データ生成部11fを機能的に備える。これらの各機能部は、制御部11が上述の制御プログラムを実行することにより、ソフトウェア的に実現されている。なお、これらの各機能部を、同等の機能を有する電子回路として構成してもよい。   The control unit 11 functionally includes a subject data generation unit 11a, a sensitivity data generation unit 11b, an image processing unit 11c, a history data generation unit 11d, an estimation data generation unit 11e, and an image data generation unit 11f. Each of these functional units is realized in software by the control unit 11 executing the above-described control program. Each of these functional units may be configured as an electronic circuit having an equivalent function.

被写体データ生成部11aは、画像データに含まれる被写体を検出して被写体データを生成する。感性データ生成部11bは、画像データから受ける感性的な印象を表す感性データを生成する。画像処理部11cは、電子機器30から受信した信号に基づいて画像データに画像処理を施す。履歴データ生成部11dは、画像処理部11cが実行した画像処理の履歴を表す履歴データを生成する。推定データ生成部11eは、履歴データに基づいて、画像データに将来要求される可能性の高い画像処理を推定し、その推定された画像処理を表す推定データを生成する。画像データ生成部11fは、画像データと推定データとから新たな画像データを生成する。   The subject data generation unit 11a detects a subject included in the image data and generates subject data. The sensibility data generation unit 11b generates sensibility data representing the sensuous impression received from the image data. The image processing unit 11 c performs image processing on the image data based on the signal received from the electronic device 30. The history data generation unit 11d generates history data representing the history of image processing performed by the image processing unit 11c. Based on the history data, the estimated data generation unit 11e estimates image processing that is likely to be required in the future for the image data, and generates estimated data representing the estimated image processing. The image data generation unit 11f generates new image data from the image data and the estimated data.

図3(a)は、画像処理装置10が有する画像DB14の構成を示す図である。画像DB14は、電子機器30から送信された画像データや、画像データ生成部11fにより生成された画像データを管理するデータベースである。画像DB14の1行(1レコード)は、1つの画像データに対応する。画像DB14には、画像データ141に、当該画像データ141に関する被写体データ142、感性データ143、および履歴データ144が1つのレコードに関連付けて格納されている。   FIG. 3A is a diagram illustrating a configuration of the image DB 14 included in the image processing apparatus 10. The image DB 14 is a database that manages image data transmitted from the electronic device 30 and image data generated by the image data generation unit 11f. One row (one record) in the image DB 14 corresponds to one image data. In the image DB 14, subject data 142, sensitivity data 143, and history data 144 related to the image data 141 are stored in association with one record in the image data 141.

被写体データ142は、画像データ141にどのような被写体が写り込んでいるかを表すデータである。以下の説明において、画像データ141に写り込んでいる個々の被写体を個別被写体と称する。感性データ143は、画像データ141を鑑賞した鑑賞者が抱くと推測される感情、鑑賞者が画像データ141から受けるであろう印象を表すデータであり、例えば「美しい」、「かわいい」などの形容詞(感性語)を1つ以上含む。履歴データ144は、画像データ141に対して過去に実行された画像処理を表すデータである。例えば画像データ141に3つの画像処理が実行されていた場合、履歴データ144は、それら3つの画像処理の各々について、画像データ141がその画像処理によりどのように変化したのかを表すデータを含む。   The subject data 142 is data representing what kind of subject is reflected in the image data 141. In the following description, each subject reflected in the image data 141 is referred to as an individual subject. The sensibility data 143 is data representing the emotion that the viewer who has viewed the image data 141 is supposed to have and the impression that the viewer will receive from the image data 141. For example, adjectives such as “beautiful” and “cute” Contains one or more (sensitivity words). The history data 144 is data representing image processing executed in the past on the image data 141. For example, when three image processes are performed on the image data 141, the history data 144 includes data representing how the image data 141 has changed due to the image process for each of the three image processes.

図3(b)は、被写体データ142の構成を示す図である。1つの画像データ141に対応する1つの被写体データ142は、その画像データ141に含まれる1つの個別被写体ごとに、位置データ142a、サイズデータ142b、カテゴリデータ142c、および個別被写体ID142dの組を1つ有する。つまり、1つの画像データ141に複数の個別被写体が含まれている場合、1つの被写体データ142には個別被写体の数だけ上記の組が含まれることになる。位置データ142aは、画像データ141における個別被写体の位置を表すデータであり、例えばx座標値とy座標値の組である。サイズデータ142bは、画像データ141における個別被写体のサイズを表すデータであり、例えば幅と高さの組である。カテゴリデータ142cは、個別被写体が属するカテゴリを表すデータである。なお、1つの個別被写体が複数のカテゴリに属することもあり、その場合カテゴリデータ142cはそれら複数のカテゴリを表す。個別被写体ID142dは、個別被写体ごとに一意なIDである。   FIG. 3B is a diagram showing the configuration of the subject data 142. One subject data 142 corresponding to one image data 141 includes one set of position data 142a, size data 142b, category data 142c, and individual subject ID 142d for each individual subject included in the image data 141. Have. That is, when one image data 141 includes a plurality of individual subjects, one subject data 142 includes the above-described sets as many as the number of individual subjects. The position data 142a is data representing the position of the individual subject in the image data 141, and is, for example, a set of x coordinate values and y coordinate values. The size data 142b is data representing the size of the individual subject in the image data 141, and is, for example, a set of width and height. The category data 142c is data representing the category to which the individual subject belongs. Note that one individual subject may belong to a plurality of categories, in which case the category data 142c represents the plurality of categories. The individual subject ID 142d is a unique ID for each individual subject.

図3(c)は、画像処理装置10が有する個別被写体DB15の構成を示す図である。個別被写体DB15には、複数の画像データの各々から検出された個別被写体毎に、個別被写体ID151と、カテゴリデータ152と、個別被写体画像データ153とが関連付けて格納される。個別被写体ID151は、個別被写体ごとに一意なIDであり、図3(b)に示した個別被写体ID142dに対応する。カテゴリデータ152は、図3(b)で説明したカテゴリデータ142cと同様のデータである。個別被写体画像データ153は、画像データ141から抽出された、個別被写体の画像データである。   FIG. 3C is a diagram illustrating a configuration of the individual subject DB 15 included in the image processing apparatus 10. In the individual subject DB 15, an individual subject ID 151, category data 152, and individual subject image data 153 are stored in association with each individual subject detected from each of the plurality of image data. The individual subject ID 151 is a unique ID for each individual subject, and corresponds to the individual subject ID 142d shown in FIG. The category data 152 is the same data as the category data 142c described with reference to FIG. The individual subject image data 153 is image data of individual subjects extracted from the image data 141.

(画像処理システム1の利用手順の説明)
以下、本実施形態の画像処理システム1の利用手順について、画像処理装置10の動作を交えて説明する。
(Description of use procedure of image processing system 1)
Hereinafter, the usage procedure of the image processing system 1 of the present embodiment will be described with the operation of the image processing apparatus 10.

1.画像データの受信
ユーザは、例えばカメラ32により撮影した画像データや、スキャナー34により書類等を読み取った画像データ141を、ネットワーク20を介して画像処理装置10に送信する。制御部11は、ネットワーク20および通信部13を介して画像データ141を受信すると、当該画像データ141を画像DB14に格納する。そして、当該画像データ141に関する被写体データ142を被写体データ生成部11aに生成させると共に、当該画像データ141に関する感性データ143を感性データ生成部11bに生成させる。生成された被写体データ142および感性データ143は、画像データ141に関連付けられて画像DB14に記憶される。
1. Receiving Image Data The user transmits, for example, image data captured by the camera 32 or image data 141 obtained by reading a document or the like by the scanner 34 to the image processing apparatus 10 via the network 20. When the control unit 11 receives the image data 141 via the network 20 and the communication unit 13, the control unit 11 stores the image data 141 in the image DB 14. Then, the subject data 142 related to the image data 141 is generated in the subject data generation unit 11a, and the sensitivity data 143 related to the image data 141 is generated in the sensitivity data generation unit 11b. The generated subject data 142 and sensitivity data 143 are associated with the image data 141 and stored in the image DB 14.

被写体データ生成部11aは、周知のパターンマッチングにより、画像データ141に含まれる個別被写体を検出し、検出結果から被写体データ142を生成する。被写体パターンDB16には、予め個別被写体のカテゴリ毎にパターンマッチングに用いるためのテンプレート画像が用意されている。例えば個別被写体のカテゴリとして「山」が存在する場合、被写体パターンDB16には、典型的な山のテンプレート画像(例えば山型の形状や青・緑の色彩等から成るテンプレート画像)を複数格納しておく。被写体データ生成部11aは、これらのテンプレート画像に拡大・縮小・回転等の幾何学的変換や色彩の変換等を適用して画像データ141との相関演算を行い、相関係数の高い部分に「山」が存在すると判断する。   The subject data generation unit 11a detects individual subjects included in the image data 141 by known pattern matching, and generates subject data 142 from the detection result. In the subject pattern DB 16, template images to be used for pattern matching for each category of individual subjects are prepared in advance. For example, when “mountain” exists as an individual subject category, the subject pattern DB 16 stores a plurality of typical mountain template images (for example, template images composed of mountain shapes, blue / green colors, etc.). deep. The subject data generation unit 11a performs a correlation operation with the image data 141 by applying geometrical conversion such as enlargement / reduction / rotation, color conversion, etc. to these template images. Judge that there is a mountain.

図4に、個別被写体のカテゴリの例を示す。個別被写体のカテゴリは、予め階層的に定められている。1つの個別被写体があるカテゴリに属する場合、その個別被写体は、そのカテゴリの親カテゴリにも属しているものとして扱われる。被写体データ生成部11aは、上述した被写体データ142を生成した後に、検出した個別被写体の各々について、当該個別被写体を画像データ141から抽出して個別被写体画像データ153を作成する。作成した個別被写体画像データ153は、一意な個別被写体ID151が割り当てられ、当該個別被写体が属するカテゴリを含むカテゴリデータ152と共に、個別被写体DB15に格納される。   FIG. 4 shows an example of an individual subject category. Individual subject categories are hierarchically determined in advance. When one individual subject belongs to a certain category, the individual subject is treated as belonging to the parent category of the category. The subject data generation unit 11a generates the individual subject image data 153 by generating the subject data 142 described above and then extracting the individual subject from the image data 141 for each detected individual subject. The created individual subject image data 153 is assigned a unique individual subject ID 151 and is stored in the individual subject DB 15 together with the category data 152 including the category to which the individual subject belongs.

感性データ生成部11bは、例えば特開2010−67221号公報に記載されている技術を用いて、画像データ141の色彩、鮮鋭度、被写体データ等から感性データ143を生成する。   The sensitivity data generation unit 11b generates sensitivity data 143 from the color, sharpness, subject data, and the like of the image data 141 using, for example, a technique described in Japanese Patent Application Laid-Open No. 2010-67221.

2.画像処理
ユーザは、画像処理装置10が受信し画像DB14に格納した画像データ141を、編集加工することができる。画像データ141の編集加工は、一般的ないわゆるフォトレタッチソフトに類似したユーザインタフェースを利用して行うことができる。ユーザがスマートフォン33、タブレット端末35、PC36等の電子機器30により、何らかの画像処理に対応する操作を行うと、当該電子機器30から画像処理装置10に対して、当該画像処理を指示する画像処理信号が送信される。制御部11は、ネットワーク20および通信部13を介して画像処理信号を受信すると、画像処理部11cに、当該画像処理信号に応じた画像処理を実行させる。
2. Image Processing The user can edit and process the image data 141 received by the image processing apparatus 10 and stored in the image DB 14. The image data 141 can be edited using a user interface similar to general so-called photo retouching software. When a user performs an operation corresponding to some image processing with the electronic device 30 such as the smartphone 33, the tablet terminal 35, or the PC 36, an image processing signal that instructs the image processing device 10 from the electronic device 30 to perform the image processing. Is sent. When receiving the image processing signal via the network 20 and the communication unit 13, the control unit 11 causes the image processing unit 11c to perform image processing according to the image processing signal.

画像処理は、例えば明るさ、コントラスト、ガンマ値、色相、明度、彩度などの変更(調節)、画素数の変更、トリミング、変形等、いわゆるフォトレタッチソフトで利用可能な種々の画像処理である。画像処理信号には、それらの画像処理に利用されるパラメータも含まれており、画像処理部11cは、当該パラメータを用いて画像処理を実行する。例えば画像処理が「明るさの変更」であれば、画像処理信号にはパラメータとして「明るさの変更量」を表す整数値が含まれている。   The image processing is various image processing that can be used in so-called photo retouching software such as change (adjustment) of brightness, contrast, gamma value, hue, brightness, saturation, etc., change of the number of pixels, trimming, deformation, and the like. . The image processing signal includes parameters used for the image processing, and the image processing unit 11c executes image processing using the parameters. For example, when the image processing is “brightness change”, the image processing signal includes an integer value representing “brightness change amount” as a parameter.

履歴データ生成部11dは、画像処理部11cが画像処理信号に応じて画像処理を実行する度に、当該画像処理に関する履歴データ144を生成する。生成された履歴データ1441は、画像データ141に関連付けられて画像DB14に記憶される。履歴データ144は、例えば次式(1)に示すデータ配列Hである。   The history data generation unit 11d generates history data 144 related to image processing each time the image processing unit 11c executes image processing according to the image processing signal. The generated history data 1441 is stored in the image DB 14 in association with the image data 141. The history data 144 is, for example, a data array H shown in the following formula (1).

Figure 2015026122
Figure 2015026122

上式(1)において、Lは画像データ141の明るさを表す整数値、Cは画像データ141のコントラストを表す整数値、γは画像データ141のガンマ値を表す整数値であり、添え字は画像処理の順序を表す。例えばLは、第1回目の画像処理を実行後の画像データ141の明るさを表す整数値であり、Lは、一切の画像処理を実行する前の画像データ141の明るさを表す整数値である。データ配列Hは、画像処理が行われるたびに1列ずつ増加する。なお、上式(1)では省略したが、データ配列Hには、明るさ、コントラスト、ガンマ値のみならず、例えば画像データ141の赤レベル、青レベル、緑レベル、色相、明度、彩度、画素数などの種々のパラメータが含まれる。 In the above equation (1), L is an integer value representing the brightness of the image data 141, C is an integer value representing the contrast of the image data 141, γ is an integer value representing the gamma value of the image data 141, and the subscript is Represents the order of image processing. For example, L 1 is an integer value that represents the brightness of the image data 141 after the first image processing, and L 0 is an integer that represents the brightness of the image data 141 before any image processing is performed. It is a numerical value. The data array H increases by one column every time image processing is performed. Although omitted in the above equation (1), the data array H includes not only brightness, contrast, and gamma values, but also, for example, the red level, blue level, green level, hue, brightness, saturation, and the like of the image data 141. Various parameters such as the number of pixels are included.

3.推定データの生成
制御部11は、画像処理部11cにより画像処理が実行される度に(すなわち履歴データ生成部11dにより新たな履歴データ144が生成される度に)、推定データ生成部11eに推定データの生成を行わせる。推定データは、履歴データ144から推定される、将来ユーザに要求される可能性の高い画像処理を表すデータである。
3. Generation of Estimated Data The control unit 11 estimates the estimated data generation unit 11e every time image processing is executed by the image processing unit 11c (that is, every time new history data 144 is generated by the history data generation unit 11d). Generate data. The estimated data is data that represents image processing that is estimated from the history data 144 and is likely to be requested by the user in the future.

例えば、ある画像データ141について、画像処理部11cにより最初の(第1回目の)画像処理が実行されたとする。このとき、履歴データ生成部11dは、1回の画像処理に関する情報から成る履歴データ144を生成し、推定データ生成部11eはこの履歴データ144から、第2回目の画像処理としてユーザに要求される可能性の高い画像処理を表す推定データを生成する。つまり、第n回目の画像処理が画像処理部11cにより実行されると、推定データ生成部11eは、第n+1回目の画像処理としてユーザに要求される可能性の高い画像処理を表す推定データを生成する。   For example, it is assumed that the first (first) image processing is performed on the certain image data 141 by the image processing unit 11c. At this time, the history data generation unit 11d generates history data 144 including information related to one-time image processing, and the estimated data generation unit 11e is requested by the user as the second image processing from the history data 144. Estimated data representing highly likely image processing is generated. That is, when the n-th image processing is executed by the image processing unit 11c, the estimated data generation unit 11e generates estimated data representing image processing that is likely to be requested by the user as the n + 1-th image processing. To do.

推定データ生成部11eは、画像データ141に対応する履歴データ144のみから、推定データを生成する。具体的には、最適な明るさLoptを、画像データ141の履歴データ144に含まれる、明るさの時系列的な修正履歴を表すデータ列(L,L,…,L)から、線形もしくは非線形な外挿方法により推定する。線形外挿の場合は、(L,L,…,L)から回帰直線を計算し、得られた直線を表す1次関数からLoptを推定すればよい。非線形な外挿の場合は、1次関数でなく、適当な次数kのべき乗関数(例えばL=a+ai+ai+a+…+a)の係数(a,a,…,a)を最小自乗法で求めて適用すればよい。さらに非線形の場合は、べき乗関数以外に、三角関数、指数関数、対数関数など適当な形式の関数を利用することができる。推定データ生成部11eは、履歴データ144に含まれる各パラメータについて、上式(1)と同様の演算を行う。このようにして得られた各パラメータの最適値を含むデータが推定データである。 The estimated data generation unit 11e generates estimated data only from the history data 144 corresponding to the image data 141. Specifically, the optimum brightness L opt is obtained from a data string (L 0 , L 1 ,..., L n ) representing the time-series correction history of brightness included in the history data 144 of the image data 141. Estimate by linear or non-linear extrapolation method. In the case of linear extrapolation, a regression line may be calculated from (L 0 , L 1 ,..., L n ), and L opt may be estimated from a linear function representing the obtained straight line. In the case of nonlinear extrapolation, the coefficient (a 0 , a 1 ) is not a linear function but a power function of an appropriate degree k (for example, L = a 0 + a 1 i + a 1 i + a 2 i 2 +... + A k i k ). ,..., A k ) may be obtained by the least square method and applied. Furthermore, in the case of non-linearity, in addition to the power function, a function of an appropriate form such as a trigonometric function, an exponential function, or a logarithmic function can be used. The estimated data generation unit 11e performs the same calculation as the above equation (1) for each parameter included in the history data 144. Data including the optimum values of the parameters obtained in this way is estimated data.

4.新たな画像データの生成
推定データ生成部11eにより、画像データ141の推定データが生成されると、画像データ生成部11fが、当該推定データにより表される画像処理を画像データ141に適用した新たな画像データを生成する。画像データ生成部11fにより生成された新たな画像データは、まず制御部11により利用価値の有無が判定される。
4). Generation of new image data When the estimated data of the image data 141 is generated by the estimated data generation unit 11e, the image data generation unit 11f applies a new image process that applies the image processing represented by the estimated data to the image data 141. Generate image data. New image data generated by the image data generation unit 11 f is first determined by the control unit 11 as to whether or not there is a utility value.

制御部11は、画像データ生成部11fにより新たな画像データが生成される度に、当該画像データに対して、被写体データ生成部11aにより被写体データ142の生成を行わせると共に、感性データ生成部11bにより感性データ143の生成を行わせる。その結果、被写体が識別できない、感性データ143が生成不可能である、感性データ143が想定外や常識外などであった場合、その新たな画像データを画像DB14に格納せず、削除する。他方、そのような問題がなかった場合には、制御部11はその新たな画像データを画像DB14に格納すると共に、上記の被写体データ142および感性データ143を新たな画像データに関連付けて画像DB14に格納する。更に、元の画像データに対応する履歴データ144に、推定データにより表される画像処理を付け加え、新たな画像データに関連付けて画像DB14に格納する。   Each time new image data is generated by the image data generation unit 11f, the control unit 11 causes the subject data generation unit 11a to generate the subject data 142 for the image data, and the sensitivity data generation unit 11b. Thus, the sensibility data 143 is generated. As a result, if the subject cannot be identified, the sensitivity data 143 cannot be generated, or the sensitivity data 143 is unexpected or uncommon, the new image data is deleted without being stored in the image DB 14. On the other hand, if there is no such problem, the control unit 11 stores the new image data in the image DB 14 and associates the subject data 142 and the sensitivity data 143 with the new image data in the image DB 14. Store. Further, the image data represented by the estimated data is added to the history data 144 corresponding to the original image data, and stored in the image DB 14 in association with the new image data.

5.画像検索
ユーザは、電子機器30を用いて、画像DB14に格納されている画像データから所望の画像データ141を検索することができる。検索により発見された画像データ141は、電子機器30にダウンロードして種々の用途に利用することができる。
5. Image Search The user can search for desired image data 141 from the image data stored in the image DB 14 using the electronic device 30. The image data 141 found by the search can be downloaded to the electronic device 30 and used for various purposes.

1.〜4.で説明したように、ユーザが画像処理装置10に画像データを送信し、その画像データを従来のフォトレタッチソフトのUIで編集加工する度に、画像DB14には新たな画像データが生成され格納される。従って、ユーザは、単に自身がアップロードした画像データのみならず、それらの画像データを基に加工された全く新たな画像データをもダウンロードすることが可能である。   1. ~ 4. As described above, every time the user transmits image data to the image processing apparatus 10 and edits the image data using the UI of the conventional photo retouching software, new image data is generated and stored in the image DB 14. The Therefore, the user can download not only image data uploaded by the user but also completely new image data processed based on the image data.

画像処理装置10は、画像データ141に含まれる個別被写体に関する情報を、被写体データ142として画像DB14に格納している。そのため、ユーザは各画像データ141に含まれる被写体要素から画像データ141を検索することが可能である。個別被写体のカテゴリは、図4に例示したように階層的な分類となっている。図4には、複数のカテゴリ40が為す階層構造を図示している。例えば、「生物」というカテゴリ41の下層に「人物」、「動物」、「植物」という各カテゴリ42,43,44が位置し、更に「人物」カテゴリ42の下層には「男性」、「女性」という各カテゴリ45,46が位置する。そして、「女性」カテゴリ46の下層には「子供」というカテゴリ47を含む複数のカテゴリ40が位置する。これにより、例えば「人物―女性―子供」のようなキーワードでカテゴリによる検索を行うことができる。さらに、複数のキーワードによるAND検索等も可能である。   The image processing apparatus 10 stores information related to the individual subject included in the image data 141 as subject data 142 in the image DB 14. Therefore, the user can search the image data 141 from the subject elements included in each image data 141. The categories of individual subjects are hierarchically classified as illustrated in FIG. FIG. 4 shows a hierarchical structure formed by a plurality of categories 40. For example, the categories 42, 43, and 44 of “person”, “animal”, and “plant” are positioned below the category “biology” 41, and “male” and “female” are positioned below the “person” category 42. ", Each category 45, 46 is located. A plurality of categories 40 including a category 47 “children” are located below the “female” category 46. Thereby, for example, it is possible to perform a search by category using a keyword such as “person-woman-child”. Furthermore, an AND search using a plurality of keywords is also possible.

また画像処理装置10は、画像データ141から鑑賞者が受けるであろう印象を、感性データ143として画像DB14に格納している。そのため、ユーザは画像データ141を、例えば「明るい」「さわやかな」などの曖昧なキーワードで検索することができる。また、個別被写体のカテゴリによる検索と感性語による検索とを組み合わせることもできる。   Further, the image processing apparatus 10 stores an impression that the viewer will receive from the image data 141 as sensitivity data 143 in the image DB 14. Therefore, the user can search the image data 141 with ambiguous keywords such as “bright” and “fresh”. It is also possible to combine a search by individual subject category and a search by sensitivity word.

図5は、制御部11により実行される画像データ生成処理のフローチャートである。まずステップS100において、制御部11は電子機器30からの画像処理信号を受信する。ステップS105で、画像処理部11cは画像処理信号に基づく画像処理を実行する。ステップS110において、履歴データ生成部11dは、新たな履歴データ144を生成して画像DB14に格納する。ステップS120で推定データ生成部11eが、推定データを生成する。ステップS130で画像データ生成部11fが、生成された推定データに基づいて新たな画像データを生成する。ステップS140で被写体データ生成部11aが、新たな画像データの被写体データ142を生成する。ステップS150で感性データ生成部11bが、新たな画像データの感性データ143を生成する。ステップS160で制御部11は、ステップS130で生成された新たな画像データ141と、ステップS140で生成された被写体データ142と、ステップS150で生成された感性データ143とを、画像DB14に格納する。   FIG. 5 is a flowchart of image data generation processing executed by the control unit 11. First, in step S <b> 100, the control unit 11 receives an image processing signal from the electronic device 30. In step S105, the image processing unit 11c performs image processing based on the image processing signal. In step S110, the history data generation unit 11d generates new history data 144 and stores it in the image DB 14. In step S120, the estimated data generation unit 11e generates estimated data. In step S130, the image data generation unit 11f generates new image data based on the generated estimated data. In step S140, the subject data generation unit 11a generates subject data 142 of new image data. In step S150, the sensitivity data generation unit 11b generates sensitivity data 143 of new image data. In step S160, the control unit 11 stores the new image data 141 generated in step S130, the subject data 142 generated in step S140, and the sensitivity data 143 generated in step S150 in the image DB 14.

上述した第1の実施の形態による画像処理システムによれば、次の作用効果が得られる。
(1)推定データ生成部11eは、画像データ141に加えられている画像処理の履歴を表す履歴データ144に基づいて、画像データ141に対して将来的に加えられる可能性の高い画像処理を表す推定データを生成する。このようにしたので、画像データ141に対して要求される可能性の高い画像処理を、ユーザが手動で実行する前に推定することができる。
According to the image processing system of the first embodiment described above, the following operational effects can be obtained.
(1) The estimated data generation unit 11e represents image processing that is likely to be added to the image data 141 in the future based on the history data 144 that represents the history of image processing added to the image data 141. Generate estimation data. Since it did in this way, image processing with high possibility of being requested | required with respect to the image data 141 can be estimated before a user performs manually.

(2)画像データ生成部11fは、画像データ141と、推定データ生成部11eにより生成された推定データとに基づいて、新たな画像データ141を生成する。このようにしたので、ユーザが画像処理を実行する前に、ユーザが望むであろう画像処理を適用した画像データ141を用意することができる。 (2) The image data generation unit 11f generates new image data 141 based on the image data 141 and the estimation data generated by the estimation data generation unit 11e. Since it did in this way, before a user performs image processing, the image data 141 which applied the image processing which a user would like can be prepared.

(3)画像処理部11cは、画像データ141に所定の画像処理を実行する。画像データ生成部11fは、画像処理部11cによって画像データ141に画像処理が実行される度に、その画像データ141に関する推定データから新たな画像データ141を生成する。このようにしたので、単にユーザがアップロードした画像データ141のみならず、その画像データ141に要求されるであろう画像処理を適用した画像データ141を、検索等により利用可能な状態にすることができる。 (3) The image processing unit 11c performs predetermined image processing on the image data 141. Every time image processing is performed on the image data 141 by the image processing unit 11c, the image data generation unit 11f generates new image data 141 from the estimated data regarding the image data 141. Since it did in this way, not only the image data 141 uploaded by the user but also the image data 141 to which the image processing that would be required for the image data 141 is applied can be made available by searching or the like. it can.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
被写体データ142の生成方法は、上述したものに限定されない。例えば、ユーザ(鑑賞者)がマウス等の操作部材を操作することにより、被写体の位置、サイズ、およびカテゴリを手動で入力するようにしてもよい。感性データ143についても同様に、感性語を手動で入力するようにしてもよいし、画像データ141の印刷回数、電子メールによる送信回数など、ユーザによって為されたアクションに関する情報に基づき感性データ143を生成するようにしてもよい。
(Modification 1)
The method for generating the subject data 142 is not limited to the one described above. For example, the position, size, and category of the subject may be manually input by a user (viewer) operating an operation member such as a mouse. Similarly, the sensitivity data 143 may be input manually, or the sensitivity data 143 may be input based on information about actions performed by the user, such as the number of times the image data 141 is printed and the number of times of transmission by e-mail. You may make it produce | generate.

(変形例2)
画像データ141から個別被写体画像データ153を生成した後、元の画像データ141を破棄してもよい。これは、個別被写体画像データ153と、対応する被写体データ142とがあれば、元の画像データ141を再現することができるためである。
(Modification 2)
After generating the individual subject image data 153 from the image data 141, the original image data 141 may be discarded. This is because if the individual subject image data 153 and the corresponding subject data 142 are present, the original image data 141 can be reproduced.

(変形例3)
履歴データ144の構成および生成方法は、上述したものに限定されない。例えば、画像データ141のトリミングや形状変更に関するパラメータや、画像の閲覧回数、ダウンロード回数など、画像データ141の利用に関するパラメータを含むようにしてもよい。
(Modification 3)
The configuration and generation method of the history data 144 are not limited to those described above. For example, parameters relating to the use of the image data 141 such as parameters relating to trimming and shape change of the image data 141, the number of times of browsing and downloading the image may be included.

(変形例4)
推定データの生成方法は、上述したものに限定されない。以下、カテゴリ「花」に属する個別被写体を含み、感性データ143に感性語「美しい」が含まれる注目画像データについて、推定データ生成部11eが推定データを生成する別の方法について説明する。
(Modification 4)
The generation method of the estimation data is not limited to the above-described method. Hereinafter, another method for the estimation data generation unit 11e to generate the estimation data for the attention image data including the individual subject belonging to the category “flower” and including the sensitivity word “beautiful” in the sensitivity data 143 will be described.

推定データ生成部11eは、まず注目画像データと共通のカテゴリ「花」に属する個別被写体が写り込み、且つ共通の感性語「美しい」を含む感性データ143に関連付けられた画像データ141を画像DB14から検索する。これにより、「花」「美しい」に対応するx個の画像データ141が得られる。次に、検索により得られた多数の画像データ141の各々について、画像データ141に関連付けられた履歴データ144から、最新のパラメータを取得する。例えば、明るさLについて、各画像データ141の履歴データ144から、最新の明るさLを取得する。これにより、「花」「美しい」に対応するx個の画像データが、どのような明るさLを有しているかを知ることができる。以下、これらx個の画像の明るさをL ,L ,…,L と表記する。推定データ生成部11eは、次式(2)により、注目画像データの最適な明るさLoptを算出する。 First, the estimated data generation unit 11e captures, from the image DB 14, image data 141 associated with sensitivity data 143 that includes individual subjects belonging to the same category “flower” as the target image data and includes the common sensitivity word “beautiful”. Search for. As a result, x pieces of image data 141 corresponding to “flower” and “beautiful” are obtained. Next, for each of a large number of image data 141 obtained by the search, the latest parameter is acquired from the history data 144 associated with the image data 141. For example, for the brightness L, the latest brightness L n is acquired from the history data 144 of each image data 141. Thereby, it is possible to know what brightness L the x image data corresponding to “flower” and “beautiful” have. Hereinafter, the brightness of these x images is denoted as L n 1 , L n 2 ,..., L n x . The estimated data generation unit 11e calculates the optimum brightness L opt of the target image data by the following equation (2).

Figure 2015026122
Figure 2015026122

ここでnは、x個目の画像データ141に対して実行された画像処理の総数である。上式(2)では、各画像データ141について、最新の明るさLを過去の画像処理回数nにより重み付けした平均値を求め、それを注目画像データの最適な明るさLoptとしている。推定データ生成部11eは、履歴データ144に含まれる各パラメータについて、上式(2)と同様の演算を行い、推定データを生成する。 Here, nx is the total number of image processes performed on the x-th image data 141. In the above equation (2), for each image data 141, an average value obtained by weighting the latest brightness L by the past image processing count n is obtained, and this is set as the optimum brightness L opt of the target image data. The estimated data generation unit 11e performs the same calculation as the above equation (2) for each parameter included in the history data 144, and generates estimated data.

更に、上記の推定データの生成方法と、上述の実施形態で説明した推定データの生成方法とを組み合わせて利用することも可能である。例えば、まず前者の生成方法による推定データの生成を試み、それが失敗した(有用な推定データを生成できなかった)場合には後者の生成方法により推定データを生成するようにすることができる。また、推定データ生成部11eが両方の生成方法を実行し、異なる2つの推定データを生成するようにしてもよい。この場合、ユーザが1回の画像処理を指示する度に、画像データ生成部11fにより2つの新たな画像データが生成される。   Furthermore, it is possible to use a combination of the estimation data generation method described above and the estimation data generation method described in the above embodiment. For example, first, generation of estimated data by the former generation method is attempted, and if it fails (useful estimation data could not be generated), estimation data can be generated by the latter generation method. The estimated data generation unit 11e may execute both generation methods to generate two different estimated data. In this case, every time the user instructs one image process, the image data generation unit 11f generates two new image data.

また、上式(2)とは異なる重み付けを行うことにより、推定データを生成するようにしてもよい。例えば、次式(3)により最適な明るさLoptを算出することができる。 Moreover, you may make it produce estimated data by performing weighting different from the said Formula (2). For example, the optimum brightness L opt can be calculated by the following equation (3).

Figure 2015026122
Figure 2015026122

ここでΔLは、直前の画像処理による明るさLの変化量であり、次式(4)で算出される。
ΔL=L―Ln−1 …(4)
Here, ΔL n is the amount of change in brightness L due to the previous image processing, and is calculated by the following equation (4).
ΔL n = L n −L n−1 (4)

以上、推定データを履歴データ144から生成する方法について説明したが、推定データを履歴データ144のみならず、被写体データ142や感性データ143等から生成することも可能である。例えば、多数のカテゴリについて、そのカテゴリに対応する明るさの最適値を格納したデータベースを用意しておき、被写体データ142のカテゴリデータ142cに含まれる各カテゴリの明るさの最適値をそのデータベースから検索することにより、推定データを生成することができる。   The method for generating the estimated data from the history data 144 has been described above. However, the estimated data can be generated not only from the history data 144 but also from the subject data 142 and the sensitivity data 143. For example, for a large number of categories, a database storing optimum brightness values corresponding to the categories is prepared, and the optimum brightness values of each category included in the category data 142c of the subject data 142 are searched from the database. By doing so, estimated data can be generated.

(変形例5)
画像処理が要求されたタイミングとは異なるタイミングで、推定データの生成および新たな画像データ141の生成を行うようにしてもよい。例えば、画像データ141の検索が実行される度に、検索条件に合致した画像データ141から推定データの生成と新たな画像データ141の生成とを行うようにしてもよい。この場合、検索条件に合致した画像データ141を検索結果としてユーザに提示すると共に、その画像データ141から作成された新たな画像データ141を、例えば「お勧め画像」等のラベルを付してユーザに提示することができる。
(Modification 5)
The estimation data may be generated and new image data 141 may be generated at a timing different from the timing at which the image processing is requested. For example, every time the search of the image data 141 is executed, generation of estimated data and generation of new image data 141 from the image data 141 that matches the search condition may be performed. In this case, image data 141 that matches the search conditions is presented to the user as a search result, and new image data 141 created from the image data 141 is labeled with a label such as “recommended image”, for example. Can be presented.

また、画像処理が要求された画像データ141の再利用回数(ダウンロード回数)が所定のしきい値を超えた場合にのみ、推定データや新たな画像データ141を生成するようにしてもよい。あるいは、最終利用時(最終ダウンロード時)から所定時間が経過していた場合や、再利用回数(ダウンロード回数)が所定のしきい値未満である場合にのみ、推定データや新たな画像データを生成するようにしてもよい。   In addition, the estimated data and the new image data 141 may be generated only when the number of times of reuse (download count) of the image data 141 for which image processing has been requested exceeds a predetermined threshold. Alternatively, only when a predetermined time has passed since the last use (at the time of the final download) or when the number of reuses (the number of downloads) is less than a predetermined threshold, the estimated data and new image data are generated. You may make it do.

(変形例6)
一定のタイミングで、新たな画像データ141を生成するだけでなく、利用価値がない画像データ141を画像DB14から取り除くようにしてもよい。例えば、画像データ141の利用頻度(画像処理回数やダウンロード回数等)を計測し、利用頻度が低い、もしくは最近低下した画像データ141を画像DB14から削除するようにしてもよい。または、新たな画像データ141を生成する度に、その新たな画像データ141の評価値を調べ、評価値が低い場合には画像DB14に格納しないようにしてもよい。ここで、新たな画像データ141の評価値は、例えば個別被写体が判別不能であったり、感性データ143の作成ができない場合に低下するような数値である。
(Modification 6)
In addition to generating new image data 141 at a fixed timing, image data 141 having no utility value may be removed from the image DB 14. For example, the usage frequency of the image data 141 (the number of times of image processing, the number of downloads, etc.) may be measured, and the image data 141 whose usage frequency is low or recently decreased may be deleted from the image DB 14. Alternatively, each time new image data 141 is generated, the evaluation value of the new image data 141 is checked, and if the evaluation value is low, it may not be stored in the image DB 14. Here, the evaluation value of the new image data 141 is a numerical value that decreases when, for example, an individual subject cannot be identified or the sensitivity data 143 cannot be created.

(変形例7)
より多様性に富んだ画像データ141が生成されるよう、画像データ生成部11fが上述した方法とは異なる方法により画像データ141を生成してもよい。例えば類似するカテゴリ、類似する感性語で検索した画像データ141の履歴データ144に基づいて新たな画像データ141を生成したり、逆に類似しないカテゴリ、類似しない感性語で検索した画像データ141の履歴データ144に基づいて新たな画像データ141を生成してもよい。また、意図的に履歴データ144の各パラメータに乱数を掛けたり乱数を加えるなどの変化要因を導入してもよい。
(Modification 7)
The image data generation unit 11f may generate the image data 141 by a method different from the method described above so that the image data 141 with more variety is generated. For example, new image data 141 is generated based on the history data 144 of the image data 141 searched with a similar category or similar sensitivity word, or conversely, the history of the image data 141 searched with a similar category or similar sensitivity word New image data 141 may be generated based on the data 144. In addition, a change factor such as intentionally multiplying each parameter of the history data 144 by a random number or adding a random number may be introduced.

その他、多様性に富んだ画像データ141を生成する方法として、いわゆる遺伝的アルゴリズムを適用してもよい。例えば、履歴データ144等をビット列にエンコードし、そのビット列に交叉や突然変異等の操作を施した後、履歴データ144にデコードする。そして、その履歴データ144に基づく推定データから、新たな画像データ141を生成して画像DB14に格納する。   In addition, a so-called genetic algorithm may be applied as a method of generating image data 141 rich in diversity. For example, the history data 144 or the like is encoded into a bit string, and the bit string is subjected to an operation such as crossover or mutation, and then decoded into the history data 144. Then, new image data 141 is generated from the estimated data based on the history data 144 and stored in the image DB 14.

以上で説明した方法は、基となる画像データ141に修正を加えて新たな画像データ141を生成する方法であるが、これ以外の方法で新たな画像データ141を生成してもよい。例えば、個別被写体DB15に格納されている個別被写体画像データ153を適宜組み合わせて新たな画像データ141を生成することも可能である。   The method described above is a method of generating new image data 141 by modifying the base image data 141, but new image data 141 may be generated by other methods. For example, new image data 141 can be generated by appropriately combining the individual subject image data 153 stored in the individual subject DB 15.

(変形例8)
被写体データ142等のデータの生成処理は、画像処理装置10の外部に設けた外部装置が行うようにしてもよい。同様に、画像データ141等のデータの記憶場所は、画像処理装置10の外部に設けた外部記憶装置であってもよい。
(Modification 8)
The generation processing of data such as the subject data 142 may be performed by an external device provided outside the image processing apparatus 10. Similarly, the storage location of data such as the image data 141 may be an external storage device provided outside the image processing apparatus 10.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1…画像処理システム、10…画像処理装置、11…制御部 DESCRIPTION OF SYMBOLS 1 ... Image processing system, 10 ... Image processing apparatus, 11 ... Control part

Claims (5)

画像データに加えられている画像処理の履歴を表す履歴データに基づいて、前記画像データに対して将来的に加えられる可能性の高い画像処理を表す推定データを生成する第1推定データ生成部を備えることを特徴とする画像処理装置。   A first estimated data generation unit configured to generate estimated data representing image processing that is likely to be added to the image data in the future based on history data representing a history of image processing added to the image data; An image processing apparatus comprising: 請求項1に記載の画像処理装置において、
前記画像データと、前記第1推定データ生成部により生成された前記推定データとに基づいて、新たな画像データを生成する画像データ生成部を備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An image processing apparatus comprising: an image data generation unit that generates new image data based on the image data and the estimation data generated by the first estimation data generation unit.
請求項2に記載の画像処理装置において、
前記画像データと共通の被写体を含む複数の他の画像データに関する前記履歴データに基づいて、前記推定データを生成する第2推定データ生成部を備え、
前記画像データ生成部は、前記画像データと、前記第1推定データ生成部により生成された前記推定データおよび/または前記第2推定データ生成部により生成された前記推定データとに基づいて、前記新たな画像データを生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
A second estimated data generation unit configured to generate the estimated data based on the history data regarding a plurality of other image data including a subject common to the image data;
The image data generation unit is configured to generate the new data based on the image data and the estimation data generated by the first estimation data generation unit and / or the estimation data generated by the second estimation data generation unit. An image processing apparatus for generating image data.
請求項2に記載の画像処理装置において、
前記画像データから受ける感性的な印象と共通の感性的な印象を受ける複数の他の画像データに関する前記履歴データに基づいて、前記推定データを生成する第3推定データ生成部を備え、
前記画像データ生成部は、前記画像データと、前記第1推定データ生成部により生成された前記推定データおよび/または前記第3推定データ生成部により生成された前記推定データとに基づいて、前記新たな画像データを生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
A third estimated data generating unit that generates the estimated data based on the history data related to a plurality of other image data that receives the same emotional impression received from the image data;
The image data generation unit is configured to generate the new data based on the image data and the estimation data generated by the first estimation data generation unit and / or the estimation data generated by the third estimation data generation unit. An image processing apparatus for generating image data.
請求項1〜4のいずれか一項に記載の画像処理装置において、
前記画像データに所定の画像処理を実行する画像処理部を備え、
前記画像データ生成部は、前記画像処理部によって前記画像データに画像処理が実行される度に前記新たな画像データを生成することを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 4,
An image processing unit that executes predetermined image processing on the image data;
The image processing apparatus generates the new image data every time image processing is performed on the image data by the image processing unit.
JP2013153634A 2013-07-24 2013-07-24 Image processing device Pending JP2015026122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013153634A JP2015026122A (en) 2013-07-24 2013-07-24 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013153634A JP2015026122A (en) 2013-07-24 2013-07-24 Image processing device

Publications (1)

Publication Number Publication Date
JP2015026122A true JP2015026122A (en) 2015-02-05

Family

ID=52490761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153634A Pending JP2015026122A (en) 2013-07-24 2013-07-24 Image processing device

Country Status (1)

Country Link
JP (1) JP2015026122A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160101518A (en) * 2015-02-17 2016-08-25 삼성전자주식회사 Device and method for generating printing information
WO2016175234A1 (en) * 2015-04-27 2016-11-03 ヤンマー株式会社 Color image processing method, color image processing program, and object recognition method and device
JP2021508811A (en) * 2017-12-30 2021-03-11 美的集団股▲フン▼有限公司Midea Group Co., Ltd. Food cooking methods and systems based on ingredient identification

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160101518A (en) * 2015-02-17 2016-08-25 삼성전자주식회사 Device and method for generating printing information
KR102312334B1 (en) * 2015-02-17 2021-10-13 삼성전자주식회사 Device and method for generating printing information
US11244517B2 (en) 2015-02-17 2022-02-08 Samsung Electronics Co., Ltd. Device for generating printing information and method for generating printing information
WO2016175234A1 (en) * 2015-04-27 2016-11-03 ヤンマー株式会社 Color image processing method, color image processing program, and object recognition method and device
JP2021508811A (en) * 2017-12-30 2021-03-11 美的集団股▲フン▼有限公司Midea Group Co., Ltd. Food cooking methods and systems based on ingredient identification
US11229311B2 (en) 2017-12-30 2022-01-25 Midea Group Co., Ltd. Food preparation system
JP7077506B2 (en) 2017-12-30 2022-05-31 美的集団股▲フン▼有限公司 Food cooking methods and systems based on food identification

Similar Documents

Publication Publication Date Title
JP2019117646A (en) Method and system for providing personal emotional icons
CN1316426C (en) Method and a system for reducing update frequency of image processing device
EP3410685B1 (en) Image processing device, image processing method, and program
CN109685746A (en) Brightness of image method of adjustment, device, storage medium and terminal
US8363910B2 (en) Image processing device, image processing method, and program
JP2016048845A (en) Information processing device, information processing method, and program
US20160283824A1 (en) Image processing device, image processing method, program, and recording medium
WO2019011342A1 (en) Cloth identification method and device, electronic device and storage medium
CN110213458B (en) Image data processing method and device and storage medium
CN110472558B (en) Image processing method and device
CN112001274A (en) Crowd density determination method, device, storage medium and processor
CN111062426A (en) Method, device, electronic equipment and medium for establishing training set
CN104239388A (en) Methods and systems for media file management
CN113079273A (en) Watermark processing method, device, electronic equipment and medium
JP2015026122A (en) Image processing device
CN106791091B (en) Image generation method and device and mobile terminal
CN110120003B (en) Method and system for acquiring webpage with watermark
CN103093213B (en) Video file classification method and terminal
CN110825821B (en) Personnel relationship query method and device, electronic equipment and storage medium
CN111833413A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN110955889A (en) Electronic document tracing method based on digital fingerprints
WO2022178975A1 (en) Noise field-based image noise reduction method and apparatus, device, and storage medium
KR20120080379A (en) Method and apparatus of annotating in a digital camera
CN112822393A (en) Image processing method and device and electronic equipment
CN110781355A (en) Storage information processing method and device, storage cabinet and storage medium