JP2015026122A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2015026122A JP2015026122A JP2013153634A JP2013153634A JP2015026122A JP 2015026122 A JP2015026122 A JP 2015026122A JP 2013153634 A JP2013153634 A JP 2013153634A JP 2013153634 A JP2013153634 A JP 2013153634A JP 2015026122 A JP2015026122 A JP 2015026122A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- image data
- image processing
- generation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.
従来、カメラで撮影した画像を管理する装置が知られている。例えば特許文献1には、撮影画像に含まれる物体を抽出し識別し、その物体に関する情報をデータベースから検索して携帯端末で閲覧することができる画像認識用サーバが記載されている。 2. Description of the Related Art Conventionally, an apparatus that manages images taken with a camera is known. For example, Patent Document 1 describes an image recognition server that can extract and identify an object included in a captured image, retrieve information about the object from a database, and browse the information on a mobile terminal.
従来技術には、撮影画像を編集加工するための画像処理を、ユーザが手動で行わなければならないという問題があった。 The prior art has a problem that a user has to manually perform image processing for editing and processing a captured image.
請求項1に記載の画像処理装置は、画像データに加えられている画像処理の履歴を表す履歴データに基づいて、前記画像データに対して将来的に加えられる可能性の高い画像処理を表す推定データを生成する第1推定データ生成部を備えることを特徴とする。 The image processing apparatus according to claim 1, based on history data representing a history of image processing applied to the image data, estimation representing image processing that is likely to be added to the image data in the future. A first estimated data generation unit for generating data is provided.
本発明によれば、画像に対して要求される可能性の高い画像処理を、ユーザが手動で実行する前に推定することができる。 According to the present invention, it is possible to estimate image processing that is highly likely to be required for an image before the user manually executes the image processing.
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る画像処理システムの構成を示す模式図である。画像処理システム1は、ネットワーク20に接続された画像処理装置10と複数の電子機器30とから構成される。
(First embodiment)
FIG. 1 is a schematic diagram showing the configuration of an image processing system according to the first embodiment of the present invention. The image processing system 1 includes an
画像処理装置10は、複数の電子機器30との画像データの授受や、受信した画像データの記憶および編集等を行う装置である。複数の電子機器30は、例えばプリンター31、カメラ32、スマートフォン33、スキャナー34、タブレット端末35、パーソナルコンピュータ(PC)36等である。複数の電子機器30は、それぞれ同一のユーザにより操作されてもよいし、それぞれ異なるユーザにより操作されてもよい。
The
カメラ32、スマートフォン33、スキャナー34、タブレット端末35、およびPC36は、ネットワーク20を介して、画像処理装置10に画像データを送信することができる。また、プリンター31、スマートフォン33、タブレット端末35、およびPC36は、ネットワーク20を介して、画像処理装置10から画像データを受信することができる。ユーザは、スマートフォン33、タブレット端末35、およびPC36を用いて、画像処理装置10に、画像データの編集加工を指示することができる。
The camera 32, the smartphone 33, the scanner 34, the tablet terminal 35, and the PC 36 can transmit image data to the
図2は、画像処理装置10の構成を示すブロック図である。画像処理装置10は、制御部11、フラッシュメモリ12、通信部13、画像データベース(DB)14、個別被写体DB15、および被写体パターンDB16を備える。
FIG. 2 is a block diagram illustrating a configuration of the
制御部11は、画像処理装置10の各部を制御する電子回路であり、CPUとその周辺回路とから構成される。不揮発性の記憶媒体であるフラッシュメモリ12には、予め所定の制御プログラムが書き込まれている。制御部11は、フラッシュメモリ12から制御プログラムを読み込んで実行することにより、各部の制御を行う。
The
通信部13は、ネットワーク20を介して電子機器30と通信を行うためのインタフェースである。画像DB14、個別被写体DB15、および被写体パターンDB16については後に詳述する。
The
制御部11は、被写体データ生成部11a、感性データ生成部11b、画像処理部11c、履歴データ生成部11d、推定データ生成部11e、および画像データ生成部11fを機能的に備える。これらの各機能部は、制御部11が上述の制御プログラムを実行することにより、ソフトウェア的に実現されている。なお、これらの各機能部を、同等の機能を有する電子回路として構成してもよい。
The
被写体データ生成部11aは、画像データに含まれる被写体を検出して被写体データを生成する。感性データ生成部11bは、画像データから受ける感性的な印象を表す感性データを生成する。画像処理部11cは、電子機器30から受信した信号に基づいて画像データに画像処理を施す。履歴データ生成部11dは、画像処理部11cが実行した画像処理の履歴を表す履歴データを生成する。推定データ生成部11eは、履歴データに基づいて、画像データに将来要求される可能性の高い画像処理を推定し、その推定された画像処理を表す推定データを生成する。画像データ生成部11fは、画像データと推定データとから新たな画像データを生成する。
The subject
図3(a)は、画像処理装置10が有する画像DB14の構成を示す図である。画像DB14は、電子機器30から送信された画像データや、画像データ生成部11fにより生成された画像データを管理するデータベースである。画像DB14の1行(1レコード)は、1つの画像データに対応する。画像DB14には、画像データ141に、当該画像データ141に関する被写体データ142、感性データ143、および履歴データ144が1つのレコードに関連付けて格納されている。
FIG. 3A is a diagram illustrating a configuration of the
被写体データ142は、画像データ141にどのような被写体が写り込んでいるかを表すデータである。以下の説明において、画像データ141に写り込んでいる個々の被写体を個別被写体と称する。感性データ143は、画像データ141を鑑賞した鑑賞者が抱くと推測される感情、鑑賞者が画像データ141から受けるであろう印象を表すデータであり、例えば「美しい」、「かわいい」などの形容詞(感性語)を1つ以上含む。履歴データ144は、画像データ141に対して過去に実行された画像処理を表すデータである。例えば画像データ141に3つの画像処理が実行されていた場合、履歴データ144は、それら3つの画像処理の各々について、画像データ141がその画像処理によりどのように変化したのかを表すデータを含む。
The
図3(b)は、被写体データ142の構成を示す図である。1つの画像データ141に対応する1つの被写体データ142は、その画像データ141に含まれる1つの個別被写体ごとに、位置データ142a、サイズデータ142b、カテゴリデータ142c、および個別被写体ID142dの組を1つ有する。つまり、1つの画像データ141に複数の個別被写体が含まれている場合、1つの被写体データ142には個別被写体の数だけ上記の組が含まれることになる。位置データ142aは、画像データ141における個別被写体の位置を表すデータであり、例えばx座標値とy座標値の組である。サイズデータ142bは、画像データ141における個別被写体のサイズを表すデータであり、例えば幅と高さの組である。カテゴリデータ142cは、個別被写体が属するカテゴリを表すデータである。なお、1つの個別被写体が複数のカテゴリに属することもあり、その場合カテゴリデータ142cはそれら複数のカテゴリを表す。個別被写体ID142dは、個別被写体ごとに一意なIDである。
FIG. 3B is a diagram showing the configuration of the
図3(c)は、画像処理装置10が有する個別被写体DB15の構成を示す図である。個別被写体DB15には、複数の画像データの各々から検出された個別被写体毎に、個別被写体ID151と、カテゴリデータ152と、個別被写体画像データ153とが関連付けて格納される。個別被写体ID151は、個別被写体ごとに一意なIDであり、図3(b)に示した個別被写体ID142dに対応する。カテゴリデータ152は、図3(b)で説明したカテゴリデータ142cと同様のデータである。個別被写体画像データ153は、画像データ141から抽出された、個別被写体の画像データである。
FIG. 3C is a diagram illustrating a configuration of the
(画像処理システム1の利用手順の説明)
以下、本実施形態の画像処理システム1の利用手順について、画像処理装置10の動作を交えて説明する。
(Description of use procedure of image processing system 1)
Hereinafter, the usage procedure of the image processing system 1 of the present embodiment will be described with the operation of the
1.画像データの受信
ユーザは、例えばカメラ32により撮影した画像データや、スキャナー34により書類等を読み取った画像データ141を、ネットワーク20を介して画像処理装置10に送信する。制御部11は、ネットワーク20および通信部13を介して画像データ141を受信すると、当該画像データ141を画像DB14に格納する。そして、当該画像データ141に関する被写体データ142を被写体データ生成部11aに生成させると共に、当該画像データ141に関する感性データ143を感性データ生成部11bに生成させる。生成された被写体データ142および感性データ143は、画像データ141に関連付けられて画像DB14に記憶される。
1. Receiving Image Data The user transmits, for example, image data captured by the camera 32 or
被写体データ生成部11aは、周知のパターンマッチングにより、画像データ141に含まれる個別被写体を検出し、検出結果から被写体データ142を生成する。被写体パターンDB16には、予め個別被写体のカテゴリ毎にパターンマッチングに用いるためのテンプレート画像が用意されている。例えば個別被写体のカテゴリとして「山」が存在する場合、被写体パターンDB16には、典型的な山のテンプレート画像(例えば山型の形状や青・緑の色彩等から成るテンプレート画像)を複数格納しておく。被写体データ生成部11aは、これらのテンプレート画像に拡大・縮小・回転等の幾何学的変換や色彩の変換等を適用して画像データ141との相関演算を行い、相関係数の高い部分に「山」が存在すると判断する。
The subject
図4に、個別被写体のカテゴリの例を示す。個別被写体のカテゴリは、予め階層的に定められている。1つの個別被写体があるカテゴリに属する場合、その個別被写体は、そのカテゴリの親カテゴリにも属しているものとして扱われる。被写体データ生成部11aは、上述した被写体データ142を生成した後に、検出した個別被写体の各々について、当該個別被写体を画像データ141から抽出して個別被写体画像データ153を作成する。作成した個別被写体画像データ153は、一意な個別被写体ID151が割り当てられ、当該個別被写体が属するカテゴリを含むカテゴリデータ152と共に、個別被写体DB15に格納される。
FIG. 4 shows an example of an individual subject category. Individual subject categories are hierarchically determined in advance. When one individual subject belongs to a certain category, the individual subject is treated as belonging to the parent category of the category. The subject
感性データ生成部11bは、例えば特開2010−67221号公報に記載されている技術を用いて、画像データ141の色彩、鮮鋭度、被写体データ等から感性データ143を生成する。
The sensitivity
2.画像処理
ユーザは、画像処理装置10が受信し画像DB14に格納した画像データ141を、編集加工することができる。画像データ141の編集加工は、一般的ないわゆるフォトレタッチソフトに類似したユーザインタフェースを利用して行うことができる。ユーザがスマートフォン33、タブレット端末35、PC36等の電子機器30により、何らかの画像処理に対応する操作を行うと、当該電子機器30から画像処理装置10に対して、当該画像処理を指示する画像処理信号が送信される。制御部11は、ネットワーク20および通信部13を介して画像処理信号を受信すると、画像処理部11cに、当該画像処理信号に応じた画像処理を実行させる。
2. Image Processing The user can edit and process the
画像処理は、例えば明るさ、コントラスト、ガンマ値、色相、明度、彩度などの変更(調節)、画素数の変更、トリミング、変形等、いわゆるフォトレタッチソフトで利用可能な種々の画像処理である。画像処理信号には、それらの画像処理に利用されるパラメータも含まれており、画像処理部11cは、当該パラメータを用いて画像処理を実行する。例えば画像処理が「明るさの変更」であれば、画像処理信号にはパラメータとして「明るさの変更量」を表す整数値が含まれている。
The image processing is various image processing that can be used in so-called photo retouching software such as change (adjustment) of brightness, contrast, gamma value, hue, brightness, saturation, etc., change of the number of pixels, trimming, deformation, and the like. . The image processing signal includes parameters used for the image processing, and the
履歴データ生成部11dは、画像処理部11cが画像処理信号に応じて画像処理を実行する度に、当該画像処理に関する履歴データ144を生成する。生成された履歴データ1441は、画像データ141に関連付けられて画像DB14に記憶される。履歴データ144は、例えば次式(1)に示すデータ配列Hである。
The history data generation unit 11d generates
上式(1)において、Lは画像データ141の明るさを表す整数値、Cは画像データ141のコントラストを表す整数値、γは画像データ141のガンマ値を表す整数値であり、添え字は画像処理の順序を表す。例えばL1は、第1回目の画像処理を実行後の画像データ141の明るさを表す整数値であり、L0は、一切の画像処理を実行する前の画像データ141の明るさを表す整数値である。データ配列Hは、画像処理が行われるたびに1列ずつ増加する。なお、上式(1)では省略したが、データ配列Hには、明るさ、コントラスト、ガンマ値のみならず、例えば画像データ141の赤レベル、青レベル、緑レベル、色相、明度、彩度、画素数などの種々のパラメータが含まれる。
In the above equation (1), L is an integer value representing the brightness of the
3.推定データの生成
制御部11は、画像処理部11cにより画像処理が実行される度に(すなわち履歴データ生成部11dにより新たな履歴データ144が生成される度に)、推定データ生成部11eに推定データの生成を行わせる。推定データは、履歴データ144から推定される、将来ユーザに要求される可能性の高い画像処理を表すデータである。
3. Generation of Estimated Data The
例えば、ある画像データ141について、画像処理部11cにより最初の(第1回目の)画像処理が実行されたとする。このとき、履歴データ生成部11dは、1回の画像処理に関する情報から成る履歴データ144を生成し、推定データ生成部11eはこの履歴データ144から、第2回目の画像処理としてユーザに要求される可能性の高い画像処理を表す推定データを生成する。つまり、第n回目の画像処理が画像処理部11cにより実行されると、推定データ生成部11eは、第n+1回目の画像処理としてユーザに要求される可能性の高い画像処理を表す推定データを生成する。
For example, it is assumed that the first (first) image processing is performed on the
推定データ生成部11eは、画像データ141に対応する履歴データ144のみから、推定データを生成する。具体的には、最適な明るさLoptを、画像データ141の履歴データ144に含まれる、明るさの時系列的な修正履歴を表すデータ列(L0,L1,…,Ln)から、線形もしくは非線形な外挿方法により推定する。線形外挿の場合は、(L0,L1,…,Ln)から回帰直線を計算し、得られた直線を表す1次関数からLoptを推定すればよい。非線形な外挿の場合は、1次関数でなく、適当な次数kのべき乗関数(例えばL=a0+a1i+a1i+a2i2+…+akik)の係数(a0,a1,…,ak)を最小自乗法で求めて適用すればよい。さらに非線形の場合は、べき乗関数以外に、三角関数、指数関数、対数関数など適当な形式の関数を利用することができる。推定データ生成部11eは、履歴データ144に含まれる各パラメータについて、上式(1)と同様の演算を行う。このようにして得られた各パラメータの最適値を含むデータが推定データである。
The estimated
4.新たな画像データの生成
推定データ生成部11eにより、画像データ141の推定データが生成されると、画像データ生成部11fが、当該推定データにより表される画像処理を画像データ141に適用した新たな画像データを生成する。画像データ生成部11fにより生成された新たな画像データは、まず制御部11により利用価値の有無が判定される。
4). Generation of new image data When the estimated data of the
制御部11は、画像データ生成部11fにより新たな画像データが生成される度に、当該画像データに対して、被写体データ生成部11aにより被写体データ142の生成を行わせると共に、感性データ生成部11bにより感性データ143の生成を行わせる。その結果、被写体が識別できない、感性データ143が生成不可能である、感性データ143が想定外や常識外などであった場合、その新たな画像データを画像DB14に格納せず、削除する。他方、そのような問題がなかった場合には、制御部11はその新たな画像データを画像DB14に格納すると共に、上記の被写体データ142および感性データ143を新たな画像データに関連付けて画像DB14に格納する。更に、元の画像データに対応する履歴データ144に、推定データにより表される画像処理を付け加え、新たな画像データに関連付けて画像DB14に格納する。
Each time new image data is generated by the image
5.画像検索
ユーザは、電子機器30を用いて、画像DB14に格納されている画像データから所望の画像データ141を検索することができる。検索により発見された画像データ141は、電子機器30にダウンロードして種々の用途に利用することができる。
5. Image Search The user can search for desired
1.〜4.で説明したように、ユーザが画像処理装置10に画像データを送信し、その画像データを従来のフォトレタッチソフトのUIで編集加工する度に、画像DB14には新たな画像データが生成され格納される。従って、ユーザは、単に自身がアップロードした画像データのみならず、それらの画像データを基に加工された全く新たな画像データをもダウンロードすることが可能である。
1. ~ 4. As described above, every time the user transmits image data to the
画像処理装置10は、画像データ141に含まれる個別被写体に関する情報を、被写体データ142として画像DB14に格納している。そのため、ユーザは各画像データ141に含まれる被写体要素から画像データ141を検索することが可能である。個別被写体のカテゴリは、図4に例示したように階層的な分類となっている。図4には、複数のカテゴリ40が為す階層構造を図示している。例えば、「生物」というカテゴリ41の下層に「人物」、「動物」、「植物」という各カテゴリ42,43,44が位置し、更に「人物」カテゴリ42の下層には「男性」、「女性」という各カテゴリ45,46が位置する。そして、「女性」カテゴリ46の下層には「子供」というカテゴリ47を含む複数のカテゴリ40が位置する。これにより、例えば「人物―女性―子供」のようなキーワードでカテゴリによる検索を行うことができる。さらに、複数のキーワードによるAND検索等も可能である。
The
また画像処理装置10は、画像データ141から鑑賞者が受けるであろう印象を、感性データ143として画像DB14に格納している。そのため、ユーザは画像データ141を、例えば「明るい」「さわやかな」などの曖昧なキーワードで検索することができる。また、個別被写体のカテゴリによる検索と感性語による検索とを組み合わせることもできる。
Further, the
図5は、制御部11により実行される画像データ生成処理のフローチャートである。まずステップS100において、制御部11は電子機器30からの画像処理信号を受信する。ステップS105で、画像処理部11cは画像処理信号に基づく画像処理を実行する。ステップS110において、履歴データ生成部11dは、新たな履歴データ144を生成して画像DB14に格納する。ステップS120で推定データ生成部11eが、推定データを生成する。ステップS130で画像データ生成部11fが、生成された推定データに基づいて新たな画像データを生成する。ステップS140で被写体データ生成部11aが、新たな画像データの被写体データ142を生成する。ステップS150で感性データ生成部11bが、新たな画像データの感性データ143を生成する。ステップS160で制御部11は、ステップS130で生成された新たな画像データ141と、ステップS140で生成された被写体データ142と、ステップS150で生成された感性データ143とを、画像DB14に格納する。
FIG. 5 is a flowchart of image data generation processing executed by the
上述した第1の実施の形態による画像処理システムによれば、次の作用効果が得られる。
(1)推定データ生成部11eは、画像データ141に加えられている画像処理の履歴を表す履歴データ144に基づいて、画像データ141に対して将来的に加えられる可能性の高い画像処理を表す推定データを生成する。このようにしたので、画像データ141に対して要求される可能性の高い画像処理を、ユーザが手動で実行する前に推定することができる。
According to the image processing system of the first embodiment described above, the following operational effects can be obtained.
(1) The estimated
(2)画像データ生成部11fは、画像データ141と、推定データ生成部11eにより生成された推定データとに基づいて、新たな画像データ141を生成する。このようにしたので、ユーザが画像処理を実行する前に、ユーザが望むであろう画像処理を適用した画像データ141を用意することができる。
(2) The image
(3)画像処理部11cは、画像データ141に所定の画像処理を実行する。画像データ生成部11fは、画像処理部11cによって画像データ141に画像処理が実行される度に、その画像データ141に関する推定データから新たな画像データ141を生成する。このようにしたので、単にユーザがアップロードした画像データ141のみならず、その画像データ141に要求されるであろう画像処理を適用した画像データ141を、検索等により利用可能な状態にすることができる。
(3) The
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。 The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(変形例1)
被写体データ142の生成方法は、上述したものに限定されない。例えば、ユーザ(鑑賞者)がマウス等の操作部材を操作することにより、被写体の位置、サイズ、およびカテゴリを手動で入力するようにしてもよい。感性データ143についても同様に、感性語を手動で入力するようにしてもよいし、画像データ141の印刷回数、電子メールによる送信回数など、ユーザによって為されたアクションに関する情報に基づき感性データ143を生成するようにしてもよい。
(Modification 1)
The method for generating the
(変形例2)
画像データ141から個別被写体画像データ153を生成した後、元の画像データ141を破棄してもよい。これは、個別被写体画像データ153と、対応する被写体データ142とがあれば、元の画像データ141を再現することができるためである。
(Modification 2)
After generating the individual
(変形例3)
履歴データ144の構成および生成方法は、上述したものに限定されない。例えば、画像データ141のトリミングや形状変更に関するパラメータや、画像の閲覧回数、ダウンロード回数など、画像データ141の利用に関するパラメータを含むようにしてもよい。
(Modification 3)
The configuration and generation method of the
(変形例4)
推定データの生成方法は、上述したものに限定されない。以下、カテゴリ「花」に属する個別被写体を含み、感性データ143に感性語「美しい」が含まれる注目画像データについて、推定データ生成部11eが推定データを生成する別の方法について説明する。
(Modification 4)
The generation method of the estimation data is not limited to the above-described method. Hereinafter, another method for the estimation
推定データ生成部11eは、まず注目画像データと共通のカテゴリ「花」に属する個別被写体が写り込み、且つ共通の感性語「美しい」を含む感性データ143に関連付けられた画像データ141を画像DB14から検索する。これにより、「花」「美しい」に対応するx個の画像データ141が得られる。次に、検索により得られた多数の画像データ141の各々について、画像データ141に関連付けられた履歴データ144から、最新のパラメータを取得する。例えば、明るさLについて、各画像データ141の履歴データ144から、最新の明るさLnを取得する。これにより、「花」「美しい」に対応するx個の画像データが、どのような明るさLを有しているかを知ることができる。以下、これらx個の画像の明るさをLn 1,Ln 2,…,Ln xと表記する。推定データ生成部11eは、次式(2)により、注目画像データの最適な明るさLoptを算出する。
First, the estimated
ここでnxは、x個目の画像データ141に対して実行された画像処理の総数である。上式(2)では、各画像データ141について、最新の明るさLを過去の画像処理回数nにより重み付けした平均値を求め、それを注目画像データの最適な明るさLoptとしている。推定データ生成部11eは、履歴データ144に含まれる各パラメータについて、上式(2)と同様の演算を行い、推定データを生成する。
Here, nx is the total number of image processes performed on the
更に、上記の推定データの生成方法と、上述の実施形態で説明した推定データの生成方法とを組み合わせて利用することも可能である。例えば、まず前者の生成方法による推定データの生成を試み、それが失敗した(有用な推定データを生成できなかった)場合には後者の生成方法により推定データを生成するようにすることができる。また、推定データ生成部11eが両方の生成方法を実行し、異なる2つの推定データを生成するようにしてもよい。この場合、ユーザが1回の画像処理を指示する度に、画像データ生成部11fにより2つの新たな画像データが生成される。
Furthermore, it is possible to use a combination of the estimation data generation method described above and the estimation data generation method described in the above embodiment. For example, first, generation of estimated data by the former generation method is attempted, and if it fails (useful estimation data could not be generated), estimation data can be generated by the latter generation method. The estimated
また、上式(2)とは異なる重み付けを行うことにより、推定データを生成するようにしてもよい。例えば、次式(3)により最適な明るさLoptを算出することができる。 Moreover, you may make it produce estimated data by performing weighting different from the said Formula (2). For example, the optimum brightness L opt can be calculated by the following equation (3).
ここでΔLnは、直前の画像処理による明るさLの変化量であり、次式(4)で算出される。
ΔLn=Ln―Ln−1 …(4)
Here, ΔL n is the amount of change in brightness L due to the previous image processing, and is calculated by the following equation (4).
ΔL n = L n −L n−1 (4)
以上、推定データを履歴データ144から生成する方法について説明したが、推定データを履歴データ144のみならず、被写体データ142や感性データ143等から生成することも可能である。例えば、多数のカテゴリについて、そのカテゴリに対応する明るさの最適値を格納したデータベースを用意しておき、被写体データ142のカテゴリデータ142cに含まれる各カテゴリの明るさの最適値をそのデータベースから検索することにより、推定データを生成することができる。
The method for generating the estimated data from the
(変形例5)
画像処理が要求されたタイミングとは異なるタイミングで、推定データの生成および新たな画像データ141の生成を行うようにしてもよい。例えば、画像データ141の検索が実行される度に、検索条件に合致した画像データ141から推定データの生成と新たな画像データ141の生成とを行うようにしてもよい。この場合、検索条件に合致した画像データ141を検索結果としてユーザに提示すると共に、その画像データ141から作成された新たな画像データ141を、例えば「お勧め画像」等のラベルを付してユーザに提示することができる。
(Modification 5)
The estimation data may be generated and
また、画像処理が要求された画像データ141の再利用回数(ダウンロード回数)が所定のしきい値を超えた場合にのみ、推定データや新たな画像データ141を生成するようにしてもよい。あるいは、最終利用時(最終ダウンロード時)から所定時間が経過していた場合や、再利用回数(ダウンロード回数)が所定のしきい値未満である場合にのみ、推定データや新たな画像データを生成するようにしてもよい。
In addition, the estimated data and the
(変形例6)
一定のタイミングで、新たな画像データ141を生成するだけでなく、利用価値がない画像データ141を画像DB14から取り除くようにしてもよい。例えば、画像データ141の利用頻度(画像処理回数やダウンロード回数等)を計測し、利用頻度が低い、もしくは最近低下した画像データ141を画像DB14から削除するようにしてもよい。または、新たな画像データ141を生成する度に、その新たな画像データ141の評価値を調べ、評価値が低い場合には画像DB14に格納しないようにしてもよい。ここで、新たな画像データ141の評価値は、例えば個別被写体が判別不能であったり、感性データ143の作成ができない場合に低下するような数値である。
(Modification 6)
In addition to generating
(変形例7)
より多様性に富んだ画像データ141が生成されるよう、画像データ生成部11fが上述した方法とは異なる方法により画像データ141を生成してもよい。例えば類似するカテゴリ、類似する感性語で検索した画像データ141の履歴データ144に基づいて新たな画像データ141を生成したり、逆に類似しないカテゴリ、類似しない感性語で検索した画像データ141の履歴データ144に基づいて新たな画像データ141を生成してもよい。また、意図的に履歴データ144の各パラメータに乱数を掛けたり乱数を加えるなどの変化要因を導入してもよい。
(Modification 7)
The image
その他、多様性に富んだ画像データ141を生成する方法として、いわゆる遺伝的アルゴリズムを適用してもよい。例えば、履歴データ144等をビット列にエンコードし、そのビット列に交叉や突然変異等の操作を施した後、履歴データ144にデコードする。そして、その履歴データ144に基づく推定データから、新たな画像データ141を生成して画像DB14に格納する。
In addition, a so-called genetic algorithm may be applied as a method of generating
以上で説明した方法は、基となる画像データ141に修正を加えて新たな画像データ141を生成する方法であるが、これ以外の方法で新たな画像データ141を生成してもよい。例えば、個別被写体DB15に格納されている個別被写体画像データ153を適宜組み合わせて新たな画像データ141を生成することも可能である。
The method described above is a method of generating
(変形例8)
被写体データ142等のデータの生成処理は、画像処理装置10の外部に設けた外部装置が行うようにしてもよい。同様に、画像データ141等のデータの記憶場所は、画像処理装置10の外部に設けた外部記憶装置であってもよい。
(Modification 8)
The generation processing of data such as the
本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。 As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .
1…画像処理システム、10…画像処理装置、11…制御部 DESCRIPTION OF SYMBOLS 1 ... Image processing system, 10 ... Image processing apparatus, 11 ... Control part
Claims (5)
前記画像データと、前記第1推定データ生成部により生成された前記推定データとに基づいて、新たな画像データを生成する画像データ生成部を備えることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
An image processing apparatus comprising: an image data generation unit that generates new image data based on the image data and the estimation data generated by the first estimation data generation unit.
前記画像データと共通の被写体を含む複数の他の画像データに関する前記履歴データに基づいて、前記推定データを生成する第2推定データ生成部を備え、
前記画像データ生成部は、前記画像データと、前記第1推定データ生成部により生成された前記推定データおよび/または前記第2推定データ生成部により生成された前記推定データとに基づいて、前記新たな画像データを生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
A second estimated data generation unit configured to generate the estimated data based on the history data regarding a plurality of other image data including a subject common to the image data;
The image data generation unit is configured to generate the new data based on the image data and the estimation data generated by the first estimation data generation unit and / or the estimation data generated by the second estimation data generation unit. An image processing apparatus for generating image data.
前記画像データから受ける感性的な印象と共通の感性的な印象を受ける複数の他の画像データに関する前記履歴データに基づいて、前記推定データを生成する第3推定データ生成部を備え、
前記画像データ生成部は、前記画像データと、前記第1推定データ生成部により生成された前記推定データおよび/または前記第3推定データ生成部により生成された前記推定データとに基づいて、前記新たな画像データを生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
A third estimated data generating unit that generates the estimated data based on the history data related to a plurality of other image data that receives the same emotional impression received from the image data;
The image data generation unit is configured to generate the new data based on the image data and the estimation data generated by the first estimation data generation unit and / or the estimation data generated by the third estimation data generation unit. An image processing apparatus for generating image data.
前記画像データに所定の画像処理を実行する画像処理部を備え、
前記画像データ生成部は、前記画像処理部によって前記画像データに画像処理が実行される度に前記新たな画像データを生成することを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 4,
An image processing unit that executes predetermined image processing on the image data;
The image processing apparatus generates the new image data every time image processing is performed on the image data by the image processing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013153634A JP2015026122A (en) | 2013-07-24 | 2013-07-24 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013153634A JP2015026122A (en) | 2013-07-24 | 2013-07-24 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015026122A true JP2015026122A (en) | 2015-02-05 |
Family
ID=52490761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013153634A Pending JP2015026122A (en) | 2013-07-24 | 2013-07-24 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015026122A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160101518A (en) * | 2015-02-17 | 2016-08-25 | 삼성전자주식회사 | Device and method for generating printing information |
WO2016175234A1 (en) * | 2015-04-27 | 2016-11-03 | ヤンマー株式会社 | Color image processing method, color image processing program, and object recognition method and device |
JP2021508811A (en) * | 2017-12-30 | 2021-03-11 | 美的集団股▲フン▼有限公司Midea Group Co., Ltd. | Food cooking methods and systems based on ingredient identification |
-
2013
- 2013-07-24 JP JP2013153634A patent/JP2015026122A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160101518A (en) * | 2015-02-17 | 2016-08-25 | 삼성전자주식회사 | Device and method for generating printing information |
KR102312334B1 (en) * | 2015-02-17 | 2021-10-13 | 삼성전자주식회사 | Device and method for generating printing information |
US11244517B2 (en) | 2015-02-17 | 2022-02-08 | Samsung Electronics Co., Ltd. | Device for generating printing information and method for generating printing information |
WO2016175234A1 (en) * | 2015-04-27 | 2016-11-03 | ヤンマー株式会社 | Color image processing method, color image processing program, and object recognition method and device |
JP2021508811A (en) * | 2017-12-30 | 2021-03-11 | 美的集団股▲フン▼有限公司Midea Group Co., Ltd. | Food cooking methods and systems based on ingredient identification |
US11229311B2 (en) | 2017-12-30 | 2022-01-25 | Midea Group Co., Ltd. | Food preparation system |
JP7077506B2 (en) | 2017-12-30 | 2022-05-31 | 美的集団股▲フン▼有限公司 | Food cooking methods and systems based on food identification |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019117646A (en) | Method and system for providing personal emotional icons | |
CN1316426C (en) | Method and a system for reducing update frequency of image processing device | |
EP3410685B1 (en) | Image processing device, image processing method, and program | |
CN109685746A (en) | Brightness of image method of adjustment, device, storage medium and terminal | |
US8363910B2 (en) | Image processing device, image processing method, and program | |
JP2016048845A (en) | Information processing device, information processing method, and program | |
US20160283824A1 (en) | Image processing device, image processing method, program, and recording medium | |
WO2019011342A1 (en) | Cloth identification method and device, electronic device and storage medium | |
CN110213458B (en) | Image data processing method and device and storage medium | |
CN110472558B (en) | Image processing method and device | |
CN112001274A (en) | Crowd density determination method, device, storage medium and processor | |
CN111062426A (en) | Method, device, electronic equipment and medium for establishing training set | |
CN104239388A (en) | Methods and systems for media file management | |
CN113079273A (en) | Watermark processing method, device, electronic equipment and medium | |
JP2015026122A (en) | Image processing device | |
CN106791091B (en) | Image generation method and device and mobile terminal | |
CN110120003B (en) | Method and system for acquiring webpage with watermark | |
CN103093213B (en) | Video file classification method and terminal | |
CN110825821B (en) | Personnel relationship query method and device, electronic equipment and storage medium | |
CN111833413A (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
CN110955889A (en) | Electronic document tracing method based on digital fingerprints | |
WO2022178975A1 (en) | Noise field-based image noise reduction method and apparatus, device, and storage medium | |
KR20120080379A (en) | Method and apparatus of annotating in a digital camera | |
CN112822393A (en) | Image processing method and device and electronic equipment | |
CN110781355A (en) | Storage information processing method and device, storage cabinet and storage medium |