JP5006839B2 - Trimming rule learning apparatus and method, and program - Google Patents
Trimming rule learning apparatus and method, and program Download PDFInfo
- Publication number
- JP5006839B2 JP5006839B2 JP2008137361A JP2008137361A JP5006839B2 JP 5006839 B2 JP5006839 B2 JP 5006839B2 JP 2008137361 A JP2008137361 A JP 2008137361A JP 2008137361 A JP2008137361 A JP 2008137361A JP 5006839 B2 JP5006839 B2 JP 5006839B2
- Authority
- JP
- Japan
- Prior art keywords
- trimming
- image
- area
- learning
- rule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009966 trimming Methods 0.000 title claims description 134
- 238000000034 method Methods 0.000 title claims description 28
- 239000000203 mixture Substances 0.000 claims description 42
- 238000010586 diagram Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 239000003086 colorant Substances 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 125000002924 primary amino group Chemical group [H]N([H])* 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
Description
本発明は、画像のトリミングを自動で行うに際し、トリミングのルールを学習するトリミングルール学習装置および方法並びにトリミングルール学習方法をコンピュータに実行させるためのプログラムに関するものである。 The present invention relates to a trimming rule learning device and method for learning a trimming rule when automatically trimming an image, and a program for causing a computer to execute a trimming rule learning method.
撮影を行う場合には、好ましい構図となるようにカメラを構えて撮影を行うが、撮影時に構図を適切に定めることは熟練を要するため、撮影により取得された画像が必ずしも所望とする構図を有するものとはならない場合が多い。例えば、全く関係ない被写体が画像に含まれたり、画像に含まれてほしい被写体が画像の端に位置してしまう場合がある。このため、撮影により取得した画像の一部の領域を所望とする構図となるようにトリミングすることが行われている。 When shooting, the camera is set so that a desirable composition is obtained. However, since it takes skill to appropriately determine the composition at the time of shooting, an image obtained by shooting always has a desired composition. Often not a thing. For example, there may be a case where an irrelevant subject is included in the image, or a subject that is desired to be included in the image is positioned at the end of the image. For this reason, trimming is performed so that a partial region of an image acquired by photographing has a desired composition.
トリミングは、ユーザが画像を見ながら手動で所望とする領域を切り取ることにより行うことができるが、画像の枚数が多いとその作業が非常に煩わしいものとなる。 Trimming can be performed by manually cutting out a desired region while viewing the image, but if the number of images is large, the operation becomes very troublesome.
このため、自動で画像のトリミングを行う手法が種々提案されている(特許文献1,2参照)。特許文献1に記載された手法は、画像の注目領域の注目度およびあらかじめ定義したモデルを用いたオブジェクト指標を算出し、注目度、オブジェクト指標値およびあらかじめ定義したトリミングルールに基づいて、トリミング手法を決定して画像をトリミングするものである。
For this reason, various methods for automatically trimming an image have been proposed (see
また、特許文献2に記載された手法は、ユーザ個人の感性を学習し、その学習結果を利用して画像からユーザの感性に応じたトリミングを行うものである。
しかしながら、特許文献1にはトリミングルールについてどのように学習するかについては開示がない。また、特許文献2に記載された手法は、ユーザの感性を学習してトリミングを行うものであるため、トリミング領域の構図が必ずしもユーザが所望とする構図とはならない場合がある。
However,
本発明は、上記事情に鑑みなされたものであり、ユーザが所望とする構図となるようにトリミングを行うことができるようにすることを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to enable trimming to achieve a composition desired by a user.
本発明によるトリミングルール学習装置は、含まれるオブジェクト毎にあらかじめ分類された画像を表示する表示手段と、
前記表示された画像に対するユーザによるトリミング領域の指定を受け付ける入力手段と、
複数の画像についての前記トリミング領域の構図に基づいて、ユーザ単位でオブジェクト毎に画像についてのトリミングルールを学習する学習手段とを備えたことを特徴とするものである。
The trimming rule learning device according to the present invention includes display means for displaying images classified in advance for each object included therein,
Input means for accepting designation of a trimming region by the user for the displayed image;
Learning means for learning a trimming rule for an image for each object on a user basis based on the composition of the trimming region for a plurality of images is provided.
なお、本発明によるトリミングルール学習装置においては、前記学習手段を、前記トリミング領域に含まれるオブジェクトを抽出し、前記トリミング領域の構図に基づいて、前記トリミング前の原画像における前記オブジェクトの位置、トリミング領域における前記オブジェクトの位置、前記原画像に対する前記オブジェクトの面積比および前記トリミング領域に対する前記オブジェクトの面積比を構図情報として取得し、該構図情報を前記トリミングルールとして学習する手段としてもよい。 In the trimming rule learning device according to the present invention, the learning means extracts an object included in the trimming area, and based on the composition of the trimming area, the position of the object in the original image before trimming, trimming The position of the object in a region, the area ratio of the object with respect to the original image, and the area ratio of the object with respect to the trimming region may be acquired as composition information, and the composition information may be learned as the trimming rule.
この場合、前記学習手段を、前記トリミング領域内の注目領域を前記オブジェクトとして抽出する手段としてもよい。 In this case, the learning unit may be a unit that extracts a region of interest in the trimming region as the object.
本発明によるトリミングルール学習方法は、含まれるオブジェクト毎にあらかじめ分類された画像を表示し、
前記表示された画像に対するユーザによるトリミング領域の指定を受け付け、
複数の画像についての前記トリミング領域の構図に基づいて、ユーザ単位でオブジェクト毎に画像についてのトリミングルールを学習することを特徴とするものである。
The trimming rule learning method according to the present invention displays images classified in advance for each included object,
Accepting a user to specify a trimming area for the displayed image;
Based on the composition of the trimming area for a plurality of images, a trimming rule for the image is learned for each object for each user.
なお、本発明によるトリミングルール学習方法をコンピュータに実行させるためのプログラムとして提供してもよい。 In addition, you may provide as a program for making a computer perform the trimming rule learning method by this invention.
本発明によれば、含まれるオブジェクト毎にあらかじめ分類された画像が表示され、表示された画像に対するユーザによるトリミング領域の指定が受け付けられる。そして、複数の画像についてのトリミング領域の構図に基づいて、ユーザ単位でオブジェクト毎に画像についてのトリミングルールが学習される。このため、トリミングルールの学習結果を用いて自動で画像のトリミングを行うことにより、画像に含まれるオブジェクトをユーザが所望とする構図となるようにトリミングすることができる。 According to the present invention, an image classified in advance for each object included is displayed, and a user designates a trimming area for the displayed image. Then, based on the composition of the trimming area for a plurality of images, a trimming rule for the image is learned for each object for each user. Therefore, by automatically trimming an image using the learning result of the trimming rule, it is possible to trim an object included in the image so as to have a composition desired by the user.
また、トリミングされた領域内の注目領域をオブジェクトとして抽出することにより、オブジェクトの抽出を容易に行うことができる。 Further, by extracting the attention area in the trimmed area as an object, the object can be easily extracted.
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態によるトリミングルール学習装置の構成を示す概略ブロック図である。図1に示すように本実施形態によるトリミングルール学習装置1は、学習対象となる複数の画像を記録した画像記録部2と、画像を表示する液晶モニタ等の表示部3と、各種指示入力を行うためのキーボードおよびマウス等からなる入力部4と、トリミングルールを学習するための学習部5と、各部の制御を行う制御部6とを備え、各部がバス7により接続されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of a trimming rule learning device according to an embodiment of the present invention. As shown in FIG. 1, the trimming
画像記録部2には、学習対象となる複数の画像が記録されているが、各画像は含まれるオブジェクト毎にあらかじめ分類されている。例えば、空、花、海、山、集合写真、正面顔ポートレート、斜め顔ポートレート、看板、標識、建物およびランドマーク等の含まれるオブジェクト毎に分類されている。なお、分類は画像を見ながらマニュアル操作により行ってもよく、オブジェクト認識を行って自動で行ってもよい。また、複数のオブジェクトを含む画像については、複数のグループに跨って分類されることとなる。
A plurality of images to be learned are recorded in the
学習部5は、オブジェクト抽出部8と、学習結果であるトリミングルールを登録する学習結果データベースDB1とを備える。
The
オブジェクト抽出部8は、後述するようにユーザにより指定されたトリミング領域内の注目領域をオブジェクトとして抽出する。ここで、オブジェクト抽出部8は、画像を目視で確認したときに注目される部分を注目領域すなわちオブジェクトとして抽出する。例えば、画像上の一部の色が周囲の色と異なる部分、画像上の一部が周囲に比べて非常に明るい部分、平坦な画面上に現れた直線部分等が画像を見たとき注目される領域となる。このため、オブジェクト抽出部8は、画像の色、明度、および画像に現れた直線成分の方向に基づいて、画像中の各部分の特徴がその部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの異なる度合いが大きいところを注目領域すなわちオブジェクトとして抽出する。
As will be described later, the
このように視覚的に注目される注目領域は、色、明度および画像中に現れた直線成分等の画像を構成する要素が周囲と異なる特徴を持っている。そこで、画像の色(Color)、画像の明度(Intensity)、画像に現れた直線成分の方向(Orientation)を用いて、画像中の各部分の特徴が、その部分の周囲に位置する部分の特徴と異なる度合いを求め、異なる度合いが大きい部分を視覚的に注目される注目領域として抽出することができる。具体的には、IttiやKoch達によって提案された手法を用いて、視覚的に注目される注目領域を自動的に抽出することができる(例えば、IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 11, NOVEMBER 1998 “A Model of Saliency-Based Visual Action for Rapid Scene Analysis”, Laurent Itti, Christof Koch and Emst Neiburを参照)。 In this way, the region of interest that is visually noticeable has elements that make up the image, such as color, brightness, and linear components that appear in the image, different from the surroundings. Therefore, using the color of the image (Color), the intensity of the image (Intensity), and the direction of the linear component appearing in the image (Orientation), the characteristics of each part in the image are the characteristics of the part located around that part. And a portion having a large difference degree can be extracted as a region of interest that is visually noticed. Specifically, using the method proposed by Itti and Koch et al., It is possible to automatically extract a visually noticeable area of interest (for example, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20 , NO. 11, NOVEMBER 1998 “A Model of Saliency-Based Visual Action for Rapid Scene Analysis”, Laurent Itti, Christof Koch and Emst Neibur).
図2に従って、この手法を用いて注目領域を抽出する処理の流れについて説明する。 A flow of processing for extracting a region of interest using this method will be described with reference to FIG.
まず、画像に線形フィルタリング処理を施して明度を表す画像と複数の色成分に分けた色成分の画像とをそれぞれ生成する(Step1)。 First, linear filtering processing is performed on the image to generate an image representing brightness and an image of color components divided into a plurality of color components (Step 1).
具体的には、画像から明度の画像Iを生成して、さらに、明度の画像IのGaussian pyramidを生成する。このGaussian pyramidの各階層の画像をI(σ)(σは画素のスケールを表し、σ∈[0..8]とする)とする。 Specifically, a brightness image I is generated from the image, and a Gaussian pyramid of the brightness image I is further generated. An image of each layer of this Gaussian pyramid is assumed to be I (σ) (σ represents a pixel scale, and σ∈ [0..8]).
次に、画像を4つの色成分の画像R(赤),G(緑),B(青),Y(黄)に分ける。さらに、これらの画像R,G,B,Yから4種類のGaussian pyramidを生成して、各階層の画像をR(σ)、G(σ)、B(σ)、Y(σ)とする。 Next, the image is divided into four color component images R (red), G (green), B (blue), and Y (yellow). Further, four types of Gaussian pyramid are generated from these images R, G, B, and Y, and the images of each layer are defined as R (σ), G (σ), B (σ), and Y (σ).
そこで、これらの画像I(σ)、R(σ)、G(σ)、B(σ)、Y(σ)から画像上の各部分の特徴とその周囲の部分の特徴との違いを算出することにより、特徴量マップを生成する(Step2)。 Therefore, the difference between the feature of each part on the image and the feature of the surrounding part is calculated from these images I (σ), R (σ), G (σ), B (σ), and Y (σ). Thus, a feature amount map is generated (Step 2).
画面上のある部分の明度がその周囲の明度とは違うと感知される場所は、周囲が明るいところに暗い部分が存在する場所、あるいは、周囲が暗いところに明るい部分が存在する場所である。そこで、周囲の明度に比べて中心部分の明度がどの程度異なるかは、細かい画素で表された画像I(c)と、荒い画素で表された画像I(s)とを用いて求める。荒い画像I(s)の画素1個の値は、細かい画像I(c)の画素を複数個分の画素をまとめた値を表しているので、画像I(c)の画素の値(中心部の明度)と、この画素に対応する位置にある画像I(s)の画素の値(周囲の明度)の差を求める(center-surroundと呼ばれる)ことによって、画像上の各部分が周囲とどの程度異なるかを求めることができる。例えば、細かい画素で表された画像I(c)のスケールをc∈{2,3,4}とし、荒い画素で表された画像I(s)のスケールをs=c+δ(δ∈{3,4})として明度の特徴マップMI(c,s)を求める。この明度の特徴マップMI(c,s)は下記の式(1)のように表される。
各色成分についても同様に、R(σ)、G(σ)、B(σ)、Y(σ)から特徴マップを生成する。画面上のある部分の色がその周囲の色と違うと感知される場所は、色相環で正反対に位置する色(反対色)の組み合わせから見つけることができる。例えば、赤/緑と緑/赤の組み合わせから特徴マップMRG(c,s)を取得し、青/黄と黄/青の組み合わせから特徴マップMBY(c,s)を取得する。この色の特徴マップは下記の式(2)、(3)のように表される。
さらに、画像上に表れた直線成分の方向について、各部分に現れた直線成分の方向とその周囲の直線成分との違いが感知される部分は、明度の画像Iから直線成分の方向を検出するGaborフィルタ等を利用して見つけることができる。I(σ)の各階層の画像に対してGaborフィルタを用いて、θ∈{0°,45°,90°,135°}の各方向の直線成分を検知して特徴マップMO(c,s,θ)を取得する。この方向の特徴マップは下記の式(4)のように表される。
c∈{2,3,4}とし、s=c+δ(δ∈{3,4})とした場合には、明度の特徴マップは6個、色の特徴マップは12個、方向に関する特徴マップは24個得られ、これらのマップを総合的にみて、視覚的に注目される注目領域を抽出する。 If c∈ {2, 3, 4} and s = c + δ (δ∈ {3,4)}, there are 6 brightness feature maps, 12 color feature maps, and direction feature maps. Twenty-four maps are obtained, and these maps are viewed comprehensively to extract a region of interest that is visually noted.
これらの42個の特徴マップMI,MRG,MBY,MOは、ダイナミックレンジの違いおよび抽出する情報の違い等により、各部分とその周囲の違いが大きく表れるものとあまり大きく表れないものがある。そのため、42個の特徴マップMI,MRG,MBY,MOの値をそのまま用いて判定を行ったのでは、違いが大きい特徴マップに影響されて、違いが少ない特徴マップの情報が反映されない場合がある。そこで、これらの42個の特徴マップMI,MRG,MBY,MOを規格化した後に組み合わせて、注目領域を抽出することが好ましい。 These 42 pieces of feature maps M I, M RG, M BY , M O is the difference of information that difference and extraction of the dynamic range, which does not appear the parts and so large that those surrounding the difference appears greater There is. Therefore, if the determination is made using the values of the 42 feature maps M I , M RG , M BY , and M O as they are, the feature map information with a small difference is reflected by the feature map having a large difference. May not be. Therefore, these 42 amino feature maps M I, M RG, M BY , combined after normalizing M O, it is preferable to extract the region of interest.
具体的には、例えば、明度の特徴マップMI(c,s)の6個を規格化して組み合わせた明度の要素別注目度マップMC Iを取得し、色の特徴マップMRG(c,s)、MBY(c,s)の12個を規格化して組み合わせた色の要素別注目度マップMC Cを取得し、方向に関する特徴マップMO(c,s,θ)の24個を規格化して組み合わせた方向の要素別注目度マップMC Oを取得する(Step3)。さらに、要素別注目度マップMC I、MC C、MC Oを線形結合して、画像の各部分の注目度の分布を表した注目度マップMSを取得する(Step4)。この注目度が所定のしきい値Th1を越えた領域を注目領域すなわちオブジェクトとして抽出する(Step5)。 Specifically, for example, a brightness element-specific attention map M C I obtained by standardizing and combining six brightness characteristic maps M I (c, s) is acquired, and a color feature map M RG (c, s) and 12 of M BY (c, s) are standardized and combined to obtain a color element-specific attention map M C C, and 24 feature map M O (c, s, θ) related to direction are obtained to obtain the orientation of the elemental saliency map M C O which is combined normalized (Step3). Further, the attention level map M S representing the distribution of the attention level of each part of the image is obtained by linearly combining the element-specific attention level maps M C I , M C C and M C O (Step 4). A region where the degree of attention exceeds a predetermined threshold Th1 is extracted as a region of interest, that is, an object (Step 5).
また、注目領域を抽出する際に、画像の色、明度、画像に現れた直線成分の傾きが周囲と異なる度合いの影響を変えるように、画像の色、明度、画像に現れた直線成分の傾きのそれぞれの度合いと、各度合いそれぞれに対して重み付けした重み付け度合いを変えることによって、抽出される注目領域を変えることができる。例えば、要素別注目度マップMC I、MC C、MC Oを線形結合するときの重みを変えることによって抽出される注目領域を変えることができる。あるいは、要素別注目度マップMC I、MC C、MC Oを取得するときに、各明度の特徴マップMI(c,s)、色の特徴マップMRG(c,s)、MBY(c,s)、方向に関する特徴マップMO(c,s,θ)のそれぞれのマップの影響を変えるように、各特徴マップMI(c,s)、MRG(c,s)、MBY(c,s)、MO(c,s,θ)に対する重みを変えるようしてもよい。 In addition, when extracting the region of interest, the color, brightness, and slope of the linear component that appears in the image are changed so that the influence of the degree of the color component, brightness, and the slope of the linear component that appears in the image differ from the surroundings. The attention area to be extracted can be changed by changing the degree of each and the weighting degree weighted for each degree. For example, the attention area extracted can be changed by changing the weight when linearly combining the element-specific attention maps M C I , M C C , and M C O. Alternatively, when the element-specific attention maps M C I , M C C , and M C O are acquired, the feature map M I (c, s) for each brightness, the color feature map M RG (c, s), M BY (c, s), to alter the effect of each map feature with respect to the direction map M O (c, s, θ ), each feature map M I (c, s), M RG (c, s), The weights for M BY (c, s) and M O (c, s, θ) may be changed.
なお、注目領域すなわちオブジェクトの抽出の手法は、上記の手法に限定されるものではなく、公知の任意の手法を用いることができる。 Note that the method of extracting the attention area, that is, the object is not limited to the above-described method, and any known method can be used.
制御部6は、CPU、作業領域となるRAM、およびトリミングルール学習装置1を動作させるためのプログラム等を記憶したROMを備える。
The
なお、学習時に行われる処理については以下の本実施形態の動作において説明する。 In addition, the process performed at the time of learning is demonstrated in the operation | movement of this embodiment below.
図3は本実施形態において行われる学習時に行われる処理を示すフローチャートである。なお、学習はユーザ単位で行われるものであり、学習を行うユーザのユーザIDが入力部4からあらかじめトリミングルール学習装置1に入力されているものとする。ユーザによる学習開始の指示が入力部4から行われることにより制御部6が処理を開始し、表示部3に学習対象の画像を表示する(ステップST1)。なお、学習対象の画像を表示する順序は、分類されたオブジェクト単位であってもランダムであってもよい。次いで、制御部6はユーザによりトリミング領域の指定がなされたか否かの監視を開始する(ステップST2)。ステップST2が肯定されると、学習部5のオブジェクト抽出部8が、ユーザが指定したトリミング領域の注目領域を抽出する(ステップST3)。
FIG. 3 is a flowchart showing processing performed at the time of learning performed in the present embodiment. Note that learning is performed on a user-by-user basis, and it is assumed that the user ID of the user who performs the learning is input to the trimming
図4はトリミングを説明するための図、図5はオブジェクトの抽出を説明するための図である。図4に示すようにトリミング前の画像(以下原画像とする)S0が花を含み、ユーザが指定したトリミング領域をT0とする。この場合、トリミング領域T0に含まれる被写体は、花および背景となる山の一部であるが、花が注目領域となる。このため、花の領域がオブジェクトとして抽出される。なお、花びらを含む輪郭形状(図5に破線で示す)に囲まれる領域A0と比較すると、注目領域は花の中央部分にのみ相当する領域A1となる。オブジェクト抽出部8は、花の中央部分に相当する注目領域A1をオブジェクトO1として抽出する。
FIG. 4 is a diagram for explaining trimming, and FIG. 5 is a diagram for explaining object extraction. As shown in FIG. 4, an image before trimming (hereinafter referred to as an original image) S0 includes a flower, and a trimming area designated by the user is denoted as T0. In this case, the subject included in the trimming area T0 is a part of a mountain that is a flower and a background, but the flower is an attention area. For this reason, a flower region is extracted as an object. Note that, compared with the region A0 surrounded by the contour shape including the petals (indicated by a broken line in FIG. 5), the region of interest is a region A1 corresponding to only the central portion of the flower. The
次いで、学習部5は、トリミング領域T0の構図に基づいて、原画像S0におけるオブジェクトの位置、トリミング領域T0におけるオブジェクトの位置、原画像S0に対するオブジェクトの面積比およびトリミング領域T0におけるオブジェクトの面積比を、トリミング領域T0の構図を表す構図情報として取得する(ステップST4)。
Next, the
ここで、原画像S0におけるオブジェクトO1の位置とは、図6に示すようにオブジェクトO1の原画像S0の上右下左の4辺からの距離L1〜L4である。トリミング領域T0におけるオブジェクトO1の位置とは、図7に示すようにオブジェクトO1のトリミング領域T0の上右下左の4辺からの距離LT1〜LT4である。原画像S0に対するオブジェクトO1の面積比H1は、原画像S0の面積に対するオブジェクトO1の面積であり、例えば10%というように百分率で表す。トリミング領域T0におけるオブジェクトの面積比H2は、トリミング領域T0の面積に対するオブジェクトO1の面積であり、例えば20%というように百分率で表す。 Here, the position of the object O1 in the original image S0 is distances L1 to L4 from the upper, lower, left, and four sides of the original image S0 of the object O1, as shown in FIG. The position of the object O1 in the trimming area T0 is the distances LT1 to LT4 from the four upper and lower left and right sides of the trimming area T0 of the object O1 as shown in FIG. The area ratio H1 of the object O1 with respect to the original image S0 is the area of the object O1 with respect to the area of the original image S0, and is expressed as a percentage, for example, 10%. The area ratio H2 of the object in the trimming region T0 is the area of the object O1 with respect to the area of the trimming region T0, and is expressed as a percentage, for example, 20%.
そして学習部5は、学習結果であるトリミングルールを、取得した構図情報により更新することにより、トリミングルールを学習する(ステップST5)。なお、トリミングルールの更新とは、現在学習中のユーザについて、現時点までに学習結果データベースDB1に登録された特定のオブジェクトについてのトリミングルールに含まれる構図情報と、新たに取得した構図情報との平均を算出することをいう。例えば、図8に示すように1つの構図情報のみにより得られた学習結果データベースDB1に登録されたあるオブジェクトについてのトリミングルールがRold、新たに取得した構図情報がK0である場合、トリミングルールRoldの各構図情報の値と新たに取得した構図情報K0の値との平均値を算出することにより、更新されたトリミングルールRnewが得られる。なお、平均を算出するのみならず、学習対象の画像について取得した構図情報をすべて記憶することによりトリミングルールRを更新するようにしてもよい。
And the learning
次いで、制御部6は画像記録部2に記録されているすべての画像について学習を行ったか否かを判定し(ステップST6)、ステップST6が否定されると、学習対象を次の画像に変更し(ステップST7)、ステップST1の処理に戻る。ステップST6が肯定されるとそのユーザについてのトリミングルールの学習を終了する。
Next, the
図9はトリミングルールの学習結果データベースを示す図である。図9に示すように学習結果データベースDB1には、複数のユーザのユーザID(001,002…)が登録されており、各ユーザIDには、空、花、海、山、集合写真、正面顔ポートレート、斜め顔ポートレート等のオブジェクトが登録されている。そして各オブジェクトには、学習により得られたトリミングルールが登録されている。 FIG. 9 is a diagram showing a trimming rule learning result database. As shown in FIG. 9, user IDs (001, 002...) Of a plurality of users are registered in the learning result database DB1, and each user ID has a sky, a flower, the sea, a mountain, a group photo, and a front face. Objects such as portraits and oblique face portraits are registered. In each object, a trimming rule obtained by learning is registered.
図10は本実施形態によるトリミングルール学習装置1により学習されたトリミングルールを用いて画像のトリミングを行うトリミング装置の構成を示す概略ブロック図である。図10に示すようにトリミング装置20は、トリミングの対象となる画像が記録されたメディア21からの画像の読み出しおよびメディア21への画像の記録を制御する記録制御部22と、上述したトリミングルール学習装置1により学習がなされたトリミングルールが登録された学習結果データベースDB1と、トリミングを行うトリミング部23と、各種表示を行う液晶モニタ等の表示部24と、各種入力を行う入力部25と、各部を制御する制御部26とを備え、各部がバス27により接続されている。
FIG. 10 is a schematic block diagram illustrating a configuration of a trimming apparatus that trims an image using the trimming rules learned by the trimming
制御部26は、CPU、作業領域となるRAM、およびトリミングルール学習装置1を動作させるためのプログラム等を記憶したROMを備える。
The
以下このようなトリミング装置20において行われる処理について説明する。図11はトリミング装置20が行うトリミング処理を示すフローチャートである。トリミングを開始する指示をユーザが入力部25から行うことにより制御部26が処理を開始し、入力部25からのユーザIDおよびトリミングを行う画像の指定を受け付ける(ステップST11)。そして、記録制御部22が指定された処理対象の画像S1をメディア21から読み出し(ステップST12)、トリミング部23が処理対象の画像S1に含まれるオブジェクトの認識を行う(ステップST13)。なお、オブジェクトの認識を行うことなく、トリミングを行う画像に含まれるオブジェクトの種類をユーザが入力部25から入力するようにしてもよい。
Hereinafter, processing performed in the
そして、トリミング部23は、ユーザIDおよびオブジェクトの認識結果に基づいて、学習結果データベースDB1を参照して、作業中のユーザおよびトリミングを行う画像に含まれるオブジェクトに応じたトリミングルールを取得する(ステップST14)。なお、学習結果データベースDB1が、学習対象の画像についてすべての構図情報を取得している場合には、ランダムに構図情報を選択し、選択した構図情報をトリミングルールとして取得する。そして、トリミング部23は、取得したトリミングルールに基づいて処理対象の画像S1をトリミングし(ステップST15)、トリミング結果を表示部24に表示し(ステップST16)、処理を終了する。
Then, the trimming
このように本実施形態においては、含まれるオブジェクト毎にあらかじめ分類された画像を表示し、表示された画像に対するユーザによるトリミング領域の指定を受け付け、複数の画像についてのトリミング領域の構図に基づいて、ユーザ単位でオブジェクト毎に画像についてのトリミングルールを学習するようにしたものである。このため、学習結果である学習結果データベースDB1を用いて自動で画像のトリミングを行うことにより、画像に含まれるオブジェクトをユーザが所望とする構図となるようにトリミングすることができる。 As described above, in the present embodiment, an image classified in advance for each included object is displayed, the designation of the trimming area by the user for the displayed image is received, and based on the composition of the trimming area for a plurality of images, A trimming rule for an image is learned for each object on a user basis. For this reason, by automatically trimming an image using the learning result database DB1 which is a learning result, an object included in the image can be trimmed so as to have a composition desired by the user.
以上、本発明の実施形態に係る装置1について説明したが、コンピュータを、上記の学習部5に対応する手段として機能させ、図3に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。
The
1 トリミングルール学習装置
2 画像記録部
3 表示部
4 入力部
5 学習部
6 制御部
7 バス
8 オブジェクト抽出部
DB1 学習結果データベース
DESCRIPTION OF
Claims (4)
前記表示された画像に対するユーザによるトリミング領域の指定を受け付ける入力手段と、
複数の画像についての前記トリミング領域の構図に基づいて、ユーザ単位でオブジェクト毎に画像についてのトリミングルールを学習するに際し、前記トリミング領域に含まれるオブジェクトを抽出し、前記トリミング領域の構図に基づいて、前記トリミング前の原画像における前記オブジェクトの位置、前記トリミング領域における前記オブジェクトの位置、前記原画像に対する前記オブジェクトの面積比および前記トリミング領域に対する前記オブジェクトの面積比を構図情報として取得し、該構図情報を前記トリミングルールとして学習する学習手段とを備えたことを特徴とするトリミングルール学習装置。 Display means for displaying pre-classified images for each included object;
Input means for accepting designation of a trimming region by the user for the displayed image;
Based on the composition of the trimming area for a plurality of images, when learning the trimming rule for the image for each object in units of users, the object included in the trimming area is extracted, and based on the composition of the trimming area, The position of the object in the original image before trimming, the position of the object in the trimming area, the area ratio of the object to the original image, and the area ratio of the object to the trimming area are obtained as composition information, and the composition information A trimming rule learning device comprising: learning means for learning as a trimming rule.
前記表示された画像に対するユーザによるトリミング領域の指定を受け付け、
複数の画像についての前記トリミング領域の構図に基づいて、ユーザ単位でオブジェクト毎に画像についてのトリミングルールを学習するに際し、前記トリミング領域に含まれるオブジェクトを抽出し、
前記トリミング領域の構図に基づいて、前記トリミング前の原画像における前記オブジェクトの位置、前記トリミング領域における前記オブジェクトの位置、前記原画像に対する前記オブジェクトの面積比および前記トリミング領域に対する前記オブジェクトの面積比を構図情報として取得し、
該構図情報を前記トリミングルールとして学習することを特徴とするトリミングルール学習方法。 Display pre-classified images for each included object,
Accepting a user to specify a trimming area for the displayed image;
Based on the composition of the trimming area for a plurality of images, when learning the trimming rules for the image for each object in units of users, the objects included in the trimming area are extracted,
Based on the composition of the trimming area, the position of the object in the original image before trimming, the position of the object in the trimming area, the area ratio of the object to the original image, and the area ratio of the object to the trimming area Acquired as composition information,
A trimming rule learning method comprising learning the composition information as the trimming rule .
前記表示された画像に対するユーザによるトリミング領域の指定を受け付ける手順と、
複数の画像についての前記トリミング領域の構図に基づいて、ユーザ単位でオブジェクト毎に画像についてのトリミングルールを学習するに際し、前記トリミング領域に含まれるオブジェクトを抽出する手順と、
前記トリミング領域の構図に基づいて、前記トリミング前の原画像における前記オブジェクトの位置、前記トリミング領域における前記オブジェクトの位置、前記原画像に対する前記オブジェクトの面積比および前記トリミング領域に対する前記オブジェクトの面積比を構図情報として取得する手順と、
該構図情報を前記トリミングルールとして学習する手順とを有することを特徴とするトリミングルール学習方法をコンピュータに実行させるためのプログラム。 A procedure for displaying pre-classified images for each included object;
A procedure for accepting designation of a trimming region by the user for the displayed image;
A procedure for extracting an object included in the trimming area when learning a trimming rule for the image for each object on a per-user basis based on the composition of the trimming area for a plurality of images ;
Based on the composition of the trimming area, the position of the object in the original image before trimming, the position of the object in the trimming area, the area ratio of the object to the original image, and the area ratio of the object to the trimming area The procedure to get as composition information,
A program for causing a computer to execute a trimming rule learning method comprising learning the composition information as the trimming rule .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008137361A JP5006839B2 (en) | 2008-05-27 | 2008-05-27 | Trimming rule learning apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008137361A JP5006839B2 (en) | 2008-05-27 | 2008-05-27 | Trimming rule learning apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009290249A JP2009290249A (en) | 2009-12-10 |
JP5006839B2 true JP5006839B2 (en) | 2012-08-22 |
Family
ID=41459086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008137361A Active JP5006839B2 (en) | 2008-05-27 | 2008-05-27 | Trimming rule learning apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5006839B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6580625B2 (en) * | 2017-05-19 | 2019-09-25 | ヤフー株式会社 | Image processing apparatus, image editing apparatus, and program |
JP7392341B2 (en) | 2019-09-17 | 2023-12-06 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and information processing program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4052128B2 (en) * | 2003-01-23 | 2008-02-27 | セイコーエプソン株式会社 | Image trimming apparatus, image trimming method, and program |
JP2006246211A (en) * | 2005-03-04 | 2006-09-14 | Nikon Corp | Image data processor |
JP2006279252A (en) * | 2005-03-28 | 2006-10-12 | Fuji Photo Film Co Ltd | Image trimming apparatus, method and program |
JP4625356B2 (en) * | 2005-03-30 | 2011-02-02 | セイコーエプソン株式会社 | Image trimming with reduced user burden |
JP2007266782A (en) * | 2006-03-27 | 2007-10-11 | Fujifilm Corp | Image management apparatus, image management method, and program |
-
2008
- 2008-05-27 JP JP2008137361A patent/JP5006839B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009290249A (en) | 2009-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5016541B2 (en) | Image processing apparatus and method, and program | |
CN106651872B (en) | Pavement crack identification method and system based on Prewitt operator | |
RU2479037C2 (en) | Device and method to process image, trained device and training method, and program | |
CN106709517B (en) | Mangrove forest identification method and system | |
CN111401324A (en) | Image quality evaluation method, device, storage medium and electronic equipment | |
JP7142420B2 (en) | Image processing device, learning method, trained model, image processing method | |
CN109657612B (en) | Quality sorting system based on facial image features and application method thereof | |
US20160140416A1 (en) | Method and system for classifying painted road markings in an automotive driver-vehicle-asistance device | |
US9600888B2 (en) | Image processing device, image processing method, and program | |
WO2007074844A1 (en) | Detecting method and detecting system for positions of face parts | |
CN105678318B (en) | The matching process and device of traffic sign | |
CN109948566A (en) | A kind of anti-fraud detection method of double-current face based on weight fusion and feature selecting | |
JP2009268085A (en) | Image trimming device and program | |
DE102018003475A1 (en) | Form-based graphic search | |
JP4639754B2 (en) | Image processing device | |
CN111489330A (en) | Weak and small target detection method based on multi-source information fusion | |
JP5016540B2 (en) | Image processing apparatus and method, and program | |
CN112949453A (en) | Training method of smoke and fire detection model, smoke and fire detection method and smoke and fire detection equipment | |
CN116416628A (en) | Handwriting font recognition based method and recognition system | |
JP5006839B2 (en) | Trimming rule learning apparatus and method, and program | |
US9361527B1 (en) | Method and system for classifying painted road markings in an automotive driver vehicle-assistance device | |
CN112839167B (en) | Image processing method, device, electronic equipment and computer readable medium | |
CN106778777A (en) | A kind of vehicle match method and system | |
CN109377524B (en) | Method and system for recovering depth of single image | |
Greco et al. | Saliency based aesthetic cut of digital images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110124 |
|
RD15 | Notification of revocation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7435 Effective date: 20110418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120501 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120525 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150601 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5006839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |