JP2009245404A - Image processor, method and program - Google Patents

Image processor, method and program Download PDF

Info

Publication number
JP2009245404A
JP2009245404A JP2008094499A JP2008094499A JP2009245404A JP 2009245404 A JP2009245404 A JP 2009245404A JP 2008094499 A JP2008094499 A JP 2008094499A JP 2008094499 A JP2008094499 A JP 2008094499A JP 2009245404 A JP2009245404 A JP 2009245404A
Authority
JP
Japan
Prior art keywords
image
original image
partial
partial image
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008094499A
Other languages
Japanese (ja)
Other versions
JP5016540B2 (en
Inventor
Masashi Norimatsu
正志 乗松
Mutsuo Imai
睦朗 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008094499A priority Critical patent/JP5016540B2/en
Publication of JP2009245404A publication Critical patent/JP2009245404A/en
Application granted granted Critical
Publication of JP5016540B2 publication Critical patent/JP5016540B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To create a partial image by automatically extracting an image portion to be noticed in an image, on the basis of a trimming rule. <P>SOLUTION: A partial image Q reflecting user preference or habit is created by: storing an original image P; storing a trimming rule R obtained by storing the original image P and learning the configuration information of a predetermined partial image cut out from a predetermined original image; obtaining the degrees to which the features of parts in the original image P are different from the features of parts, existing in the periphery thereof, on the basis of colors and brightness of the original image P and the direction of a straight line component appearing in the original image P; extracting an area to be noticed from the original image P according to the degree; and cutting out an image within a predetermined range, including the extracted area to be noticed from the original image P on the basis of the stored trimming rule R. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、オリジナル画像から所望とする注目領域を含む所定の範囲内の画像を、オリジナル画像から切り出すことにより部分画像を作成する画像処理装置および方法並びにプログラムに関するものである。   The present invention relates to an image processing apparatus, method, and program for creating a partial image by cutting out an image within a predetermined range including a desired region of interest from an original image from the original image.

従来から、写真を切り抜いて、文章やイラストなどと一緒に飾り付けした作品を楽しんでいた。特に、近年ではデジタル画像を用いてパソコン上で同様の加工を行っている。   Traditionally, I have enjoyed works that cut out photos and decorated them with text and illustrations. In particular, in recent years, similar processing has been performed on a personal computer using digital images.

具体的には、デジタル画像から素材となるオブジェクト部分を部分画像として切り出すことによってこのような加工を行っているが、このような素材となる部分画像の作成は、人間が目視で使用したいオブジェクト領域を画像の中から選び出して必要な部分を切り出している。しかし、多数の画像の中から、適切な領域を選択し、最適なオブジェクト領域を抽出するためには大変時間がかかる。   Specifically, this kind of processing is performed by cutting out the object part that becomes the material from the digital image as a partial image, but the creation of such a partial image that becomes the material is the object area that humans want to use visually Is extracted from the image and necessary parts are cut out. However, it takes a very long time to select an appropriate area from a large number of images and extract an optimal object area.

そこで、人間の顔のように特定のオブジェクトを切り出す際には、そのオブジェクトに対応した検出技術(例えば、顔検出技術)を用いて画像から特定のオブジェクト(例えば、顔部分)であるか否かを示す指標に基づいて、そのオブジェクトを独立した画像として切り出す手法を提案したものがある(例えば、特許文献1)。
特開2004−228995号公報
Therefore, when a specific object such as a human face is cut out, whether or not it is a specific object (for example, a face portion) from an image using a detection technique (for example, a face detection technique) corresponding to the object. There is a proposal of a method of cutting out an object as an independent image based on an index indicating (for example, Patent Document 1).
Japanese Patent Application Laid-Open No. 2004-228995

しかしながら、特定のオブジェクトであるか否かを示す指標に基づいて、そのオブジェクトを独立した画像として切り出しても、ユーザの好みや癖を反映した切り出し範囲により部分画像を作成することができない。   However, even if the object is cut out as an independent image based on the index indicating whether or not the object is a specific object, a partial image cannot be created with a cut-out range reflecting the user's preference and habit.

そこで、本発明は、上記事情に鑑みてなされたものであり、ユーザの好みや癖を反映した部分画像を作成することができる画像処理装置および方法並びにプログラムを提供することを目的とするものである。   Therefore, the present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus, method, and program capable of creating a partial image reflecting user preferences and habits. is there.

本発明の画像処理装置は、オリジナル画像を記憶するオリジナル画像記憶手段と、所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶するトリミングルール記憶手段と、オリジナル画像の色、明度、および、オリジナル画像に現れた直線成分の方向に基づいて、オリジナル画像中の各部分の特徴が部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域をオリジナル画像の中から抽出する注目領域抽出手段と、トリミングルール記憶手段に記憶されているトリミングルールに基づいて、注目領域抽出手段により抽出された注目領域を含む所定の範囲内の画像を、オリジナル画像から切り出すことにより部分画像を作成する部分画像作成手段とを備えることを特徴とするものである。   An image processing apparatus according to the present invention includes an original image storage unit that stores an original image, and a trimming rule storage that stores a trimming rule obtained by learning composition information of a predetermined partial image cut out from the predetermined original image. Based on the means, the color and brightness of the original image, and the direction of the linear component appearing in the original image, the degree of difference between the characteristics of each part in the original image and the characteristics of the part located around the part is determined. The attention area extracting means for extracting the attention area from the original image according to these degrees, and a predetermined area including the attention area extracted by the attention area extraction means based on the trimming rule stored in the trimming rule storage means Partial image that creates a partial image by cutting out an image within the range of the original image It is characterized in further comprising a forming unit.

「注目領域」とは、オリジナル画像上の視覚的に注目される領域をいうが、「注目領域」には、真に視覚的に注目されるか否かにかかわらず、視覚的に注目される可能性が高いと判定された領域を含むものである。視覚的に注目される領域は、周囲の画像と色、明度、および、オリジナル画像に現れた直線成分の方向などが異なるために注目されることが多いので、色、明度、および、オリジナル画像に現れた直線成分が周囲と異なる領域を「注目領域」として抽出する。   The “attention area” is an area that is visually noticed on the original image, but the “attention area” is visually noticed regardless of whether or not it is truly visually noticed. It includes areas determined to be highly likely. The area that is visually noticeable is often noticed because the color, brightness, and direction of the linear component that appeared in the original image are different from the surrounding image. A region where the appearing linear component is different from the surrounding is extracted as a “region of interest”.

「注目領域を含む所定の範囲内の画像を前記オリジナル画像から切り出す」は、注目領域の全体ではなく少なくとも一部が含まれるように画像を切り出せばよい。また、切り出した1つの画像内に複数の注目領域が含まれるように切り出してもよい。   “Cut out an image within a predetermined range including a region of interest from the original image” may be performed by cutting out the image so that at least a part of the region of interest is included. Further, it may be cut out so that a plurality of attention areas are included in one cut out image.

「トリミングルール」とは、オリジナル画像から所定の範囲の画像を切り出すための情報を数値等により示したデータをいう。例えば、トリミングルールが、所定の部分画像内に表れるオブジェクトの種類、位置、大きさ、向きのいずれか一つ以上の情報に基づくトリミングルールであってもよい。   The “trimming rule” refers to data indicating information for cutting out an image in a predetermined range from an original image by a numerical value or the like. For example, the trimming rule may be a trimming rule based on one or more pieces of information on the type, position, size, and orientation of an object appearing in a predetermined partial image.

本発明の画像処理装置は、部分画像作成手段により作成された部分画像を表示する表示手段とを更に備えたものであってもよい。   The image processing apparatus of the present invention may further include display means for displaying the partial image created by the partial image creation means.

本発明の画像処理装置は、所定の部分画像の構図情報および部分画像作成手段により作成された部分画像の構図情報を学習して、トリミングルールを更新するトリミングルール更新手段を更に備えたものであってもよい。   The image processing apparatus according to the present invention further includes trimming rule updating means for learning the composition information of a predetermined partial image and the composition information of the partial image created by the partial image creating means, and updating the trimming rule. May be.

本発明の画像処理装置は、注目領域抽出手段が、抽出した各注目領域に対する注目度を算出するものであり、表示手段が、注目度が高い注目領域を含む部分画像から順次に表示するものであってもよい。   In the image processing apparatus of the present invention, the attention area extraction unit calculates the attention level for each extracted attention area, and the display means sequentially displays the partial images including the attention area having a high attention level. There may be.

本発明の画像処理装置は、部分画像作成手段により、オリジナル画像から切り出すことにより作成された部分画像の切り出し範囲を変更するよう指示する指示手段とを更に備え、部分画像作成手段が、指示手段により指示された切り出し範囲が変更された部分画像を作成するものであってもよい。   The image processing apparatus of the present invention further includes instruction means for instructing the partial image creation means to change the clipping range of the partial image created by cutting out from the original image, and the partial image creation means is A partial image in which the designated cutout range is changed may be created.

本発明の画像処理装置は、注目領域抽出手段が、オリジナル画像を解析して、オリジナル画像に表れる特定種類のオブジェクトの有無を判別するオブジェクト判別手段とを更に備えるものであってもよい。   In the image processing apparatus according to the present invention, the attention area extraction unit may further include an object determination unit that analyzes the original image and determines the presence or absence of a specific type of object appearing in the original image.

「注目領域抽出手段」が、抽出した各注目領域に対する注目度を算出するものであり、「表示手段」が、前記注目度が高い注目領域を含む部分画像から順番に表示するものであってもよい。   The “attention area extraction unit” calculates the attention level for each extracted attention area, and the “display unit” displays the partial images including the attention area with the higher attention level in order. Good.

本発明の画像処理方法は、オリジナル画像を記憶し、オリジナル画像を記憶し、所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶し、オリジナル画像の色、明度、および、オリジナル画像に現れた直線成分の方向に基づいて、オリジナル画像中の各部分の特徴が部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域をオリジナル画像の中から抽出し、記憶されているトリミングルールに基づいて、抽出された注目領域を含む所定の範囲内の画像を、オリジナル画像から切り出すことにより部分画像を作成することを特徴とするものである。   The image processing method of the present invention stores an original image, stores the original image, stores a trimming rule obtained by learning composition information of a predetermined partial image cut out from the predetermined original image, and stores the original image. Based on the color and brightness of the image, and the direction of the linear component appearing in the original image, the degree of difference between the characteristics of each part in the original image and the characteristics of the parts located around the part is obtained. In response, an attention area is extracted from the original image, and a partial image is created by cutting out an image within a predetermined range including the extracted attention area from the original image based on a stored trimming rule. It is characterized by.

本発明のプログラムは、コンピュータに、オリジナル画像を記憶する機能と、所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶する機能と、オリジナル画像の色、明度、および、前記オリジナル画像に現れた直線成分の方向に基づいて、オリジナル画像中の各部分の特徴が該部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域をオリジナル画像の中から抽出する機能と、記憶されているトリミングルールに基づいて、抽出された注目領域を含む所定の範囲内の画像を、オリジナル画像から切り出すことにより部分画像を作成する機能とを実行させるものである。   The program of the present invention has a function of storing an original image in a computer, a function of storing a trimming rule obtained by learning composition information of a predetermined partial image cut out from the predetermined original image, and an original image Based on the color, brightness, and direction of the linear component appearing in the original image, the degree of difference between the characteristics of each part in the original image and the characteristics of the part located around the part is obtained. In accordance with the function of extracting the attention area from the original image and the trimming rule stored, the image within the predetermined range including the extracted attention area is cut out from the original image. The function to be created is executed.

本発明によれば、オリジナル画像を記憶し、オリジナル画像を記憶し、所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶し、オリジナル画像の色、明度、および、オリジナル画像に現れた直線成分の方向に基づいて、オリジナル画像中の各部分の特徴が部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域をオリジナル画像の中から抽出し、記憶されているトリミングルールに基づいて、抽出された注目領域を含む所定の範囲内の画像を、オリジナル画像から切り出すことにより、ユーザの好みや癖を反映した部分画像を作成することができる。   According to the present invention, the original image is stored, the original image is stored, the trimming rule obtained by learning the composition information of the predetermined partial image cut out from the predetermined original image is stored, and the original image is stored. Based on the color, brightness, and the direction of the linear component appearing in the original image, the degree of difference between the features of each part in the original image is different from the characteristics of the parts located around the part, and according to these degrees Extract the attention area from the original image, and based on the stored trimming rules, cut out the image within the specified range including the extracted attention area from the original image to reflect the user's preference and habit Partial images can be created.

以下、図面を参照しつつ、本発明の第1の実施の形態について説明する。図1に、本発明の画像処理装置の概略構成図を示す。   The first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration diagram of an image processing apparatus of the present invention.

画像処理装置1は、補助記憶装置に読み込まれたアプリケーションプログラムがコンピュータ(例えば、ワークステーション等)上で実行されることにより実現される。画像処理プログラムは、CD−ROM等の記録媒体として配布され、記録媒体からコンピュータにインストールされても良いし、インターネット等のネットワーク経由で接続されたサーバからダウンロードされた後にインストールされてもよい。   The image processing apparatus 1 is realized by executing an application program read into an auxiliary storage device on a computer (for example, a workstation). The image processing program may be distributed as a recording medium such as a CD-ROM and installed on the computer from the recording medium, or may be installed after being downloaded from a server connected via a network such as the Internet.

画像処理装置1は、オリジナル画像Pを記憶するオリジナル画像記憶手段10と、部分画像作成のために用いられた複数のオリジナル画像からそれぞれ切り出された複数の部分画像の構図情報を学習することによって得られたトリミングルールRを記憶するトリミングルール記憶手段15と、オリジナル画像Pの色、明度、および、このオリジナル画像Pに現れた直線成分の方向に基づいて、オリジナル画像Pの中から注目領域を抽出する注目領域抽出手段11と、トリミングルール記憶手段15に記憶されているトリミングルールRに基づいて、注目領域抽出手段11により抽出された注目領域を含む所定の範囲内の画像を、オリジナル画像Pから切り出すことにより部分画像Qを作成する部分画像作成手段12と、部分画像Qを表示する表示手段13とを備える。   The image processing apparatus 1 is obtained by learning original image storage means 10 for storing an original image P and composition information of a plurality of partial images cut out from a plurality of original images used for partial image creation. A region of interest is extracted from the original image P based on the trimming rule storage means 15 for storing the trimming rule R, the color and brightness of the original image P, and the direction of the linear component appearing in the original image P. An image within a predetermined range including the attention area extracted by the attention area extraction means 11 based on the attention area extraction means 11 and the trimming rule R stored in the trimming rule storage means 15 from the original image P. The partial image creating means 12 for creating the partial image Q by cutting out and the partial image Q are displayed. And a indicates means 13.

オリジナル画像記憶手段10は、ハードディスクなどの大容量記憶装置や画像処理装置1に接続された記録媒体などである。オリジナル画像記憶手段10には、デジタルスチールカメラやデジタルビデオカメラによって撮影された撮影画像、あるいは、イラストレーターなどの画像作成用ソフトなど用いて作成したイラスト画像などがオリジナル画像Pとして多数記憶されている。このオリジナル画像Pは、静止画像のことをいう。以下、オリジナル画像Pは静止画像として説明する。   The original image storage means 10 is a mass storage device such as a hard disk or a recording medium connected to the image processing device 1. The original image storage means 10 stores a large number of original images P taken by digital still cameras or digital video cameras, or illustration images created using image creation software such as an illustrator. This original image P refers to a still image. Hereinafter, the original image P will be described as a still image.

注目領域抽出手段11は、オリジナル画像Pを目視で確認したときに注目される部分を注目領域として抽出する。例えば、オリジナル画像P上の一部の色が周囲の色と異なる部分、オリジナル画像P上の一部が周囲に比べて非常に明るい部分、平坦な画面上に現れた直線部分などが画像を見たとき注目される領域となる。そこで、オリジナル画像Pの色、明度、および、オリジナル画像Pに現れた直線成分の方向に基づいて、オリジナル画像P中の各部分の特徴がその部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの異なる度合いが大きいところを注目領域として抽出する。   The attention area extracting unit 11 extracts a portion that is noticed when the original image P is visually confirmed as an attention area. For example, a part of the color on the original image P is different from the surrounding color, a part on the original image P is very bright compared to the surroundings, a straight line part appearing on a flat screen, etc. It becomes an area that attracts attention. Therefore, based on the color and brightness of the original image P, and the direction of the linear component appearing in the original image P, the degree to which the characteristics of each part in the original image P differ from the characteristics of the parts located around that part. In search of these, a region having a large degree of difference is extracted as a region of interest.

このように視覚的に注目される注目領域は、色、明度、画像中に現れた直線成分などの画像を構成する要素が周囲と異なる特徴を持っている。そこで、オリジナル画像Pの色(Color)、オリジナル画像Pの明度(Intensity)、オリジナル画像Pに現れた直線成分の方向(Orientation)を用いて、画像中の各部分の特徴が、その部分の周囲に位置する部分の特徴と異なる度合いを求め、異なる度合いが大きい部分が視覚的に注目される注目領域であると考えられる。具体的には、IttiやKoch達によって提案された手法を用いて、視覚的に注目される注目領域を自動的に抽出することができる(例えば、IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 11, NOVEMBER 1998 “A Model of Saliency-Based Visual Action for Rapid Scene Analysis”, Laurent Itti, Christof Koch and Emst Neiburを参照)。   In this way, the region of interest that is visually noticed has elements that make up the image, such as color, brightness, and linear components that appear in the image, different from the surroundings. Therefore, using the color of the original image P (Color), the intensity of the original image P (Intensity), and the direction of the linear component that appears in the original image P (Orientation), the characteristics of each part in the image The degree of difference from the feature of the part located at is obtained, and the part with a large degree of difference is considered to be the attention area that is visually noticed. Specifically, using the method proposed by Itti and Koch et al., It is possible to automatically extract a visually noticeable area of interest (for example, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20 , NO. 11, NOVEMBER 1998 “A Model of Saliency-Based Visual Action for Rapid Scene Analysis”, Laurent Itti, Christof Koch and Emst Neibur).

図2に従って、この手法を用いて注目領域を抽出する処理の流れについて説明する。   A flow of processing for extracting a region of interest using this method will be described with reference to FIG.

まず、オリジナル画像Pにフィルタリング処理を施して明度をあらわす画像と複数の色成分に分けた色成分の画像とをそれぞれ生成する(Step1)。   First, the original image P is subjected to filtering processing to generate an image representing brightness and an image of color components divided into a plurality of color components (Step 1).

まず、オリジナル画像Pから明度の画像Iを生成して、さらに、明度の画像IのGaussian pyramidを生成する。このGaussian pyramidの各階層の画像をI(σ)(σは画素のスケールを表し、σ∈[0..8]とする)とする。   First, a lightness image I is generated from the original image P, and further, a Gaussian pyramid of the lightness image I is generated. An image of each layer of this Gaussian pyramid is assumed to be I (σ) (σ represents a pixel scale, and σ∈ [0..8]).

次に、オリジナル画像Pを4つの色成分の画像R(赤),G(緑),B(青),Y(黄)に分ける。さらに、これらの画像R,G,B,Yから4種類のGaussian pyramidを生成して、各階層の画像をR(σ)、G(σ)、B(σ)、Y(σ)とする。   Next, the original image P is divided into four color component images R (red), G (green), B (blue), and Y (yellow). Further, four types of Gaussian pyramid are generated from these images R, G, B, and Y, and the images of each layer are defined as R (σ), G (σ), B (σ), and Y (σ).

そこで、これらの画像I(σ)、R(σ)、G(σ)、B(σ)、Y(σ)からオリジナル画像P上の各部分の特徴がその周囲の部分とどの程度異なるかを表す特徴量マップを生成する(Step2)。   Therefore, to what extent the characteristics of each part on the original image P differ from the surrounding parts from these images I (σ), R (σ), G (σ), B (σ), Y (σ). A feature amount map to be expressed is generated (Step 2).

画面上のある部分の明度がその周囲の明度とは違うと感知される場所は、周囲が明るいところに暗い部分が存在する場所、あるいは、周囲が暗いところに明るい部分が存在する場所である。そこで、周囲の明度に比べて中心部分の明度がどの程度異なるかは、細かい画素で表された画像I(c)と、荒い画素で表された画像I(s)とを用いて求める。荒い画像I(s)の画素1個の値は、細かい画像I(c)の画素を複数個分の画素をまとめた値を表しているので、画像I(c)の画素の値(中心部の明度)と、この画素に対応する位置にある画像I(s)の画素の値(周囲の明度)の差を求める
ことによって、画像上の各部分が周囲とどの程度異なるかを求める(例えば、Center-Surround手法)ことができる。例えば、細かい画素で表された画像I(c)のスケールをc∈{2,3,4}とし、荒い画素で表された画像I(s)のスケールをs=c+δ(δ∈{3,4})として明度の特徴マップM(c,s)を求める。この明度の特徴マップM(c,s)は下式(1)のように表される。

Figure 2009245404
A place where the brightness of a certain part on the screen is different from the brightness of the surrounding area is a place where a dark part exists in a place where the surroundings are bright, or a place where a bright part exists in a place where the surroundings are dark. Therefore, how much the lightness of the central portion is different from the surrounding lightness is obtained using the image I (c) represented by fine pixels and the image I (s) represented by rough pixels. Since the value of one pixel of the rough image I (s) represents a value obtained by collecting a plurality of pixels of the fine image I (c), the value of the pixel (center portion) of the image I (c) And the value of the pixel of the image I (s) at the position corresponding to this pixel (peripheral lightness) to determine how much each part on the image differs from the surrounding (for example, , Center-Surround method). For example, the scale of the image I (c) represented by fine pixels is cε {2, 3, 4}, and the scale of the image I (s) represented by rough pixels is s = c + δ (δε {3, 4}), a brightness feature map M I (c, s) is obtained. The lightness feature map M I (c, s) is expressed by the following equation (1).
Figure 2009245404

各色成分についても同様に、R(σ)、G(σ)、B(σ)、Y(σ)から特徴マップを生成する。画面上のある部分の色がその周囲の色と違うと感知される場所は、色相環で正反対に位置する色(反対色)の組み合わせから見つけることができる。例えば、赤/緑と緑/赤の組み合わせから特徴マップMRG(c,s)を取得し、青/黄と黄/青の組み合わせから特徴マップMBY(c,s)を取得する。この色の特徴マップは下式(2)(3)のように表される。

Figure 2009245404
Similarly, for each color component, a feature map is generated from R (σ), G (σ), B (σ), and Y (σ). A place where the color of a certain part on the screen is detected as different from the surrounding color can be found from a combination of colors (opposite colors) positioned in opposite directions in the hue circle. For example, the feature map M RG (c, s) is acquired from the combination of red / green and green / red, and the feature map M BY (c, s) is acquired from the combination of blue / yellow and yellow / blue. This color feature map is expressed by the following equations (2) and (3).
Figure 2009245404

さらに、画像上に表れた直線成分の方向について、各部分に現れた直線成分の方向とその周囲の直線成分との違いが感知される部分は、明度の画像Iから直線成分の方向を検出するGaborフィルターなどを利用して見つけることができる。I(σ)の各階層の画像に対してGaborフィルターを用いて、θ∈{0°,45°,90°,135°}の各方向の直線成分を検知して特徴マップM(c,s,θ)を取得する。この方向の特徴マップは下式(4)のように表される。

Figure 2009245404
Further, with respect to the direction of the linear component appearing on the image, the part where the difference between the direction of the linear component appearing in each part and the surrounding linear component is detected detects the direction of the linear component from the brightness image I. It can be found using a Gabor filter. A Gabor filter is used for images in each layer of I (σ) to detect a linear component in each direction of θ∈ {0 °, 45 °, 90 °, 135 °}, and a feature map M O (c, s, θ). The feature map in this direction is expressed as the following equation (4).
Figure 2009245404

c∈{2,3,4}とし、s=c+δ(δ∈{3,4})とした場合には、明度の特徴マップは6個、色の特徴マップは12個、方向に関する特徴マップは24個得られ、これらのマップを総合的にみて、視覚的に注目される注目領域を抽出する。   If c∈ {2, 3, 4} and s = c + δ (δ∈ {3,4)}, there are 6 brightness feature maps, 12 color feature maps, and direction feature maps. Twenty-four maps are obtained, and these maps are viewed comprehensively to extract a region of interest that is visually noted.

これらの42個の特徴マップM,MRG,MBY,Mは、ダイナミックレンジの違いや抽出する情報の違いなどにより、各部分とその周囲の違いが大きく表れるものとあまり大きく表れないものがある。そのため、42個の特徴マップM,MRG,MBY,Mの値をそのまま用いて判定を行ったのでは、違いが大きい特徴マップに影響されて、違いが少ない特徴マップの情報が反映されない場合がある。そこで、これらの42個の特徴マップM,MRG,MBY,Mを規格化した後に組み合わせて、注目領域を抽出するようにするのが好ましい。 These 42 pieces of feature maps M I, M RG, M BY , M O is due to differences in information differences and extraction of the dynamic range, which does not appear the parts and so large that those surrounding the difference appears greater There is. Therefore, if the determination is made using the values of the 42 feature maps M I , M RG , M BY , and M O as they are, the feature map information with a small difference is reflected by the feature map having a large difference. May not be. Therefore, these 42 amino feature maps M I, M RG, M BY , combined after normalizing M O, preferably so as to extract a region of interest.

具体的には、例えば、明度の特徴マップM(c,s)の6個を規格化して組み合わせた明度の要素別注目度マップM を取得し、色の特徴マップMRG(c,s)、MBY(c,s)の12個を規格化して組み合わせた色の要素別注目度マップM を取得し、方向に関する特徴マップM(c,s,θ)の24個を規格化して組み合わせた方向の要素別注目度マップM を取得する(Step3)。さらに、要素別注目度マップM 、M 、M を線形結合して、オリジナル画像Pの各部分の注目度の分布を表した注目度マップMを取得する(Step4)。この注目度が所定の閾値を越えた領域を注目領域として抽出する(Step5)。 Specifically, for example, a brightness element-specific attention map M C I obtained by standardizing and combining six brightness characteristic maps M I (c, s) is acquired, and a color feature map M RG (c, s), M bY (c, 12 pieces to get the color element by saliency map M C C of the combination by normalizing the s), feature map M O (c relates direction, s, 24 pieces of theta) of to obtain the orientation of the elemental saliency map M C O which is combined normalized (Step3). Further, the attention level map M S representing the distribution of the attention level of each part of the original image P is obtained by linearly combining the element-specific attention level maps M C I , M C C and M C O (Step 4). A region where the degree of attention exceeds a predetermined threshold is extracted as a region of interest (Step 5).

また、注目領域を抽出する際に、オリジナル画像Pの色、明度、オリジナル画像Pに現れた直線成分の傾きが周囲と異なる度合いの影響を変えるように、オリジナル画像Pの色、明度、オリジナル画像Pに現れた直線成分の傾きのそれぞれの度合いと、各度合いそれぞれに対して重み付けした重み付け度合いを変えることによって、抽出される注目領域を変えることができる。例えば、要素別注目度マップM 、M 、M を線形結合するときの重みを変えることによって抽出される注目領域ROIを変えることができる。あるいは、要素別注目度マップM 、M 、M を取得するときに、各明度の特徴マップM(c,s)、色の特徴マップMRG(c,s)、MBY(c,s)、方向に関する特徴マップM(c,s,θ)のそれぞれのマップの影響を変えるように、各特徴マップM(c,s)、MRG(c,s)、MBY(c,s)、M(c,s,θ)に対する重みを変えるようしてもよい。 Further, when extracting the region of interest, the color, brightness, and original image of the original image P are changed so that the influence of the color, brightness, and inclination of the linear component that appears in the original image P is different from the surroundings. The attention area to be extracted can be changed by changing the degree of inclination of the linear component appearing in P and the weighting degree weighted for each degree. For example, the region of interest ROI extracted can be changed by changing the weight when linearly combining the element-specific attention maps M C I , M C C , and M C O. Alternatively, when the element-specific attention maps M C I , M C C , and M C O are acquired, the feature map M I (c, s) for each brightness, the color feature map M RG (c, s), M BY (c, s), to alter the effect of each map feature with respect to the direction map M O (c, s, θ ), each feature map M I (c, s), M RG (c, s), The weights for M BY (c, s) and M O (c, s, θ) may be changed.

また、注目領域抽出手段11が、オブジェクト判別手段(不図示)を更に備えていてもよい。   The attention area extraction unit 11 may further include an object determination unit (not shown).

オブジェクト判別手段は、オリジナル画像Pに基づいてオブジェクト(風景、夜景、地面、海、雪、山、花、夕焼け、パーティー、人物(顔を含む)、ベビー、スポーツ、ペット、魚、構造物等)の種類を解析するものである。   The object discriminating means is an object based on the original image P (landscape, night view, ground, sea, snow, mountain, flower, sunset, party, person (including face), baby, sports, pet, fish, structure, etc.) Is to analyze the type of.

オブジェクト判別手段におけるオブジェクト解析手法の一例としては、例えば、特開2005−310123号(以下、参考文献1という)の手法を本発明の画像処理装置に用いることができる。参考文献1の手法は、所望の特定オブジェクトに対応する特徴的部分の対象オリジナル画像内における配置の傾向を考慮し、かつそれらの位置や面積割合の変動をも考慮して、様々な特定オブジェクトの画像を選別する、特定のオブジェクト選別にあたり複数の識別器を用いており、特定の識別器の閾値または複数の閾値の総和により、特定のオブジェクトの認識を示す。なお、特定の識別器の閾値または複数の閾値の総和から算出される特定のオブジェクトであろうオブジェクトの確信度を求めることができる。   As an example of the object analysis method in the object discrimination means, for example, the method of Japanese Patent Application Laid-Open No. 2005-310123 (hereinafter referred to as Reference Document 1) can be used for the image processing apparatus of the present invention. The method of Reference 1 considers the tendency of the arrangement of characteristic portions corresponding to a desired specific object in the target original image, and also considers the variation of their position and area ratio, and various specific objects. A plurality of classifiers are used for selecting a specific object for selecting an image, and the recognition of a specific object is indicated by the threshold of the specific classifier or the sum of the thresholds. It is possible to determine the certainty of an object that is a specific object calculated from the threshold of a specific classifier or the sum of a plurality of thresholds.

また、特開2005−122720号(以下、参考文献2という)の手法を本発明の画像処理装置に用いることができる。参考文献2の手法は、特定オブジェクトとして指定され得る複数のオブジェクトごとに、そのオブジェクトの識別に用いる特徴量の種類と識別条件とを規定した参照データが、メモリ内に格納されている。特定オブジェクトとして指定され得る複数のオブジェクトの識別に用いるすべての特徴量を、選別対象のオリジナル画像から導出し、指定された特定オブジェクトに応じて、参照データが規定する特徴量の種類を参照し、それらの特徴量を選別対象のオリジナル画像から導出する。導出された特徴量に基づいて参照データ中の識別条件を参照し、所定の閾値であるか否か等により識別対象のオリジナル画像に特定オブジェクトの画像があるか否かを認識することを示す。   Also, the technique disclosed in Japanese Patent Application Laid-Open No. 2005-122720 (hereinafter referred to as Reference Document 2) can be used for the image processing apparatus of the present invention. In the technique of Reference 2, reference data that defines the type of feature quantity used for identifying an object and the identification condition is stored in a memory for each of a plurality of objects that can be designated as specific objects. All feature quantities used for identification of a plurality of objects that can be designated as specific objects are derived from the original image to be selected, referring to the type of feature quantity defined by the reference data according to the designated specific object, Those feature values are derived from the original image to be selected. The identification condition in the reference data is referred to based on the derived feature amount, and it is shown whether or not the original image to be identified includes the image of the specific object based on whether or not it is a predetermined threshold value.

また、上記所定の閾値または上記識別条件から算出される特定のオブジェクトであろうオブジェクトの確信度を求めることができる。   In addition, the certainty factor of an object that is a specific object calculated from the predetermined threshold or the identification condition can be obtained.

更に、オブジェクト判別手段は、オリジナル画像Pから人物の顔を検出することも可能である。具体的には、顔に含まれる顔の特徴を有する領域(例えば肌色を有する、目を有する、顔の形状を有する等)を顔領域として検出することも可能とする。   Furthermore, the object discriminating means can also detect a person's face from the original image P. Specifically, it is possible to detect a region having a facial feature included in the face (for example, having skin color, having eyes, or having a facial shape) as the facial region.

例えば、特開2006−202276号(以下、参考文献3という)の手法を本発明の画像処理装置に用いることができる。参考文献3の手法は、顔の追跡は、動きベクトル、特徴点検出等の公知の手法や学習データに対してリサンプリングの際に重みを逐次的に更新していき,できた機械を最後に学習機械に対する重みをつけて足し合わせて統合学習機械をつくる手法であるAdaboostに基づいたマシンラーニング手法を利用するものであることが考えられる。例えば、平均フレームモデルを実際のオリジナル画像Pの顔を示す画像に嵌め込み、平均フレームモデル上の各ランドマークの位置を、顔から検出された相対応するランドマークの位置に合致するように移動することによって平均フレームモデルを変形させて顔のフレームモデルを構築するのに際し、マシンラーニング手法により、所定のランドマークであることが分かっている複数のサンプル画像上の点における輝度プロファイルと、該ランドマークではないことが分かっている複数のサンプル画像上の点における輝度プロファイルとに対して学習を行って得た識別器および各識別器に対する識別条件を用いて、顔を示す画像から当該ランドマークを示す点の位置を検出する手法である。   For example, the technique disclosed in Japanese Patent Application Laid-Open No. 2006-202276 (hereinafter referred to as Reference Document 3) can be used for the image processing apparatus of the present invention. In the method of Reference 3, the face tracking is performed by updating the weights sequentially when re-sampling a known method or learning data such as motion vector and feature point detection. It is conceivable that a machine learning method based on Adaboost, which is a method of creating an integrated learning machine by adding weights to learning machines and adding them, is used. For example, the average frame model is fitted into an image showing the face of the actual original image P, and the position of each landmark on the average frame model is moved so as to match the position of the corresponding landmark detected from the face. When constructing a face frame model by deforming the average frame model, a luminance profile at points on a plurality of sample images that are known to be predetermined landmarks by a machine learning method, and the landmarks The landmark is shown from the image showing the face using the discriminator obtained by performing the learning on the luminance profiles at the points on the plurality of sample images that are not known and the discrimination condition for each discriminator. This is a method for detecting the position of a point.

また、上記識別条件から算出される特定のオブジェクトであろうオブジェクトの確信度を求めることができる。   Further, the certainty factor of the object that is the specific object calculated from the identification condition can be obtained.

また、特開2004−334836号(以下、参考文献4という)の手法を本発明の画像処理装置に用いることも可能である。参考文献4の手法は、オリジナル画像Pから一定の大きさの画像データを切り出し、各切出画像データと特徴部分画像データの照合データとを比較して前記処理対象画像中に前記特徴部分画像が存在するか否かを検出する画像データの特徴部分抽出方法を使用する手法である。なお、特開2007−11970号(以下、参考文献5という)の手法を本発明の画像処理装置に適用し、スルー画像データ中の人物の顔領域以外に、動物の顔等を特定被写体として検出してもよい。   Further, the technique disclosed in Japanese Patent Application Laid-Open No. 2004-334836 (hereinafter referred to as Reference Document 4) can be used for the image processing apparatus of the present invention. The technique of Reference 4 cuts out image data of a certain size from the original image P, compares the cut-out image data with the matching data of the feature portion image data, and the feature portion image is included in the processing target image. This is a technique that uses a feature part extraction method of image data for detecting whether or not it exists. Note that the technique disclosed in Japanese Patent Application Laid-Open No. 2007-11970 (hereinafter referred to as Reference Document 5) is applied to the image processing apparatus of the present invention, and an animal face or the like is detected as a specific subject in addition to the human face area in the through image data. May be.

上述した顔を検出する手法は、正面顔検出のみならず、上記手法により、横顔検出も可能である。   The method for detecting the face described above can detect not only the front face but also the side face by the above method.

また、注目領域抽出手段11は、オブジェクト判別手段により算出された確信度と上記注目度から、新たな注目度を算出してもよい。例えば、確信度と注目度の平均値から新たな注目度を算出してもよいし、確信度と注目度を所定の比率により合成した値から、新たな注目度を算出してもよい。   The attention area extraction unit 11 may calculate a new attention level from the certainty factor calculated by the object determination unit and the attention level. For example, a new attention level may be calculated from the average value of the certainty level and the attention level, or a new attention level may be calculated from a value obtained by combining the certainty level and the attention level at a predetermined ratio.

また、指示手段14によりオリジナル画像P上におけるオブジェクトを指定(例えば、マウスによるクリック等)された場合、そのオブジェクトの注目度を高く設定してもよい。   Also, when an object on the original image P is designated (for example, clicked with the mouse) by the instruction means 14, the degree of attention of the object may be set high.

また、上述した注目領域抽出手段11により抽出された注目度を含む周辺領域を検索範囲として、オブジェクト判別手段によりオブジェクトの解析をおこなってもよい。   Further, the object may be analyzed by the object discriminating means with the peripheral area including the attention degree extracted by the attention area extracting means 11 described above as a search range.

これにより、オブジェクト判別手段の計算負荷を軽減することができる。   Thereby, the calculation load of the object discrimination means can be reduced.

トリミングルール記憶手段15は、所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶するものである。   The trimming rule storage unit 15 stores a trimming rule obtained by learning composition information of a predetermined partial image cut out from a predetermined original image.

トリミングルール記憶手段15は、過去に、所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶するものであり、部分画像毎または、所定数以上の部分画像Q毎の構図情報を学習することによって得られたものである。   The trimming rule storage means 15 stores trimming rules obtained by learning composition information of a predetermined partial image cut out from a predetermined original image in the past, for each partial image or a predetermined number or more. This is obtained by learning composition information for each partial image Q.

トリミングルール記憶手段15は、切り出された部分画像Qを学習する学習手段(不図示)と、使用するオリジナル画像Pに表れるオブジェクトと、所定のオリジナル画像に表れるオブジェクトと近似すると判断した場合、上記近似すると判断された所定のオリジナル画像から切り出された部分画像に関するトリミングルールRを探索する探索手段(不図示)を備えている。   When the trimming rule storage unit 15 determines to approximate the learning unit (not shown) that learns the cut out partial image Q, the object that appears in the original image P to be used, and the object that appears in the predetermined original image, the above approximation Then, a search means (not shown) for searching for a trimming rule R related to a partial image cut out from the predetermined original image determined to be included is provided.

探索手段により複数のトリミングルールRが抽出された場合、それらのトリミングルールRの平均や所定の比率により合成することで、トリミングルールRを生成してもよい。   When a plurality of trimming rules R are extracted by the search means, the trimming rules R may be generated by combining the trimming rules R with an average or a predetermined ratio.

トリミングルールとして、所定の部分画像内に表れるオブジェクトの種類、位置、大きさ、向きのいずれか一つ以上の情報に基づくもの等がある。   As a trimming rule, there are rules based on one or more pieces of information on the type, position, size, and orientation of an object appearing in a predetermined partial image.

例えば、上述した注目度/新たな注目度が所定の値以下である注目領域を含む画像は部分画像Qとして、除くことを規定してもよい。   For example, an image including an attention area in which the above-described attention level / new attention level is equal to or less than a predetermined value may be specified as the partial image Q.

また、トリミングルールは、オリジナル画像P上において、その構図と上述した注目度/新たな注目度、オブジェクト判別手段により判別されたオブジェクトの種別から切り出し範囲を適応的に規定することで、部分画像Qをどのように作成するかを規定するものであってもよい。   In addition, the trimming rule adaptively defines the cutout range on the original image P based on the composition, the above-described attention level / new attention level, and the type of the object determined by the object determination unit. You may prescribe how to create.

また、トリミングルールは、注目領域抽出手段11により抽出された注目領域の外側にどの程度余白を残すか、オブジェクト判別手段により判別された人物の顔が大きく写っている場合、頭の上の余白をどの程度残すか、オブジェクト判別手段により判別された顔の向き、左右の余白のバランス等に関し、部分画像Qをどのように作成するかを規定するものであってもよい。   In addition, the trimming rule sets the margin above the head when the margin of the person determined by the object determination unit is greatly reflected on how much margin is left outside the attention region extracted by the attention region extraction unit 11. It may be defined how the partial image Q is created with respect to how much is left, the orientation of the face determined by the object determining means, the balance of the left and right margins, and the like.

また、トリミングルールは、オブジェクト判別手段により判別された顔が所定数を超えたことから、集合写真であると判断した場合、部分画像Qとしての上下左右の余白の残し方に関し、部分画像Qをどのように作成するかを規定するものであってもよい。   Further, the trimming rule determines that the partial image Q is related to how to leave the upper, lower, left, and right margins as the partial image Q when it is determined that the face is determined by the object determining means exceeds a predetermined number. You may prescribe how to create.

また、トリミングルールは、上述した注目度/新たな注目度の高い注目領域の所定の点を部分画像Qのどこに配置するか、端の点に置くか、中心に置くかに関し、部分画像Qをどのように作成するかを規定するものであってもよい。   Further, the trimming rule determines whether the partial image Q is placed at the end point or the center of the predetermined point of the partial image Q where the predetermined point of the attention area / new attention area having a high attention degree described above is placed. You may prescribe how to create.

また、トリミングルールは、オブジェクト判別手段により判別された人物と空から、空の領域をどの程度残すか、またはオブジェクト判別手段により判別された風景だけであるオリジナル画像Pから、空の領域をどの程度を残すか、オブジェクト判別手段により判別された花のような高彩度の注目領域を検出した場合、花畑の領域をどの程度残すか、オブジェクト判別手段により判別された人物の身体領域をどの程度残すかに関し、部分画像Qをどのように作成するかを規定するものであってもよい。   Also, the trimming rule determines how much empty area is left from the person and the sky determined by the object determining means, or how much empty area is left from the original image P that is only the landscape determined by the object determining means. Or whether the area of the flower field remains or how much of the body area of the person determined by the object determination means remains. It may be defined how the partial image Q is created.

また、トリミングルールは、オブジェクト判別手段により判別された顔が小さかった場合、どの程度の大きさまで拡大をおこなうか、切り出しのアスペクト比等について考慮し、部分画像Qをどのように作成するか等を規定するものであってもよい。   In addition, the trimming rule determines how much the image is enlarged when the face discriminated by the object discriminating means is small, how to create the partial image Q in consideration of the cut-out aspect ratio, etc. It may be specified.

なお、トリミングルールRは、使用するユーザ毎に用意されるものであってもよい。   The trimming rule R may be prepared for each user who uses the trimming rule R.

画像処理装置1にアクセスする際、アクセス管理手段(不図示)を備え、IDカードまたはパスワード等により、どのユーザがアクセスしたかを管理することで、ユーザを判別することを可能とする。この機能により、ユーザ毎のトリミングルールRを記憶することが可能となる。   When accessing the image processing apparatus 1, an access management means (not shown) is provided, and the user can be identified by managing which user has accessed using an ID card or a password. With this function, the trimming rule R for each user can be stored.

部分画像作成手段12は、トリミングルール記憶手段15に記憶されているトリミングルールRに基づいて、注目領域抽出手段11により抽出された注目領域を含む所定の範囲内の画像を、オリジナル画像Pから切り出すことにより部分画像Qを作成する。   The partial image creation means 12 cuts out an image within a predetermined range including the attention area extracted by the attention area extraction means 11 from the original image P based on the trimming rule R stored in the trimming rule storage means 15. Thus, the partial image Q is created.

切りだされる画像の範囲は、用意する部分画像Qの画像サイズ、表示手段の解像度等に応じて決められる。例えば、部分画像Qを150×150画素で用意する場合には、トリミングルールRを参照し、オリジナル画像Pから注目領域を含むように150×150画素で切り取った画像を部分画像Qとする。注目領域を抽出する際に、オリジナル画像の色、明度、オリジナル画像に現れた直線成分の傾きが周囲と異なる度合いの影響を変えて様々な注目領域を抽出できるようにするのが好ましい。   The range of the image to be cut out is determined according to the image size of the partial image Q to be prepared, the resolution of the display means, and the like. For example, when the partial image Q is prepared with 150 × 150 pixels, the trimming rule R is referred to, and an image cut out with 150 × 150 pixels so as to include the region of interest from the original image P is set as the partial image Q. When extracting the attention area, it is preferable to be able to extract various attention areas by changing the influence of the color, brightness, and inclination of the linear component appearing in the original image that are different from the surroundings.

例えば、部分画像作成手段12は、トリミングルールRを参照し、オリジナル画像P内の注目領域の配置、注目度/新たな注目度、オブジェクト種別から切り出す領域を算出する。複数の切り出し領域が算出可能な場合は、注目領域の配置、注目度/新たな注目度、オブジェクト種別等に基づいて優先度を付けてもよい。その優先度に基づいて、部分画像Qを作成する。   For example, the partial image creation means 12 refers to the trimming rule R and calculates the region to be cut out from the arrangement of the attention area in the original image P, the attention level / new attention level, and the object type. When a plurality of cutout areas can be calculated, priority may be given based on the arrangement of the attention area, the attention level / new attention level, the object type, and the like. A partial image Q is created based on the priority.

また、部分画像作成手段12は、部分画像Qを切り出す順番として、トリミングルールRに基づいて、注目度の高い順、新たな注目度の高い順に、上記注目度/新たな注目度に対応する注目領域を含む部分画像を切り出しても良い。   Further, the partial image creating means 12 is based on the trimming rule R as the order in which the partial image Q is cut out, and attentions corresponding to the attention level / new attention level in descending order of attention level and new attention level. A partial image including a region may be cut out.

また、部分画像作成手段12は、部分画像Qを切り出す順番として、トリミングルールRに基づいて、オリジナル画像Pの左上から右下に位置する注目領域の順に、注目領域を含む部分画像Qを切り出しても良い。   Further, the partial image creating means 12 cuts out the partial images Q including the attention area in the order of the attention areas located from the upper left to the lower right of the original image P based on the trimming rule R as the order of cutting out the partial images Q. Also good.

また、部分画像作成手段12は、部分画像Qを切り出す順番として、トリミングルールRに基づいて、オリジナル画像Pの中央から周辺に位置する注目領域の順に、注目領域を含む部分画像Qを切り出しても良い。   Further, the partial image creation means 12 may cut out the partial images Q including the attention area in the order of the attention areas located from the center to the periphery of the original image P based on the trimming rule R as the order of cutting out the partial images Q. good.

また、部分画像作成手段12は、部分画像Qを切り出す順番として、トリミングルールRに基づいて、オリジナル画像Pのオブジェクト種別判別手段により判別された顔とまたは注目領域とを含む領域から順に部分画像Qを切り出しても良い。   Further, the partial image creating unit 12 sequentially selects the partial images Q from the region including the face or the attention region determined by the object type determining unit of the original image P based on the trimming rule R as the cutout order of the partial image Q. May be cut out.

なお、部分画像作成手段12は、部分画像Qを切り出す際、矩形の枠により切り出すのみならず、指示手段14により変形可能な自由形状の枠の形状を設定し、設定された枠により切り出してもよい。   The partial image creating means 12 not only cuts out the partial image Q with a rectangular frame, but also sets the shape of a free-form frame that can be deformed by the instruction means 14 and cuts out with the set frame. Good.

また、部分画像作成手段12は、トリミングルールRに基づいて、オブジェクト種別判別手段により判別されたオブジェクトにとって最適な枠を記憶しておき、判別されたオブジェクトに対応する枠により切り出してもよい。   Further, the partial image creating unit 12 may store an optimum frame for the object determined by the object type determining unit based on the trimming rule R and cut out the frame corresponding to the determined object.

部分画像作成手段12は、トリミングルールRに基づいて、表示手段13により規定された表示範囲・解像度を考慮して表示エリアをあわせても良い。   Based on the trimming rule R, the partial image creating unit 12 may adjust the display area in consideration of the display range / resolution defined by the display unit 13.

表示手段13は、上述したように部分画像作成手段12により作成された部分画像Qを表示するものであり、例えば、CRTや液晶モニター等が挙げられる。   The display means 13 displays the partial image Q created by the partial image creation means 12 as described above, and examples thereof include a CRT and a liquid crystal monitor.

また、表示手段13は、注目度または新たな注目度に加え、トリミングルールRに基づいて、最も重要と思われる部分画像Qのみを表示してもよい。   Further, the display means 13 may display only the partial image Q that seems to be the most important based on the trimming rule R in addition to the attention level or the new attention level.

また、画像処理装置1が、プリンタまたはデジタルカメラに組み込まれた場合は、プリンタまたはデジタルカメラに搭載されたモニターが表示手段13であってもよい。   When the image processing apparatus 1 is incorporated in a printer or digital camera, the display unit 13 may be a monitor mounted on the printer or digital camera.

また、画像処理装置1が、携帯電話に組み込まれた場合は、携帯電話に搭載されたモニターが表示手段13であってもよい。   When the image processing apparatus 1 is incorporated in a mobile phone, the display unit 13 may be a monitor mounted on the mobile phone.

また、画像処理装置1が、コンピュータに組み込まれた場合は、コンピュータに接続された外部モニターが、表示手段13であってもよい。   Further, when the image processing apparatus 1 is incorporated in a computer, the display unit 13 may be an external monitor connected to the computer.

更に、表示手段13が、上記注目度/新たな注目度の高い注目領域を含む部分画像Qから順番に表示するものであってもよい。   Further, the display unit 13 may display the partial images Q in order from the partial image Q including the attention area / the attention area having a new attention degree.

上述した指示手段14は、部分画像作成手段12の切り出し範囲の設定を可能とし、オリジナル画像Pや部分画像Qの切り替え指示を行うことも可能である。   The instruction unit 14 described above can set the cutout range of the partial image creation unit 12 and can also instruct switching of the original image P and the partial image Q.

次に、図3のフローチャートを用いて、本発明の画像処理装置1で部分画像Qを生成する処理の流れと、その部分画像Qを表示する処理の流れについて説明する。   Next, a flow of processing for generating the partial image Q and a flow of processing for displaying the partial image Q in the image processing apparatus 1 of the present invention will be described using the flowchart of FIG.

まず、画像処理装置1では、撮影画像やイラスト画像などのオリジナル画像Pを読み込んでハードディスク(オリジナル画像記憶手段10)に一旦記憶する(S100)。   First, the image processing apparatus 1 reads an original image P such as a photographed image or an illustration image and temporarily stores it in the hard disk (original image storage means 10) (S100).

注目領域抽出手段11では、ハードディスクに記憶されているオリジナル画像Pから、明度を表す画像Iと各色成分に分けた画像R,G,B,Yを生成し、さらに、これらからGaussian pyramid画像I(σ),R(σ),G(σ),B(σ),Y(σ)を生成する。これらのGaussian pyramid画像を用いて、色、明度、オリジナル画像P上の直線成分の方向に基づいて、オリジナル画像Pの各部分の注目度を算出した注目度マップMを生成する(S101)。注目度マップMの注目度が所定の閾値以上の領域を注目領域として抽出する(S102)。 The attention area extracting means 11 generates an image I representing brightness and images R, G, B, and Y divided into color components from the original image P stored in the hard disk, and further, from these, a Gaussian pyramid image I ( σ), R (σ), G (σ), B (σ), and Y (σ) are generated. Using these Gaussian pyramid image, color, brightness, based on the direction of the linear component of the original image P, and generates a saliency map M S calculated attention degree of each part of the original image P (S101). Attention Attention map M S extracts the region of or greater than a predetermined threshold value as a target area (S102).

例えば、図4Aに示すように、画像の中心付近に赤い道路標識が撮影されている画像では、周囲の山や道路は茶〜灰色の色が多く道路標識の色が周囲と大きく異なるため、注目度マップM上の注目度が高く表れる。そこで、図4Bに示すように、所定の閾値以上の部分を注目領域ROIとして抽出する。図あるいは、図5Aに示すように、赤い矩形が1つと緑の矩形が多数とが、様々な方向を向いて並んでいる場合には、図5Bに示すように、赤い矩形の部分や、緑の矩形のうち傾きが他のものと比べて大きく傾いている部分の注目度が高くなり、この注目度の高い領域を注目領域ROIとして抽出する。トリミングルール記憶手段15に記憶されたトリミングルールRを読み込み(S103)、読み込まれたトリミングルールRに基づいて、抽出された注目領域ROIの優先度をつけるか/微調整を行い、最終的な注目領域を決定し、上記注目領域を含むように矩形の領域を部分画像Qとして切り取る(S104)。 For example, as shown in FIG. 4A, in an image in which a red road sign is photographed near the center of the image, the surrounding mountains and roads are mostly brown to gray and the color of the road sign is significantly different from the surroundings. degree of attention on the degree map M S appears high. Therefore, as shown in FIG. 4B, a portion having a predetermined threshold value or more is extracted as a region of interest ROI. As shown in FIG. 5 or FIG. 5A, when one red rectangle and many green rectangles are lined up in various directions, as shown in FIG. The attention degree of the portion of the rectangle of which the inclination is greatly inclined as compared with other rectangles is high, and the region with the high attention degree is extracted as the attention region ROI. The trimming rule R stored in the trimming rule storage unit 15 is read (S103). Based on the read trimming rule R, the priority of the extracted attention area ROI is assigned or finely adjusted, and the final attention is paid. A region is determined, and a rectangular region is cut out as a partial image Q so as to include the region of interest (S104).

部分画像Qを表示手段13に表示する(S105)。例えば、図6Aのような画像では、矩形で囲まれた範囲を部分画像Qとして切り取る。部分画像の大きさや部分画像中の注目領域ROIの位置は常に同じでなくてもよい。また、同じ注目領域ROIを含むいろいろな範囲の画像を部分画像として用意してもよい。このようにしてオリジナル画像Pから注目領域ROIを含む部分を部分画像Qとして切り出す。   The partial image Q is displayed on the display means 13 (S105). For example, in an image as shown in FIG. 6A, a range surrounded by a rectangle is cut out as a partial image Q. The size of the partial image and the position of the region of interest ROI in the partial image may not always be the same. In addition, various ranges of images including the same region of interest ROI may be prepared as partial images. In this way, a part including the attention area ROI is cut out as a partial image Q from the original image P.

また、オブジェクト判別手段により算出された確信度と上記注目度から、上述したような新たな注目度を設定し、注目領域を算出してもよい。   Further, the attention area may be calculated by setting a new attention degree as described above from the certainty factor calculated by the object discrimination means and the attention degree.

なお、これらの注目領域の算出後、トリミングルールRを参照して、優先度をつけまたは微調整をし、注目領域を決定するものとする。   Note that, after calculating these attention areas, priority is given or fine adjustment is made with reference to the trimming rule R to determine the attention area.

ここで、例えば、図6のような画像の場合、矩形で囲まれた範囲を部分画像Qとして切り出す例を説明する。   Here, for example, in the case of an image as shown in FIG. 6, an example in which a range surrounded by a rectangle is cut out as a partial image Q will be described.

図6は、結婚式のキャンドルサービスを示す図であり、トリミングルールRを用いて図6の((2−1)〜(2−4))のような部分画像Qを切り出すことが可能である。   FIG. 6 is a diagram showing a wedding candle service, and it is possible to cut out a partial image Q as shown in ((2-1) to (2-4)) of FIG. .

さらに、注目度マップMの注目度/新たな注目度の高い注目領域ROIやオブジェクトを含む部分画像Qに対しては、上述したような切り出す順番に応じて、部分画像Qを表示手段13に表示してもよい。 Furthermore, for the partial image Q containing a high region of interest ROI and the object of attention / new attention of the saliency map M S, depending on the order of cut as described above, the partial image Q on the display unit 13 It may be displayed.

必要に応じて、指示手段14からの応答を受け、部分画像Qを切り替えて表示できる。また、単純に表示を変化させるのみならず、表示範囲を移動するように制御してもよいし、ズーム等を用いた拡大・縮小の表示切り替えすることも可能である。   If necessary, the partial image Q can be switched and displayed by receiving a response from the instruction means 14. In addition to simply changing the display, it may be controlled to move the display range, and it is also possible to switch between enlargement and reduction using zoom or the like.

また、表示切り替えとして、フェイドアウト・フェイドイン、スクロール機能または、動的な切り替え等による特殊表示も可能とするものであってもよい。   Further, as display switching, special display by fading out / fade in, a scroll function, dynamic switching, or the like may be possible.

上述した表示切り替えにより、ユーザが、オリジナル画像P全体の状況が把握しやすくなる。   The above-described display switching makes it easier for the user to grasp the overall situation of the original image P.

ここで、部分画像作成手段12は、図6の(2−2)のように切り出された部分画像Q2に対して、指示手段14により応答を受けることにより、切り出し範囲の位置・倍率の微調整を行うことができる。例えば、図7の(1−1)のような切り出し範囲を設定された部分画像Q2を、図7の(1−2)のように横方向にシフトされた部分画像Q2’となるように微調整を行うことができる。なお、同様に縦方向にシフトさせることも可能である。   Here, the partial image creation unit 12 receives a response from the instruction unit 14 to the partial image Q2 cut out as shown in (2-2) of FIG. 6, thereby finely adjusting the position / magnification of the cutout range. It can be performed. For example, the partial image Q2 in which the cutout range is set as shown in (1-1) of FIG. 7 is changed to a partial image Q2 ′ shifted in the horizontal direction as shown in (1-2) of FIG. Adjustments can be made. Similarly, it is possible to shift in the vertical direction.

また、図7の(1−1)のような切り出し範囲を設定された部分画像Q2を、図7の(1−3)のように切り出し範囲を拡張された部分画像Q2’’となるように微調整を行うことができる。   Further, the partial image Q2 in which the cutout range is set as shown in (1-1) of FIG. 7 becomes the partial image Q2 ″ whose cutout range is extended as shown in (1-3) of FIG. Fine adjustments can be made.

また、部分画像作成手段12は、図6の(2−1)〜(2−4)のように切り出された部分画像Q1〜4に対して、指示手段により応答を受けることにより、どの部分画像が優先的に取り扱われるかの指示を受けることができる。   Further, the partial image creation means 12 receives a response from the instruction means to the partial images Q1 to Q4 cut out as shown in (2-1) to (2-4) in FIG. Can be instructed whether or not will be treated preferentially.

上述のように、トリミングルール更新手段15は、指示手段14により受けた応答指示により、部分画像作成手段12によって作成された部分画像の構図情報と、トリミングルール記憶手段15に記憶されたトリミングルールRを学習して、新たなトリミングルールRを更新することができる。   As described above, the trimming rule update unit 15 receives the response instruction received from the instruction unit 14, and the composition information of the partial image created by the partial image creation unit 12 and the trimming rule R stored in the trimming rule storage unit 15. And a new trimming rule R can be updated.

以上、詳細に説明したように、オリジナル画像Pを記憶し、オリジナル画像Pを記憶し、所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールRを記憶し、オリジナル画像Pの色、明度、および、オリジナル画像Pに現れた直線成分の方向に基づいて、オリジナル画像P中の各部分の特徴が部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域をオリジナル画像Pの中から抽出し、記憶されているトリミングルールRに基づいて、抽出された注目領域を含む所定の範囲内の画像を、オリジナル画像Pから切り出すことにより、ユーザの好みや癖を反映した部分画像Qを作成することができる。   As described above in detail, the original image P is stored, the original image P is stored, and the trimming rule R obtained by learning the composition information of the predetermined partial image cut out from the predetermined original image is obtained. Based on the color and brightness of the original image P stored, and the direction of the linear component appearing in the original image P, the degree to which the feature of each part in the original image P differs from the feature of the part located around the part The attention area is extracted from the original image P according to these degrees, and based on the stored trimming rule R, an image within a predetermined range including the extracted attention area is converted into the original image P. It is possible to create a partial image Q reflecting user preferences and habits.

画像処理装置の概略構成図Schematic configuration diagram of an image processing device 注目領域の抽出方法を説明するための図The figure for explaining the extraction method of the attention area オリジナル画像から注目領域を抽出する処理の流れを表すフローチャートA flowchart showing the flow of processing for extracting a region of interest from an original image オリジナル画像の一例(その1)Example of original image (part 1) 注目度マップの一例(その1)Example of attention level map (1) オリジナル画像の一例(その2)Example of original image (Part 2) 注目度マップの一例(その2)Example of attention level map (2) オリジナル画像の一例等(その3)Examples of original images (part 3) 部分画像の一例(その1)Example of partial image (1)

符号の説明Explanation of symbols

1 画像処理装置
10 オリジナル画像記憶手段
11 注目領域抽出手段
12 部分画像作成手段
13 表示手段
14 指示手段
15 トリミングルール記憶手段
16 トリミングルール更新手段
P オリジナル画像
Q 部分画像
ROI 注目領域
R トリミングルール
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10 Original image storage means 11 Attention area extraction means 12 Partial image creation means 13 Display means 14 Instruction means 15 Trimming rule storage means 16 Trimming rule update means P Original image Q Partial image ROI Attention area R Trimming rule

Claims (9)

オリジナル画像を記憶するオリジナル画像記憶手段と、
所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶するトリミングルール記憶手段と、
前記オリジナル画像の色、明度、および、前記オリジナル画像に現れた直線成分の方向に基づいて、前記オリジナル画像中の各部分の特徴が該部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域を前記オリジナル画像の中から抽出する注目領域抽出手段と、
前記トリミングルール記憶手段に記憶されているトリミングルールに基づいて、前記注目領域抽出手段により抽出された注目領域を含む所定の範囲内の画像を、前記オリジナル画像から切り出すことにより部分画像を作成する部分画像作成手段とを備えたことを特徴とする画像処理装置。
Original image storage means for storing the original image;
Trimming rule storage means for storing a trimming rule obtained by learning composition information of a predetermined partial image cut out from a predetermined original image;
Based on the color and brightness of the original image and the direction of the linear component appearing in the original image, the degree of difference between the characteristics of each part in the original image and the characteristics of the part located around the part is obtained. , Attention area extraction means for extracting the attention area from the original image according to these degrees;
A part that creates a partial image by cutting out an image within a predetermined range including the attention area extracted by the attention area extraction means from the original image based on the trimming rules stored in the trimming rule storage means An image processing apparatus comprising an image creating unit.
前記所定の部分画像の構図情報および前記部分画像作成手段により作成された部分画像の構図情報を学習して、前記トリミングルールを更新するトリミングルール更新手段を更に備えたことを特徴とする請求項1記載の画像処理装置。   2. A trimming rule update unit that learns composition information of the predetermined partial image and composition information of the partial image created by the partial image creation unit, and updates the trimming rule. The image processing apparatus described. 前記トリミングルールが、前記所定の部分画像内に表れるオブジェクトの種類、位置、大きさ、向きのいずれか一つ以上の情報に基づくトリミングルールであることを特徴とする請求項1または2記載の画像処理装置。   3. The image according to claim 1, wherein the trimming rule is a trimming rule based on at least one of information on a type, a position, a size, and an orientation of an object appearing in the predetermined partial image. Processing equipment. 前記部分画像作成手段により作成された部分画像を表示する表示手段とを更に備えることを特徴とする請求項1から3いずれか1項記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising display means for displaying the partial image created by the partial image creation means. 前記注目領域抽出手段が、前記抽出した各注目領域に対する注目度を算出するものであり、
前記表示手段が、前記注目度が高い注目領域を含む部分画像から順次に表示するものであることを特徴とする請求項4記載の画像処理装置。
The attention area extracting means calculates a degree of attention to each of the extracted attention areas;
The image processing apparatus according to claim 4, wherein the display unit sequentially displays partial images including a region of interest having a high degree of attention.
前記部分画像作成手段により、前記オリジナル画像から切り出すことにより作成された部分画像の切り出し範囲を変更するよう指示する指示手段とを更に備え、
前記部分画像作成手段が、前記指示手段により指示された切り出し範囲が変更された部分画像を作成することを特徴とする請求項1から5いずれか1項記載の画像処理装置。
An instruction means for instructing to change the cutout range of the partial image created by cutting out from the original image by the partial image creating means;
6. The image processing apparatus according to claim 1, wherein the partial image creation unit creates a partial image in which a clipping range designated by the instruction unit is changed.
前記注目領域抽出手段が、
前記オリジナル画像を解析して、前記オリジナル画像に表れる特定種類のオブジェクトの有無を判別するオブジェクト判別手段とを更に備えることを特徴とする請求項1から6いずれか1項記載の画像処理装置。
The region of interest extraction means
The image processing apparatus according to claim 1, further comprising: an object determination unit that analyzes the original image and determines whether or not there is a specific type of object that appears in the original image.
オリジナル画像を記憶し、
所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶し、
前記オリジナル画像の色、明度、および、前記オリジナル画像に現れた直線成分の方向に基づいて、前記オリジナル画像中の各部分の特徴が該部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域を前記オリジナル画像の中から抽出し、
前記記憶されているトリミングルールに基づいて、前記抽出された注目領域を含む所定の範囲内の画像を、前記オリジナル画像から切り出すことにより部分画像を作成することを特徴とする画像処理方法。
Remember the original image,
Storing a trimming rule obtained by learning composition information of a predetermined partial image cut out from a predetermined original image;
Based on the color and brightness of the original image and the direction of the linear component appearing in the original image, the degree of difference between the characteristics of each part in the original image and the characteristics of the part located around the part is obtained. , To extract a region of interest from the original image according to these degrees,
An image processing method comprising: creating a partial image by cutting out an image within a predetermined range including the extracted attention area from the original image based on the stored trimming rule.
コンピュータに、
オリジナル画像を記憶する機能と、
所定のオリジナル画像から切り出された所定の部分画像の構図情報を学習することによって得られたトリミングルールを記憶する機能と、
前記オリジナル画像の色、明度、および、前記オリジナル画像に現れた直線成分の方向に基づいて、前記オリジナル画像中の各部分の特徴が該部分の周囲に位置する部分の特徴と異なる度合いを求めて、これらの度合いに応じて注目領域を前記オリジナル画像の中から抽出する機能と、
前記記憶されているトリミングルールに基づいて、前記抽出された注目領域を含む所定の範囲内の画像を、前記オリジナル画像から切り出すことにより部分画像を作成する機能とを実行させることを特徴とするプログラム。
On the computer,
The ability to store original images,
A function for storing a trimming rule obtained by learning composition information of a predetermined partial image cut out from a predetermined original image;
Based on the color and brightness of the original image and the direction of the linear component appearing in the original image, the degree of difference between the characteristics of each part in the original image and the characteristics of the part located around the part is obtained. , A function of extracting a region of interest from the original image according to these degrees,
A program for executing a function of creating a partial image by cutting out an image within a predetermined range including the extracted region of interest from the original image based on the stored trimming rule .
JP2008094499A 2008-04-01 2008-04-01 Image processing apparatus and method, and program Active JP5016540B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008094499A JP5016540B2 (en) 2008-04-01 2008-04-01 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094499A JP5016540B2 (en) 2008-04-01 2008-04-01 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2009245404A true JP2009245404A (en) 2009-10-22
JP5016540B2 JP5016540B2 (en) 2012-09-05

Family

ID=41307171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094499A Active JP5016540B2 (en) 2008-04-01 2008-04-01 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5016540B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248727A (en) * 2010-05-28 2011-12-08 Casio Comput Co Ltd Image processing apparatus and method, and program
JP2013016018A (en) * 2011-07-04 2013-01-24 Canon Inc Display control apparatus, control method, and program
WO2013024563A1 (en) 2011-08-12 2013-02-21 ソニー株式会社 Information processing device and information processing method
JP2017059156A (en) * 2015-09-18 2017-03-23 富士フイルム株式会社 Image processing device, image processing method, program and recording medium
JP2017068567A (en) * 2015-09-30 2017-04-06 富士フイルム株式会社 Image processing device, image processing method, program, and recording medium
WO2021015117A1 (en) * 2019-07-25 2021-01-28 京セラドキュメントソリューションズ株式会社 Data processing system and data processing method
WO2023171120A1 (en) * 2022-03-11 2023-09-14 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052169A (en) * 1999-08-10 2001-02-23 Fuji Photo Film Co Ltd Device and method for processing image and recording medium
JP2001052150A (en) * 1999-08-10 2001-02-23 Fuji Photo Film Co Ltd Device and method for processing image and recording medium
JP2004120638A (en) * 2002-09-27 2004-04-15 Canon Inc Image processing method, image processing device, and printing device
JP2004228995A (en) * 2003-01-23 2004-08-12 Seiko Epson Corp Image trimming device, image trimming method, and program
JP2004228994A (en) * 2003-01-23 2004-08-12 Seiko Epson Corp Image editor, image trimming method, and program
JP2006246211A (en) * 2005-03-04 2006-09-14 Nikon Corp Image data processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052169A (en) * 1999-08-10 2001-02-23 Fuji Photo Film Co Ltd Device and method for processing image and recording medium
JP2001052150A (en) * 1999-08-10 2001-02-23 Fuji Photo Film Co Ltd Device and method for processing image and recording medium
JP2004120638A (en) * 2002-09-27 2004-04-15 Canon Inc Image processing method, image processing device, and printing device
JP2004228995A (en) * 2003-01-23 2004-08-12 Seiko Epson Corp Image trimming device, image trimming method, and program
JP2004228994A (en) * 2003-01-23 2004-08-12 Seiko Epson Corp Image editor, image trimming method, and program
JP2006246211A (en) * 2005-03-04 2006-09-14 Nikon Corp Image data processor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248727A (en) * 2010-05-28 2011-12-08 Casio Comput Co Ltd Image processing apparatus and method, and program
JP2013016018A (en) * 2011-07-04 2013-01-24 Canon Inc Display control apparatus, control method, and program
WO2013024563A1 (en) 2011-08-12 2013-02-21 ソニー株式会社 Information processing device and information processing method
JP2013041357A (en) * 2011-08-12 2013-02-28 Sony Corp Information processing device and information processing method
JP2017059156A (en) * 2015-09-18 2017-03-23 富士フイルム株式会社 Image processing device, image processing method, program and recording medium
JP2017068567A (en) * 2015-09-30 2017-04-06 富士フイルム株式会社 Image processing device, image processing method, program, and recording medium
WO2021015117A1 (en) * 2019-07-25 2021-01-28 京セラドキュメントソリューションズ株式会社 Data processing system and data processing method
JPWO2021015117A1 (en) * 2019-07-25 2021-01-28
JP7238992B2 (en) 2019-07-25 2023-03-14 京セラドキュメントソリューションズ株式会社 Data processing system and data processing method
WO2023171120A1 (en) * 2022-03-11 2023-09-14 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5016540B2 (en) 2012-09-05

Similar Documents

Publication Publication Date Title
JP5016541B2 (en) Image processing apparatus and method, and program
US10762608B2 (en) Sky editing based on image composition
JP5016540B2 (en) Image processing apparatus and method, and program
US8908976B2 (en) Image information processing apparatus
KR101605983B1 (en) Image recomposition using face detection
US8503767B2 (en) Textual attribute-based image categorization and search
JP5224149B2 (en) Image processing apparatus and method, imaging apparatus, and program
JP6953128B2 (en) Image processing equipment, control methods, and programs
US7760956B2 (en) System and method for producing a page using frames of a video stream
CN109711345B (en) Flame image identification method and device and storage medium thereof
US8189916B2 (en) Image processing method, system, and computer readable medium
US20120301032A1 (en) Image classification apparatus, image classification method, program, recording medium, integrated circuit, and model creation apparatus
US20020191861A1 (en) Automated cropping of electronic images
CN105849685A (en) Editing options for image regions
US8565491B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP6904692B2 (en) Image processing equipment, control methods, and programs
KR20090032908A (en) Imaging system, apparatus and method of discriminative color features extraction thereof
JP7027101B2 (en) Information processing equipment, control methods, and programs
WO2012153744A1 (en) Information processing device, information processing method, and information processing program
JP4340842B2 (en) Image processing method, image processing apparatus, image processing program, and storage medium
JP2011150626A (en) Method, device, and program for classifying image
CN115689882A (en) Image processing method and device and computer readable storage medium
JP2003248825A (en) Device and method for image processing, image processing program, and storage medium
JP2009288822A (en) Attention degree calculation device, method, and program
JP2009290249A (en) Trimming rule learning device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5016540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250