JP2002092611A - Device and method for processing image, and recording medium - Google Patents

Device and method for processing image, and recording medium

Info

Publication number
JP2002092611A
JP2002092611A JP2000278837A JP2000278837A JP2002092611A JP 2002092611 A JP2002092611 A JP 2002092611A JP 2000278837 A JP2000278837 A JP 2000278837A JP 2000278837 A JP2000278837 A JP 2000278837A JP 2002092611 A JP2002092611 A JP 2002092611A
Authority
JP
Japan
Prior art keywords
parameter
image data
input
updated
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000278837A
Other languages
Japanese (ja)
Other versions
JP3492991B2 (en
Inventor
Tomoko Murakami
知子 村上
Ryohei Orihara
良平 折原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000278837A priority Critical patent/JP3492991B2/en
Publication of JP2002092611A publication Critical patent/JP2002092611A/en
Application granted granted Critical
Publication of JP3492991B2 publication Critical patent/JP3492991B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of expressing sensibility common to a plurality of images. SOLUTION: A parameter for determining the input-output characteristic of a sensibility model for inputting image data and outputting a feature quantity showing the sensible expression contents of the image is optimized on the basis of a plurality of object image data. An input part 2 inputs an initial parameter, and a feature quantity computing part 3 extracts the feature quantity from each object image data, using the sensibility model having the input-output characteristic determined by an initial parameter and updated parameter. A feedback evaluation part 4 determines whether or not the updated parameter is an optimum solution on the basis of a plurality of feature quantities. A clustering part 6, a clustering result evaluation part 7 and a parameter control part 8 update the parameter again to improve an evaluation value specified on the basis of the extracted feature quantity, using the sensibility model if the updated parameter is not the optimum solution.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像データをもと
に感性に関係する処理を行う画像処理装置及び画像処理
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method for performing processing related to sensitivity based on image data.

【0002】[0002]

【従来の技術】近年、WWWを中心としたインターネッ
トの普及によって、様々なメディアの膨大な情報に誰で
も簡単にアクセスできる環境が提供されつつある。そう
した中、ユーザ毎の見方や目的に応じた画像の解釈に基
づき、類似画像の検索、感性に基づく画像検索などの画
像作成支援に対する期待は大きく、研究成果は各産業界
から注目を集めている(文献1)。
2. Description of the Related Art In recent years, with the widespread use of the Internet centering on the WWW, an environment in which anyone can easily access enormous information of various media has been provided. Under such circumstances, expectations for image creation support such as similar image search and image search based on sensibility based on interpretation of images according to each user's viewpoint and purpose are high, and research results are attracting attention from each industry. (Reference 1).

【0003】感性に基づいたデザイン設計を支援する分
野では、入力されたイメージに対して対象物の属性を操
作し、よりイメージに近いデザインを提案するシステム
が報告されている(文献2)。これは、主に2種類の手
法が採用されている。ひとつは、最もシンプルな手法
で、KJ法を利用してイメージ語からそれらを決定づけ
ているデザイン上の物理的特性へ落し込む方法である
(文献3)。もうひとつは、SD(Semantic
Differentials)尺度により対象イメージ
語の集合を絞り込み、それらをもとにあらかじめアンケ
ート調査を実施し、数量化1類、ニューラルネットワー
ク、もしくはGA(Genetic Algorith
m)を行い、イメージ語に影響を与える対象物の各属性
とそれらの重みを求め保存し、新たな入力が行われた
際、入力イメージ語に近いデザインを提示するという方
法である(文献3、4)。
[0003] In the field of supporting design design based on sensibility, there has been reported a system for manipulating the attributes of an object with respect to an input image and proposing a design closer to the image (Reference 2). This mainly employs two types of methods. One is the simplest method, in which the KJ method is used to convert the image words into the physical characteristics of the design that determines them (Reference 3). The other is SD (Semantic)
A set of target image words is narrowed down by the Differentials scale, and a questionnaire survey is conducted in advance based on the narrowed target image words. A quantification class 1, a neural network, or a GA (Genetic Algorithm) is used.
m), the attributes of the object affecting the image word and their weights are obtained and saved, and when a new input is performed, a design close to the input image word is presented (Reference 3). 4).

【0004】画像データを対象とした従来の研究におい
ては、ユーザのイメージにかなう画像を検索することに
力が注がれた。具体的には、画像を感性的な特徴量(彩
度、明度など)で表現し、それらを比較する方法があ
る。また、あらかじめ行ったユーザへのアンケート情報
から画像の特徴量とイメージ語との関係を求めて保存
し、新たに入力されたイメージ語の検索要求に対して、
それらと類似している画像集合を発見するという方法も
報告されている(文献5、6)。
[0004] In previous research on image data, efforts have been made to search for images that match the image of the user. Specifically, there is a method in which an image is expressed by sensible feature amounts (saturation, lightness, and the like) and these are compared. In addition, the relationship between the feature amount of an image and an image word is obtained and saved from questionnaire information to a user performed in advance, and in response to a newly input image word search request,
A method of finding an image set similar to them has also been reported (References 5 and 6).

【0005】なお、上記各文献は次の通りである。 文献1:「辻三郎:“感性の科学”, サイエンス社,
1997」 文献2:「長町三生:“感性をデザインに作り込む技
術”, 日本ファジー学会誌, Vol.10, p
p.1063−1077, 1998」 文献3:「長町三生:“感性工学のおはなし”, 日本
規格協会, 1995」 文献4:「森典彦ら:“製品の感性評価における属性間
の関係”, Proc. of the 1st An
nual Conference of JSKE,
1999」 文献5:「加藤俊一:“感性工学研究の共通プラットフ
ォームと工業デザインへの応用「感性工房」”, Pr
oc. of the 1st AnnualConf
erence of JSKE, 1999」 文献6:「岩岡俊行ら:“感性語の多次元尺度を用いた
画像検索”, Proc. of the 1st A
nnual Conference of JSKE,
1999」
[0005] The above documents are as follows. Reference 1: "Saburo Tsuji:" Science of Kansei ", Science,
1997 ”Reference 2:“ Mitsuo Nagamachi: “Technology to Incorporate Sensitivity into Design”, Journal of the Japanese Society of Fuzzy Science, Vol. 10, p.
p. 1063-1077, 1998 "Document 3:" Mitsuo Nagamachi: "The Story of Kansei Engineering", Japan Standards Association, 1995 "Reference 4:" Norihiko Mori et al .: "Relationship between Attributes in Kansei Evaluation of Products", Proc. Of the 1st An
natural Conference of JSKE,
1999 "Document 5:" Shunichi Kato: "Common Platform of Kansei Engineering Research and Application to Industrial Design" Kansei Kobo "", Pr
oc. of the 1st AnnualConf
Reference 6: "Toshiyuki Iwaoka et al .:" Image Retrieval Using Multidimensional Scale of Kansei Words ", Proc. of the 1st A"
natural Conference of JSKE,
1999 "

【0006】[0006]

【発明が解決しようとする課題】以上で述べた従来の技
術には、以下のような課題が検討されている。
The following problems have been studied in the above-mentioned conventional technology.

【0007】ユーザの感性に基づいた画像のクラスタリ
ング技術においては、 ・個人、画像毎に異なる感性を感性語で表現することの
困難さ。 ・非線型に存在するイメージ語と特徴量の関係を獲得す
る困難さ。 ・画像データの持つイメージを感性情報で明示化するこ
との困難さ。
In the image clustering technique based on the user's sensibility, it is difficult to express different sensibility for each individual or image by a kansei word. -Difficulty in acquiring the relationship between non-linear image words and features. -Difficulty in expressing the image of the image data with kansei information.

【0008】従来のユーザの感性に基づいた画像の検索
においては、入力情報として感性語を含めた自然言語に
よる指示が必要であるとともに、個人、画像毎に微妙に
異なる感性を的確に表現することが困難であった。
In the conventional image retrieval based on the user's sensibility, it is necessary to input a natural language including a kansei word as input information, and accurately express sensibility that is slightly different for each individual or image. Was difficult.

【0009】また、入力イメージ語に近いデザインの提
示において、イメージ語と特徴量の関係を獲得するた
め、あらかじめ用意されたイメージ語の対をもとにした
ユーザの評価を得るが、これらのイメージ語の対をSD
法で限定するには、手間がかかり、そのうえ、生成され
たイメージ語の対には排反ではないものも含まれてしま
う。
Also, in presenting a design close to an input image word, in order to obtain a relationship between the image word and the feature amount, a user evaluation based on a pair of image words prepared in advance is obtained. Word pair SD
It takes time and effort to restrict by law, and moreover, the generated image word pairs include non-exclusions.

【0010】さらに、感性に基づいたデザイン設計を支
援する分野では、ユーザが自分の感性に適合した製品、
画像を選ぶ方法は数多く試みられている。つまり、上述
のイメージ語によって対象を評価し、そのデータベース
を活用することで、イメージ語と特徴量の関係を決める
ものである。しかしながら、逆に、設計図、製品イメー
ジ、画像集合の特徴を感性情報、感性語として明示化
し、それらに最も適切な感性とは何かを推論する感性診
断は、これからの課題と言われている(文献2)。
Furthermore, in the field of supporting design based on sensibility, a user can select a product suitable for his / her sensibility.
There have been many attempts to select an image. That is, the relationship between the image word and the feature amount is determined by evaluating the object using the above-described image word and utilizing the database. However, conversely, Kansei Diagnosis, which clarifies the features of design drawings, product images, and image sets as Kansei information and Kansei words, and infers what is the most appropriate Kansei for them, is said to be a future issue. (Reference 2).

【0011】本発明は、上記事情を考慮してなされたも
ので、複数の画像に共通する感性を表現することのでき
る画像処理装置及び画像処理方法を提供することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above circumstances, and has as its object to provide an image processing apparatus and an image processing method capable of expressing a feeling common to a plurality of images.

【0012】[0012]

【課題を解決するための手段】本発明は、画像データを
入力とし該画像データが表示されたときに持つ感性的な
表現内容を示す特徴量を出力とする感性モデルの入出力
特性を決定付けるパラメータを、対象となる複数の画像
データに基づいて最適化する画像処理装置であって、前
記パラメータの初期値を入力するパラメータ入力手段
と、初回は初期値として入力された前記パラメータによ
って、2回目以降は更新された前記パラメータによっ
て、決定付けられた入出力特性を持つ前記感性モデルを
用いて、前記対象となる複数の画像データの各々から前
記特徴量を抽出する抽出手段と、抽出された複数の前記
特徴量に基づいて、更新された前記パラメータが最適な
ものに至ったか否かを判断する判断手段と、前記パラメ
ータが初期値である場合または更新された前記パラメー
タが最適なものに至っていないと判断された場合に、前
記感性モデルを用いて抽出される前記特徴量によって規
定される所定の評価値に基づいて、該パラメータを更新
する更新手段とを備えたことを特徴とする。
SUMMARY OF THE INVENTION The present invention determines input / output characteristics of a kansei model in which image data is input and a feature quantity indicating sensible expression content held when the image data is displayed is output. An image processing apparatus for optimizing parameters based on a plurality of target image data, comprising: a parameter input means for inputting an initial value of the parameter; Thereafter, extracting means for extracting the feature amount from each of the plurality of target image data using the sensitivity model having input / output characteristics determined by the updated parameters, Determining means for determining whether or not the updated parameter has reached an optimal value based on the characteristic amount of the parameter. Alternatively, when it is determined that the updated parameter is not the optimal one, an update that updates the parameter based on a predetermined evaluation value defined by the feature amount extracted using the sensitivity model Means.

【0013】好ましくは、あるパラメータに対する前記
評価値は、前記複数の画像データから所定の方法で選択
された複数の代表となる画像データから任意に2つを取
り出したときの全部の組み合わせまたは特定の一部の組
み合わせについて、各組における2つの画像データに対
して当該あるパラメータを用いてそれぞれ抽出された2
つの前記特徴量の特徴量ベクトル空間上における距離
を、総計したものであり、前記更新手段は、前記パラメ
ータの個々の値を所定の方法で上昇または下降の方向に
変化させながら、それぞれの場合のパラメータに対する
前記評価値を求め、それらパラメータのうち、最善の評
価値であって且つ更新される前のパラメータに対する評
価値より善い評価値を持つパラメータを、更新された前
記パラメータとするようにしてもよい。
[0013] Preferably, the evaluation value for a certain parameter is a total combination or a specific combination when two are arbitrarily extracted from a plurality of representative image data selected by a predetermined method from the plurality of image data. For some combinations, two image data extracted from the two image data in each set using the certain parameter
The update means is a sum of distances of the two feature quantities in the feature quantity vector space, and the updating means changes the individual values of the parameters in the ascending or descending direction by a predetermined method. The evaluation values for the parameters are obtained, and among those parameters, the parameter having the best evaluation value and a higher evaluation value than the evaluation value for the parameter before being updated may be set as the updated parameter. Good.

【0014】好ましくは、前記更新手段は、更新される
前の前記パラメータを用いて前記抽出手段によって抽出
された複数の前記特徴量に基づいて前記対象となる複数
の画像データを複数のグループに分割し、各々のグルー
プにおいて当該グループの代表となる画像データを選択
し、それら複数の代表となる画像データを用いて前記評
価値を規定するもととなる前記特徴量を求めるようにし
てもよい。
Preferably, the updating means divides the plurality of target image data into a plurality of groups based on the plurality of feature amounts extracted by the extracting means using the parameters before being updated. Then, in each group, representative image data of the group may be selected, and the characteristic amount serving as a basis for defining the evaluation value may be obtained using the plurality of representative image data.

【0015】好ましくは、前記判断手段は、更新された
前記パラメータを用いた場合に得られる前記対象となる
複数の画像データの特徴量の分散に関する評価値が、更
新される前の前記パラメータを用いた場合に得られる前
記対象となる複数の画像データの特徴量の分散に関する
評価値に比較して改善されなかったときに、更新される
前の前記パラメータが最適なものに至ったと判断するよ
うにしてもよい。
Preferably, the determining means uses the parameter before the update of the evaluation value relating to the variance of the feature amount of the plurality of target image data obtained when the updated parameter is used. When the parameter is not improved compared to the evaluation value regarding the variance of the feature amount of the target plurality of image data obtained when the parameter is updated, it is determined that the parameter before being updated has reached the optimal value. You may.

【0016】好ましくは、複数の画像データを入力する
画像データ入力手段と、入力された複数の前記画像デー
タから、所定の選択基準に基づいて、対象とすべき前記
複数の画像データを選択するための選択手段とを更に備
えるようにしてもよい。
Preferably, image data input means for inputting a plurality of image data, and the plurality of image data to be targeted are selected from the plurality of input image data based on a predetermined selection criterion. May be further provided.

【0017】好ましくは、前記選択手段は、画像データ
に関係する書誌情報に基づき帰納学習を行うことによっ
て、共通の感性を持つと判断される複数の画像データを
前記対象として選択するようにしてもよい。
Preferably, the selection means selects a plurality of image data determined to have a common sensitivity as the object by performing inductive learning based on bibliographic information related to the image data. Good.

【0018】なお、装置に係る本発明は方法に係る発明
としても成立し、方法に係る本発明は装置に係る発明と
しても成立する。また、装置または方法に係る本発明
は、コンピュータに当該発明に相当する手順を実行させ
るための(あるいはコンピュータを当該発明に相当する
手段として機能させるための、あるいはコンピュータに
当該発明に相当する機能を実現させるための)プログラ
ムを記録したコンピュータ読取り可能な記録媒体として
も成立する。
The present invention relating to the apparatus is also realized as an invention relating to a method, and the present invention relating to a method is also realized as an invention relating to an apparatus. Further, the present invention according to an apparatus or a method has a function of causing a computer to execute a procedure corresponding to the present invention (or causing a computer to function as means corresponding to the present invention, or a computer having a function corresponding to the present invention). The present invention is also realized as a computer-readable recording medium on which a program (for realizing the program) is recorded.

【0019】本発明では、例えば、以下のような手法を
用いることができる。 ・画像データ集合に対し、モデル化の際のパラメータを
変更することにより特徴量を操作し、ユーザの感性に基
づいた画像クラスタリングを行う。なお、画像データに
対し、モデル化を行う際、柔軟なモデル化を可能にする
ため、各画像毎に対応するパラメータ、またはシステム
全体を操作するパラメータを用意するようにしてもよ
い。 ・パラメータの設定において、画像に関する書誌情報か
ら帰納学習を行い、抽出された規則を全体の画像に適用
し、その評価から決定される画像集合に共通の感性情報
に基づき、画像をある抽象的な表現を持つ特徴量に変換
するシステム(モデル化システム)におけるパラメータ
を操作する。すなわち、感性情報抽出の対象となる画像
を選定するため、はじめに、画像に関する書誌情報から
帰納学習を行う。対象画像選定の方法は、ユーザに任意
に画像を選定させるなどの方法でもかまわない。また、
帰納学習の手法は、論理に基づく学習でも決定木生成で
もニューラルネットワークでもかまわない。抽出された
規則を全体の画像に適用し、それにより対象とする画像
集合を決定する。対象とする画像集合を、いくつかの集
合に分類し、それぞれの集合から代表画像を選択し、そ
れらに共通の感性情報を強める方向に、モデル化システ
ムにおけるパラメータを操作する。なお、対象とする画
像集合の分類は、クラスタリング手法でも分類手法でも
かまわない。この一連の操作は、画像の感性情報に基づ
く最適なパラメータの探索に相当する。 ・対象画像集合に対し分散を評価尺度として探索を繰り
返し、最終的に得られた最適パラメータに基づいてモデ
ル化し、その際の特徴量とパラメータ集合を保存する。
対象画像集合に対し分散を評価尺度として探索を繰り返
し、最終的に得られた最適パラメータに基づいてモデル
化された画像の特徴量は、何らかの感性を表現するもの
と捉えることができ、将来的に感性診断へ応用すること
が可能である。
In the present invention, for example, the following method can be used. -For the image data set, the feature amount is operated by changing a parameter at the time of modeling, and image clustering is performed based on the user's sensitivity. When modeling image data, in order to enable flexible modeling, parameters corresponding to each image or parameters for operating the entire system may be prepared. In the parameter setting, inductive learning is performed from the bibliographic information on the image, the extracted rules are applied to the entire image, and the image is abstracted based on kansei information common to the image set determined from the evaluation. Manipulate parameters in a system (modeling system) for converting into a feature having an expression. That is, first, inductive learning is performed from bibliographic information on an image in order to select an image to be subjected to sensitivity information extraction. The method of selecting the target image may be a method of allowing the user to arbitrarily select an image. Also,
The method of inductive learning may be logic-based learning, decision tree generation, or neural network. The extracted rules are applied to the entire image, thereby determining a target image set. The target image set is classified into several sets, a representative image is selected from each set, and parameters in the modeling system are manipulated in a direction to enhance sensibility information common to them. Note that the classification of the target image set may be a clustering method or a classification method. This series of operations corresponds to a search for an optimal parameter based on the kansei information of the image. Search is repeatedly performed on the target image set using the variance as an evaluation scale, modeling is performed based on the finally obtained optimal parameters, and the feature amounts and parameter sets at that time are stored.
The search is repeated for the target image set using the variance as an evaluation scale, and the feature amount of the image modeled based on the finally obtained optimal parameters can be regarded as expressing some sensibility, in the future It can be applied to Kansei diagnosis.

【0020】本発明によれば、画像データの感性に関係
する特徴量を抽出する感性モデルのパラメータを、複数
の画像に基づいて最適化することによって、ある画像デ
ータの集合に共通の感性特徴を明らかにすることができ
る。すなわち、本発明によれば、当該複数の画像データ
に共通する感性的な特徴を持つ感性モデルを獲得するこ
とができる。
According to the present invention, a parameter of a kansei model for extracting a characteristic amount related to kansei of image data is optimized based on a plurality of images, so that a common kansei feature is obtained for a certain set of image data. Can be clarified. That is, according to the present invention, it is possible to obtain a kansei model having kansei characteristics common to the plurality of image data.

【0021】また、本発明によれば、静止画像データの
クラスタリングにおいて、画像もしくはそれらのカテゴ
リ情報の指示を入力情報として、特定の利用者の支持す
る画像データ集合を決定し、それらに共通する特徴に基
づいてパラメータ調節を繰り返し実施し、個人、画像毎
に微妙に異なる感性を的確に表現することが可能にな
る。
Further, according to the present invention, in clustering of still image data, an image data set supported by a specific user is determined using an instruction of an image or their category information as input information, and features common to them. , It is possible to accurately express subtly different sensibility for each individual and each image.

【0022】[0022]

【発明の実施の形態】以下、図面を参照しながら発明の
実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0023】本発明は、「画像データを入力とし該画像
データが表示されたときに持つ感性的な表現内容を示す
特徴量(例えば、画像データのイメージカラーに関する
特徴量あるいは画像データの構図的な構造に関する特徴
量あるいは画像データのテクスチャに関する特徴量等)
を出力とする感性モデルを用いて、対象画像データから
特徴量を抽出する処理であって、該感性モデルに、その
入出力特性を決定付けるためのパラメータを持たせたも
の(すなわち、与えられたパラメータによって決定付け
られた入出力特性を持つ感性モデルを用いて、対象画像
データから特徴量を抽出する処理)」を考え、感性的に
何らかの共通点を有すると推定あるいは仮定した複数の
画像データを用いて、該感性モデルのパラメータを最適
化する処理を行うことによって、ユーザ(例えば、同じ
属性を持つ複数のユーザ)がそれら複数の(表示され
た)画像データをみとたきの感性を明らかにするもので
ある(すなわち、最適化されたパラメータによって決定
付けられる入出力特性を持つ感性モデルを、ユーザがそ
れら複数の画像データをみとたきの感性をモデル化した
ものとする)。
According to the present invention, there is provided an image processing apparatus comprising: a feature quantity indicating an emotional expression content when image data is input and displayed (for example, a feature quantity relating to an image color of the image data or a composition of the image data; Features related to structure or features related to texture of image data)
Is a process of extracting a feature amount from target image data using a sensitivity model having an output of (i.e., a parameter that determines the input / output characteristics of the sensitivity model (that is, a given parameter). Using a kansei model with input / output characteristics determined by parameters to extract feature values from target image data), consider multiple image data that are presumed or assumed to have some common sensibility in common. By performing a process for optimizing the parameters of the kansei model, the user (for example, a plurality of users having the same attribute) clarifies the kansei of the plurality of (displayed) image data. (I.e., the user can create a kansei model having input / output characteristics determined by the optimized parameters). Sensibility and a model of the Taki Mito).

【0024】例えば、イメージカラーに関する特徴量を
抽出するための感性モデルは、ユーザが画像データをみ
たときに、その画像データからどのようにしてイメージ
カラーを感じ取るか、というようなモデルを示す(この
場合、例えば、イメージカラーの候補として抽出すべき
色の種類数を絞り込むための第1の処理と、この第1の
処理にて抽出された色がイメージカラーとなる色かどう
かを評価するための第2の処理と、この第2の処理にて
イメージカラーとなると評価された色に関する情報をも
とに最終的に出力すべき特徴量を作成する第3の処理が
行われ、第1の処理におけるパラメータは、色の種類数
を絞り込むための基準を指定するためのパラメータで、
第2の処理におけるパラメータは、抽出された色がイメ
ージカラーとなる色かどうかを評価するための基準を指
定するためのパラメータである(第3の処理において、
最終的に出力すべき特徴量をどのような仕様にするかも
パラメータにし得る))。そして、例えば特定の属性を
有するユーザが好感を抱く傾向にある複数の画像データ
あるいは例えば特定の属性を有するユーザが購入したい
という効果意思を持つ傾向にある製品群に対応する画像
データ群等を用いて感性モデルのパラメータを最適化す
ることによって、ユーザが、どのようにしてそれら複数
の画像データのイメージカラーを感じ取ったか、という
ようなことを、知ることができる。
For example, the kansei model for extracting a feature quantity relating to an image color indicates a model such as how the user perceives the image color from the image data when the user looks at the image data. In this case, for example, a first process for narrowing down the number of types of colors to be extracted as image color candidates and a process for evaluating whether or not the color extracted in the first process is a color to be an image color A second process and a third process of creating a feature amount to be finally output based on the information regarding the color evaluated to be an image color in the second process are performed. Is a parameter for specifying the criteria for narrowing down the number of color types.
The parameter in the second process is a parameter for designating a criterion for evaluating whether the extracted color is an image color (in the third process,
The specification of the feature amount to be finally output can also be a parameter))). Then, for example, a plurality of image data that a user having a specific attribute tends to have a favorable impression or an image data group corresponding to a product group that a user having a specific attribute tends to have an effect intention to purchase is used. By optimizing the parameters of the sensitivity model, it is possible to know how the user perceived the image colors of the plurality of pieces of image data.

【0025】なお、本実施形態で例示する処理の具体例
やパラメータの具体例や処理結果の具体例などは一例で
あり、もちろん本実施形態で例示するものに限定される
ものではない。
The specific examples of the processing, the specific examples of the parameters, and the specific examples of the processing results exemplified in the present embodiment are merely examples, and are not limited to those exemplified in the present embodiment.

【0026】図1に、本実施形態に係る画像処理装置の
構成例を示す。
FIG. 1 shows a configuration example of an image processing apparatus according to the present embodiment.

【0027】図1に示されるように、この画像処理装置
は、画像データ入力部1、パラメータ入力部2、特徴量
計算部3、フィードバック評価部4、特徴量管理部5、
クラスタリング部6、クラスタリング結果評価部7、パ
ラメータ制御部8、パラメータ保存部9、データ記憶部
(図示せず)を備えている。
As shown in FIG. 1, the image processing apparatus includes an image data input unit 1, a parameter input unit 2, a feature amount calculation unit 3, a feedback evaluation unit 4, a feature amount management unit 5,
It includes a clustering unit 6, a clustering result evaluation unit 7, a parameter control unit 8, a parameter storage unit 9, and a data storage unit (not shown).

【0028】データ記憶部は、入力された画像データ、
生成された特徴量、入力されたパラメータ(初期値)、
後述する処理により得られたパラメータなどを記憶する
ためのもので、例えばハードディスクや光ディスク、半
導体メモリなどで構成される。データ記憶部は各種デー
タごとに別々の記憶装置によって構成されていてもよい
し、各種データの全部または一部が同じ記憶装置に記憶
されるように構成されていてもよい。
The data storage unit stores the input image data,
Generated features, input parameters (initial values),
This is for storing parameters and the like obtained by processing described later, and is constituted by, for example, a hard disk, an optical disk, a semiconductor memory, or the like. The data storage unit may be configured by a separate storage device for each type of data, or may be configured such that all or a part of the various types of data is stored in the same storage device.

【0029】この画像処理装置は、ネットワークを介し
て通信相手と情報をやり取りする機能を備えていてもよ
い。
This image processing apparatus may have a function of exchanging information with a communication partner via a network.

【0030】この画像処理装置は、計算機上でソフトウ
ェアを実行する形で実現することができる。この場合
に、必要に応じて、所望の機能を有するOSや、ドライ
バソフト、パケット通信用ソフト、暗号ソフト等といっ
たソフトウェアが搭載される。また、この場合に、ユー
ザからの情報の入力やユーザへの情報の呈示等のため
に、グラフィカル・ユーザ・インタフェース(GUI)
を用いると好ましい。
This image processing apparatus can be realized by executing software on a computer. In this case, an OS having a desired function and software such as driver software, packet communication software, encryption software, and the like are installed as necessary. In this case, a graphical user interface (GUI) is used for inputting information from the user, presenting information to the user, and the like.
Is preferably used.

【0031】図2に、本画像処理装置の処理手順の一例
を示す。
FIG. 2 shows an example of a processing procedure of the image processing apparatus.

【0032】なお、ここでは、感性モデルの一例として
は、画像データのイメージカラーを決定するための感性
モデルを例にとって説明する。
Here, as an example of the sensibility model, a kansei model for determining an image color of image data will be described as an example.

【0033】まず、本画像処理装置では、画像データ入
力部1により、画像データ(10)が、入力される。な
お、キーボード入力、ネットワークによるオンライン入
力、情報伝達の媒体である磁気テープあるいは磁気ディ
スクあるいは光ディスクなどからの読み込み等、種々の
入力形態が可能である(入力形態を1種類に固定して構
成してもよいし、入力形態を複数のものから選択可能に
するように構成してもよい)。
First, in the image processing apparatus, the image data (10) is input by the image data input unit 1. Various input forms such as a keyboard input, an online input via a network, and reading from a magnetic tape, a magnetic disk, or an optical disk as a medium for transmitting information are possible. Or an input form may be selected from a plurality of forms).

【0034】画像データは、デジタル化されたもの(カ
ラー・ビットマップ・データまたはこれに変換可能なデ
ータ)であれば、どのようなものであってもよい。ま
た、本実施形態では、画像データがカラー画像であるこ
とを想定しているが、もちろん白黒の画像データも色に
関する特徴量を持っており、白黒の画像データを処理対
象から排除するものではない。なお、本実施形態では、
画像データ入力部1から既にデジタル化された画像デー
タを入力する場合を例にとって説明しているが、本画像
モデル化装置に、画像データのソースであって未だデジ
タル化されていないものを、デジタル化して取り込む機
能を設けてもよい。
The image data may be any digitized data (color bitmap data or data that can be converted into color bitmap data). Further, in the present embodiment, it is assumed that the image data is a color image, but of course, the black and white image data also has a characteristic amount related to color, and the black and white image data is not excluded from the processing target. . In the present embodiment,
An example in which already digitized image data is input from the image data input unit 1 has been described. However, the present image modeling apparatus uses a source of image data that has not yet been digitized as a digital source. It is also possible to provide a function of converting and capturing.

【0035】なお、画像データ入力部1から複数の画像
データを入力し、それらのうちからパラメータ最適化処
理に用いる画像データを自動選択あるいはユーザ指定す
る構成も可能であるし、画像データ入力部1から入力さ
れた複数の画像データをすべてパラメータ最適化処理に
用いるものとする構成も可能である。
Incidentally, a configuration is also possible in which a plurality of image data is input from the image data input unit 1 and the image data to be used for the parameter optimizing process is automatically selected or designated by the user. It is also possible to adopt a configuration in which a plurality of pieces of image data input from are used for the parameter optimization processing.

【0036】また、パラメータ入力部2により、パラメ
ータの初期値が、キーボード入力あるいはネットワーク
によるオンライン入力あるいは情報伝達の媒体である磁
気テープからの読み込みなどの所定の入力形態で、入力
される(ステップS1)。パラメータの初期値の入力
は、最初のステップS2(特徴量の抽出)の処理が行わ
れる以前の任意のタイミングで行っても構わない。な
お、パラメータの初期値は、外部から与えるのではな
く、予め定めた初期値を用いるようにしてもよい(例え
ば、プログラム中に作り込んでしまうか、あるいは所定
のファイルに記述しておき、プログラムが該所定のファ
イルを参照するなど)。
The parameter input unit 2 inputs an initial value of a parameter in a predetermined input form such as a keyboard input, online input via a network, or reading from a magnetic tape as a medium for information transmission (step S1). ). The input of the initial value of the parameter may be performed at an arbitrary timing before the processing of the first step S2 (extraction of the feature amount) is performed. Note that the initial values of the parameters may not be given from outside, but may be predetermined initial values (for example, they may be created in a program or described in a predetermined file, and Refers to the predetermined file).

【0037】図3に、パラメータ情報の一例を示す。こ
れらパラメータは、詳しくは後述するが、イメージカラ
ーを決定するための感性モデルの一例におけるパラメー
タであって、パラメータrは、混色の閾値であり、パラ
メータcは、限定色数であり、パラメータv(s,t,
u)は、誘目性の高さの計算のための影響比率(色相、
彩度、明度それぞれへの影響比率)であり、パラメータ
m(e,f,g)は、目立つ度合い計算のための影響比
率(色の領域の大きさ、誘目性の高さ、コントラスト感
の高さそれぞれへの影響比率)であり、パラメータi
は、指定色数(最終的に出力するイメージカラーの種類
数)である。なお、この例の場合、パラメータ最適化処
理においては特徴量として使用すべきイメージカラーの
種類数が別に定められる。本実施形態では、特徴量計算
部3にて感性モデルの本来の出力を求めて保存するとと
もに、その中からパラメータ最適化処理に用いるものを
取り出すようにしているのでパラメータiも初期値とし
て入力しているが、特徴量計算部3にてパラメータ最適
化処理のために必要な特徴量のみ求めるようにする場合
には、パラメータiの初期値は入力しなくて構わない
(すなわち、パラメータiは、最適化の対象にはならな
い)。また、他のパラメータr,c,s,t,u,e,
f,gの一部のものを固定して最適化の対象からは除外
することも可能である。
FIG. 3 shows an example of the parameter information. As will be described in detail later, these parameters are parameters in an example of a sensitivity model for determining an image color. The parameter r is a threshold value of color mixture, the parameter c is the limited number of colors, and the parameter v ( s, t,
u) is the influence ratio (hue,
And the parameter m (e, f, g) is the influence ratio (color area size, attractiveness, and contrast) for calculating the degree of conspicuousness. And the parameter i
Is the designated number of colors (the number of types of image colors to be finally output). In the case of this example, in the parameter optimization processing, the number of types of image colors to be used as feature amounts is separately determined. In the present embodiment, the original output of the sensibility model is obtained and stored in the feature amount calculation unit 3, and the output used for the parameter optimization processing is extracted from the output. Therefore, the parameter i is also input as an initial value. However, when the feature amount calculation unit 3 determines only the feature amount necessary for the parameter optimization processing, the initial value of the parameter i may not be input (that is, the parameter i is Not be subject to optimization). Also, other parameters r, c, s, t, u, e,
It is also possible to fix some of f and g and exclude them from the object of optimization.

【0038】なお、ここでは、感性モデルやパラメータ
の仕様は、予め定められている場合を例にとって説明し
ているが、複数の感性モデルやパラメータのうちから、
使用するものをユーザが選択できるようにしてもよい。
Here, the specification of the sensibility model and the parameter is described by taking a case where the specification is predetermined as an example.
The user may be able to select what to use.

【0039】さて、次に、特徴量計算部3にて、複数の
画像データのそれぞれに、与えられたパラメータ(最初
はパラメータの初期値、以降は更新されたパラメータ)
に基づく感性モデルを適用して、各画像データの特徴量
を抽出する(ステップS2)。
Next, in the feature amount calculation section 3, given parameters (initial parameter initial values, updated parameters thereafter) are assigned to each of the plurality of image data.
A feature amount of each image data is extracted by applying a sensitivity model based on the image data (step S2).

【0040】図4に、イメージカラーの決定結果の一例
を示す。この例では、6種類(すなわちパラメータi=
6の場合)のイメージカラーについて、イメージカラー
としての評価値L(例えば、1.668346)と、H
SV空間座標値(例えば、(0.599099,0.1
83168,0.789062))と、RGB空間座標
値(たとえば、(165,180,202))が出力さ
れている。
FIG. 4 shows an example of an image color determination result. In this example, six types (that is, the parameter i =
6), an evaluation value L (for example, 1.668346) as an image color and H
SV space coordinate values (for example, (0.599099, 0.1
83168, 0.789062) and RGB space coordinate values (for example, (165, 180, 202)).

【0041】抽出された特徴量は、そのもととなった画
像データに付加されてまたはその画像データの識別情報
に対応付けて、保存される。
The extracted features are added to the original image data or stored in association with the identification information of the image data.

【0042】この特徴量計算部3の処理の具体例につい
ては後に詳細に説明する。
A specific example of the process performed by the feature value calculator 3 will be described later in detail.

【0043】なお、画像データ入力部1から複数の画像
データを入力し、それらのうちからパラメータ最適化処
理に用いる画像データを自動選択あるいはユーザ指定す
る構成の場合には、この時点で入力された全画像データ
の特徴量を抽出するのではなく、パラメータ最適化処理
に用いる画像データが選択あるいは指定された後に、そ
れら選択あるいは指定された画像データについてのみ特
徴量を抽出するようにしてもよい(例えば、画像データ
の特徴量の抽出を、初回は、ステップS12の後に行う
ようにしてもよい)。
In the case of a configuration in which a plurality of image data is input from the image data input unit 1 and image data to be used for parameter optimization processing is automatically selected or designated by the user, the input is made at this time. Instead of extracting the feature amounts of all the image data, after the image data to be used for the parameter optimization processing is selected or designated, the feature amounts may be extracted only from the selected or designated image data ( For example, the extraction of the feature amount of the image data may be performed for the first time after step S12).

【0044】次に、本実施形態では、画像データ入力部
1から入力された複数の画像データのうちから、パラメ
ータ最適化処理に用いる画像データを自動選択あるいは
ユーザ指定する。
Next, in the present embodiment, image data to be used for parameter optimization processing is automatically selected or designated by the user from a plurality of image data input from the image data input unit 1.

【0045】ここでは、自動選択の一例として、製品あ
るいは商品の購買意欲調査によるアンケート結果を利用
し、感性情報に基づく画像データのクラスタリングによ
って、ある製品の購買意欲を駆り立てられた利用者を決
定し、製品に対応するコマーシャル(CM)画像から、
それらの利用者の感性を明らかにするような場合を例に
とって説明する。
Here, as an example of automatic selection, a questionnaire result obtained by a survey on purchase motivation of a product or a product is used, and a user who has been motivated to purchase a certain product is determined by clustering image data based on sensibility information. , From the commercial (CM) image corresponding to the product,
A case where the sensitivity of those users is clarified will be described as an example.

【0046】この場合、まず、フィードバック評価部4
にて、画像データ入力部1によって提示された画像デー
タ集合に対して、購買者を定義する規則の学習がこれま
でに行われていないか、それとも、学習済みでフィード
バックがなされたかを判断する(ステップS3)。
In this case, first, the feedback evaluation unit 4
It is determined whether the learning of the rule defining the buyer has not been performed on the image data set presented by the image data input unit 1 or the learning has been completed and the feedback has been made ( Step S3).

【0047】これまでに学習が行われていなければ、ス
テップS12に進む。なお、詳しくは後述するが、既に
学習されていれば、特徴量空間(HSV空間)における
入力画像の分布が収縮したかどうかを判断するステップ
S4に進む。
If the learning has not been performed, the process proceeds to step S12. Although details will be described later, if the learning has already been performed, the process proceeds to step S4 for determining whether the distribution of the input image in the feature amount space (HSV space) has contracted.

【0048】さて、ステップS12(購買者の特徴抽
出)においては、CMの影響で特定の製品の購買意欲を
そそられた消費者の条件を学習する。
In step S12 (purchase feature extraction), the condition of the consumer who has been motivated to purchase a specific product by the influence of the CM is learned.

【0049】例えば図5の入力データの内容や図6のデ
ータの具体例に示すように、製品や消費者に関する書誌
データをもとに、製品の購入意欲を学習ターゲットと
し、消費者属性を背景知識として、購入する意欲をもっ
た消費者の特徴の獲得を試みる。
For example, as shown in the contents of the input data in FIG. 5 and the specific examples of the data in FIG. 6, based on bibliographic data on the product and the consumer, the willingness to purchase the product is set as a learning target, and the consumer attribute is set as a background. As knowledge, try to acquire the characteristics of consumers who are willing to buy.

【0050】なお、図5の例では、入力データの種類と
して、プログラムパラメータ、モード宣言、正事例、背
景知識を用い、プログラムパラメータの内容としてはノ
イズ許容値、探索ノード数制限、入力モード、モード宣
言の内容としては生成する規則の型、正事例の内容とし
ては購入予定者と購入予定製品の関係、背景知識の内容
としては購入予定者の個人情報(性別、世代、収入、家
族関係など)、購入予定者の生活情報(趣味、各種機関
利用率、購読新聞、生活意識など)を用いる場合を例示
している。図6は図5を具体化した一例である。
In the example shown in FIG. 5, program parameters, mode declarations, positive cases, and background knowledge are used as the types of input data, and the contents of the program parameters are a noise allowable value, a limit on the number of search nodes, an input mode, and a mode. The content of the declaration is the type of rule to be generated, the content of the correct case is the relationship between the purchaser and the product to be purchased, and the background knowledge is the personal information of the purchaser (sex, generation, income, family relationship, etc.) In this case, the case of using life information of the prospective purchaser (hobbies, utilization rates of various organizations, subscribed newspapers, life consciousness, etc.) is illustrated. FIG. 6 is an example of the embodiment of FIG.

【0051】ここでは、属性の階層関係に加え属性間の
関係を表す情報を背景知識として扱うため、帰納学習の
手法として、S.Muggletonの開発したPro
gol(「S.Muggleton:“Inverse
entailment and Progol”,
New Generation Computing,
Vol.13, pp.245−286, 199
5」、「Sam.Roberts:“An Intro
duction of Progol”, 199
7」)を用いるものとするが、もちろん、論理に基づく
学習、決定木生成、ニューラルネットワークなど、他の
方法を用いることもできる。
Here, in order to handle information indicating the relation between attributes as background knowledge in addition to the hierarchical relation of attributes, S.N. Pro developed by Muggleton
gol (“S. Muggleton:“ Inverse
entailment and Progol ”,
New Generation Computing,
Vol. 13, pp. 245-286, 199
5, "Sam. Roberts:" An Intro
"Ducation of Progol", 199
7)), but of course, other methods such as logic-based learning, decision tree generation, and neural networks can also be used.

【0052】このような学習によって、例えば図7に示
すようなルールを獲得することができる。
By such learning, for example, a rule as shown in FIG. 7 can be obtained.

【0053】次に、図7に例示するようなルールを画像
データに反映させるため、まず、ルールによって説明さ
れる消費者集合B(例えば、外国ブランドが好きでない
という属性を持つ消費者の集合)が、その特定の製品
(例えば、テレビゲーム)の他に購入を予定している製
品の集合Aを、以下のように求める(ステップS1
3)。(1)ルールの条件部を全体集合に適用し、消費
者集合Bが特定の製品(例えば、テレビゲーム)以外に
購入を予定している対象製品群(例えば、DVDソフ
ト、パソコン、携帯電話、…)を探し出す。 (2)この対象製品群に含まれる製品の各々について、
消費者集合Bのうち当該製品(例えば、DVDソフト)
に対して購買意欲を持った消費者の割合が、全消費者の
うち当該製品(例えば、DVDソフト)に対して購買意
欲を持った消費者の割合より大きくなるならば、当該製
品(例えば、DVDソフト)は、消費者集合Bが特定の
製品(例えば、テレビゲーム)とともに購買意欲を持っ
た製品であると判断する。
Next, in order to reflect the rule illustrated in FIG. 7 in the image data, first, a consumer set B described by the rule (for example, a set of consumers having an attribute that they do not like a foreign brand) Obtains a set A of products to be purchased in addition to the specific product (for example, a video game) as follows (step S1).
3). (1) The condition part of the rule is applied to the entire set, and the target set (for example, DVD software, personal computers, mobile phones, ...). (2) For each of the products included in this target product group,
The product (for example, DVD software) in the consumer set B
If the percentage of consumers who have a willingness to purchase is greater than the percentage of consumers who have a willingness to purchase the product (for example, DVD software) among all consumers, the product (for example, DVD software) determines that the consumer set B is a product that has motivation to purchase together with a specific product (for example, a video game).

【0054】(3)そして、上記の特定の製品(例え
ば、テレビゲーム)と、(1)の対象製品群のうち
(2)の条件を満たす製品群とを、製品群Tとする。
(3) The specific product (for example, a video game) and the product group satisfying the condition (2) among the target product groups of (1) are defined as a product group T.

【0055】製品群Tが決まったならば、製品群Tに属
する個々の製品に対応する画像データの集合を、パラメ
ータ最適化処理で使用する対象画像データとする(ステ
ップS14)。
When the product group T is determined, a set of image data corresponding to each product belonging to the product group T is set as target image data used in the parameter optimization processing (step S14).

【0056】次に、ユーザ指定の例について説明する。
この場合、まず、ステップS3にて、対象画像データが
既に指定されているか否かを判断する。そして、未だ指
定されていなければ、ステップS12〜S14の代わり
に、ユーザが対象画像データを指定する。ユーザが対象
画像データを指定する方法には、種々の形態が考えら
れ、例えば、画像データに属性情報が付加されている場
合に、対象にする画像データが持つべき属性情報に関す
る条件をユーザが指定するようにしてもよいし、また例
えば、1枚ずつあるいは複数枚ずつ画像データを表示し
てそれを閲覧したユーザから各画像データを対象にする
か否かの指示を受け付けるようにしてもよい。
Next, an example of user designation will be described.
In this case, first, in step S3, it is determined whether or not the target image data has already been specified. If not specified, the user specifies the target image data instead of steps S12 to S14. There are various ways for the user to specify the target image data. For example, when attribute information is added to the image data, the user specifies the condition regarding the attribute information that the target image data should have. Alternatively, for example, image data may be displayed one by one or a plurality of images, and an instruction as to whether or not each image data is targeted may be received from a user who has viewed the image data.

【0057】さて、対象画像データが決まったならば、
特徴管理部5は、特徴量計算部3において求められた特
徴量のうち、対象画像データの特徴量を以降の処理のた
めに持ってくる。その際に、保存されいる特徴量を加工
する必要がある場合には、加工して保存しておくものと
する。例えば、図4に例示したような特徴量が保存され
ており、以降の処理では上位2色のイメージカラーのH
SV空間座標値を連結して6次元ベクトルデータとした
特徴量を用いる場合には、6次元ベクトルデータ(図4
の例の場合、(0.599099,0.183168,
0.789062,0.666667,0.02083
3,0.187500))にして記憶しておく。
Now, once the target image data is determined,
The feature management unit 5 retrieves the feature amount of the target image data from among the feature amounts obtained by the feature amount calculation unit 3 for subsequent processing. At this time, if it is necessary to process the stored feature amount, it is processed and stored. For example, the feature amounts illustrated in FIG. 4 are stored, and in the subsequent processing, H of the upper two image colors is stored.
In the case of using a feature amount which is made up of 6-dimensional vector data by connecting SV space coordinate values, 6-dimensional vector data (FIG. 4)
For example, (0.599099, 0.183168,
0.789062, 0.666667, 0.02083
3, 0.187500)).

【0058】次に、対象画像データの特徴量のクラスタ
リング(ステップS6)、代表画像の選定(ステップS
7)、パラメータ調整(ステップS8)を行う。
Next, clustering of feature amounts of the target image data (step S6), selection of a representative image (step S6)
7) Perform parameter adjustment (step S8).

【0059】ここで、特徴量の一例として、画像データ
のイメージカラーを決定するための感性モデルから得ら
れた上位2色のイメージカラーのHSV空間座標値を連
結して6次元ベクトルデータを用いるものとする。
Here, as an example of the feature value, the 6-dimensional vector data obtained by connecting the HSV space coordinate values of the upper two image colors obtained from the kansei model for determining the image color of the image data is used. And

【0060】また、ここでは、上記の自動選択によって
選択された対象画像データを使ってパラメータ最適化を
行う場合を例にとって説明する。
Here, a case where parameter optimization is performed using the target image data selected by the above automatic selection will be described as an example.

【0061】この場合、上記の自動選択によって選択さ
れた製品群Lに属する個々の製品に対応するCM画像デ
ータが共通して持つ特徴が、消費者集合Bにアピールし
た要素であると考えられる。
In this case, it is considered that the features shared by the CM image data corresponding to the individual products belonging to the product group L selected by the automatic selection are elements appealing to the consumer set B.

【0062】まず、クラスタリング部6にて、画像デー
タ(例えばCM画像データ)の特徴量に関してクラスタ
リングを行う(ステップS6)。なお、ここでは、CM
画像データの印象は、製品カテゴリによって異なると予
想し、製品群に属する製品カテゴリの数をクラスタ数と
するが、クラスタ数の設定については、その他の方法も
可能である。ここでは、K−Means法(「統計学事
典(p.389) 竹内哲編東洋経済新報社 ISBN4-492-01038
-6」)というクラスタリング手法を用いるものとする
が、もちろん、他のクラスタリング手法あるいは分類手
法を用いてもかまわない。
First, the clustering unit 6 performs clustering on the feature amount of image data (for example, CM image data) (step S6). Note that here, CM
The impression of the image data is expected to differ depending on the product category, and the number of product categories belonging to the product group is set as the number of clusters. However, other methods are also possible for setting the number of clusters. Here, the K-Means method ("Statistics Encyclopedia (p.389), edited by Satoshi Takeuchi, Toyo Keizai Shimpo ISBN4-492-01038")
-6 "), but of course, other clustering methods or classification methods may be used.

【0063】次に、クラスタリング結果評価部7にて、
クラスタリングの結果を評価する。
Next, the clustering result evaluation unit 7
Evaluate the result of clustering.

【0064】各クラスタの代表要素は、互いに関係が薄
いと推測し、クラスタ内の特徴量の平均値から最も近い
特徴量に対応する画像データを代表画像データとする
(ステップS7)。
It is presumed that the representative elements of each cluster have little relationship with each other, and image data corresponding to the feature amount closest to the average value of the feature amounts in the cluster is set as representative image data (step S7).

【0065】例えば、簡単のために特徴量を2次元デー
タとしクラスタ数を2とした場合に、図8に例示するよ
うに、クラスタK1で特徴量ベクトルのクラスタ内平均
値に最も近い特徴量ベクトルk1に対応する画像データ
が、クラスタK1における代表画像データとして決定さ
れ、同様に、クラスタK2で特徴量ベクトルのクラスタ
内平均値に最も近い特徴量ベクトルk2に対応する画像
データが、クラスタK2における代表画像データとして
決定される。もちろん、特徴量ベクトルの次元数が3次
元以上の場合やクラスタ数が3以上の場合も同様であ
る。
For example, when the feature quantity is two-dimensional data and the number of clusters is 2 for simplicity, as shown in FIG. 8, the feature quantity vector closest to the intra-cluster average value of the feature quantity vector in the cluster K1 is used. The image data corresponding to k1 is determined as the representative image data in the cluster K1. Similarly, the image data corresponding to the feature vector k2 closest to the average value of the feature vectors in the cluster K2 is defined as the representative image data in the cluster K2. Determined as image data. Of course, the same applies when the number of dimensions of the feature quantity vector is three or more, or when the number of clusters is three or more.

【0066】次に、代表画像データに共通する特徴は例
えばCM画像データの印象に基づいた同様の感性特徴と
して捉えられると考え、パラメータ制御部8にて、それ
らを強調するように、特徴量計算部3により得られる結
果(図4参照)を制御するパラメータ(図3参照)を操
作する(ステップS8)。
Next, it is considered that the features common to the representative image data can be regarded as similar sensitivity features based on the impression of the CM image data, for example, and the parameter control unit 8 calculates the feature amount so as to emphasize them. A parameter (see FIG. 3) for controlling a result (see FIG. 4) obtained by the unit 3 is operated (step S8).

【0067】具体的には、まず、それまでで最適とされ
ていたパラメータ(ここでの調整前あるいは更新前のパ
ラメータ)を用いて得られた代表画像データに関する特
徴量(例えば、6次元ベクトルデータ)に基づく所定の
評価値を求める(前回の処理で計算された値を保存して
おいてこれを参照するようにしてもよいし、ここで計算
してもよい)。そして、それまでで最適とされていたパ
ラメータを基準として、全て(または一部)のパラメー
タに対して、値を上昇、下降の両方向に操作し(例え
ば、多重ループ的に操作し)、それらのもとで、更新後
の候補となる各々のパラメータについて、それを用いた
場合に特徴量計算部3により得られる代表画像データに
関する特徴量(例えば、6次元ベクトルデータ)をそれ
ぞれ求め、さらに、それぞれについて、代表画像データ
に関する特徴量(6次元ベクトルデータ)に基づく所定
の評価値を求める。そして、更新後の値の候補となるパ
ラメータについての所定の評価値が最善のもので、か
つ、それまでで最適とされていたパラメータについての
所定の評価値よりも改善されるものがあるか否かを調
べ、そのような所定の評価値を持つパラメータがあれ
ば、そのパラメータを現時点での最適解とする(実際に
どのような順番でパラメータを操作し、評価値を求め、
評価値同士の比較を行っていくかについては、種々のバ
リエーションが可能である)。もし、そのようなパラメ
ータが得られなかったならば、それまでのパラメータが
最適解として決定する。
More specifically, first, feature amounts (for example, six-dimensional vector data) relating to representative image data obtained using the parameters which have been optimized so far (the parameters before adjustment or before updating) are obtained. ) Is obtained (the value calculated in the previous process may be stored and referred to, or may be calculated here). Then, with respect to all (or a part of) the parameters, the values are operated in both upward and downward directions (for example, in a multi-loop operation) with respect to the parameters that have been determined to be optimal so far. Originally, for each of the updated candidate parameters, a feature amount (for example, 6-dimensional vector data) relating to the representative image data obtained by the feature amount calculation unit 3 when using the parameter is obtained. , A predetermined evaluation value based on the characteristic amount (six-dimensional vector data) relating to the representative image data is obtained. Then, it is determined whether or not a predetermined evaluation value for a parameter that is a candidate for an updated value is the best and is improved more than a predetermined evaluation value for a parameter that has been optimized so far. If there is a parameter having such a predetermined evaluation value, the parameter is determined as an optimal solution at the present time (actually operating the parameters in any order to obtain the evaluation value,
Various variations are possible as to whether to compare the evaluation values.) If such parameters cannot be obtained, the previous parameters are determined as the optimal solution.

【0068】上記の所定の評価値は、例えば、図8に示
すように、代表画像データの特徴量ベクトル間のベクト
ル空間上での距離であり、この場合、距離が小さいほど
善い評価値であり、距離が減少するほど、評価値が改善
したということになる。図9の例の場合は、特徴量ベク
トルk1’と特徴量ベクトルk2’との距離が、特徴量
ベクトルk1と特徴量ベクトルk2との距離よりも減少
しており、かつ、候補の中で最も短いので、特徴量ベク
トルk1’と特徴量ベクトルk2’を与えるパラメータ
が、更新後のパラメータとして選択される。
The above-mentioned predetermined evaluation value is, for example, as shown in FIG. 8, a distance in the vector space between the characteristic amount vectors of the representative image data. In this case, the smaller the distance, the better the evaluation value. That is, as the distance decreases, the evaluation value improves. In the case of the example of FIG. 9, the distance between the feature vector k1 ′ and the feature vector k2 ′ is smaller than the distance between the feature vector k1 and the feature vector k2, and Since it is short, a parameter that provides the feature vector k1 ′ and the feature vector k2 ′ is selected as an updated parameter.

【0069】なお、代表画像データが3以上ある場合に
は、代表画像データ対の全ての組み合わせについて特徴
量間の距離を総計したものを評価値とする方法、代表画
像データ対の全ての組み合わせのうちの特定の一部分の
ものについて特徴量間の距離を総計したものを評価値と
する方法がある。後者の場合、例えば、代表画像データ
が#1〜#nまであるとして、代表画像データ#1の特
徴量#1と代表画像データ#2の特徴量#2の距離、特
徴量#2と特徴量の距離#3、特徴量#3と特徴量#4
の距離、…、特徴量#n−1と特徴量#nの距離の総計
を取ったもの、あるいはこれにさらに特徴量#nと特徴
量#1の距離を加えたものなど、種々の形態がある。
If there are three or more representative image data pairs, the sum of the distances between the feature values for all combinations of representative image data pairs is used as the evaluation value. There is a method in which the sum of the distances between the feature values of a specific part of the evaluation value is used as an evaluation value. In the latter case, for example, assuming that the representative image data is # 1 to #n, the distance between the characteristic amount # 1 of the representative image data # 1 and the characteristic amount # 2 of the representative image data # 2, the characteristic amount # 2 and the characteristic amount Distance # 3, feature # 3 and feature # 4
,..., The sum of the distances between feature # n−1 and feature #n, or the sum of the distance between feature #n and feature # 1. is there.

【0070】なお、以上で説明したパラメータの更新方
法は一例であり、他の方法を用いることも可能である。
Note that the above-described parameter updating method is an example, and other methods can be used.

【0071】さて、所定の評価値が改善された更新後の
パラメータが得られたならば(ステップS9)、パラメ
ータ保存部9にて、更新されたパラメータを保存する
(ステップS11)。
When an updated parameter having an improved predetermined evaluation value is obtained (step S9), the updated parameter is stored in the parameter storage unit 9 (step S11).

【0072】一方、所定の評価値が改善された更新後の
パラメータが得られなかったならば、この処理を終了す
る(ステップS10)。そして、それまでで最適とされ
ていたパラメータが最適解として決定される。
On the other hand, if the updated parameter whose predetermined evaluation value has been improved cannot be obtained, the process is terminated (step S10). Then, the parameters that have been optimized so far are determined as optimal solutions.

【0073】なお、ステップS6〜ステップS8で用い
る特徴量の内容をユーザが指定可能としてもよい。
The contents of the feature amounts used in steps S6 to S8 may be specified by the user.

【0074】さて、所定の評価値が改善された更新後の
パラメータが得られ、保存されたならば、フィードバッ
クし、まず、ステップ2で、更新後のパラメータを用い
て、対象画像データの特徴量の抽出を行う。
Now, if updated parameters with improved predetermined evaluation values are obtained and stored, feedback is provided. First, in step 2, the feature values of the target image data are obtained using the updated parameters. Is extracted.

【0075】次に、ステップS4において、フィードバ
ック評価部4では、対象画像データ(例えば、製品群T
に属する個々の製品に対応する画像データ)の特徴量ベ
クトルのベクトル空間における分布が収縮したかどうか
を判断する。
Next, in step S4, the feedback evaluation section 4 sets the target image data (for example, the product group T
It is determined whether or not the distribution in the vector space of the feature amount vector of the image data corresponding to each product belonging to.

【0076】凝集したかどうかを判定する尺度には、種
々のバリエーションが考えられる。
Various variations can be considered as a scale for determining whether or not aggregation has occurred.

【0077】例えば、凝集したかどうかを判定する尺度
として。次の3種類の評価値の重み付け加算値(重みが
0の場合を含む)がある。 ・クラスタ内の各要素と中心との距離値合計 ・クラスタ中心間の距離 ・対象画像データ集合の特徴量の分散 例えば、更新前のパラメータと、更新後のパラメータに
ついて、それぞれ、上記の尺度の値を計算する(更新前
のパラメータについては更新前のパラメータを用いた場
合のクラスタリング結果に基づいて求め、更新後のパラ
メータについては更新後のパラメータを用いた場合のク
ラスタリング結果に基づいて求める)。そして、上記の
例の場合、更新後のパラメータの尺度の値が、更新前の
パラメータの尺度の値よりも小さくなっていれば、対象
画像データ集合の特徴量空間における分布が収縮したと
判断する。なお、この場合には、更新前のパラメータに
よるクラスタリングの結果は既に得られたものを用いれ
ばよいが、更新後のパラメータによるクラスタリングの
結果はまだ得られていないので、更新後のパラメータに
よるステップS6のクラスタリングを、この時点で行え
ばよい。
For example, as a scale for determining whether or not aggregation has occurred. There are three types of evaluation value weighted addition values (including a case where the weight is 0). -Total distance value between each element in the cluster and the center-Distance between cluster centers-Dispersion of feature amount of target image data set For example, for the parameter before update and the parameter after update, the value of the above scale is respectively (The parameters before the update are obtained based on the clustering result when the parameters before the update are used, and the parameters after the update are obtained based on the clustering result when the parameters after the update are used). In the case of the above example, if the value of the parameter scale after the update is smaller than the value of the parameter scale before the update, it is determined that the distribution of the target image data set in the feature amount space has contracted. . In this case, the result of the clustering using the parameters before the update may be the one already obtained, but the result of the clustering using the parameters after the update has not yet been obtained. May be performed at this point.

【0078】例えば、更新後のパラメータに対する対象
画像データ集合の特徴量空間における分布が図10のよ
うになったとすると、図8の更新前のパラメータに対す
る対象画像データ集合の特徴量空間における分布よりも
収縮したと判断される。この場合には、処理が続行され
ることになる。
For example, if the distribution of the target image data set in the feature quantity space for the updated parameters is as shown in FIG. 10, the distribution in the feature quantity space of the target image data set for the parameter before the update in FIG. It is determined that it contracted. In this case, the processing will be continued.

【0079】なお、ステップS4で用いる凝集したかど
うかを判定する尺度の内容をユーザが指定可能としても
よい。
The content of the scale used in step S4 for determining whether or not aggregation has occurred may be specified by the user.

【0080】さて、対象画像データ集合の特徴量空間に
おける分布が収縮しなかった(分布が発散した)と判断
されたならば(ステップS4)、この処理を終了し(ス
テップS5)、更新後のパラメータではなく、その前の
パラメータを最適解として決定する。
If it is determined that the distribution of the target image data set in the feature space has not shrunk (the distribution has diverged) (step S4), this processing is terminated (step S5), and the updated The previous parameter, not the parameter, is determined as the optimal solution.

【0081】対象画像データ集合の特徴量空間における
分布が収縮したと判断されたならば、対象画像データ集
合の印象に基づいた感性を表すより善いパラメータが得
られたと判断し、以降、ステップS9でより善いパラメ
ータが得られなかったと判断されるか、またはステップ
S4で分布が発散したと判断されるまで、ステップS6
〜S9の処理と、ステップS2の処理を、繰り返し行
う。そして、最終的に、最適と判断されるパラメータが
得られる。
If it is determined that the distribution of the target image data set in the feature quantity space has shrunk, it is determined that a better parameter representing the sensibility based on the impression of the target image data set has been obtained. Until it is determined that a better parameter has not been obtained or the distribution has diverged in step S4, step S6
Steps S9 and S2 are repeated. Finally, parameters determined to be optimal are obtained.

【0082】さて、以下では、画像データを入力とし該
画像データが表示されたときに持つ感性的な表現内容を
示す特徴量を出力とする感性モデルであって、その入出
力特性を決定付けるためのパラメータを持つ感性モデル
を用いて、画像データから特徴量を抽出する例について
説明する。
In the following, there will be described a kansei model in which image data is input and a feature quantity indicating sensuous expression content possessed when the image data is displayed is output. An example of extracting a feature amount from image data using a sensitivity model having the following parameters will be described.

【0083】図11に、この場合の特徴量計算部3の内
部構成例を示す。
FIG. 11 shows an example of the internal configuration of the feature value calculator 3 in this case.

【0084】図12に、色に基づくモデル化におけるイ
メージカラーの抽出についての処理手順の一例を示す。
図12の処理が、各々の画像データに対して行われる。
FIG. 12 shows an example of a processing procedure for extracting an image color in color-based modeling.
The process of FIG. 12 is performed for each image data.

【0085】パラメータは図3の例の通りとする。パラ
メータrは、混色の閾値であり、パラメータcは、限定
色数であり、パラメータv(s,t,u)は、誘目性の
高さの計算のための影響比率(色相、彩度、明度それぞ
れへの影響比率)であり、パラメータm(e,f,g)
は、目立つ度合い計算のための影響比率(色の領域の大
きさ、誘目性の高さ、コントラスト感の高さそれぞれへ
の影響比率)であり、パラメータiは、指定色数であ
る。
The parameters are as shown in the example of FIG. The parameter r is a threshold value of color mixture, the parameter c is a limited number of colors, and the parameter v (s, t, u) is an influence ratio (hue, saturation, lightness) for calculating the attractiveness. And the parameter m (e, f, g)
Is the influence ratio for calculating the degree of conspicuousness (the ratio of influence on the size of the color region, the height of the attractiveness, and the height of the contrast feeling), and the parameter i is the designated number of colors.

【0086】まず、カラーリスト作成部33により、対
象とする画像データに対するカラーリストを作成する。
First, the color list creation unit 33 creates a color list for the target image data.

【0087】カラーリスト作成部33は、対象とする画
像データを、画素に分割し、各画素に対応する色情報を
読み込む処理を行う(ステップS21)。各色は、3原
色R(赤)、G(緑)、B(青)、各8ビット階調によ
り表現される。これらの値を、既知の座標変換式に基づ
きL*a*b*空間に変換する。
The color list creating section 33 divides the target image data into pixels and reads color information corresponding to each pixel (step S21). Each color is represented by three primary colors R (red), G (green), B (blue), and 8-bit gradation. These values are converted into an L * a * b * space based on a known coordinate conversion formula.

【0088】次に、カラーリスト作成部33は、L*a
*b*空間座標値で表現される登録色と、それらの各々
について画素数を合計した出現数とで構成される、カラ
ーリストを作成する(ステップS22)。
Next, the color list creation unit 33 determines whether L * a
A color list composed of registered colors represented by * b * space coordinate values and the number of appearances obtained by adding the number of pixels for each of them is created (step S22).

【0089】ただし、本実施形態では、カラーリストを
作成する際に、L*a*b*空間に変換された後のベク
トルについて、単に同じものの個数の集計を取るのでは
なく、混色という処理を行うようにする。
However, in the present embodiment, when a color list is created, a process of mixing colors is used for the vector converted into the L * a * b * space. To do.

【0090】まず、入力画像データの各画素の色のL*
a*b*空間ベクトル値を1つ読み込んで、その3次元
ベクトル値と、その出現数=1を、カラーリストに登録
する。
First, L * of the color of each pixel of the input image data
One a * b * space vector value is read, and its three-dimensional vector value and the number of appearances = 1 are registered in a color list.

【0091】以降は、入力画像データの各画素の色のL
*a*b*空間ベクトル値について、未処理のものから
1つを読み込んで、新しく読み込んだ色のベクトル値
と、カラーリストにそれまでの処理で既に登録されてい
る登録色のベクトル値との、L*a*b*空間上のユー
クリッド距離(登録色が複数あるときは、その最小値)
を計算し、求めたユークリッド距離が、混色の閾値(パ
ラメータr)より大きければ、カラーリストに近い色が
ないと判断し、新しく読み込んだ色の3次元ベクトル値
と、その出現数=1を、カラーリストに登録する。一
方、求めたユークリッド距離が、混色の閾値(パラメー
タr)以下ならば、互いに近い色と判断し、後述するよ
うにして当該新しく読み込んだ色と当該ユークリッド距
離を与えた登録色について混色を行う。混色が行われた
場合、混色前の登録色の3次元ベクトル値とその出現数
は無効にし、その代わりに、混色後の色を登録色とし
て、その3次元ベクトル値と、その出現数=混色前の出
現数+1を、カラーリストに登録する。
Hereinafter, the L of the color of each pixel of the input image data
Regarding the * a * b * space vector values, one of the unprocessed ones is read, and the vector value of the newly read color and the vector value of the registered color already registered in the color list in the previous process are , L * a * b * Euclidean distance in space (when there are multiple registered colors, the minimum value)
If the calculated Euclidean distance is larger than the color mixture threshold (parameter r), it is determined that there is no color close to the color list, and the three-dimensional vector value of the newly read color and the number of appearances = 1 are calculated as Register to the color list. On the other hand, if the obtained Euclidean distance is equal to or smaller than the threshold value of the color mixture (parameter r), it is determined that the colors are close to each other, and color mixing is performed for the newly read color and the registered color given the Euclidean distance as described later. When color mixing is performed, the three-dimensional vector value of the registered color before color mixing and the number of appearances are invalidated. Instead, the color after color mixing is set as the registered color, and the three-dimensional vector value and the number of appearances = color mixing. The previous number of occurrences + 1 is registered in the color list.

【0092】以上を、入力画像データの各画素の色のL
*a*b*空間ベクトル値の全てを読み込んで処理する
まで、繰り返し行う。
The above description is based on the L of the color of each pixel of the input image data.
This process is repeated until all * a * b * space vector values are read and processed.

【0093】なお、入力画像データの各画素の色のL*
a*b*空間ベクトル値を1つずつ読み込む順番は、適
宜決めて構わない。また、上記では、登録色が複数ある
ときは、ユークリッド距離の最小値を計算するようにし
たが、各登録色とのユークリッド距離を計算している途
中で始めてユークリッド距離が混色の閾値以下になった
ときに、計算を打ち切って、そのときの登録色を採用す
るようにすることも可能である。また、上記では、入力
画像データの各画素の色のL*a*b*空間ベクトル値
の全てを読み込んでカラーリストを作成するものとした
が、入力画像データの所定の一部の画素の色のL*a*
b*空間ベクトル値の読み込んでカラーリストを作成す
るようにすることも可能である。
The L * of the color of each pixel of the input image data
The order in which the a * b * space vector values are read one by one may be determined as appropriate. In the above description, when there are a plurality of registered colors, the minimum value of the Euclidean distance is calculated.However, the Euclidean distance becomes equal to or less than the threshold value of the mixed color only during the calculation of the Euclidean distance with each registered color. In such a case, the calculation may be terminated and the registered color at that time may be adopted. In the above description, the color list is created by reading all the L * a * b * space vector values of the colors of each pixel of the input image data. L * a *
It is also possible to read the b * space vector value and create a color list.

【0094】ここで、混色方法について説明する。Here, the color mixing method will be described.

【0095】新たに読み込んだ色Aと混色する登録色B
の空間上の3次元座標ベクトルをそれぞれa、bとし、
色Aと色Bが混色された結果生成された色(混色後の新
たな登録色)Xの座標ベクトルをxとすると、xは、次
の色で定義される。 x=wA ・a+wB ・b ここで、 wA =NA ÷(NA +NB ) wB =NB ÷(NA +NB ) NA :色Aの出現数 NB :色Bの出現数 である。また、混色された結果生成された色Xの出現数
x は、 Nx =NA +NB である。ただし、本実施形態では、1つずつ色を読み込
んで処理するようにしているので、NA =1となる。
Registered color B mixed with newly read color A
Let a and b be three-dimensional coordinate vectors in the space of
Assuming that a coordinate vector of a color X (new registered color after color mixing) X generated as a result of mixing the colors A and B is x, x is defined by the following color. x → = w A · a → + w B · b → here, w A = N A ÷ ( N A + N B) w B = N B ÷ (N A + N B) N A: the number of occurrences N B of color A : Number of appearances of color B. Further, the number of occurrences N x of the generated result of the mixing color X is N x = N A + N B . However, in this embodiment, N A = 1 because the colors are read and processed one by one.

【0096】なお、上記では、入力画像データについて
1つずつ色を読み込んで1つのカラーリストを作成する
ようにしたが、例えば、入力画像データの半分の画素を
使って上記と同様の方法で作成したカラーリストと、入
力画像データの残りの半分の画素を使って上記と同様の
方法で作成したカラーリストとを、(さらに混色処理す
るなどして)1つのカラーリストに統合するような方法
など、他の方法も可能である。
In the above description, one color list is created by reading the colors of the input image data one by one. For example, half of the pixels of the input image data are used to create the same color list. A method that integrates the color list that has been created and a color list that is created in the same manner as described above using the remaining half of the pixels of the input image data into one color list (by performing further color mixing processing, etc.) , Other methods are possible.

【0097】次に、作成されたカラーリストにおいて、
出現数が基準以下(例えば、全画素数の0.5%に相当
する個数以下)の登録色をノイズとみなし、カラーリス
トから該当する登録色に関する情報を削除する(ステッ
プS23)。
Next, in the created color list,
A registered color whose appearance number is equal to or less than a reference (for example, a number equal to or less than 0.5% of the total number of pixels) is regarded as noise, and information on the corresponding registered color is deleted from the color list (step S23).

【0098】次に、この時点でカラーリストに登録され
ている登録色の色数を調べ、それが限定色数(パラメー
タc)より大きい値ならば(ステップS24)、登録色
を限定する処理を行う(ステップS25)。登録色数が
限定色数(パラメータc)以下ならば、登録色を限定す
る処理はスキップする。
Next, the number of registered colors registered in the color list at this point is checked, and if the number is larger than the limited number of colors (parameter c) (step S24), a process for limiting the registered colors is performed. Perform (Step S25). If the number of registered colors is equal to or less than the limited number of colors (parameter c), the process of limiting registered colors is skipped.

【0099】登録色を限定する処理では、登録色限定部
34が、カラーリストの登録色数が限定色数(パラメー
タc)以下になるまで、混色処理を行う(1回の混色処
理で、登録色を1色減らすことができる)。すなわち、
各時点で、全登録色のうち最も近い2色すなわちL*a
*b*空間上のユークリッド距離が最小になる2色を探
索し、それらを上記した混色方法に従って混色し、カラ
ーリストを更新する。これを、カラーリストの登録色数
が限定色数(パラメータc)以下になるまで繰り返し行
う。
In the process of limiting the registered colors, the registered color limiting unit 34 performs the color mixing process until the number of registered colors in the color list becomes equal to or less than the limited number of colors (parameter c). One color can be reduced). That is,
At each time point, the closest two colors of all registered colors, ie, L * a
The two colors that minimize the Euclidean distance in the * b * space are searched, and they are mixed according to the above-described color mixing method, and the color list is updated. This is repeated until the number of registered colors in the color list becomes equal to or less than the limited number of colors (parameter c).

【0100】次に、登録色限定部34により、カラーリ
ストに登録された登録色の中から、当該入力画像データ
についての使用色を決定する。
Next, the registered color limiting section 34 determines a color to be used for the input image data from the registered colors registered in the color list.

【0101】このステップS26〜S28の処理は、繰
り返し処理となる。
The processing of steps S26 to S28 is a repetitive processing.

【0102】まず、登録色限定部34は、L*a*b*
の各軸をそれぞれ領域分割し、L*a*b*の各軸ごと
に、領域内の出現数によるヒストグラムを作成する(ス
テップS26)。なお、領域分割の仕方は、適宜決めて
構わない。
First, the registered color limiting section 34 sets L * a * b *
Are divided into regions, and a histogram based on the number of appearances in the region is created for each axis of L * a * b * (step S26). Note that the method of dividing the area may be determined as appropriate.

【0103】次に、L軸に対応するヒストグラムにおい
て各領域の出現数を結んだグラフの作る凸の数(図13
に凸の数が3である例を示す)と、a軸に対応するヒス
トグラムにおいて各領域の出現数を結んだグラフの作る
凸の数と、b軸に対応するヒストグラムにおいて各領域
の出現数を結んだグラフの作る凸の数とを調べ、それら
のうちで最も多い凸の数を当該入力画像データの使用色
数とし、この使用色数を保存しておく(ステップS2
7)。
Next, in the histogram corresponding to the L axis, the number of projections formed by a graph connecting the number of appearances of each region (FIG. 13)
Shows an example in which the number of protrusions is 3), the number of protrusions formed by a graph connecting the number of appearances of each region in the histogram corresponding to the a-axis, and the number of appearances of each region in the histogram corresponding to the b-axis. The number of projections formed by the connected graph is checked, and the largest number of projections is used as the number of colors used in the input image data, and the number of colors used is stored (step S2).
7).

【0104】次に、今回の使用色数と前回の使用色数と
を比較し、それらに変化があれば(ステップS28)、
ステップS26に戻る。なお、初回は、前回の使用色数
がないので、使用色数に変化があるものとみなす(ある
いは、例えば使用色数の初期値を0としておくなどして
もよい)。
Next, the number of colors used this time is compared with the number of colors used last time, and if there is any change (step S28),
It returns to step S26. In the first time, since there is no previous number of colors used, it is assumed that there is a change in the number of colors used (or, for example, the initial value of the number of colors used may be set to 0).

【0105】ステップS26に戻った場合、先のステッ
プS27で求められた使用色数になるまで、ステップS
25と同様にして、カラーリスト中の最も近い色を混色
していき、そして、再びヒストグラムを作成し、さら
に、ステップS27で、再び当該入力画像データの使用
色数を求め、保存する。
When returning to step S26, step S26 is repeated until the number of used colors obtained in step S27 is reached.
In the same manner as in step 25, the closest colors in the color list are mixed, and a histogram is created again. Further, in step S27, the number of colors used in the input image data is obtained again and stored.

【0106】以上の処理を、ステップS28で使用色数
に変化がないと判断されるまで、繰り返し行う。
The above processing is repeated until it is determined in step S28 that the number of colors used has not changed.

【0107】そして、ステップS28で、今回の使用色
数が前回の使用色数に比べて変化していないと判断され
れば、このループ処理は終了となり、この時点における
カラーリストの登録色が、当該入力画像データの使用色
として決定されたことになる。
If it is determined in step S28 that the number of colors used this time has not changed from the number of colors used last time, this loop processing ends, and the registered colors in the color list at this point are This means that the input image data has been determined as the use color.

【0108】次に、目立つ度合い計算部35により、入
力画像データの使用色(すなわち、カラーリストの登録
色)に対して、目立つ度合いを計算する。
Next, the degree of conspicuity is calculated by the conspicuous degree calculating unit 35 for the colors used in the input image data (ie, the registered colors in the color list).

【0109】まず、目立つ度合い計算部35は、カラー
リストに登録されている色を対象に、L*a*b*座標
系から、より人間の感覚に近いと考えられているHSV
(Hue:色相、Satulation:彩度、Val
ue:明度)座標系への変換を行う(ステップS2
9)。
First, the prominence degree calculating unit 35 uses the HSV which is considered to be closer to the human sense from the L * a * b * coordinate system for the colors registered in the color list.
(Hue: Hue, Saturation: Saturation, Val
ue: lightness) is converted to a coordinate system (step S2)
9).

【0110】次に、目立つ度合いの要素となる誘目性の
高さC2 を、色相、彩度、明度それぞれへの影響比率
(パラメータv(s,t,u))をもとに、次のように
算出する(ステップS30)。 C2 =(s×色相による影響値+t×彩度+u×明度)÷(s+t+u) …(1) ここで用いる影響値は、色相Hの値の範囲に対応してい
る。
Next, based on the influence ratio (parameter v (s, t, u)) on hue, saturation, and lightness, the height C 2 of the attractiveness, which is an element of the degree of prominence, is calculated as follows. (Step S30). C 2 = (s × influence value due to hue + t × saturation + u × lightness) ÷ (s + t + u) (1) The influence value used here corresponds to the range of hue H values.

【0111】次に、イメージカラー抽出部36により、
イメージカラーの選択を行う。
Next, the image color extracting section 36
Select an image color.

【0112】まず、イメージカラー抽出部36は、カラ
ーリストの登録色に対して、目立つ度合いLを、色の領
域の大きさ、誘目性の高さ、コントラスト感の高さそれ
ぞれへの影響比率(パラメータm(e,f,g))をも
とに、次のように算出する(ステップS31)。 L=((e・C1 2 +(f・C2 2 +(g・C3 2 1/2 …(2) ここで、カラーリストの各々の登録色に対する注目色の
領域の大きさC1 、コントラスト感C3 を、それぞれ、
出現数の全画素数に対する割合、その他の色との明度差
と定義する。C2 は上記の誘目性の高さである。
First, the image color extracting unit 36 determines the degree of conspicuousness L for the registered colors in the color list by the influence ratios on the size of the color region, the height of the attractiveness, and the height of the contrast. Based on the parameter m (e, f, g)), calculation is performed as follows (step S31). L = ((e · C 1 ) 2 + (f · C 2 ) 2 + (g · C 3 ) 2 ) 1/2 (2) Here, the region of the color of interest with respect to each registered color in the color list The size C 1 and the sense of contrast C 3 , respectively,
It is defined as the ratio of the number of appearances to the total number of pixels, and the difference in brightness from other colors. C 2 is the above-mentioned attractiveness.

【0113】これによって、カラーリストの各々の登録
色に対する目立つ度合いLが得られる。
As a result, a prominent degree L for each registered color in the color list is obtained.

【0114】そして、イメージカラー抽出部36は、入
力画像データに対するカラーリストの登録色を、目立つ
度合いLが高いものから、指定色数(パラメータi)で
指定された個数だけ、イメージカラーとして選択する
(ステップS32)。
Then, the image color extracting section 36 selects the registered colors of the color list for the input image data from the one having a high degree of conspicuousness L as the image colors designated by the designated number of colors (parameter i). (Step S32).

【0115】なお、色数絞り込みの手法は、上記した混
色方法の代わりに、PA法(文献7「P.Heckbe
rt:Color Image Quantizati
onfor Frame Buffer Displa
y, ComputerGraphics, Vol.
16, No.3, 1982」)やMCA法(文献8
「鈴木寿和他:色選択に柔軟性を持たせた限定色表示手
法、テレビジョン学会誌、Vol.43、No.3、p
p.268−275、1989」)などの他手法を用い
ることも可能である。
The technique of narrowing down the number of colors is based on the PA method (see P. Heckbe in Reference 7) instead of the color mixing method described above.
rt: Color Image Quantizati
on Frame Buffer Displa
y, Computer Graphics, Vol.
16, No. 3, 1982 ") and the MCA method (Reference 8).
"Toshikazu Suzuki et al .: Limited color display method with flexibility in color selection, Journal of the Institute of Television Engineers of Japan, Vol. 43, No. 3, p.
p. 268-275, 1989 ").

【0116】また、上記では、選択のための評価値とし
て目立つ度合いを用いたが、その他の方法も可能であ
る。
In the above description, the degree of conspicuousness is used as an evaluation value for selection, but other methods are also possible.

【0117】前述したように、特徴量計算部3によって
抽出された特徴量は、そのもととなった画像データに付
加されてまたはその画像データの識別情報に対応付け
て、保存される。
As described above, the feature value extracted by the feature value calculation unit 3 is stored in a manner added to the image data on which the feature value is based or associated with the identification information of the image data.

【0118】また、上記では、色に基づく特徴量として
イメージカラー特徴量に関する感性モデルの例について
示したが、色に基づく他の特徴量に関する感性モデル、
構図に基づく特徴量に関する感性モデル、オブジェクト
に基づく特徴量に関する感性モデル、テスクチャに基づ
く特徴量に関する感性モデルなど、種々の感性モデルを
用いることが可能である。イメージカラー特徴量と構図
に基づく特徴量を併用した感性モデルなど、複数種類の
感性に基づく特徴量を扱った感性モデルも可能である。
In the above description, an example of a sensibility model relating to image color features as color-based features has been described.
Various kansei models such as a kansei model for a feature based on composition, a kansei model for a feature based on an object, and a kansei model for a feature based on texture can be used. A sensibility model that handles a plurality of types of sensibility-based feature amounts, such as a kansei model using both image color feature amounts and composition-based feature amounts, is also possible.

【0119】例えば、構図に基づく特徴量に関する感性
モデルを用いる場合、特徴量を、画像データを感性に関
係する基準で分割する分割線の角度および位置を特定可
能とする情報とし、パラメータを、分割方向についての
分割順序に関する制約および各分割方向に対する分割角
度の制約を含むリスト構造として与えるようにしてもよ
い。この場合、リスト構造として与えられた制約の範囲
内で、分割線の角度および位置を特定可能とする情報を
決定する処理が行われる。また、この分割は、所定の分
割条件(例えば、分割された領域の面積がしきい値以上
であること、あるいは分割される前の領域内の色合いの
分散と分割された後の2つの領域間の色合いの分散とで
定義される分割の強さを示す評価値がしきい値以上であ
ること)を満たす間、再帰的に繰り返すようにすること
も可能である。
For example, when a kansei model related to a feature based on a composition is used, the feature is used as information that can specify the angle and position of a dividing line that divides image data on the basis of kansei, and the parameter is used as a parameter. It may be provided as a list structure including a restriction on a division order for a direction and a restriction on a division angle for each division direction. In this case, processing is performed to determine information that enables the angle and position of the dividing line to be specified within the range of the restriction given as the list structure. Also, this division is performed under a predetermined division condition (for example, the area of the divided area is equal to or larger than a threshold value, or the variance of the hue in the area before the division and the area between the two areas after the division) It is also possible to repeat recursively while satisfying that the evaluation value indicating the strength of division defined by the variance of the shade is equal to or more than a threshold value.

【0120】また、上記では、使用する感性モデルは予
め定められているものとしたが、複数の感性モデルを用
意しておき、ユーザが所望の感性モデルを選択可能にし
てもよい。
In the above description, the kansei model to be used is predetermined, but a plurality of kansei models may be prepared so that the user can select a desired kansei model.

【0121】なお、次の各文献の感性モデルを修正し
て、画像データを入力とし該画像データが表示されたと
きに持つ感性的な表現内容を示す特徴量を出力とする感
性モデルであってその入出力特性を決定付けるためのパ
ラメータを持つ感性モデルを新たに定義することによっ
て、これを本実施形態の感性モデルとして利用すること
もできる。 オブジェクトの抽出方法 文献9:「コンピュータビジョン、新技術コミュニケー
ションズ、1998」 数学的形態学を用いた輪郭抽出 文献10:「J.Serra: Image Anal
ysis and Mathematical Mor
phology, Academic Press,
London, 1982」 特徴色の抽出 文献11:「諸原雄大他:テキスタイルデザイン画像に
おけるイメージカラーの選定法、情報処理学会論文誌、
Vol.36、No.2、pp.329−337、19
95」 文献12:「黒田章裕他:画像データベースの感性検索
を応用したデザインのための統合化システム、第9回N
ICOGRAPH論文集、pp.113−122、19
93」 構図 文献13:「山本英典他:色情報の空間分布を考慮した
類似画像検索、電子情報通信学会技術報告書、EID9
8−171、IE98−162、1999−02」 文献14:「小林秀行他:特徴量を統合し人の感性に近
づけた画像検索システム、電子情報通信学会技術報告
書、PRMU97−261、1998−03」 テスクチャ 文献15:「間瀬茂他:モルフォロジーと画像解析
[1]、電子情報通信学会誌、Vol.74、No.
2、pp.166−174、1991」 文献16:「上田修功他:モルフォロジーと画像解析
[2]、電子情報通信学会誌、Vol.74、No.
3、pp.271−279、1991」 なお、以上の各機能は、ソフトウェアとしても実現可能
である。また、本実施形態は、コンピュータに所定の手
段を実行させるための(あるいはコンピュータを所定の
手段として機能させるための、あるいはコンピュータに
所定の機能を実現させるための)プログラムを記録した
コンピュータ読取り可能な記録媒体としても実施するこ
ともできる。
It is to be noted that the kansei model of each of the following documents is modified so that image data is input, and a feature amount indicating the sensible expression content possessed when the image data is displayed is output. By newly defining a sensitivity model having parameters for determining the input / output characteristics, this can be used as the sensitivity model of the present embodiment. Object extraction method Reference 9: "Computer Vision, New Technology Communications, 1998" Contour extraction using mathematical morphology Reference 10: "J. Serra: Image Anal
ysis and Mathematical Mor
philology, Academic Press,
London, 1982 "Extraction of characteristic color Reference 11:" Yuhiro Morohara et al .: Method of selecting image color in textile design image, Transactions of Information Processing Society of Japan,
Vol. 36, no. 2, pp. 329-337, 19
95 "Document 12:" Akihiro Kuroda et al .: Integrated System for Design Applying Kansei Retrieval of Image Database, 9th N
ICOGRAPH Transactions, pp. 113-122, 19
93 ”Composition Reference 13:“ Hidenori Yamamoto et al .: Similar Image Search Considering Spatial Distribution of Color Information, IEICE Technical Report, EID9
8-171, IE98-162, 1999-02 "Document 14:" Hideyuki Kobayashi et al .: Image Retrieval System Integrating Features and Approaching Human Sensitivity, IEICE Technical Report, PRMU97-261, 1998-03 Reference 15: “Shigeru Mase et al .: Morphology and Image Analysis [1], Journal of the Institute of Electronics, Information and Communication Engineers, Vol.
2, pp. 166-174, 1991 "Reference 16:" Sh 修 ko Ueda et al .: Morphology and Image Analysis [2], Journal of the Institute of Electronics, Information and Communication Engineers, Vol.
3, pp. 271-279, 1991 "Note that each of the above functions can also be implemented as software. In addition, the present embodiment is a computer-readable computer that stores a program for causing a computer to execute predetermined means (or for causing a computer to function as predetermined means, or for causing a computer to realize predetermined functions). It can also be implemented as a recording medium.

【0122】なお、本実施形態で例示した構成は一例で
あって、それ以外の構成を排除する趣旨のものではな
く、例示した構成の一部を他のもので置き換えたり、例
示した構成の一部を省いたり、例示した構成に別の機能
を付加したり、それらを組み合わせたりすることなどに
よって得られる別の構成も可能である。また、例示した
構成と論理的に等価な別の構成、例示した構成と論理的
に等価な部分を含む別の構成、例示した構成の要部と論
理的に等価な別の構成なども可能である。また、例示し
た構成と同一もしくは類似の目的を達成する別の構成、
例示した構成と同一もしくは類似の効果を奏する別の構
成なども可能である。また、本実施形態において、各種
構成部分についての各種バリエーションは、適宜組み合
わせて実施することが可能である。また、本実施形態
は、装置としての発明、装置内部の構成部分についての
発明、またはそれらに対応する方法の発明等、種々の観
点、段階、概念またはカテゴリに係る発明を包含・内在
するものである。従って、この発明の実施の形態に開示
した内容からは、例示した構成に限定されることなく発
明を抽出することができるものである。
The configuration illustrated in the present embodiment is an example, and is not intended to exclude other configurations. Instead, a part of the illustrated configuration may be replaced with another one, or the configuration illustrated in FIG. Another configuration obtained by omitting a part, adding another function to the illustrated configuration, or combining them is also possible. In addition, another configuration that is logically equivalent to the illustrated configuration, another configuration including a portion that is logically equivalent to the illustrated configuration, another configuration that is logically equivalent to the main part of the illustrated configuration, and the like are also possible. is there. In addition, another configuration that achieves the same or similar purpose as the illustrated configuration,
Another configuration that has the same or similar effect as the illustrated configuration is also possible. Further, in the present embodiment, various variations of various components can be implemented in combination as appropriate. In addition, the present embodiment encompasses and includes inventions relating to various viewpoints, stages, concepts or categories, such as inventions as devices, inventions for components inside the devices, and inventions for methods corresponding thereto. is there. Therefore, the present invention can be extracted from the contents disclosed in the embodiments of the present invention without being limited to the illustrated configuration.

【0123】本発明は、上述した実施の形態に限定され
るものではなく、その技術的範囲において種々変形して
実施することができる。
The present invention is not limited to the above-described embodiments, but can be implemented with various modifications within the technical scope.

【0124】[0124]

【発明の効果】本発明によれば、画像データの感性に関
係する特徴量を抽出するための感性モデルのパラメータ
を、複数の画像に基づいて最適化することによって、当
該複数の画像データに共通する感性的な特徴を持つ感性
モデルを獲得することができる。
According to the present invention, the parameters of the kansei model for extracting the characteristic amount related to the kansei of the image data are optimized based on the plurality of images, so that the parameters are common to the plurality of image data. It is possible to obtain a kansei model having kansei characteristics.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る画像処理装置の構成
例を示す図
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to an embodiment of the present invention.

【図2】同実施形態に係る画像処理装置におけるパラメ
ータ最適化の処理手順の一例を示すフローチャート
FIG. 2 is an exemplary flowchart illustrating an example of a processing procedure of parameter optimization in the image processing apparatus according to the embodiment.

【図3】同実施形態における感性モデルのパラメータの
一例を示す図
FIG. 3 is an exemplary view illustrating an example of parameters of a sensitivity model in the embodiment.

【図4】同実施形態における画像データから抽出された
感性に関係する特徴量の一例を示す図
FIG. 4 is a view showing an example of a feature amount related to kansei extracted from image data in the embodiment.

【図5】同実施形態における購買者の特徴抽出について
説明するための図
FIG. 5 is an exemplary view for explaining feature extraction of a buyer according to the embodiment;

【図6】同実施形態における購買者の特徴抽出への入力
の一例を示す図
FIG. 6 is a view showing an example of an input to a feature extraction of a buyer in the embodiment.

【図7】同実施形態における購買者の特徴の抽出によっ
て得られた規則情報の一例を示す図
FIG. 7 is an exemplary view showing an example of rule information obtained by extracting a feature of a purchaser in the embodiment;

【図8】同実施形態におけるクラスタリングについて説
明するための図
FIG. 8 is a diagram for explaining clustering in the embodiment;

【図9】同実施形態におけるパラメータの更新について
説明するための図
FIG. 9 is an exemplary view for explaining parameter updating in the embodiment.

【図10】同実施形態におけるパラメータの最適性の判
断方法の一例について説明するための図
FIG. 10 is an exemplary view for explaining an example of a method for determining the optimality of a parameter in the embodiment.

【図11】同実施形態に係る特徴量計算部の内部構成の
一例を示す図
FIG. 11 is a diagram showing an example of an internal configuration of a feature amount calculation unit according to the embodiment.

【図12】同実施形態におけるイメージカラーの抽出の
ための処理手順の一例を示すフローチャート
FIG. 12 is an exemplary flowchart illustrating an example of a processing procedure for extracting an image color in the embodiment.

【図13】同実施形態におけるヒストグラムに関する処
理の例について説明するための図
FIG. 13 is an exemplary view for explaining an example of processing relating to a histogram in the embodiment.

【符号の説明】[Explanation of symbols]

1…画像データ入力部 2…パラメータ入力部 3…特徴量計算部 4…フィードバック評価部 5…特徴量管理部 6…クラスタリング部 7…クラスタリング結果評価部 8…パラメータ制御部 9…パラメータ保存部 33…カラーリスト作成部 34…登録色限定部 35…目立つ度合い計算部 36…イメージカラー抽出部 REFERENCE SIGNS LIST 1 image data input unit 2 parameter input unit 3 feature calculation unit 4 feedback evaluation unit 5 feature management unit 6 clustering unit 7 clustering result evaluation unit 8 parameter control unit 9 parameter storage unit 33 Color list creation unit 34: Registered color limitation unit 35: Prominence degree calculation unit 36: Image color extraction unit

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】画像データを入力とし該画像データが表示
されたときに持つ感性的な表現内容を示す特徴量を出力
とする感性モデルの入出力特性を決定付けるパラメータ
を、対象となる複数の画像データに基づいて最適化する
画像処理装置であって、 前記パラメータの初期値を入力するパラメータ入力手段
と、 初回は初期値として入力された前記パラメータによっ
て、2回目以降は更新された前記パラメータによって、
決定付けられた入出力特性を持つ前記感性モデルを用い
て、前記対象となる複数の画像データの各々から前記特
徴量を抽出する抽出手段と、 抽出された複数の前記特徴量に基づいて、更新された前
記パラメータが最適なものに至ったか否かを判断する判
断手段と、 前記パラメータが初期値である場合または更新された前
記パラメータが最適なものに至っていないと判断された
場合に、前記感性モデルを用いて抽出される前記特徴量
によって規定される所定の評価値に基づいて、該パラメ
ータを更新する更新手段とを備えたことを特徴とする画
像処理装置。
1. A plurality of parameters for determining input / output characteristics of a kansei model that outputs image data and outputs a feature amount indicating sensible expression content possessed when the image data is displayed. An image processing apparatus for optimizing based on image data, comprising: a parameter input unit for inputting an initial value of the parameter; the first time, the parameter input as an initial value; and the second and subsequent times, the updated parameter. ,
Extracting means for extracting the feature amount from each of the plurality of target image data using the sensitivity model having determined input / output characteristics; and updating based on the extracted plurality of feature amounts. Determining means for determining whether or not the updated parameter has reached an optimum value; and determining whether or not the parameter has an initial value or has determined that the updated parameter has not reached an optimum value. An image processing apparatus comprising: updating means for updating the parameter based on a predetermined evaluation value defined by the feature amount extracted using a model.
【請求項2】あるパラメータに対する前記評価値は、前
記複数の画像データから所定の方法で選択された複数の
代表となる画像データから任意に2つを取り出したとき
の全部の組み合わせまたは特定の一部の組み合わせにつ
いて、各組における2つの画像データに対して当該ある
パラメータを用いてそれぞれ抽出された2つの前記特徴
量の特徴量ベクトル空間上における距離を、総計したも
のであり、 前記更新手段は、前記パラメータの個々の値を所定の方
法で上昇または下降の方向に変化させながら、それぞれ
の場合のパラメータに対する前記評価値を求め、それら
パラメータのうち、最善の評価値であって且つ更新され
る前のパラメータに対する評価値より善い評価値を持つ
パラメータを、更新された前記パラメータとすることを
特徴とする請求項1に記載の画像処理装置。
2. The method according to claim 1, wherein the evaluation value for a certain parameter is a total combination or a specific one when two are arbitrarily extracted from a plurality of representative image data selected by a predetermined method from the plurality of image data. For the combination of parts, the distances in the feature vector space of the two feature quantities extracted using the certain parameter for the two image data in each set are totaled, and the updating means Calculating the evaluation value for the parameter in each case while changing the individual value of the parameter in the upward or downward direction in a predetermined manner, and among these parameters, the evaluation value is the best evaluation value and is updated. A parameter having an evaluation value better than the evaluation value for the previous parameter is set as the updated parameter. The image processing apparatus according to claim 1.
【請求項3】前記更新手段は、更新される前の前記パラ
メータを用いて前記抽出手段によって抽出された複数の
前記特徴量に基づいて前記対象となる複数の画像データ
を複数のグループに分割し、各々のグループにおいて当
該グループの代表となる画像データを選択し、それら複
数の代表となる画像データを用いて前記評価値を規定す
るもととなる前記特徴量を求めることを特徴とする請求
項1または2に記載の画像処理装置。
3. The updating means divides the plurality of target image data into a plurality of groups based on the plurality of feature amounts extracted by the extracting means using the parameters before being updated. Selecting, in each group, image data that is representative of the group, and using the plurality of representative image data to determine the feature amount that defines the evaluation value. 3. The image processing device according to 1 or 2.
【請求項4】前記更新手段において、それまでの時点で
最善の前記評価値を持つパラメータに比較して前記評価
値をより改善させる新たなパラメータが得られなかった
場合には、該それまでの時点で最善の前記評価値を持つ
パラメータを、最適化されたパラメータとすることを特
徴とする請求項1ないし3のいずれか1項に記載の画像
処理装置。
4. If the updating means does not obtain a new parameter that further improves the evaluation value as compared with the parameter having the best evaluation value at that time, The image processing apparatus according to any one of claims 1 to 3, wherein a parameter having the best evaluation value at a point in time is set as an optimized parameter.
【請求項5】前記判断手段は、更新された前記パラメー
タを用いた場合に得られる前記対象となる複数の画像デ
ータの特徴量の分散に関する評価値が、更新される前の
前記パラメータを用いた場合に得られる前記対象となる
複数の画像データの特徴量の分散に関する評価値に比較
して改善されなかったときに、更新される前の前記パラ
メータが最適なものに至ったと判断することを特徴とす
る請求項1ないし3のいずれか1項に記載の画像処理装
置。
5. The evaluation means according to claim 1, wherein the evaluation value relating to the variance of the characteristic amount of the plurality of target image data obtained when the updated parameter is used uses the parameter before the update. When the parameter is not improved as compared with the evaluation value regarding the variance of the feature amount of the plurality of target image data obtained in the case, it is determined that the parameter before being updated has reached an optimum value. The image processing apparatus according to claim 1, wherein:
【請求項6】複数の画像データを入力する画像データ入
力手段と、 入力された複数の前記画像データから、所定の選択基準
に基づいて、対象とすべき前記複数の画像データを選択
するための選択手段とを更に備えたことを特徴とする請
求項1に記載の画像処理装置。
6. An image data input means for inputting a plurality of image data, and for selecting the plurality of image data to be targeted from the plurality of input image data based on a predetermined selection criterion. The image processing apparatus according to claim 1, further comprising a selection unit.
【請求項7】前記選択手段は、画像データに関係する書
誌情報に基づき帰納学習を行うことによって、共通の感
性を持つと判断される複数の画像データを前記対象とし
て選択することを特徴とする請求項6に記載の画像処理
装置。
7. The selection means selects a plurality of image data determined to have a common sensibility as the target by performing inductive learning based on bibliographic information related to the image data. The image processing device according to claim 6.
【請求項8】各々の前記画像データは、各々の製品に対
応する画像データであり、 前記書誌情報は、対象者の有する属性および該対象者が
購買意思を持つ製品に関する情報を含むものであり、 前記選択手段は、前記帰納学習の結果、ある製品に対し
て購買意思を持つ傾向にある対象者が共通に有すると判
断された属性を有する対象者が購買意思を持つ傾向にあ
ると判断される他の製品を求め、該ある製品および1ま
たは複数の該他の製品に対応する画像データを、前記共
通の感性を持つと判断される複数の画像データとして選
択することを特徴とする請求項7に記載の画像処理装
置。
8. Each of the image data is image data corresponding to each product, and the bibliographic information includes an attribute of the subject and information on a product for which the subject has a purchase intention. The selecting means determines that the subjects having the attribute determined to have in common by the subjects having a tendency to purchase a certain product as a result of the inductive learning are determined to have a tendency to have the purchasing intention And obtaining image data corresponding to the certain product and one or more of the other products as the plurality of image data determined to have the common sensibility. 8. The image processing device according to 7.
【請求項9】前記選択手段は、前記属性を有する対象者
のうちで該特定の製品に対して購買意思を持つ対象者の
割合が、全対象者のうちで特定の製品に対して購買意思
を持つ対象者の割合を越えた場合に、該特定の製品を、
前記属性を有する対象者が購買意思を持つ傾向にある前
記他の製品であると判断することを特徴とする請求項8
に記載の画像処理装置。
9. The selecting means according to claim 1, wherein a ratio of a target person having a purchase intention to the specific product among the target persons having the attribute is determined to be a purchase intention for a specific product among all target persons. If the percentage of subjects with
9. The apparatus according to claim 8, wherein the target person having the attribute is determined to be the other product that tends to have a purchase intention.
An image processing apparatus according to claim 1.
【請求項10】画像データを入力とし該画像データが表
示されたときに持つ感性的な表現内容を示す特徴量を出
力とする感性モデルの入出力特性を決定付けるパラメー
タを、対象となる複数の画像データに基づいて最適化す
る画像処理方法であって、 前記パラメータの初期値を入力し、 初期値として入力された前記パラメータによって決定付
けられた入出力特性を持つ前記感性モデルを用いて、前
記対象となる複数の画像データの各々から前記特徴量を
抽出し、 前記感性モデルを用いて抽出される前記特徴量に基づい
て規定される所定の評価値を改善させるように、前記パ
ラメータを更新し、 更新された前記パラメータによって決定付けられた入出
力特性を持つ前記感性モデルを用いて、前記対象となる
複数の画像データの各々から前記特徴量を抽出し、 抽出された複数の前記特徴量に基づいて、更新された前
記パラメータが最適なものに至ったか否かを判断し、 以降、更新された前記パラメータが最適なものに至った
と判断されるまで、前記感性モデルを用いて抽出される
前記特徴量によって規定される所定の評価値に基づい
て、前記パラメータを更新することと、更新された該パ
ラメータによって決定付けられた入出力特性を持つ前記
感性モデルを用いて、前記対象となる複数の画像データ
の各々から前記特徴量を抽出することとを、繰り返し行
うことを特徴とする画像処理方法。
10. A plurality of parameters for determining input / output characteristics of a kansei model that outputs image data and outputs a feature amount indicating sensible expression content possessed when the image data is displayed are set as a plurality of parameters. An image processing method for optimizing based on image data, comprising: inputting an initial value of the parameter, using the sensitivity model having input / output characteristics determined by the parameter input as an initial value, Extracting the feature amount from each of a plurality of target image data; updating the parameter so as to improve a predetermined evaluation value defined based on the feature amount extracted using the sensitivity model; Using the kansei model having input / output characteristics determined by the updated parameters, from each of the plurality of target image data, Extracting the collected amount, determining whether or not the updated parameter has reached an optimal value based on the extracted plurality of feature amounts, and thereafter, determining that the updated parameter has reached an optimal value. Updating the parameter based on a predetermined evaluation value defined by the feature value extracted using the kansei model until the determination is made, and input / output characteristics determined by the updated parameter. Extracting the feature amount from each of the plurality of target image data by using the sensitivity model having the above-described image processing method.
【請求項11】画像データを入力とし該画像データが表
示されたときに持つ感性的な表現内容を示す特徴量を出
力とする感性モデルの入出力特性を決定付けるパラメー
タを、対象となる複数の画像データに基づいて最適化す
る画像処理装置としてコンピュータを機能させるための
プログラムを記録したコンピュータ読取り可能な記録媒
体であって、 前記パラメータの初期値を入力させ、 初期値として入力された前記パラメータによって決定付
けられた入出力特性を持つ前記感性モデルを用いて、前
記対象となる複数の画像データの各々から前記特徴量を
抽出させ、 前記感性モデルを用いて抽出される前記特徴量に基づい
て規定される所定の評価値を改善させるように、前記パ
ラメータを更新させ、 更新された前記パラメータによって決定付けられた入出
力特性を持つ前記感性モデルを用いて、前記対象となる
複数の画像データの各々から前記特徴量を抽出させ、 抽出された複数の前記特徴量に基づいて、更新された前
記パラメータが最適なものに至ったか否かを判断させ、 以降、更新された前記パラメータが最適なものに至った
と判断されるまで、前記感性モデルを用いて抽出される
前記特徴量によって規定される所定の評価値に基づい
て、前記パラメータを更新することと、更新された該パ
ラメータによって決定付けられた入出力特性を持つ前記
感性モデルを用いて、前記対象となる複数の画像データ
の各々から前記特徴量を抽出することとを、繰り返し行
わせるためのプログラムを記録したコンピュータ読取り
可能な記録媒体。
11. A plurality of parameters for determining input / output characteristics of a sensibility model which outputs image data and a characteristic amount indicating sensuous expression content when the image data is displayed are set as a plurality of target objects. A computer-readable recording medium in which a program for causing a computer to function as an image processing apparatus that optimizes based on image data is recorded, wherein an initial value of the parameter is input, and the parameter is input as an initial value. Using the kansei model having the determined input / output characteristics, the feature amount is extracted from each of the plurality of target image data, and is defined based on the feature amount extracted using the kansei model. The parameter is updated so as to improve a predetermined evaluation value to be determined, and a determination is made based on the updated parameter. Using the kansei model having the input / output characteristics thus obtained, the feature amount is extracted from each of the plurality of target image data, and the parameter is updated based on the extracted plurality of feature amounts. Is determined whether or not the optimal parameter is reached.After that, until the updated parameter is determined to have reached the optimal parameter, the predetermined parameter defined by the feature amount extracted using the sensitivity model Updating the parameter based on the evaluation value, and using the sensitivity model having input / output characteristics determined by the updated parameter, the feature amount is calculated from each of the plurality of target image data. And a computer-readable recording medium on which a program for causing the computer to repeatedly perform the extraction is recorded.
JP2000278837A 2000-09-13 2000-09-13 Image processing apparatus, image processing method, and recording medium Expired - Lifetime JP3492991B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000278837A JP3492991B2 (en) 2000-09-13 2000-09-13 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000278837A JP3492991B2 (en) 2000-09-13 2000-09-13 Image processing apparatus, image processing method, and recording medium

Publications (2)

Publication Number Publication Date
JP2002092611A true JP2002092611A (en) 2002-03-29
JP3492991B2 JP3492991B2 (en) 2004-02-03

Family

ID=18763935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000278837A Expired - Lifetime JP3492991B2 (en) 2000-09-13 2000-09-13 Image processing apparatus, image processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP3492991B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301696A (en) * 2005-04-15 2006-11-02 Ricoh Co Ltd Image evaluation device, image evaluation method and storage medium
JP2007017264A (en) * 2005-07-07 2007-01-25 Sharp Corp Method and device for evaluating image processing algorithm, method and device for generating image processing algorithm, program, and program recording medium
JP2007116419A (en) * 2005-10-20 2007-05-10 Fuji Xerox Co Ltd Method for specifying color to be used in original, image processing apparatus and program
JP2013167545A (en) * 2012-02-16 2013-08-29 Dainippon Screen Mfg Co Ltd Teacher data preparation method, and image classification method and image classification device
JP2018189558A (en) * 2017-05-09 2018-11-29 株式会社キーエンス Image inspection device
JP2020527812A (en) * 2017-07-21 2020-09-10 トヨタ モーター ヨーロッパ Methods and systems for training neural networks used for semantic instance segmentation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0623968A (en) * 1992-07-13 1994-02-01 Toshiba Corp Device for determining degree of blur on printed matter
JPH09218158A (en) * 1996-02-08 1997-08-19 Nireco Corp Method for evaluating apperarance of object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0623968A (en) * 1992-07-13 1994-02-01 Toshiba Corp Device for determining degree of blur on printed matter
JPH09218158A (en) * 1996-02-08 1997-08-19 Nireco Corp Method for evaluating apperarance of object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301696A (en) * 2005-04-15 2006-11-02 Ricoh Co Ltd Image evaluation device, image evaluation method and storage medium
JP2007017264A (en) * 2005-07-07 2007-01-25 Sharp Corp Method and device for evaluating image processing algorithm, method and device for generating image processing algorithm, program, and program recording medium
JP2007116419A (en) * 2005-10-20 2007-05-10 Fuji Xerox Co Ltd Method for specifying color to be used in original, image processing apparatus and program
JP4539526B2 (en) * 2005-10-20 2010-09-08 富士ゼロックス株式会社 Image processing apparatus and program
JP2013167545A (en) * 2012-02-16 2013-08-29 Dainippon Screen Mfg Co Ltd Teacher data preparation method, and image classification method and image classification device
JP2018189558A (en) * 2017-05-09 2018-11-29 株式会社キーエンス Image inspection device
JP2020527812A (en) * 2017-07-21 2020-09-10 トヨタ モーター ヨーロッパ Methods and systems for training neural networks used for semantic instance segmentation

Also Published As

Publication number Publication date
JP3492991B2 (en) 2004-02-03

Similar Documents

Publication Publication Date Title
US10402917B2 (en) Color-related social networking recommendations using affiliated colors
CN105930934B (en) It shows the method, apparatus of prediction model and adjusts the method, apparatus of prediction model
WO2021179640A1 (en) Graph model-based short video recommendation method, intelligent terminal and storage medium
US9679532B2 (en) Automatic image-based recommendations using a color palette
US9524563B2 (en) Automatic image-based recommendations using a color palette
US20150379006A1 (en) Automatic image-based recommendations using a color palette
US20150379001A1 (en) Automatic color validation of image metadata
WO2013021888A1 (en) Color determination device, color determination system, color determination method, information recording medium, and program
US20150379733A1 (en) Automatic image-based recommendations using a color palette
WO2013021889A1 (en) Color name determination device, color name determination method, information recording medium, and program
JP2009251850A (en) Commodity recommendation system using similar image search
KR20090010945A (en) Generation of contextual image-containing advertisements
CN112487199B (en) User characteristic prediction method based on user purchasing behavior
US20120140987A1 (en) Methods and Systems for Discovering Styles Via Color and Pattern Co-Occurrence
CN110321473B (en) Multi-modal attention-based diversity preference information pushing method, system, medium and device
CN115244528A (en) Automatic data quality improvement
Afifi et al. Image Recoloring Based on Object Color Distributions.
CN114997956B (en) Mother and infant product intelligent recommendation system based on big data
JP3492991B2 (en) Image processing apparatus, image processing method, and recording medium
Kobayashi et al. Aesthetic design based on the analysis of questionnaire results using deep learning techniques
JP2001195579A (en) Image evaluating device
US11886793B2 (en) Textual design agent
US20220414936A1 (en) Multimodal color variations using learned color distributions
Baek et al. Editable generative adversarial networks: Generating and editing faces simultaneously
JP2000048041A (en) Data retrieval system and device to be used for the system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R151 Written notification of patent or utility model registration

Ref document number: 3492991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081114

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 10

EXPY Cancellation because of completion of term