JP2001195579A - Image evaluating device - Google Patents

Image evaluating device

Info

Publication number
JP2001195579A
JP2001195579A JP2000001198A JP2000001198A JP2001195579A JP 2001195579 A JP2001195579 A JP 2001195579A JP 2000001198 A JP2000001198 A JP 2000001198A JP 2000001198 A JP2000001198 A JP 2000001198A JP 2001195579 A JP2001195579 A JP 2001195579A
Authority
JP
Japan
Prior art keywords
image
adjective
feature
input
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000001198A
Other languages
Japanese (ja)
Inventor
Toshiyuki Iwaoka
俊行 岩岡
Yoriyuki Okochi
頼行 大河内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2000001198A priority Critical patent/JP2001195579A/en
Publication of JP2001195579A publication Critical patent/JP2001195579A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To sensitively evaluate an image while using an adjective. SOLUTION: In a step S11, an image feature amount extracting part judges whether an image has been inputted or not and when it is judged that the image has been inputted, in a step S12, the feature amount (hue, lightness, saturation, number of colors and curvature or the like) of the image is extracted and outputted to a feature amount comparing part. In a step S13, while referring to an adjective list by categories registered in an adjective data base, the feature amount comparing part calculates the difference of the feature amount between the inputted image and each of adjectives and selects an adjective having a feature close to the feature of the inputted image on the basis of the calculated result, and a 'weight' expressing the likelihood of that adjective is calculated and outputted to a sentence constitution part. In a step S14, while using the adjective corresponding to the image and the weight, the sentence constitution part constitutes a sentence showing the sensitive evaluation of the image and outputs the constituted sentence in a step S15.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像評価装置に関
し、入力された画像の特徴を抽出し、その特徴を、予め
データベースに登録されている形容詞に対応する特徴と
比較し、その結果を用いて文章を作成し、出力すること
により、入力された画像に対する評価を、形容詞を用い
た感性的な文章として表現することのできる画像評価装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image evaluation device, which extracts features of an input image, compares the features with features corresponding to adjectives registered in a database in advance, and uses the result. The present invention relates to an image evaluation device that can express a sentence using adjectives by expressing a sentence by creating and outputting a sentence.

【0002】[0002]

【従来の技術】従来、画像データの特徴の抽出は、例え
ば、明度、最も多く使用されている色、二値化した画像
の黒画素の分布などの複数の要素を用いて、それらを数
値化することによって実行されている。例えば、複数の
画像が格納されている画像データベースから、ある画像
に類似した画像を検索しようとした場合、明度、色、二
値化した画像の黒画素の分布などの複数の要素を多次元
ベクトルとして、キーとなる画像と、データベース中の
ぞれぞれの画像の多次元ベクトルの合成結果(スカラー
量)を比較することにより、それぞれの画像の類似度を
算出していた。
2. Description of the Related Art Conventionally, features of image data are extracted by using a plurality of factors such as lightness, the colors most frequently used, and the distribution of black pixels in a binarized image, and converting them into numerical values. Have been run by. For example, when searching for an image similar to a certain image from an image database in which a plurality of images are stored, a plurality of elements such as brightness, color, and distribution of black pixels of the binarized image are represented by a multidimensional vector. The similarity of each image is calculated by comparing the result of synthesis (scalar amount) of a key image and a multidimensional vector of each image in the database.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来
の、計測された数値に基づいた画像データの特徴抽出方
法では、画像データの特徴を感性的に捉えたい場合、例
えば、「かわいい」「涼しげな」といった形容詞要素を
用いて画像データの評価、比較を行うのは困難である。
However, according to the conventional image data feature extraction method based on the measured numerical values, when it is desired to sensibly capture the features of the image data, for example, "cute" or "cool" It is difficult to evaluate and compare image data using such adjective elements.

【0004】本発明はこのような状況に鑑みてなされた
ものであり、入力された画像の特徴を抽出し、その特徴
を、予めデータベースに登録されている形容詞に対応す
る特徴と比較し、その結果を用いて文章を作成し、出力
することにより、入力された画像に対する評価を、形容
詞を用いた感性的な文章として表現することができるよ
うにするものである。
The present invention has been made in view of such circumstances, and extracts features of an input image, compares the features with features corresponding to adjectives registered in advance in a database, and compares the features. By creating and outputting a sentence using the result, it is possible to express the evaluation of the input image as a sentient sentence using an adjective.

【0005】[0005]

【課題を解決するための手段】本発明の画像評価装置
は、入力された画像の特徴を抽出する特徴抽出手段と、
形容詞および形容詞に対応する特徴を保持する保持手段
と、特徴抽出手段により抽出された画像の特徴と、保持
手段に保持されている形容詞に対応する特徴との差異を
算出する算出手段と、算出手段による算出結果を用い
て、文章を作成する文章作成手段と、文章作成手段によ
り作成された文章の出力を制御する出力制御手段とを備
えることを特徴とする。
According to the present invention, there is provided an image evaluation apparatus comprising: a feature extracting unit for extracting features of an input image;
Holding means for holding an adjective and a feature corresponding to the adjective; calculating means for calculating a difference between a feature of the image extracted by the feature extracting means and a feature corresponding to the adjective held in the holding means; And a control unit for controlling the output of the sentence created by the sentence creation unit using the result of the calculation.

【0006】前記特徴抽出手段は、例えば、図10の画
像特徴量抽出部41により、前記保持手段は、例えば、
図2の形容詞データベース34により、前記算出手段
は、例えば、図10の特徴量比較部42により、前記文
章作成手段は、例えば、図10の文章構成部43によ
り、前記出力制御手段は、例えば、図1の入出力インタ
ーフェース13により、それぞれ構成することができ
る。
[0006] The feature extraction means is, for example, an image feature quantity extraction unit 41 of FIG.
According to the adjective database 34 in FIG. 2, the calculation unit is, for example, the feature amount comparison unit 42 in FIG. 10, the sentence creation unit is, for example, the sentence configuration unit 43 in FIG. 10, the output control unit is, for example, Each can be configured by the input / output interface 13 of FIG.

【0007】本発明の画像評価装置においては、入力さ
れた画像の特徴が抽出され、形容詞および形容詞に対応
する特徴が保持され、抽出された画像の特徴と、保持さ
れている形容詞に対応する特徴との差異が算出され、算
出結果を用いて、文章が作成され、作成された文章が出
力される。
In the image evaluation device of the present invention, the features of the input image are extracted, the adjectives and the features corresponding to the adjectives are retained, and the features of the extracted images and the features corresponding to the retained adjectives are retained. Is calculated, a sentence is created using the calculation result, and the created sentence is output.

【0008】本発明の画像評価装置によれば、入力され
た画像の特徴を抽出し、形容詞および形容詞に対応する
特徴を保持し、抽出された画像の特徴と、保持されてい
る形容詞に対応する特徴との差異を算出し、算出結果を
用いて、文章を作成し、作成された文章を出力するよう
にしたので、入力された画像に対する評価を、形容詞を
用いた感性的な文章として表現することができる。
According to the image evaluation apparatus of the present invention, the features of the input image are extracted, the adjectives and the features corresponding to the adjectives are held, and the features of the extracted images and the adjectives held are stored. The difference from the feature is calculated, a sentence is created using the calculation result, and the created sentence is output. Therefore, the evaluation of the input image is expressed as a sentient sentence using an adjective. be able to.

【0009】本発明の画像評価装置の文章作成手段は、
算出手段の算出結果から、特徴抽出手段により抽出され
た画像の特徴に近い特徴をもつ形容詞を選択し、選択さ
れた形容詞を用いて文章を作成することができる。
The text creating means of the image evaluation device of the present invention comprises:
An adjective having a feature close to the feature of the image extracted by the feature extracting unit can be selected from the calculation result of the calculating unit, and a sentence can be created using the selected adjective.

【0010】本発明の画像評価装置においては、評価対
象の画像の特徴に近い特徴をもつ形容詞が選択され、そ
の形容詞を用いて文章が作成される。
In the image evaluation apparatus of the present invention, an adjective having characteristics close to those of the image to be evaluated is selected, and a sentence is created using the adjective.

【0011】本発明の画像評価装置は、ユーザによる、
形容詞の入力を制御する形容詞入力制御手段を更に備
え、算出手段は、形容詞入力制御手段により入力が制御
された形容詞の特徴を保持手段から呼び出し、特徴抽出
手段により抽出された画像の特徴との差異を算出するこ
とができる。
[0011] The image evaluation device of the present invention provides
The adjective input control means for controlling the input of adjectives is further provided, wherein the calculating means calls a characteristic of the adjective whose input is controlled by the adjective input control means from the holding means, and a difference from the characteristic of the image extracted by the characteristic extracting means. Can be calculated.

【0012】前記形容詞入力手段は、例えば、図15の
入力部51により構成することができる。
The adjective input means can be constituted by, for example, an input unit 51 shown in FIG.

【0013】本発明の画像評価装置においては、ユーザ
により形容詞が入力され、入力された形容詞の特徴が読
み出され、評価対象の画像の特徴と比較される。
In the image evaluation apparatus of the present invention, an adjective is input by a user, the characteristics of the input adjective are read, and compared with the characteristics of the image to be evaluated.

【0014】本発明の画像評価装置の文章作成手段は、
算出手段の算出結果を基に、評価対象の画像を、形容詞
入力制御手段により入力が制御された形容詞が有する特
徴に近づけるための方法を示す文章を作成することがで
きる。
The text creating means of the image evaluation device of the present invention comprises:
Based on the calculation result of the calculation means, it is possible to create a sentence indicating a method for bringing the image to be evaluated closer to the feature of the adjective whose input is controlled by the adjective input control means.

【0015】本発明の画像評価装置においては、評価対
象の画像と形容詞と特徴の差異が算出され、その結果を
基に、評価対象の画像を、形容詞が有する特徴に近づけ
るための方法を示す文章が作成される。
In the image evaluation apparatus of the present invention, the difference between the image to be evaluated, the adjective, and the feature is calculated, and based on the result, a sentence indicating a method for bringing the image to be evaluated closer to the feature of the adjective. Is created.

【0016】本発明の画像評価装置の保持手段は、形容
詞の特徴を複数のグループに分類して保持し、算出手段
は、複数のグループの形容詞の特徴のうち、所望のグル
ープの形容詞の特徴を用いて、画像との差異を算出する
ことができる。
The holding means of the image evaluation apparatus of the present invention classifies and holds the characteristics of the adjectives into a plurality of groups, and the calculating means calculates the characteristics of the adjectives of the desired group among the characteristics of the adjectives of the plurality of groups. To calculate the difference from the image.

【0017】本発明の画像評価装置においては、形容詞
の特徴が複数のグループに分類されて保持され、所望の
グループの形容詞の特徴を用いて、評価対象の画像との
差異が算出される。
In the image evaluation apparatus of the present invention, the characteristics of the adjectives are classified and held in a plurality of groups, and the difference from the image to be evaluated is calculated using the characteristics of the adjectives of the desired group.

【0018】本発明の画像評価装置は、画像を撮像する
撮像手段を更に備え、特徴抽出手段は、撮像手段により
撮影された画像の特徴を抽出することができる。
[0018] The image evaluation apparatus of the present invention further comprises an image pickup means for picking up an image, and the feature extraction means can extract the features of the image taken by the image pickup means.

【0019】撮像手段は、例えば、図17のカメラ61
により構成することができる。
The imaging means is, for example, a camera 61 shown in FIG.
Can be configured.

【0020】本発明の画像評価装置においては、画像が
撮像され、撮像された画像の特徴が抽出される。
In the image evaluation apparatus according to the present invention, an image is picked up and features of the picked-up image are extracted.

【0021】本発明の画像評価装置の出力制御手段は、
文章作成手段により作成された文章の、ネットワークま
たは電話回線を介した出力を制御することができる。
The output control means of the image evaluation apparatus of the present invention comprises:
The output of the text created by the text creation means via a network or a telephone line can be controlled.

【0022】本発明の画像評価装置においては、作成さ
れた文章がネットワークまたは電話回線を介して出力さ
れる。
In the image evaluation apparatus according to the present invention, the created text is output via a network or a telephone line.

【0023】本発明の画像評価装置は、連絡先を記憶す
る記憶手段を更に備え、出力制御手段は、記憶手段によ
り記憶されている連絡先を参照して、文章作成手段によ
り作成された文章の出力を制御することができる。
[0023] The image evaluation apparatus of the present invention further comprises storage means for storing the contact information, and the output control means refers to the contact information stored in the storage means, and outputs the text created by the text creating means. Output can be controlled.

【0024】記憶手段は、例えば、図17の連絡先デー
タベース65により構成することができる。
The storage means can be constituted by, for example, a contact database 65 shown in FIG.

【0025】本発明の画像評価装置においては、記憶手
段に記憶されている連絡先が参照され、作成された文章
が出力される。
In the image evaluation device of the present invention, the created text is output by referring to the contact information stored in the storage means.

【0026】[0026]

【発明の実施の形態】以下、図を参照して、本発明の実
施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0027】図1に、本発明を適応した情報処理装置の
ブロック図を示す。情報処理装置1は、例えば、パーソ
ナルコンピュータなどである。
FIG. 1 shows a block diagram of an information processing apparatus to which the present invention is applied. The information processing device 1 is, for example, a personal computer.

【0028】情報処理装置1において、CPU(Centra
l Processing Unit)11は、ユーザが、キーボード、
マウスなどよりなる入力部12を用いて指令を入力する
と、入出力インターフェース13および内部バス14を
介してその指令を表す信号の入力を受ける。そして、C
PU11は、入力される信号に従って、ROM(ReadOn
ly Memory)15、HDD(Hard Disk Drive)16など
に格納されているプログラム(例えば、図2および図9
を用いて後述する形容詞データベース入力プログラム、
図10および図11を用いて後述する画像評価プログラ
ム、図16および図17を用いて後述するデザイン支援
プログラム、もしくは、図17および図18を用いて後
述する危険検知・通報プログラムなど)をRAM(Rand
om Access Memory)17にロードして実行する。RAM
17には、ロードされたプログラムのほかに、例えば、
CPU11の処理によって生成されたデータなどが保存
されている。
In the information processing apparatus 1, a CPU (Centra
l Processing Unit) 11, the user can use a keyboard,
When a command is input using the input unit 12 including a mouse or the like, a signal representing the command is input via the input / output interface 13 and the internal bus 14. And C
The PU 11 reads the ROM (ReadOn) according to the input signal.
ly Memory) 15, HDD (Hard Disk Drive) 16, etc.
Adjective database input program described later using
An image evaluation program described later with reference to FIGS. 10 and 11, a design support program described later with reference to FIGS. 16 and 17, or a danger detection / notification program described later with reference to FIGS. Rand
om Access Memory) 17 for execution. RAM
17, in addition to the loaded program, for example,
Data and the like generated by the processing of the CPU 11 are stored.

【0029】また、CPU11は、ネットワークインタ
ーフェース18および内部バス14を介して他の情報処
理装置などから入力されるプログラムや、各種データを
RAM17に保存する。情報処理装置1は、ネットワー
クインターフェース18を介して、例えば、ビデオカメ
ラ等から画像データの入力を受けることができる。更
に、CPU11は、その処理結果を、例えば、内部バス
14、および入出力インターフェース13を介して、LC
D(Liquid Crystal Display)などよりなるモニタ19
に、必要に応じて出力し、表示させたり、内部バス1
4、入出力インターフェース13およびネットワークイ
ンターフェース18を介して他の情報処理装置などに出
力することができる。
The CPU 11 stores programs and various data input from other information processing devices via the network interface 18 and the internal bus 14 in the RAM 17. The information processing apparatus 1 can receive input of image data from a video camera or the like via the network interface 18, for example. Further, the CPU 11 transmits the processing result to, for example, the LC via the internal bus 14 and the input / output interface 13.
Monitor 19 composed of D (Liquid Crystal Display)
And output and display as necessary,
4. It can output to other information processing devices via the input / output interface 13 and the network interface 18.

【0030】図2は、RAM17に、形容詞データベー
ス入力プログラムがロードされ、実行された場合の機能
ブロック図を示す。
FIG. 2 shows a functional block diagram when the adjective database input program is loaded into the RAM 17 and executed.

【0031】画像特徴量抽出部31は、画像の入力を受
け、例えば、図3(A)に示されるように、入力された
画像を二値化し、その直線部分の比率や、曲線部分の比
率を求めたり、図3(B)に示されるように、入力され
た画像から色彩テンプレートを生成し、画像の彩度や明
度を求めたり、図3(C)に示されるように、入力され
た画像から色調ヒストグラムを生成することにより、入
力された画像の色相(寒色系か、暖色系か等)や、画像
に使用されている色の数などを求める。
The image feature extracting unit 31 receives the input of the image, binarizes the input image, for example, as shown in FIG. 3A, and converts the ratio of the linear portion and the ratio of the curved portion. 3B, a color template is generated from the input image as shown in FIG. 3B, and the saturation and lightness of the image are obtained, or the input image is obtained as shown in FIG. 3C. By generating a color tone histogram from the image, the hue (whether cool or warm) of the input image, the number of colors used in the image, and the like are obtained.

【0032】入力された画像に対する画像特徴量の抽出
結果は、色相については、例えば、赤、橙、黄色が最も
多い場合に暖色、青、青緑が最も多い場合に寒色、緑、
紫が最も多い場合に中性色とし、明度については、例え
ば、白を1.0、黒を9.5とした場合、1.0以上
3.5未満を高明度、3.5以上6.5未満を中明度、
6.5以上9.5以下を低明度とし、彩度については、
例えば、彩度の高いものを9、低いものを1の9段階で
評価した場合、1,2,3を低彩度、4,5,6未満を
中彩度、7,8,9を高彩度とし、曲線度および直線度
については、例えば、二値化で得られた線分成分中の曲
線の割合もしくは直線の割合が、70%以上の場合は
大、30%以上70%未満の場合は中、30%未満の場
合は小といった3段階で全ての特徴量を表すようにして
もよいし、明度、彩度、曲線度、直線度などに関して
は、評価結果の数値をそのまま用いてもよいし、それぞ
れの値を、例えば、メンバーシップ関数などを用いて表
すようにしてもよい。
The extraction results of the image features from the input image are as follows. For the hues, for example, warm colors when red, orange, and yellow are the most, cold colors, green, and green when the most are blue and blue-green.
When purple is the largest, the color is neutral, and the brightness is, for example, when white is 1.0 and black is 9.5, high brightness is 1.0 or more and less than 3.5, and 3.5 or more and 6. Medium brightness for less than 5,
A brightness of 6.5 or more and 9.5 or less is defined as low brightness.
For example, when high-saturation is evaluated on a 9-point scale, and low-saturation is evaluated on a 1-point scale, 1,2,3 are low saturation, less than 4,5,6 are medium saturation, 7,8,9 are high saturation. The degree of curve and the degree of linearity are, for example, large when the ratio of the curve or the ratio of the straight line in the line segment component obtained by binarization is 70% or more, and when the ratio is 30% or more and less than 70%. Medium or less than 30%, all feature amounts may be expressed in three stages, such as small, and numerical values of evaluation results may be used as they are for lightness, saturation, curve degree, linearity, and the like. Alternatively, each value may be represented using, for example, a membership function.

【0033】形容詞と特徴量との相関は、複数の被験者
によるアンケートに基づいて決定される。そこで、形容
詞をカテゴリごとに分類・整理し、カテゴリごとに、も
しくは、カテゴリにとらわれずにランダムに、複数(例
えば、各カテゴリ50枚など)のサンプルを用いてアン
ケートを行い、そのアンケートの結果と、各サンプルの
画像が示す特徴量(例えば、色相、明度、彩度、色数、
曲線度、および直線度など)の相関を求め、それぞれの
形容詞と、特徴量の関係を定量化する。形容詞−画像特
徴量相関算出部32は、各画像に対するアンケートの結
果の入力を受け、画像特徴量抽出部31から入力された
画像の特徴量との相関を求める。
The correlation between an adjective and a feature is determined based on a questionnaire by a plurality of subjects. Therefore, the adjectives are classified and arranged for each category, and a questionnaire is conducted using a plurality of samples (for example, 50 sheets of each category, etc.) for each category or randomly regardless of the category. , Feature values (e.g., hue, brightness, saturation, number of colors,
The degree of curve and the degree of linearity are calculated, and the relationship between each adjective and the feature is quantified. The adjective-image feature quantity correlation calculation unit 32 receives the result of the questionnaire for each image and obtains a correlation with the feature quantity of the image input from the image feature quantity extraction unit 31.

【0034】図4に、アンケートに用いられるサンプル
と、アンケート結果の例を示す。ここでは、形容詞「か
わいい」に対して、各サンプルの「かわいらしさ」につい
てのアンケートを行った場合の例を示す。
FIG. 4 shows a sample used for the questionnaire and an example of the result of the questionnaire. Here, an example is shown in which a questionnaire regarding the “cuteness” of each sample is given to the adjective “cute”.

【0035】ここで、各サンプルに対する「かわいらし
さ」の評価方法は、例えば、被験者に、サンプルが「か
わいい」か否かを答えてもらい、「かわいい」と答えた
被験者の割合を数値化してもよいし、「かわいらしさ」
を、被験者に、5段階評価してもらい、その結果を平均
するなどして数値化するようにしてもよいし、その他の
方法を用いて評価してもよい。
Here, the method of evaluating “pretty” for each sample is, for example, asking the subject to answer whether or not the sample is “cute” and quantifying the proportion of the subject who answered “cute”. Good, "cuteness"
May be evaluated by a subject on a five-point scale, and the results may be averaged and converted into a numerical value, or may be evaluated using other methods.

【0036】アンケートの結果と、画像特徴量抽出部3
1において抽出された、アンケートに用いられたサンプ
ル画像データの特徴量の抽出結果の例を図5に示す。こ
こでは、特徴量を、それぞれ、大中小もしくは高中低の
ように3段階で評価しているが、例えば、メンバーシッ
プ関数などを用いて数値化するようにしてもよい(この
場合、後述する、形容詞の特徴量と、評価対象画像の特
徴量との比較計算には、ファジイ推論などの方法を用い
ることが可能となる)。
The result of the questionnaire and the image feature quantity extraction unit 3
FIG. 5 shows an example of an extraction result of the feature amount of the sample image data used in the questionnaire extracted in 1. Here, the feature amount is evaluated in three stages, such as large, medium, small, and high, medium, low, respectively. However, for example, the feature amount may be quantified using a membership function or the like (in this case, A method such as fuzzy inference can be used for the comparison calculation between the feature amount of the adjective and the feature amount of the image to be evaluated.)

【0037】このようなサンプル画像のアンケート結果
と各特徴量の抽出結果を用いて生成された、形容詞と各
特徴量との相関を求めるための相関グラフの例を図6に
示す。例えば、図6(A)においては、形容詞「かわい
い」と、明度との相関が示されており、明度が高いほ
ど、「かわいい」と感じる被験者が多いという結果を知
ることができる。同様に、図6(A)においては、形容
詞「かわいい」と、曲線度との相関が示されており、曲
線度が高いほど、「かわいい」と感じる被験者が多いと
いう結果を知ることができる。
FIG. 6 shows an example of a correlation graph for obtaining a correlation between an adjective and each feature amount, which is generated using the questionnaire result of the sample image and the extraction result of each feature amount. For example, in FIG. 6A, the correlation between the adjective "cute" and the brightness is shown, and it can be seen that the higher the brightness, the more subjects who feel "cute". Similarly, in FIG. 6A, the correlation between the adjective "cute" and the degree of curve is shown, and it can be seen that the higher the degree of curve, the more subjects who feel "cute".

【0038】ルール生成部33は、形容詞−画像特徴量
相関算出部32の相関算出結果(例えば、図6を用いて
説明した相関グラフによって導かれた形容詞と特徴との
相関)を基に、形容詞ごとにそれぞれの特徴量が最も高
い相関を示す状態を算出し、例えば、図7に示されるよ
うな、それぞれの形容詞に対応する各特徴量のルールを
生成する。
The rule generator 33 generates an adjective based on the correlation calculation result of the adjective-image feature quantity correlation calculator 32 (for example, the correlation between the adjective and the feature derived from the correlation graph described with reference to FIG. 6). Then, a state in which each feature amount shows the highest correlation is calculated, and a rule for each feature amount corresponding to each adjective as shown in FIG. 7 is generated, for example.

【0039】この場合のアンケート結果においては、
「かわいい」と感じられる画像は、色相が暖色であり、
明度が高く、彩度が低く、色数が中程度で、曲線度が大
きく、直線度が小さいことが分かり、「さびしい」と感
じられる画像は、色相が寒色であり、明度が低く、彩度
が低く、色数が少なく、曲線度および直線度が中程度で
あることが分かり、「はげしい」と感じられる画像は、
色相が暖色であり、明度が高く、彩度が高く、色数が多
く、曲線度が少なく、直線度が大きいことが分かり、
「柔らかな」と感じられる画像は、色相が暖色であり、
明度が中程度で、彩度が中程度で、色数が少なく、曲線
度が大きく、直線度が小さいことが分かる。例えば、あ
る特徴と形容詞の間に相関がない場合、対応する欄を空
白としても良い。
In the questionnaire result in this case,
Images that feel "cute" have warm hues,
An image with high lightness, low saturation, medium number of colors, large curveness and low linearity, and an image that feels "lonely" has a cool hue, low brightness, and low saturation. Is low, the number of colors is low, and the degree of curve and linearity is moderate.
It can be seen that the hue is warm, the brightness is high, the saturation is high, the number of colors is large, the curve is small, and the linearity is large.
An image that feels "soft" has a warm hue,
It can be seen that the brightness is medium, the saturation is medium, the number of colors is small, the curve is large, and the linearity is small. For example, if there is no correlation between a certain feature and an adjective, the corresponding column may be left blank.

【0040】ここでは、それぞれの形容詞に対応するル
ールを3段階で生成したが、更に細かい段階に分けて生
成したり、数値化したり、メンバーシップ関数等を用い
てもよい。
Here, the rule corresponding to each adjective is generated in three stages. However, the rule may be generated in smaller stages, may be digitized, or a membership function may be used.

【0041】形容詞データベース34には、形容詞をカ
テゴリごとに分類したカテゴリ別形容詞リストが登録さ
れ、カテゴリ別形容詞リストの対応する形容詞の欄に、
ルール生成部33で生成されたそれぞれの形容詞に対応
する各特徴量のルールが登録される。
In the adjective database 34, an adjective list classified by category in which adjectives are classified by category is registered, and a corresponding adjective list in the adjective list classified by category is
Rules of each feature amount corresponding to each adjective generated by the rule generation unit 33 are registered.

【0042】形容詞データベース34に登録されるカテ
ゴリ別形容詞リストの例を図8に示す。例えば、「自
然」という大分類に対する中分類に「寒暖」および「雰
囲気」を登録し、それぞれに対応する形容詞として、小
分類に、「寒い」、「暖かい」および「寂しい」、「賑や
か」、「静か」、「うるさい」、「明るい」等が予め登録され
ている場合、ルール生成部33から入力された形容詞ご
との特徴量のルールが、それぞれ対応する欄に登録され
る。また、予め大分類、中分類、小分類が登録されてい
ない場合は、大分類、中分類を空欄とし、各形容詞を小
分類としたカテゴリ別形容詞リストを生成し、ルール生
成部33から入力された形容詞ごとの特徴量のルールを
登録するようにしてもよい。
FIG. 8 shows an example of a category-specific adjective list registered in the adjective database 34. For example, “Cold and warm” and “Atmosphere” are registered in the middle category for the large category of “Nature”, and the adjectives corresponding to each are “Cold”, “Warm” and “Lonely”, “Lively”, When “quiet”, “loud”, “bright”, and the like are registered in advance, the rules of the feature amounts for each adjective input from the rule generation unit 33 are registered in the corresponding columns. If the major classification, the middle classification, and the minor classification are not registered in advance, the major classification and the middle classification are left blank, and a category-specific adjective list in which each adjective is classified into the minor classification is generated. The rule of the feature amount for each adjective may be registered.

【0043】次に、図9のフローチャートを参照して、
形容詞データベースの入力処理について説明する。
Next, referring to the flowchart of FIG.
The input processing of the adjective database will be described.

【0044】ステップS1において、画像特徴量抽出部
31は、アンケートに用いられたサンプル画像が入力さ
れたか否かを判断する。ステップS1において、サンプ
ル画像が入力されていないと判断された場合、サンプル
画像が入力されたと判断されるまで、ステップS1の処
理が繰り返される。
In step S1, the image feature quantity extraction unit 31 determines whether or not the sample image used for the questionnaire has been input. If it is determined in step S1 that a sample image has not been input, the process of step S1 is repeated until it is determined that a sample image has been input.

【0045】ステップS1において、サンプル画像が入
力されたと判断された場合、ステップS2において、画
像特徴量抽出部31は、図3を用いて説明したように、
例えば、二値化したり、色調ヒストグラムを作成するこ
とによって、入力された画像データの特徴量(例えば、
図5を用いて説明した色相、明度、彩度、色数、曲線
度、および直線度)を抽出し、形容詞−画像特徴量相関
算出部32に出力する。
If it is determined in step S 1 that a sample image has been input, in step S 2, the image feature quantity extraction unit 31 performs, as described with reference to FIG.
For example, by binarizing or creating a color tone histogram, the feature amount (for example,
The hue, lightness, saturation, number of colors, curveness, and linearity described with reference to FIG. 5 are extracted and output to the adjective-image feature quantity correlation calculation unit 32.

【0046】ステップS3において、形容詞−画像特徴
量相関算出部32は、サンプル画像に対するアンケート
結果が入力されたか否かを判断する。ステップS3にお
いて、アンケート結果が入力されていないと判断された
場合、アンケート結果が入力されたと判断されるまで、
ステップS3の処理が繰り返される。
In step S3, the adjective-image feature quantity correlation calculator 32 determines whether a questionnaire result for the sample image has been input. In step S3, when it is determined that the questionnaire result has not been input, until it is determined that the questionnaire result has been input,
Step S3 is repeated.

【0047】ステップS3において、アンケート結果が
入力されたと判断された場合、ステップS4において、
形容詞−画像特徴量相関算出部32は、ステップS2に
おいて画像特徴量抽出部31より入力された各サンプル
画像の特徴と、アンケートによって求められた、サンプ
ル画像の「形容詞らしさ」の評価(例えば、かわいらし
さの数値評価)との相関を、例えば、図6を用いて説明
した相関グラフを作成することにより算出し、ルール生
成部33に出力する。
If it is determined in step S3 that the questionnaire result has been input, then in step S4,
The adjective-image feature value correlation calculation unit 32 evaluates the characteristics of each sample image input from the image feature value extraction unit 31 in step S2 and the “adjective likeness” of the sample image obtained by the questionnaire (for example, cuteness). For example, the correlation with the value evaluation is calculated by creating the correlation graph described with reference to FIG.

【0048】ステップS5において、ルール生成部33
は、ステップS4において入力された特徴量と形容詞と
の相関を基に、例えば、図7を用いて説明したような形
容詞ごとの特徴量のルールを生成し、形容詞データベー
ス34へ出力する。
In step S5, the rule generation unit 33
Generates, for example, a rule of the feature amount for each adjective as described with reference to FIG. 7 based on the correlation between the feature amount and the adjective input in step S4, and outputs the rule to the adjective database.

【0049】ステップS6において、形容詞データベー
ス34は、例えば、図8を用いて説明したようなカテゴ
リ別形容詞リストが登録されているか否かを判断する。
ステップS6において、カテゴリ別形容詞リストが登録
されていると判断された場合、処理は、ステップS8に
進む。
In step S6, the adjective database 34 determines whether a category-specific adjective list as described with reference to FIG. 8, for example, is registered.
If it is determined in step S6 that the category-specific adjective list is registered, the process proceeds to step S8.

【0050】ステップS6において、カテゴリ別形容詞
リストが登録されていないと判断された場合、ステップ
S7において、形容詞データベース34は、ステップS
5において入力された形容詞ごとの特徴量のルールを基
に、大分類および中分類を空白とした(すなわち、小分
類のみの)カテゴリ別形容詞リストを生成する。
If it is determined in step S6 that the category-specific adjective list is not registered, in step S7, the adjective database 34
Based on the rule of the feature amount for each adjective input in 5, a category-specific adjective list in which the large classification and the middle classification are blank (that is, only the small classification) is generated.

【0051】ステップS8において、形容詞データベー
ス34は、カテゴリ別形容詞リストに形容詞ごとの特徴
量のルールを登録し、処理が終了される。
In step S8, the adjective database 34 registers the rule of the feature amount for each adjective in the category-based adjective list, and the process ends.

【0052】形容詞データベース34に登録される形容
詞とそれに対応する特徴量は、図2乃至図9を用いて説
明したような方法で登録されても、カテゴリ別形容詞リ
ストおよび対応する形容詞の各特徴量をマニュアルで入
力する等の別の方法を用いて登録されても良い。また、
形容詞データベース34には、複数のカテゴリ別形容詞
リストを登録することが可能であり、その場合、それぞ
れのカテゴリ別形容詞リストにグループ名などを付ける
ことにより、識別できるようにする。
The adjectives registered in the adjective database 34 and the feature amounts corresponding to the adjectives are registered by the method described with reference to FIGS. May be registered by using another method such as manually inputting the password. Also,
A plurality of category-specific adjective lists can be registered in the adjective database 34. In this case, each category-specific adjective list can be identified by attaching a group name or the like to each category-specific adjective list.

【0053】図10は、RAM17に、画像評価プログ
ラムがロードされ、実行された場合の機能ブロック図を
示す。
FIG. 10 is a functional block diagram when the image evaluation program is loaded into the RAM 17 and executed.

【0054】画像特徴量抽出部41は、図2を用いて説
明した画像特徴量抽出部31と同様に、入力された画像
の特徴量を抽出し、特徴量比較部42に出力する。形容
詞データベース34には、図9を用いて説明した形容詞
データベース入力処理により、カテゴリ別形容詞リスト
に、特徴量と形容詞との相関のルールが登録されてい
る。
The image feature amount extraction unit 41 extracts the feature amount of the input image and outputs the same to the feature amount comparison unit 42, similarly to the image feature amount extraction unit 31 described with reference to FIG. In the adjective database 34, correlation rules between feature amounts and adjectives are registered in a category-based adjective list by the adjective database input processing described with reference to FIG.

【0055】特徴量比較部42は、画像特徴量抽出部4
1から入力された画像の特徴量を基に、選択された形容
詞の特徴量と入力された画像の特徴量の差異を算出し、
形容詞データベース34に登録されている形容詞の中
で、近い特徴を有する形容詞を選択する。ここで、形容
詞データベース34に登録されている形容詞が、カテゴ
リリストの大分類、および中分類で分類されている場
合、例えば、中分類ごとに、最も近い特徴を有する形容
詞を1つずつ選択するようにしても良い。そして、特徴
量比較部42は、選択された形容詞の特徴量と入力され
た画像の特徴量の差異に基づいて、「形容詞らしさ」を
「重み」として算出し、文章構成部43に出力する。文
章構成部43は、特徴量比較部42から入力された形容
詞の重みに従って、文章を作成し、出力する(形容詞の
重みの算出方法、および文章の作成方法についての詳細
は後述する)。
The feature amount comparing section 42 is provided with the image feature amount extracting section 4.
Calculating a difference between the feature of the selected adjective and the feature of the input image based on the feature of the image input from 1;
An adjective having similar characteristics is selected from the adjectives registered in the adjective database 34. Here, when the adjectives registered in the adjective database 34 are classified by the large classification and the middle classification of the category list, for example, one adjective having the closest feature is selected for each middle classification. You may do it. Then, the feature value comparison unit 42 calculates “adjectiveness” as “weight” based on the difference between the feature value of the selected adjective and the feature value of the input image, and outputs the weight to the sentence composition unit 43. The sentence construction unit 43 creates and outputs a sentence in accordance with the adjective weight input from the feature amount comparison unit 42 (the details of the method of calculating the adjective weight and the method of creating the sentence will be described later).

【0056】次に、図11のフローチャートを参照し
て、画像評価処理プログラムの処理について説明する。
Next, the processing of the image evaluation processing program will be described with reference to the flowchart of FIG.

【0057】ステップS11において、画像特徴量抽出
部41は、評価対象となる画像が入力されたか否かを判
断する。ステップS11において、画像が入力されてい
ないと判断された場合、画像が入力されたと判断される
まで、ステップS11の処理が繰り返される。
In step S11, the image feature quantity extraction unit 41 determines whether an image to be evaluated has been input. If it is determined in step S11 that an image has not been input, the process of step S11 is repeated until it is determined that an image has been input.

【0058】ステップS11において、画像が入力され
たと判断された場合、ステップS12において、画像特
徴量抽出部41は、図3を用いて説明したように、例え
ば、二値化したり、色調ヒストグラムを作成することに
よって、入力された画像の特徴量(例えば、図5を用い
て説明した色相、明度、彩度、色数、曲線度、および直
線度)を抽出し、特徴量比較部42に出力する。
If it is determined in step S11 that an image has been input, in step S12, the image feature amount extraction unit 41 performs, for example, binarization or color tone histogram generation as described with reference to FIG. By doing so, the feature amounts of the input image (for example, hue, lightness, saturation, number of colors, curve degree, and linearity described with reference to FIG. 5) are extracted and output to the feature amount comparison unit 42. .

【0059】ステップS13において、特徴量比較部4
2は、図9を用いて説明した処理によって生成され、形
容詞データベース34に登録されているカテゴリ別形容
詞リストを参照し、入力された画像の各特徴量と、登録
されている形容詞との差異を算出し、算出結果を基に、
画像の評価を表す形容詞(すなわち、入力された画像の
特徴に近い特徴をもった形容詞)を選択し、その形容詞
らしさを表す「重み」を算出し、文章構成部43に出力す
る。図12を用いて、形容詞の選択と、重みの算出方法
の例について説明する。
In step S13, the feature amount comparison unit 4
Reference is made to the category-specific adjective list generated by the processing described with reference to FIG. 9 and registered in the adjective database 34, and the difference between each feature amount of the input image and the registered adjective is calculated. Calculate and, based on the calculation result,
An adjective representing the evaluation of the image (that is, an adjective having a feature close to the feature of the input image) is selected, and “weight” representing the adjective likelihood is calculated and output to the text forming unit 43. An example of selecting an adjective and calculating a weight will be described with reference to FIG.

【0060】例えば、図12に示されるように、特徴量
(例えば、曲線度、彩度)を座標軸とした座標空間を考
える。評価対象の画像は、この座標空間において、ステ
ップS12で抽出されたそれぞれの特徴量に基づいた所
定の位置が決定される。そして、評価対象の画像の座標
空間上の位置から、ある形容詞(例えば、「かわいい」
という形容詞)が示す座標空間上の位置までの距離を演
算することにより、評価対象の画像が、対象となる形容
詞であらわされる度合い(例えば、「かわいらしさ」の
度合い)を数値化することが可能となる。
For example, as shown in FIG. 12, consider a coordinate space using feature amounts (for example, curve degree and saturation) as coordinate axes. In the coordinate space, a predetermined position of the image to be evaluated is determined based on each feature amount extracted in step S12. Then, from the position in the coordinate space of the image to be evaluated, a certain adjective (for example, “cute”
By calculating the distance to the position in the coordinate space indicated by the adjective (), it is possible to quantify the degree to which the image to be evaluated is represented by the target adjective (for example, the degree of “cuteness”). Becomes

【0061】例えば、評価対象の画像Pが、彩度0.
5、曲線度0.5であった場合、形容詞データベース3
4に登録されている形容詞「かわいい」(彩度0.8
5、曲線度0.35)、および「美しい」(彩度0.3
5、曲線度0.85)との距離を求めると、それぞれ
0.38となる。画像Pに対する評価を表す形容詞とし
ては、この座標空間上の距離が近い形容詞が選択される
ことになる。また、距離が近いほど、その形容詞の特徴
と類似している、すなわち、重みが大きいということに
なる。図12では、評価対象の画像と形容詞との位置関
係を、「曲線度」および「彩度」を座標軸とした2次元空
間を用いて説明しているが、本来は、全ての特徴を座標
軸とした多次元の座標空間で演算される。
For example, the image P to be evaluated has a saturation of 0.
5. If the degree of curve is 0.5, the adjective database 3
The adjective "cute" registered in No. 4 (saturation 0.8
5, curve degree 0.35) and "beautiful" (saturation 0.3
5, the distance from the curve degree 0.85) is 0.38. As an adjective representing the evaluation of the image P, an adjective having a short distance in the coordinate space is selected. Further, the closer the distance is, the more similar the feature of the adjective is, that is, the larger the weight is. In FIG. 12, the positional relationship between the image to be evaluated and the adjective is described using a two-dimensional space having “curvature” and “saturation” as coordinate axes. Is calculated in the multidimensional coordinate space.

【0062】ステップS14において、文章構成部43
は、ステップS13において特徴量比較部42から入力
された、評価対象画像に対応する形容詞とその重みを用
いて、評価対象画像に対する感性評価を示す文章を構成
する。
In step S14, the sentence construction unit 43
Uses the adjective corresponding to the evaluation target image and its weight, which are input from the feature amount comparison unit 42 in step S13, to form a sentence indicating the kansei evaluation for the evaluation target image.

【0063】各形容詞は、図13に示されるように、重
みごとに修飾語が予め決められている。これは、形容詞
ごとに、その「形容詞」らしさの度合いを表すために対
応できる修飾語が異なるためであり、例えば、「寒い」
の場合、寒さの度合いの少ないほうから「若干寒い」、
「少し寒い」、「寒い」、「相当に寒い」と修飾され、「寂
しい」の場合、寂しさの度合いが少ないほうから「ほの
かに寂しい」、「少し寂しい」、「寂しい」、「とっても寂
しい」と修飾され、「静か」の場合、静かさの度合いが
少ないほうから「やや静か」、「静か」、「本当に静か」、
「とっても静か」と修飾される。
For each adjective, a modifier is predetermined for each weight, as shown in FIG. This is because, for each adjective, a modifier that can be used to represent the degree of the likelihood of the "adjective" is different, for example, "cold"
In the case of, the degree of cold is "slightly cold",
Qualified as "slightly cold", "cold", "substantially cold", and "lonely" means "slightly lonely", "slightly lonely", "lonely", "very sad" , And "quiet" means "slightly quiet", "quiet", "really quiet"
Qualified as "very quiet".

【0064】構成される文章は、例えば、「(中分類)
に関しては、(修飾語)+(形容詞)な感じがする」と
なり、1つの中分類に対して、2つ以上の形容詞が該当
する場合は、例えば、2つの形容詞が該当する場合、
「(中分類)に関しては、(修飾語)+(形容詞)、ま
た、(修飾語)+(形容詞)な感じがする」とされる。
The composed sentence is, for example, “(middle classification)
Is (modifier) + (adjective). "When two or more adjectives are applicable to one intermediate classification, for example, when two adjectives are applicable,
It is said that "(the middle class) feels (modifier) + (adjective) or (modifier) + (adjective)".

【0065】例えば、大分類が「自然」であり、中分類
が「寒暖」および「雰囲気」にあたる画像の特徴量の重み
の算出結果が、「寒い」で1.0、「寂しい」で0.
5、「静か」で0.8となった場合、構成される文章
は、「寒暖に関しては、相当に寒い感じがする。雰囲気
に関しては、少し寂しい、また、本当に静かな感じがす
る。」となる。
For example, the calculation results of the feature weights of the images whose major classification is “natural” and whose middle classifications are “cold” and “atmosphere” are 1.0 for “cold” and 0 for “lonely”.
5. If 0.8 for "quiet", the sentence says, "I feel quite cold when it comes to cold and warm. I feel a little lonely and really quiet about the atmosphere." Become.

【0066】ステップS15において、文章構成部43
は、ステップS14において構成した文章を出力し、処
理が終了される。すなわち、情報処理装置1のCPU1
1は、内部バス14および入出力インターフェース13
を介して、モニタ19に構成した文章を出力する。例え
ば、図14に示されるように、構成された文章と同時
に、評価対象の画像も表示することにより、ユーザにと
って、評価対象と評価結果が分かりやすいようにしても
良い。
In step S15, the sentence forming unit 43
Outputs the text composed in step S14, and the process ends. That is, the CPU 1 of the information processing apparatus 1
1 is an internal bus 14 and an input / output interface 13
And outputs the composed sentence to the monitor 19 via. For example, as shown in FIG. 14, an image to be evaluated may be displayed together with the composed text so that the user can easily understand the evaluation target and the evaluation result.

【0067】以上のようにして、画像の評価を、特徴量
ごとの数値的な評価ではなく、形容詞を用いた感性的な
評価を示す文章として出力することができる。
As described above, the evaluation of an image can be output not as a numerical evaluation for each feature amount but as a sentence indicating an emotional evaluation using adjectives.

【0068】ここで、例えば、ポスターなどをデザイン
する場合、「かわいい」と思われるポスターをデザイン
したい場合や、「賑やか」で「明るい」と感じられるポ
スターをデザインしたい場合等が考えられる。そこで、
目標とする画像の感性評価を表す形容詞を入力し、特徴
量比較部42において、特徴量座標空間上における、デ
ザインした画像から抽出された特徴が示す位置と、目標
とする形容詞の位置との距離(すなわち、目標とする形
容詞との差)を算出して、その算出結果から、どのよう
に修正すれば良いかをアドバイスする文章を作成し、出
力することによって、デザインの支援を行うこともでき
る。また、形容詞データベース34に、例えば、アンケ
ート結果が性別、年齢、職業ごとに分類されたカテゴリ
別形容詞リストを用意することにより、例えば、ポスタ
ーなどの評価を、対応するターゲット別に実施すること
が可能となる。
Here, for example, when designing a poster or the like, it is possible to design a poster that seems to be “cute” or to design a poster that is “buzzy” and feels “bright”. Therefore,
An adjective representing the target image's kansei evaluation is input, and the feature amount comparison unit 42 calculates the distance between the position indicated by the feature extracted from the designed image and the position of the target adjective in the feature amount coordinate space. (That is, the difference from the target adjective) is calculated, and from the calculation result, a sentence that advises how to correct the text is created and output, thereby supporting design. . In addition, for example, by preparing a category-specific adjective list in which the questionnaire results are classified by gender, age, and occupation in the adjective database 34, for example, it is possible to evaluate posters and the like for each corresponding target. Become.

【0069】図15に、デザイン支援プログラムがRA
M17にロードされ、実行された場合の機能ブロック図
を示す。なお、図10における場合と対応する部分には
同一の符号を付してあり、その説明は適宜省略する。こ
の場合においては、新たに入力部51が設けられ、文章
構成部43に代わりアドバイス作成部52が設けられて
いるほかは、基本的に図10における場合と同様の構成
である。
FIG. 15 shows that the design support program is RA
FIG. 4 shows a functional block diagram when loaded into M17 and executed. Parts corresponding to those in FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. In this case, the configuration is basically the same as that in FIG. 10 except that an input unit 51 is newly provided and an advice creation unit 52 is provided instead of the text composition unit 43.

【0070】形容詞データベース34には、ターゲット
別(例えば、性別、年齢、職業別)のカテゴリ別形容詞
リストが用意されており、それぞれのカテゴリ別形容詞
リストは、ターゲットに対応するグループ名により識別
可能である。図1の入力部12を用いてユーザが入力し
た目標とする形容詞およびターゲットとなるグループ名
は、入力部51を介して、特徴量比較部42に入力され
る。特徴量比較部42は、入力部51から入力されたタ
ーゲットおよび形容詞に対応する特徴量を形容詞データ
ベース34から読み出し、画像特徴量抽出部41から入
力された評価対象となる画像の特徴と、目標とする形容
詞との差異を求め、アドバイス作成部52に入力する。
アドバイス作成部52は、特徴量比較部42から入力さ
れた評価対象となる画像の特徴と、目標とする形容詞と
の差異に基づいて、評価対象となる画像の評価を、目標
とする形容詞に近づけるためのアドバイスを作成し、出
力する。
The adjective database 34 has prepared adjective lists by category for each target (for example, gender, age, and occupation). Each adjective list by category can be identified by a group name corresponding to the target. is there. The target adjective and the target group name input by the user using the input unit 12 of FIG. 1 are input to the feature amount comparison unit 42 via the input unit 51. The feature amount comparing unit 42 reads out the feature amount corresponding to the target and the adjective inputted from the input unit 51 from the adjective database 34, and outputs the feature of the image to be evaluated inputted from the image feature amount extracting unit 41 and the target The difference from the adjective to be performed is obtained and input to the advice creation unit 52.
The advice creating unit 52 brings the evaluation of the image to be evaluated closer to the target adjective based on the difference between the feature of the image to be evaluated input from the feature amount comparing unit 42 and the target adjective. Create and output advice.

【0071】次に、図16のフローチャートを参照し
て、デザイン支援処理について説明する。
Next, the design support processing will be described with reference to the flowchart of FIG.

【0072】ステップS21およびステップS22にお
いて、図11のステップS11およびステップS12と
同様の処理がなされ、画像特徴量抽出部41において、
入力された評価対象となる画像の特徴が抽出され、特徴
量比較部42に出力される。
In steps S21 and S22, the same processing as in steps S11 and S12 in FIG. 11 is performed.
The features of the input image to be evaluated are extracted and output to the feature amount comparing unit 42.

【0073】ステップS23において、特徴量比較部4
2は、入力部51より、目標とする形容詞およびターゲ
ットが入力されたか否かを判断する。ステップS23に
おいて、目標とする形容詞およびターゲットが入力され
ていないと判断された場合、目標とする形容詞およびタ
ーゲットが入力されたと判断されるまで、ステップS2
3の処理が繰り返される。
In step S23, the feature amount comparing unit 4
2 determines whether or not a target adjective and a target have been input from the input unit 51. If it is determined in step S23 that the target adjective and target have not been input, the process proceeds to step S2 until it is determined that the target adjective and target have been input.
Step 3 is repeated.

【0074】ステップS23において、入力部51から
目標とする形容詞およびターゲットが入力されたと判断
された場合、ステップS24において、特徴量比較部4
2は、入力部51より入力された、所望のターゲットの
アンケート結果が登録されているカテゴリ別形容詞リス
トの、目標とする形容詞の特徴量を、形容詞データベー
ス34から読み出し、ステップS22において入力され
た評価対象となる画像の特徴と比較する。すなわち、特
徴量比較部42は、図12を用いて説明した、画像およ
び形容詞のそれぞれの特徴を座標軸とした、多次元の座
標空間における評価対象画像と、目標となる形容詞との
距離、および特徴量ごとの差を求める。特徴量比較部4
2は、特徴量を座標軸とした座標空間における評価対象
画像と、目標となる形容詞との距離、および特徴ごとの
差を、アドバイス作成部52に出力する。
If it is determined in step S23 that the target adjective and target have been input from the input unit 51, then in step S24, the feature quantity comparing unit 4
2 reads from the adjective database 34 the target adjective feature quantity of the category-specific adjective list in which the questionnaire result of the desired target is registered, which is input from the input unit 51, and the evaluation input in step S22. Compare with the features of the target image. That is, the feature amount comparison unit 42 calculates the distance between the image to be evaluated in the multidimensional coordinate space and the target adjective, using the respective features of the image and the adjective as coordinate axes, described with reference to FIG. Find the difference for each quantity. Feature amount comparison unit 4
2 outputs to the advice creation unit 52 the distance between the evaluation target image in the coordinate space using the feature amount as the coordinate axis and the target adjective, and the difference for each feature.

【0075】ステップS25において、アドバイス作成
部52は、ステップS24において入力された評価対象
画像と目標となる形容詞との距離および特徴ごとの差を
基に、画像の評価、および目標とする形容詞に近づける
ためのアドバイスを作成する。
In step S25, the advice creating section 52 evaluates the image and approaches the target adjective based on the distance between the image to be evaluated and the target adjective input in step S24 and the difference for each feature. Create advice for.

【0076】画像の評価を表す文章は、例えば、「(タ
ーゲット)は、(修飾語)+(形容詞)+(「と感じま
す」、もしくは、「と感じません」)」となる。例え
ば、「主婦」をターゲットとし、形容詞「かわいい」を目
標とした評価対象画像のとの距離が0.8以上の場合、
「主婦は、かわいいと感じません」という文章が作成さ
れ、0.4以上0.8未満の場合、「主婦は、あまりか
わいいと感じません」という文章が作成され、0.1以
上0.4未満の場合、「主婦はかわいいと感じます」と
いう文章が作成され、0.1以下の場合、「主婦は、と
てもかわいいと感じます」という文章が作成される。
The sentence representing the evaluation of the image is, for example, “(target) is (modifier) + (adjective) + (“ feels ”or“ does not feel ”)”. For example, if the distance from the evaluation target image targeting "housewife" and targeting the adjective "cute" is 0.8 or more,
The sentence "The housewife does not feel cute" is created, and if it is 0.4 or more and less than 0.8, the sentence "The housewife does not feel cute" is created and 0.1 or more. If the number is less than 4, a sentence "Housewife feels cute" is created. If the number is less than 0.1, a sentence "Housewife feels very cute" is created.

【0077】そして、評価対象画像を目標に近づけるた
めのアドバイスは、特徴ごとの差を基に、例えば、
「(特徴)を(指示)+(特徴)を(指示)+・・・す
ることにより(形容詞)に感じられるようになりま
す。」と作成される。例えば、明度および曲線度の差が
大きかった場合、「明度を高くし、曲線度を大きくする
ことにより、かわいく感じられるようになります。」と
いうアドバイスが作成される。
The advice for bringing the evaluation target image closer to the target is, for example, based on the difference for each feature, for example,
"(Feature) (instruction) + (feature) (instruction) + ... will make you feel like (adjective)." For example, if the difference between the lightness and the curve degree is large, an advice is created that “It is possible to feel cute by increasing the lightness and increasing the curve degree”.

【0078】ステップS26において、アドバイス作成
部52は、ステップS25において作成した評価および
アドバイスの文章を出力し、処理が終了される。すなわ
ち、情報処理装置1のCPU11は、内部バス14およ
び入出力インターフェース13を介して、モニタ19に
作成した文章を出力する。また、作成された文章と同時
に、評価対象の画像も、モニタ19に表示するようにし
ても良い。
In step S26, the advice creating section 52 outputs the evaluation and advice sentences created in step S25, and the process ends. That is, the CPU 11 of the information processing apparatus 1 outputs the created text to the monitor 19 via the internal bus 14 and the input / output interface 13. Further, an image to be evaluated may be displayed on the monitor 19 at the same time as the created text.

【0079】ここでは、ターゲットおよび目標となる形
容詞をそれぞれ1つ入力し、評価する場合について説明
したが、ターゲットおよび目標となる形容詞を複数入力
し、それぞれについて評価できるようにしても良い。
Here, the case where one target and one target adjective are input and evaluated has been described. However, a plurality of target and target adjectives may be input and each may be evaluated.

【0080】更に、例えば、駅のホームなどの画像を、
ビデオカメラなどを用いて撮像し、その画像を評価し、
危険だと判断された場合、遠隔地に通報できるようにす
ることもできる。図17に、危険検知・通報アプリケー
ションがRAM17に、ロードされ、実行された場合の
機能ブロック図を示す。
Further, for example, an image of the platform of the station, etc.
Take an image using a video camera or the like, evaluate the image,
If it is determined to be dangerous, it can be reported to a remote location. FIG. 17 shows a functional block diagram when the danger detection / notification application is loaded on the RAM 17 and executed.

【0081】なお、図10における場合と対応する部分
には同一の符号を付してあり、その説明は適宜省略す
る。この場合においては、新たにカメラ61、判断部6
2、通報制御部64、連絡先データベース65が設けら
れ、通報制御部64が、LAN66および電話回線67
と接続されている他は、基本的に図10における場合と
同様の構成である。
Parts corresponding to those in FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. In this case, the camera 61 and the judgment unit 6 are newly added.
2. A report control unit 64 and a contact database 65 are provided. The report control unit 64 includes a LAN 66 and a telephone line 67.
The configuration is basically the same as that in FIG.

【0082】カメラ61は、例えば、駅のホームに設置
され、ホームの画像を撮像し、画像特徴量抽出部41に
出力する。判断部62は、文章構成部43から入力され
た文章を基に、危険か否かを判断し、危険だと判断した
場合、通報制御部64に、連絡先データベース65から
連絡先を参照させ、LAN66もしくは電話回線67を
介して外部に通報させる。
The camera 61 is installed, for example, on the platform of a station, captures an image of the platform, and outputs the captured image to the image feature quantity extraction unit 41. The determining unit 62 determines whether or not there is danger based on the sentence input from the sentence composition unit 43, and when it is determined to be dangerous, causes the notification control unit 64 to refer to the contact information from the contact information database 65, An external notification is made via the LAN 66 or the telephone line 67.

【0083】次に、図18のフローチャートを参照し
て、危険検知・通報処理について説明する。
Next, the danger detection / notification process will be described with reference to the flowchart of FIG.

【0084】ステップS31において、画像特徴量抽出
部41は、カメラ61から入力された画像の特徴量を抽
出し、特徴量比較部42に出力する。
In step S 31, the image feature extracting unit 41 extracts the feature of the image input from the camera 61 and outputs the feature to the feature comparing unit 42.

【0085】ステップS32において、特徴量比較部4
2は、形容詞データベース34に登録されているデータ
を参照し、図11のステップS13と同様の処理を実行
して、入力された画像の特徴量と形容詞の特徴量を比較
し、比較結果を文章構成部43に出力する。ここで、形
容詞データベース34には、「込み合っている」「空い
ている」「賑やかな」などの、混雑具合を表す形容詞
と、その形容詞に対応する各特徴量が登録されている。
文章構成部43は、入力された比較結果を基に、図11
のステップS14と同様の処理を実行して、文章を構成
し、判断部62に出力する。
In step S32, the feature amount comparing section 4
2 refers to the data registered in the adjective database 34, executes the same processing as in step S13 in FIG. 11, compares the feature amount of the input image with the feature amount of the adjective, and compares the comparison result with a sentence. Output to the configuration unit 43. Here, in the adjective database 34, adjectives indicating congestion, such as "crowded", "vacant", "busy", and the like, and feature amounts corresponding to the adjectives are registered.
Based on the input comparison result, the text composition unit 43
By executing the same processing as in step S14, a sentence is formed and output to the determination unit 62.

【0086】ステップS33において、判断部62は、
入力された文章から、ホームの混雑具合を判断し、危険
が検知されたか否かを判断する。すなわち、入力された
文章が、「大変空いている」「空いている」等の場合、
ホームは込み合っていなく、「込み合っている」「大変
込み合っている」「かなり賑やかである」等の場合、ホ
ームは込み合っており、危険であると判断される。ステ
ップS33において、危険が検知されていないと判断さ
れた場合、処理は、ステップS35に進む。
In step S33, the judgment section 62
From the input text, the degree of congestion of the home is determined, and whether danger is detected or not is determined. That is, if the input sentence is "very empty" or "empty",
If the home is not crowded, and if it is "busy", "very busy", or "very busy", the home is judged to be busy and dangerous. If it is determined in step S33 that danger has not been detected, the process proceeds to step S35.

【0087】ステップS33において、危険が検知され
たと判断された場合、ステップS34において、判断部
62は、通報制御部64に、危険が検知されたことを示
す信号を出力し、通報制御部64は、連絡先データベー
ス65を参照し、対応する連絡先(例えば、駅長室な
ど)を検索し、LAN66もしくは電話回線67を介し
て通報する。
If it is determined in step S33 that danger has been detected, in step S34, the determination unit 62 outputs a signal indicating that danger has been detected to the notification control unit 64, and the notification control unit 64 , And refers to the contact database 65 to search for a corresponding contact (for example, a station manager's office) and reports via the LAN 66 or the telephone line 67.

【0088】ステップS35において、判断部62は、
判断結果を出力し、処理が終了される。すなわち、情報
処理装置1のCPU11は、内部バス14および入出力
インターフェース13を介して、モニタ19に構成した
文章を出力する。また、構成された文章と同時に、カメ
ラ61で撮像された画像も、モニタ19に表示するよう
にしても良い。
In step S35, the judgment section 62
The result of the determination is output, and the process ends. That is, the CPU 11 of the information processing device 1 outputs the composed text to the monitor 19 via the internal bus 14 and the input / output interface 13. Further, an image captured by the camera 61 may be displayed on the monitor 19 at the same time as the composed text.

【0089】以上のようにして、画像と形容詞との比較
を用いて「混雑具合」について評価し、その評価結果を
遠隔地に通報することができる。
As described above, it is possible to evaluate “congestion degree” using the comparison between the image and the adjective, and report the evaluation result to a remote place.

【0090】[0090]

【発明の効果】本発明によれば、入力された画像に対す
る評価を、形容詞を用いた感性的な文章として表現する
ことができる。
According to the present invention, the evaluation of an input image can be expressed as an emotional sentence using adjectives.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適応した情報処理装置の構成を示すブ
ロック図である。
FIG. 1 is a block diagram illustrating a configuration of an information processing apparatus to which the present invention has been applied.

【図2】図1のRAMに、形容詞データベース入力ソフ
トウェアをロードし、実行した場合の機能ブロック図で
ある。
FIG. 2 is a functional block diagram in the case where adjective database input software is loaded into the RAM of FIG. 1 and executed.

【図3】形容詞「かわいい」に対するサンプル画像とア
ンケート結果の例を示す図である。
FIG. 3 is a diagram illustrating an example of a sample image and a questionnaire result for the adjective “cute”.

【図4】図2の画像特徴量抽出部の処理を説明するため
の図である。
FIG. 4 is a diagram for explaining processing of an image feature amount extraction unit in FIG. 2;

【図5】入力されたサンプル画像、アンケート結果、お
よび特徴量の抽出結果を示す図である。
FIG. 5 is a diagram illustrating an input sample image, a questionnaire result, and a feature amount extraction result.

【図6】形容詞と、画像の特徴量の相関関係を説明する
ための図である。
FIG. 6 is a diagram for explaining a correlation between an adjective and a feature amount of an image.

【図7】図2のルール生成部で生成された、形容詞ごと
のルールの例を示す図である。
FIG. 7 is a diagram illustrating an example of a rule for each adjective, generated by the rule generation unit in FIG. 2;

【図8】形容詞データベースに登録されるカテゴリ別形
容詞リストの例を示す図である。
FIG. 8 is a diagram showing an example of a category-specific adjective list registered in an adjective database.

【図9】形容詞データベース処理を説明するためのフロ
ーチャートである。
FIG. 9 is a flowchart for explaining adjective database processing.

【図10】図1のRAMに、画像評価ソフトウェアをロ
ードし、実行した場合の機能ブロック図である。
FIG. 10 is a functional block diagram in a case where image evaluation software is loaded into the RAM of FIG. 1 and executed.

【図11】画像評価処理を説明するためのフローチャー
トである。
FIG. 11 is a flowchart illustrating an image evaluation process.

【図12】対象画像と、形容詞との重み付けの決定方法
について説明するための図である。
FIG. 12 is a diagram for explaining a method of determining a weight between a target image and an adjective.

【図13】文章を構成する場合の、形容詞ごとの修飾語
について説明するための図である。
FIG. 13 is a diagram for describing modifiers for each adjective when constructing a sentence.

【図14】評価結果の表示の例を示す図である。FIG. 14 is a diagram illustrating an example of display of an evaluation result.

【図15】図1のRAMに、デザイン支援ソフトウェア
をロードし、実行した場合の機能ブロック図である。
FIG. 15 is a functional block diagram when the design support software is loaded on the RAM of FIG. 1 and executed.

【図16】デザイン支援処理を説明するためのフローチ
ャートである。
FIG. 16 is a flowchart illustrating a design support process.

【図17】図1のRAMに、危険検知・通報ソフトウェ
アをロードし、実行した場合の機能ブロック図である。
17 is a functional block diagram when danger detection / notification software is loaded into the RAM in FIG. 1 and executed.

【図18】危険検知・通報処理を説明するためのフロー
チャートである。
FIG. 18 is a flowchart illustrating a danger detection / notification process.

【符号の説明】[Explanation of symbols]

1 情報処理装置 11 CPU 12 入力部 13 入出力インターフェース 19 モニタ 20 ネットワークインターフェース 31 画像特徴量抽出部 32 形容詞−画像特徴量相関算出部 33 ルール生成部 34 形容詞データベース 41 画像特徴量抽出部 42 特徴量比較部 43 文章構成部 52 アドバイス作成部 61 カメラ 62 判断部 64 通報制御部 65 連絡先データベース Reference Signs List 1 information processing device 11 CPU 12 input unit 13 input / output interface 19 monitor 20 network interface 31 image feature amount extraction unit 32 adjective-image feature amount correlation calculation unit 33 rule generation unit 34 adjective database 41 image feature amount extraction unit 42 feature amount comparison Part 43 Text composition part 52 Advice creation part 61 Camera 62 Judgment part 64 Report control part 65 Contact database

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 DA20 DB02 DB06 DC09 DC25 5L096 AA02 EA39 FA34 FA68 FA81 GA41  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 DA20 DB02 DB06 DC09 DC25 5L096 AA02 EA39 FA34 FA68 FA81 GA41

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像を評価する画像評価装置
において、 入力された前記画像の特徴を抽出する特徴抽出手段と、 形容詞および前記形容詞に対応する特徴を保持する保持
手段と、 前記特徴抽出手段により抽出された前記画像の特徴と、
前記保持手段に保持されている前記形容詞に対応する特
徴との差異を算出する算出手段と、 前記算出手段による算出結果を用いて、文章を作成する
文章作成手段と、 前記文章作成手段により作成された前記文章の出力を制
御する出力制御手段とを備えることを特徴とする画像評
価装置。
1. An image evaluation apparatus for evaluating an input image, a feature extracting unit for extracting a feature of the input image, a holding unit for holding an adjective and a feature corresponding to the adjective, and the feature extraction. Features of the image extracted by the means,
Calculating means for calculating a difference from a feature corresponding to the adjective held in the holding means; a text creating means for creating a sentence by using a calculation result by the calculating means; and a sentence created by the sentence creating means And an output control means for controlling the output of the sentence.
【請求項2】 前記文章作成手段は、前記算出手段の算
出結果から、前記特徴抽出手段により抽出された前記画
像の特徴に近い特徴をもつ形容詞を選択し、選択された
前記形容詞を用いて文章を作成することを特徴とする請
求項1に記載の画像評価装置。
2. The sentence creation means selects an adjective having a feature close to the feature of the image extracted by the feature extraction means from a calculation result of the calculation means, and uses the selected adjective to select a sentence. The image evaluation device according to claim 1, wherein
【請求項3】 ユーザによる、前記形容詞の入力を制御
する形容詞入力制御手段を更に備え、 前記算出手段は、前記形容詞入力制御手段により入力が
制御された前記形容詞の特徴を前記保持手段から呼び出
し、前記特徴抽出手段により抽出された前記画像の特徴
との差異を算出することを特徴とする請求項1に記載の
画像評価装置。
3. An adjective input control means for controlling an input of the adjective by a user, wherein the calculating means calls a characteristic of the adjective whose input is controlled by the adjective input control from the holding means, The image evaluation device according to claim 1, wherein a difference from a feature of the image extracted by the feature extraction unit is calculated.
【請求項4】 前記文章作成手段は、前記算出手段の算
出結果を基に、前記画像を、前記形容詞入力制御手段に
より入力が制御された前記形容詞が有する特徴に近づけ
るための方法を示す文章を作成することを特徴とする請
求項3に記載の画像評価装置。
4. The sentence creating means, based on a calculation result of the calculating means, generates a sentence indicating a method for bringing the image closer to a feature of the adjective whose input is controlled by the adjective input control means. The image evaluation device according to claim 3, wherein the image evaluation device is created.
【請求項5】 前記保持手段は、前記形容詞の特徴を複
数のグループに分類して保持し、 前記算出手段は、複数のグループの前記形容詞の特徴の
うち、所望のグループの前記形容詞の特徴を用いて、前
記画像との差異を算出することを特徴とする請求項1乃
至4のいずれかに記載の画像評価装置。
5. The holding means classifies and holds the characteristics of the adjectives in a plurality of groups, and the calculating means calculates the characteristics of the adjectives in a desired group among the characteristics of the adjectives in the plurality of groups. The image evaluation device according to claim 1, wherein a difference from the image is calculated by using the image evaluation device.
【請求項6】 画像を撮像する撮像手段を更に備え、 前記特徴抽出手段は、前記撮像手段により撮影された前
記画像の特徴を抽出することを特徴とする請求項1乃至
5のいずれかに記載の画像評価装置。
6. The image processing apparatus according to claim 1, further comprising an imaging unit configured to capture an image, wherein the feature extraction unit extracts a feature of the image captured by the imaging unit. Image evaluation device.
【請求項7】 前記出力制御手段は、前記文章作成手段
により作成された前記文章の、ネットワークまたは電話
回線を介した出力を制御することを特徴とする請求項1
乃至6のいずれかに記載の画像評価装置。
7. The output control means controls output of the text created by the text creation means via a network or a telephone line.
7. The image evaluation device according to any one of claims 1 to 6.
【請求項8】 連絡先を記憶する記憶手段を更に備え、 前記出力制御手段は、前記記憶手段により記録されてい
る連絡先を参照して、前記文章作成手段により作成され
た前記文章の出力を制御することを特徴とする請求項1
乃至7のいずれかに記載の画像評価装置。
8. A storage unit for storing contact information, wherein the output control unit refers to the contact information recorded in the storage unit, and outputs an output of the text created by the text creation unit. 2. The method according to claim 1, wherein the control is performed.
An image evaluation device according to any one of claims 1 to 7.
JP2000001198A 2000-01-07 2000-01-07 Image evaluating device Withdrawn JP2001195579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000001198A JP2001195579A (en) 2000-01-07 2000-01-07 Image evaluating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000001198A JP2001195579A (en) 2000-01-07 2000-01-07 Image evaluating device

Publications (1)

Publication Number Publication Date
JP2001195579A true JP2001195579A (en) 2001-07-19

Family

ID=18530448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000001198A Withdrawn JP2001195579A (en) 2000-01-07 2000-01-07 Image evaluating device

Country Status (1)

Country Link
JP (1) JP2001195579A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085326A (en) * 2001-09-10 2003-03-20 Toshiba Corp Questionnaire collection system, questionnaire collection method, and questionnaire collection program
KR100682994B1 (en) 2004-11-04 2007-02-15 한국전자통신연구원 Apparatus and method for prediction of image reality
JP2010072699A (en) * 2008-09-16 2010-04-02 Nikon Corp Image classification device and image processor
JP2011040049A (en) * 2009-07-15 2011-02-24 Nikon Corp Image classification device
JP2011040050A (en) * 2009-07-15 2011-02-24 Nikon Corp Image classification device
JP2011248717A (en) * 2010-05-28 2011-12-08 Nk Works Co Ltd Image evaluation device and image evaluation method
JP2013137659A (en) * 2011-12-28 2013-07-11 Nikon Corp Display unit
JP2015022533A (en) * 2013-07-19 2015-02-02 東日本旅客鉄道株式会社 Tint design evaluation device, and tint design evaluation method
US10699425B2 (en) 2017-03-15 2020-06-30 Fujifilm Corporation Feature impression axis determination system, feature impression axis determination method, and program thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085326A (en) * 2001-09-10 2003-03-20 Toshiba Corp Questionnaire collection system, questionnaire collection method, and questionnaire collection program
KR100682994B1 (en) 2004-11-04 2007-02-15 한국전자통신연구원 Apparatus and method for prediction of image reality
JP2010072699A (en) * 2008-09-16 2010-04-02 Nikon Corp Image classification device and image processor
JP2011040049A (en) * 2009-07-15 2011-02-24 Nikon Corp Image classification device
JP2011040050A (en) * 2009-07-15 2011-02-24 Nikon Corp Image classification device
JP2011248717A (en) * 2010-05-28 2011-12-08 Nk Works Co Ltd Image evaluation device and image evaluation method
JP2013137659A (en) * 2011-12-28 2013-07-11 Nikon Corp Display unit
JP2015022533A (en) * 2013-07-19 2015-02-02 東日本旅客鉄道株式会社 Tint design evaluation device, and tint design evaluation method
US10699425B2 (en) 2017-03-15 2020-06-30 Fujifilm Corporation Feature impression axis determination system, feature impression axis determination method, and program thereof

Similar Documents

Publication Publication Date Title
EP2741254B1 (en) Color determination device, color determination system, color determination method, information recording medium, and program
WO2013021889A1 (en) Color name determination device, color name determination method, information recording medium, and program
Scherbaum et al. Exploring the proximity of ground-motion models using high-dimensional visualization techniques
CN109165645A (en) A kind of image processing method, device and relevant device
US11922661B2 (en) Augmented reality experiences of color palettes in a messaging system
KR102668172B1 (en) Identification of physical products for augmented reality experiences in messaging systems
CN112001373B (en) Article identification method and device and storage medium
WO2015008567A1 (en) Facial impression estimation method, device, and program
US20210312533A1 (en) Identification of physical products for augmented reality experiences in a messaging system
JP2006048633A (en) Image retrieval system, image retrieval program and storage medium and image retrieval method
Zhang et al. Image retrieval of wool fabric. Part II: based on low-level color features
JP2001195579A (en) Image evaluating device
CN113657087A (en) Information matching method and device
Justiawan et al. Comparative analysis of color matching system for teeth recognition using color moment
JP4245872B2 (en) Similarity determination method, apparatus, and program
KR101961462B1 (en) Object recognition method and the device thereof
US20230196769A1 (en) Posting support apparatus, and posting support method
CN116701706A (en) Data processing method, device, equipment and medium based on artificial intelligence
CN111651626B (en) Image classification method, device and readable storage medium
JP2000048041A (en) Data retrieval system and device to be used for the system
US11210335B2 (en) System and method for judging situation of object
JP2002092611A (en) Device and method for processing image, and recording medium
KR102543461B1 (en) Image adjustment method that selectively changes specific properties using deep learning
JP2012108721A (en) Image search device and image search method
KR20210039154A (en) Big data and AI-based color recognition measurement platform and method using the same

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070403