JP2004030377A - Image impression evaluating apparatus, image impression evaluating method and image impression evaluating program - Google Patents

Image impression evaluating apparatus, image impression evaluating method and image impression evaluating program Download PDF

Info

Publication number
JP2004030377A
JP2004030377A JP2002187522A JP2002187522A JP2004030377A JP 2004030377 A JP2004030377 A JP 2004030377A JP 2002187522 A JP2002187522 A JP 2002187522A JP 2002187522 A JP2002187522 A JP 2002187522A JP 2004030377 A JP2004030377 A JP 2004030377A
Authority
JP
Japan
Prior art keywords
image
area
feature amount
impression
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002187522A
Other languages
Japanese (ja)
Other versions
JP3562516B2 (en
Inventor
Yoshitsugu Hirose
広瀬 吉嗣
Toru Tanaka
田中 徹
Hisae Mihira
三平 寿江
Kazuo Shibuta
澁田 一夫
Tsutomu Oyama
大山 努
Katsura Sakai
酒井 桂
Hideto Yuzawa
湯澤 秀人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2002187522A priority Critical patent/JP3562516B2/en
Publication of JP2004030377A publication Critical patent/JP2004030377A/en
Application granted granted Critical
Publication of JP3562516B2 publication Critical patent/JP3562516B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem that there is no conventional means for accurately evaluating an impression imparted from an image to a person. <P>SOLUTION: The problem is solved by the image impression evaluating method for performing processing including a feature amount acquiring step S3 for acquiring at least one feature amount from an image to be an evaluation target by using a storage means holding a database which relates conditions in at least one visual feature amount associated with the image and expression information representing an impression that the person who watches the image feels, an expression information extracting step S4 for extracting the expression information related with the conditions which the acquired feature amount fulfills, and an output step S5 for displaying the extracted expression information on an output screen as information associated with the impression that the image to be the evaluation target imparts to the person. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価装置、画像印象評価方法及び画像印象評価プログラムに関する。
【0002】
【従来の技術】
近年の情報処理の高速化及び大容量化に伴って、プレゼンテーション資料や各種のウェブサイトにおいて多数の色彩を施された画像が利用されるようになっている。これらの画像においては、画像中に用いられる色の選択、配置、面積及び面積比などによって、人間に与える視覚的な印象が大きく異なる。
【0003】
しかしながら、実際の画像作成の多くは一般的なユーザに委ねられている。画像作成に不慣れな一般的なユーザは、画像をいかに着色及び配色することによって、自分の意図する雰囲気、美観及び視認性が得ることができるか分からないことが多い。また、画像作成の専門家にとっても、作成した画像がユーザに与える印象を客観的に評価する手段が必要とされている。
【0004】
この問題を解決するために、人間の感性に基づいた画像処理や画像評価の研究が盛んに行われており、なかでも人間の感性を評価する感性評価手段と、その結果と画像の特徴とを解析する画像解析手段とを結びつけた感性的画像作成支援手段が数多く提案されている。
【0005】
特開平7−306935号公報及び特開平8−249441号公報には、対話型の配色支援方法及びそれを用いた配色支援装置が開示されている。この配色支援方法では、ユーザが画像データを編集する際に、画像の背景、文字又はグラフなどの配色の適正を具体的な数値として提示したり、配色に適した色彩を候補として提示する。
【0006】
【発明が解決しようとする課題】
しかしながら、上記従来技術においては、画像の配色の適正を求める際の特徴の抽出が適切でなかったり、人間の感性と画像の特徴との対応にずれを生じたりすることが多く、ユーザの意図に沿った雰囲気、美観及び視認性を的確に評価できない問題があった。
【0007】
また、装置の操作が対話型であるために、ユーザからの指示が適切でない場合には、適切な評価結果を提示することができなかった。特に、画像作成の経験が少ないユーザほど支援を必要とするにも関わらず、適切な指示を行うことができないことが多く、利用上の問題を有していた。
【0008】
本発明は、上記従来技術の問題を鑑み、人間の感性に基づいて画像の印象を的確に評価できる画像印象評価装置、画像印象評価方法及び画像印象評価プログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決するための本発明は、画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価装置であって、画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段と、評価対象となる画像から少なくとも1つの特徴量を取得する特徴量取得手段と、前記取得した特徴量が満たす前記条件、と関連付けられた前記表現情報を抽出する表現情報抽出手段と、前記抽出された表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力手段とを含むことを特徴とする。
【0010】
また、上記課題を解決するための本発明の別の形態は、画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価装置であって、画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段と、評価対象となる画像を複数の画像領域として分割する領域分割手段と、前記画像領域に各々に含まれる画像から少なくとも1つの特徴量を取得する特徴量取得手段と、前記データベースから、前記取得された特徴量が満たす前記条件に関連付けられた前記表現情報を抽出する表現情報抽出手段と、前記抽出した表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力手段とを含むことを特徴とする。
【0011】
また、上記画像印象評価装置において、前記特徴量は、明度、彩度、色相、平均色、面積又は位置に関する特徴量の少なくとも1つであることが好適である。
【0012】
また、上記画像印象評価装置において、前記特徴量は、前記画像領域間の視覚的な特徴の差異に関する特徴量を含むことが好適である。
【0013】
すなわち、上記画像印象評価装置において、前記特徴量は、画像全体と画像領域との色差、背景と画像領域との色差、又は画像領域と当該画像領域に隣接する画像領域との色差、に関する特徴量の少なくとも1つであることが好適である。
【0014】
さらに、上記画像印象評価装置において、前記出力手段は、前記出力画面の領域を複数の分割画面領域として分割し、前記分割画面領域に当該特徴量に対する条件を割り当て、前記取得された特徴量が満たす前記条件に対応する前記分割領域に前記抽出された表現情報を表示する手段を含むことが好適である。
【0015】
また、上記画像印象評価装置において、前記出力手段は、前記出力画面の領域を複数の分割画面領域に分割し、前記分割画面領域に当該特徴量に対する条件を割り当て、前記取得された特徴量が満たす前記条件に対応する前記分割画面領域に当該取得された特徴量に関する情報を表示する手段を含むことが好適である。
【0016】
ここで、上記画像印象評価装置において、前記特徴量は平均色及び面積を含み、前記取得された特徴量に関する情報は、当該取得された特徴量の取得元である前記画像領域の面積に比例した出力画面の領域に、当該画像領域の平均色を表示する画像情報であることが好適である。
【0017】
また、上記画像印象評価装置において、前記特徴量は平均色及び面積を含み、前記出力手段は、前記出力画面の領域を複数の分割画面領域に分割し、当該分割画面領域毎に異なる色を割り当て、前記画像領域毎に、当該画像領域の平均色に対応する前記分割画面領域内において、当該画像領域の面積に比例する領域に当該画像領域の平均色を表示する手段を含むことが好適である。
【0018】
上記課題を解決するための本発明は、画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価方法であって、画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段を用いて、評価対象となる画像から少なくとも1つの特徴量を取得する特徴量取得工程と、前記取得した特徴量が満たす前記条件、と関連付けられた前記表現情報を抽出する表現情報抽出工程と、前記抽出された表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力工程とを含む処理を行うことを特徴とする。
【0019】
また、上記課題を解決するための本発明の別の形態は、画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価方法であって、画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段を用いて、評価対象となる画像を複数の画像領域として分割する領域分割工程と、前記画像領域に各々に含まれる画像から少なくとも1つの特徴量を取得する特徴量取得工程と、前記データベースから、前記取得された特徴量が満たす前記条件に関連付けられた前記表現情報を抽出する表現情報抽出工程と、前記抽出した表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力工程とを含む処理を行うことを特徴とする。
【0020】
また、上記画像印象評価方法において、前記特徴量は、明度、彩度、色相、平均色、面積又は位置に関する特徴量の少なくとも1つであることが好適である。
【0021】
また、上記画像印象評価方法において、前記特徴量は、前記画像領域間の視覚的な特徴の差異に関する特徴量を含むことが好適である。
【0022】
すなわち、上記画像印象評価方法において、前記特徴量は、画像全体と画像領域との色差、背景と画像領域との色差、又は画像領域と当該画像領域に隣接する画像領域との色差、に関する特徴量の少なくとも1つであることが好適である。
【0023】
さらに、上記画像印象評価方法において、前記出力工程は、前記出力画面の領域を複数の分割画面領域として分割し、前記分割画面領域に当該特徴量に対する条件を割り当て、前記取得された特徴量が満たす前記条件に対応する前記分割領域に前記抽出された表現情報を表示する工程を含むことが好適である。
【0024】
また、上記画像印象評価方法において、前記出力工程は、前記出力画面の領域を複数の分割画面領域に分割し、前記分割画面領域に当該特徴量に対する条件を割り当て、前記取得された特徴量が満たす前記条件に対応する前記分割画面領域に当該取得された特徴量に関する情報を表示する工程を含むことが好適である。
【0025】
ここで、上記画像印象評価方法において、前記特徴量は平均色及び面積を含み、前記取得された特徴量に関する情報は、当該取得された特徴量の取得元である前記画像領域の面積に比例した出力画面の領域に、当該画像領域の平均色を表示する画像情報であることが好適である。
【0026】
また、上記画像印象評価方法において、前記特徴量は平均色及び面積を含み、前記出力工程は、前記出力画面の領域を複数の分割画面領域に分割し、当該分割画面領域毎に異なる色を割り当て、前記画像領域毎に、当該画像領域の平均色に対応する前記分割画面領域内において、当該画像領域の面積に比例する領域に当該画像領域の平均色を表示する工程を含むことが好適である。
【0027】
上記課題を解決するための本発明は、画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価プログラムであって、画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段を用いて、コンピュータに、評価対象となる画像から少なくとも1つの特徴量を取得する特徴量取得工程と、前記取得した特徴量が満たす前記条件、と関連付けられた前記表現情報を抽出する表現情報抽出工程と、前記抽出された表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力工程とを含む処理を実行させることを特徴とする。
【0028】
【発明の実施の形態】
以下に、本発明の実施の形態について図を参照して詳細に説明する。本発明の実施の形態における印象評価装置は、図1のように、制御部10、内部記憶部12、大容量記憶部14、出力部16、標準入力部18及び画像入力部20から基本的に構成される。制御部10、内部記憶部12、大容量記憶部14、出力部16、標準入力部18及び画像入力部20はバス24を介して情報(データ)伝達可能に接続される。
【0029】
印象評価装置は、さらに、インターフェース部22を含んでなることが好適である。インターフェース部22は、他の構成要素とバス24を介して情報(データ)伝達可能に接続される。インターフェース部22は、ネットワーク26を介して、印象評価装置の外部のサーバからウェブページ等の画像データを読み込むために用いることができる。
【0030】
制御部10は、内部記憶部12に保持されている画像印象評価プログラムを実行し、大容量記憶部14に格納されている画像データ又はネットワーク26を介して画像データを適宜読み込んで、その画像データにより表現される画像の印象評価を行う。印象評価の結果は、出力部16又は内部記憶部12へ出力される。制御部10には、一般的なコンピュータのCPUを用いることができる。
【0031】
内部記憶部12は、制御部10で実行される印象評価プログラム、評価処理に用いられる各パラメータ及び処理結果である印象評価値等を格納及び保持する。内部記憶部12に保持されたデータは、バス24を介して、制御部10から適宜参照することができる。内部記憶部12は、一般的な半導体メモリ、ハードディスク装置、光磁気ディスク装置等を適宜選択して用いることができる。
【0032】
大容量記憶部14は、制御部10での印象評価の対象となる画像(以下、被評価画像という)の画像データを格納及び保持する。画像データは、ビットマップ形式、jpeg形式、tiff形式、HTML形式などの様々なデータ形式で保持される。大容量記憶部14に保持された画像データは、バス24を介して、制御部10から適宜参照することができる。大容量記憶部14は、一般的なハードディスク装置、光磁気ディスク装置等の大容量の記憶装置を選択して用いることができる。
【0033】
出力部16は、制御部10から出力された処理結果をユーザが確認可能な情報として出力する。また、印象評価の処理に必要な制御コマンドやパラメータをユーザが入力する際のユーザインターフェースとしても用いられる。出力部16は、ディスプレイ装置、プリンタ又はタッチパネル等を適宜選択して用いることができる。
【0034】
標準入力部18は、画像の評価を行う際の制御コマンドやパラメータをユーザが入力するために用いられる。例えば、制御部10に対して、内部記憶部12に保持された印象評価プログラムの実行開始を命令する制御コマンドを入力する際に用いられる。標準入力部18は、キーボード、マウス又はタッチパネル等を適宜選択して用いることができる。
【0035】
画像入力部20は、印象評価の対象となる画像データの入力を行う。画像入力部20から入力された画像データは、大容量記憶部14又は内部記憶部12に格納及び保持される。画像入力部20は、スキャナ、デジタルカメラ又はデジタルビデオなどの一般的な画像入力装置を適宜選択して用いることができる。
【0036】
本実施の形態の印象評価装置は、一般的なコンピュータによって基本的に構成することができる。また、上記構成に限定されるものではなく、適宜構成要素を付加、削除又は変更することが好適である。
【0037】
<第1の画像印象評価方法>
以下に、上記印象評価装置を用いた画像の印象評価の処理方法について、図を参照して説明する。図2に、第1の画像の印象評価方法におけるフローチャートを示す。
【0038】
本印象評価方法は、図2のように、被評価画像の入力(ステップS1)、画像領域の分割(ステップS2)、物理的特徴量を取得するサブルーチン(ステップS3)、印象評価の抽出(ステップS4)及び評価結果の出力(ステップS5)を含み、各ステップを順次行うことによって実行される。具体的には、各ステップをコンピュータで実行可能な印象評価プログラムとして内部記憶部12に格納及び保持し、制御部10によってその印象評価プログラムを実行することによって行われる。
【0039】
ユーザが、標準入力部18から印象評価プログラムの実行開始の制御コマンドを入力することによって、制御部10は内部記憶部12に保持された印象評価プログラムを実行する。その結果、直ちにステップS1へ処理が移行される。
【0040】
ステップS1では、画像入力部20を用いて、印象の評価対象となる画像の画像データが取得される。または、ネットワーク26を介して、ウェブページなどの画像データを取得しても良い。画像データは、大容量記憶部14又は内部記憶部12に格納及び保持され、制御部10によって適宜読み出されて処理に供される。
【0041】
ステップS2では、被評価画像を複数の画像領域に分割する。画像領域への分割は、一般的な画像リタッチャ方法を用いて行うことができる。このとき、被評価画像を出力部16を用いて表示し、ユーザはその画像を確認しながら標準入力部18を用いて、画像中の任意の領域を選択して分割する。
【0042】
また、被評価画像がビットマップ形式の画像データである場合には、良く知られたK平均アルゴリズムによるクラスタリング等に代表される画像領域分割アルゴリズムを適用した画像処理方法を用いて、画像を自動的に領域分割することも好適である。
【0043】
分割された画像領域は、それぞれ大容量記憶部14又は内部記憶部12に格納及び保持される。
【0044】
例えば、図3に示すように、被評価画像がウェブページから取り込まれた画像である場合には、画像データはヘッダ部30、タイトル部31、見出し部32、リンクボタン部33、イメージ画像部34及びテキスト部35等に領域分割される。
【0045】
ステップS3では、画像領域ごとに物理的な特徴量が算出される。ここで、物理的な特徴量とは、画像領域の面積、画像領域の幅w及び高さh、左上の位置x,y、画像領域全体の色平均、L成分の平均値、a成分の平均値、b成分の平均値、画像全体の色平均と画像領域全体の色平均の色差ΔL、画像領域と近接する画像領域との色平均の色差Δ、背景と画像領域
との色平均の色差Δ、画像領域内における色の分散、同色数など
の画像の特徴をいう。
【0046】
ステップS3は、図4に示すように、サブルーチンとして処理される。
【0047】
ステップS31では、分割された各画像領域の画像データの色空間がRGB空間からL空間に変換される。通常、コンピュータで利用される画像データは、不均等色空間であるRGB色空間によって表現されていることが多く、人の感覚に近い分析ができない。そこで、不均等色空間であるRGB色空間から均等色空間であるL色空間に変換することによって、画像をより人の感性に近い印象として分析・評価することができる。勿論、画像データが既にL色空間で表現されている場合には変換をする必要はない。
【0048】
図5に、均等色空間を一般的なマンセル色相環として表現した例を示す(図面上において、異なる色は、異なるハッチングによって表現する)。通常、マンセル色相環はさらに多色の色分類を行っているが、図5にはその一部を示した。以下、色空間を色相及び明度ともに10分割したマンセル色相環を用いて説明する。勿論、さらに色空間を細分化したカラーパレットを用いることが好適である。
【0049】
ステップS32では、色空間変換された各画像領域の画像データを大容量記憶部14又は内部記憶部12に格納及び保持する。
【0050】
ステップS33では、各画像領域に対して位置、面積、色平均、色の分散及び色数の特徴量の抽出を行う。大容量記憶部14又は内部記憶部12に保持されている各画像領域の画像データを順次選択し、それぞれの画像領域に対する各特徴量を求める。このとき、全画像領域の中において最大面積を有する画像領域を背景領域と定義する。
【0051】
例えば、位置は、各画像領域に対して左上の画素の位置x,yを求めることにより決定する。面積は、各画像領域の幅w及び高さhを抽出することによって決定する。色平均及び色の分散は、各画像領域内の全画素のL成分、a成分及びb成分に対して、それぞれ算術平均及び分散値を求めることによって決定する。また、色数は、各画像領域内の全画素に対して、L成分、a成分及びb成分の全てが異なる色の数を累積することによって決定する。
【0052】
同様に、画像全体及び背景領域の色平均、色の分散及び色数を求めることができる。
【0053】
ステップS34では、各画像領域と画像全体及び背景領域との色差を求める。まず、各画像領域について画像全体との各色成分の差ΔL ,Δa 及びΔ
を求める。各色成分の差ΔL ,Δa 及びΔb は数式(1)で
表される。
【数1】
ΔL =画像領域iのL成分の色平均−画像全体のL成分の色平均
Δa =画像領域iのa成分の色平均−画像全体のa成分の色平均
Δb =画像領域iのb成分の色平均−画像全体のb成分の色平均
ここで、iは画像領域の識別符号   ・・・・・・・・・・・・・(1)
【0054】
同様に、各画像領域について背景領域との各色成分の差ΔL ,Δa
びΔb を求める。各色成分の差ΔL ,Δa 及びΔb は数式(2
)で表される。
【数2】
ΔL =画像領域jのL成分の色平均−背景領域のL成分の色平均
Δa =画像領域jのa成分の色平均−背景領域のa成分の色平均
Δb =画像領域jのb成分の色平均−背景領域のb成分の色平均
ここで、jは画像領域の識別符号    ・・・・・・・・・・・・(2)
【0055】
各画像領域と画像全体との色差Δ及び各画像領域と背景領域と
の色差Δbjは数式(3)を用いて求めることができる。
【数3】
Δ={ΔL *2+Δa *2+Δb *21/2
Δbi={ΔL *2+Δa *2+Δb *21/2
ここで、i,jは画像領域の識別子  ・・・・・・・・・・・・・(3)
【0056】
ステップS35では、各画像領域とその領域に隣接する画像領域との色差を求める。画像領域iが画像領域jと隣接していた場合には、数式(4)を用いて各色成分の差ΔLij ,Δaij 及びΔbij を求める。
【数4】
ΔLij =画像領域iのL成分の色平均−画像領域jのL成分の色平均
Δaij =画像領域iのa成分の色平均−画像領域jのa成分の色平均
Δbij =画像領域iのb成分の色平均−画像領域jのb成分の色平均
・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・(4)
【0057】
画像領域iが画像領域jとの色差Δniは、数式(5)を用いて求
めることができる。
【数5】
Δni={ΔLij *2+Δaij *2+Δbij *21/2 ・・・(5)
【0058】
画像領域が複数の画像領域と隣接していた場合には、隣接する全ての画像領域に対する各色成分の差ΔLij ,Δaij 及びΔbij を求め、それらの算術平
均を行うことによって色差を求めることが好適である。
【0059】
図6に、各画像領域に対して各特徴量を求めた結果を例示する。これらの特徴量は、各画像領域と対応付けられて大容量記憶部14又は内部記憶部12に格納及び保持される。各特徴量の抽出を終了すると、メインルーチンのステップS4に処理を移行する。
【0060】
ステップS4では、ステップS3で抽出された各特徴量に基づいて画像の印象に対する評価を求める。具体的には、画像領域間で各特徴量の値を比較し、所定の条件を満たす画像領域の特徴量を選択し、その値に基づいて予めデータベース化しておいた画像の印象を表現する表現情報を抽出する。表現情報は、テキスト情報のみならず、画像情報や音声情報とすることも好適である。
【0061】
データベースは、内部記憶部12又は大容量記憶部14に格納及び保持される。データベースには、すくなくとも1つの特徴量に関する条件と、画像が人間に与える印象、すなわち画像を見た人間が感じる印象に関する表現情報とが関連付けて保持される。
【0062】
本実施の形態では、例として、図7に示すデータベースを用いて説明を行う。本データベースでは、背景領域の色平均(L成分、a成分及びb成分)、背景領域からの色差が所定値以上で面積が最も大きい画像領域(メイン領域)の色成分に関する特徴量、面積が所定値以下で背景領域からの色差が最も大きい画像領域(アクセント領域)の色成分に関する特徴量に関する条件と、画像の印象に関するテキスト情報が関連付けられている。
【0063】
但し、画像の印象に関する情報を抽出するために用いることができる特徴量はこれらに限られるものではなく、さらに背景領域からの色差が所定値以上で面積が2番目に大きい面積を有する画像領域の色成分に関する特徴量を用いる等、より多くの特徴量を組み合わせて表現情報を関連付けることがより好適である。
【0064】
例えば、背景領域(面積が最も大きい画像領域)のL成分が3、a成分が0.3及びb成分が0.1であり、メイン領域のL成分が3、a成分が0.3及びb成分が0.1であり、アクセント領域のL成分が3、a成分が0.3及びb成分が0.1である場合には、条件1に合致するため、「風格がある」というテキスト情報が抽出される。取得した特徴量が他の条件に合致する場合には、その条件に関連付けられたテキスト情報を抽出することができる。
【0065】
また、さらに多くの特徴量の値を組み合わせた多次元のデータベースを用いても良い。このように、出来る限り多くの特徴量を組み合わせることにより、画像が人間に与える印象をより詳細なものとすることができる。特に、画像領域間の色差など、異なる画像領域間の特徴量の差異を含んだ条件を用いることにより、被評価画像の中で強いコントラストを持つ箇所等から受ける印象を表す表現情報を抽出することも可能となる。
【0066】
また、図8に示すデータベースのように、特徴量に対する条件と表現情報との関連付けを複数用いても良い。この場合、取得した特徴量が満足する条件が複数となり、それぞれに関連付けられた複数のテキスト情報が抽出される。
【0067】
例えば、図8のデータベースでは、背景領域(面積が最も大きい画像領域)のL成分が3、a成分が0.3及びb成分が0.1である場合には、条件1に合致するため、「風格がある」というテキスト情報が抽出される。同時に、背景領域からの色差が所定値以上で面積が最も大きい画像領域(メイン領域)のL成分が55、a成分が0.3及びb成分が0.1である場合には、条件102に合致するため、「ナチュラルな」というテキスト情報が抽出される。さらに、面積が所定値以下で背景領域からの色差が最も大きい画像領域(アクセント領域)のL成分が65、a成分が0.3及びb成分が0.15である場合には、条件202に合致するため、「平和な」というテキスト情報が抽出される。
【0068】
ステップS5では、出力部16において、取得された特徴量に関する情報及び抽出された表現情報を表示する。出力は、画像に関する情報がユーザに把握し易い態様で行うことが好適である。
【0069】
例えば、図9に示すように、被評価画像90、被評価画像に含まれる各画像領域の面積及び平均色の分布を示す画像色彩情報表示部91、特徴量に基づいて抽出された表現情報を示すカラーイメージ92及び主な画像領域の平均色を示す表示部93を含むことが好適である。
【0070】
画像色彩情報表示部91は、図10(a)に示すように、画像領域毎に、各画像領域の平均色に最も近似するカラーパレット上の色を求め、カラーパレットの色毎に、その色に近似する平均色を有する画像領域の合計面積を求め、その面積に比例した領域をそのカラーパレットの色で塗り潰して表示する。
【0071】
具体的には、図10(b)に示すように、画像色彩情報表示部91の画面位置とカラーパレットに含まれる色成分範囲の条件とを関連付けたデータベースを内部記憶部12又は大容量記憶部14に格納及び保持しておき、内部記憶部12又は大容量記憶部14に保持された各画像領域の平均色の各色成分(L成分、a成分及びb成分)及び面積を参照して、各色成分範囲の条件と一致する平均色を有する画像領域の合計面積を求め、その色成分範囲の条件に関連付けられた画面位置に、その合計面積に比例する領域をそのカラーパレットの色で塗り潰した画像情報を表示する。
【0072】
この画像色彩情報表示部91によって、ユーザは、評価対象となった画像に含まれる色(平均色)の分布を一見して確認することができる。
【0073】
カラーイメージ92は、図11(a)に示すように、出力画面の領域を複数の分割画面領域95として分割し、分割画面領域95毎にステップ4のデータベースに含まれる特徴量に対する条件を予め割り当てておき、ステップ4において画像の印象に関する情報を抽出する際に用いた条件が割り当てられた分割画面領域95に、その条件から抽出された表現情報を表示する。
【0074】
具体的には、図11(b)に示すように、各分割画面領域95の位置情報と、図7又は図8に示すデータベースに含まれる特徴量に対する条件と、を対応付けたデータベースを予め内部記憶部12又は大容量記憶部14に保持しておき、このデータベースを参照して、一致する条件の画面の位置に表現情報を表示する。
【0075】
このとき、分割画面領域95に条件を割り当てる際に、人間が画像から感じる印象が近い条件ほど、互いに近接する分割画面領域95に割り当てることが好適である。
【0076】
図11のカラーイメージ92の例では、“暖かい”印象を与える条件ほどカラーイメージ92の左側に割り当て、逆に、“冷たい”印象を与える条件ほどカラーイメージ92の右側に割り当てている。また、“柔らかい”印象を与える条件ほどカラーイメージ92の上側に割り当て、逆に、“硬い”印象を与える条件ほどカラーイメージ92の下側に割り当てている。但し、これらに限られるものではなく、ユーザが必要とする情報に応じて割り当てを変更しても良い。
【0077】
例えば、画面領域の左側から右側に向けてa成分が増加し、画面領域の下側から上側に向けてb成分が増加するような条件を割り当てることによって、人間に与える印象が近い条件を、より近接する分割画面領域95に割り当てることができる。他の特徴量についても同様である。
【0078】
このように、条件を傾向付けて割り当てることによって、カラーイメージ92に表示された情報の位置や集中度から評価対象となった画像の印象に対する傾向を知ることができる。
【0079】
例えば、取得した特徴量が図8の条件1、条件102及び条件202に合致して「風格がある」「ナチュラルな」及び「平和な」というテキスト情報が抽出された場合、図12に示すように、カラーイメージ92の条件1、条件102及び条件202が割り当てられた分割画面領域96,97,98にそれぞれ「風格がある」「ナチュラルな」及び「平和な」が表示される。
【0080】
さらに、条件に合致した特徴量を示す情報を同時に表示することが好適である。例えば、図12に示すように、条件1に合致した背景領域の面積に比例した領域96を背景領域の平均色で塗り潰して表示する。同様に、条件102及び条件202に合致した各々の画面領域の面積に比例した領域97及び領域98をその画面領域の平均色で塗り潰して表示する。
【0081】
このように、カラーイメージ92上に画像の印象を示すテキスト情報と特徴量を示す情報とを同時に表示することによって、ユーザは、どのような特徴量に基づいて画像の印象が評価されたかを、その特徴量に対応付けて容易に認識することが可能となる。
【0082】
また、ステップS4において、図7のように、複数の特徴量の組合せからなる条件を用いて表現情報を抽出した場合には、図11の各分割画面領域95に割り当てる条件を複数の特徴量の組合せからなる条件とすることが好適である。
【0083】
この場合、組み合わされた特徴量の抽出元の画像領域の平均色を一緒に表示しても良い。例えば、図13のように、図7の条件1により抽出された表現情報「風格がある」と、その抽出に用いられた背景領域、メイン領域及びアクセント領域の平均色をカラーイメージ92上に同時に表示する。
【0084】
主な画像領域の平均色を示す表示部93は、背景領域、メイン領域及びアクセント領域の各々の平均色を表示する。
【0085】
このように、評価対象となった画像の主要な画像領域の特徴量を抽出した結果を提示することにより、ユーザは、カラーイメージ92の表示と比較し、各画像領域の特徴量によってどのような印象が与えられるかを明確に知ることができる。
【0086】
<第2の画像印象評価方法>
第2の画像印象評価方法を以下に説明する。第2の画像印象評価方法では、予め複数の色を含んだカラーパレットを準備し、そのカラーパレットに含まれる各色を組み合わせた条件に画像の印象の表現情報を割り当てたデータベースを準備し、被評価画像から色に関する特徴量を抽出し、その特徴量に対応するカラーパレット上の色に割り当てられた表現情報を選択して表示する。
【0087】
以下に、カラーパレットを用いた画像の印象評価の処理方法について、図を参照して説明する。上記第1の画像印象評価方法と同様に、図2に示すように、被評価画像の入力(ステップS1)、画像領域の分割(ステップS2)、物理的特徴量を取得するサブルーチン(ステップS3)、印象評価の抽出(ステップS4)及び評価結果の出力(ステップS5)を含み、各ステップを順次行うことによって実行される。
【0088】
ステップS1及びS2では、上記第1の画像印象評価方法と同様に処理が行われるため、説明を省略する。
【0089】
ステップS3では、画像領域毎に特徴量が算出され、その中の色に関する特徴量とカラーパレット上の色への対応付けが行われる。ステップS3は、図14に示すように、サブルーチンとして処理される。
【0090】
ステップS31では、各画像領域の画像データの色空間がRGB空間からL空間に変換される。この処理は、上記第1の画像印象評価方法と同様であるため、説明は省略する。
【0091】
ステップS32では、色空間変換された各画像領域の画像データを大容量記憶部14又は内部記憶部12に格納及び保持する。
【0092】
ステップS37では、各画像領域に対して位置、面積、色の分散及び色数の特徴量の抽出を行うと共に、さらに各画像領域の色平均の特徴量に最も近似するカラーパレット上の色を特徴量として求める。
【0093】
各画像領域の位置、面積、色の分散及び色数についての特徴量の算出方法は、上記第1の画像印象評価方法と同様であるので、説明は省略する。
【0094】
カラーパレット上の色の特徴量は、上記第1の画像印象評価方法と同様に算出した各画像領域の色平均に基づいてパターンマッチングを行うことによって、その色平均に最も近似するカラーパレット上の色を求める。
【0095】
ステップS38では、画像領域毎に求められたカラーパレット上の色と、その画像領域の面積に基づいて、ベースカラー、サブカラー及びアクセントカラーを算出する。ここで、ベースカラーとは、被評価画像の中で最大面積用いられている色をいう。サブカラーとは、ベースカラーからの色差が所定値以上であり、かつ、より広い面積に用いられている色を順に2色選択したものをいう。アクセントカラーとは、用いられている面積が被評価画像の面積に対して所定割合以下であり、かつベースカラーからのより色差が大きいものから順に2色選択したものをいう。図15に、選択されたベースカラー1色、サブカラー2色及びアクセントカラー2色を例示する。但し、色の選択条件はこれらに限られるものではなく、被評価画像の特徴を明確に示す色であれば良い。
【0096】
ステップS4では、選択された色、すなわちベースカラー、サブカラー及びアクセントカラーに基づいて、被評価画像が人間に与える印象に関する情報を抽出する。具体的には、予めベースカラー、サブカラー又はアクセントカラーを組み合わせた条件と、その組合せから人間が受ける印象に関する表現情報とを関連付けたデータベースを作成しておき、選択されたベースカラー、サブカラー及びアクセントカラーの組合せと一致する条件に関連付けられた表現情報を抽出する。
【0097】
ここでは、図16に示すデータベースを用いて説明する。本データベースでは、ベースカラーとサブカラー2色の組合せを条件としてデータベースと、アクセントカラー2色の組合せを条件としたデータベースを含んでいる。但し、ベースカラー、サブカラー及びアクセントカラーの組合せの条件はこれらに限られるものではなく、その他の組合せを条件としても良い。
【0098】
これらのデータベースを参照すると、例えば図14において、被評価画像から選択されたベースカラー、サブカラー及びアクセントカラーからは、「大胆な」及び「明瞭な」というテキスト情報を抽出することができる。
【0099】
ステップS5では、出力部16において、選択されたベースカラー、サブカラー及びアクセントカラーや抽出された表現情報を表示する。出力は、画像に関する情報がユーザに把握し易い態様で行うことが好適である。
【0100】
例えば、図17のように、被評価画像160、被評価画像に含まれるカラーパレット上の色の面積を示す画像色彩情報表示部161、選択されたカラーから抽出された表現情報を表示するカラーイメージ162及び選択されたカラーを表示する表示部163を含むことが好適である。
【0101】
画像色彩情報表示部161は、上記第1の画像印象評価方法と同様に、被評価画像内に含まれるカラーパレット上の色の面積を、その面積に比例した画面領域をそのカラーパレット上の色で塗り潰して表示される。
【0102】
カラーイメージ162は、出力画面の領域を複数の分割画面領域に分割し、分割画面領域毎にベースカラー、サブカラー及びアクセントカラーの組合せからなる条件を割り当て、表現情報を抽出するときに用いた条件と一致する条件が割り当てられた領域に、その条件から抽出された表現情報を表示する。また、併せて、表現情報の抽出に用いられたベースカラー、サブカラー及びアクセントカラーを表示することも好適である。
【0103】
具体的な、表示方法は、上記第1の画像印象評価方法と同様であるので、ここでの説明は省略する。
【0104】
以上のように、第1及び第2の画像印象評価方法によれば、画像が人間に与える印象を評価するために適した特徴量及びその組合せが満たす条件から、画像が人間に与える印象に関する情報を自動で提示することができる。
【0105】
したがって、画像作成の経験が少ないユーザであっても、画像データを入力するだけで、的確な印象に関する情報を得ることができる。
【0106】
また、画像が人間に与える印象に関する情報のみならず、評価に用いられた特徴量等を、ユーザが把握し易い態様で提示することができ、ユーザは画像に関する全般的な情報を容易に把握することができる。
【0107】
<第3の画像印象評価方法>
ハイパーテキスト形式等のコンテンツが構造化された画像やドキュメントの場合には、それらを構成しているテキスト情報の構文を解析することによって、画像の領域分割及び特徴量の抽出を自動で行うことができる。
【0108】
以下に、構造化された画像の印象評価の処理方法について、図を参照して説明する。上記第1の画像印象評価方法と同様に、被評価画像の入力(ステップS1)、画像領域の分割(ステップS2)、物理的特徴量を取得するサブルーチン(ステップS3)、印象評価の抽出(ステップS4)及び評価結果の出力(ステップS5)を含み、各ステップを順次行うことによって実行される。
【0109】
ステップS1は、上記第1の画像印象評価方法と同様に処理するため、ここでの説明は省略する。
【0110】
ステップS2では、評価対象となる画像を複数の領域に分割する。このとき、構造化された画像データを解析し、構造化されているコンテンツ毎に分割画像領域として分割する。
【0111】
ネットワーク26から読み込まれたHTML形式で記述された画像が評価対象である場合は、その画像データに含まれる各タグで括られるコンテンツを1つの分割画像領域とする。例えば、<head>タグと</head>タグの間をヘッダ部として分割することができる。
【0112】
ステップS3では、ステップS2で分割された各画像領域から特徴量を抽出する。すなわち、各画像領域として分割されたコンテンツ毎の色、大きさ、配置等の情報を特徴量として抽出する。
【0113】
以下、ステップS4及びステップS5では、上記第1の画像印象評価方法と同様に処理を行うため、説明を省略する。
【0114】
以上のように、第3の画像印象評価方法によれば、ハイパーテキスト形式等の構造化された画像データから特徴量を抽出し、その画像が人間に与える印象に関する情報を提示することができる。さらに、被評価画像のビットマップ形式の画像データと、上記構文解析を組み合わせることによって、より正確な領域分割を行うこともできる。
【0115】
【発明の効果】
本発明によれば、評価対象となる画像から複数の視覚的な特徴量を取得し、その特徴量の組合せに基づいて、その画像が人間に与える印象に関する情報を把握し易い形態で提示することができる。
【0116】
また、ユーザは、評価対象となる画像の画像データを入力するだけで、上記の情報を得ることができる。したがって、画像作成等の経験が少ないユーザであっても、画像の印象に関する情報を正確に把握することができる。
【図面の簡単な説明】
【図1】本実施の形態における画像印象評価装置の構成のブロック図である。
【図2】本実施の形態における第1の画像印象評価方法のフローチャートを示す図である。
【図3】評価対象となる画像を画像領域に分割した例を示す図である。
【図4】本発明の実施の形態における第1の画像印象評価方法のステップS3のフローチャートを示す図である。
【図5】均等色空間におけるマンセル色相環を示す図である。
【図6】本発明の実施の形態における第1の画像印象評価方法で取得された特徴量の例を示す図である。
【図7】本発明の実施の形態における第1の画像印象評価方法で用いられる表現情報抽出用データベースの例を示す図である。
【図8】本発明の実施の形態における第1の画像印象評価方法で用いられる表現情報抽出用データベースの別の例を示す図である。
【図9】本発明の実施の形態における第1の画像印象評価方法の評価結果の出力例を示す図である。
【図10】本発明の実施の形態における第1の画像印象評価方法の画像色彩情報表示部を表示する方法の説明図である。
【図11】本発明の実施の形態における第1の画像印象評価方法のカラーイメージを表示する方法の説明図である。
【図12】本発明の実施の形態における第1の画像印象評価方法のカラーイメージの表示例を示す図である。
【図13】本発明の実施の形態における第1の画像印象評価方法の評価結果の別の表示例を示す図である。
【図14】本発明の実施の形態における第2の画像印象評価方法のフローチャートを示す図である。
【図15】本発明の実施の形態における第2の画像印象評価方法で取得されたベースカラー、サブカラー及びアクセントカラーの例を示す図である。
【図16】本発明の実施の形態における第2の画像印象評価方法で用いられる表現情報抽出用データベースの例を示す図である。
【図17】本発明の実施の形態における第2の画像印象評価方法の評価結果の出力例を示す図である。
【符号の説明】
10 制御部、12 内部記憶部、14 大容量記憶部、16 出力部、18標準入力部、20 画像入力部、22 インターフェース部、24 バス、26 ネットワーク、30 ヘッダ部、31 タイトル部、32 見出し部、33リンクボタン部、34 イメージ画像部、35 テキスト部、90 評価対象画像(被評価画像)、91 画像色彩情報表示部、92 カラーイメージ、93主な領域のカラー表示部。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image impression evaluation device, an image impression evaluation method, and an image impression evaluation program for presenting, based on visual information acquired from an image, information on an impression given to a human by the image.
[0002]
[Prior art]
2. Description of the Related Art With the recent increase in speed and capacity of information processing, images with many colors have been used in presentation materials and various websites. In these images, the visual impression given to a human greatly differs depending on the selection, arrangement, area and area ratio of the colors used in the images.
[0003]
However, much of the actual image creation is left to the general user. A general user unfamiliar with image creation often does not know how coloring and coloring an image can provide the intended atmosphere, aesthetics, and visibility. Also, a means for objectively evaluating the impression of the created image to the user is also required for an image creation expert.
[0004]
In order to solve this problem, research on image processing and image evaluation based on human sensibility has been actively conducted, and among them, a kansei evaluation means for evaluating human kansei, and the results and image characteristics have been developed. There have been proposed many sensible image creation support means linked to an image analysis means to be analyzed.
[0005]
JP-A-7-306935 and JP-A-8-249441 disclose an interactive color arrangement support method and a color arrangement support apparatus using the same. In this color arrangement support method, when a user edits image data, the appropriateness of the color arrangement of the background, characters, graphs, and the like of the image is presented as specific numerical values, and colors suitable for the color arrangement are presented as candidates.
[0006]
[Problems to be solved by the invention]
However, in the above-described conventional technology, the extraction of features when determining the appropriateness of the color arrangement of an image is not appropriate, or the correspondence between the human sensibility and the features of the image often shifts. There was a problem that it was not possible to accurately evaluate the atmosphere, aesthetics, and visibility along.
[0007]
In addition, since the operation of the apparatus is interactive, if an instruction from the user is not appropriate, an appropriate evaluation result cannot be presented. In particular, a user who has less experience in creating an image is often unable to give an appropriate instruction in spite of needing assistance, and thus has a problem in use.
[0008]
An object of the present invention is to provide an image impression evaluation device, an image impression evaluation method, and an image impression evaluation program capable of accurately evaluating an image impression based on human sensibility in view of the above-described problems of the related art.
[0009]
[Means for Solving the Problems]
The present invention for solving the above-mentioned problem is an image impression evaluation device which presents information on an impression given to a human by an image based on visual information acquired from the image, wherein at least one visual impression related to the image is provided. Storage means for holding a database in which conditions for various feature amounts are associated with expression information representing an impression felt by a human looking at the image, and feature amount obtaining means for obtaining at least one feature amount from an image to be evaluated And an expression information extracting means for extracting the expression information associated with the condition satisfied by the obtained feature amount, and the extracted expression information as information on an impression given to a human by the image to be evaluated. Output means for displaying on an output screen.
[0010]
Another embodiment of the present invention for solving the above problem is an image impression evaluation device that presents information on an impression given to a human by an image based on visual information acquired from the image, Storage means for holding a database in which at least one condition relating to a visual feature amount and expression information representing an impression felt by a person who looks at the image are associated, and the image to be evaluated is divided into a plurality of image areas Area dividing means for acquiring, at least one feature quantity from an image included in each of the image areas, feature quantity acquiring means, and the expression associated with the condition satisfied by the acquired feature quantity from the database. An expression information extracting means for extracting information; and an output image extracting unit configured to output the extracted expression information as information relating to an impression given to a human by the image to be evaluated. Characterized in that it comprises an output means for displaying.
[0011]
In the image impression evaluation device, it is preferable that the feature amount is at least one of a feature amount relating to lightness, saturation, hue, average color, area, or position.
[0012]
In the image impression evaluation device, it is preferable that the feature amount includes a feature amount relating to a difference in visual features between the image regions.
[0013]
That is, in the image impression evaluation device, the feature amount is a feature amount related to a color difference between the entire image and the image region, a color difference between the background and the image region, or a color difference between the image region and an image region adjacent to the image region. Preferably, at least one of
[0014]
Further, in the image impression evaluation device, the output unit divides the area of the output screen into a plurality of divided screen areas, assigns a condition for the feature to the divided screen area, and satisfies the acquired feature. It is preferable to include a unit for displaying the extracted expression information in the divided area corresponding to the condition.
[0015]
Further, in the image impression evaluation device, the output unit divides the area of the output screen into a plurality of divided screen areas, assigns a condition for the characteristic amount to the divided screen area, and satisfies the acquired characteristic amount. It is preferable that the information processing apparatus further includes means for displaying information on the acquired feature amount in the divided screen area corresponding to the condition.
[0016]
Here, in the image impression evaluation device, the feature amount includes an average color and an area, and the information on the acquired feature amount is proportional to an area of the image region from which the acquired feature amount is acquired. It is preferable that the information is image information for displaying the average color of the image area in the area of the output screen.
[0017]
In the image impression evaluation device, the feature amount includes an average color and an area, and the output unit divides the area of the output screen into a plurality of divided screen areas, and assigns a different color to each of the divided screen areas. Preferably, for each of the image regions, a unit for displaying the average color of the image region in a region proportional to the area of the image region in the divided screen region corresponding to the average color of the image region is preferable. .
[0018]
The present invention for solving the above-mentioned problem is an image impression evaluation method for presenting information on an impression given to a human by an image based on visual information obtained from the image, wherein at least one visual impression related to the image is provided. Using at least one feature amount from an image to be evaluated using a storage unit that holds a database that associates conditions for various feature amounts with expression information representing an impression felt by a person who looks at the image. An acquisition step, an expression information extraction step of extracting the expression information associated with the condition satisfied by the acquired feature amount, and an expression relating the extracted expression information to a human being given by the image to be evaluated to a human. A process including an output step of displaying information on an output screen.
[0019]
Another embodiment of the present invention for solving the above problem is an image impression evaluation method for presenting information on an impression given to a human by the image based on visual information obtained from the image, The image to be evaluated is stored in a plurality of image areas by using a storage unit that stores a database in which at least one condition regarding a visual feature amount and expression information indicating an impression felt by a person who views the image are stored. As an area dividing step, a feature amount acquiring step of acquiring at least one feature amount from an image included in each of the image regions, and a condition associated with the condition satisfied by the acquired feature amount from the database. An expression information extracting step of extracting the expression information; and using the extracted expression information as information on an impression given to a human by the image to be evaluated. And performing processing including an output step of displaying the force screen.
[0020]
In the image impression evaluation method, it is preferable that the feature amount is at least one of a feature amount relating to lightness, saturation, hue, average color, area, or position.
[0021]
In the image impression evaluation method, it is preferable that the feature amount includes a feature amount related to a difference in visual features between the image regions.
[0022]
That is, in the image impression evaluation method, the feature amount is a feature amount related to a color difference between the entire image and the image region, a color difference between the background and the image region, or a color difference between the image region and an image region adjacent to the image region. Preferably, at least one of
[0023]
Further, in the image impression evaluation method, the output step divides the area of the output screen into a plurality of divided screen areas, assigns a condition for the characteristic amount to the divided screen area, and satisfies the acquired characteristic amount. Preferably, the method further includes a step of displaying the extracted expression information in the divided area corresponding to the condition.
[0024]
In the image impression evaluation method, the output step divides the area of the output screen into a plurality of divided screen areas, assigns a condition for the feature amount to the divided screen area, and satisfies the acquired feature amount. It is preferable that the method further includes a step of displaying information on the acquired feature amount in the divided screen area corresponding to the condition.
[0025]
Here, in the image impression evaluation method, the feature amount includes an average color and an area, and the information on the obtained feature amount is proportional to an area of the image region from which the obtained feature amount is obtained. It is preferable that the information is image information for displaying the average color of the image area in the area of the output screen.
[0026]
In the image impression evaluation method, the feature amount includes an average color and an area, and the output step divides the area of the output screen into a plurality of divided screen areas, and assigns a different color to each of the divided screen areas. Preferably, for each of the image areas, a step of displaying the average color of the image area in an area proportional to the area of the image area in the divided screen area corresponding to the average color of the image area is preferable. .
[0027]
The present invention for solving the above-mentioned problem is an image impression evaluation program for presenting information on an impression given to a human by an image based on visual information obtained from the image, wherein at least one visual impression related to the image is provided. The computer obtains at least one feature amount from the image to be evaluated by using a storage unit that holds a database in which conditions for various feature amounts and expression information representing an impression felt by a person who looks at the image are associated. A feature value obtaining step, and an expression information extracting step of extracting the expression information associated with the condition satisfied by the obtained feature value; and A process including an output step of displaying on an output screen as information on an impression to be given is executed.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The impression evaluation device according to the embodiment of the present invention basically includes a control unit 10, an internal storage unit 12, a large-capacity storage unit 14, an output unit 16, a standard input unit 18, and an image input unit 20, as shown in FIG. Be composed. The control unit 10, the internal storage unit 12, the large-capacity storage unit 14, the output unit 16, the standard input unit 18, and the image input unit 20 are connected via a bus 24 so that information (data) can be transmitted.
[0029]
It is preferable that the impression evaluation device further includes an interface unit 22. The interface unit 22 is connected to other components via a bus 24 so that information (data) can be transmitted. The interface unit 22 can be used to read image data such as a web page from a server external to the impression evaluation device via the network 26.
[0030]
The control unit 10 executes the image impression evaluation program stored in the internal storage unit 12 and reads the image data stored in the large-capacity storage unit 14 or the image data via the network 26 as appropriate. Is performed to evaluate the impression of the image represented by. The result of the impression evaluation is output to the output unit 16 or the internal storage unit 12. As the control unit 10, a CPU of a general computer can be used.
[0031]
The internal storage unit 12 stores and holds an impression evaluation program executed by the control unit 10, each parameter used in the evaluation processing, an impression evaluation value as a processing result, and the like. The data held in the internal storage unit 12 can be referred to from the control unit 10 via the bus 24 as appropriate. As the internal storage unit 12, a general semiconductor memory, a hard disk device, a magneto-optical disk device, or the like can be appropriately selected and used.
[0032]
The large-capacity storage unit 14 stores and holds image data of an image (hereinafter, referred to as an image to be evaluated) to be evaluated by the control unit 10. Image data is held in various data formats such as a bitmap format, a jpeg format, a tiff format, and an HTML format. The image data stored in the large-capacity storage unit 14 can be appropriately referred to from the control unit 10 via the bus 24. As the large-capacity storage unit 14, a large-capacity storage device such as a general hard disk device or a magneto-optical disk device can be selected and used.
[0033]
The output unit 16 outputs the processing result output from the control unit 10 as information that can be confirmed by the user. It is also used as a user interface when the user inputs control commands and parameters necessary for the impression evaluation process. As the output unit 16, a display device, a printer, a touch panel, or the like can be appropriately selected and used.
[0034]
The standard input unit 18 is used by a user to input control commands and parameters for evaluating an image. For example, it is used when a control command for instructing the control unit 10 to start execution of the impression evaluation program stored in the internal storage unit 12 is input. As the standard input unit 18, a keyboard, a mouse, a touch panel, or the like can be appropriately selected and used.
[0035]
The image input unit 20 inputs image data to be subjected to impression evaluation. The image data input from the image input unit 20 is stored and held in the mass storage unit 14 or the internal storage unit 12. As the image input unit 20, a general image input device such as a scanner, a digital camera, or a digital video can be appropriately selected and used.
[0036]
The impression evaluation device of the present embodiment can be basically configured by a general computer. Further, the present invention is not limited to the above-described configuration, and it is preferable to appropriately add, delete, or change components.
[0037]
<First image impression evaluation method>
Hereinafter, a method of processing an image impression evaluation using the impression evaluation apparatus will be described with reference to the drawings. FIG. 2 shows a flowchart in the first image impression evaluation method.
[0038]
As shown in FIG. 2, the present impression evaluation method inputs an image to be evaluated (step S1), divides an image region (step S2), acquires a physical feature amount (step S3), and extracts an impression evaluation (step S3). S4) and the output of the evaluation result (step S5), and are executed by sequentially performing each step. Specifically, each step is stored and held in the internal storage unit 12 as an impression evaluation program executable by a computer, and the control unit 10 executes the impression evaluation program.
[0039]
When the user inputs a control command for starting the execution of the impression evaluation program from the standard input unit 18, the control unit 10 executes the impression evaluation program stored in the internal storage unit 12. As a result, the process immediately shifts to step S1.
[0040]
In step S <b> 1, image data of an image to be evaluated for an impression is acquired using the image input unit 20. Alternatively, image data such as a web page may be acquired via the network 26. The image data is stored and held in the large-capacity storage unit 14 or the internal storage unit 12, read out by the control unit 10 as appropriate, and provided for processing.
[0041]
In step S2, the evaluated image is divided into a plurality of image areas. Division into image areas can be performed using a general image retoucher method. At this time, the evaluated image is displayed using the output unit 16, and the user selects and divides an arbitrary region in the image using the standard input unit 18 while checking the image.
[0042]
When the image to be evaluated is bitmap image data, the image is automatically converted using an image processing method applying an image region division algorithm represented by a well-known K-means algorithm or the like. It is also preferable to divide the area.
[0043]
The divided image areas are stored and held in the large-capacity storage unit 14 or the internal storage unit 12, respectively.
[0044]
For example, as shown in FIG. 3, when the evaluated image is an image captured from a web page, the image data includes a header section 30, a title section 31, a heading section 32, a link button section 33, and an image image section 34. And a text section 35 or the like.
[0045]
In step S3, a physical feature amount is calculated for each image region. Here, the physical feature amount is the area of the image area, the width w and the height h of the image area, the position x, y at the upper left, the color average of the entire image area, L*Average value of components, a*The average value of the components, b*Average value of components, color difference ΔL between color average of entire image and color average of entire image area*a*b*, The average color difference Δ between the image area and the adjacent image areanL*a*b*, Background and image area
Color difference ΔbL*a*b*, Color dispersion in image area, same color number, etc.
Image features.
[0046]
Step S3 is processed as a subroutine as shown in FIG.
[0047]
In step S31, the color space of the image data of each of the divided image areas is changed from the RGB space to L.*a*b*Converted to space. Normally, image data used by computers is often expressed in an RGB color space, which is a non-uniform color space, and analysis close to human perception cannot be performed. Therefore, the RGB color space, which is a non-uniform color space, is changed to the L color, which is a uniform color space.*a*b*By converting to a color space, an image can be analyzed and evaluated as an impression closer to human sensitivity. Of course, if the image data is already L*a*b*There is no need to perform conversion if the color space is used.
[0048]
FIG. 5 shows an example in which a uniform color space is represented as a general Munsell hue circle (different colors are represented by different hatchings in the drawing). Normally, the Munsell hue circle is further classified into multiple colors. FIG. 5 shows a part of the classification. Hereinafter, a description will be given using a Munsell hue circle obtained by dividing a color space into 10 parts in both hue and lightness. Of course, it is preferable to use a color palette in which the color space is further subdivided.
[0049]
In step S32, the image data of each image area subjected to the color space conversion is stored and held in the large-capacity storage unit 14 or the internal storage unit 12.
[0050]
In step S33, the position, area, color average, color variance, and the number of colors are extracted for each image region. The image data of each image area held in the large-capacity storage unit 14 or the internal storage unit 12 is sequentially selected, and each feature amount for each image area is obtained. At this time, the image area having the largest area among all the image areas is defined as a background area.
[0051]
For example, the position is determined by obtaining the position x, y of the upper left pixel for each image area. The area is determined by extracting the width w and height h of each image area. The color average and color variance are calculated by calculating the L of all pixels in each image area.*Component, a*Component and b*It is determined by calculating the arithmetic mean and variance value for each component. The number of colors is L for all pixels in each image area.*Component, a*Component and b*All of the components are determined by accumulating the number of different colors.
[0052]
Similarly, the color average, color variance, and number of colors of the entire image and the background area can be obtained.
[0053]
In step S34, the color difference between each image area and the entire image and the background area is obtained. First, for each image area, the difference ΔL of each color component from the entire imagei *, Δai *And Δ
bi *Ask for. Difference ΔL of each color componenti *, Δai *And Δbi *Is in equation (1)
expressed.
(Equation 1)
ΔLi *= L of image area i*Component color average-L of entire image*Component color average
Δai *= A of image area i*Component color average-a for the entire image*Component color average
Δbi *= B in image area i*Component color average-b of entire image*Component color average
Here, i is the identification code of the image area (1)
[0054]
Similarly, for each image region, the difference ΔL between each color component from the background regionj *, Δaj *Passing
And Δbj *Ask for. Difference ΔL of each color componentj *, Δaj *And Δbj *Is the formula (2
).
(Equation 2)
ΔLj *= L of image area j*Component color average-L in background area*Component color average
Δaj *= A of image area j*Component color average-background area a*Component color average
Δbj *= B of image area j*Component color average-background area b*Component color average
Here, j is the identification code of the image area (2)
[0055]
Color difference Δ between each image area and entire imageiL*a*b*And each image area and background area
Color difference ΔbjL*a*b*Can be obtained using Expression (3).
(Equation 3)
ΔiL*a*b*= {ΔLi * 2+ Δai * 2+ Δbi * 21/2
ΔbiL*a*b*= {ΔLj * 2+ Δaj * 2+ Δbj * 21/2
Here, i and j are identifiers of the image area (3)
[0056]
In step S35, a color difference between each image area and an image area adjacent to the image area is determined. When the image area i is adjacent to the image area j, the difference ΔL between the respective color components is calculated using Expression (4).ij *, Δaij *And Δbij *Ask for.
(Equation 4)
ΔLij *= L of image area i*Component color average-L of image area j*Component color average
Δaij *= A of image area i*Component color average-a of image area j*Component color average
Δbij *= B in image area i*Component color average-b in image area j*Component color average
・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ (4)
[0057]
The color difference Δ between the image area i and the image area jniL*a*b*Is calculated using equation (5).
Can be
(Equation 5)
ΔniL*a*b*= {ΔLij * 2+ Δaij * 2+ Δbij * 21/2・ ・ ・ (5)
[0058]
If the image area is adjacent to a plurality of image areas, the difference ΔL of each color component for all adjacent image areasij *, Δaij *And Δbij *Ask for those arithmetic flats
It is preferable to obtain the color difference by performing the equalization.
[0059]
FIG. 6 exemplifies a result of obtaining each feature amount for each image region. These feature amounts are stored and held in the large-capacity storage unit 14 or the internal storage unit 12 in association with each image area. When the extraction of each feature has been completed, the process proceeds to step S4 of the main routine.
[0060]
In step S4, an evaluation for the impression of the image is obtained based on each feature amount extracted in step S3. More specifically, the value of each feature value is compared between image regions, the feature value of an image region that satisfies a predetermined condition is selected, and an expression representing an image impression previously stored in a database based on the value is selected. Extract information. The expression information is preferably not only text information but also image information and audio information.
[0061]
The database is stored and held in the internal storage unit 12 or the large-capacity storage unit 14. The database stores at least one condition related to the feature amount and expression information related to an impression given to a human by the image, that is, an impression felt by a person who looks at the image.
[0062]
In the present embodiment, description will be made using a database shown in FIG. 7 as an example. In this database, the color average (L*Component, a*Component and b*Component), a feature amount relating to a color component of an image area (main area) having a color difference from a background area equal to or more than a predetermined value and having the largest area, and an image area (accent area) having an area equal to or less than a predetermined value and having the largest color difference from the background area. Is associated with a condition relating to a feature amount relating to the color component and text information relating to an impression of the image.
[0063]
However, the feature amounts that can be used to extract information on the impression of the image are not limited to these, and the color difference from the background region is equal to or more than a predetermined value and the area of the image region having the second largest area. It is more preferable to associate expression information by combining more feature amounts, such as using a feature amount related to a color component.
[0064]
For example, L in the background area (the image area having the largest area)*The component is 3, a*The components are 0.3 and b*The component is 0.1 and L in the main area*The component is 3, a*The components are 0.3 and b*The component is 0.1 and L in the accent area*The component is 3, a*The components are 0.3 and b*When the component is 0.1, since the condition 1 is satisfied, the text information of “there is a personality” is extracted. When the acquired feature amount matches another condition, text information associated with the condition can be extracted.
[0065]
Further, a multi-dimensional database in which more feature values are combined may be used. In this way, by combining as many feature values as possible, it is possible to make the impression given to a human by the image more detailed. In particular, by using a condition including a difference in feature amount between different image regions, such as a color difference between image regions, extracting expression information representing an impression received from a place having a strong contrast in the evaluated image. Is also possible.
[0066]
Further, as in the database shown in FIG. 8, a plurality of associations between the condition for the feature amount and the expression information may be used. In this case, there are a plurality of conditions that the acquired feature amount satisfies, and a plurality of pieces of text information associated with each condition are extracted.
[0067]
For example, in the database of FIG. 8, the L of the background area (the image area having the largest area)*The component is 3, a*The components are 0.3 and b*When the component is 0.1, since the condition 1 is satisfied, the text information of “there is a personality” is extracted. At the same time, the L of the image area (main area) having the largest area with a color difference from the background area equal to or larger than a predetermined value.*The component is 55, a*The components are 0.3 and b*When the component is 0.1, since the condition 102 is satisfied, text information “natural” is extracted. Further, L of an image area (accent area) having an area equal to or less than a predetermined value and having the largest color difference from the background area is set.*Ingredient 65, a*The components are 0.3 and b*When the component is 0.15, since the condition 202 is satisfied, text information “peaceful” is extracted.
[0068]
In step S5, the output unit 16 displays the information on the acquired feature amount and the extracted expression information. It is preferable that the output be performed in such a manner that the information on the image can be easily grasped by the user.
[0069]
For example, as shown in FIG. 9, the image to be evaluated 90, an image color information display unit 91 showing the distribution of the average color and the area of each image region included in the image to be evaluated, and expression information extracted based on the feature amount are displayed. It is preferable to include a color image 92 shown and a display unit 93 showing the average color of the main image area.
[0070]
As shown in FIG. 10A, the image color information display section 91 obtains a color on a color palette closest to the average color of each image area for each image area, and for each color of the color palette, The total area of the image area having an average color similar to the above is calculated, and the area proportional to the area is displayed by being filled with the color of the color palette.
[0071]
Specifically, as shown in FIG. 10B, a database in which the screen position of the image color information display unit 91 is associated with the condition of the color component range included in the color palette is stored in the internal storage unit 12 or the large-capacity storage unit. 14 and stored in the internal storage unit 12 or the large-capacity storage unit 14.*Component, a*Component and b*Component) and the area, the total area of the image area having the average color that matches the condition of each color component range is determined, and the area proportional to the total area is displayed at the screen position associated with the condition of the color component range. Is displayed with the color of the color palette.
[0072]
The image color information display section 91 allows the user to see at a glance the distribution of the colors (average colors) contained in the image to be evaluated.
[0073]
As shown in FIG. 11A, the color image 92 divides the area of the output screen into a plurality of divided screen areas 95, and assigns in advance conditions for the feature amounts included in the database in step 4 to each divided screen area 95. In advance, the expression information extracted from the condition is displayed in the divided screen area 95 to which the condition used when extracting the information on the impression of the image in step 4 is assigned.
[0074]
Specifically, as shown in FIG. 11B, a database in which position information of each divided screen area 95 is associated with a condition for a feature amount included in the database shown in FIG. 7 or FIG. The information is stored in the storage unit 12 or the large-capacity storage unit 14, and the expression information is displayed at the position of the screen of the matching condition with reference to the database.
[0075]
At this time, when assigning conditions to the divided screen regions 95, it is preferable to assign the conditions to the divided screen regions 95 that are closer to each other as the condition that the impression that a human perceives from the image is closer.
[0076]
In the example of the color image 92 in FIG. 11, the condition that gives a “warm” impression is assigned to the left side of the color image 92, and conversely, the condition that gives a “cold” impression is assigned to the right side of the color image 92. The condition that gives a “soft” impression is assigned to the upper side of the color image 92, and the condition that gives a “hard” impression is assigned to the lower side of the color image 92. However, the present invention is not limited to these, and the assignment may be changed according to the information required by the user.
[0077]
For example, from the left side of the screen area to the right side, a*The component increases, and from the bottom of the screen area to the top, b*By assigning a condition that increases the component, a condition that gives a closer impression to a human can be assigned to the divided screen region 95 that is closer. The same applies to other feature amounts.
[0078]
In this way, by assigning the conditions with a tendency, it is possible to know the tendency to the impression of the image to be evaluated from the position and the degree of concentration of the information displayed in the color image 92.
[0079]
For example, when the acquired feature amounts match the conditions 1, 102, and 202 in FIG. 8 and the text information of “having personality”, “natural”, and “peaceful” is extracted, as shown in FIG. In the divided image areas 96, 97, and 98 to which the condition 1, the condition 102, and the condition 202 of the color image 92 are assigned, "pretty", "natural", and "peaceful" are displayed, respectively.
[0080]
Further, it is preferable to simultaneously display information indicating a feature amount matching the condition. For example, as shown in FIG. 12, a region 96 that is proportional to the area of the background region that meets the condition 1 is displayed in a solid color with the average color of the background region. Similarly, the area 97 and the area 98 that are proportional to the area of each screen area that meets the conditions 102 and 202 are displayed in a solid color with the average color of the screen area.
[0081]
As described above, by simultaneously displaying the text information indicating the impression of the image and the information indicating the feature amount on the color image 92, the user can determine based on which feature amount the impression of the image is evaluated. It can be easily recognized in association with the feature amount.
[0082]
In step S4, as shown in FIG. 7, when the expression information is extracted using the condition composed of the combination of the plurality of feature amounts, the condition to be assigned to each divided screen region 95 in FIG. It is preferable that the conditions be a combination.
[0083]
In this case, the average color of the image area from which the combined feature amount is extracted may be displayed together. For example, as shown in FIG. 13, when the expression information “there is a style” extracted under the condition 1 of FIG. 7, the average colors of the background region, main region, and accent region used for the extraction are simultaneously displayed on the color image 92. indicate.
[0084]
The display unit 93 showing the average color of the main image area displays the average color of each of the background area, the main area, and the accent area.
[0085]
As described above, by presenting the result of extracting the characteristic amount of the main image region of the image to be evaluated, the user can compare the display with the display of the color image 92 and determine what kind of characteristic amount of each image region You can clearly see if an impression is given.
[0086]
<Second image impression evaluation method>
The second image impression evaluation method will be described below. In the second image impression evaluation method, a color palette including a plurality of colors is prepared in advance, and a database in which expression information of an image impression is assigned to a condition in which each color included in the color palette is combined is prepared. A feature value related to color is extracted from the image, and expression information assigned to a color on a color palette corresponding to the feature value is selected and displayed.
[0087]
Hereinafter, a processing method of image impression evaluation using a color palette will be described with reference to the drawings. As in the first image impression evaluation method, as shown in FIG. 2, input of an image to be evaluated (step S1), division of an image area (step S2), and a subroutine for acquiring a physical feature amount (step S3) , Including extraction of impression evaluation (step S4) and output of evaluation results (step S5), and is executed by sequentially performing each step.
[0088]
In steps S1 and S2, processing is performed in the same manner as in the above-described first image impression evaluation method, and a description thereof will be omitted.
[0089]
In step S3, a feature amount is calculated for each image region, and the feature amount related to the color in the image region is associated with the color on the color palette. Step S3 is processed as a subroutine as shown in FIG.
[0090]
In step S31, the color space of the image data of each image area is changed from the RGB space to L.*a*b*Converted to space. This processing is the same as the above-described first image impression evaluation method, and a description thereof will be omitted.
[0091]
In step S32, the image data of each image area subjected to the color space conversion is stored and held in the large-capacity storage unit 14 or the internal storage unit 12.
[0092]
In step S37, the position, area, color variance, and number of color features are extracted for each image region, and the color on the color palette that is closest to the color average feature amount of each image region is further characterized. Calculate as quantity.
[0093]
The method of calculating the feature amount for the position, area, color variance, and number of colors of each image region is the same as the above-described first image impression evaluation method, and a description thereof will be omitted.
[0094]
By performing pattern matching based on the color average of each image area calculated in the same manner as in the first image impression evaluation method, the color feature amount on the color palette is calculated on the color palette closest to the color average. Ask for color.
[0095]
In step S38, a base color, a sub color, and an accent color are calculated based on the color on the color palette obtained for each image area and the area of the image area. Here, the base color refers to a color that is used in a maximum area in the evaluated image. The sub-color is a color in which a color difference from a base color is equal to or more than a predetermined value and two colors are sequentially selected from colors used for a wider area. The accent color refers to a color in which the area used is equal to or less than a predetermined ratio with respect to the area of the image to be evaluated and two colors are selected in descending order of color difference from the base color. FIG. 15 illustrates one selected base color, two sub-colors, and two accent colors. However, the color selection conditions are not limited to these, and any color may be used as long as the color clearly shows the characteristics of the evaluated image.
[0096]
In step S4, based on the selected colors, that is, the base color, the sub-color, and the accent color, information about the impression given to the human by the evaluated image is extracted. Specifically, a database is created in which a condition in which a base color, a sub color, or an accent color is combined and expression information relating to an impression received by a human from the combination are created in advance, and the selected base color, sub color and Expression information associated with a condition that matches the combination of accent colors is extracted.
[0097]
Here, description will be made using the database shown in FIG. This database includes a database based on a combination of a base color and two sub-colors, and a database based on a combination of two accent colors. However, the condition of the combination of the base color, the sub color, and the accent color is not limited to these, but may be another combination.
[0098]
Referring to these databases, for example, in FIG. 14, text information of “bold” and “clear” can be extracted from the base color, sub-color, and accent color selected from the evaluated image.
[0099]
In step S5, the output unit 16 displays the selected base color, sub color, accent color, and extracted expression information. It is preferable that the output be performed in such a manner that the information on the image can be easily grasped by the user.
[0100]
For example, as shown in FIG. 17, an image to be evaluated 160, an image color information display section 161 indicating the area of a color on a color palette included in the image to be evaluated, a color image for displaying expression information extracted from the selected color It is preferable to include a display unit 163 for displaying the selected color.
[0101]
Similarly to the first image impression evaluation method, the image color information display unit 161 displays the area of the color on the color palette included in the image to be evaluated, and the screen area proportional to the area to the color on the color palette. It is displayed by filling with.
[0102]
The color image 162 divides the area of the output screen into a plurality of divided screen areas, assigns a condition including a combination of a base color, a sub color, and an accent color to each divided screen area, and uses the condition used when extracting expression information. The expression information extracted from the condition is displayed in an area to which a condition matching the condition is assigned. It is also preferable to display the base color, sub-color, and accent color used for extracting the expression information.
[0103]
The specific display method is the same as the first image impression evaluation method described above, and a description thereof will not be repeated.
[0104]
As described above, according to the first and second image impression evaluation methods, information on the impression that the image gives to the human is obtained from the features that are suitable for evaluating the impression that the image gives to the human and the conditions that the combination satisfies. Can be automatically presented.
[0105]
Therefore, even if the user has little experience in creating an image, it is possible to obtain information on an accurate impression only by inputting image data.
[0106]
In addition, not only the information on the impression that the image gives to the human, but also the feature amount and the like used in the evaluation can be presented in a form that is easy for the user to grasp, and the user can easily grasp the general information on the image. be able to.
[0107]
<Third image impression evaluation method>
In the case of images or documents in which the content in hypertext format is structured, by analyzing the syntax of the text information that composes them, it is possible to automatically perform image segmentation and feature extraction. it can.
[0108]
Hereinafter, a method of processing impression evaluation of a structured image will be described with reference to the drawings. Similarly to the first image impression evaluation method, input of an image to be evaluated (step S1), division of an image area (step S2), a subroutine for acquiring physical feature amounts (step S3), extraction of impression evaluation (step S1) S4) and the output of the evaluation result (step S5), and are executed by sequentially performing each step.
[0109]
Step S1 is performed in the same manner as in the first image impression evaluation method, and the description thereof is omitted.
[0110]
In step S2, the image to be evaluated is divided into a plurality of regions. At this time, the structured image data is analyzed and divided as a divided image area for each structured content.
[0111]
When an image described in the HTML format read from the network 26 is to be evaluated, the content enclosed by each tag included in the image data is set as one divided image area. For example, a part between the <head> tag and the </ head> tag can be divided as a header part.
[0112]
In step S3, a feature amount is extracted from each image area divided in step S2. That is, information such as color, size, and arrangement for each content divided as each image region is extracted as a feature amount.
[0113]
Hereinafter, in Steps S4 and S5, the same processing as in the first image impression evaluation method is performed, and therefore, the description is omitted.
[0114]
As described above, according to the third image impression evaluation method, it is possible to extract a feature amount from structured image data in a hypertext format or the like, and to present information about an impression given to a human by the image. Further, by combining the bitmap image data of the evaluated image and the syntax analysis described above, more accurate region division can be performed.
[0115]
【The invention's effect】
According to the present invention, a plurality of visual feature amounts are acquired from an image to be evaluated, and based on a combination of the feature amounts, information on an impression given to a human by the image is presented in a form that is easy to grasp. Can be.
[0116]
Further, the user can obtain the above information only by inputting the image data of the image to be evaluated. Therefore, even a user who has little experience in image creation or the like can accurately grasp information on an impression of an image.
[Brief description of the drawings]
FIG. 1 is a block diagram of a configuration of an image impression evaluation device according to the present embodiment.
FIG. 2 is a diagram showing a flowchart of a first image impression evaluation method in the present embodiment.
FIG. 3 is a diagram illustrating an example in which an image to be evaluated is divided into image areas.
FIG. 4 is a diagram showing a flowchart of step S3 of the first image impression evaluation method according to the embodiment of the present invention.
FIG. 5 is a diagram showing a Munsell hue circle in a uniform color space.
FIG. 6 is a diagram illustrating an example of a feature amount acquired by the first image impression evaluation method according to the embodiment of the present invention.
FIG. 7 is a diagram showing an example of a database for extracting expression information used in the first image impression evaluation method according to the embodiment of the present invention.
FIG. 8 is a diagram showing another example of the expression information extraction database used in the first image impression evaluation method according to the embodiment of the present invention.
FIG. 9 is a diagram illustrating an output example of an evaluation result of the first image impression evaluation method according to the embodiment of the present invention.
FIG. 10 is an explanatory diagram of a method of displaying an image color information display section of the first image impression evaluation method according to the embodiment of the present invention.
FIG. 11 is an explanatory diagram of a method for displaying a color image in the first image impression evaluation method according to the embodiment of the present invention.
FIG. 12 is a diagram showing a display example of a color image according to the first image impression evaluation method in the embodiment of the present invention.
FIG. 13 is a diagram showing another display example of the evaluation result of the first image impression evaluation method according to the embodiment of the present invention.
FIG. 14 is a diagram showing a flowchart of a second image impression evaluation method according to the embodiment of the present invention.
FIG. 15 is a diagram illustrating an example of a base color, a sub color, and an accent color obtained by a second image impression evaluation method according to an embodiment of the present invention.
FIG. 16 is a diagram showing an example of a database for extracting expression information used in a second image impression evaluation method according to an embodiment of the present invention.
FIG. 17 is a diagram illustrating an output example of an evaluation result of the second image impression evaluation method according to the embodiment of the present invention.
[Explanation of symbols]
10 control section, 12 internal storage section, 14 large capacity storage section, 16 output section, 18 standard input section, 20 image input section, 22 interface section, 24 bus, 26 network, 30 header section, 31 title section, 32 heading section , 33 link button section, 34 image image section, 35 text section, 90 image to be evaluated (evaluated image), 91 image color information display section, 92 color image, 93 main area color display section.

Claims (19)

画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価装置であって、
画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段と、
評価対象となる画像から少なくとも1つの特徴量を取得する特徴量取得手段と、
前記取得した特徴量が満たす前記条件、と関連付けられた前記表現情報を抽出する表現情報抽出手段と、
前記抽出された表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力手段と、
を含むことを特徴とする画像印象評価装置。
An image impression evaluation device that presents information on an impression given to a human by the image based on visual information acquired from the image,
A storage unit that stores a database that associates a condition for at least one visual feature amount related to an image with expression information that represents an impression felt by a person who looks at the image;
A feature value obtaining unit configured to obtain at least one feature value from an image to be evaluated;
Expression information extraction means for extracting the expression information associated with the condition that the acquired feature amount satisfies,
Output means for displaying the extracted expression information on an output screen as information on an impression given to a human by the image to be evaluated,
An image impression evaluation device comprising:
画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価装置であって、
画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段と、
評価対象となる画像を複数の画像領域として分割する領域分割手段と、
前記画像領域に各々に含まれる画像から少なくとも1つの特徴量を取得する特徴量取得手段と、
前記データベースから、前記取得された特徴量が満たす前記条件に関連付けられた前記表現情報を抽出する表現情報抽出手段と、
前記抽出した表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力手段と、
を含むことを特徴とする画像印象評価装置。
An image impression evaluation device that presents information on an impression given to a human by the image based on visual information acquired from the image,
A storage unit that stores a database that associates a condition for at least one visual feature amount related to an image with expression information that represents an impression felt by a person who looks at the image;
Area dividing means for dividing an image to be evaluated as a plurality of image areas,
A feature value obtaining unit configured to obtain at least one feature value from an image included in each of the image regions;
From the database, expression information extraction means for extracting the expression information associated with the condition satisfied by the acquired feature amount,
Output means for displaying the extracted expression information on an output screen as information on an impression given to a human by the image to be evaluated;
An image impression evaluation device comprising:
請求項2に記載の画像印象評価装置において、
前記特徴量は、前記画像領域間の視覚的な特徴の差異に関する特徴量を含むことを特徴とする画像印象評価装置。
The image impression evaluation device according to claim 2,
The image impression evaluation device, wherein the feature amount includes a feature amount relating to a visual feature difference between the image regions.
請求項3に記載の画像印象評価装置において、
前記特徴量は、画像全体と画像領域との色差、背景と画像領域との色差、又は画像領域と当該画像領域に隣接する画像領域との色差、に関する特徴量の少なくとも1つであることを特徴とする画像印象評価装置。
The image impression evaluation device according to claim 3,
The feature amount is at least one of feature amounts relating to a color difference between the entire image and the image region, a color difference between the background and the image region, or a color difference between the image region and an image region adjacent to the image region. Image impression evaluation device.
請求項1〜4のいずれか1に記載の画像印象評価装置において、
前記出力手段は、
前記出力画面の領域を複数の分割画面領域として分割し、
前記分割画面領域毎に前記条件を割り当て、
前記取得された特徴量が満たす前記条件に対応する前記分割領域に前記抽出された表現情報を表示する手段を含むことを特徴とする画像印象評価装置。
The image impression evaluation device according to any one of claims 1 to 4,
The output means,
Dividing the area of the output screen as a plurality of divided screen areas,
Assigning the condition for each of the divided screen regions,
An image impression evaluation device, comprising: means for displaying the extracted expression information in the divided area corresponding to the condition satisfied by the acquired feature amount.
請求項1〜4のいずれか1に記載の画像印象評価装置において、
前記出力手段は、
前記出力画面の領域を複数の分割画面領域に分割し、
前記分割画面領域毎に前記条件を割り当て、
前記取得された特徴量が満たす前記条件に対応する前記分割画面領域に当該取得された特徴量に関する情報を表示する手段を含むことを特徴とする画像印象評価装置。
The image impression evaluation device according to any one of claims 1 to 4,
The output means,
Dividing the area of the output screen into a plurality of divided screen areas,
Assigning the condition for each of the divided screen regions,
An image impression evaluation device, comprising: means for displaying information on the acquired feature amount in the divided screen region corresponding to the condition satisfied by the acquired feature amount.
請求項6に記載の画像印象評価装置において、
前記特徴量は平均色及び面積を含み、
前記取得された特徴量に関する情報は、当該取得された特徴量の取得元である前記画像領域の面積に比例した出力画面の領域に、当該画像領域の平均色を表示する画像情報であることを特徴とする画像印象評価装置。
The image impression evaluation device according to claim 6,
The feature amount includes an average color and an area,
The information on the acquired feature amount is image information that displays an average color of the image region in an area of an output screen that is proportional to the area of the image region from which the acquired feature amount is acquired. Characteristic image impression evaluation device.
請求項2に記載の画像印象評価装置において、
前記特徴量は平均色及び面積を含み、
前記出力手段は、
前記出力画面の領域を複数の分割画面領域に分割し、
当該分割画面領域毎に異なる色を割り当て、
前記画像領域毎に、当該画像領域の平均色に対応する前記分割画面領域内において、当該画像領域の面積に比例する領域に当該画像領域の平均色を表示する手段を含むことを特徴とする画像印象評価装置。
The image impression evaluation device according to claim 2,
The feature amount includes an average color and an area,
The output means,
Dividing the area of the output screen into a plurality of divided screen areas,
Assign a different color to each divided screen area,
An image characterized by comprising means for displaying the average color of the image area in an area proportional to the area of the image area in the divided screen area corresponding to the average color of the image area for each image area. Impression evaluation device.
請求項1又は2に記載の画像印象評価装置において、
前記特徴量は、明度、彩度、色相、平均色、面積又は位置に関する特徴量の少なくとも1つであることを特徴とする画像印象評価装置。
The image impression evaluation device according to claim 1 or 2,
The image impression evaluation device, wherein the feature amount is at least one of a feature amount relating to lightness, saturation, hue, average color, area, or position.
画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価方法であって、
画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段を用いて、
評価対象となる画像から少なくとも1つの特徴量を取得する特徴量取得工程と、
前記取得した特徴量が満たす前記条件、と関連付けられた前記表現情報を抽出する表現情報抽出工程と、
前記抽出された表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力工程と、
を含む処理を行うことを特徴とする画像印象評価方法。
An image impression evaluation method for presenting information on an impression given to a human by the image based on visual information acquired from the image,
By using a storage unit that holds a database that associates a condition for at least one visual feature amount of an image with expression information that represents an impression felt by a person who looks at the image,
A feature value obtaining step of obtaining at least one feature value from an image to be evaluated;
An expression information extraction step of extracting the expression information associated with the condition satisfied by the acquired feature amount;
An output step of displaying the extracted expression information on an output screen as information on an impression given to a human by the image to be evaluated;
An image impression evaluation method characterized by performing a process including:
画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価方法であって、
画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段を用いて、
評価対象となる画像を複数の画像領域として分割する領域分割工程と、
前記画像領域に各々に含まれる画像から少なくとも1つの特徴量を取得する特徴量取得工程と、
前記データベースから、前記取得された特徴量が満たす前記条件に関連付けられた前記表現情報を抽出する表現情報抽出工程と、
前記抽出した表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力工程と、
を含む処理を行うことを特徴とする画像印象評価方法。
An image impression evaluation method for presenting information on an impression given to a human by the image based on visual information acquired from the image,
By using a storage unit that holds a database that associates a condition for at least one visual feature amount of an image with expression information that represents an impression felt by a person who looks at the image,
An area dividing step of dividing an image to be evaluated as a plurality of image areas,
A feature amount obtaining step of obtaining at least one feature amount from an image included in each of the image regions;
From the database, an expression information extraction step of extracting the expression information associated with the condition satisfied by the acquired feature amount,
An output step of displaying the extracted expression information on an output screen as information on an impression given to a human by the image to be evaluated;
An image impression evaluation method characterized by performing a process including:
請求項11に記載の画像印象評価方法において、
前記特徴量は、前記画像領域間の視覚的な特徴の差異に関する特徴量を含むことを特徴とする画像印象評価方法。
The image impression evaluation method according to claim 11,
The image impression evaluation method, wherein the feature amount includes a feature amount related to a visual feature difference between the image regions.
請求項12に記載の画像印象評価方法において、
前記特徴量は、画像全体と画像領域との色差、背景と画像領域との色差、又は画像領域と当該画像領域に隣接する画像領域との色差、に関する特徴量の少なくとも1つであることを特徴とする画像印象評価方法。
The image impression evaluation method according to claim 12,
The feature amount is at least one of feature amounts relating to a color difference between the entire image and the image region, a color difference between the background and the image region, or a color difference between the image region and an image region adjacent to the image region. Image impression evaluation method.
請求項10〜13のいずれか1に記載の画像印象評価方法において、
前記出力工程は、
前記出力画面の領域を複数の分割画面領域として分割し、
前記分割画面領域毎に前記条件を割り当て、
前記取得された特徴量が満たす前記条件に対応する前記分割領域に前記抽出された表現情報を表示する工程を含むことを特徴とする画像印象評価方法。
The image impression evaluation method according to any one of claims 10 to 13,
The output step includes:
Dividing the area of the output screen as a plurality of divided screen areas,
Assigning the condition for each of the divided screen regions,
Displaying the extracted expression information in the divided area corresponding to the condition that is satisfied by the acquired feature amount.
請求項10〜13のいずれか1に記載の画像印象評価方法において、
前記出力工程は、
前記出力画面の領域を複数の分割画面領域に分割し、
前記分割画面領域毎に前記条件を割り当て、
前記取得された特徴量が満たす前記条件に対応する前記分割画面領域に当該取得された特徴量に関する情報を表示する工程を含むことを特徴とする画像印象評価方法。
The image impression evaluation method according to any one of claims 10 to 13,
The output step includes:
Dividing the area of the output screen into a plurality of divided screen areas,
Assigning the condition for each of the divided screen regions,
An image impression evaluation method, comprising a step of displaying information on the acquired feature amount in the divided screen region corresponding to the condition satisfied by the acquired feature amount.
請求項15に記載の画像印象評価方法において、
前記特徴量は平均色及び面積を含み、
前記取得された特徴量に関する情報は、当該取得された特徴量の取得元である前記画像領域の面積に比例した出力画面の領域に、当該画像領域の平均色を表示する画像情報であることを特徴とする画像印象評価方法。
The image impression evaluation method according to claim 15,
The feature amount includes an average color and an area,
The information on the acquired feature amount is image information that displays an average color of the image region in an area of an output screen that is proportional to the area of the image region from which the acquired feature amount is acquired. Characteristic image impression evaluation method.
請求項11に記載の画像印象評価方法において、
前記特徴量は平均色及び面積を含み、
前記出力工程は、
前記出力画面の領域を複数の分割画面領域に分割し、
当該分割画面領域毎に異なる色を割り当て、
前記画像領域毎に、当該画像領域の平均色に対応する前記分割画面領域内において、当該画像領域の面積に比例する領域に当該画像領域の平均色を表示する工程を含むことを特徴とする画像印象評価方法。
The image impression evaluation method according to claim 11,
The feature amount includes an average color and an area,
The output step includes:
Dividing the area of the output screen into a plurality of divided screen areas,
Assign a different color to each divided screen area,
Displaying an average color of the image area in an area proportional to the area of the image area in the divided screen area corresponding to the average color of the image area for each of the image areas; Impression evaluation method.
請求項10又は11に記載の画像印象評価方法において、前記特徴量は、明度、彩度、色相、平均色、面積又は位置に関する特徴量の少なくとも1つであることを特徴とする画像印象評価方法。The image impression evaluation method according to claim 10, wherein the feature amount is at least one of a feature amount related to lightness, chroma, hue, average color, area, or position. . 画像から取得される視覚的情報に基づいて、当該画像が人間に与える印象に関する情報を提示する画像印象評価プログラムであって、
画像に関する少なくとも1つの視覚的な特徴量に対する条件と、画像を見た人間が感じる印象を表す表現情報と、を関連付けたデータベースを保持する記憶手段を用いて、
コンピュータに、
評価対象となる画像から少なくとも1つの特徴量を取得する特徴量取得工程と、
前記取得した特徴量が満たす前記条件、と関連付けられた前記表現情報を抽出する表現情報抽出工程と、
前記抽出された表現情報を、前記評価対象となる画像が人間に与える印象に関する情報として出力画面に表示する出力工程と、
を含む処理を実行させることを特徴とする画像印象評価プログラム。
An image impression evaluation program for presenting information on an impression given to a human by the image based on visual information acquired from the image,
By using a storage unit that holds a database that associates a condition for at least one visual feature amount of an image with expression information that represents an impression felt by a person who looks at the image,
On the computer,
A feature value obtaining step of obtaining at least one feature value from an image to be evaluated;
An expression information extraction step of extracting the expression information associated with the condition satisfied by the acquired feature amount;
An output step of displaying the extracted expression information on an output screen as information on an impression given to a human by the image to be evaluated;
An image impression evaluation program characterized by executing a process including:
JP2002187522A 2002-06-27 2002-06-27 Image impression evaluation device, image impression evaluation method, and image impression evaluation program Expired - Fee Related JP3562516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002187522A JP3562516B2 (en) 2002-06-27 2002-06-27 Image impression evaluation device, image impression evaluation method, and image impression evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002187522A JP3562516B2 (en) 2002-06-27 2002-06-27 Image impression evaluation device, image impression evaluation method, and image impression evaluation program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004096774A Division JP3972914B2 (en) 2004-03-29 2004-03-29 Image impression evaluation apparatus, image impression evaluation method, and image impression evaluation program

Publications (2)

Publication Number Publication Date
JP2004030377A true JP2004030377A (en) 2004-01-29
JP3562516B2 JP3562516B2 (en) 2004-09-08

Family

ID=31182537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002187522A Expired - Fee Related JP3562516B2 (en) 2002-06-27 2002-06-27 Image impression evaluation device, image impression evaluation method, and image impression evaluation program

Country Status (1)

Country Link
JP (1) JP3562516B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242833A (en) * 2004-02-27 2005-09-08 Dainippon Printing Co Ltd Web picture analyzer, web picture analysis method, web analysis type music apparatus, and web monitor equipment
JP2007279925A (en) * 2006-04-04 2007-10-25 Fuji Xerox Co Ltd Design preparation support device and design preparation support program
US7913904B2 (en) 2006-04-06 2011-03-29 Fuji Xerox Co., Ltd. Medium evaluation method
US8140374B2 (en) 2006-04-06 2012-03-20 Fuji Xerox Co., Ltd. Method for evaluating provision of commodity information
US8712193B2 (en) 2000-11-06 2014-04-29 Nant Holdings Ip, Llc Image capture and identification system and process
US8792750B2 (en) 2000-11-06 2014-07-29 Nant Holdings Ip, Llc Object information derived from object images
US8824738B2 (en) 2000-11-06 2014-09-02 Nant Holdings Ip, Llc Data capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
KR20190079107A (en) * 2017-12-27 2019-07-05 충북대학교 산학협력단 Method for drawing map of color interaction network
US10617568B2 (en) 2000-11-06 2020-04-14 Nant Holdings Ip, Llc Image capture and identification system and process

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8478053B2 (en) 2009-07-15 2013-07-02 Nikon Corporation Image sorting apparatus
JP6336406B2 (en) 2015-03-11 2018-06-06 富士フイルム株式会社 Image composition apparatus, image composition method, image composition program, and recording medium storing the program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916797A (en) * 1995-06-30 1997-01-17 Fuji Xerox Co Ltd Image analyzing and expression adding device
JPH10188023A (en) * 1996-12-24 1998-07-21 Fuji Xerox Co Ltd Image design supporting device
JPH1166309A (en) * 1997-08-21 1999-03-09 Fuji Xerox Co Ltd Image susceptibility characteristic evaluating device
JPH11232434A (en) * 1998-02-17 1999-08-27 Fuji Xerox Co Ltd Picture image evaluation device
JP2002092610A (en) * 2000-09-12 2002-03-29 Toshiba Corp Device and method for processing image, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916797A (en) * 1995-06-30 1997-01-17 Fuji Xerox Co Ltd Image analyzing and expression adding device
JPH10188023A (en) * 1996-12-24 1998-07-21 Fuji Xerox Co Ltd Image design supporting device
JPH1166309A (en) * 1997-08-21 1999-03-09 Fuji Xerox Co Ltd Image susceptibility characteristic evaluating device
JPH11232434A (en) * 1998-02-17 1999-08-27 Fuji Xerox Co Ltd Picture image evaluation device
JP2002092610A (en) * 2000-09-12 2002-03-29 Toshiba Corp Device and method for processing image, and recording medium

Cited By (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9154694B2 (en) 2000-11-06 2015-10-06 Nant Holdings Ip, Llc Image capture and identification system and process
US8948460B2 (en) 2000-11-06 2015-02-03 Nant Holdings Ip, Llc Image capture and identification system and process
US8774463B2 (en) 2000-11-06 2014-07-08 Nant Holdings Ip, Llc Image capture and identification system and process
US8792750B2 (en) 2000-11-06 2014-07-29 Nant Holdings Ip, Llc Object information derived from object images
US10772765B2 (en) 2000-11-06 2020-09-15 Nant Holdings Ip, Llc Image capture and identification system and process
US8798322B2 (en) 2000-11-06 2014-08-05 Nant Holdings Ip, Llc Object information derived from object images
US8798368B2 (en) 2000-11-06 2014-08-05 Nant Holdings Ip, Llc Image capture and identification system and process
US8824738B2 (en) 2000-11-06 2014-09-02 Nant Holdings Ip, Llc Data capture and identification system and process
US8837868B2 (en) 2000-11-06 2014-09-16 Nant Holdings Ip, Llc Image capture and identification system and process
US8842941B2 (en) 2000-11-06 2014-09-23 Nant Holdings Ip, Llc Image capture and identification system and process
US8849069B2 (en) 2000-11-06 2014-09-30 Nant Holdings Ip, Llc Object information derived from object images
US8855423B2 (en) 2000-11-06 2014-10-07 Nant Holdings Ip, Llc Image capture and identification system and process
US8861859B2 (en) 2000-11-06 2014-10-14 Nant Holdings Ip, Llc Image capture and identification system and process
US8867839B2 (en) 2000-11-06 2014-10-21 Nant Holdings Ip, Llc Image capture and identification system and process
US8873891B2 (en) 2000-11-06 2014-10-28 Nant Holdings Ip, Llc Image capture and identification system and process
US8885982B2 (en) 2000-11-06 2014-11-11 Nant Holdings Ip, Llc Object information derived from object images
US8885983B2 (en) 2000-11-06 2014-11-11 Nant Holdings Ip, Llc Image capture and identification system and process
US8923563B2 (en) 2000-11-06 2014-12-30 Nant Holdings Ip, Llc Image capture and identification system and process
US8938096B2 (en) 2000-11-06 2015-01-20 Nant Holdings Ip, Llc Image capture and identification system and process
US8948544B2 (en) 2000-11-06 2015-02-03 Nant Holdings Ip, Llc Object information derived from object images
US9170654B2 (en) 2000-11-06 2015-10-27 Nant Holdings Ip, Llc Object information derived from object images
US8948459B2 (en) 2000-11-06 2015-02-03 Nant Holdings Ip, Llc Image capture and identification system and process
US9014516B2 (en) 2000-11-06 2015-04-21 Nant Holdings Ip, Llc Object information derived from object images
US9014512B2 (en) 2000-11-06 2015-04-21 Nant Holdings Ip, Llc Object information derived from object images
US9014513B2 (en) 2000-11-06 2015-04-21 Nant Holdings Ip, Llc Image capture and identification system and process
US9014515B2 (en) 2000-11-06 2015-04-21 Nant Holdings Ip, Llc Image capture and identification system and process
US9014514B2 (en) 2000-11-06 2015-04-21 Nant Holdings Ip, Llc Image capture and identification system and process
US9020305B2 (en) 2000-11-06 2015-04-28 Nant Holdings Ip, Llc Image capture and identification system and process
US9025814B2 (en) 2000-11-06 2015-05-05 Nant Holdings Ip, Llc Image capture and identification system and process
US9025813B2 (en) 2000-11-06 2015-05-05 Nant Holdings Ip, Llc Image capture and identification system and process
US8712193B2 (en) 2000-11-06 2014-04-29 Nant Holdings Ip, Llc Image capture and identification system and process
US9031290B2 (en) 2000-11-06 2015-05-12 Nant Holdings Ip, Llc Object information derived from object images
US9036948B2 (en) 2000-11-06 2015-05-19 Nant Holdings Ip, Llc Image capture and identification system and process
US9036862B2 (en) 2000-11-06 2015-05-19 Nant Holdings Ip, Llc Object information derived from object images
US9036947B2 (en) 2000-11-06 2015-05-19 Nant Holdings Ip, Llc Image capture and identification system and process
US9036949B2 (en) 2000-11-06 2015-05-19 Nant Holdings Ip, Llc Object information derived from object images
US9046930B2 (en) 2000-11-06 2015-06-02 Nant Holdings Ip, Llc Object information derived from object images
US9087240B2 (en) 2000-11-06 2015-07-21 Nant Holdings Ip, Llc Object information derived from object images
US9104916B2 (en) 2000-11-06 2015-08-11 Nant Holdings Ip, Llc Object information derived from object images
US9110925B2 (en) 2000-11-06 2015-08-18 Nant Holdings Ip, Llc Image capture and identification system and process
US9116920B2 (en) 2000-11-06 2015-08-25 Nant Holdings Ip, Llc Image capture and identification system and process
US9135355B2 (en) 2000-11-06 2015-09-15 Nant Holdings Ip, Llc Image capture and identification system and process
US9141714B2 (en) 2000-11-06 2015-09-22 Nant Holdings Ip, Llc Image capture and identification system and process
US9148562B2 (en) 2000-11-06 2015-09-29 Nant Holdings Ip, Llc Image capture and identification system and process
US9152864B2 (en) 2000-11-06 2015-10-06 Nant Holdings Ip, Llc Object information derived from object images
US9154695B2 (en) 2000-11-06 2015-10-06 Nant Holdings Ip, Llc Image capture and identification system and process
US9031278B2 (en) 2000-11-06 2015-05-12 Nant Holdings Ip, Llc Image capture and identification system and process
US8718410B2 (en) 2000-11-06 2014-05-06 Nant Holdings Ip, Llc Image capture and identification system and process
US9262440B2 (en) 2000-11-06 2016-02-16 Nant Holdings Ip, Llc Image capture and identification system and process
US9235600B2 (en) 2000-11-06 2016-01-12 Nant Holdings Ip, Llc Image capture and identification system and process
US9244943B2 (en) 2000-11-06 2016-01-26 Nant Holdings Ip, Llc Image capture and identification system and process
US9182828B2 (en) 2000-11-06 2015-11-10 Nant Holdings Ip, Llc Object information derived from object images
US9288271B2 (en) 2000-11-06 2016-03-15 Nant Holdings Ip, Llc Data capture and identification system and process
US9311554B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Image capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US9311552B2 (en) 2000-11-06 2016-04-12 Nant Holdings IP, LLC. Image capture and identification system and process
US9311553B2 (en) 2000-11-06 2016-04-12 Nant Holdings IP, LLC. Image capture and identification system and process
US9317769B2 (en) 2000-11-06 2016-04-19 Nant Holdings Ip, Llc Image capture and identification system and process
US9324004B2 (en) 2000-11-06 2016-04-26 Nant Holdings Ip, Llc Image capture and identification system and process
US9330328B2 (en) 2000-11-06 2016-05-03 Nant Holdings Ip, Llc Image capture and identification system and process
US9330326B2 (en) 2000-11-06 2016-05-03 Nant Holdings Ip, Llc Image capture and identification system and process
US9330327B2 (en) 2000-11-06 2016-05-03 Nant Holdings Ip, Llc Image capture and identification system and process
US9336453B2 (en) 2000-11-06 2016-05-10 Nant Holdings Ip, Llc Image capture and identification system and process
US9342748B2 (en) 2000-11-06 2016-05-17 Nant Holdings Ip. Llc Image capture and identification system and process
US9360945B2 (en) 2000-11-06 2016-06-07 Nant Holdings Ip Llc Object information derived from object images
US9536168B2 (en) 2000-11-06 2017-01-03 Nant Holdings Ip, Llc Image capture and identification system and process
US9578107B2 (en) 2000-11-06 2017-02-21 Nant Holdings Ip, Llc Data capture and identification system and process
US9613284B2 (en) 2000-11-06 2017-04-04 Nant Holdings Ip, Llc Image capture and identification system and process
US9785859B2 (en) 2000-11-06 2017-10-10 Nant Holdings Ip Llc Image capture and identification system and process
US9785651B2 (en) 2000-11-06 2017-10-10 Nant Holdings Ip, Llc Object information derived from object images
US9805063B2 (en) 2000-11-06 2017-10-31 Nant Holdings Ip Llc Object information derived from object images
US9808376B2 (en) 2000-11-06 2017-11-07 Nant Holdings Ip, Llc Image capture and identification system and process
US9824099B2 (en) 2000-11-06 2017-11-21 Nant Holdings Ip, Llc Data capture and identification system and process
US9844468B2 (en) 2000-11-06 2017-12-19 Nant Holdings Ip Llc Image capture and identification system and process
US9844466B2 (en) 2000-11-06 2017-12-19 Nant Holdings Ip Llc Image capture and identification system and process
US9844467B2 (en) 2000-11-06 2017-12-19 Nant Holdings Ip Llc Image capture and identification system and process
US9844469B2 (en) 2000-11-06 2017-12-19 Nant Holdings Ip Llc Image capture and identification system and process
US10080686B2 (en) 2000-11-06 2018-09-25 Nant Holdings Ip, Llc Image capture and identification system and process
US10089329B2 (en) 2000-11-06 2018-10-02 Nant Holdings Ip, Llc Object information derived from object images
US10095712B2 (en) 2000-11-06 2018-10-09 Nant Holdings Ip, Llc Data capture and identification system and process
US10639199B2 (en) 2000-11-06 2020-05-05 Nant Holdings Ip, Llc Image capture and identification system and process
US10635714B2 (en) 2000-11-06 2020-04-28 Nant Holdings Ip, Llc Object information derived from object images
US10617568B2 (en) 2000-11-06 2020-04-14 Nant Holdings Ip, Llc Image capture and identification system and process
US10509821B2 (en) 2000-11-06 2019-12-17 Nant Holdings Ip, Llc Data capture and identification system and process
US10509820B2 (en) 2000-11-06 2019-12-17 Nant Holdings Ip, Llc Object information derived from object images
US10500097B2 (en) 2000-11-06 2019-12-10 Nant Holdings Ip, Llc Image capture and identification system and process
JP4611649B2 (en) * 2004-02-27 2011-01-12 大日本印刷株式会社 WEB analysis type music device
JP2005242833A (en) * 2004-02-27 2005-09-08 Dainippon Printing Co Ltd Web picture analyzer, web picture analysis method, web analysis type music apparatus, and web monitor equipment
JP2007279925A (en) * 2006-04-04 2007-10-25 Fuji Xerox Co Ltd Design preparation support device and design preparation support program
US8140374B2 (en) 2006-04-06 2012-03-20 Fuji Xerox Co., Ltd. Method for evaluating provision of commodity information
US7913904B2 (en) 2006-04-06 2011-03-29 Fuji Xerox Co., Ltd. Medium evaluation method
KR102001944B1 (en) 2017-12-27 2019-07-19 충북대학교 산학협력단 Method for drawing map of color interaction network
KR20190079107A (en) * 2017-12-27 2019-07-05 충북대학교 산학협력단 Method for drawing map of color interaction network

Also Published As

Publication number Publication date
JP3562516B2 (en) 2004-09-08

Similar Documents

Publication Publication Date Title
JP3063073B2 (en) Image analysis expression adding device
JP3562516B2 (en) Image impression evaluation device, image impression evaluation method, and image impression evaluation program
KR100856169B1 (en) Mascara selecting method, mascara selecting system, and mascara counseling tool
JP3972914B2 (en) Image impression evaluation apparatus, image impression evaluation method, and image impression evaluation program
EP2610812A1 (en) Image providing device, image processing method, image processing program, and recording medium
JP3390558B2 (en) Lip color advice system and method
EP2717209A1 (en) Market evaluation investigation device and investigation method
JP2011171807A (en) Image processing apparatus and program
JP6280703B2 (en) Color design evaluation apparatus and color design evaluation method
JP5855890B2 (en) Hair color simulation system and method, and computer program
US20070233618A1 (en) Computer readable recording medium having design creation supporting program stored thereon, design creation supporting apparatus and computer data signal for supporting design creation
US20070233620A1 (en) Computer readable recording medium having design creation supporting program stored thereon, design creation supporting apparatus and computer data signal for supporting design creation
JP4775122B2 (en) Document impression evaluation apparatus and document impression evaluation program
KR101874122B1 (en) Method and Appratus for Simulation of Virtual Makeup
US20070233619A1 (en) Computer readable recording medium having design creation supporting program stored thereon, design creation supporting apparatus and computer data signal for supporting design creation
JP4775120B2 (en) Document impression evaluation apparatus and document impression evaluation program
JP4807148B2 (en) Document impression evaluation apparatus and document impression evaluation program
JP4882523B2 (en) Document impression evaluation apparatus and document impression evaluation program
WO2015129335A1 (en) Product search device, system, method, and program
JP6209298B1 (en) Information providing apparatus and information providing method
JP4802826B2 (en) Design production support device and design production support program
JPWO2013145445A1 (en) Color evaluation apparatus, color evaluation method, and computer program
JP5818202B2 (en) Image analysis apparatus, image analysis method, image search system, and program
JP4788482B2 (en) Design production support device and design production support program
JPH1166309A (en) Image susceptibility characteristic evaluating device

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20040119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140611

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees