JP3772514B2 - Image evaluation system - Google Patents

Image evaluation system Download PDF

Info

Publication number
JP3772514B2
JP3772514B2 JP03461498A JP3461498A JP3772514B2 JP 3772514 B2 JP3772514 B2 JP 3772514B2 JP 03461498 A JP03461498 A JP 03461498A JP 3461498 A JP3461498 A JP 3461498A JP 3772514 B2 JP3772514 B2 JP 3772514B2
Authority
JP
Japan
Prior art keywords
image
subject
evaluation
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03461498A
Other languages
Japanese (ja)
Other versions
JPH11232434A (en
Inventor
吉嗣 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP03461498A priority Critical patent/JP3772514B2/en
Publication of JPH11232434A publication Critical patent/JPH11232434A/en
Application granted granted Critical
Publication of JP3772514B2 publication Critical patent/JP3772514B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は画像イメージ評価装置に関し、特にデザイン画像から視覚的に与えられる情報に対し、人がどのように感じるかを評価する画像イメージ評価装置に関する。
【0002】
【従来の技術】
近年、人の感性にもとづいた画像処理や検索の研究が盛んに行われており、なかでも人の感性を評価する感性評価装置や画像の物理的特徴量を解析する画像解析装置の提案が数多くなされている。
【0003】
感性評価装置が行う感性評価では、主に心理学的評価法が用いられる。中でも、デザインの表現、特に意図を画像で表現するための色や形の組み合わせ等がどのようにユーザに受けとめられるかを調べる場合には、心理学的評価法としてほぼ確立されたセマンティック・ ディファレンシャル法(以下、SD法という)がよく用いられる。
【0004】
SD法は多くの形容詞対で構成された尺度を被験者に評価させることによって、評価対象(物や言葉)が与えるイメージを分析するための方法である。
図13は従来の一般的なSD法によりある画像を評価した結果の一部を示した図である。従来の一般的なSD法では、図に示すように各評価対象の評価の再現性があまりよくない。
【0005】
すなわち、被験者A(実線で表す)と被験者B(点線で表す)とでは、評価結果が大幅に異なり、例えば評価対象がはっきりした印象を持つのか、ぼんやりした印象を持つのか判断することが出来ない。
【0006】
このことは、例えばデザインコンセプトを決定する際にその評価の良否を判断する場合には、非常に重大なこととなる。この再現性不良のおもな原因は、各被験者が評価を始める前に設定した主観的判断基準が、人により異なることがあげられる。
【0007】
この対策として、評価に際して予め評価対象サンプル全体を被験者に見せたり、評価スケールを用意しておき、その評価スケールに照らし合わせる方法で評価を行う等の手続きが一般にとられる。
【0008】
しかし、評価対象のサンプル群が感性または物理特性上偏った分布をしていたり、大きな違いが見られない、すなわちサンプルの分布の空間が狭かったりした場合、この問題は回避することは難しいと言わざるをえない。
【0009】
また、この問題に対しては、複数の心理学的評価法を組み合わせて適用することによって精度の向上を図る方法が用いられることがある。しかし、このような心理学的方法のみでは、被験者が何をどのように見て評価を行っているかという評価の過程がほとんど分からないため、必ずしも精度を向上させうるとは限らない。
【0010】
このため特開平5−108002号公報では、SD法と共に感性評価を行う被験者の視点の位置を検出する手段を設け、視点データを組合わせることで精度の向上を図っている。
【0011】
【発明が解決しようとする課題】
しかし、上記のような従来技術では、被験者の視点の位置のみの検出に終わっているため、コンテンツが重なっていない比較的簡単な画像情報や個々のオブジェクトが分離独立しており、位置情報と対象物との関係が明確な現実空間などには有効といえるが、コンテンツ同士が重なり合った複雑な画像や狭い空間に複数のオブジェクト群が位置し、位置情報と対象物との関係が付き難い場合には評価精度の向上は期待できないといった問題があった。
【0012】
また、上記のような画像等に対する感性評価では、SD法に代表されるように心理学的方法のみでは、被験者が何をどのように見て評価を行っているかという評価の過程がほとんど分からないといった問題があった。
【0013】
さらに、視点情報を併用した場合でも、例えば評価対象画像の特定のエリアに背景画像とメインモチーフが重なり合っている場合、被験者の心理評価結果は背景画像から来ているものなのか、メインモチーフから受ける印象なのか、判断することはできず、正確な評価結果は得られないといった問題があった。
【0014】
本発明はこのような点に鑑みてなされたものであり、人の好みや感性にもとづき画像やイラスト等を検索、処理したり、ドキュメントやウェブページ等のデザイン制作を支援したりする上で必要となる感性評価装置に対し、画像情報に対する感性評価の精度を向上させ、しかも効率的に感性情報を得ることのできる画像イメージ評価装置を提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明では上記課題を解決するために、デザイン画像から視覚的に与えられる情報に対し、人がどのように感じるかを評価する画像イメージ評価装置において、画像情報を表示する画像情報表示手段と、前記画像情報に対して被験者が感性評価を行って感性評価データを入力する感性評価データ入力手段と、前記感性評価を行う被験者の視覚機能状態である視覚特性を検出する視覚特性検出手段と、検出された前記視覚特性にもとづいて、前記被験者の前記画像情報に対する観察状態を解析し、前記被験者の視点の位置の情報である視覚特性データを生成し、前記視点の位置情報である視覚特性データから、前記被験者が前記画像情報の中のどの部分に着目しているかを解析して観察位置解析情報を生成する解析手段と、前記感性評価データと前記観察位置解析情報とから、前記画像情報と、前記画像情報を前記被験者が観察した際の印象と、を対応付ける画像イメージ算出手段と、を有することを特徴とする画像イメージ評価装置が提供される。
【0016】
ここで、画像情報表示手段は、画像情報を表示する。感性評価データ入力手段は、画像情報に対して被験者が感性評価を行って感性評価データを入力する。視覚特性検出手段は、感性評価を行う被験者の視覚機能状態である視覚特性を検出する。解析手段は、検出された視覚特性にもとづいて、被験者の画像情報に対する観察状態を解析し、被験者の視点の位置の情報である視覚特性データを生成し、視点の位置情報である視覚特性データから、被験者が画像情報の中のどの部分に着目しているかを解析して観察位置解析情報を生成する。画像イメージ算出手段は、感性評価データと観察位置解析情報とから、画像情報と、画像情報を被験者が観察した際の印象と、を対応付ける。
【0017】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。図1は画像イメージ評価装置の原理図である。画像イメージ評価装置10はデザイン画像から視覚的に与えられる情報に対し、人がどのように感じるかを評価する。
【0018】
画像情報表示手段1は、画像情報(被評価画像)を表示する。感性評価データ入力手段2は、画像情報に対して被験者Aが感性評価を行って感性評価データを入力する。
【0019】
視覚特性検出手段3は、感性評価を行う被験者Aの視覚機能状態である視覚特性を検出する。
解析手段4は、検出された視覚特性にもとづいて、観察位置および画像情報の特性の解析処理を行って、観察データ及び特性データ(被評価画像特性データ)を生成する。
【0020】
画像イメージ算出手段5は、感性評価データと、観察データと、特性データと、から画像情報の印象を算出する。なお、画像イメージ算出手段5は、判別手段の機能を含む。
【0021】
に画像イメージ評価装置10の構成及び動作について詳しく説明する。図2は画像イメージ評価装置10の基本ハードウェア構成を示す図であり、図3は画像イメージ評価装置10の動作モジュールの関係を示す系統図である。
【0022】
画像イメージ評価装置10のハードウェアは、画像情報表示手段1、感性評価データ入力手段2、視覚特性検出手段3、解析手段4、画像イメージ算出手段5、中央演算処理部6、画像情報入力手段7、画像情報記憶手段8、を備えたコンピュータシステムとして構成されている。
【0023】
中央演算処理部6は、MPU、RAM、ROM等を主体として構成されており、システムバスを介して上記のシステム要素を統括制御する。なお、解析手段4、画像イメージ算出手段5を含む。
【0024】
画像情報入力手段7は、カラー表示された任意のハードコピー画像を画像データに変換するためのイメージスキャナや、画像データをビデオ信号の形で外部から取り込むためのビデオインタフェース等で構成されている。
【0025】
なお、イメージスキャナには、印刷画像等に代表される反射型画像と、写真スライド等に代表される透過型画像を読み取るタイプの装置が必要に応じて接続される。
【0026】
また、ビデオインタフェースには、VCR、TV等が同じく必要に応じて接続される。
画像情報記憶手段8は、一般的なハードディスク装置をはじめとし、追記型光ディスク、書き替え型光ディスク等の大容量記憶装置で構成されており、この画像情報記憶手段8には、評価対象となる多数の画像やドキュメントが記憶されている。
【0027】
そして、後述する被評価画像に対する観察データやそれらをもとに解析した被評価画像の特性データ、また感性評価データ、更には本装置の最終出力である画像イメージデータ等が記憶される。
【0028】
画像情報表示手段1は、CRT表示器、LCD等で構成されており、表示画面上には、後述するように入力された被評価画像や視覚特性検出情報の少なくとも1つが同時にまたは順次カラー表示される。
【0029】
また、視覚特性検出手段3は、角膜反射型或いは強膜反射型アイ・カメラが適用され、被験者の頭部に装着される視野撮像装置及び赤外LED等の照射光源に対する目の反射光の検出装置によって構成される。
【0030】
この視覚特性検出手段3の基本機能としては、被験者の眼球運動を測定して、被験者の知覚する視野の中心視の対象点(以下、注視点という)の位置を座標として中央演算処理部6に出力するものである。
【0031】
なお、中央演算処理部6には、頭部の位置に対応して、画像情報表示手段1により呈示される評価対象としての画像情報の領域が被験者の視野内の座標上ではどの位置になるのかが予め設定されている。
【0032】
よって、視覚特性検出手段3から出力される視点の座標データと中央演算処理部6に予め設定された画像情報領域の座標データにもとづき被験者がどの画像情報を見ているかを知ることができる。
【0033】
また、更に視覚特性検出情報として、上述した注視点の位置座標検出に加え、入力情報の明るさに対する調整度合の情報と、同じく入力情報の奥行きに対する調整度合の情報を用いている。
【0034】
これらの視覚特性情報は、例えば明るさの調整度合に関して、赤外LEDで照射された眼球像より瞳孔輪郭座標を検出し、楕円近似演算で楕円長軸を算出し瞳孔の直径を求めることで検出することができる。
【0035】
また、焦点の調節に関しては、照射された赤外LEDの眼底からの反射光量分布をナイフエッジ法で輝度を検出し、その分布勾配を求めることで検出することができる。
【0036】
なお、ここに記した視覚特性の検出方法は一例であり、他の方法を用いても差し支えない。また、本実施の形態では、視覚特性検出手段3として視野撮像装置及び赤外LED等の照射光源に対する目の反射光の検出装置が被験者の頭部に装着されるゴーグルタイプを取り上げ説明したが、評価対象画像がディスプレイ等の固定された空間に表示されるような場合には、視野撮像装置や照射光源、検出装置がディスプレイ脇に固定された被接触タイプの視覚特性検出装置を使用することにより、被験者の負担を軽減させることができる。
【0037】
感性評価データ入力手段2は、例えばコンピュータに接続されたキーボードやマウスにより構成される。そして、モニタ等により表示された評価項目に対する被験者の感性評価データはキーボード等を介して入力される。
【0038】
なお、評価項目の表示は全感性評価入力の度に全てを表示するようにしてもよいし、キーボードを介して指示することにより順次表示されるようにしてもよい。
【0039】
また、感性評価データの入力は、被験者自身がモニタに表示された評価項目をみて被験者自身で入力してもよいし、操作者が被験者に評価項目を問いかけ、被験者が回答した感性評価を操作者が入力してもよい。
【0040】
解析手段4は、前述の視覚特性検出手段3により得られた被験者の注視点、明るさ、焦点調整度合等の視覚特性データと評価対象の画像データ等をもとに被験者の観察位置等の情報を解析する観察位置解析手段4bと、被評価画像の特性を解析する画像特性解析手段4aからなる。
【0041】
画像イメージ算出手段5は、感性評価データ入力手段2により得られた感性評価データと解析手段4より得られた観察データ、また被評価画像特性データとをもとに画像情報のイメージを算出するよう構成されている。
【0042】
次に画像イメージ評価装置10の動作について以降説明する。被評価画像は予め画像情報記憶手段8に格納されている場合にはそこより呼び出され、また形態がハードコピーの場合には画像情報入力手段7より同じく本装置に取り込まれ、必要に応じ画像情報記憶手段8に格納される。
【0043】
次にこれらの画像群をもとに被験者による官能評価を実施し、感性評価データを得るわけであるが、ここで官能評価の方法について説明する。
図4は画像イメージ評価装置の動作状況の概略を示す図である。画像情報記憶手段8に格納されている被評価画像Sが画像情報表示手段1に送られて被験者に呈示される。
【0044】
この際に、複数の被評価画像の印象を比較する場合には、評価対象画像が2ないし3種類程度の少ない数であるならば同時に呈示し、またそれ以上の場合には2ないし3種類ずつ、または簡便にいくつかのグループに分けて呈示するのが望ましい。
【0045】
なお、被評価画像を被験者に開示時から視覚特性検出手段3により被験者の視覚機能状態が計測される。図では被験者の注視点Eが示されている。次いで、評価対象としての画像情報を1つずつ呈示する。
【0046】
そして、被験者は呈示された画像情報についてSD法による評価を行い、各評価項目Dに対する感性評価データをキーボードから5段階で入力する。
被験者が全ての評価対象について感性評価を行ったら、キーボードの所定のキーを押すことにより感性評価データの入力を終了する。
【0047】
また、本実施の形態では、正確を期すという点から評価項目の表示は他のモニタで行っているが、簡便的に画像呈示と評価項目表示を同一のディスプレイで行うことも可能である。
【0048】
次に解析手段4の被験者の観察状態の算出方法について説明する。まず、被験者が被評価画像のどの部分を観察しているかという注視点の検出に関しては、被験者の眼球運動と時間の関係から導き出される。
【0049】
具体的には被験者の視点がある時刻にあった位置から該当する位置を中心とする所定の範囲(半径1°以内)内で100msec以上とどまったか否かを検出することにより行われる。
【0050】
これは、100msec以下の短い時間では被験者は画像で表された情報を認識することはできないと考えられるからである。
この結果得られた座標位置と被評価画像のデータとから、被験者が画像のどのコンテンツを観察しているかが観察時間軸をパラメータとして捕らえることができる。
【0051】
最後に、画像イメージ算出手段5において上述のようにして求められた注視点データとSD法等により得られた感性評価データを組み合わせることにより、被評価画像内の特定のコンテンツとそれを観察した際の印象との関係を把握することができ、被評価画像が与える印象の要因を明確にすることができる。
【0052】
次に画像イメージ評価装置10の動作をフローチャートで説明する。図5は画像イメージ評価装置10の動作フローチャートを示す図である。
〔S1〕被評価画像を呼び出しディスプレイ等の表示装置に表示する。
〔S2〕被験者により被評価画像の感性評価を実施し、感性評価データを得る。
〔S3a〕ステップS2と同時に視覚特性検出手段3により、視覚機能状態をモニタする。
〔S3b〕モニタ情報をもとに観察データ、被評価画像特性データの少なくとも1つを算出する。
〔S4〕他の感性評価項目があるかどうかを判断する。あればステップS2へ戻り、なければステップS5へ行く。
〔S5〕感性評価データ、観察データ、被評価画像特性データをもとに被評価画像の印象を演算する。
〔S6〕他の被評価画像があるか判断する。あればステップS1へ戻って被評価画像の枚数分繰り返す。なければ終了する。
【0053】
ここで、本実施の形態のSD法による感性評価結果の精度を、従来の一般的な評価法における評価結果と比較し説明する。図13は、前述したとおり、「山なみをバックに空を飛ぶ赤い風船」の被評価画像のみを観察しながら感性的な評価を行う、いわゆる一般的なSD法により評価した結果の一部を示したものである。
【0054】
この結果より、従来の評価方法では、この画像に対する感性的評価結果は、2名の被験者AおよびBの両者の評価値に大きな開きがあることが伺える。
この評価結果から見ると、この画像から受ける感性的印象は、例えばある人は「暖かく」感じるが、別の人は非常に「冷たく」感じることになる。
【0055】
また、同様に「静的な−動的な」においても「個性的な−平凡な」においてもそれぞれ相反する結果となっている。
次にここで、本実施の形態に従い被験者AおよびBの両者の感性評価時の注視点を検出した結果をそれぞれ図6及び図7に示す。図6及び図7は被験者A及び被験者Bの感性評価時の注視点を検出した結果を示す図である。
【0056】
これらの検出結果と、前出の感性評価結果を照らし合わせると、次のようなことか分かる。まず、被験者Aは主に被評価画像の「赤い風船」に注視点E1が集中していることから、被験者Aの「ソフトな」、「動的な」、「暖かい」等の感性評価結果は、この「赤い風船」というコンテンツに着目し得られた結果であることが分かる。
【0057】
一方、被験者Bは、主に背景の「山なみ」に比較的注視点E2が存在していることから、被験者Bの「シャープな」、「静的な」、「冷たい」等の感性評価結果は、この「山なみ」というコンテンツに着目し、得られた結果であることが分かる。
【0058】
以上のように、本実施の形態では、被験者AおよびBの両者の評価値に大きな差異は見られないことが分かる。この結果より、被験者に対し感性評価の際に視覚特性の検出を行いSD法等により得られた感性評価データと対応を取ることにより、評価結果の個人差を低減することができる。
【0059】
また、今回は別々の被験者の評価結果の差異を示したが、本実施の形態では更に一人の被験者が繰り返し評価を行った際のばらつきも大幅に低減できることも期待できる。
【0060】
以上説明したように、画イメージ評価装置10は、被験者に対して視覚的に画像情報が与えられ、この情報に対する感性評価が行われる。
この際に、被験者の視覚機能状態がモニタされると共に、この検出情報は解析手段4に送出され、観察位置および被評価画像の特性が算出される。
【0061】
そして、画像イメージ算出手段5では、これらの感性評価データと観察データ、また被評価画像の特性データとをもとにして被評価画像情報の印象を算出する。
【0062】
従って、感性評価データに加え被験者の観察データや被評価画像の特性データを用いることにより、画像情報に対する感性評価の精度が向上し、しかも効率的に感性情報を得ることができる
に第2の実施の形態について説明する。図8は第2の実施の形態である画像イメージ評価装置10の動作モジュールの関係を示す系統図である。
【0063】
第1の実施の形態との相違点は、被評価画像に対する画像領域分割手段9が付加されたことにある。
この画像領域分割手段9は、被評価画像の画像データをメインモチーフ領域や背景領域等の複数の領域に分割する機能を持つ演算処理部である。
【0064】
一般的にはアドビ社製のフォトデザイン制作ソフトウェアPhotoshop 等に代表されるようなリタッチャソフトウェア、またはそれを操作するのに必要なユーザーインターフェース等で構成される。
【0065】
そして、操作者がディスプレイに表示された画像を見ながらマウス等を用い、任意の領域を選択して分割する。
また、画像領域分割手段9は、K平均アルゴリズムによるクラスタリング等に代表される画像領域分割アルゴリズムを適用した画像処理ハードウエアまたはソフトウエアで構成され、画像の特徴量に応じ自動的に領域分割が実行されるようになっている。
【0066】
解析手段4では、画像領域分割手段9で分割されたメインモチーフや背景等の各コンテンツの領域データと視覚特性検出手段3によりモニタされた被験者の注視点データとにより、被験者が被評価画像のどのコンテンツを最も長い時間観察したかを算出し、この結果を基に被験者の被評価画像に対する着目領域が予測される。
【0067】
そして、画像イメージ算出手段5では、この結果を受けて、被験者の感性評価データと対応を取ることにより被評価画像情報の印象を算出する。
したがって、被評価画像の領域分割情報を加えることで、感性評価結果の要因が明確になり、有効な感性情報を得ることができる。
【0068】
次に第2の実施の形態についての具体的な事例について説明する。図9は被評価画像をコンテンツに分割した結果を示す図である。
「山なみをバックに空を飛ぶ赤い風船」を、画像領域分割手段9によりメインモチーフM0である「赤い風船」と,サブモチーフM1である「山なみ」と背景M2の「空」の3つのコンテンツに分割した結果を示している。
【0069】
図10は注視時間の割合を示す図である。図は図9での領域と被験者AおよびBの感性評価時の注視点を検出した結果(図6、図7参照)とをもとに、各被験者がそれぞれどの領域(コンテンツ)にどのくらい着目したかを、注視時間の割合で表している。
【0070】
この結果より、被験者Aは、殆どの時間をメインモチーフM0である「赤い風船」に費やしているのに比べ、被験者Bは、逆にサブモチーフM1である「山なみ」に着目していることが分かる。
【0071】
これらの解析結果を、感性評価結果と照らし合わせると、被験者Aの「ソフトな」、「動的な」、「暖かい」等の感性評価結果は、主に被評価画像の「赤い風船」というコンテンツに着目し得られた結果であることが分かる。
【0072】
一方、被験者Bの感性評価結果である「シャープな」、「静的な」、「冷たい」等は、主にサブモチーフM1の「 山なみ」 に着目し得られた結果であることが分かる。
【0073】
そこで、上述の結果を確認する意味で、被験者Bに対し注視点検出結果より被験者Aが着目していたと考えられるメインモチーフM0の「赤い風船」に着目してもらい、再度感性評価を実施したところ図11に示すような結果が得られた。
【0074】
図11は画像評価結果を示す図である。図に示すように感性評価の各項目において被験者Aの結果に近づいてきたことが分かる。
以上のように、SD法等の感性評価に、視覚特性の検出情報と被評価画像の領域分割情報を組み合わせ加えることで、感性評価結果の要因が明確になり、有効な感性情報を得ることができる。
【0075】
また、今回は別々の被験者の評価結果の差異を示したが、本実施の形態では更に一人の被験者が繰り返し評価を行った際のばらつきも大幅に低減できることも期待できる。
【0076】
以上説明したように、第2の実施の形態では、予め被評価画像に対し複数の領域分割処理を施し、その領域分割情報を解析手段4に送出する。そして、解析手段4では、視覚特性検出手段3によりモニタされた被験者の観察データと被評価画像領域分割データとにより、被験者の被評価画像に対する着目領域を予測する。
【0077】
画像イメージ算出手段5では、この結果を受け、被験者の感性評価データと対応を取ることにより被評価画像情報の印象を算出する。
従って、被評価画像の領域分割情報を加えることで、感性評価結果の要因が明確になり、有効な感性情報を得ることができる。
【0078】
に第3の実施の形態について説明する。図12は第3の実施の形態である画像イメージ評価装置10の視覚特性検出手段3と解析手段4及び画像イメージ算出手段5の動作モジュールの関係を示す系統図である。
【0079】
第3の実施の形態の第2の実施の形態との相違点は、視覚特性検出手段3が明るさ調整度合検出手段3a、注視点座標検出手段3b、焦点調整度合検出手段3cを有し、被験者の注視点と明るさ調整度合い、焦点調整度合いを検出して、より正確に被験者の観察位置を解析するように構成されていることにある。
【0080】
また、解析手段4は第1の観察位置コンテンツ予測手段4c−1と、第2の観察位置コンテンツ予測手段4c−2と、被評価画像コンテンツ予測手段4c−3と、を含む。
【0081】
第1の観察位置コンテンツ予測手段4c−1は、注視点データと明るさ調整度合いのデータより観察位置がハイライト部かシャドウ部かを解析し、ハイライト部やシャドウ部で表現されたコンテンツ全体に着目しているのか、それともハイライト部やシャドウ部の中の一部のコンテンツに着目しているのかを予測する。
【0082】
第2の観察位置コンテンツ予測手段4c−2は、観察位置データと焦点調整度合いデータ、被評価画像領域分割データにより観察位置が近景のコンテンツなのか背景なのかを予測する。
【0083】
被評価画像コンテンツ予測手段4c−3は、それらを組み合わせた被評価画像のモチーフ、コンテンツ、シチュエーション、シーン等の予測を行う。
このように得られたコンテンツの予測結果と被験者の観察位置、および感性評価データとを用いて、被評価画像の印象評価部5aで被評価画像の印象を求めることにより、精度の高い感性評価を可能としている。
【0084】
以上説明したように、第3の実施の形態では、被験者の視点の位置、明るさの調整度合、焦点の調整度合の少なくとも1つの特性値を検出し、被験者の観察位置および被評価画像の特性の導出に用いる。
【0085】
従って、より複雑な画像やドキュメントに関しても、被験者の注視点が精度良く捕らえられ、しかも被評価画像の特性値がより多く予測できるようになることから、詳細な感性評価が可能となる。
【0086】
さらに、第3の実施の形態では、視覚特性検出手段3により検出された情報、および被評価画像データにもとづき、観察位置のコンテンツの内容が予測され、その結果と被験者の感性評価データとから被評価画像情報の印象を算出する。
【0087】
従って、被評価画像のコンテンツの内容の予測情報を加えることで、感性評価結果の要因が明確になり、より正確な感性情報を得ることができる。
【0088】
【発明の効果】
以上説明したように、画像イメージ評価装置は、被験者の画像情報に対する観察状態を解析し、被験者の視点の位置、画像情報に対する明るさの調整度合及び焦点の調整度合の少なくとも1つ以上の情報である視覚特性データを生成し、視覚特性データから、被験者が画像情報の中のどの部分に着目して感性評価データを入力したかを判別する構成とした。これにより、画像情報に対する感性評価の精度が向上し、効率的に感性情報を得ることが可能になる。
【図面の簡単な説明】
【図1】像イメ−ジ評価装置の原理図である。
【図2】 画像イメージ評価装置の基本ハードウェア構成を示す図である。
【図3】 画像イメージ評価装置の動作モジュールの関係を示す系統図である。
【図4】 画像イメージ評価装置の動作状況の概略を示す図である。
【図5】 画像イメージ評価装置の動作フローチャートを示す図である。
【図6】 被験者A及び被験者Bの感性評価時の注視点を検出した結果を示す図である。
【図7】 被験者A及び被験者Bの感性評価時の注視点を検出した結果を示す図である。
【図8】 第2の実施の形態である画像イメージ評価装置の動作モジュールの関係を示す系統図である。
【図9】 被評価画像をコンテンツに分割した結果を示す図である。
【図10】 注視時間の割合を示す図である。
【図11】像評価結果を示す図である。
【図12】 第3の実施の形態である画像イメージ評価装置の視覚特性検出手段と解析手段及び画像イメージ算出手段の動作モジュールの関係を示す系統図である。
【図13】 従来の一般的なSD法によりある画像を評価した結果の一部を示した図である。
【符号の説明】
1 画像情報表示手段
2 感性評価データ入力手段
3 視覚特性検出手段
4 解析手段
5 画像イメージ算出手段
10 画像イメージ評価装置
A 被験者
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image evaluation apparatus, and more particularly to an image evaluation apparatus that evaluates how a person feels information visually given from a design image.
[0002]
[Prior art]
  In recent years, research on image processing and retrieval based on human sensitivity has been actively conducted, and in particular, there have been many proposals of sensitivity evaluation devices for evaluating human sensitivity and image analysis devices for analyzing physical features of images. Has been made.
[0003]
  In the sensitivity evaluation performed by the sensitivity evaluation device, a psychological evaluation method is mainly used. In particular, when investigating how users can accept design expressions, especially the combination of colors and shapes for expressing intentions in images, the Semantic Differential Method, which has been almost established as a psychological evaluation method. (Hereinafter referred to as the SD method) is often used.
[0004]
  The SD method is a method for analyzing an image given by an evaluation object (object or word) by allowing a subject to evaluate a scale composed of many adjective pairs.
  FIG. 13 is a diagram showing a part of the result of evaluating a certain image by a conventional general SD method. In the conventional general SD method, the reproducibility of evaluation of each evaluation object is not so good as shown in the figure.
[0005]
  That is, the evaluation results for subject A (represented by a solid line) and subject B (represented by a dotted line) are significantly different, and for example, it cannot be determined whether the evaluation target has a clear impression or a vague impression. .
[0006]
  This is very important when, for example, determining the quality of the evaluation when determining the design concept. The main cause of this poor reproducibility is that the subjective judgment criteria set before each subject starts evaluation differ from person to person.
[0007]
  As countermeasures, procedures such as showing the entire sample to be evaluated to the subject in advance for evaluation or preparing an evaluation scale and performing evaluation by comparing with the evaluation scale are generally used.
[0008]
  However, if the sample group to be evaluated has a distribution that is biased in terms of sensibility or physical properties, or if there is no significant difference, that is, the sample distribution space is narrow, this problem is difficult to avoid. I cannot help it.
[0009]
  In addition, for this problem, a method of improving accuracy by applying a combination of a plurality of psychological evaluation methods may be used. However, with such a psychological method alone, the process of evaluation of what and how the subject sees and evaluates is hardly known, and thus the accuracy cannot always be improved.
[0010]
  For this reason, in JP-A-5-108002, means for detecting the position of the viewpoint of a subject who performs sensitivity evaluation together with the SD method is provided, and the accuracy is improved by combining viewpoint data.
[0011]
[Problems to be solved by the invention]
  However, in the conventional technology as described above, since only the position of the subject's viewpoint is detected, relatively simple image information and individual objects with no overlapping content are separated and independent, and the position information and the target It can be said that it is effective in a real space where the relationship with the object is clear, but when multiple objects are located in a complex image or narrow space where the contents overlap, and the relationship between the position information and the object is difficult to attach However, there was a problem that improvement in evaluation accuracy could not be expected.
[0012]
  Moreover, in the sensitivity evaluation with respect to the image etc. as described above, the psychological method alone, as represented by the SD method, hardly reveals the evaluation process of what the subject sees and how to evaluate. There was a problem.
[0013]
  Furthermore, even when the viewpoint information is used together, for example, when the background image and the main motif overlap in a specific area of the evaluation target image, whether the subject's psychological evaluation result comes from the background image or receives from the main motif It was impossible to judge whether it was an impression, and there was a problem that an accurate evaluation result could not be obtained.
[0014]
  The present invention has been made in view of these points, and is necessary for searching and processing images and illustrations based on people's preferences and sensibilities, and for supporting the design production of documents and web pages. It is an object of the present invention to provide an image evaluation apparatus capable of improving the accuracy of sensitivity evaluation for image information and obtaining sensitivity information efficiently.
[0015]
[Means for Solving the Problems]
  In the present invention, in order to solve the above problems, in an image image evaluation apparatus for evaluating how a person feels for information visually given from a design image, image information display means for displaying image information, Sensitivity evaluation data input means in which a subject performs sensitivity evaluation on the image information and inputs sensitivity evaluation data, visual characteristic detection means for detecting a visual characteristic that is a visual function state of the subject performing the sensitivity evaluation, and detection And analyzing the observation state of the subject with respect to the image information based on the visual characteristics thus obtained,SetGenerate visual characteristic data that is informationAndSaidThe position information of the viewpointFrom the visual characteristic data, the subject focuses on which part of the image informationTo generate observation position analysis informationAnalysis means;From the sensitivity evaluation data and the observation position analysis information, an image image calculation means for associating the image information with an impression when the subject observes the image information,There is provided an image evaluation apparatus characterized by comprising:
[0016]
  Here, the image information display means displays the image information. The sensitivity evaluation data input means allows the subject to perform sensitivity evaluation on the image information and inputs sensitivity evaluation data. The visual characteristic detection means detects a visual characteristic that is a visual function state of a subject who performs sensitivity evaluation. The analysis means analyzes the observation state of the subject's image information based on the detected visual characteristics and determines the position of the subject's viewpoint.SetGenerate visual characteristic data that is informationAnd the position information of the viewpointFrom the visual characteristic data, the subject pays attention to which part of the image information.To analyze observation position and generate observation position analysis information. The image image calculation means associates the image information with the impression when the subject observes the image information from the sensitivity evaluation data and the observation position analysis information.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG.Is a pictureIt is a principle figure of an image image evaluation apparatus. The image image evaluation apparatus 10 evaluates how a person feels with respect to information visually given from a design image.
[0018]
  The image information display means 1 displays image information (evaluated image). The sensitivity evaluation data input unit 2 inputs sensitivity evaluation data by subject A performing sensitivity evaluation on image information.
[0019]
  The visual characteristic detection means 3 detects the visual characteristic that is the visual function state of the subject A who performs the sensitivity evaluation.
  Based on the detected visual characteristic, the analysis unit 4 performs an analysis process of the characteristic of the observation position and the image information, and generates observation data and characteristic data (evaluated image characteristic data).
[0020]
  The image image calculation means 5 calculates the impression of the image information from the sensitivity evaluation data, the observation data, and the characteristic data. The image image calculation unit 5 includes a function of a determination unit.
[0021]
  NextPaintingThe configuration and operation of the image evaluation apparatus 10 will be described in detail. FIG. 2 is a diagram illustrating a basic hardware configuration of the image image evaluation apparatus 10, and FIG. 3 is a system diagram illustrating a relationship between operation modules of the image image evaluation apparatus 10.
[0022]
  The hardware of the image image evaluation apparatus 10 includes an image information display means 1, a sensitivity evaluation data input means 2, a visual characteristic detection means 3, an analysis means 4, an image image calculation means 5, a central processing unit 6, and an image information input means 7. The image information storage means 8 is configured as a computer system.
[0023]
  The central processing unit 6 is configured mainly with an MPU, RAM, ROM, and the like, and performs overall control of the above system elements via a system bus. The analysis unit 4 and the image image calculation unit 5 are included.
[0024]
  The image information input means 7 includes an image scanner for converting an arbitrary hard-copy image displayed in color into image data, a video interface for capturing image data from the outside in the form of a video signal, and the like.
[0025]
  Note that an apparatus of a type that reads a reflection type image typified by a print image or the like and a transmission type image typified by a photographic slide or the like is connected to the image scanner as necessary.
[0026]
  In addition, a VCR, a TV, and the like are similarly connected to the video interface as necessary.
  The image information storage means 8 includes a general hard disk device and a large-capacity storage device such as a write-once optical disk and a rewritable optical disk. The image information storage means 8 includes a large number of evaluation objects. Images and documents are stored.
[0027]
  Then, observation data for an evaluation image to be described later, characteristic data of the evaluation image analyzed based on them, sensitivity evaluation data, and image image data which is the final output of the apparatus are stored.
[0028]
  The image information display means 1 is composed of a CRT display, LCD, etc., and at least one of the image to be evaluated and the visual characteristic detection information inputted as described later is displayed in color on the display screen simultaneously or sequentially. The
[0029]
  The visual characteristic detection means 3 is a corneal reflection type or scleral reflection type eye camera, and detects the reflected light of the eye with respect to an irradiation light source such as a field-of-view imaging device and an infrared LED mounted on the subject's head. Configured by the device.
[0030]
  As a basic function of the visual characteristic detection means 3, the eye movement of the subject is measured, and the center point of the visual point perceived by the subject (hereinafter referred to as a gaze point) is used as a coordinate.Arithmetic processingThis is output to the unit 6.
[0031]
  The central processing unit 6 determines the position of the image information area as the evaluation target presented by the image information display means 1 on the coordinates in the visual field of the subject corresponding to the position of the head. Is preset.
[0032]
  Therefore, it is possible to know which image information the subject is viewing based on the coordinate data of the viewpoint output from the visual characteristic detection means 3 and the coordinate data of the image information area preset in the central processing unit 6.
[0033]
  Further, as the visual characteristic detection information, in addition to the position coordinate detection of the gazing point described above, information on the degree of adjustment for the brightness of the input information and information on the degree of adjustment for the depth of the input information are used.
[0034]
  These visual characteristic information is detected, for example, by detecting the pupil contour coordinates from the eyeball image irradiated with the infrared LED, calculating the ellipse major axis by ellipse approximation, and determining the diameter of the pupil with respect to the brightness adjustment degree. can do.
[0035]
  Regarding the focus adjustment, the reflected light amount distribution from the fundus of the irradiated infrared LED can be detected by detecting the luminance by the knife edge method and obtaining the distribution gradient.
[0036]
  The visual characteristic detection method described here is merely an example, and other methods may be used. Further, in the present embodiment, the visual characteristic detection means 3 has been described with a goggle type in which a visual field imaging device and a device for detecting reflected light of an eye with respect to an irradiation light source such as an infrared LED are mounted on the subject's head. When the image to be evaluated is displayed in a fixed space such as a display, by using a contact-type visual characteristic detection device in which the visual field imaging device, the irradiation light source, and the detection device are fixed to the side of the display The burden on the subject can be reduced.
[0037]
  The sensibility evaluation data input means 2 is composed of, for example, a keyboard and a mouse connected to a computer. The subject's sensitivity evaluation data for the evaluation item displayed on the monitor or the like is input via a keyboard or the like.
[0038]
  In addition, the display of evaluation items may be displayed every time all sensitivity evaluation is input, or may be sequentially displayed by giving an instruction via a keyboard.
[0039]
  In addition, the sensitivity evaluation data may be input by the subject himself / herself by looking at the evaluation items displayed on the monitor, or the operator asks the subject about the evaluation items and the sensitivity evaluation answered by the subject is performed by the operator. May be entered.
[0040]
  The analysis means 4 is information such as the observation position of the subject based on the visual characteristic data such as the gaze point, brightness, and focus adjustment degree of the subject obtained by the visual characteristic detection means 3 described above and the image data to be evaluated. Observation position analyzing means 4b for analyzing the image and image characteristic analyzing means 4a for analyzing the characteristics of the image to be evaluated.
[0041]
  The image image calculation means 5 calculates the image of the image information based on the sensitivity evaluation data obtained by the sensitivity evaluation data input means 2, the observation data obtained by the analysis means 4, and the evaluated image characteristic data. It is configured.
[0042]
  Next, the operation of the image evaluation apparatus 10 will be described below. If the image to be evaluated is stored in the image information storage means 8 in advance, it is called from there, and if the form is hard copy, it is also taken into the apparatus from the image information input means 7 and the image information is stored as necessary. Stored in the storage means 8.
[0043]
  Next, sensory evaluation by a subject is performed based on these image groups to obtain sensitivity evaluation data. Here, a sensory evaluation method will be described.
  FIG. 4 is a diagram showing an outline of the operation status of the image evaluation apparatus. The evaluated image S stored in the image information storage means 8 is sent to the image information display means 1 and presented to the subject.
[0044]
  At this time, when comparing the impressions of a plurality of images to be evaluated, if the evaluation target images are a small number of about 2 to 3 types, they are presented simultaneously, and if there are more than 2 types, 2 to 3 types are presented. Or it is desirable to present it in several groups for convenience.
[0045]
  The visual function state of the subject is measured by the visual characteristic detection means 3 from the time when the image to be evaluated is disclosed to the subject. In the figure, the gaze point E of the subject is shown. Next, image information as an evaluation target is presented one by one.
[0046]
  Then, the subject evaluates the presented image information by the SD method, and inputs sensitivity evaluation data for each evaluation item D from the keyboard in five stages.
  When the subject performs sensitivity evaluation for all evaluation targets, the input of sensitivity evaluation data is terminated by pressing a predetermined key on the keyboard.
[0047]
  In this embodiment, the evaluation item is displayed on another monitor from the viewpoint of accuracy. However, the image display and the evaluation item display can be simply performed on the same display.
[0048]
  Next, a method for calculating the observation state of the subject by the analyzing unit 4 will be described. First, regarding the detection of the gazing point as to which part of the image the subject is observing is derived from the relationship between the eye movement of the subject and time.
[0049]
  Specifically, it is performed by detecting whether or not the subject's viewpoint stays at 100 msec or more within a predetermined range (within a radius of 1 °) centering on the corresponding position from the position at a certain time.
[0050]
  This is because it is considered that the subject cannot recognize the information represented by the image in a short time of 100 msec or less.
  From the coordinate position obtained as a result and the data of the image to be evaluated, it is possible to capture which content of the image the subject is observing as an observation time axis.
[0051]
  Finally, by combining the gazing point data obtained as described above with the image image calculation means 5 and the sensitivity evaluation data obtained by the SD method or the like, when observing the specific content in the image to be evaluated It is possible to grasp the relationship between the image and the impression factor of the image to be evaluated.
[0052]
  Next, the operation of the image evaluation apparatus 10 will be described with reference to a flowchart. FIG. 5 is a diagram showing an operation flowchart of the image evaluation apparatus 10.
[S1] The image to be evaluated is displayed on a display device such as a calling display.
[S2] Sensitivity evaluation of the image to be evaluated is performed by the subject to obtain sensitivity evaluation data.
[S3a] At the same time as step S2, the visual characteristic detecting means 3 monitors the visual function state.
[S3b] At least one of observation data and evaluated image characteristic data is calculated based on the monitor information.
[S4] It is determined whether there are other sensitivity evaluation items. If there is, return to step S2, otherwise go to step S5.
[S5] The impression of the evaluated image is calculated based on the sensitivity evaluation data, the observation data, and the evaluated image characteristic data.
[S6] It is determined whether there is another image to be evaluated. If there is, return to step S1 and repeat for the number of images to be evaluated. If not, exit.
[0053]
  Here, the accuracy of the sensitivity evaluation result by the SD method of the present embodiment will be described in comparison with the evaluation result in the conventional general evaluation method. As described above, FIG. 13 shows a part of the result evaluated by a so-called general SD method in which a sensuous evaluation is performed while observing only an image to be evaluated of “a red balloon flying in the sky against a backdrop of mountains”. It is shown.
[0054]
  From this result, it can be seen that in the conventional evaluation method, the sensitivity evaluation result for this image has a large difference in the evaluation values of both the subjects A and B.
  From this evaluation result, for example, one person feels “warm” while another person feels “cold” very much.
[0055]
  Similarly, both “static-dynamic” and “unique-mediocre” have conflicting results.
  Next, FIG. 6 and FIG. 7 show the results of detecting the gazing point at the time of sensitivity evaluation of both subjects A and B according to the present embodiment. 6 and 7 are diagrams showing the results of detecting a gazing point at the time of sensitivity evaluation of subjects A and B. FIG.
[0056]
  When these detection results and the above-mentioned sensitivity evaluation results are collated, the following can be understood. First, since subject A mainly concentrates on the “red balloon” of the image to be evaluated, gaze point E1 concentrates on the subject, and the sensitivity evaluation results such as “soft”, “dynamic”, and “warm” of subject A are , It turns out that it is a result obtained by paying attention to the content of this “red balloon”.
[0057]
  On the other hand, the subject B has a comparatively gazing point E2 mainly in the background “mountain”, so that the sensitivity evaluation results of subject B such as “sharp”, “static”, “cold”, etc. Pays attention to the content of “Yamanami” and understands that it is the result obtained.
[0058]
  As described above, in this embodiment, it can be seen that there is no significant difference between the evaluation values of both subjects A and B. From this result, it is possible to detect visual characteristics at the time of sensitivity evaluation for a subject and take correspondence with sensitivity evaluation data obtained by the SD method or the like.TheIndividual differences in evaluation results can be reducedThe
[0059]
  Moreover, although the difference of the evaluation result of a different test subject was shown this time, in this embodiment, it can also be expected that the variation when one test subject repeatedly evaluates can be greatly reduced.
[0060]
  As explained above, PaintingimageImage evaluationThe device 10 is visually given image information to a subject, and a sensitivity evaluation is performed on this information.
  At this time, the visual function state of the subject is monitored, and this detection information is sent to the analysis means 4 to calculate the observation position and the characteristics of the image to be evaluated.
[0061]
  Then, the image image calculation means 5 calculates the impression of the evaluated image information based on the sensitivity evaluation data, the observation data, and the characteristic data of the evaluated image.
[0062]
  Therefore, by using the observation data of the subject and the characteristic data of the image to be evaluated in addition to the sensitivity evaluation data, the accuracy of the sensitivity evaluation for the image information can be improved and the sensitivity information can be obtained efficiently.
  NextOn the secondThe second embodiment will be described. FIG. 8 is a system diagram showing the relationship of the operation modules of the image / image evaluation apparatus 10 according to the second embodiment.
[0063]
  The difference from the first embodiment is that image region dividing means 9 for the image to be evaluated is added.
  The image area dividing means 9 is an arithmetic processing unit having a function of dividing the image data of the image to be evaluated into a plurality of areas such as a main motif area and a background area.
[0064]
  Generally, it is composed of retoucher software represented by Adobe's photo design production software Photoshop or the like, or a user interface necessary for operating it.
[0065]
  Then, the operator selects and divides an arbitrary area using a mouse or the like while viewing the image displayed on the display.
  The image area dividing means 9 is constituted by image processing hardware or software to which an image area dividing algorithm represented by clustering by the K-average algorithm is applied, and the area dividing is automatically executed according to the image feature amount. It has come to be.
[0066]
  In the analysis means 4, the subject can determine which of the images to be evaluated based on the region data of each content such as the main motif and the background divided by the image region dividing means 9 and the gazing point data of the subject monitored by the visual characteristic detection means 3. Whether the content has been observed for the longest time is calculated, and based on this result, the region of interest for the subject's evaluation image is predicted.
[0067]
  Then, the image image calculation means 5 receives the result and calculates the impression of the evaluated image information by taking correspondence with the sensitivity evaluation data of the subject.
  Therefore, by adding the region division information of the image to be evaluated, the factor of the sensitivity evaluation result is clarified, and effective sensitivity information can be obtained.
[0068]
  Next, a specific example of the second embodiment will be described. FIG. 9 is a diagram showing a result of dividing the image to be evaluated into contents.
  The “red balloon flying in the sky against the back of the mountain” is divided into three “red balloons” that are the main motif M0 by the image region dividing means 9, “yamanami” that is the sub-motif M1, and “sky” in the background M2. The result of dividing into contents is shown.
[0069]
  FIG. 10 is a diagram showing the rate of gaze time. The figure shows how much each subject pays attention to which region (content) based on the region in FIG. 9 and the result of detecting the gazing point at the time of sensitivity evaluation of subjects A and B (see FIGS. 6 and 7). Is expressed as a percentage of gaze time.
[0070]
  From this result, subject A spends most of his time on the “red balloon” that is the main motif M0, whereas subject B is focusing on the “mountain” that is the sub-motif M1. I understand.
[0071]
  When these analysis results are compared with the sensitivity evaluation results, the sensitivity evaluation results such as “soft”, “dynamic”, and “warm” of the subject A are mainly the contents of “red balloon” in the image to be evaluated. It turns out that it is a result obtained paying attention to.
[0072]
  On the other hand, it is understood that “sharp”, “static”, “cold”, etc., which are the sensitivity evaluation results of the subject B, are results obtained mainly by paying attention to “mountain” of the sub-motif M1.
[0073]
  Therefore, in order to confirm the above-mentioned result, the subject B was focused on the “red balloon” of the main motif M0 considered to have been focused by the subject A from the gazing point detection result, and the sensitivity evaluation was performed again. Results as shown in FIG. 11 were obtained.
[0074]
  FIG.Is a pictureIt is a figure which shows an image evaluation result. As shown in the figure, it can be seen that the result of the subject A has been approached in each item of sensitivity evaluation.
  As described above, by adding the detection information of the visual characteristics and the area division information of the image to be evaluated to the sensitivity evaluation such as the SD method, the factor of the sensitivity evaluation result becomes clear and effective sensitivity information can be obtained. it can.
[0075]
  Moreover, although the difference of the evaluation result of a different test subject was shown this time, in this embodiment, it can also be expected that the variation when one test subject repeatedly evaluates can be greatly reduced.
[0076]
  As explained aboveThe secondIn the second embodiment, a plurality of area division processes are performed on the image to be evaluated in advance, and the area division information is sent to the analysis means 4. Then, the analysis unit 4 predicts a region of interest for the subject's evaluation image based on the observation data of the subject monitored by the visual characteristic detection unit 3 and the evaluation image region division data.
[0077]
  ImageCalculationThe means 5 receives this result and calculates the impression of the evaluated image information by taking correspondence with the sensitivity evaluation data of the subject.
  Therefore, by adding the area division information of the image to be evaluated, the factor of the sensitivity evaluation result is clarified, and effective sensitivity information can be obtained.
[0078]
  NextOn the secondA third embodiment will be described. FIG. 12 is a system diagram showing the relationship among the operation modules of the visual characteristic detecting means 3, the analyzing means 4 and the image image calculating means 5 of the image image evaluation apparatus 10 according to the third embodiment.
[0079]
  The difference between the third embodiment and the second embodiment is that the visual characteristic detection means 3 has a brightness adjustment degree detection means 3a, a gaze point coordinate detection means 3b, and a focus adjustment degree detection means 3c. The subject's gazing point, brightness adjustment degree, and focus adjustment degree are detected, and the observation position of the subject is analyzed more accurately.
[0080]
  The analysis unit 4 includes a first observation position content prediction unit 4c-1, a second observation position content prediction unit 4c-2, and an evaluated image content prediction unit 4c-3.
[0081]
  The first observation position content prediction unit 4c-1 analyzes whether the observation position is a highlight portion or a shadow portion from the gazing point data and the brightness adjustment degree data, and the entire content expressed by the highlight portion or the shadow portion. Or whether or not attention is paid to a part of contents in a highlight part or a shadow part.
[0082]
  The second observation position content prediction unit 4c-2 predicts whether the observation position is a foreground content or a background based on the observation position data, the focus adjustment degree data, and the evaluated image area division data.
[0083]
  The to-be-evaluated image content prediction unit 4c-3 predicts the motif, content, situation, scene, and the like of the to-be-evaluated image combining them.
  The impression evaluation unit 5a of the image to be evaluated obtains the impression of the image to be evaluated by using the prediction result of the content thus obtained, the observation position of the subject, and the sensitivity evaluation data. It is possible.
[0084]
  As explained aboveThe secondIn the third embodiment, at least one characteristic value of the position of the subject's viewpoint, the brightness adjustment degree, and the focus adjustment degree is detected and used to derive the observation position of the subject and the characteristics of the image to be evaluated.
[0085]
  Therefore, even for more complex images and documents, the gaze point of the subject can be captured with high accuracy, and more characteristic values of the image to be evaluated can be predicted, so that detailed sensitivity evaluation can be performed.
[0086]
  Furthermore, in the third embodiment, the content of the content at the observation position is predicted based on the information detected by the visual characteristic detecting means 3 and the evaluated image data, and the result is evaluated based on the result and the sensitivity evaluation data of the subject. The impression of the evaluation image information is calculated.
[0087]
  Therefore, by adding the prediction information of the content of the image to be evaluated, the factor of the sensitivity evaluation result becomes clear, and more accurate sensitivity information can be obtained.
[0088]
【The invention's effect】
  As explained above, PaintingThe image image evaluation apparatus analyzes the observation state of the subject's image information, and generates visual characteristic data that is at least one or more of the position of the subject's viewpoint, the brightness adjustment degree and the focus adjustment degree for the image information. Then, from the visual characteristic data, it is configured to determine which part of the image information the subject has input the sensitivity evaluation data. Thereby, the accuracy of sensitivity evaluation for image information is improved, and it becomes possible to efficiently obtain sensitivity information.
[Brief description of the drawings]
[Figure 1]PictureIt is a principle figure of an image image evaluation apparatus.
FIG. 2 is a diagram showing a basic hardware configuration of an image evaluation apparatus.
FIG. 3 is a system diagram showing a relationship among operation modules of the image evaluation apparatus.
FIG. 4 is a diagram illustrating an outline of an operation state of the image evaluation apparatus.
FIG. 5 is a diagram showing an operation flowchart of the image evaluation apparatus.
FIG. 6 is a diagram illustrating a result of detecting a gazing point at the time of sensitivity evaluation of a subject A and a subject B.
FIG. 7 is a diagram showing a result of detecting a gazing point at the time of sensitivity evaluation of subjects A and B.
FIG. 8 is a system diagram showing the relationship of operation modules of the image evaluation apparatus according to the second embodiment.
FIG. 9 is a diagram illustrating a result of dividing an image to be evaluated into contents.
FIG. 10 is a diagram showing a ratio of gaze time.
FIG. 11PictureIt is a figure which shows an image evaluation result.
FIG. 12 is a system diagram showing a relationship between operation modules of visual characteristic detection means, analysis means, and image image calculation means of the image image evaluation apparatus according to the third embodiment;
FIG. 13 is a diagram showing a part of the result of evaluating a certain image by a conventional general SD method.
[Explanation of symbols]
  1 Image information display means
  2 Kansei evaluation data input means
  3 visual characteristic detection means
  4 Analysis means
  5 Image image calculation means
  10 Image evaluation device
  A Subject

Claims (4)

デザイン画像から視覚的に与えられる情報に対し、人がどのように感じるかを評価する画像イメージ評価装置において、
画像情報を表示する画像情報表示手段と、
前記画像情報に対して被験者が感性評価を行って感性評価データを入力する感性評価データ入力手段と、
前記感性評価を行う被験者の視覚機能状態である視覚特性を検出する視覚特性検出手段と、
検出された前記視覚特性にもとづいて、前記被験者の前記画像情報に対する観察状態を解析し、前記被験者の視点の位置の情報である視覚特性データを生成し、前記視点の位置情報である視覚特性データから、前記被験者が前記画像情報の中のどの部分に着目しているかを解析して観察位置解析情報を生成する解析手段と、
前記感性評価データと前記観察位置解析情報とから、前記画像情報と、前記画像情報を前記被験者が観察した際の印象と、を対応付ける画像イメージ算出手段と、
を有することを特徴とする画像イメージ評価装置。
In an image evaluation device that evaluates how people feel about information given visually from design images,
Image information display means for displaying image information;
Sensitivity evaluation data input means for inputting sensitivity evaluation data by subject performing sensitivity evaluation on the image information,
Visual characteristic detection means for detecting a visual characteristic which is a visual function state of a subject performing the sensitivity evaluation;
Based on the detected visual characteristic, analyzes the observation state for said image information of said subject, generating a visual characteristic data is information position of the subject's viewpoint, visual characteristics is position information of the viewpoint Analyzing means for generating observation position analysis information by analyzing which part of the image information the subject focuses on from the data ,
From the sensitivity evaluation data and the observation position analysis information, an image image calculation means for associating the image information with an impression when the subject observes the image information,
The image evaluation apparatus characterized by having.
前記解析手段は、観察位置のコンテンツの内容を予測するコンテンツ予測手段を含むことを特徴とする請求項1記載の画像イメージ評価装置。  The image image evaluation apparatus according to claim 1, wherein the analysis unit includes a content prediction unit that predicts the content of the content at the observation position. 前記画像情報を複数の領域に分割して分割領域を生成する画像領域分割手段をさらに有することを特徴とする請求項1記載の画像イメージ評価装置。  2. The image image evaluation apparatus according to claim 1, further comprising an image area dividing unit for dividing the image information into a plurality of areas to generate a divided area. 前記解析手段は、分割画像領域毎に、前記被験者の前記画像情報に対する観察状態を解析し、前記視覚特性データを生成することを特徴とする請求項3記載の画像イメージ評価装置。It said analyzing means, for each divided image area, analyzes the observation state for said image information of said subject, picture image evaluation apparatus according to claim 3, wherein the generating the visual characteristic data.
JP03461498A 1998-02-17 1998-02-17 Image evaluation system Expired - Fee Related JP3772514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03461498A JP3772514B2 (en) 1998-02-17 1998-02-17 Image evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03461498A JP3772514B2 (en) 1998-02-17 1998-02-17 Image evaluation system

Publications (2)

Publication Number Publication Date
JPH11232434A JPH11232434A (en) 1999-08-27
JP3772514B2 true JP3772514B2 (en) 2006-05-10

Family

ID=12419263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03461498A Expired - Fee Related JP3772514B2 (en) 1998-02-17 1998-02-17 Image evaluation system

Country Status (1)

Country Link
JP (1) JP3772514B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3562516B2 (en) * 2002-06-27 2004-09-08 富士ゼロックス株式会社 Image impression evaluation device, image impression evaluation method, and image impression evaluation program
JP4940734B2 (en) * 2006-04-04 2012-05-30 富士ゼロックス株式会社 Design production support device and design production support program
JPWO2022075404A1 (en) * 2020-10-07 2022-04-14

Also Published As

Publication number Publication date
JPH11232434A (en) 1999-08-27

Similar Documents

Publication Publication Date Title
EP1875863B1 (en) Skin state analyzing method, skin state analyzing device, and recording medium on which skin state analyzing program is recorded
EP1189536B1 (en) Skin imaging and analysis methods
US5204703A (en) Eye movement and pupil diameter apparatus and method
US5148477A (en) Method and apparatus for detecting and quantifying motion of a body part
AU712602B2 (en) Method and system for color vision deficiency correction
WO2007135796A1 (en) Control device for evaluating user response to content
JP3143819B2 (en) Eyelid opening detector
US20040028263A1 (en) Digital zoom skin diagnostic apparatus
JP2007068620A (en) Psychological condition measuring apparatus
JPH06154167A (en) Flicks inspecting device
US20040050400A1 (en) Mascara selecting method, mascara selecting system, and mascara counseling tool
US20100142852A1 (en) Image Analysis System and Image Analysis Program
US5214711A (en) Method and apparatus for detecting and quantifying motion of a body part
KR101984993B1 (en) Visual field examination device using personalized marker control
JP3772514B2 (en) Image evaluation system
CN109984719A (en) A kind of visual color access function detection method and system
Peli et al. Computer measurement of retinal nerve fiber layer striations
JPH1063859A (en) Method for evaluating picture quality and device therefor
EP4060617A1 (en) Image processing system and method
JPH10164281A (en) Picture evaluating method and device
JPH09275459A (en) Image quality evaluation method and its device
WO2004112598A1 (en) Method of testing and corresponding vision aid
JP2003024306A (en) System of evaluating firmness of skin
WO2006106408A2 (en) System and method for estimation of human activity and mood states based on rapid eye movements and galvanic skin response
JPH1166309A (en) Image susceptibility characteristic evaluating device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060206

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees