JP2013054476A - 像提示装置、像提示方法および視線解析方法 - Google Patents

像提示装置、像提示方法および視線解析方法 Download PDF

Info

Publication number
JP2013054476A
JP2013054476A JP2011191250A JP2011191250A JP2013054476A JP 2013054476 A JP2013054476 A JP 2013054476A JP 2011191250 A JP2011191250 A JP 2011191250A JP 2011191250 A JP2011191250 A JP 2011191250A JP 2013054476 A JP2013054476 A JP 2013054476A
Authority
JP
Japan
Prior art keywords
image
subject
line
unit
evaluation object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011191250A
Other languages
English (en)
Other versions
JP5689388B2 (ja
Inventor
Takashi Osugi
崇 大杉
Eiichiro Misaki
栄一郎 美崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2011191250A priority Critical patent/JP5689388B2/ja
Publication of JP2013054476A publication Critical patent/JP2013054476A/ja
Application granted granted Critical
Publication of JP5689388B2 publication Critical patent/JP5689388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】視覚と触覚を用いて被験者が製品の情緒価値や動作感覚を評価する様子を分析者が客観的に把握することが可能な方法および装置を提供する。
【解決手段】像提示装置100は、被験者Sの手Hの動作または被験者Sが手Hで保持する評価対象物PDの像を被験者Sに提示する。像提示装置100は、遮蔽部10、像取得部20および像提示部30を備えている。遮蔽部10は、手元部Fを直視する被験者Sの視線を遮る。像取得部20は、被験者Sの手元部Fの像を取得する。像提示部30は、像取得部20が取得した像を被験者Sに提示する。像提示装置100は、像提示部30で提示される像を目視しながら手Hまたは評価対象物PDを動作させる被験者Sの手元部Fの像を像取得部20が更に取得して像提示部30で提示する。
【選択図】図1

Description

本発明は、被験者に像を提示する像提示装置および像提示方法、ならびにこの像提示方法を用いた視線解析方法に関する。
製品やサービスの基本性能がもつ価値を機能価値というのに対し、本質的ではない付加価値を情緒価値という。たとえば化粧品の場合は、化粧品自体の美容促進効果が機能価値にあたり、使い心地の良さから得られる効果感や、製品パッケージやブランドの高級感などが情緒価値にあたる。製品やサービスの購入意欲を喚起するためには、機能価値のみならず情緒価値を増大することが重要である。
評価対象物から受ける高級感・安物感、または好き・嫌いなどの情緒価値を定性的または定量的に評価するにあたっては、実際に購入するであろう対象被験者などによるアンケートが広く行われている。
特許文献1には、評価対象物のデザイン評価方法が記載されている。この方法は、評価対象物のデザインを表現した映像を画面に出力し、この映像を目視する被験者の脳波を測定して、デザインを評価するものである。この方法は、複数種類の感性(怒り、喜び、悲しみ等)ごとの脳波の分布状態を基準パターンとして予め測定しておき、評価対象物のデザインを目視した被験者から測定した脳波を基準パターンと比較することにより被験者の感性を評価するものである。
特開2001−273392号公報
評価対象物である製品の情緒価値には、製品の外観という視覚的な要素のみならず、肌で触れた場合の質感や、手に持ったり身につけたりした場合の重量感などの触覚的な要素も大きく寄与する。したがって、被験者は少なくとも視覚と触覚の両方の因子を考慮して製品の情緒価値を評価することが好ましい。しかしながら、特許文献1の方法は、自動車や衣服等の画像が表示された画面を目視したときの被験者の脳波を測定するものであって触覚を伴わない方法であるため、評価対象物の情緒価値を適切に評価することは難しい。
また、消費者モニターが評価対象物を実際に手にとって、また目視してその情緒価値をアンケートする方法の場合には、消費者モニターの顕在意識に基づく回答は得られるものの、潜在意識下でどのような判断が行われたのかを知ることはできない。このため、消費者モニターの回答を製品設計に効率的にフィードバックすることが難しい。たとえば、製品に対して無意識に着目している箇所がどこであるか、またどのような観察プロセスを経て製品の情緒価値の評価に到ったか、などの情報を知ることが製品設計では有効である。しかしながら従来のアンケート方法では、アンケート実施者(分析者)は、これらの情報を十分に抽出することが難しい。
なお、評価対象物の情緒価値を評価する場合について上述したが、それに加え、手指や足等を用いた各種動作の感覚を評価する場合にも同様の課題が発生する。すなわち、有体物である評価対象物を被験者が目視観察する場合のみならず、被験者が所与の動作を手や足等の体の部分(動作部位)で行う場合の動作感覚の良否を被験者自身が評価する場合にも、その動作部位への目視(視覚)と肌の触覚に基づいてこれを行うことが好ましい。そして、動作感覚の良否を判断する被験者の潜在意識を分析者が把握することが有効である点も同様である。
本発明は上述のような課題に鑑みてなされたものであり、視覚と触覚を用いて被験者が製品の情緒価値や動作感覚を評価する様子を分析者が客観的に把握することが可能な方法および装置を提供するものである。
本発明の像提示装置は、被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する装置であって、前記動作部位を直視する前記被験者の視線を遮る遮蔽部と、前記動作部位または前記評価対象物の像を取得する像取得部と、前記像を前記被験者に提示する像提示部と、を備え、前記像提示部で提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、前記像取得部が更に取得して前記像提示部で提示することを特徴とする。
また、本発明の像提示方法は、被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する方法であって、前記動作部位を直視する前記被験者の視線を遮った状態で前記動作部位または前記評価対象物の像を取得し、取得した前記像を前記被験者に提示し、提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、更に取得して前記被験者に提示することを特徴とする。
上記発明において、像とは光学系を経た対象物の形象を意味し、静止画像および動画像のほか、レンズまたは鏡を用いて光学的に取得した実像および虚像を含む。すなわち、像を取得するとは、対象物を被写体とする静止画像または動画像を撮像することのほか、レンズや鏡を用いて対象物の実像または虚像を集光することを含む。そして、被験者に像を提示するとは、被験者が目視可能な状態で像を可視化することを意味する。具体的には、静止画像または動画像の場合はこれを表示すること、実像または虚像の場合はこれを結像させることを含む。
上記発明によれば、動作部位を直視する被験者の視線が遮られた状態で、その動作部位の動作または評価対象物が像として当該被験者に提示される。被験者は、これらの像を通じて自らの動作部位を間接的に目視しながら、当該動作部位を動作させたり評価対象物を取り扱ったりすることができる。この動作を通じて、被験者は触覚と視覚の両方を駆使して動作感覚や評価対象物の情緒価値を評価することができる。そして、被験者の当該動作が像提示部で像として表されるため、分析者は、この像を記録したり、または被験者とともにこの像を目視したりすることにより、評価に到るまでの被験者の動作や視線の運び方を客観的に分析することが可能である。
本発明によれば、視覚と触覚を用いて被験者が製品の情緒価値や動作感覚を評価する様子を分析者が客観的に把握することが可能な方法および装置が提供される。
本発明の第一実施形態にかかる像提示装置の構成図である。 (a)は遮蔽部の正面図であり、(b)は遮蔽部の背面図である。 (a)は評価対象物の模式図であり、(b)は像提示部の表示画面の模式図である。 本発明の第二実施形態にかかる像提示装置の構成図である。 視線データを画像と重畳して表示した場合の像提示部の表示画面を示す模式図である。 (a)は遮蔽部の第一変形例を示す斜視図であり、(b)は遮蔽部の第二変形例を示す斜視図である。 実施例1の回答結果を示す表である。 評価対象物のフック近傍を被験者が注視している状態の視線データを示す図である。 評価対象物の側面近傍を被験者が注視している状態の視線データを示す図である。 評価対象物のロゴを被験者が注視している状態の視線データを示す図である。
以下、本発明の実施形態を具体的に説明する。なお、本発明の各種の構成要素は、個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。
また、本発明の像提示方法および視線解析方法は、複数の工程を順番に記載して説明する場合があるが、その記載の順番は複数の工程を実行する順番やタイミングを必ずしも限定するものではない。このため、本発明の方法を実施するときには、複数の工程の順番は内容的に支障のない範囲で変更することができ、また複数の工程の実行タイミングの一部または全部が互いに重複していてもよい。
<第一実施形態>
図1は、本発明の第一実施形態にかかる像提示装置100の構成図である。図2(a)は遮蔽部10の正面図であり、同図(b)は遮蔽部10の背面図である。図3(a)は評価対象物PDの模式図であり、同図(b)は像提示部30の表示画面の模式図である。
はじめに、本実施形態の概要について説明する。
像提示装置100は、被験者Sの動作部位である手Hの動作または被験者Sが動作部位(手H)で取り扱う評価対象物PDを被験者Sに提示する装置である。像提示装置100は、遮蔽部10、像取得部20および像提示部30を備えている。
遮蔽部10は、動作部位(手H)を直視する被験者Sの視線を遮る手段である。像取得部20は、被験者Sの動作部位(手H)または評価対象物PDの像を取得する手段である。像提示部30は、像取得部20が取得した像を被験者Sに提示する手段である。
被験者Sは、像提示部30で提示される像を目視しながら、動作部位(手H)を動作させ、また評価対象物PDを取り扱う。そして、本実施形態の像提示装置100は、かかる動作部位(手H)または評価対象物PDの像を像取得部20が更に取得して像提示部30で提示する。
次に、本実施形態について詳細に説明する。
像提示装置100は、評価対象物PDの情緒価値の評価や、動作部位の動作感覚の評価に用いられる評価装置である。動作部位は、手Hのほか、足や腹部などを挙げることができる。以下、動作部位が手Hである場合について説明する。
被験者S(図1では目と手Hのみを図示)は遮蔽部10に対向して立位または座位の姿勢をとる。遮蔽部10に臨んだ被験者Sの正面には像提示部30が配置されている。像提示部30では被験者Sの手元部Fが像として提示される。手元部Fは、被験者Sの両手および評価対象物PDを含む、評価対象物PDの近傍領域である。
被験者Sは、像提示部30で提示される像を目視しながら手Hや評価対象物PDを動かす。この評価対象物PDの動きが更に像取得部20で取得されて像提示部30でリアルタイムに提示される。像提示部30を目視する被験者Sは、あたかも自分の手元部Fを直視しているかのように評価対象物PDを視覚的かつ触覚的に捉えて情緒価値を評価することができる。また、有体物である評価対象物PDのみならず、手Hの動作感覚の評価の場合も同様に、像提示部30で被験者Sの手元部Fの像が提示される。この像を被験者S自身が目視しながら手Hを動かすことにより、手元部Fを直視しながら手Hを動作させている感覚の下で、手指が触れる触覚を感じながら被験者Sは動作を行うことができる。
そして、視覚的かつ触覚的に評価対象物PDの情緒価値や手Hの動作感覚を評価している間の被験者Sの手元部Fの動きが像提示部30で像として常に提示される。被験者Sによる評価結果を解析する分析者は、この像を目視したり、画像として記録したり、また後述するように被験者Sの視線方向に関する視線データを取得したりすることで、被験者Sの動作や視線の運び方を客観的に分析することができる。
評価対象物PDとしては、化粧品の容器等の日用品や装飾品、衣服、靴、その他の工業製品が挙げられる。このほか、食品や小動物などの動植物でもよい。評価対象物PDは、被験者Sが手にとってその質感を感じることができる程度の寸法である。特に、評価対象物PDとして、ファンデーションのコンパクトケースなどの化粧品の容器を好適に挙げることができる。化粧品の容器は消費者個々の趣味趣向の影響を強く受け、また他人の前でも使用される製品であるため見た目の高級感等の情緒価値が高い製品である。
動作感覚を評価する手の動作としては、有体物を用いて行う手の動作でもよく、または手指のみで行う動作でもよい。一例としては、ユニバーサルデザイン(UD)が施された製品の操作や使用、容器等のその他の製品の開閉または駆動操作、シャンプー等の液体を手にとって引き延ばしたり泡立てたりする動作、モーションセンサーで手指の動きを画像認識させて行うデバイスへの入力操作、などが挙げられる。
以下、本実施形態では、化粧品の容器である評価対象物PDの情緒価値を視覚的および触覚的に評価する場合を例示して説明する。
遮蔽部10は、被験者Sが手Hで把持している評価対象物PDの少なくとも一部を被験者Sの目から掩蔽する手段である。図2(a)、(b)に示すように、本実施形態の遮蔽部10は、半透明または不透明の容器である。遮蔽部10には、被験者Sの動作部位(手H)を差し込む一対の差込口12が、遮蔽部10の奥行方向に延びる中心線C(直線)の両側に設けられている。
評価対象物PDは、遮蔽部10を通じて被験者Sが完全に視認不可能であってもよく、または評価対象物PDのシルエットが確認可能であってもよい。すなわち、遮蔽部10は、被験者Sが手元の評価対象物PDを直視して観察することが十分に妨げられる程度に評価対象物PDを被験者Sから掩蔽する。被験者Sと手Hとの間に位置する天板11は、半透明または不透明の材料からなる無孔または多孔の板材である。
図2に示す本実施形態の遮蔽部10は、全体が半透明材料からなる略直方体状の箱形をなしている。ただし、本実施形態の変形例として後述するように、遮蔽部10の形状は箱形に限られず、ドーム状などの湾曲面状でもよい。
本実施形態の遮蔽部10は、天板11、前面板13、一対の対向する側板14および底板15を備えている。遮蔽部10の背面側(図2(b)の手前側)には開口16が設けられている。評価対象物PDは、開口16を通じて遮蔽部10の内部に出し入れ可能である。
差込口12は、一対の側板14にそれぞれ形成されている貫通孔または切欠である。差込口12の形状は特に限定されない。本実施形態の差込口12は矩形孔である。差込口12には、迷光防止用の柔軟な膜状の閉止片17が設けられている。
本実施形態の遮蔽部10は半透明材料からなるため、外光が拡散して遮蔽部10の内部に入光する。このため、遮蔽部10の内部に光源を配設することなく、遮蔽部10の内部に室内光または自然光を導入することができる。一方、遮蔽部10を不透明材料で作成する場合には、遮蔽部10の内部に光源(図示せず)を配置するとよい。これにより、像取得部20は自然な明るさで手元部Fの像を取得することができる。
像取得部20は、被験者Sの評価対象物PDの少なくとも一部を含む手元部Fの像を取得する。像取得部20としては、デジタル(スチル)カメラ、デジタルもしくはアナログのビデオカメラ、一枚もしくは複数枚の鏡、または光ファイバー等の導光体とレンズとを含む集光装置、が例示される。上記に例示される像取得部20が取得する手元部Fの像は、それぞれ手元部Fの静止画像、動画像、虚像、または実像である。像取得部20としてビデオカメラを用いる場合、動画像のフレーム数を60FPS以上とすることが好ましい。
像提示部30は、これらの像を任意で加工して被験者Sに提示する手段である。像取得部20がデジタルスチルカメラまたはデジタルビデオカメラである場合、像提示部30としてディスプレイ装置(画像表示装置)を用いることができる。像取得部20が鏡である場合には、像提示部30として、像取得部20(鏡)と対向配置された合わせ鏡を用いることができる。また、像取得部20が集光装置である場合には、像提示部30としてスクリーン装置を用いることができる。
以下、像取得部20がデジタルビデオカメラ、より具体的には、ネットワークインターフェイスを有するリアルタイムカメラであるWebカメラを用いて、被験者Sの手元部Fの動画像を取得する場合を例示して本実施形態を説明する。
すなわち、本実施形態の像取得部20は、被験者Sの動作部位(手H)を含む手元部Fの画像IMを動画像として撮像するカメラ(Webカメラ)である。そして像提示部30は、画像IMを動画表示するディスプレイ装置である。本実施形態の像提示装置100は、像取得部20が撮像した動画像を像提示部30で表示出力するための制御を行う表示制御部40を備えている。本実施形態の像提示装置100において、Webカメラは遮蔽部10の内部に配置されている。Webカメラの視野範囲は、被験者Sが手Hで把持した評価対象物PDの全体を包含する位置および大きさに設定されている。
像取得部20と表示制御部40、および表示制御部40と像提示部30は配線70で互いに接続されている。像取得部20は、所定のフレームレートで被験者Sの手元部Fの多数の静止画像を撮像して動画像(画像IM)を取得する。フレームレートは、たとえば60fps(Frames Per Second)である。
本実施形態の像提示装置100は、像取得部20が撮像した画像IMの見た目を変化させる画像処理を行う画像処理部44を更に備えている。像提示部30は、画像処理部44で画像処理された画像IM1を表示する。
具体的な画像処理としては、グレースケール処理または白黒化処理を含む彩度低減処理、低コントラスト処理を含む輝度低減処理、または、ぼかし処理のいずれか一以上が挙げられる。動画像を構成する上記フレームレートの静止画像のそれぞれに対して画像処理を施すことにより、当該動画像全体の彩度低減・輝度低減・ぼかし等の処理が行われて画像IM1が生成される。
像取得部20による動画像の撮影処理時間、画像処理部44による画像処理時間、表示制御部40および像提示部30による表示処理時間、および配線70を通じた画像IM、IM1の伝送時間の合計は、被験者Sが容易に知覚可能な遅れ時間(たとえば1/60秒)以下である。被験者Sは、像提示部30を目視しながら、手Hで評価対象物PDを回転させたり、被験者Sに対して評価対象物PDを接近または離間移動させたりする動作(以下、ハンドリング)を行って、評価対象物PDを視覚的に確認する。このとき、かかる手元部Fの動作が像提示部30で表示されるまでの遅延時間は上記のように僅かであるため、当該動作が実質的にリアルタイムで像提示部30に表示される。よって、被験者Sは、評価対象物PDをハンドリングして触覚的にその質量や表面の質感を知得しながら、かつ自身の手元部Fを直視しているかのようにリアルタイムで、像提示部30を通じて評価対象物PDの状態を視覚的に確認することができる。すなわち、本実施形態によれば、評価対象物PDの目視と触診が可能である。
さらに本実施形態によれば、像取得部20で取得した画像IMに対して画像処理部44で所定の画像処理を施してなる画像IM1が像提示部30で表示出力される。
ここで、彩度低減処理を施した画像IM1を表示することにより、白内障または色覚障害の人の見え方を摸擬することができる。このため、正常色覚をもつ被験者Sであっても、色覚障害者等の見え方に基づいて評価対象物PDを評価することができる。すなわち、本方法によれば、色覚障害者等の見え方を考慮して、評価対象物PDのユニバーサルデザイン性を評価したり、または色覚障害者等にも容易に視認できる手の動作方法を提案したりすることが可能である。
また、本方法によれば、評価対象物PDから色因子を捨象したものを目視することができる。このため、評価対象物PDの色に影響されることなく、その模様や形状の情報に基づいて評価対象物PDの高級感や好みなどを評価することができる。同様に、輝度低減処理を施した画像IM1を表示することで、評価対象物PDから表面の光沢を捨象して評価をすることができる。また、ぼかし処理を施した画像IM1を表示することで、評価対象物PDから表面の質感や精細な模様を捨象して、その評価をすることができる。
このほか、フルカラー画像の画像IMにおける赤色、緑色または青色のいずれか1色の輝度を低減する画像処理を行ってもよい。これにより、赤色の光を感じるL錐体が弱いP型色覚、緑色の光を感じるM錐体が弱いD型色覚、青色の光を感じるS錐体が弱いT型色覚の見え方をそれぞれ摸擬することができる。
図3(a)は、評価対象物PDの模式図である。この評価対象物PDは、天蓋部T、基台部Bおよび容器部CAを備えている。天蓋部Tおよび基台部Bには色彩および微細な模様が施されている。図3(b)は、像提示部30の表示画面の模式図である。像提示部30には、被験者Sの手H(破線で図示)、および手Hで把持されている評価対象物PDが、画像IM1として表示されている。説明のため、手Hを評価対象物PDから離間して図示してある。
本実施形態では、像取得部20が手元部Fのフルカラーの動画像を画像IMとして撮像する。画像処理部44は、画像IMに彩度低減処理およびぼかし処理を施して画像IM1に変換する。ぼかし処理は、たとえば隣接する複数画素の混合処理によって行うことができる。評価対象物PDの外郭線が識別可能であって、かつ評価対象物PDの表面の微細な模様が視認困難な程度にぼやけるよう、混合する画素数を選定するとよい。
これらの画像処理を施すことにより、図3(b)に示す画像IM1では、天蓋部Tおよび基台部Bの色彩が無彩色(グレースケール)となり、また微細な模様がぼかされて無地と認識される。これにより、色因子および模様因子を捨象した状態の評価対象物PDを被験者Sは像提示部30で目視することができる。このため、評価対象物PDの形状因子と触感とに基づいて評価対象物PDの情緒価値が被験者Sに評価されることとなる。
ここで、像提示部30は、被験者Sが動作部位(手H)を直視したときの手Hまたは評価対象物PDの視野角(以下、直接視野角)と、ディスプレイ装置(像提示部30)に表示された画像IM1における動作部位(手H)または評価対象物PDの視野角(以下、間接視野角)とが同等となるように画像IM1を表示する。ここでいう間接視野角は、遮蔽部10に臨んだ被験者Sが像提示部30を目視したときの視野角である。
具体的には、像取得部20は、1未満の撮影倍率で評価対象物PDを撮影する。そして、表示制御部40は、像取得部20から手元部Fまでの焦点距離FL、被験者Sの目から手元部Fまでの距離D1、および被験者Sの目から像提示部30までの距離D2に基づいて、像提示部30で表示される評価対象物PDの間接視野角が直接視野角と同等になるように画像IM1の表示倍率を調整する。これにより、被験者Sがディスプレイ装置(像提示部30)を目視したときに、手元部Fを直視している場合と同等のサイズで手Hや評価対象物PDを視認することができる。被験者Sの目から手元部Fまでの距離D1を像取得部20(Webカメラ)の焦点距離FLのN倍とすると、Webカメラは1/N倍の撮影倍率で画像IMを撮像する。本実施形態では、Webカメラが遮蔽部10の内部に配置されており、Webカメラから手元部Fまでの距離(=焦点距離FL)は被験者Sの目から手元部Fまでの距離D1よりも短い。言い換えると、Nは1よりも大きく、したがって撮影倍率(1/N)は1未満に設定されている。このため、被験者Sが評価対象物PDをWebカメラに対して近接させた場合に、像提示部30で表示される評価対象物PDの画像IM1が急拡大することがなく、被験者Sが手元部Fを直視した場合の見た目の寸法変化に相当する僅かな倍率で画像IM1は拡大される。被験者Sが評価対象物PDをWebカメラに対して離間させた場合も同様である。このため被験者Sは、あたかも手元部Fを直視しているかのような自然な感覚で、像提示部30に表示される画像IM1を目視しながら評価対象物PDをハンドリングすることができる。
像提示装置100は、画像IMの画像データを保存する蓄積部50を更に備えている。蓄積部50はデータ記憶装置である。表示制御部40は、像取得部20が取得した画像IMの画像データと、画像処理部44による画像処理後の画像IM1の画像データと、を蓄積部50に記録する。
以上、本実施形態の像提示装置100によれば、被験者Sの動作部位(手H)の動作または被験者Sが動作部位(手H)で取り扱う評価対象物PDを被験者Sに提示する像提示方法が実現される。
この像提示方法では、動作部位(手H)を直視する被験者Sの視線を遮った状態で、この手Hまたは評価対象物PD(手元部F)の像(画像IM)を取得し、取得した画像IMを任意で画像IM1へと画像処理して被験者Sに提示する。被験者Sは、提示される像を目視しながら動作部位(手H)を動作させるか、または動作部位(手H)で評価対象物PDを取り扱う。この像提示方法では、これらの画像IMを更に取得して被験者Sに提示する。
これにより、被験者Sの手元部Fの動作が画像IM1として像提示部30に表示される。このため、被験者Sは手元部Fを直視しながら手Hを動作させている感覚の下で、視覚的および触覚的に評価対象物PDを評価することができる。そして分析者は、この画像IM1を目視または記録することにより、評価に到るまでの被験者Sの動作を客観的に把握することができる。
なお本実施形態については種々の変形を許容する。
本実施形態では、フルカラー画像として取得した画像IMを画像処理部44で画像処理する場合を例示的に説明したが、本発明はこれに限られない。像取得部20で画像IMを取得する段階で、手元部Fの色情報の一部を加工または削除してもよい。具体的には、像取得部20としてモノクロカメラを用いてもよい。また、像取得部20としてフルカラーのWebカメラを用いる場合において、色弱模擬フィルタなどの光学フィルタを介して評価対象物PDを撮像してもよい。色弱模擬フィルタを通じて評価対象物PDを撮像することにより、P型色覚やD型色覚等の見え方を摸擬した画像IMを像取得部20で取得することができる。
また、上記実施形態では像取得部20で手元部Fの画像IMを取得する場合を例示した。本発明はこれに限られず、上記のように像取得部20および像提示部30として合わせ鏡を用いてもよい。具体的には、第一の鏡である像取得部20で手元部Fの虚像(鏡像)を取得し、第二の鏡である像提示部30でこの虚像を実像に加工(反転)して表示するとよい。このとき、手元部Fから像提示部30(第二の鏡)に到る光路中に光学フィルタを配置してもよい。かかる光学フィルタは、上記の色弱模擬フィルタのほか、グレースケールフィルタを用いてもよい。グレースケールフィルタは、380乃至440nmの波長範囲(青色)、500乃至550nmの波長範囲(緑色)および560乃至620nmの波長範囲(赤色)にそれぞれ吸収極大を持つ光学フィルタである。このように、手元部Fの像を画像IMとして取得せずとも、評価対象物PDの色因子を捨象した像に加工して被験者Sに提示することができる。
<第二実施形態>
図4は、本発明の第二実施形態にかかる像提示装置100の構成図である。本実施形態の像提示装置100は、視線取得部60を備えている点を除き第一実施形態と同一の構成を備える。第一実施形態と重複する説明は省略する。
視線取得部60は、像提示部30で表示される画像IM1を目視する被験者Sの視線方向LOVに関する視線データVPを経時的に取得する手段である。本実施形態の蓄積部50は、画像IM1と視線データVPとを対応づけて保存する。
すなわち、本実施形態では、動作部位(手H)を含む手元部Fの像を画像IMとして取得し、画像IMを任意で画像IM1に画像処理して被験者Sに提示する。そして、提示される画像IM1を目視する被験者Sの視線方向LOVに関する視線データVPを経時的に取得し、画像IM1と視線データVPとを対応づけて保存する。
図5は、視線データVPを画像IM1と重畳して表示した場合の像提示部30の表示画面を示す模式図である。視線データVPは、被験者Sの視線方向LOVの集中度合いを示す等高線データである。視線データVPは、視線方向LOVが集中している領域(図5では評価対象物PDのコーナー部)が濃色となるように表示されている。
視線取得部60は、眼球画像を取得する撮像手段、いわゆるアイカメラである。視線取得部60は、被験者Sの眼球を画像認識することにより、被験者Sの視線方向LOVを示す視線データVPを、時刻情報と対応づけて取得する。同期部42は、視線取得部60が取得した視線データVPと、画像処理部44で画像処理された画像IM1とを、時刻情報を用いて同期させる。より具体的には、同期部42は、視線データVPと画像IM1の時刻および座標系を互いに一致させる。同期した視線データVPおよび画像IM1は蓄積部50に記録される。
視線取得部60(アイカメラ)により被験者Sの視線を追跡し、これを画像IM1の画像データと対応づけて保存しておくことにより、評価対象物PDにおいて被験者Sが注視した部位を客観的に事後分析することができる。
また、本実施形態のように手元部Fの像を取得し、かつ、その像を目視する被験者Sの視線データVPを取得することにより、被験者Sが手Hや評価対象物PDを目に近づけようとする動作をも記録として残すことができる。アイカメラは被験者Sの視線方向のみをデータ取得するものであって、被験者Sが評価対象物PDを引き寄せて凝視しようとしているか、または評価対象物PDを遠ざけて全体観察しているか、を把握することはできない。これに対し本実施形態によれば、手元部Fの像を通じて評価対象物PDの接近または離間の動作を記録することができるため、これと視線データVPとを合わせることで評価対象物PDのハンドリング動作および被験者Sの視線移動の全容を記録することができる。
図4に示すように、遮蔽部10、像取得部20の視野領域、および像提示部30は、同図の左右方向に延在する略直線上に配置されている。本実施形態において遮蔽部10、像取得部20の視野領域および像提示部30が略直線上に配置されているとは、一の仮想的な直線がこれらの中心またはその他の一部を通過することをいう。本実施形態の場合、具体的には、遮蔽部10の中心線C(図2を参照)が像提示部30の略中央を向くように遮蔽部10と像提示部30は配置されている。これにより、被験者Sが評価対象物PDを体の正面でハンドリングし、これを像取得部20で撮像する場合に、被験者Sが像提示部30に正対する。さらに、視線取得部60(アイカメラ)の視野領域も、この直線上に配置されている。言い換えると、遮蔽部10、像取得部20の視野領域、像提示部30および視線取得部60の視野領域および被験者Sは、共通の鉛直面内に位置している。これにより、像提示部30を正視する被験者Sの左右の眼球を視線取得部60で正面から捕捉することができる。
本実施形態では、被験者Sの手元部Fの画像IMを画像処理部44で種々に画像処理し、その差異が視線方向LOVとして如何に現れるかを知ることができる。これにより、被験者Sの視線の解析方法が提供される。
すなわち、本実施形態によれば、上記の像提示方法を用いた視線解析方法が提供される。この視線解析方法は、画像IM1を目視する被験者Sの第一の視線データをまず取得する。さらに、画像IM1の見た目を変化させて画像IM2とし、これを被験者Sに提示する。そして、変化後の画像IM2を目視する被験者Sの第二の視線データを取得する。最後に、第一の視線データと第二の視線データとを対比して表示する。
本実施形態の視線解析方法によれば、評価対象物PDの彩度や輝度を変化させた場合の被験者Sの視線方向LOV(注視点)の変化を定量化することができる。すなわち、彩度低減や輝度低減の画像処理の強弱を複数通りに変化させて画像IM1および画像IM2を生成し、それぞれを被験者Sが目視した場合の第一の視線データと第二の視線データとを取得して対比する。これにより、評価対象物PDの彩度や光沢の変化量と、被験者Sの視線方向LOVの移動量との定量的な傾向を把握することができる。
第一の視線データと第二の視線データとを対比して表示するための手段は特に限定されない。画像IM1を表示出力する像提示部30を用いて第一の視線データと第二の視線データを表示してもよく、または他のディスプレイ装置を用いて表示してもよい。
なお、本発明は上述の実施形態に限定されるものではなく、本発明の目的が達成される限りにおける種々の変形、改良等の態様も含む。
図6(a)は、遮蔽部10の第一変形例を示す斜視図である。図6(b)は、遮蔽部10の第二変形例を示す斜視図である。
第一変形例の遮蔽部10は、ドーム状(半球状)の天板11と、円盤状の底板15とで構成されている。天板11の周囲には円孔状の一対の差込口12が形成されている。底板15の中心を通り、一対の差込口12を隔てる中心線Cを一点鎖線で仮想的に図示してある。天板11は半透明または不透明の材料からなり、天板11を通じて内部の評価対象物PD(図6(a)では図示省略)を視認することは実質的に遮られている。
第二変形例の遮蔽部10は、半割円筒状の天板11を伏臥配置してなる。半割円筒の両端の開口が差込口12にあたる。この差込口12から手Hおよび評価対象物PDを出し入れする。天板11は半透明または不透明であり、被験者Sから評価対象物PDへの視線を遮る。本変形例の遮蔽部10は、天板11の半割の円筒面の内側を評価対象物PDのハンドリング用の空間として用いるものである。半割円筒の軸方向に直交し、かつ一対の差込口12を隔てる中心線Cを一点鎖線で仮想的に図示してある。
これらの変形例にかかる遮蔽部10もまた、その中心線Cが像提示部30の略中央を向くようにして配置される。これにより、差込口12に手Hを差し入れて評価対象物PDをハンドリングする被験者Sが自然に像提示部30に対して正対することとなる。
上記実施形態では動作部位として手Hを例示したが、本発明はこれに限られない。たとえば動作部位を足とし、評価対象物PDを靴や靴下としてもよい。この場合、被験者が足や靴や靴下を直視する視線を遮りつつ、足に装着した靴や靴下の感触を足の肌の触感を通じて被験者は評価することができる。
また、上記各実施形態では、評価対象物PDの画像IMを画像処理するなどして、評価対象物PDの視覚的な因子を変化させることを例示したが、本発明はこれに限られない。すなわち上記実施形態に代えて、または上記実施形態と組みあわせて、被験者Sによりハンドリングされている評価対象物PDの触覚的な因子を変化させてもよい。たとえば、遮蔽部10の内部における磁場や気流等の物理条件を変化させて評価対象物PDを重力方向に付勢して、被験者Sが受ける評価対象物PDの重量を仮想的に増大させてもよい。具体的には、評価対象物PDの一部または全部を磁性材料で作成し、遮蔽部10の底板15に配置した電磁石によって評価対象物PDを吸引するとよい。これにより、評価対象物PDの実際の質量を変えることなく、評価対象物PDの質量を仮想的に増大させた場合の被験者Sの視線方向LOVの変化をシミュレートしたり、評価対象物PDの質量と情緒価値との相関関係を分析したりすることが容易に行われる。本発明者らの検討によれば、評価対象物PDが化粧品の容器である場合、評価対象物PDの質量と高級感とが正の相関を持つことが確認されている。
以下、本発明の像提示装置の使用方法(本発明の方法)について説明する。
(使用方法1)
図4に示した第二実施形態の像提示装置100を用いて、評価対象物PDの情緒価値の評価実験を行った。評価対象物PDには、ファンデーションのコンパクトケース(以下、コンパクト)を用いた。画像処理部44による画像処理は行わず、像取得部20(Webカメラ)で取得したフルカラーの動画像(画像IM)を像提示部30(ディスプレイ装置)で表示して被験者Sに提示した。
aからfの6種の異なるコンパクトについて、(評価試験1)静止画の目視、(評価試験2)実物の直視および触診、(評価試験3)本発明を用いた動画像の目視および触診、を行った。被験者はAからCの3人とした。
評価試験1から3の結果として、aからfのコンパクトに「高価と感じる順位」を付与する回答を得た。回答結果の一覧を図7に示す。実物の直視および触診に基づく評価試験2を正として、ケンドール順位相関係数(τ)に基づいて評価試験1および評価試験3の結果を判定した。ケンドール順位相関係数(τ)は、2つの順位列の間の相関の強さを−1(完全不一致)から+1(完全一致)の間の数字で表す係数である。
AからCの3人の被験者の平均のケンドール順位相関係数は、評価試験1:τ=0.38、そして評価試験3:τ=0.82となった。これにより、評価試験3(本発明の方法)では、評価試験1(静止画)に比べて評価対象物PDの情緒価値が正確に評価されていることが分かった。また、評価試験3(本発明の方法)のケンドール順位相関係数がきわめて高いことから、像提示装置100を用いて行う評価対象物PDの評価が、実物を目視および触診して行う評価とほぼ同等の正確性であることが分かった。
(使用方法2)
第二実施形態の像提示装置100を用いて被験者Sの視線データVPを取得した。図8〜図10は、視線データVPを評価対象物PDの画像IMに重畳して表示した場合の像提示部30の表示画面を示す図である。視線データVPは、被験者Sの視線方向LOVが集中している領域を表している。
具体的には、図8は評価対象物PDのフック近傍を被験者Sが注視している状態の視線データVPを示す図である。図9は、評価対象物PDの側面近傍を被験者Sが注視している状態の視線データVPを示す図である。図10は、評価対象物PDのロゴマークを被験者Sが注視している状態の視線データVPを示す図である。
視線取得部60を備える第二実施形態の像提示装置100によれば、被験者Sが評価対象物PD(コンパクト)を目視する様子を経時的なデータとして記録することができる。具体的には、図8〜図10に示すように、凹凸のあるフックの部分を観察している様子や、側面を目視して評価対象物PDの厚みを観察している様子、さらにロゴマークを注視している様子などを動画で記録することができる。これにより、被験者Sがコンパクトの外郭線を特に注視していることが把握できる。そして、本実施形態の像提示装置100によれば、評価対象物PDに施したデザインに被験者Sが注視しているか否か、等のデータを動画像として記録することが可能であるため、評価対象物PDのデザイン開発に特に有効に用いることができる。
上記実施形態は、以下の技術思想を包含するものである。
(1)被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する装置であって、前記動作部位を直視する前記被験者の視線を遮る遮蔽部と、前記動作部位または前記評価対象物の像を取得する像取得部と、前記像を前記被験者に提示する像提示部と、を備え、前記像提示部で提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、前記像取得部が更に取得して前記像提示部で提示することを特徴とする像提示装置;
(2)前記像取得部が前記動作部位の画像を動画像として撮像するカメラであり、前記像提示部が前記画像を表示するディスプレイ装置である上記(1)に記載の像提示装置;
(3)前記像取得部が撮像した画像の見た目を変化させる画像処理を行う画像処理部を更に備え、前記像提示部は前記画像処理部で画像処理された前記画像を表示することを特徴とする上記(2)に記載の像提示装置;
(4)前記画像処理が、グレースケール処理または白黒化処理を含む彩度低減処理、低コントラスト処理を含む輝度低減処理、または、ぼかし処理のいずれか一以上である上記(3)に記載の像提示装置;
(5)前記像提示部で表示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得する視線取得部と、前記画像と前記視線データとを対応づけて保存する蓄積部と、を更に備える上記(2)から(4)のいずれかに記載の像提示装置;
(6)前記遮蔽部、前記像取得部の視野領域および前記像提示部が略直線上に配置されている上記(2)から(5)のいずれかに記載の像提示装置;
(7)前記遮蔽部が半透明または不透明の容器であり、前記遮蔽部には、前記動作部位を差し込む一対の差込口が前記直線の両側に設けられている上記(6)に記載の像提示装置;
(8)前記像取得部は、前記被験者が前記動作部位を直視したときの視野角と、前記遮蔽部に臨んだ前記被験者が前記ディスプレイ装置に表示された前記画像における前記動作部位を目視したときの視野角と、が同等となるように前記画像を表示する上記(6)または(7)に記載の像提示装置;
(9)被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する方法であって、前記動作部位を直視する前記被験者の視線を遮った状態で前記動作部位または前記評価対象物の像を取得し、取得した前記像を前記被験者に提示し、提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、更に取得して前記被験者に提示することを特徴とする像提示方法;
(10)前記動作部位の像を画像として取得し、提示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得し、前記画像と前記視線データとを対応づけて保存することを特徴とする上記(9)に記載の像提示方法;
(11)上記(10)に記載の像提示方法を用いた視線解析方法であって、前記画像を目視する前記被験者の第一の前記視線データを取得し、前記画像の見た目を変化させて前記被験者に提示し、変化後の前記画像を目視する前記被験者の第二の前記視線データを取得し、前記第一の視線データと前記第二の視線データとを対比して表示することを特徴とする視線解析方法。
10:遮蔽部、11:天板、12:差込口、13:前面板、14:側板、15:底板、16:開口、17:閉止片、20:像取得部、30:像提示部、40:表示制御部、42:同期部、44:画像処理部、50:蓄積部、60:視線取得部、70:配線、100:像提示装置、F:手元部、H:手、IM:画像、PD:評価対象物、S:被験者、VP:視線データ

Claims (11)

  1. 被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する装置であって、
    前記動作部位を直視する前記被験者の視線を遮る遮蔽部と、前記動作部位または前記評価対象物の像を取得する像取得部と、前記像を前記被験者に提示する像提示部と、を備え、
    前記像提示部で提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、前記像取得部が更に取得して前記像提示部で提示することを特徴とする像提示装置。
  2. 前記像取得部が前記動作部位の画像を動画像として撮像するカメラであり、前記像提示部が前記画像を表示するディスプレイ装置である請求項1に記載の像提示装置。
  3. 前記像取得部が撮像した画像の見た目を変化させる画像処理を行う画像処理部を更に備え、前記像提示部は前記画像処理部で画像処理された前記画像を表示することを特徴とする請求項2に記載の像提示装置。
  4. 前記画像処理が、グレースケール処理または白黒化処理を含む彩度低減処理、低コントラスト処理を含む輝度低減処理、または、ぼかし処理のいずれか一以上である請求項3に記載の像提示装置。
  5. 前記像提示部で表示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得する視線取得部と、
    前記画像と前記視線データとを対応づけて保存する蓄積部と、を更に備える請求項2から4のいずれか一項に記載の像提示装置。
  6. 前記遮蔽部、前記像取得部の視野領域および前記像提示部が略直線上に配置されている請求項2から5のいずれか一項に記載の像提示装置。
  7. 前記遮蔽部が半透明または不透明の容器であり、
    前記遮蔽部には、前記動作部位を差し込む一対の差込口が前記直線の両側に設けられている請求項6に記載の像提示装置。
  8. 前記像取得部は、前記被験者が前記動作部位を直視したときの視野角と、前記遮蔽部に臨んだ前記被験者が前記ディスプレイ装置に表示された前記画像における前記動作部位を目視したときの視野角と、が同等となるように前記画像を表示する請求項6または7に記載の像提示装置。
  9. 被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する方法であって、
    前記動作部位を直視する前記被験者の視線を遮った状態で前記動作部位または前記評価対象物の像を取得し、
    取得した前記像を前記被験者に提示し、
    提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、更に取得して前記被験者に提示することを特徴とする像提示方法。
  10. 前記動作部位の像を画像として取得し、
    提示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得し、前記画像と前記視線データとを対応づけて保存することを特徴とする請求項9に記載の像提示方法。
  11. 請求項10に記載の像提示方法を用いた視線解析方法であって、
    前記画像を目視する前記被験者の第一の前記視線データを取得し、
    前記画像の見た目を変化させて前記被験者に提示し、変化後の前記画像を目視する前記被験者の第二の前記視線データを取得し、
    前記第一の視線データと前記第二の視線データとを対比して表示することを特徴とする視線解析方法。
JP2011191250A 2011-09-02 2011-09-02 像提示装置、像提示方法および視線解析方法 Active JP5689388B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011191250A JP5689388B2 (ja) 2011-09-02 2011-09-02 像提示装置、像提示方法および視線解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011191250A JP5689388B2 (ja) 2011-09-02 2011-09-02 像提示装置、像提示方法および視線解析方法

Publications (2)

Publication Number Publication Date
JP2013054476A true JP2013054476A (ja) 2013-03-21
JP5689388B2 JP5689388B2 (ja) 2015-03-25

Family

ID=48131422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011191250A Active JP5689388B2 (ja) 2011-09-02 2011-09-02 像提示装置、像提示方法および視線解析方法

Country Status (1)

Country Link
JP (1) JP5689388B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109599A (ja) * 2016-12-28 2018-07-12 花王株式会社 感触評価装置
JP2019039890A (ja) * 2017-08-29 2019-03-14 花王株式会社 感触評価装置
US11799925B2 (en) 2020-09-16 2023-10-24 Ricoh Company, Ltd. Communication system, communication terminal, and screen sharing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330688A (ja) * 1999-03-17 2000-11-30 Fuji Xerox Co Ltd 情報受感装置、情報伝達システム、情報受感装置の制御を行なうプログラムが記憶された記憶媒体
WO2007135796A1 (ja) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. コンテンツに対する利用者応答を評価する制御装置
JP2009251952A (ja) * 2008-04-07 2009-10-29 Sanyo Electric Co Ltd 情報処理装置、情報蓄積装置、及び情報処理システム
JP2010238185A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 情報生成装置及び情報生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330688A (ja) * 1999-03-17 2000-11-30 Fuji Xerox Co Ltd 情報受感装置、情報伝達システム、情報受感装置の制御を行なうプログラムが記憶された記憶媒体
WO2007135796A1 (ja) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. コンテンツに対する利用者応答を評価する制御装置
JP2009251952A (ja) * 2008-04-07 2009-10-29 Sanyo Electric Co Ltd 情報処理装置、情報蓄積装置、及び情報処理システム
JP2010238185A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 情報生成装置及び情報生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
渡邊 淳司: "オノマトペの音象徴性を利用した触り心地の定量化", 2011年度人工知能学会全国大会(第25回)論文集 [CD−ROM], JPN6015000690, 3 June 2011 (2011-06-03), pages 1 - 2, ISSN: 0002981772 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109599A (ja) * 2016-12-28 2018-07-12 花王株式会社 感触評価装置
JP2019039890A (ja) * 2017-08-29 2019-03-14 花王株式会社 感触評価装置
US11799925B2 (en) 2020-09-16 2023-10-24 Ricoh Company, Ltd. Communication system, communication terminal, and screen sharing method

Also Published As

Publication number Publication date
JP5689388B2 (ja) 2015-03-25

Similar Documents

Publication Publication Date Title
KR102489677B1 (ko) 시각적 기능의 임상적 파라미터들을 통합적으로 측정하는 시스템
CN107847226B (zh) 视觉认知测定系统、服务器控制方法
Laws et al. Seeing things differently: The viewing time alternative to penile plethysmography
US7775661B2 (en) System and apparatus for object based attention tracking in a virtual environment
CN106714663A (zh) 带眼镜不适减轻的显示器
KR20160041965A (ko) 거울을 가상화하는 디바이스들, 시스템들 및 방법들
CN103648366A (zh) 用于远程测量光学焦点的系统和方法
NZ560457A (en) Image generation system
Lin et al. The effect of parallax on eye fixation parameter in projection-based stereoscopic displays
JP5689388B2 (ja) 像提示装置、像提示方法および視線解析方法
Kluttz et al. The effect of head turn on the perception of gaze
Villegas et al. Realistic training in VR using physical manipulation
Hurley et al. Measuring physiological arousal towards packaging: tracking electrodermal activity within the consumer shopping environment
Chynał et al. Shopping behaviour analysis using eyetracking and EEG
Sidhu et al. What colour should I wear? How clothing colour affects women's judgement of other women's body attractiveness and body size
JP5503432B2 (ja) 美容カウンセリングシステム
Yokoro et al. DecluttAR: An Interactive Visual Clutter Dimming System to Help Focus on Work
Krogmeier et al. Evidence for a relationship between self-avatar fixations and perceived avatar similarity within low-cost virtual reality embodiment
Chu et al. Tracking feature-based attention
Barbieri et al. Realter: An Immersive Simulator to Support Low-Vision Rehabilitation
JP2011092691A (ja) 美容支援装置、美容カウンセリング方法および視線追跡データ取得方法
Booth et al. Gaze3D: Framework for gaze analysis on 3D reconstructed scenes
Apfelbaum et al. Inattentional blindness with the same scene at different scales
Priya et al. Visual flow on eye-activity and application of learning techniques for visual fatigue analysis
Taubert et al. Shaking hands in latent space: modeling emotional interactions with gaussian process latent variable models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150128

R151 Written notification of patent or utility model registration

Ref document number: 5689388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250