JP5689388B2 - Image presenting apparatus, image presenting method, and visual line analyzing method - Google Patents

Image presenting apparatus, image presenting method, and visual line analyzing method Download PDF

Info

Publication number
JP5689388B2
JP5689388B2 JP2011191250A JP2011191250A JP5689388B2 JP 5689388 B2 JP5689388 B2 JP 5689388B2 JP 2011191250 A JP2011191250 A JP 2011191250A JP 2011191250 A JP2011191250 A JP 2011191250A JP 5689388 B2 JP5689388 B2 JP 5689388B2
Authority
JP
Japan
Prior art keywords
image
subject
line
unit
evaluation object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011191250A
Other languages
Japanese (ja)
Other versions
JP2013054476A (en
Inventor
崇 大杉
崇 大杉
栄一郎 美崎
栄一郎 美崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2011191250A priority Critical patent/JP5689388B2/en
Publication of JP2013054476A publication Critical patent/JP2013054476A/en
Application granted granted Critical
Publication of JP5689388B2 publication Critical patent/JP5689388B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、被験者に像を提示する像提示装置および像提示方法、ならびにこの像提示方法を用いた視線解析方法に関する。   The present invention relates to an image presentation device and an image presentation method for presenting an image to a subject, and a visual line analysis method using the image presentation method.

製品やサービスの基本性能がもつ価値を機能価値というのに対し、本質的ではない付加価値を情緒価値という。たとえば化粧品の場合は、化粧品自体の美容促進効果が機能価値にあたり、使い心地の良さから得られる効果感や、製品パッケージやブランドの高級感などが情緒価値にあたる。製品やサービスの購入意欲を喚起するためには、機能価値のみならず情緒価値を増大することが重要である。   The value of the basic performance of a product or service is called the functional value, while the added value that is not essential is called the emotional value. For example, in the case of cosmetics, the beauty promotion effect of the cosmetics itself is the functional value, and the effect obtained from the comfort of use, the luxury of the product package and the brand, etc. are the emotional value. It is important to increase the emotional value as well as the functional value in order to motivate customers to purchase products and services.

評価対象物から受ける高級感・安物感、または好き・嫌いなどの情緒価値を定性的または定量的に評価するにあたっては、実際に購入するであろう対象被験者などによるアンケートが広く行われている。   In order to qualitatively or quantitatively evaluate the emotional value such as luxury, cheapness, likes and dislikes received from an evaluation object, questionnaires by subject subjects who will actually purchase are widely conducted.

特許文献1には、評価対象物のデザイン評価方法が記載されている。この方法は、評価対象物のデザインを表現した映像を画面に出力し、この映像を目視する被験者の脳波を測定して、デザインを評価するものである。この方法は、複数種類の感性(怒り、喜び、悲しみ等)ごとの脳波の分布状態を基準パターンとして予め測定しておき、評価対象物のデザインを目視した被験者から測定した脳波を基準パターンと比較することにより被験者の感性を評価するものである。   Patent Document 1 describes a design evaluation method for an evaluation object. In this method, an image representing the design of an evaluation object is output to a screen, and the brain wave of a subject who views the image is measured to evaluate the design. This method measures the brain wave distribution for each of several types of sensibilities (anger, joy, sadness, etc.) in advance as a reference pattern, and compares the brain wave measured from the subject who visually observed the design of the evaluation object with the reference pattern. By doing so, the sensitivity of the subject is evaluated.

特開2001−273392号公報JP 2001-273392 A

評価対象物である製品の情緒価値には、製品の外観という視覚的な要素のみならず、肌で触れた場合の質感や、手に持ったり身につけたりした場合の重量感などの触覚的な要素も大きく寄与する。したがって、被験者は少なくとも視覚と触覚の両方の因子を考慮して製品の情緒価値を評価することが好ましい。しかしながら、特許文献1の方法は、自動車や衣服等の画像が表示された画面を目視したときの被験者の脳波を測定するものであって触覚を伴わない方法であるため、評価対象物の情緒価値を適切に評価することは難しい。   The emotional value of the product being evaluated is not only the visual element of the appearance of the product, but also the tactile sensation such as the texture when touched by the skin and the weight when held or worn by the hand. Elements also contribute greatly. Therefore, it is preferable that the subject evaluates the emotional value of the product in consideration of at least both visual and tactile factors. However, since the method of Patent Document 1 is a method that measures the brain wave of a subject when viewing a screen on which an image of a car, clothes, or the like is displayed, and does not involve tactile sensation, the emotional value of the evaluation object It is difficult to evaluate properly.

また、消費者モニターが評価対象物を実際に手にとって、また目視してその情緒価値をアンケートする方法の場合には、消費者モニターの顕在意識に基づく回答は得られるものの、潜在意識下でどのような判断が行われたのかを知ることはできない。このため、消費者モニターの回答を製品設計に効率的にフィードバックすることが難しい。たとえば、製品に対して無意識に着目している箇所がどこであるか、またどのような観察プロセスを経て製品の情緒価値の評価に到ったか、などの情報を知ることが製品設計では有効である。しかしながら従来のアンケート方法では、アンケート実施者(分析者)は、これらの情報を十分に抽出することが難しい。   In addition, in the case where the consumer monitor actually takes the object to be evaluated and visually surveys the emotional value, an answer based on the actual awareness of the consumer monitor can be obtained, but under the subconscious It is impossible to know whether such a judgment has been made. For this reason, it is difficult to efficiently feed back consumer monitor responses to product design. For example, it is effective in product design to know information such as where an unconsciously focused part of a product is located and what kind of observation process has led to the evaluation of the emotional value of the product. . However, according to the conventional questionnaire method, it is difficult for a questionnaire practitioner (analyst) to sufficiently extract such information.

なお、評価対象物の情緒価値を評価する場合について上述したが、それに加え、手指や足等を用いた各種動作の感覚を評価する場合にも同様の課題が発生する。すなわち、有体物である評価対象物を被験者が目視観察する場合のみならず、被験者が所与の動作を手や足等の体の部分(動作部位)で行う場合の動作感覚の良否を被験者自身が評価する場合にも、その動作部位への目視(視覚)と肌の触覚に基づいてこれを行うことが好ましい。そして、動作感覚の良否を判断する被験者の潜在意識を分析者が把握することが有効である点も同様である。   In addition, although the case where the emotional value of the evaluation object is evaluated has been described above, the same problem occurs when the sense of various actions using fingers, feet, and the like is evaluated. That is, not only when the subject visually observes the evaluation object that is a tangible object, but also when the subject performs a given motion on a body part (motion part) such as a hand or a foot, Even in the case of evaluation, it is preferable to do this based on the visual (visual) of the moving part and the tactile sensation of the skin. The same is true in that it is effective for the analyst to grasp the subconsciousness of the subject who determines the quality of the motion sensation.

本発明は上述のような課題に鑑みてなされたものであり、視覚と触覚を用いて被験者が製品の情緒価値や動作感覚を評価する様子を分析者が客観的に把握することが可能な方法および装置を提供するものである。   The present invention has been made in view of the above-described problems, and allows an analyst to objectively understand how a subject evaluates the emotional value and motion sensation of a product using vision and touch. And a device.

本発明の像提示装置は、被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する装置であって、前記動作部位を直視する前記被験者の視線を遮る遮蔽部と、前記動作部位または前記評価対象物の像を取得する像取得部と、前記像を前記被験者に提示する像提示部と、を備え、前記像提示部で提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、前記像取得部が更に取得して前記像提示部で提示することを特徴とする。   An image presentation apparatus according to the present invention is an apparatus that presents to a subject an action of a motion part of a subject or an evaluation object handled by the subject at the motion part, and a shielding unit that blocks a line of sight of the subject who directly views the motion part And an image acquisition unit that acquires an image of the motion part or the evaluation object, and an image presentation unit that presents the image to the subject, and the subject presents the image presented by the image presentation unit. The image acquisition unit further acquires and presents the image of the movement part to be operated while visually checking or the image of the evaluation object handled by the movement part while the subject visually observes the image by the image presentation part. It is characterized by that.

また、本発明の像提示方法は、被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する方法であって、前記動作部位を直視する前記被験者の視線を遮った状態で前記動作部位または前記評価対象物の像を取得し、取得した前記像を前記被験者に提示し、提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、更に取得して前記被験者に提示することを特徴とする。   The image presentation method of the present invention is a method of presenting the subject with the motion of the motion part of the subject or the evaluation object handled by the subject at the motion part, and obstructs the gaze of the subject who directly views the motion part. An image of the motion part or the evaluation object in a state of being held, presenting the acquired image to the subject, and allowing the subject to operate while viewing the presented image, or An image of the evaluation object that is handled by the moving part while the subject visually observes the image is further acquired and presented to the subject.

上記発明において、像とは光学系を経た対象物の形象を意味し、静止画像および動画像のほか、レンズまたは鏡を用いて光学的に取得した実像および虚像を含む。すなわち、像を取得するとは、対象物を被写体とする静止画像または動画像を撮像することのほか、レンズや鏡を用いて対象物の実像または虚像を集光することを含む。そして、被験者に像を提示するとは、被験者が目視可能な状態で像を可視化することを意味する。具体的には、静止画像または動画像の場合はこれを表示すること、実像または虚像の場合はこれを結像させることを含む。   In the above invention, an image means a shape of an object that has passed through an optical system, and includes a real image and a virtual image obtained optically using a lens or a mirror in addition to a still image and a moving image. That is, acquiring an image includes collecting a real image or a virtual image of an object using a lens or a mirror, in addition to capturing a still image or a moving image with the object as a subject. And showing an image to a subject means visualizing the image in a state that the subject can see. Specifically, it includes displaying a still image or a moving image, and forming an image of a real image or a virtual image.

上記発明によれば、動作部位を直視する被験者の視線が遮られた状態で、その動作部位の動作または評価対象物が像として当該被験者に提示される。被験者は、これらの像を通じて自らの動作部位を間接的に目視しながら、当該動作部位を動作させたり評価対象物を取り扱ったりすることができる。この動作を通じて、被験者は触覚と視覚の両方を駆使して動作感覚や評価対象物の情緒価値を評価することができる。そして、被験者の当該動作が像提示部で像として表されるため、分析者は、この像を記録したり、または被験者とともにこの像を目視したりすることにより、評価に到るまでの被験者の動作や視線の運び方を客観的に分析することが可能である。   According to the above invention, the motion of the motion part or the evaluation object is presented to the subject as an image in a state where the line of sight of the subject who directly views the motion part is blocked. The subject can operate the motion part or handle the evaluation object while indirectly viewing the motion part through these images. Through this motion, the subject can evaluate both the sense of motion and the emotional value of the object to be evaluated using both tactile sensation and vision. Since the subject's motion is represented as an image in the image presentation unit, the analyst records the image or visually observes the image together with the subject, so that the subject's motion until evaluation is reached. It is possible to objectively analyze the way of movement and line of sight.

本発明によれば、視覚と触覚を用いて被験者が製品の情緒価値や動作感覚を評価する様子を分析者が客観的に把握することが可能な方法および装置が提供される。   ADVANTAGE OF THE INVENTION According to this invention, the method and apparatus which an analyzer can grasp | ascertain objectively how a test subject evaluates the emotional value and motion sense of a product using vision and a tactile sense are provided.

本発明の第一実施形態にかかる像提示装置の構成図である。It is a block diagram of the image presentation apparatus concerning 1st embodiment of this invention. (a)は遮蔽部の正面図であり、(b)は遮蔽部の背面図である。(A) is a front view of a shielding part, (b) is a rear view of a shielding part. (a)は評価対象物の模式図であり、(b)は像提示部の表示画面の模式図である。(A) is a schematic diagram of an evaluation object, (b) is a schematic diagram of the display screen of an image presentation part. 本発明の第二実施形態にかかる像提示装置の構成図である。It is a block diagram of the image presentation apparatus concerning 2nd embodiment of this invention. 視線データを画像と重畳して表示した場合の像提示部の表示画面を示す模式図である。It is a schematic diagram which shows the display screen of the image presentation part at the time of displaying gaze data superimposed on an image. (a)は遮蔽部の第一変形例を示す斜視図であり、(b)は遮蔽部の第二変形例を示す斜視図である。(A) is a perspective view which shows the 1st modification of a shielding part, (b) is a perspective view which shows the 2nd modification of a shielding part. 実施例1の回答結果を示す表である。10 is a table showing the answer results of Example 1. 評価対象物のフック近傍を被験者が注視している状態の視線データを示す図である。It is a figure which shows the eyes | visual_axis data of the state which the test subject is gazing at the hook vicinity of an evaluation target object. 評価対象物の側面近傍を被験者が注視している状態の視線データを示す図である。It is a figure which shows the eyes | visual_axis data of the state which the test subject is gazing at the side surface vicinity of the evaluation target object. 評価対象物のロゴを被験者が注視している状態の視線データを示す図である。It is a figure which shows the gaze data in the state where the test subject is gazing at the logo of the evaluation object.

以下、本発明の実施形態を具体的に説明する。なお、本発明の各種の構成要素は、個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。
また、本発明の像提示方法および視線解析方法は、複数の工程を順番に記載して説明する場合があるが、その記載の順番は複数の工程を実行する順番やタイミングを必ずしも限定するものではない。このため、本発明の方法を実施するときには、複数の工程の順番は内容的に支障のない範囲で変更することができ、また複数の工程の実行タイミングの一部または全部が互いに重複していてもよい。
Hereinafter, embodiments of the present invention will be specifically described. Note that the various components of the present invention do not have to be individually independent, that a plurality of components are formed as one member, and one component is formed of a plurality of members. That a certain component is a part of another component, a part of a certain component overlaps a part of another component, and the like.
In addition, the image presentation method and the line-of-sight analysis method of the present invention may be described by describing a plurality of steps in order, but the description order does not necessarily limit the order or timing of executing the plurality of steps. Absent. For this reason, when carrying out the method of the present invention, the order of the plurality of steps can be changed within a range that does not hinder the contents, and some or all of the execution timings of the plurality of steps overlap each other. Also good.

<第一実施形態>
図1は、本発明の第一実施形態にかかる像提示装置100の構成図である。図2(a)は遮蔽部10の正面図であり、同図(b)は遮蔽部10の背面図である。図3(a)は評価対象物PDの模式図であり、同図(b)は像提示部30の表示画面の模式図である。
<First embodiment>
FIG. 1 is a configuration diagram of an image presentation device 100 according to the first embodiment of the present invention. FIG. 2A is a front view of the shielding unit 10, and FIG. 2B is a rear view of the shielding unit 10. FIG. 3A is a schematic diagram of the evaluation object PD, and FIG. 3B is a schematic diagram of a display screen of the image presentation unit 30.

はじめに、本実施形態の概要について説明する。
像提示装置100は、被験者Sの動作部位である手Hの動作または被験者Sが動作部位(手H)で取り扱う評価対象物PDを被験者Sに提示する装置である。像提示装置100は、遮蔽部10、像取得部20および像提示部30を備えている。
遮蔽部10は、動作部位(手H)を直視する被験者Sの視線を遮る手段である。像取得部20は、被験者Sの動作部位(手H)または評価対象物PDの像を取得する手段である。像提示部30は、像取得部20が取得した像を被験者Sに提示する手段である。
被験者Sは、像提示部30で提示される像を目視しながら、動作部位(手H)を動作させ、また評価対象物PDを取り扱う。そして、本実施形態の像提示装置100は、かかる動作部位(手H)または評価対象物PDの像を像取得部20が更に取得して像提示部30で提示する。
First, an outline of the present embodiment will be described.
The image presentation apparatus 100 is an apparatus that presents to the subject S the motion of the hand H that is the motion part of the subject S or the evaluation object PD that the subject S handles with the motion part (hand H). The image presentation device 100 includes a shielding unit 10, an image acquisition unit 20, and an image presentation unit 30.
The shielding unit 10 is a unit that blocks the line of sight of the subject S who directly looks at the motion part (hand H). The image acquisition unit 20 is a means for acquiring an image of the movement site (hand H) of the subject S or the evaluation object PD. The image presentation unit 30 is a means for presenting the image acquired by the image acquisition unit 20 to the subject S.
The subject S operates the moving part (hand H) while viewing the image presented by the image presentation unit 30, and handles the evaluation object PD. Then, in the image presentation apparatus 100 according to the present embodiment, the image acquisition unit 20 further acquires an image of the motion part (hand H) or the evaluation object PD and presents the image on the image presentation unit 30.

次に、本実施形態について詳細に説明する。
像提示装置100は、評価対象物PDの情緒価値の評価や、動作部位の動作感覚の評価に用いられる評価装置である。動作部位は、手Hのほか、足や腹部などを挙げることができる。以下、動作部位が手Hである場合について説明する。
Next, this embodiment will be described in detail.
The image presentation device 100 is an evaluation device used for evaluating the emotional value of the evaluation object PD and for evaluating the motion sensation of the motion part. In addition to the hand H, the moving part can include a foot and an abdomen. Hereinafter, a case where the operation part is the hand H will be described.

被験者S(図1では目と手Hのみを図示)は遮蔽部10に対向して立位または座位の姿勢をとる。遮蔽部10に臨んだ被験者Sの正面には像提示部30が配置されている。像提示部30では被験者Sの手元部Fが像として提示される。手元部Fは、被験者Sの両手および評価対象物PDを含む、評価対象物PDの近傍領域である。   The subject S (only the eyes and the hand H are shown in FIG. 1) is in a standing or sitting position facing the shielding unit 10. An image presentation unit 30 is disposed in front of the subject S facing the shielding unit 10. In the image presentation unit 30, the hand F of the subject S is presented as an image. The hand portion F is a region near the evaluation object PD including both hands of the subject S and the evaluation object PD.

被験者Sは、像提示部30で提示される像を目視しながら手Hや評価対象物PDを動かす。この評価対象物PDの動きが更に像取得部20で取得されて像提示部30でリアルタイムに提示される。像提示部30を目視する被験者Sは、あたかも自分の手元部Fを直視しているかのように評価対象物PDを視覚的かつ触覚的に捉えて情緒価値を評価することができる。また、有体物である評価対象物PDのみならず、手Hの動作感覚の評価の場合も同様に、像提示部30で被験者Sの手元部Fの像が提示される。この像を被験者S自身が目視しながら手Hを動かすことにより、手元部Fを直視しながら手Hを動作させている感覚の下で、手指が触れる触覚を感じながら被験者Sは動作を行うことができる。   The subject S moves the hand H and the evaluation object PD while viewing the image presented by the image presentation unit 30. The movement of the evaluation object PD is further acquired by the image acquisition unit 20 and presented in real time by the image presentation unit 30. The subject S viewing the image presentation unit 30 can evaluate the emotional value by visually and tactilely grasping the evaluation object PD as if he / she was directly looking at his / her hand F. Further, not only the evaluation object PD that is a tangible object but also the evaluation of the motion sensation of the hand H, the image of the hand portion F of the subject S is presented by the image presentation unit 30 in the same manner. By moving the hand H while the subject S observes this image, the subject S moves while feeling the tactile sensation touched by the fingers under the sensation of operating the hand H while looking directly at the hand F. Can do.

そして、視覚的かつ触覚的に評価対象物PDの情緒価値や手Hの動作感覚を評価している間の被験者Sの手元部Fの動きが像提示部30で像として常に提示される。被験者Sによる評価結果を解析する分析者は、この像を目視したり、画像として記録したり、また後述するように被験者Sの視線方向に関する視線データを取得したりすることで、被験者Sの動作や視線の運び方を客観的に分析することができる。   Then, the movement of the hand portion F of the subject S during the evaluation of the emotional value of the evaluation object PD and the motion sensation of the hand H visually and tactilely is always presented as an image by the image presentation unit 30. The analyst who analyzes the evaluation result of the subject S visually observes the image, records it as an image, and acquires the line-of-sight data related to the direction of the line of sight of the subject S, as will be described later. And how to carry the line of sight objectively.

評価対象物PDとしては、化粧品の容器等の日用品や装飾品、衣服、靴、その他の工業製品が挙げられる。このほか、食品や小動物などの動植物でもよい。評価対象物PDは、被験者Sが手にとってその質感を感じることができる程度の寸法である。特に、評価対象物PDとして、ファンデーションのコンパクトケースなどの化粧品の容器を好適に挙げることができる。化粧品の容器は消費者個々の趣味趣向の影響を強く受け、また他人の前でも使用される製品であるため見た目の高級感等の情緒価値が高い製品である。   Examples of the evaluation object PD include daily necessities such as cosmetic containers, decorations, clothes, shoes, and other industrial products. In addition, animals and plants such as food and small animals may be used. The evaluation object PD has a dimension that allows the subject S to feel the texture of the hand. In particular, as the evaluation object PD, a cosmetic container such as a compact case of a foundation can be preferably cited. Cosmetic containers are strongly influenced by the tastes and preferences of individual consumers, and are products that are used even in front of others, so they have high emotional value such as a high-quality appearance.

動作感覚を評価する手の動作としては、有体物を用いて行う手の動作でもよく、または手指のみで行う動作でもよい。一例としては、ユニバーサルデザイン(UD)が施された製品の操作や使用、容器等のその他の製品の開閉または駆動操作、シャンプー等の液体を手にとって引き延ばしたり泡立てたりする動作、モーションセンサーで手指の動きを画像認識させて行うデバイスへの入力操作、などが挙げられる。   The hand motion for evaluating the motion sensation may be a hand motion using a tangible object, or a motion performed only with fingers. Examples include the operation and use of products with universal design (UD), the opening and closing or driving operations of other products such as containers, the action of stretching or foaming liquids such as shampoo, For example, an input operation to a device that recognizes a motion as an image is performed.

以下、本実施形態では、化粧品の容器である評価対象物PDの情緒価値を視覚的および触覚的に評価する場合を例示して説明する。   Hereinafter, in the present embodiment, a case where the emotional value of the evaluation object PD, which is a cosmetic container, is visually and tactively evaluated will be described as an example.

遮蔽部10は、被験者Sが手Hで把持している評価対象物PDの少なくとも一部を被験者Sの目から掩蔽する手段である。図2(a)、(b)に示すように、本実施形態の遮蔽部10は、半透明または不透明の容器である。遮蔽部10には、被験者Sの動作部位(手H)を差し込む一対の差込口12が、遮蔽部10の奥行方向に延びる中心線C(直線)の両側に設けられている。   The shielding unit 10 is means for obscuring at least part of the evaluation object PD held by the subject S with the hand H from the eyes of the subject S. As shown in FIGS. 2A and 2B, the shielding unit 10 of the present embodiment is a translucent or opaque container. In the shielding part 10, a pair of insertion ports 12 into which the movement part (hand H) of the subject S is inserted are provided on both sides of a center line C (straight line) extending in the depth direction of the shielding part 10.

評価対象物PDは、遮蔽部10を通じて被験者Sが完全に視認不可能であってもよく、または評価対象物PDのシルエットが確認可能であってもよい。すなわち、遮蔽部10は、被験者Sが手元の評価対象物PDを直視して観察することが十分に妨げられる程度に評価対象物PDを被験者Sから掩蔽する。被験者Sと手Hとの間に位置する天板11は、半透明または不透明の材料からなる無孔または多孔の板材である。   The evaluation object PD may be completely invisible to the subject S through the shielding unit 10, or the silhouette of the evaluation object PD may be confirmed. That is, the shielding unit 10 covers the evaluation object PD from the subject S to such an extent that the subject S is sufficiently prevented from directly viewing and observing the evaluation object PD at hand. The top plate 11 positioned between the subject S and the hand H is a non-porous or porous plate made of a translucent or opaque material.

図2に示す本実施形態の遮蔽部10は、全体が半透明材料からなる略直方体状の箱形をなしている。ただし、本実施形態の変形例として後述するように、遮蔽部10の形状は箱形に限られず、ドーム状などの湾曲面状でもよい。   The shielding part 10 of this embodiment shown in FIG. 2 has comprised the substantially rectangular parallelepiped box shape which consists of a semi-transparent material as a whole. However, as will be described later as a modification of the present embodiment, the shape of the shielding portion 10 is not limited to a box shape, and may be a curved surface shape such as a dome shape.

本実施形態の遮蔽部10は、天板11、前面板13、一対の対向する側板14および底板15を備えている。遮蔽部10の背面側(図2(b)の手前側)には開口16が設けられている。評価対象物PDは、開口16を通じて遮蔽部10の内部に出し入れ可能である。   The shielding unit 10 of the present embodiment includes a top plate 11, a front plate 13, a pair of opposing side plates 14 and a bottom plate 15. An opening 16 is provided on the back side of the shielding unit 10 (the front side in FIG. 2B). The evaluation object PD can be taken in and out of the shielding part 10 through the opening 16.

差込口12は、一対の側板14にそれぞれ形成されている貫通孔または切欠である。差込口12の形状は特に限定されない。本実施形態の差込口12は矩形孔である。差込口12には、迷光防止用の柔軟な膜状の閉止片17が設けられている。   The insertion port 12 is a through hole or a notch formed in each of the pair of side plates 14. The shape of the insertion port 12 is not particularly limited. The insertion port 12 of this embodiment is a rectangular hole. The insertion port 12 is provided with a flexible film-like closing piece 17 for preventing stray light.

本実施形態の遮蔽部10は半透明材料からなるため、外光が拡散して遮蔽部10の内部に入光する。このため、遮蔽部10の内部に光源を配設することなく、遮蔽部10の内部に室内光または自然光を導入することができる。一方、遮蔽部10を不透明材料で作成する場合には、遮蔽部10の内部に光源(図示せず)を配置するとよい。これにより、像取得部20は自然な明るさで手元部Fの像を取得することができる。   Since the shielding part 10 of the present embodiment is made of a translucent material, external light diffuses and enters the shielding part 10. For this reason, indoor light or natural light can be introduced into the inside of the shielding part 10 without arranging a light source inside the shielding part 10. On the other hand, when the shielding part 10 is made of an opaque material, a light source (not shown) may be arranged inside the shielding part 10. Thereby, the image acquisition part 20 can acquire the image of the hand part F with natural brightness.

像取得部20は、被験者Sの評価対象物PDの少なくとも一部を含む手元部Fの像を取得する。像取得部20としては、デジタル(スチル)カメラ、デジタルもしくはアナログのビデオカメラ、一枚もしくは複数枚の鏡、または光ファイバー等の導光体とレンズとを含む集光装置、が例示される。上記に例示される像取得部20が取得する手元部Fの像は、それぞれ手元部Fの静止画像、動画像、虚像、または実像である。像取得部20としてビデオカメラを用いる場合、動画像のフレーム数を60FPS以上とすることが好ましい。   The image acquisition unit 20 acquires an image of the hand portion F including at least a part of the evaluation object PD of the subject S. Examples of the image acquisition unit 20 include a digital (still) camera, a digital or analog video camera, one or a plurality of mirrors, or a light collecting device including a light guide and a lens such as an optical fiber. The image of the hand portion F acquired by the image acquisition unit 20 exemplified above is a still image, a moving image, a virtual image, or a real image of the hand portion F. When a video camera is used as the image acquisition unit 20, the number of moving image frames is preferably 60 FPS or more.

像提示部30は、これらの像を任意で加工して被験者Sに提示する手段である。像取得部20がデジタルスチルカメラまたはデジタルビデオカメラである場合、像提示部30としてディスプレイ装置(画像表示装置)を用いることができる。像取得部20が鏡である場合には、像提示部30として、像取得部20(鏡)と対向配置された合わせ鏡を用いることができる。また、像取得部20が集光装置である場合には、像提示部30としてスクリーン装置を用いることができる。   The image presentation unit 30 is a means for arbitrarily processing these images and presenting them to the subject S. When the image acquisition unit 20 is a digital still camera or a digital video camera, a display device (image display device) can be used as the image presentation unit 30. When the image acquisition unit 20 is a mirror, a matching mirror disposed to face the image acquisition unit 20 (mirror) can be used as the image presentation unit 30. Further, when the image acquisition unit 20 is a light collecting device, a screen device can be used as the image presentation unit 30.

以下、像取得部20がデジタルビデオカメラ、より具体的には、ネットワークインターフェイスを有するリアルタイムカメラであるWebカメラを用いて、被験者Sの手元部Fの動画像を取得する場合を例示して本実施形態を説明する。   Hereinafter, the present embodiment exemplifies a case where the image acquisition unit 20 acquires a moving image of the hand portion F of the subject S using a digital video camera, more specifically, a Web camera that is a real-time camera having a network interface. A form is demonstrated.

すなわち、本実施形態の像取得部20は、被験者Sの動作部位(手H)を含む手元部Fの画像IMを動画像として撮像するカメラ(Webカメラ)である。そして像提示部30は、画像IMを動画表示するディスプレイ装置である。本実施形態の像提示装置100は、像取得部20が撮像した動画像を像提示部30で表示出力するための制御を行う表示制御部40を備えている。本実施形態の像提示装置100において、Webカメラは遮蔽部10の内部に配置されている。Webカメラの視野範囲は、被験者Sが手Hで把持した評価対象物PDの全体を包含する位置および大きさに設定されている。   That is, the image acquisition unit 20 of the present embodiment is a camera (Web camera) that captures the image IM of the hand portion F including the motion part (hand H) of the subject S as a moving image. The image presentation unit 30 is a display device that displays the image IM as a moving image. The image presentation apparatus 100 according to the present embodiment includes a display control unit 40 that performs control to display and output a moving image captured by the image acquisition unit 20 on the image presentation unit 30. In the image presentation apparatus 100 according to the present embodiment, the Web camera is disposed inside the shielding unit 10. The visual field range of the Web camera is set to a position and size including the entire evaluation object PD held by the subject S with the hand H.

像取得部20と表示制御部40、および表示制御部40と像提示部30は配線70で互いに接続されている。像取得部20は、所定のフレームレートで被験者Sの手元部Fの多数の静止画像を撮像して動画像(画像IM)を取得する。フレームレートは、たとえば60fps(Frames Per Second)である。   The image acquisition unit 20 and the display control unit 40, and the display control unit 40 and the image presentation unit 30 are connected to each other by a wiring 70. The image acquisition unit 20 captures a number of still images of the hand portion F of the subject S at a predetermined frame rate and acquires a moving image (image IM). The frame rate is, for example, 60 fps (Frames Per Second).

本実施形態の像提示装置100は、像取得部20が撮像した画像IMの見た目を変化させる画像処理を行う画像処理部44を更に備えている。像提示部30は、画像処理部44で画像処理された画像IM1を表示する。   The image presentation apparatus 100 according to the present embodiment further includes an image processing unit 44 that performs image processing for changing the appearance of the image IM captured by the image acquisition unit 20. The image presentation unit 30 displays the image IM1 that has been subjected to image processing by the image processing unit 44.

具体的な画像処理としては、グレースケール処理または白黒化処理を含む彩度低減処理、低コントラスト処理を含む輝度低減処理、または、ぼかし処理のいずれか一以上が挙げられる。動画像を構成する上記フレームレートの静止画像のそれぞれに対して画像処理を施すことにより、当該動画像全体の彩度低減・輝度低減・ぼかし等の処理が行われて画像IM1が生成される。   Specific image processing includes one or more of saturation reduction processing including gray scale processing or black and white processing, luminance reduction processing including low contrast processing, and blurring processing. By performing image processing on each of the frame rate still images constituting the moving image, processing such as saturation reduction, luminance reduction, and blurring of the entire moving image is performed, and the image IM1 is generated.

像取得部20による動画像の撮影処理時間、画像処理部44による画像処理時間、表示制御部40および像提示部30による表示処理時間、および配線70を通じた画像IM、IM1の伝送時間の合計は、被験者Sが容易に知覚可能な遅れ時間(たとえば1/60秒)以下である。被験者Sは、像提示部30を目視しながら、手Hで評価対象物PDを回転させたり、被験者Sに対して評価対象物PDを接近または離間移動させたりする動作(以下、ハンドリング)を行って、評価対象物PDを視覚的に確認する。このとき、かかる手元部Fの動作が像提示部30で表示されるまでの遅延時間は上記のように僅かであるため、当該動作が実質的にリアルタイムで像提示部30に表示される。よって、被験者Sは、評価対象物PDをハンドリングして触覚的にその質量や表面の質感を知得しながら、かつ自身の手元部Fを直視しているかのようにリアルタイムで、像提示部30を通じて評価対象物PDの状態を視覚的に確認することができる。すなわち、本実施形態によれば、評価対象物PDの目視と触診が可能である。   The sum of the moving image shooting processing time by the image acquisition unit 20, the image processing time by the image processing unit 44, the display processing time by the display control unit 40 and the image presentation unit 30, and the transmission time of the images IM and IM1 through the wiring 70 is as follows. The delay time (for example, 1/60 seconds) that can be easily perceived by the subject S is less than or equal to. The subject S performs an operation (hereinafter, handling) of rotating the evaluation object PD with the hand H or moving the evaluation object PD toward or away from the subject S while viewing the image presentation unit 30. Then, the evaluation object PD is visually confirmed. At this time, since the delay time until the operation of the hand portion F is displayed on the image presentation unit 30 is short as described above, the operation is displayed on the image presentation unit 30 in substantially real time. Therefore, the subject S handles the evaluation object PD and knows its mass and the texture of the surface tactilely, and in real time as if he is directly looking at his / her hand F, in real time. Through this, the state of the evaluation object PD can be visually confirmed. That is, according to the present embodiment, the evaluation object PD can be visually observed and palpated.

さらに本実施形態によれば、像取得部20で取得した画像IMに対して画像処理部44で所定の画像処理を施してなる画像IM1が像提示部30で表示出力される。   Furthermore, according to the present embodiment, the image presentation unit 30 displays and outputs an image IM1 obtained by performing predetermined image processing on the image IM acquired by the image acquisition unit 20 by the image processing unit 44.

ここで、彩度低減処理を施した画像IM1を表示することにより、白内障または色覚障害の人の見え方を摸擬することができる。このため、正常色覚をもつ被験者Sであっても、色覚障害者等の見え方に基づいて評価対象物PDを評価することができる。すなわち、本方法によれば、色覚障害者等の見え方を考慮して、評価対象物PDのユニバーサルデザイン性を評価したり、または色覚障害者等にも容易に視認できる手の動作方法を提案したりすることが可能である。
また、本方法によれば、評価対象物PDから色因子を捨象したものを目視することができる。このため、評価対象物PDの色に影響されることなく、その模様や形状の情報に基づいて評価対象物PDの高級感や好みなどを評価することができる。同様に、輝度低減処理を施した画像IM1を表示することで、評価対象物PDから表面の光沢を捨象して評価をすることができる。また、ぼかし処理を施した画像IM1を表示することで、評価対象物PDから表面の質感や精細な模様を捨象して、その評価をすることができる。
Here, by displaying the image IM1 subjected to the saturation reduction process, it is possible to simulate the appearance of a person with cataract or color blindness. For this reason, even if it is the test subject S with normal color vision, evaluation object PD can be evaluated based on how a color blind person etc. look. That is, according to this method, considering the appearance of persons with color blindness, etc., the universal design of the evaluation object PD is evaluated, or a hand movement method that can be easily visually recognized by persons with color blindness is proposed. It is possible to do.
Moreover, according to this method, the thing which discarded the color factor from the evaluation target object PD can be visually observed. For this reason, it is possible to evaluate the quality and taste of the evaluation object PD based on the pattern and shape information without being influenced by the color of the evaluation object PD. Similarly, by displaying the image IM1 subjected to the luminance reduction process, it is possible to evaluate the surface object from the evaluation object PD by removing the surface gloss. Further, by displaying the image IM1 subjected to the blurring process, it is possible to evaluate the surface texture and fine pattern from the evaluation object PD and to evaluate it.

このほか、フルカラー画像の画像IMにおける赤色、緑色または青色のいずれか1色の輝度を低減する画像処理を行ってもよい。これにより、赤色の光を感じるL錐体が弱いP型色覚、緑色の光を感じるM錐体が弱いD型色覚、青色の光を感じるS錐体が弱いT型色覚の見え方をそれぞれ摸擬することができる。   In addition, image processing for reducing the luminance of any one of red, green, and blue in the image IM of a full-color image may be performed. As a result, the L-cone that feels red light has a weak P-type color vision, the M-cone that feels green light has a weak D-type color sense, and the S-cone that feels blue light has a weak T-type color sense. Can be imitated.

図3(a)は、評価対象物PDの模式図である。この評価対象物PDは、天蓋部T、基台部Bおよび容器部CAを備えている。天蓋部Tおよび基台部Bには色彩および微細な模様が施されている。図3(b)は、像提示部30の表示画面の模式図である。像提示部30には、被験者Sの手H(破線で図示)、および手Hで把持されている評価対象物PDが、画像IM1として表示されている。説明のため、手Hを評価対象物PDから離間して図示してある。   FIG. 3A is a schematic diagram of the evaluation object PD. The evaluation object PD includes a canopy T, a base B, and a container CA. The canopy T and the base B are provided with colors and fine patterns. FIG. 3B is a schematic diagram of the display screen of the image presentation unit 30. In the image presentation unit 30, the hand H (illustrated by a broken line) of the subject S and the evaluation object PD held by the hand H are displayed as an image IM1. For the sake of explanation, the hand H is illustrated separately from the evaluation object PD.

本実施形態では、像取得部20が手元部Fのフルカラーの動画像を画像IMとして撮像する。画像処理部44は、画像IMに彩度低減処理およびぼかし処理を施して画像IM1に変換する。ぼかし処理は、たとえば隣接する複数画素の混合処理によって行うことができる。評価対象物PDの外郭線が識別可能であって、かつ評価対象物PDの表面の微細な模様が視認困難な程度にぼやけるよう、混合する画素数を選定するとよい。
これらの画像処理を施すことにより、図3(b)に示す画像IM1では、天蓋部Tおよび基台部Bの色彩が無彩色(グレースケール)となり、また微細な模様がぼかされて無地と認識される。これにより、色因子および模様因子を捨象した状態の評価対象物PDを被験者Sは像提示部30で目視することができる。このため、評価対象物PDの形状因子と触感とに基づいて評価対象物PDの情緒価値が被験者Sに評価されることとなる。
In the present embodiment, the image acquisition unit 20 captures a full-color moving image of the hand portion F as the image IM. The image processing unit 44 performs saturation reduction processing and blurring processing on the image IM and converts the image IM1. The blurring process can be performed, for example, by mixing adjacent pixels. The number of pixels to be mixed may be selected so that the outline of the evaluation object PD can be identified and the fine pattern on the surface of the evaluation object PD is blurred to the extent that it is difficult to visually recognize.
By performing these image processes, in the image IM1 shown in FIG. 3B, the colors of the canopy T and the base B become achromatic (grayscale), and the fine pattern is blurred and is plain. Be recognized. Accordingly, the subject S can visually check the evaluation object PD in a state where the color factor and the pattern factor are discarded with the image presentation unit 30. For this reason, the emotional value of the evaluation object PD is evaluated by the subject S based on the shape factor and tactile sensation of the evaluation object PD.

ここで、像提示部30は、被験者Sが動作部位(手H)を直視したときの手Hまたは評価対象物PDの視野角(以下、直接視野角)と、ディスプレイ装置(像提示部30)に表示された画像IM1における動作部位(手H)または評価対象物PDの視野角(以下、間接視野角)とが同等となるように画像IM1を表示する。ここでいう間接視野角は、遮蔽部10に臨んだ被験者Sが像提示部30を目視したときの視野角である。   Here, the image presentation unit 30 includes a viewing angle (hereinafter referred to as a direct viewing angle) of the hand H or the evaluation object PD when the subject S directly views the motion part (hand H), and a display device (image presentation unit 30). The image IM1 is displayed so that the motion part (hand H) or the viewing angle (hereinafter referred to as an indirect viewing angle) of the evaluation object PD in the image IM1 displayed in FIG. Here, the indirect viewing angle is a viewing angle when the subject S facing the shielding unit 10 views the image presentation unit 30.

具体的には、像取得部20は、1未満の撮影倍率で評価対象物PDを撮影する。そして、表示制御部40は、像取得部20から手元部Fまでの焦点距離FL、被験者Sの目から手元部Fまでの距離D1、および被験者Sの目から像提示部30までの距離D2に基づいて、像提示部30で表示される評価対象物PDの間接視野角が直接視野角と同等になるように画像IM1の表示倍率を調整する。これにより、被験者Sがディスプレイ装置(像提示部30)を目視したときに、手元部Fを直視している場合と同等のサイズで手Hや評価対象物PDを視認することができる。被験者Sの目から手元部Fまでの距離D1を像取得部20(Webカメラ)の焦点距離FLのN倍とすると、Webカメラは1/N倍の撮影倍率で画像IMを撮像する。本実施形態では、Webカメラが遮蔽部10の内部に配置されており、Webカメラから手元部Fまでの距離(=焦点距離FL)は被験者Sの目から手元部Fまでの距離D1よりも短い。言い換えると、Nは1よりも大きく、したがって撮影倍率(1/N)は1未満に設定されている。このため、被験者Sが評価対象物PDをWebカメラに対して近接させた場合に、像提示部30で表示される評価対象物PDの画像IM1が急拡大することがなく、被験者Sが手元部Fを直視した場合の見た目の寸法変化に相当する僅かな倍率で画像IM1は拡大される。被験者Sが評価対象物PDをWebカメラに対して離間させた場合も同様である。このため被験者Sは、あたかも手元部Fを直視しているかのような自然な感覚で、像提示部30に表示される画像IM1を目視しながら評価対象物PDをハンドリングすることができる。   Specifically, the image acquisition unit 20 images the evaluation object PD with an imaging magnification of less than 1. Then, the display control unit 40 has a focal length FL from the image acquisition unit 20 to the hand part F, a distance D1 from the eye of the subject S to the hand part F, and a distance D2 from the eye of the subject S to the image presentation part 30. Based on this, the display magnification of the image IM1 is adjusted so that the indirect viewing angle of the evaluation object PD displayed by the image presentation unit 30 is equal to the direct viewing angle. Thereby, when the test subject S views the display device (image presentation unit 30), the hand H and the evaluation object PD can be visually recognized with the same size as when the hand portion F is directly viewed. If the distance D1 from the eye of the subject S to the hand portion F is N times the focal length FL of the image acquisition unit 20 (Web camera), the Web camera captures the image IM at a shooting magnification of 1 / N times. In the present embodiment, the web camera is disposed inside the shielding unit 10, and the distance from the web camera to the hand portion F (= focal length FL) is shorter than the distance D1 from the eye of the subject S to the hand portion F. . In other words, N is larger than 1, and therefore the photographing magnification (1 / N) is set to be less than 1. For this reason, when the subject S brings the evaluation object PD close to the web camera, the image IM1 of the evaluation object PD displayed on the image presentation unit 30 does not rapidly expand, and the subject S has the hand part. The image IM1 is enlarged at a slight magnification corresponding to a change in the apparent size when F is viewed directly. The same applies when the subject S moves the evaluation object PD away from the Web camera. Therefore, the subject S can handle the evaluation object PD while viewing the image IM1 displayed on the image presentation unit 30 with a natural feeling as if he / she is directly looking at the hand portion F.

像提示装置100は、画像IMの画像データを保存する蓄積部50を更に備えている。蓄積部50はデータ記憶装置である。表示制御部40は、像取得部20が取得した画像IMの画像データと、画像処理部44による画像処理後の画像IM1の画像データと、を蓄積部50に記録する。   The image presentation device 100 further includes an accumulation unit 50 that stores image data of the image IM. The storage unit 50 is a data storage device. The display control unit 40 records the image data of the image IM acquired by the image acquisition unit 20 and the image data of the image IM1 after the image processing by the image processing unit 44 in the storage unit 50.

以上、本実施形態の像提示装置100によれば、被験者Sの動作部位(手H)の動作または被験者Sが動作部位(手H)で取り扱う評価対象物PDを被験者Sに提示する像提示方法が実現される。
この像提示方法では、動作部位(手H)を直視する被験者Sの視線を遮った状態で、この手Hまたは評価対象物PD(手元部F)の像(画像IM)を取得し、取得した画像IMを任意で画像IM1へと画像処理して被験者Sに提示する。被験者Sは、提示される像を目視しながら動作部位(手H)を動作させるか、または動作部位(手H)で評価対象物PDを取り扱う。この像提示方法では、これらの画像IMを更に取得して被験者Sに提示する。
As described above, according to the image presentation apparatus 100 of the present embodiment, the image presentation method for presenting the subject S with the motion of the motion part (hand H) of the subject S or the evaluation object PD handled by the subject S with the motion part (hand H). Is realized.
In this image presenting method, an image (image IM) of the hand H or the evaluation object PD (hand portion F) is acquired and acquired in a state where the line of sight of the subject S who directly views the motion part (hand H) is blocked. The image IM is optionally processed into an image IM1 and presented to the subject S. The subject S operates the moving part (hand H) while viewing the presented image, or handles the evaluation object PD with the moving part (hand H). In this image presentation method, these images IM are further acquired and presented to the subject S.

これにより、被験者Sの手元部Fの動作が画像IM1として像提示部30に表示される。このため、被験者Sは手元部Fを直視しながら手Hを動作させている感覚の下で、視覚的および触覚的に評価対象物PDを評価することができる。そして分析者は、この画像IM1を目視または記録することにより、評価に到るまでの被験者Sの動作を客観的に把握することができる。   Thereby, operation | movement of the test subject's S hand part F is displayed on the image presentation part 30 as image IM1. Therefore, the subject S can visually and tactically evaluate the evaluation object PD under the sensation of moving the hand H while looking directly at the hand F. The analyst can objectively grasp the movement of the subject S until the evaluation is reached by visually observing or recording the image IM1.

なお本実施形態については種々の変形を許容する。
本実施形態では、フルカラー画像として取得した画像IMを画像処理部44で画像処理する場合を例示的に説明したが、本発明はこれに限られない。像取得部20で画像IMを取得する段階で、手元部Fの色情報の一部を加工または削除してもよい。具体的には、像取得部20としてモノクロカメラを用いてもよい。また、像取得部20としてフルカラーのWebカメラを用いる場合において、色弱模擬フィルタなどの光学フィルタを介して評価対象物PDを撮像してもよい。色弱模擬フィルタを通じて評価対象物PDを撮像することにより、P型色覚やD型色覚等の見え方を摸擬した画像IMを像取得部20で取得することができる。
Various modifications are allowed for this embodiment.
In the present embodiment, the case where the image processing unit 44 performs image processing on the image IM acquired as a full-color image has been exemplarily described, but the present invention is not limited to this. At the stage where the image IM is acquired by the image acquisition unit 20, a part of the color information of the hand portion F may be processed or deleted. Specifically, a monochrome camera may be used as the image acquisition unit 20. When a full-color Web camera is used as the image acquisition unit 20, the evaluation object PD may be imaged through an optical filter such as a color weakness simulation filter. By imaging the evaluation object PD through the color weakness simulation filter, the image acquisition unit 20 can acquire an image IM that simulates the appearance of P-type color vision, D-type color vision, and the like.

また、上記実施形態では像取得部20で手元部Fの画像IMを取得する場合を例示した。本発明はこれに限られず、上記のように像取得部20および像提示部30として合わせ鏡を用いてもよい。具体的には、第一の鏡である像取得部20で手元部Fの虚像(鏡像)を取得し、第二の鏡である像提示部30でこの虚像を実像に加工(反転)して表示するとよい。このとき、手元部Fから像提示部30(第二の鏡)に到る光路中に光学フィルタを配置してもよい。かかる光学フィルタは、上記の色弱模擬フィルタのほか、グレースケールフィルタを用いてもよい。グレースケールフィルタは、380乃至440nmの波長範囲(青色)、500乃至550nmの波長範囲(緑色)および560乃至620nmの波長範囲(赤色)にそれぞれ吸収極大を持つ光学フィルタである。このように、手元部Fの像を画像IMとして取得せずとも、評価対象物PDの色因子を捨象した像に加工して被験者Sに提示することができる。   Moreover, in the said embodiment, the case where the image IM of the hand part F was acquired with the image acquisition part 20 was illustrated. The present invention is not limited to this, and a mirror may be used as the image acquisition unit 20 and the image presentation unit 30 as described above. Specifically, a virtual image (mirror image) of the hand portion F is acquired by the image acquisition unit 20 that is the first mirror, and this virtual image is processed (reversed) into a real image by the image presentation unit 30 that is the second mirror. It is good to display. At this time, you may arrange | position an optical filter in the optical path from the hand part F to the image presentation part 30 (2nd mirror). As such an optical filter, a gray scale filter may be used in addition to the color weakness simulation filter. The gray scale filter is an optical filter having absorption maximums in a wavelength range of 380 to 440 nm (blue), a wavelength range of 500 to 550 nm (green), and a wavelength range of 560 to 620 nm (red). Thus, without acquiring the image of the hand portion F as the image IM, it can be processed into an image in which the color factor of the evaluation object PD is discarded and presented to the subject S.

<第二実施形態>
図4は、本発明の第二実施形態にかかる像提示装置100の構成図である。本実施形態の像提示装置100は、視線取得部60を備えている点を除き第一実施形態と同一の構成を備える。第一実施形態と重複する説明は省略する。
<Second embodiment>
FIG. 4 is a configuration diagram of the image presentation device 100 according to the second embodiment of the present invention. The image presentation apparatus 100 according to the present embodiment has the same configuration as that of the first embodiment except that the line-of-sight acquisition unit 60 is provided. The description which overlaps with 1st embodiment is abbreviate | omitted.

視線取得部60は、像提示部30で表示される画像IM1を目視する被験者Sの視線方向LOVに関する視線データVPを経時的に取得する手段である。本実施形態の蓄積部50は、画像IM1と視線データVPとを対応づけて保存する。   The line-of-sight acquisition unit 60 is a unit that acquires the line-of-sight data VP related to the line-of-sight direction LOV of the subject S who views the image IM1 displayed by the image presentation unit 30 over time. The storage unit 50 of the present embodiment stores the image IM1 and the line-of-sight data VP in association with each other.

すなわち、本実施形態では、動作部位(手H)を含む手元部Fの像を画像IMとして取得し、画像IMを任意で画像IM1に画像処理して被験者Sに提示する。そして、提示される画像IM1を目視する被験者Sの視線方向LOVに関する視線データVPを経時的に取得し、画像IM1と視線データVPとを対応づけて保存する。   That is, in the present embodiment, an image of the hand portion F including the motion part (hand H) is acquired as the image IM, and the image IM is optionally processed into the image IM1 and presented to the subject S. Then, the line-of-sight data VP related to the line-of-sight direction LOV of the subject S viewing the presented image IM1 is acquired over time, and the image IM1 and the line-of-sight data VP are stored in association with each other.

図5は、視線データVPを画像IM1と重畳して表示した場合の像提示部30の表示画面を示す模式図である。視線データVPは、被験者Sの視線方向LOVの集中度合いを示す等高線データである。視線データVPは、視線方向LOVが集中している領域(図5では評価対象物PDのコーナー部)が濃色となるように表示されている。   FIG. 5 is a schematic diagram showing a display screen of the image presentation unit 30 when the line-of-sight data VP is displayed superimposed on the image IM1. The line-of-sight data VP is contour line data indicating the degree of concentration of the subject S in the line-of-sight direction LOV. The line-of-sight data VP is displayed such that the region where the line-of-sight direction LOV is concentrated (the corner portion of the evaluation object PD in FIG. 5) is dark.

視線取得部60は、眼球画像を取得する撮像手段、いわゆるアイカメラである。視線取得部60は、被験者Sの眼球を画像認識することにより、被験者Sの視線方向LOVを示す視線データVPを、時刻情報と対応づけて取得する。同期部42は、視線取得部60が取得した視線データVPと、画像処理部44で画像処理された画像IM1とを、時刻情報を用いて同期させる。より具体的には、同期部42は、視線データVPと画像IM1の時刻および座標系を互いに一致させる。同期した視線データVPおよび画像IM1は蓄積部50に記録される。   The line-of-sight acquisition unit 60 is an imaging unit that acquires an eyeball image, a so-called eye camera. The line-of-sight acquisition unit 60 recognizes the eyeball of the subject S and acquires the line-of-sight data VP indicating the line-of-sight direction LOV of the subject S in association with the time information. The synchronization unit 42 synchronizes the line-of-sight data VP acquired by the line-of-sight acquisition unit 60 and the image IM1 image-processed by the image processing unit 44 using time information. More specifically, the synchronization unit 42 matches the time and coordinate system of the line-of-sight data VP and the image IM1. The synchronized line-of-sight data VP and image IM1 are recorded in the storage unit 50.

視線取得部60(アイカメラ)により被験者Sの視線を追跡し、これを画像IM1の画像データと対応づけて保存しておくことにより、評価対象物PDにおいて被験者Sが注視した部位を客観的に事後分析することができる。   The line of sight of the subject S is tracked by the line-of-sight acquisition unit 60 (eye camera), and this is stored in association with the image data of the image IM1, thereby objectively identifying the site of the subject S in the evaluation object PD. Can be analyzed after the fact.

また、本実施形態のように手元部Fの像を取得し、かつ、その像を目視する被験者Sの視線データVPを取得することにより、被験者Sが手Hや評価対象物PDを目に近づけようとする動作をも記録として残すことができる。アイカメラは被験者Sの視線方向のみをデータ取得するものであって、被験者Sが評価対象物PDを引き寄せて凝視しようとしているか、または評価対象物PDを遠ざけて全体観察しているか、を把握することはできない。これに対し本実施形態によれば、手元部Fの像を通じて評価対象物PDの接近または離間の動作を記録することができるため、これと視線データVPとを合わせることで評価対象物PDのハンドリング動作および被験者Sの視線移動の全容を記録することができる。   Further, by acquiring an image of the hand portion F and acquiring the line-of-sight data VP of the subject S who views the image as in the present embodiment, the subject S brings the hand H or the evaluation object PD closer to the eyes. The operation to be performed can be recorded as a record. The eye camera acquires data only for the direction of the line of sight of the subject S, and grasps whether the subject S is trying to stare at the evaluation object PD or is observing the whole object with the evaluation object PD kept away. It is not possible. On the other hand, according to the present embodiment, since the approach or separation operation of the evaluation object PD can be recorded through the image of the hand portion F, the evaluation object PD can be handled by combining this with the line-of-sight data VP. It is possible to record the entire movement and movement of the subject's line of sight.

図4に示すように、遮蔽部10、像取得部20の視野領域、および像提示部30は、同図の左右方向に延在する略直線上に配置されている。本実施形態において遮蔽部10、像取得部20の視野領域および像提示部30が略直線上に配置されているとは、一の仮想的な直線がこれらの中心またはその他の一部を通過することをいう。本実施形態の場合、具体的には、遮蔽部10の中心線C(図2を参照)が像提示部30の略中央を向くように遮蔽部10と像提示部30は配置されている。これにより、被験者Sが評価対象物PDを体の正面でハンドリングし、これを像取得部20で撮像する場合に、被験者Sが像提示部30に正対する。さらに、視線取得部60(アイカメラ)の視野領域も、この直線上に配置されている。言い換えると、遮蔽部10、像取得部20の視野領域、像提示部30および視線取得部60の視野領域および被験者Sは、共通の鉛直面内に位置している。これにより、像提示部30を正視する被験者Sの左右の眼球を視線取得部60で正面から捕捉することができる。   As shown in FIG. 4, the shielding unit 10, the field area of the image acquisition unit 20, and the image presentation unit 30 are arranged on a substantially straight line extending in the left-right direction in FIG. In the present embodiment, the shielding unit 10, the visual field region of the image acquisition unit 20, and the image presentation unit 30 are arranged on a substantially straight line. One virtual straight line passes through these centers or some other part. That means. In the case of the present embodiment, specifically, the shielding unit 10 and the image presentation unit 30 are arranged so that the center line C (see FIG. 2) of the shielding unit 10 faces the approximate center of the image presentation unit 30. Thus, when the subject S handles the evaluation object PD in front of the body and images it with the image acquisition unit 20, the subject S faces the image presentation unit 30. Furthermore, the visual field region of the line-of-sight acquisition unit 60 (eye camera) is also arranged on this straight line. In other words, the shielding unit 10, the visual field region of the image acquisition unit 20, the visual field region of the image presentation unit 30, the visual line acquisition unit 60, and the subject S are located in a common vertical plane. As a result, the left and right eyeballs of the subject S who normally view the image presentation unit 30 can be captured from the front by the line-of-sight acquisition unit 60.

本実施形態では、被験者Sの手元部Fの画像IMを画像処理部44で種々に画像処理し、その差異が視線方向LOVとして如何に現れるかを知ることができる。これにより、被験者Sの視線の解析方法が提供される。   In the present embodiment, the image IM of the hand F of the subject S can be variously processed by the image processing unit 44, and it can be seen how the difference appears as the line-of-sight direction LOV. Thereby, a method for analyzing the line of sight of the subject S is provided.

すなわち、本実施形態によれば、上記の像提示方法を用いた視線解析方法が提供される。この視線解析方法は、画像IM1を目視する被験者Sの第一の視線データをまず取得する。さらに、画像IM1の見た目を変化させて画像IM2とし、これを被験者Sに提示する。そして、変化後の画像IM2を目視する被験者Sの第二の視線データを取得する。最後に、第一の視線データと第二の視線データとを対比して表示する。   That is, according to the present embodiment, a line-of-sight analysis method using the above-described image presentation method is provided. In this line-of-sight analysis method, first line-of-sight data of the subject S who views the image IM1 is first acquired. Further, the appearance of the image IM1 is changed to an image IM2, which is presented to the subject S. Then, second line-of-sight data of the subject S who views the image IM2 after the change is acquired. Finally, the first line-of-sight data and the second line-of-sight data are displayed in comparison.

本実施形態の視線解析方法によれば、評価対象物PDの彩度や輝度を変化させた場合の被験者Sの視線方向LOV(注視点)の変化を定量化することができる。すなわち、彩度低減や輝度低減の画像処理の強弱を複数通りに変化させて画像IM1および画像IM2を生成し、それぞれを被験者Sが目視した場合の第一の視線データと第二の視線データとを取得して対比する。これにより、評価対象物PDの彩度や光沢の変化量と、被験者Sの視線方向LOVの移動量との定量的な傾向を把握することができる。   According to the line-of-sight analysis method of the present embodiment, the change in the line-of-sight direction LOV (gaze point) of the subject S when the saturation or luminance of the evaluation object PD is changed can be quantified. Specifically, the image IM1 and the image IM2 are generated by changing the intensity of image processing for saturation reduction and luminance reduction in a plurality of ways, and the first line-of-sight data and the second line-of-sight data when the subject S views each of them Get the contrast. Thereby, it is possible to grasp a quantitative tendency between the amount of change in saturation and gloss of the evaluation object PD and the amount of movement of the subject S in the line-of-sight direction LOV.

第一の視線データと第二の視線データとを対比して表示するための手段は特に限定されない。画像IM1を表示出力する像提示部30を用いて第一の視線データと第二の視線データを表示してもよく、または他のディスプレイ装置を用いて表示してもよい。   The means for displaying the first line-of-sight data and the second line-of-sight data in comparison is not particularly limited. The first line-of-sight data and the second line-of-sight data may be displayed using the image presentation unit 30 that displays and outputs the image IM1, or may be displayed using another display device.

なお、本発明は上述の実施形態に限定されるものではなく、本発明の目的が達成される限りにおける種々の変形、改良等の態様も含む。   The present invention is not limited to the above-described embodiment, and includes various modifications and improvements as long as the object of the present invention is achieved.

図6(a)は、遮蔽部10の第一変形例を示す斜視図である。図6(b)は、遮蔽部10の第二変形例を示す斜視図である。   FIG. 6A is a perspective view illustrating a first modification of the shielding unit 10. FIG. 6B is a perspective view showing a second modification of the shielding unit 10.

第一変形例の遮蔽部10は、ドーム状(半球状)の天板11と、円盤状の底板15とで構成されている。天板11の周囲には円孔状の一対の差込口12が形成されている。底板15の中心を通り、一対の差込口12を隔てる中心線Cを一点鎖線で仮想的に図示してある。天板11は半透明または不透明の材料からなり、天板11を通じて内部の評価対象物PD(図6(a)では図示省略)を視認することは実質的に遮られている。   The shielding part 10 of the first modified example includes a dome-shaped (hemispherical) top plate 11 and a disk-shaped bottom plate 15. A pair of circular holes 12 are formed around the top plate 11. A center line C that passes through the center of the bottom plate 15 and separates the pair of insertion ports 12 is virtually illustrated by a one-dot chain line. The top plate 11 is made of a translucent or opaque material, and viewing the internal evaluation object PD (not shown in FIG. 6A) through the top plate 11 is substantially blocked.

第二変形例の遮蔽部10は、半割円筒状の天板11を伏臥配置してなる。半割円筒の両端の開口が差込口12にあたる。この差込口12から手Hおよび評価対象物PDを出し入れする。天板11は半透明または不透明であり、被験者Sから評価対象物PDへの視線を遮る。本変形例の遮蔽部10は、天板11の半割の円筒面の内側を評価対象物PDのハンドリング用の空間として用いるものである。半割円筒の軸方向に直交し、かつ一対の差込口12を隔てる中心線Cを一点鎖線で仮想的に図示してある。   The shielding part 10 of the second modification is formed by placing a half-cylindrical top plate 11 in a prone manner. Openings at both ends of the half cylinder correspond to the insertion port 12. The hand H and the evaluation object PD are taken in and out from the insertion port 12. The top plate 11 is translucent or opaque and blocks the line of sight from the subject S to the evaluation object PD. The shielding part 10 of this modification uses the inside of the half cylindrical surface of the top plate 11 as a space for handling the evaluation object PD. A center line C that is orthogonal to the axial direction of the half cylinder and that separates the pair of insertion ports 12 is virtually illustrated by a one-dot chain line.

これらの変形例にかかる遮蔽部10もまた、その中心線Cが像提示部30の略中央を向くようにして配置される。これにより、差込口12に手Hを差し入れて評価対象物PDをハンドリングする被験者Sが自然に像提示部30に対して正対することとなる。   The shielding unit 10 according to these modified examples is also arranged such that the center line C faces the substantially center of the image presentation unit 30. Accordingly, the subject S who inserts the hand H into the insertion port 12 and handles the evaluation object PD naturally faces the image presentation unit 30.

上記実施形態では動作部位として手Hを例示したが、本発明はこれに限られない。たとえば動作部位を足とし、評価対象物PDを靴や靴下としてもよい。この場合、被験者が足や靴や靴下を直視する視線を遮りつつ、足に装着した靴や靴下の感触を足の肌の触感を通じて被験者は評価することができる。   In the above embodiment, the hand H is exemplified as the operation part, but the present invention is not limited to this. For example, the motion part may be a foot and the evaluation object PD may be a shoe or a sock. In this case, the subject can evaluate the feeling of the shoe or sock worn on the foot through the feel of the skin of the foot while blocking the line of sight of the subject directly looking at the foot, shoe or sock.

また、上記各実施形態では、評価対象物PDの画像IMを画像処理するなどして、評価対象物PDの視覚的な因子を変化させることを例示したが、本発明はこれに限られない。すなわち上記実施形態に代えて、または上記実施形態と組みあわせて、被験者Sによりハンドリングされている評価対象物PDの触覚的な因子を変化させてもよい。たとえば、遮蔽部10の内部における磁場や気流等の物理条件を変化させて評価対象物PDを重力方向に付勢して、被験者Sが受ける評価対象物PDの重量を仮想的に増大させてもよい。具体的には、評価対象物PDの一部または全部を磁性材料で作成し、遮蔽部10の底板15に配置した電磁石によって評価対象物PDを吸引するとよい。これにより、評価対象物PDの実際の質量を変えることなく、評価対象物PDの質量を仮想的に増大させた場合の被験者Sの視線方向LOVの変化をシミュレートしたり、評価対象物PDの質量と情緒価値との相関関係を分析したりすることが容易に行われる。本発明者らの検討によれば、評価対象物PDが化粧品の容器である場合、評価対象物PDの質量と高級感とが正の相関を持つことが確認されている。   In each of the above embodiments, the visual factor of the evaluation object PD is changed by performing image processing on the image IM of the evaluation object PD. However, the present invention is not limited to this. That is, instead of the above embodiment, or in combination with the above embodiment, the tactile factor of the evaluation object PD handled by the subject S may be changed. For example, even if the physical conditions such as the magnetic field and the air flow inside the shielding unit 10 are changed to bias the evaluation object PD in the direction of gravity, the weight of the evaluation object PD received by the subject S can be virtually increased. Good. Specifically, part or all of the evaluation object PD may be made of a magnetic material, and the evaluation object PD may be attracted by an electromagnet disposed on the bottom plate 15 of the shielding unit 10. This simulates a change in the line-of-sight direction LOV of the subject S when the mass of the evaluation object PD is virtually increased without changing the actual mass of the evaluation object PD, It is easy to analyze the correlation between mass and emotional value. According to the study by the present inventors, when the evaluation object PD is a cosmetic container, it has been confirmed that the mass of the evaluation object PD and a high-class feeling have a positive correlation.

以下、本発明の像提示装置の使用方法(本発明の方法)について説明する。   Hereinafter, a method of using the image presentation device of the present invention (method of the present invention) will be described.

(使用方法1)
図4に示した第二実施形態の像提示装置100を用いて、評価対象物PDの情緒価値の評価実験を行った。評価対象物PDには、ファンデーションのコンパクトケース(以下、コンパクト)を用いた。画像処理部44による画像処理は行わず、像取得部20(Webカメラ)で取得したフルカラーの動画像(画像IM)を像提示部30(ディスプレイ装置)で表示して被験者Sに提示した。
(Usage method 1)
An evaluation experiment of the emotional value of the evaluation object PD was performed using the image presentation apparatus 100 of the second embodiment shown in FIG. A compact case (hereinafter, compact) of the foundation was used as the evaluation object PD. Image processing by the image processing unit 44 was not performed, and a full-color moving image (image IM) acquired by the image acquisition unit 20 (Web camera) was displayed on the image presentation unit 30 (display device) and presented to the subject S.

aからfの6種の異なるコンパクトについて、(評価試験1)静止画の目視、(評価試験2)実物の直視および触診、(評価試験3)本発明を用いた動画像の目視および触診、を行った。被験者はAからCの3人とした。   For six different compacts from a to f, (Evaluation test 1) Visual observation of still image, (Evaluation test 2) Direct visual inspection and palpation of real thing, (Evaluation test 3) Visual observation and palpation of moving image using the present invention went. The test subjects were A to C.

評価試験1から3の結果として、aからfのコンパクトに「高価と感じる順位」を付与する回答を得た。回答結果の一覧を図7に示す。実物の直視および触診に基づく評価試験2を正として、ケンドール順位相関係数(τ)に基づいて評価試験1および評価試験3の結果を判定した。ケンドール順位相関係数(τ)は、2つの順位列の間の相関の強さを−1(完全不一致)から+1(完全一致)の間の数字で表す係数である。   As a result of the evaluation tests 1 to 3, an answer was given that gives “a rank that feels expensive” to the compacts a to f. A list of answer results is shown in FIG. The evaluation test 2 based on the direct observation and palpation of the actual object was positive, and the results of the evaluation test 1 and the evaluation test 3 were determined based on the Kendall rank correlation coefficient (τ). The Kendall rank correlation coefficient (τ) is a coefficient that expresses the strength of correlation between two rank sequences as a number between −1 (complete mismatch) and +1 (complete match).

AからCの3人の被験者の平均のケンドール順位相関係数は、評価試験1:τ=0.38、そして評価試験3:τ=0.82となった。これにより、評価試験3(本発明の方法)では、評価試験1(静止画)に比べて評価対象物PDの情緒価値が正確に評価されていることが分かった。また、評価試験3(本発明の方法)のケンドール順位相関係数がきわめて高いことから、像提示装置100を用いて行う評価対象物PDの評価が、実物を目視および触診して行う評価とほぼ同等の正確性であることが分かった。   The average Kendall rank correlation coefficient of the three subjects from A to C was Evaluation Test 1: τ = 0.38, and Evaluation Test 3: τ = 0.82. Thereby, it was found that in the evaluation test 3 (the method of the present invention), the emotional value of the evaluation object PD was accurately evaluated as compared with the evaluation test 1 (still image). In addition, since the Kendall rank correlation coefficient of the evaluation test 3 (the method of the present invention) is extremely high, the evaluation of the evaluation object PD performed using the image presentation apparatus 100 is almost the same as the evaluation performed by visually and palpating the actual object. It turned out to be equivalent accuracy.

(使用方法2)
第二実施形態の像提示装置100を用いて被験者Sの視線データVPを取得した。図8〜図10は、視線データVPを評価対象物PDの画像IMに重畳して表示した場合の像提示部30の表示画面を示す図である。視線データVPは、被験者Sの視線方向LOVが集中している領域を表している。
(Usage method 2)
The line-of-sight data VP of the subject S was acquired using the image presentation device 100 of the second embodiment. 8 to 10 are diagrams showing display screens of the image presentation unit 30 when the line-of-sight data VP is displayed superimposed on the image IM of the evaluation object PD. The line-of-sight data VP represents a region where the line-of-sight direction LOV of the subject S is concentrated.

具体的には、図8は評価対象物PDのフック近傍を被験者Sが注視している状態の視線データVPを示す図である。図9は、評価対象物PDの側面近傍を被験者Sが注視している状態の視線データVPを示す図である。図10は、評価対象物PDのロゴマークを被験者Sが注視している状態の視線データVPを示す図である。   Specifically, FIG. 8 is a diagram illustrating the line-of-sight data VP in a state where the subject S is gazing near the hook of the evaluation object PD. FIG. 9 is a diagram illustrating the line-of-sight data VP in a state where the subject S is gazing near the side surface of the evaluation object PD. FIG. 10 is a diagram illustrating the line-of-sight data VP in a state where the subject S is gazing at the logo mark of the evaluation object PD.

視線取得部60を備える第二実施形態の像提示装置100によれば、被験者Sが評価対象物PD(コンパクト)を目視する様子を経時的なデータとして記録することができる。具体的には、図8〜図10に示すように、凹凸のあるフックの部分を観察している様子や、側面を目視して評価対象物PDの厚みを観察している様子、さらにロゴマークを注視している様子などを動画で記録することができる。これにより、被験者Sがコンパクトの外郭線を特に注視していることが把握できる。そして、本実施形態の像提示装置100によれば、評価対象物PDに施したデザインに被験者Sが注視しているか否か、等のデータを動画像として記録することが可能であるため、評価対象物PDのデザイン開発に特に有効に用いることができる。   According to the image presentation apparatus 100 of the second embodiment including the line-of-sight acquisition unit 60, it is possible to record a state in which the subject S visually views the evaluation object PD (compact) as time-dependent data. Specifically, as shown in FIG. 8 to FIG. 10, a state of observing a hook portion with unevenness, a state of observing the thickness of the evaluation object PD by visually observing the side surface, and a logo mark It is possible to record the state of gazing at the video. Thereby, it can be grasped that the subject S is particularly gazing at the compact outline. Then, according to the image presentation device 100 of the present embodiment, data such as whether or not the subject S is gazing at the design applied to the evaluation object PD can be recorded as a moving image. It can be used particularly effectively for the design development of the object PD.

上記実施形態は、以下の技術思想を包含するものである。
(1)被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する装置であって、前記動作部位を直視する前記被験者の視線を遮る遮蔽部と、前記動作部位または前記評価対象物の像を取得する像取得部と、前記像を前記被験者に提示する像提示部と、を備え、前記像提示部で提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、前記像取得部が更に取得して前記像提示部で提示することを特徴とする像提示装置;
(2)前記像取得部が前記動作部位の画像を動画像として撮像するカメラであり、前記像提示部が前記画像を表示するディスプレイ装置である上記(1)に記載の像提示装置;
(3)前記像取得部が撮像した画像の見た目を変化させる画像処理を行う画像処理部を更に備え、前記像提示部は前記画像処理部で画像処理された前記画像を表示することを特徴とする上記(2)に記載の像提示装置;
(4)前記画像処理が、グレースケール処理または白黒化処理を含む彩度低減処理、低コントラスト処理を含む輝度低減処理、または、ぼかし処理のいずれか一以上である上記(3)に記載の像提示装置;
(5)前記像提示部で表示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得する視線取得部と、前記画像と前記視線データとを対応づけて保存する蓄積部と、を更に備える上記(2)から(4)のいずれかに記載の像提示装置;
(6)前記遮蔽部、前記像取得部の視野領域および前記像提示部が略直線上に配置されている上記(2)から(5)のいずれかに記載の像提示装置;
(7)前記遮蔽部が半透明または不透明の容器であり、前記遮蔽部には、前記動作部位を差し込む一対の差込口が前記直線の両側に設けられている上記(6)に記載の像提示装置;
(8)前記像取得部は、前記被験者が前記動作部位を直視したときの視野角と、前記遮蔽部に臨んだ前記被験者が前記ディスプレイ装置に表示された前記画像における前記動作部位を目視したときの視野角と、が同等となるように前記画像を表示する上記(6)または(7)に記載の像提示装置;
(9)被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する方法であって、前記動作部位を直視する前記被験者の視線を遮った状態で前記動作部位または前記評価対象物の像を取得し、取得した前記像を前記被験者に提示し、提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、更に取得して前記被験者に提示することを特徴とする像提示方法;
(10)前記動作部位の像を画像として取得し、提示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得し、前記画像と前記視線データとを対応づけて保存することを特徴とする上記(9)に記載の像提示方法;
(11)上記(10)に記載の像提示方法を用いた視線解析方法であって、前記画像を目視する前記被験者の第一の前記視線データを取得し、前記画像の見た目を変化させて前記被験者に提示し、変化後の前記画像を目視する前記被験者の第二の前記視線データを取得し、前記第一の視線データと前記第二の視線データとを対比して表示することを特徴とする視線解析方法。
The above embodiment includes the following technical idea.
(1) A device for presenting a motion of a motion part of a subject or an evaluation object handled by the subject at the motion part to the subject, a shielding unit that blocks the line of sight of the subject who directly views the motion part, and the motion part Alternatively, an image acquisition unit that acquires an image of the evaluation object and an image presentation unit that presents the image to the subject, and the subject is operated while visually observing the image presented by the image presentation unit. The image acquisition unit further acquires the image of the motion part or the image of the evaluation object handled by the motion part while the subject visually observes the image, and presents the image on the image presentation part. Image presentation device;
(2) The image presentation device according to (1), wherein the image acquisition unit is a camera that captures an image of the motion part as a moving image, and the image presentation unit is a display device that displays the image;
(3) The image processing unit further includes an image processing unit that performs image processing to change an appearance of an image captured by the image acquisition unit, and the image presentation unit displays the image processed by the image processing unit. The image presentation device according to (2) above;
(4) The image according to (3), wherein the image processing is at least one of saturation reduction processing including gray scale processing or black and white processing, luminance reduction processing including low contrast processing, and blurring processing. Presentation device;
(5) A line-of-sight acquisition unit that acquires, over time, line-of-sight data relating to the line-of-sight direction of the subject viewing the image displayed by the image presentation unit, and a storage unit that associates and stores the image and the line-of-sight data And the image presentation device according to any one of (2) to (4), further comprising:
(6) The image presentation device according to any one of (2) to (5), wherein the shielding unit, the visual field region of the image acquisition unit, and the image presentation unit are arranged on a substantially straight line.
(7) The image according to (6), wherein the shielding portion is a translucent or opaque container, and the shielding portion is provided with a pair of insertion ports into which the operation site is inserted on both sides of the straight line. Presentation device;
(8) The image acquisition unit looks at the viewing angle when the subject directly views the motion part and the motion part in the image displayed on the display device by the subject facing the shielding part. The image presenting apparatus according to (6) or (7), wherein the image is displayed so that the viewing angle is equal to each other;
(9) A method of presenting a motion of a motion part of a subject or an evaluation object that the subject handles in the motion part to the subject, wherein the motion part or the motion part or An image of the object to be evaluated is acquired, the acquired image is presented to the subject, and the subject visually observes the image of the operation site that is operated while the subject visually observes the presented image. An image presentation method characterized by further acquiring and presenting an image of the evaluation object to be handled at the motion site to the subject;
(10) Acquire an image of the moving part as an image, acquire gaze data related to the gaze direction of the subject who visually observes the presented image, and store the image and the gaze data in association with each other. The image presentation method according to (9) above, characterized in that:
(11) A line-of-sight analysis method using the image presentation method according to (10), wherein the first line-of-sight data of the subject viewing the image is acquired, and the appearance of the image is changed to change the appearance The second gaze data of the subject to be presented to the subject and viewing the image after the change is acquired, and the first gaze data and the second gaze data are displayed in comparison. Gaze analysis method.

10:遮蔽部、11:天板、12:差込口、13:前面板、14:側板、15:底板、16:開口、17:閉止片、20:像取得部、30:像提示部、40:表示制御部、42:同期部、44:画像処理部、50:蓄積部、60:視線取得部、70:配線、100:像提示装置、F:手元部、H:手、IM:画像、PD:評価対象物、S:被験者、VP:視線データ 10: Shielding unit, 11: Top plate, 12: Insertion port, 13: Front plate, 14: Side plate, 15: Bottom plate, 16: Opening, 17: Closed piece, 20: Image acquisition unit, 30: Image presentation unit, 40: display control unit, 42: synchronization unit, 44: image processing unit, 50: storage unit, 60: line-of-sight acquisition unit, 70: wiring, 100: image presentation device, F: hand unit, H: hand, IM: image , PD: evaluation object, S: subject, VP: line-of-sight data

Claims (11)

被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する装置であって、
前記動作部位を直視する前記被験者の視線を遮る遮蔽部と、前記動作部位または前記評価対象物の像を取得する像取得部と、前記像を前記被験者に提示する像提示部と、を備え、
前記像提示部で提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、前記像取得部が更に取得して前記像提示部で提示することを特徴とする像提示装置。
A device for presenting the subject with the movement of the movement part of the subject or the evaluation object that the subject handles in the movement part,
A shielding unit that blocks the line of sight of the subject who directly views the moving part, an image acquisition unit that acquires an image of the moving part or the evaluation object, and an image presentation unit that presents the image to the subject.
The image of the moving part that is operated while the subject visually observes the image presented by the image presenting unit, or the image of the evaluation object that is handled by the moving part while the subject visually observes the image. An image presentation device, wherein the acquisition unit further acquires and presents the image presentation unit.
前記像取得部が前記動作部位の画像を動画像として撮像するカメラであり、前記像提示部が前記画像を表示するディスプレイ装置である請求項1に記載の像提示装置。   The image presentation device according to claim 1, wherein the image acquisition unit is a camera that captures an image of the motion part as a moving image, and the image presentation unit is a display device that displays the image. 前記像取得部が撮像した画像の見た目を変化させる画像処理を行う画像処理部を更に備え、前記像提示部は前記画像処理部で画像処理された前記画像を表示することを特徴とする請求項2に記載の像提示装置。   The image processing unit further includes an image processing unit that performs image processing to change an appearance of an image captured by the image acquisition unit, and the image presentation unit displays the image processed by the image processing unit. 3. The image presentation device according to 2. 前記画像処理が、グレースケール処理または白黒化処理を含む彩度低減処理、低コントラスト処理を含む輝度低減処理、または、ぼかし処理のいずれか一以上である請求項3に記載の像提示装置。   The image presentation apparatus according to claim 3, wherein the image processing is at least one of saturation reduction processing including gray scale processing or black and white processing, luminance reduction processing including low contrast processing, and blurring processing. 前記像提示部で表示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得する視線取得部と、
前記画像と前記視線データとを対応づけて保存する蓄積部と、を更に備える請求項2から4のいずれか一項に記載の像提示装置。
A line-of-sight acquisition unit for acquiring, over time, line-of-sight data relating to the line-of-sight direction of the subject viewing the image displayed by the image presentation unit;
The image presentation apparatus according to any one of claims 2 to 4, further comprising a storage unit that stores the image and the line-of-sight data in association with each other.
前記遮蔽部、前記像取得部の視野領域および前記像提示部が略直線上に配置されている請求項2から5のいずれか一項に記載の像提示装置。   The image presentation apparatus according to any one of claims 2 to 5, wherein the shielding unit, a visual field region of the image acquisition unit, and the image presentation unit are arranged on a substantially straight line. 前記遮蔽部が半透明または不透明の容器であり、
前記遮蔽部には、前記動作部位を差し込む一対の差込口が前記直線の両側に設けられている請求項6に記載の像提示装置。
The shield is a translucent or opaque container;
The image presentation device according to claim 6, wherein the shielding portion is provided with a pair of insertion ports into which the operation site is inserted on both sides of the straight line.
前記像取得部は、前記被験者が前記動作部位を直視したときの視野角と、前記遮蔽部に臨んだ前記被験者が前記ディスプレイ装置に表示された前記画像における前記動作部位を目視したときの視野角と、が同等となるように前記画像を表示する請求項6または7に記載の像提示装置。   The image acquisition unit includes a viewing angle when the subject directly views the motion part, and a viewing angle when the subject who faces the shielding part visually observes the motion part in the image displayed on the display device. The image presenting apparatus according to claim 6, wherein the images are displayed so as to be equivalent to each other. 被験者の動作部位の動作または被験者が前記動作部位で取り扱う評価対象物を前記被験者に提示する方法であって、
前記動作部位を直視する前記被験者の視線を遮った状態で前記動作部位または前記評価対象物の像を取得し、
取得した前記像を前記被験者に提示し、
提示される前記像を前記被験者が目視しながら動作させる前記動作部位の像、または前記像を前記被験者が目視しながら前記動作部位で取り扱う前記評価対象物の像を、更に取得して前記被験者に提示することを特徴とする像提示方法。
A method of presenting the subject with an action of a motion part of a subject or an evaluation object handled by the subject at the motion part,
Obtaining an image of the moving part or the evaluation object in a state where the line of sight of the subject who directly views the moving part is blocked;
Presenting the acquired image to the subject;
An image of the moving part that causes the subject to operate while viewing the image to be presented, or an image of the evaluation object that is handled by the moving part while the subject visually observes the image, and obtains the subject. An image presentation method characterized by presenting.
前記動作部位の像を画像として取得し、
提示される前記画像を目視する前記被験者の視線方向に関する視線データを経時的に取得し、前記画像と前記視線データとを対応づけて保存することを特徴とする請求項9に記載の像提示方法。
Obtaining an image of the moving part as an image;
The image presentation method according to claim 9, wherein line-of-sight data relating to a line-of-sight direction of the subject viewing the presented image is acquired over time, and the image and the line-of-sight data are stored in association with each other. .
請求項10に記載の像提示方法を用いた視線解析方法であって、
前記画像を目視する前記被験者の第一の前記視線データを取得し、
前記画像の見た目を変化させて前記被験者に提示し、変化後の前記画像を目視する前記被験者の第二の前記視線データを取得し、
前記第一の視線データと前記第二の視線データとを対比して表示することを特徴とする視線解析方法。
A line-of-sight analysis method using the image presentation method according to claim 10,
Obtaining the first line-of-sight data of the subject viewing the image;
Changing the appearance of the image and presenting it to the subject, obtaining the second gaze data of the subject viewing the image after the change,
A visual line analysis method, wherein the first visual line data and the second visual line data are displayed in comparison.
JP2011191250A 2011-09-02 2011-09-02 Image presenting apparatus, image presenting method, and visual line analyzing method Active JP5689388B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011191250A JP5689388B2 (en) 2011-09-02 2011-09-02 Image presenting apparatus, image presenting method, and visual line analyzing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011191250A JP5689388B2 (en) 2011-09-02 2011-09-02 Image presenting apparatus, image presenting method, and visual line analyzing method

Publications (2)

Publication Number Publication Date
JP2013054476A JP2013054476A (en) 2013-03-21
JP5689388B2 true JP5689388B2 (en) 2015-03-25

Family

ID=48131422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011191250A Active JP5689388B2 (en) 2011-09-02 2011-09-02 Image presenting apparatus, image presenting method, and visual line analyzing method

Country Status (1)

Country Link
JP (1) JP5689388B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6881159B2 (en) * 2016-12-28 2021-06-02 花王株式会社 Feel evaluation device
JP6958119B2 (en) * 2017-08-29 2021-11-02 花王株式会社 Feel evaluation device
JP2022049507A (en) 2020-09-16 2022-03-29 株式会社リコー Communication system, communication terminal, screen sharing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3543695B2 (en) * 1999-03-17 2004-07-14 富士ゼロックス株式会社 Driving force generator
WO2007135796A1 (en) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. Control device for evaluating user response to content
JP2009251952A (en) * 2008-04-07 2009-10-29 Sanyo Electric Co Ltd Information processing apparatus, information storage device, and information processing system
JP2010238185A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Device and method for generating information

Also Published As

Publication number Publication date
JP2013054476A (en) 2013-03-21

Similar Documents

Publication Publication Date Title
Crofton et al. Potential applications for virtual and augmented reality technologies in sensory science
KR102489677B1 (en) System to comprehensively measure clinical parameters of visual function
CN106714663B (en) The display that wear a pair of spectacles discomfort mitigates
CN105338887B (en) The sensory evaluation device of skin and the evaluation method of skin
Laws et al. Seeing things differently: The viewing time alternative to penile plethysmography
JP6229867B2 (en) Early detection and prevention program and system for mild dementia
US7775661B2 (en) System and apparatus for object based attention tracking in a virtual environment
CN103648366A (en) System and method for remote measurement of optical focus
KR20160041965A (en) Devices, systems and methods of virtualizing a mirror
Crespi et al. Spotting expertise in the eyes: Billiards knowledge as revealed by gaze shifts in a dynamic visual prediction task
KR20190074563A (en) Evaluation and training apparatus and method for high-patient with dementia and mild cognitive impairment using motion recognition and virtual reality
JP5689388B2 (en) Image presenting apparatus, image presenting method, and visual line analyzing method
Lin et al. The effect of parallax on eye fixation parameter in projection-based stereoscopic displays
Kluttz et al. The effect of head turn on the perception of gaze
Villegas et al. Realistic training in VR using physical manipulation
Hurley et al. Measuring physiological arousal towards packaging: tracking electrodermal activity within the consumer shopping environment
Sidhu et al. What colour should I wear? How clothing colour affects women's judgement of other women's body attractiveness and body size
JP5782540B2 (en) Beauty counseling method
Chu et al. Tracking feature-based attention
JP5555073B2 (en) Beauty support device and beauty counseling method
Krogmeier et al. Evidence for a relationship between self-avatar fixations and perceived avatar similarity within low-cost virtual reality embodiment
Barbieri et al. Realter: An Immersive Simulator to Support Low-Vision Rehabilitation
Konkle The role of real-world size in object representation
US20140058247A1 (en) Information obtaining method and evaluation method
Booth et al. Gaze3D: Framework for gaze analysis on 3D reconstructed scenes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150128

R151 Written notification of patent or utility model registration

Ref document number: 5689388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250