JP7485059B2 - 感性計測方法および感性計測システム - Google Patents

感性計測方法および感性計測システム Download PDF

Info

Publication number
JP7485059B2
JP7485059B2 JP2022547399A JP2022547399A JP7485059B2 JP 7485059 B2 JP7485059 B2 JP 7485059B2 JP 2022547399 A JP2022547399 A JP 2022547399A JP 2022547399 A JP2022547399 A JP 2022547399A JP 7485059 B2 JP7485059 B2 JP 7485059B2
Authority
JP
Japan
Prior art keywords
evaluation
findings
subject
biological information
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022547399A
Other languages
English (en)
Other versions
JPWO2022054349A5 (ja
JPWO2022054349A1 (ja
Inventor
徹 水本
聖菜 市岡
雅史 古田
耕一 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Publication of JPWO2022054349A1 publication Critical patent/JPWO2022054349A1/ja
Publication of JPWO2022054349A5 publication Critical patent/JPWO2022054349A5/ja
Application granted granted Critical
Publication of JP7485059B2 publication Critical patent/JP7485059B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physiology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、感性計測方法および感性計測システムに関する。
従来、被検者の感性を測定する感性推定装置が知られている。このような感性推定装置は、たとえば、特開2018-187287号公報に開示されている。
上記特開2018-187287号公報に記載の感性推定装置は、学習モードにおいて、ユーザ(被検者)に視認された画像の特徴量を取得する。そして、ユーザが画像を視認した際に取得された複数の生体信号(脳波信号、心拍信号、および、眼電信号など)から統合された生体信号の特徴量を取得する。また、ユーザからの入力によって感性の種類および強度を示す感性情報を取得する。上記特開2018-187287号公報に記載の感性推定装置は、学習モードにおいて、画像の特徴量と、生体信号の特徴量と、感性情報との関連性(学習モデル)を学習する。そして、この感性推定装置は、推定モードにおいて、ユーザが実物の視認対象を視認した場合に、視認対象を撮影することによって取得された画像の特徴量と、ユーザから計測された生体情報と、学習モードにおいて学習した関連性とに基づいて、実物の視認対象に対するユーザの感性(安静や興奮などの感性情報)を推定する。
特開2018-187287号公報
ここで、従来、新しく開発された製品などの評価対象物をユーザ(被検者)の感性による評価に基づいて比較する場合には、アンケートおよびインタビューなどによって主観的な評価を取得する方法が考えられる。しかしながら、アンケートおよびインタビューなどの主観的な評価方法では、取得される評価結果が被検者の意図および嗜好などによって偏った結果となる。また、上記特開2018-187287号公報に記載の感性推定装置のように、人の感性を計測する装置を用いる場合には、測定された生体情報に基づいて客観的な情報としての感性を計測することが可能である一方で、測定された生体情報を解析するために専門的な知識が必要となる。そのため、複数の評価対象物を感性に基づく評価によって比較する場合に、客観的な根拠に基づく感性の情報を容易に取得することが困難である。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、複数の評価対象物を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物に対する評価を容易に取得することが可能な感性計測方法および感性計測システムを提供することである。
上記目的を達成するために、この発明の第1の局面における感性計測方法は、評価対象物に対応するように選択された測定項目に基づいて、複数の評価対象物の各々を試用している状態の被検者から生体情報を測定するステップと、測定された生体情報に基づいて、複数の評価対象物の各々を比較した場合の順位を表す情報を含む評価対象物に対する評価結果を取得するステップと、を備える。
この発明の第2の局面における感性計測システムは、評価対象物に対応するように選択された測定項目に基づいて、複数の評価対象物の各々を試用している状態の被検者から生体情報を測定する生体情報測定部と、生体情報測定部によって測定された生体情報に基づいて、複数の評価対象物の各々を比較した場合の順位を表す情報を含む評価対象物に対する評価結果を取得する評価結果取得部と、を備える。
上記第1の局面における感性計測方法、および、上記第2の局面における感性計測システムでは、評価対象物に対応するように選択された測定項目に基づいて、評価対象物を試用している状態の被検者から生体情報を測定する。これにより、実際に評価対象物を試用することによって感じる主観的な感性を客観的なデータとして示すことができる。そして、測定された生体情報に基づいて、複数の評価対象物の各々を比較した場合の順位を表す情報を含む評価対象物に対する評価結果を取得する。これにより、感性を客観的なデータとして示した生体情報に基づいて、複数の評価対象物を比較した結果を容易に取得することができる。その結果、複数の評価対象物を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物に対する評価を容易に取得することができる。また、評価対象物に対応するように選択された測定項目に基づいて、評価対象物を試用している状態の被検者から生体情報を測定するため、評価対象物の種類、評価対象物を試用する場面、および、評価対象物を試用する人などを考慮に入れて、評価対象物に対応するように選択された測定項目に基づいて、生体情報を測定することができる。そのため、評価対象物を試用している状態の被検者から生体情報を測定する場合に、適切な測定項目の生体情報を容易に測定することができる。
第1実施形態による感性計測システムの構成を説明するための模式図である。 第1実施形態による感性計測システムについて説明するためのブロック図である。 第1実施形態による評価結果の表示について説明するための図である。 第1実施形態による感性計測方法について説明するためのフローチャートである。 第2実施形態による感性計測システムの構成を説明するためのブロック図である。 第2実施形態による測定項目の組み合わせを選択するための表示について説明するための図である。 第2実施形態による選択された測定項目の組み合わせの表示について説明するための図である。 第3実施形態による感性計測システムの構成を説明するためのブロック図である。 第3実施形態による学習済みモデルの生成について説明するための図である。 第1~第3実施形態の第1変形例による評価結果の表示について説明するための図である。 第1~第3実施形態の第2変形例による評価結果の表示について説明するための図である。 第1~第3実施形態の第3変形例による評価対象物について説明するための図である。
以下、本発明を具体化した実施形態を図面に基づいて説明する。
[第1実施形態]
(感性計測システムの全体構成)
図1~図3を参照して、本発明の第1実施形態による感性計測システム100、および、感性計測方法について説明する。
図1に示すように、感性計測システム100は、複数の評価対象物50に対する評価結果80(図3参照)を取得する。複数の評価対象物50は、たとえば、企業などが商品を開発する際に作られる試作品である。感性計測システム100は、試作品である評価対象物50を感性によって評価する場合に、被検者60が試作品である評価対象物50を試用する際に感じる感性を客観的に計測する。すなわち、感性計測システム100は、複数の評価対象物50のうちから好ましいと感じる評価対象物50を選出する場合に、人が感性によって感覚的に判断していた評価について客観性のある根拠を取得するために用いられる。
評価対象物50は、たとえば、化粧品である。具体的には、評価対象物50は化粧水51、化粧水52、および、化粧水53を含む。すなわち、感性計測システム100は、化粧水51~53の各々について、化粧水51~53をそれぞれ試用した被検者60が、付け心地、におい、または、パッケージの見た目などについてどのように感じたかを計測する。言い換えると、感性計測システム100は、「化粧水51~53を試用する」という体験全体を通して、被検者60が感じる感性を評価する。すなわち、ここで言う「試用」とは、被検者60の顔面に化粧水51~53を塗布することのみならず、被検者60が洗顔を行った後に、化粧水51~53の容器を手に取った時点から、化粧水51~53を顔に塗布し終える時点までの全体的な体験を意味する。被検者60は、たとえば、日常的に化粧水を使用している女性である。
また、評価対象物50に適した試用方法(実験方法)として、たとえば、被検者60の肌の状態を揃えるために、洗顔後に所定の時間が経過したタイミングにおいて3つの化粧水51~53のうちの1つを顔に塗布する方法が定められる。なお、3つの化粧水51~53のうちの1つを試用するたびに、被検者60は洗顔を行う。また、試用方法が評価対象物50に適しているか否かを確認するために、予め予備実験が行われる。たとえば、予備実験として、洗顔後に15分が経過したタイミングにおいて評価対象物50(化粧水51~53)を試用する方法が定められる。そして、定められた予備実験を実施した場合に取得された生体情報20が適切であるか否かが判断される。たとえば、洗顔後に15分が経過するまでの間に、乾燥を気にする被検者60の不安およびストレスが高まることに起因して、評価対象物50の評価に影響が及ぼされることが確認された場合には、予備実験として、洗顔後に5分が経過したタイミングにおいて評価対象物50(化粧水51~53)を試用する方法が新たに定められる。新たに定められた予備実験において適切に評価対象物50に対する感性の計測が確認された場合には、新たに定められた予備実験の内容が評価対象物50に適した試用方法であると定められる。このようにして定められた試用方法によって、評価対象物50を試用している状態の被検者60から生体情報20が取得される。
図2に示すように、感性計測システム100は、感性計測端末1と、複数の測定装置2と、評価者端末3と、撮像部4とを備える。第1実施形態では、測定装置2は、評価対象物50を試用している状態の被検者60から、生体情報20を測定する。また、評価者端末3は、評価者70(2人の評価者71および評価者72)による評価対象物50に対する評価の所見である評価所見30を取得する。感性計測端末1は、測定された生体情報20と取得された評価所見30とを含む評価対象物50に対する評価結果80(図3参照)を取得する。なお、生体情報20、評価所見30、および、評価結果80についての詳細は後述する。また、測定装置2は、請求の範囲における「生体情報測定部」の一例である。また、評価者端末3は、請求の範囲における「評価所見取得部」の一例である。また、感性計測端末1は、請求の範囲における「評価結果取得部」の一例である。
〈感性計測端末の構成〉
感性計測端末1は、評価対象物50に対する評価結果80を取得するために用いられるコンピュータである。感性計測端末1は、測定装置2によって測定された被検者60からの生体情報20を取得するとともに、評価者端末3によって取得された評価者70による評価所見30を取得する。そして、感性計測端末1は、取得された生体情報20および評価所見30に基づいて評価結果80を取得する。また、感性計測端末1は、操作部11と、表示部12と、通信部13と、記憶部14と、制御部15とを含む。
操作部11は、キーボードなどの入力機器を含む。また、操作部11は、マウスなどのポインティングデバイスを含む。操作部11は、感性計測端末1の各部を操作するための操作信号を受け付ける。また、操作部11は、制御部15に対して、入力された操作に基づく操作信号を送信する。
表示部12は、液晶ディスプレイなどのディスプレイモニタを含む。表示部12は、制御部15による制御によって評価対象物50に対する評価結果80を表示する。なお、表示部12の表示についての詳細は後述する。
通信部13は、測定装置2および評価者端末3と通信可能に構成されている。通信部13は、測定装置2および評価者端末3に対して、情報の送受信を行う。通信部13は、たとえば、通信モジュールおよび外部接続用のインターフェースを含む。通信部13は、有線または無線通信によって通信を行う。通信部13は、たとえば、USBケーブルなどの機器間接続用インターフェースおよび有線LANなどの通信用インターフェースなどによる有線接続と、無線LAN、Bluetooth(登録商標)およびRFタグに用いられる近距離無線通信、および、その他の赤外線通信などによる無線接続とによって、測定装置2および評価者端末3と通信可能に構成されている。通信部13は、測定装置2からの生体情報20を受信する。また、通信部13は、評価者端末3からの評価所見30を受信する。
記憶部14は、たとえば、ハードディスクドライブなどの記憶装置により構成されている。記憶部14は、制御部15を機能させるためのプログラムを記憶している。また、記憶部14は、取得された生体情報20と、取得された評価所見30とを記憶する。
制御部15は、CPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを含む。制御部15は、CPUが所定のプログラムを実行することにより、感性計測端末1の各部の制御を行う。また、制御部15は、CPUが所定のプログラムを実行することにより、評価結果80を取得するための制御を行う。制御部15による評価結果80を取得するための制御の詳細については後述する。
〈生体情報の測定について〉
第1実施形態では、測定装置2は、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定する。測定項目は、被検者60から測定される生体情報20の種類と、生体情報20の測定方法を含む。そして、測定項目は、評価対象物50の種類に応じて選択される。たとえば、第1実施形態では、化粧水51~53を顔に塗るという体験を通して被検者60の感じる感性を計測するために、脳活動量と、脳波および心拍と、視点移動との複数(3種類)の測定項目が選択される。すなわち、第1実施形態では、生体情報20は、被検者60の脳血流量、脳波、心拍数、および、視点移動量を含む。
測定装置2は、被検者60の感性を計測するために生体情報20を測定する。測定装置2は、NIRS(Near-infrared spectroscopy:近赤外線分光法)脳計測装置21、脳波計22、心拍計23、および、眼球運動計測装置24を含む。
NIRS脳計測装置21は、生体情報20として、被検者60の脳血流量を測定する。具体的には、NIRS脳計測装置21は、近赤外線光を発光する光源と受光センサとを含む複数のプローブを備える。複数のプローブは、被検者60の頭部に装着される。NIRS脳計測装置21は、プローブに含まれる光源から発光される近赤外線光の反射光を受光センサによって測定する。NIRS脳計測装置21は、受光センサによって測定された近赤外線光の反射光に基づいて、被検者60の脳の血液中のヘモグロビンを測定することによって、被検者60の脳血流量を測定する。
脳波計22は、生体情報20として、被検者60の脳波を測定する。脳波計22は、被検者60の頭皮に接触するように設けられた複数の電極と、耳たぶなどに装着される基準電極とを含む。脳波計22は、複数の電極と基準電極との電位差、または、複数の電極同士の電位差を測定することによって、被検者60の脳から生じる電気活動を測定する。
心拍計23は、生体情報20として、被検者60の心拍数を測定する。心拍計23は、被検者60の手首に巻かれる腕時計型の心拍計23である。心拍計23は、被検者60の手首の内側の橈骨動脈の脈動を測定するように構成されている。
眼球運動計測装置24は、生体情報20として、被検者60の視点移動量を測定する。眼球運動計測装置24は、被検者60の眼球に近赤外線を照射するとともに、被検者60の眼球によって反射された近赤外線光を検出することによって、被検者60の眼球の空間的な位置と、形状とを測定する。また、眼球運動計測装置24は、視点カメラを含む。視点カメラは、被検者60が視認する視界の画像(動画像)を取得する。眼球運動計測装置24は、測定された被検者60の眼球の位置および形状と、視点カメラによって撮影された被検者60の視界の画像とに基づいて、被検者60の視点移動量を測定する。
複数の測定装置2の各々は、測定された生体情報20を感性計測端末1に送信する。測定装置2は、感性計測端末1の通信部13と、無線接続または有線接続されており、感性計測端末1と情報の送受信が可能に構成されている。すなわち、複数の測定装置2の各々は、化粧水51~53を試用している状態の被検者60から測定された生体情報20(脳血流量、脳波、心拍数、および、視点移動量)を感性計測端末1に送信する。なお、測定装置2は、複数の生体情報20を1つの測定装置2によって測定するように構成されていてもよい。たとえば、測定装置2は、脳波と脳血流量とを併せて測定可能に構成されていてもよい。
〈評価所見の取得について〉
第1実施形態では、評価者端末3は、被検者60とは別個に評価対象物50に対応するように選択された評価者70が、被検者60による複数の評価対象物50の各々の試用状況に関する情報に基づいて評価対象物50を評価した評価所見30を取得する。評価者70は、評価対象物50の種類と、評価対象物50が用いられる場所および状況とを考慮して、選択される。すなわち、評価対象物50が、人の行動の中でどのように用いられるか、どのような状況において用いられるか、または、どのような時間帯または場面で用いられるかなどを、総合的に考慮して、評価対象物50に対応するように評価者70が選択される。
具体的には、評価者70は、ユーザーエクスペリエンスについての専門家を含む。ユーザーエクスペリエンス(ユーザー経験)とは、製品、システム、および、サービスなどを利用する場合に得られる印象および経験(体験)を意味する。詳細には、ユーザーエクスペリエンスは、製品、システム、および、サービスを実際に試用(利用)する経験のみならず、製品、システム、および、サービスを利用するに至った経緯や、利用することによって生じる影響など、製品、システム、および、サービスなどの利用によって得られる全体的な経験を意味する。また、評価者70は、評価対象物50を試用している被検者60の行動を観察することによって評価対象物50の使用性(ユーザビリティ)の問題点を抽出する専門家を含む。すなわち、評価者70は、ユーザビリティの評価についての専門家を含む。たとえば、第1実施形態における2人の評価者70は、人間工学の専門家である評価者71およびプロダクトデザイナーである評価者72である。
評価者70(評価者71および72)は、評価対象物50を試用している被検者60を観察することによって評価対象物50に対する評価を行う。言い換えると、評価者70は、被検者60によって試用されている状態の評価対象物50を評価する。また、評価者70(評価者71および72)は、評価対象物50の試用の前後に被検者60に対してインタビューまたはアンケートを行う。評価者70(評価者71および72)は、評価対象物50を試用することによって被検者60にどのような影響(経験)がもたらされたのかについて評価する。このようにして、評価者70(評価者71および評価者72)は、被検者60による評価対象物50の試用状況に関する情報に基づいて、評価対象物50の評価を行う。
たとえば、評価者70は、化粧水51~53に対して評価を行う場合には、化粧水51~53を使用している被検者60の行動を観察するとともに、化粧水51~53の試用の前後に被検者60にアンケートなどを行う。そして、評価者70は、行動の観察およびアンケートなどの被検者60による化粧水51~53の試用状況に関する情報に基づいて、化粧水51~53の評価を行う。評価者70は、被検者60による化粧水51~53の試用状況に関する情報に基づいて、被検者60が使いにくそうにしている部分はないか、形状および外観などが利用状況に適しているかなどの点について評価を行う。
評価者端末3は、評価者70による評価対象物50に対する評価の所見である評価所見30を取得するために用いられるコンピュータである。評価所見30は、評価者70による評価対象物50に対する評価の所見を示す文字情報を含む。たとえば、評価対象物50が化粧水51~53である場合には、評価所見30は、被検者60の行動を観察することによって評価者70が認識した評価対象物50の問題点などである。具体的には、フタを空けにくそうにしている、内容物が容器からこぼれやすい、などの文字情報を含む。また、評価所見30は、たとえば、対象とする年齢層を考えるとパッケージデザインが子供っぽすぎる、または、大人っぽすぎる、などの文字情報を含む。また、評価所見30は、評価者70による評価対象物50に対する評価の評価得点を含む。また、評価者端末3は、操作部31と、表示部32と、通信部33と、記憶部34と、制御部35とを含む。
操作部31は、キーボードなどの入力機器を含む。また、操作部31は、マウスなどのポインティングデバイスを含む。操作部31は、評価者70による評価所見30を入力するための入力操作を受け付ける。また、操作部31は、制御部35に対して、入力された操作に基づく操作信号を送信する。
表示部32は、液晶ディスプレイなどのディスプレイモニタを含む。表示部32は、後述する撮像部4によって撮像された被検者60の動画像を表示する。また、スピーカなどの音声出力部36によって、評価対象物50を試用している被検者60の音声(被検者60の声など)を出力するようにしてもよい。
通信部33は、感性計測端末1および撮像部4と通信可能に構成されている。通信部33は、感性計測端末1および撮像部4に対して、情報の送受信を行う。通信部33は、たとえば、通信モジュールおよび外部接続用のインターフェースを含み、有線または無線通信によって通信を行う。通信部33は、たとえば、USBケーブルなどの機器間接続用インターフェースおよび有線LANなどの通信用インターフェースなどによる有線接続と、無線LAN、Bluetooth(登録商標)およびRFタグに用いられる近距離無線通信、および、その他の赤外線通信などによる無線接続とによって、感性計測端末1および撮像部4と通信可能に構成されている。通信部33は、感性計測端末1に対して、取得された評価所見30を送信する。また、撮像部4からの映像信号を受信する。
記憶部34は、たとえば、ハードディスクドライブなどの記憶装置により構成されている。記憶部34は、制御部35を機能させるためのプログラムを記憶している。また、記憶部34は、評価所見30を記憶する。
制御部35は、CPU、ROM、および、RAMなどを含む。制御部35は、CPUが所定の制御プログラムを実行することにより、評価者端末3の各部の制御を行う。制御部35は、撮像部4によって撮像された画像を表示部32に表示させる。また、制御部35は、評価者70による操作部31に対する入力操作に基づいて、文字情報と評価得点とを含む評価所見30を取得する。そして、制御部35は、取得された文字情報と評価得点とが関連付けられた評価所見30を、記憶部34に記憶させる。また、制御部35は、通信部33を介して、取得された評価所見30を感性計測端末1に送信する。
撮像部4は、評価対象物50を試用している被検者60を撮像する。具体的には、撮像部4は、評価者70が評価対象物50を試用している被検者60を観察するために、評価対象物50を試用している被検者60を撮像する。また、撮像部4は、撮像した画像(動画像)を評価者端末3に送信する。また、撮像部4は、被検者60が評価対象物50を試用する検査室の壁面に設置されている。撮像部4は、たとえば、CMOSイメージセンサなどの撮像素子を含む。
〈感性計測端末の制御部による制御について〉
感性計測端末1の制御部15は、通信部13を介して測定装置2によって測定された生体情報20を取得する。そして、制御部15は、取得された生体情報20に対して、被検者60の感性を判定する処理を行う。たとえば、制御部15は、測定装置2から取得された生体情報20に基づいて、被検者60の感性に基づく評価を表す1~100の数値を生体情報20の測定結果として取得する。
具体的には、制御部15は、評価対象物50に対応するように選択された測定項目に基づいて、測定項目に対応するように数値情報としての生体情報20を取得する。たとえば、制御部15は、NIRS脳計測装置21によって取得された脳血流量(脳活動量)に基づいて、評価対象物50(化粧水51~53)に対する被検者60の興味関心の度合いを示す1以上100以下の数値を第1生体情報20aとして取得する。また、脳波計22によって取得された脳波と、心拍計23によって取得された心拍数に基づいて、被検者60の快適性の度合いを示す1以上100以下の数値を第2生体情報20bとして取得する。そして、制御部15は、眼球運動計測装置24によって取得された視点移動量に基づいて、被検者60の評価対象物50に対する注目度の度合いを示す1以上100以下の数値を第3生体情報20cとして取得する。なお、数値情報としての生体情報20は、測定装置2によって測定された生体情報20に基づいて、操作部11に対する入力操作に基づいて取得されるようにしてもよい。また、数値情報としての生体情報20は、機械学習によって生成された学習済みモデルなどのアルゴリズムによって、測定装置2によって測定された生体情報20に基づいて取得されるようにしてもよい。
また、制御部15は、操作部11に対する入力操作に基づいて、第1~第3生体情報20a~20cの各々に対応するコメントを文字情報として取得する。たとえば、制御部15は、第1生体情報20aに対応するように「脳活動量の上昇がみられ、興味関心の度合いが大きい」などのコメントを取得する。また、制御部15は、第2生体情報20bに対応するように「交感神経優位の状態から、化粧水51の試用後に副交感神経優位の状態に変化したことから、化粧水51の試用によるストレスの緩和がみられる」などのコメントを取得する。そして、制御部15は、取得された第1~第3生体情報20a~20cと、対応するコメントとを、関連付けて記憶部14に記憶させる。第1~第3生体情報20a~20cの各々に対応するコメントは、たとえば、感性計測の専門家による操作部11に対する入力操作に基づいて取得される。
また、制御部15は、通信部13を介して評価者端末3から評価所見30を取得する。すなわち、制御部15は、評価者70による評価対象物50に対する評価の所見を示す文字情報と、評価者70による評価対象物50に対する評価の評価得点とを含む評価所見30を取得する。具体的には、制御部15は、人間工学の専門家である評価者71の評価所見30aと、プロダクトデザイナーである評価者72の評価所見30bと(図3参照)を取得する。
また、第1実施形態では、制御部15は、測定された複数の生体情報20の各々と、取得された評価所見30とに対して、各々重み付けを行う。そして、制御部15は、重み付けが行われた生体情報20および評価所見30に基づいて、複数の評価対象物50を比較した場合の順位を取得する。たとえば、制御部15は、数値化された複数の生体情報20の測定結果の平均値を取得する。そして、制御部15は、生体情報20の平均値を0.6倍する。また、制御部15は、評価所見30に含まれる評価得点の平均値を取得するとともに、取得された評価得点を0.4倍する。制御部15は、評価対象物50の各々について、0.6倍された生体情報20の平均値と、0.4倍された評価得点の平均値とを足し合わせることによって総合得点を取得する。制御部15は、取得された総合得点に基づいて、複数の評価対象物50の順位を取得する。
上記のように、制御部15は、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価対象物50に対する評価結果80(図3参照)を取得する。すなわち、制御部15は、複数の評価対象物50の各々について、重み付けが行われた状態の生体情報20および評価所見30と、評価対象物50の順位とが関連付けられた評価結果80を取得する。
〈表示部の表示について〉
図3に示すように、制御部15は、取得された評価結果80を表示部12に表示する。第1実施形態では、制御部15は、3つの評価対象物50(化粧水51~53)の各々について、取得された生体情報20の各々と、評価所見30とを並べて表示部12に表示する。また、制御部15は、3つの評価対象物50(化粧水51~53)の各々を比較した場合の順位を識別可能な情報を含む評価結果80を表示部12に表示する。具体的には、制御部15は、3つの評価対象物50(化粧水51~53)の各々について、3種類の測定項目に対応する3種類の生体情報20(第1~第3生体情報20a~20c)の測定結果である数値と、それぞれの生体情報20(第1生体情報20a~第3生体情報20c)に対応するコメントとを並べて表示部12に表示させる。また、制御部15は、3つの評価対象物50(化粧水51~53)の各々について、2人の評価者70(評価者71および72)による評価所見30(評価得点および文字情報を含む評価所見30aおよび30b)を、それぞれ並べて表示部12に表示させる。そして、制御部15は、3つの評価対象物50(化粧水51~53)の各々を比較した場合の順位を表示部12に表示させる。
また、第1実施形態では、制御部15は、測定された生体情報20と取得された評価所見30とが、共通の基準に基づく表記によって表示された状態で評価結果80を表示部12に表示する。具体的には、制御部15は、測定された生体情報20の測定結果を1以上100以下の数値で表すとともに、評価所見30に含まれる評価得点を1以上100以下の数値で表す。
(感性計測サービス)
第1実施形態による感性計測システム100を用いることによって、評価対象物50を感性に基づいて評価する感性計測サービスが提供される。この感性計測サービスでは、顧客(企業など)が、新しく開発された製品などの評価対象物50をユーザ(被検者)の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価を提供する。すなわち、感性計測サービスは、顧客からの依頼による評価対象物50に対して評価結果80を提供する。また、この感性計測サービスでは、感性計測システム100を用いて評価対象物50に対する評価結果80を取得するために、被検者60に評価対象物50を試用させる(実験を行う)場所が提供される。具体的には、湿度、温度、および、照度などの環境条件が一定に保たれた実験室が提供される。そして、環境条件が一定に保たれている実験室において、複数の被検者60の各々が、評価対象物50を試用する。これにより、複数の被検者60によって、複数の評価対象物50を1つずつ評価する(試用する)場合にも、複数の評価対象物50の各々について、試用する条件を同一の条件とすることができるので、評価対象物50を試用している状態の被検者60から測定される生体情報20に周囲の環境条件の差異に起因するばらつきが含まれることを抑制することができる。
なお、被検者60は、複数(たとえば、3人)の女性であってもよい。この場合には、被検者60は、1人ずつ評価対象物50を試用する。また、被検者60が3人の女性である場合には、たとえば、3人の女性による評価対象物50の試用によって取得された生体情報20および評価所見30を平均した評価結果80を取得するようにしてもよい。これにより、1人の被検者60によって評価対象物50の評価を行う場合に比べて、より詳細な評価結果80を取得することができる。また、ユーザビリティの評価を行う場合には3人の被検者60による評価を行うことによって十分な使用性の問題点および改善点を抽出することができるため、4人以上の被検者60によって評価することによって作業時間が増大することを抑制することができる。また、3人の女性は、企業(クライアント)からの要望などに応じて年齢を制限されてもよい。
(感性計測方法について)
次に、図4を参照して、第1実施形態による感性計測システム100を用いた感性計測方法について説明する。
まず、ステップ401において、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50(化粧水51~53)を試用している状態の被検者60から生体情報20が測定される。具体的には、評価対象物50の種類、および、評価対象物50の測定方法を含む3種類の測定項目(脳活動量、脳波および心拍、および、視点移動量)に基づいて、3つの化粧水51~53の各々について、3種類の測定項目に対応するように、複数の生体情報20(脳血流量、脳波、心拍数、および、視点移動量)が測定される。
次に、ステップ402において、被検者60とは別個に評価対象物50に対応するように選択された評価者70による評価対象物50に対する評価の所見である評価所見30が取得される。具体的には、評価対象物50を試用している状態の被検者60の試用状況に関する情報に基づいて、評価者70(人間工学の専門家である評価者71およびプロダクトデザイナーである評価者72)による評価を示す評価得点と文字情報とを含む評価所見30が、評価者70による評価者端末3に対する入力操作に基づいて、取得される。
次に、ステップ403において、測定された生体情報20と取得された評価所見30とを含む評価対象物50に対する評価結果80が取得される。具体的には、測定された生体情報20に基づいて、測定結果として数値によって表された生体情報20が取得される。また、評価者端末3から送信された評価所見30が取得される。そして、取得された生体情報20および評価所見30に基づいて、評価対象物50を比較した場合の順位を識別可能な情報を含む評価結果80が取得される。
次に、ステップ404において、複数の生体情報20の各々と評価所見30とが並べて表示されるとともに、複数の評価対象物50を比較した場合の順位を識別可能な情報を含む評価結果80が表示される。具体的には、生体情報20に含まれる第1生体情報20a~第3生体情報20cの各々について、1以上100以下の数値と、それぞれの生体情報20に対応するコメントとが、表示部12に並べて表示される。また、評価所見30(評価所見30aおよび評価所見30b)について、評価所見30に含まれる評価得点と文字情報とが、表示部12に並べて表示される。そして、生体情報20および評価所見30に基づいて取得された複数の評価対象物50を比較した場合の順位が、表示部12に表示される。すなわち、複数(3つ)の評価対象物50(化粧水51、化粧水52、および、化粧水53)の各々について、複数の生体情報20と、評価所見30と、対応する順位とが、表示部12に並べて表示される。
なお、ステップ401における生体情報20を測定する処理と、ステップ402における評価所見30を取得する処理とは、どちらのステップを先に行ってもよい。
[第1実施形態の感性計測方法の効果]
第1実施形態の感性計測方法では、以下のような効果を得ることができる。
第1実施形態の感性計測方法では、上記のように、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定する。これにより、実際に評価対象物50を試用することによって感じる主観的な感性を客観的なデータとして示すことができる。そして、測定された生体情報20に基づいて、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価対象物50に対する評価結果80を取得する。これにより、感性を客観的なデータとして示した生体情報20に基づいて、複数の評価対象物50を比較した結果を容易に取得することができる。その結果、複数の評価対象物50を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物50に対する評価を容易に取得することができる。また、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定するため、評価対象物50の種類、評価対象物50を試用する場面、および、評価対象物50を試用する人などを考慮に入れて、評価対象物50に対応するように選択された測定項目に基づいて、生体情報20を測定することができる。そのため、評価対象物50を試用している状態の被検者60から生体情報20を測定する場合に、適切な測定項目の生体情報20を容易に測定することができる。
また、第1実施形態では、以下のように構成したことによって、更なる効果が得られる。
すなわち、第1実施形態では、上記のように、被検者60とは別個に評価対象物50に対応するように選択された評価者70が、被検者60による複数の評価対象物50の各々の試用状況に関する情報に基づいて評価対象物50を評価した評価所見30を取得するステップをさらに備え、評価結果80を取得するステップは、測定された生体情報20と取得された評価所見30とを含む評価結果80を取得するステップである。このように構成すれば、評価対象物50を実際に試用する被検者60とは別個に被検者60の試用状況を観察した客観的な観点から、評価者70による行動観察により得られた情報を評価対象物50に対する評価所見30として取得することができる。そのため、データとして示された感性の情報に加えて、第三者の立場から評価対象物50について客観的な評価を取得することができる。この結果、評価対象物50を実際に試用する場合に被検者60が感じる感性についてデータとして示された生体情報20と、第三者の立場から客観的に評価した評価所見30とを取得することができるので、感性によって評価対象物50を評価する場合に、客観的な根拠に基づく評価を容易に取得することができる。
また、第1実施形態では、上記のように、評価所見30を取得するステップは、製品、システム、および、サービスを利用する場合に得られる印象および経験(ユーザーエクスペリエンス)についての専門家を含む評価者70による評価の所見を示す文字情報を含む評価所見30を取得するステップである。このように構成すれば、ユーザーエクスペリエンスについての専門家による所見によって、被検者60が評価対象物50を試用する際に得られるユーザーエクスペリエンスに対する評価を取得することができる。そのため、実際に評価対象物50を試用している被検者60による主観的な視点とは別個に、ユーザーエクスペリエンスについて専門的な知見を有する評価者70による客観的な視点から、評価対象物50が被検者60にもたらすユーザーエクスペリエンスについての評価を取得することができる。その結果、感性によって評価対象物50を評価する場合に、ユーザーエクスペリエンスについての専門的な知見に基づいて、客観的な根拠に基づく評価をより詳細に取得することができる。
また、第1実施形態では、上記のように、評価所見30を取得するステップは、評価対象物50を試用している被検者60の行動を観察することによって評価対象物50の使用性(ユーザビリティ)の問題点を抽出する専門家による所見を含む評価所見30を取得するステップである。このように構成すれば、評価対象物50が被検者60に試用されている様子を観察することによって、評価対象物50が利用環境に適した外観および形状を有しているか、または、評価対象物50を試用するにあたって被検者60にとって使いにくそうな点はないか、などのユーザビリティについての問題点の評価について、実際に試用している被検者60とは別のユーザビリティの専門家からの評価の所見を取得することができる。その結果、実際に評価対象物50を試用している被検者60が認識できないような、評価対象物50に対する潜在的な問題点および課題についても、専門家の所見を取得することができるので、評価対象物50についてのより詳細な評価結果80を取得することができる。
また、第1実施形態では、上記のように、評価結果80を取得するステップは、生体情報20および評価所見30に基づいて、複数の評価対象物50の各々を比較した場合の順位を含む評価結果80を取得するステップである。このように構成すれば、複数の評価対象物50のうちから、感性計測に基づいて評価対象物50を選定する場合に、複数の評価対象物50を比較した結果の順位を容易に認識することができる。そのため、複数の評価対象物50のうちから最も優れている評価対象物50を容易に選定することができる。
また、第1実施形態では、上記のように、生体情報20を測定するステップは、評価対象物50に対応するように選択された複数の測定項目に基づいて、複数の測定項目の各々に対応する複数の生体情報20を測定するステップであり、複数の評価対象物50の各々について、複数の生体情報20の各々と評価所見30とを並べて表示するとともに、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価結果80を表示するステップをさらに備える。このように構成すれば、複数の生体情報20と評価所見30とが並べて表示されるため、評価対象物50について取得された複数の生体情報20と評価所見30とを容易に見比べることができる。たとえば、複数の評価対象物50の各々について、複数の生体情報20を測定する場合にも、複数の評価対象物50の各々について、複数の生体情報20と評価所見30とを視覚的に容易に見比べることができる。その結果、複数の評価対象物50について、複数の生体情報20と評価所見30とを容易に見比べることができるので、感性計測に基づいて複数の評価対象物50を容易に比較することができる。
また、第1実施形態では、上記のように、評価結果80を表示するステップは、測定された生体情報20と取得された評価所見30とが共通の基準に基づく表記(1以上100以下の数値による表記)によって表示された状態で評価結果80を表示するステップである。このように構成すれば、共通の基準に基づく表記によって生体情報20と評価所見30とが表示されるため、共通の基準に基づく表記によって表示された生体情報20と評価所見30とを見比べることができる。そのため、生体情報20と評価所見30とが異なる表記によって表示されている場合と比べて、感性計測に基づいて複数の評価対象物50をより容易に比較することができる。
また、第1実施形態では、上記のように、生体情報20を測定するステップは、評価対象物50に対応するように選択された複数の測定項目に基づいて、複数の測定項目の各々に対応する複数の生体情報20を測定するステップであり、評価結果80を取得するステップは、測定された複数の生体情報20の各々と取得された評価所見30とに対して、各々重み付けが行われた状態の評価結果80を取得するステップである。このように構成すれば、測定された生体情報20と、取得された評価所見30とに対して重み付けが行われた状態の評価結果80を取得することができるので、生体情報20と評価所見30とのいずれか一方をより重視した評価結果80を取得することができる。そのため、評価対象物50の種類に応じて生体情報20と評価所見30とのいずれを重視するかを変更することができるので、評価対象物50に対応するように適切に重み付けが変更された評価結果80を取得することができる。その結果、評価対象物50に対応するようにより適切な評価結果80を容易に取得することができる。
また、第1実施形態では、上記のように、生体情報20を測定するステップは、被検者60の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを含む生体情報20を測定するステップである。このように構成すれば、被検者60の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つに基づいて、被検者60が評価対象物50に感じる感性を測定することができる。そのため、被検者60自身が知覚することができない生体信号に基づいて、感性を定量的に計測することができるので、客観的なデータとして被検者60の感性を計測することができる。その結果、被検者60の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを測定することによって、客観的な根拠に基づく評価をより効果的に取得することができる。
[第1実施形態による感性計測システムの効果]
第1実施形態の感性計測システム100では、以下のような効果を得ることができる。
第1実施形態の感性計測システム100では、上記のように構成することにより、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定する。これにより、実際に評価対象物50を試用することによって感じる主観的な感性を客観的なデータとして示すことができる。そして、測定された生体情報20に基づいて、複数の評価対象物50の各々を比較した場合の順位を識別可能な情報を含む評価対象物50に対する評価結果80を取得する。これにより、感性を客観的なデータとして示した生体情報20に基づいて、複数の評価対象物50を比較した結果を容易に取得することができる。その結果、複数の評価対象物50を人の感性による評価に基づいて比較する場合に、客観的な根拠に基づく評価対象物50に対する評価を容易に取得することができる。また、評価対象物50に対応するように選択された測定項目に基づいて、評価対象物50を試用している状態の被検者60から生体情報20を測定するため、評価対象物50の種類、評価対象物50を試用する場面、および、評価対象物50を試用する人などを考慮に入れて、評価対象物50に対応するように選択された測定項目に基づいて、生体情報20を測定することができる。そのため、評価対象物50を試用している状態の被検者60から生体情報20を測定する場合に、適切な測定項目の生体情報20を容易に測定することができる。
また、第1実施形態では、被検者60とは別個に評価対象物50に対応するように選択された評価者70が、被検者60による複数の評価対象物50の各々の試用状況に関する情報に基づいて評価対象物50を評価した評価所見30を取得する評価所見取得部(評価者端末3)をさらに備え、評価結果取得部(感性計測端末1)は、生体情報測定部(測定装置2)によって測定された生体情報20と、評価者端末3によって取得された評価所見30とを含む評価結果80を取得するように構成されている。このように構成すれば、評価対象物50を実際に試用する被検者60とは別個に被検者60の試用状況を観察した客観的な観点から、評価者70による行動観察により得られた情報を評価対象物50に対する評価所見30として取得することができる。そのため、データとして示された感性の情報に加えて、第三者の立場から評価対象物50について客観的な評価を取得することができる。この結果、評価対象物50を実際に試用する場合に被検者60が感じる感性についてデータとして示された生体情報20と、第三者の立場から客観的に評価した評価所見30とを取得することができるので、感性によって評価対象物50を評価する場合に、客観的な根拠に基づく評価を容易に取得することができる。
また、第1実施形態では、評価結果取得部(感性計測端末1)によって取得された評価結果80を表示する表示部12をさらに備える。このように構成すれば、表示部12に表示された評価結果80を視認することによって、評価結果80を容易に認識することができる。
[第2実施形態]
次に、図5~図7を参照して、本発明の第2実施形態による感性計測システム200の構成について説明する。この第2実施形態では、第1実施形態と異なり、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択する。なお、上記第1実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
第2実施形態による感性計測システム200は、図5に示すように、感性計測端末201を備える。第2実施形態による感性計測システム200は、第1実施形態と同様に化粧水51~53である評価対象物50に対する評価結果80を取得する。
感性計測端末201は、第1実施形態による感性計測端末1と同様に評価対象物50に対する評価結果80を取得するために用いられるコンピュータである。感性計測端末201は、記憶部214および制御部215を含む。
記憶部214は、第1実施形態による記憶部14と同様に、ハードディスクドライブなどの記憶装置により構成されている。記憶部214は、評価対象物50の種類を示すカテゴリー情報214aと、評価対象物50の種類に対応するように定められた複数の測定項目の組み合わせ214bとを関連付けて記憶している。カテゴリー情報214aは、たとえば、飲み物、食べ物、および、化粧品などを含む。そして、測定項目の組み合わせ214bは、カテゴリー情報214aに含まれる評価対象物50の種類に対応するように予め定められた測定項目の組み合わせである。測定項目は、たとえば、被検者60から測定される生体情報20の種類と、生体情報20を測定するために用いられる測定装置2を示す情報である。なお、測定項目は、年齢および性別などの被検者60の特徴を定める情報と、評価結果80を出力するためのレポートの形式などを含んでいてもよい。
制御部215は、第1実施形態による制御部15と同様に、CPU、ROM、および、RAMなどを含む。制御部215は、CPUが所定の制御プログラムを実行することにより、感性計測端末201の各部の制御を行う。また、第2実施形態では、制御部215は、複数の測定項目のうちから、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択する。具体的には、制御部215は、記憶部214に記憶されている複数のカテゴリー情報214aうちから、一のカテゴリー情報214aを選択する入力操作が受け付けられたことに基づいて、選択された一のカテゴリー情報214aに対応する測定項目の組み合わせ214bを選択する。
たとえば、図6に示すように、制御部215は、評価対象物50の複数のカテゴリー情報214aを選択可能なように表示部12に表示させる。そして、制御部215は、操作部11に対する入力操作に基づいて、複数のカテゴリー情報214aのうちから一のカテゴリー情報214aを選択するための操作信号を取得する。制御部215は、取得された操作信号に基づいて、選択された一のカテゴリー情報214aに対応する測定項目の組み合わせ214bを選択する。
そして、図7に示すように、制御部215は、選択されたカテゴリー情報214aと、選択されたカテゴリー情報214aに対応する測定項目の組み合わせ214bとを、表示部12に表示させる。
すなわち、第2実施形態では、制御部215は、予め記憶されている評価対象物50の複数のカテゴリー情報214aのうちから一のカテゴリー情報214aを選択する操作に基づいて、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択する。そして、測定装置2は、制御部215によって選択された測定項目の組み合わせ214bに基づいて、評価対象物50を試用している状態の被検者60から生体情報20を取得する。
なお、第2実施形態のその他の構成は、第1実施形態と同様である。
[第2実施形態の効果]
第2実施形態では、以下のような効果を得ることができる。
第2実施形態では、上記のように、生体情報20を測定するステップの前に、複数の測定項目のうちから、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択するステップをさらに備え、生体情報20を測定するステップは、選択された測定項目の組み合わせ214bに基づいて、選択された測定項目の組み合わせ214bのうちの各々の測定項目に対応する複数の生体情報20を測定するステップである。ここで、感性計測に基づいて評価対象物50の評価を行う場合には、複数の生体情報20を測定することが考えられる。たとえば、脳血流量、脳波、心拍数、および、視点移動量に加えて、血圧、表情筋の筋電図、および、表情センシングデバイスによる表情変化の測定などの多数の種類の生体情報20を測定することが考えられる。そのため、評価対象物50を適切に評価するためには、このような複数の種類の生体情報20のうちから、評価対象物50に対応する生体情報20を選択する必要がある。この点を考慮して第2実施形態では、生体情報20を測定するステップの前に、複数の測定項目のうちから、予め定められた測定項目の組み合わせ214bを評価対象物50に対応するように選択するステップをさらに備える。このように構成すれば、評価対象物50に対応するように予め定められた測定項目の組み合わせ214bを選択することによって、評価対象物50に対応した測定項目の組み合わせ214bを容易に取得することができる。そのため、感性計測を行う場合に、評価対象物50の種類ごとに適した測定項目の組み合わせ214bを容易に取得することができるので、評価対象物50に対応する測定項目を選択する際の手間の増大を抑制することができる。なお、第2実施形態によるその他の効果は、第1実施形態と同様である。
[第3実施形態]
次に、図8および図9を参照して、本発明の第3実施形態による感性計測システム300の構成について説明する。この第3実施形態では、第1実施形態と異なり、評価者70として機械学習によって生成された学習済みモデル370が用いられる。なお、上記第1および第2実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
第3実施形態による感性計測システム300は、機械学習によって生成された学習済みモデル370を用いて、測定された生体情報20に基づいて出力された評価対象物50に対する評価の所見を含む評価所見330を取得する。すなわち、第3実施形態による感性計測システム300は、機械学習によって生成された被検者60とは別個に評価対象物50に対応するように選択された評価者として、学習済みモデル370を用いて評価所見330を取得する。
たとえば、第3実施形態による感性計測システム300は、第1実施形態による感性計測システム100と同様に、評価対象物50として化粧水51~53に対する評価結果80を取得する。第3実施形態による感性計測システム300では、化粧水51~53に対する評価結果80は、測定装置2によって測定された生体情報20と、学習済みモデル370によって取得された評価所見330とを含む。
第3実施形態による感性計測システム300は、図8に示すように、感性計測端末301と、学習装置303とを備える。感性計測端末301は、測定装置2によって測定された生体情報20を取得する。また、感性計測端末301は、学習装置303によって予め生成された学習済みモデル370を用いて、評価所見330を取得する。感性計測端末301は、請求の範囲における「評価所見取得部」および「評価結果取得部」の一例である。
図9に示すように、学習装置303は、学習済みモデル370を学習させる。学習済みモデル370は、教師入力用生体情報303aと教師出力用評価所見303bとによって、機械学習によって生成される。機械学習法として、多層のニューラルネットワークを用いる機械学習である深層学習が用いられる。機械学習法は、たとえば、全層畳み込みニューラルネットワーク(FullyConvolutionalNetworks:FCN)を用いた深層学習である。また、学習装置303は、たとえば、CPU、ROM、および、RAMなどを含む機械学習用のコンピュータである。また、学習装置303は、感性計測端末301と通信可能に構成されており、生成した学習済みモデル370を感性計測端末301に送信する。
たとえば、学習装置303によって予め生成された学習済みモデル370を用いて化粧水51~53に対する評価結果80を取得する場合には、学習装置303によって学習済みモデル370を学習させるために、化粧水51~53とは別個の複数種類の学習用化粧水を用いて教師入力用生体情報303aおよび教師出力用評価所見303bが取得される。教師入力用生体情報303aは、第1実施形態において化粧水51~53を試用している状態の被検者60から生体情報20を測定する場合と同様に、学習用化粧水を試用している状態の学習用被検者から測定される。学習用被検者は、化粧水51~53を試用する被検者60とは別個の被検者である。また、教師出力用評価所見303bは、第1実施形態において評価所見30を取得する場合と同様に、学習用化粧水を試用している学習用被検者を観察することによって、評価者70によって取得される学習用化粧水に対する評価の所見である。教師出力用評価所見303bは、たとえば、1以上100以下の数値情報である。
すなわち、学習装置303は、複数種類の学習用化粧水を用いて、第1実施形態と同様の感性計測を複数の学習用被検者に対して行うことによって、複数の教師入力用生体情報303aと、教師入力用生体情報303aに対応する複数の教師出力用評価所見303bとを取得する。そして、学習装置303は、教師入力用生体情報303aを入力として、教師出力用評価所見303bを出力として、機械学習によって学習を行い、学習済みモデル370を生成する。すなわち、学習装置303は、教師入力用生体情報303aと教師出力用評価所見303bとを教師データ(トレーニングセット)として、機械学習によって、学習済みモデル370を学習させる。
感性計測端末301は、記憶部314および制御部315を含む。感性計測端末301は、第1実施形態による感性計測端末1と同様に評価対象物50に対する評価結果380を取得するために用いられるコンピュータである。
記憶部314は、学習装置303によって生成された学習済みモデル370を記憶する。記憶部314は、第1実施形態による記憶部14と同様に、ハードディスクドライブなどの記憶装置により構成されている。
制御部315は、CPU、ROM、および、RAMなどを含む。制御部315は、CPUが所定の制御プログラムを実行することにより、感性計測端末301の各部の制御を行う。制御部315は、通信部13を介して、学習装置303によって生成された学習済みモデル370を取得する。そして、制御部315は、取得された学習済みモデル370を記憶部314に記憶させる。
制御部315は、測定装置2によって測定された生体情報20を取得する。そして、制御部315は、記憶部314に記憶された学習済みモデル370を用いて、測定された生体情報20に基づいて、評価所見330を取得する。評価所見330は、たとえば、1以上100以下の数値情報を含む。
なお、第3実施形態のその他の構成は、第1実施形態と同様である。
[第3実施形態の効果]
第3実施形態では、以下のような効果を得ることができる。
第3実施形態では、上記のように、評価所見330を取得するステップは、機械学習によって生成された学習済みモデル370を用いて、測定された生体情報20に基づいて出力された評価対象物50に対する評価の所見を含む評価所見330を取得するステップである。このように構成すれば、学習済みモデル370を用いて、測定された生体情報20に基づいて評価所見330を取得することができるので、人間である評価者が評価対象物50に対する評価を行うことなく評価所見330を取得することができる。そのため、機械学習によって生成された学習済みモデル370を用いることによって、人間である評価者の作業負担の増大を抑制することができる。また、第3実施形態のその他の効果は、第1および第2実施形態の効果と同様である。
[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく請求の範囲によって示され、さらに請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
(第1変形例)
たとえば、上記第1~第3実施形態では、1以上100以下の数値によって示された生体情報20および評価所見30が評価結果80として表示部12に表示される例を示したが、本発明はこれに限られない。本発明では、図10に示す第1変形例による評価結果80のように、4段階の評価を示す記号によって、生体情報および評価結果を表すようにしてもよい。具体的には、最も良い評価を表す2重丸(円を2つ重ねた記号)と、2番目に良い評価を表す1重丸(1つの円の記号)と、3番目に良い評価を表す三角形と、最も悪い評価を表すバツ印(X印)と、の4つの記号によって生体情報および評価結果を示すようにしてもよい。
(第2変形例)
また、上記第1~第3実施形態では、複数の生体情報20の各々(第1~第3生体情報20a~20c)を並べて表示する例を示したが、本発明はこれに限られない。たとえば、図11に示す第2変形例による評価結果80のように、複数の生体情報に基づいて生成された1つの総合的な生体情報を表示するようにしてもよい。具体的には、測定装置によって測定された複数の生体情報の測定結果を1以上100以下の数値によって表すとともに、1以上100以下の数値によって表された生体情報の平均値を、1つの総合的な生体情報として表示部(評価結果)に表示するようにしてもよい。
(第3変形例)
また、第1~第3実施形態では、評価対象物50が化粧水である例を示したが、本発明はこれに限られない。たとえば、図12に示す第3変形例による評価対象物450のように、評価対象物はコーヒーであってもよい。具体的には、評価対象物としてのコーヒーの評価結果を取得する場合には、「会議を行っている最中に飲むことによって、議論が活発になる」というコンセプトを評価する。すなわち、コーヒーを飲みながら議論を行っている状態の被検者から、測定装置によって脳波などの生体情報が測定される。そして、コーヒーを飲みながら議論を行っている被検者を観察することによって、評価者による評価所見が取得される。そして、生体情報および評価所見に基づいて、集中度、リラックス度、および、議論の活発性などが評価された評価結果が取得される。
また、測定装置2(生体情報測定部)によって測定される生体情報20を時間軸に沿って分割した状態で比較するようにしてもよい。すなわち、1つの種類の測定装置2から取得された生体情報20を時間軸に沿って分割することによって、分割された複数の生体情報20を取得するようにしてもよい。そして、取得された複数の生体情報20の各々に対して、別個に順位付けが行われる(被検者60の感性に基づく評価が取得される)ようにしてもよい。たとえば、第3変形例による評価対象物450のように、コーヒーを評価対象物50とする場合には、コーヒーを口に含んだ時点において取得される生体情報20と、飲み込んだ後(後味)の時点において取得される生体情報20とが、異なる場合がある。そのため、上記のように、測定された生体情報20を時間軸に沿って分割することによって、時間軸に沿って変化する生体情報20の評価を効果的に取得することが可能である。なお、生体情報20を時間軸で分割する場合には、時間軸によって測定装置2ごと(生体情報20ごと)の重み付けを変更させないことが望ましい。すなわち、複数の測定装置2によって測定される複数の生体情報20の各々について、たとえば、口に含んだ時点における生体情報20と、飲み込んだ後の時点における生体情報20とを、共通の重み付けによって評価することが望ましい。
(その他の変形例)
また、上記第1および第2実施形態では、評価者70による評価対象物50に対する評価所見30を取得し、上記第3実施形態では、学習済みモデル370に基づいて評価所見330を取得(推定)する例を示したが、本発明はこれに限られない。たとえば、評価所見を取得せずに、測定された生体情報に基づいて評価結果を取得するようにしてもよい。
また、上記第1および第2実施形態では、評価者70は製品、システム、および、サービスを利用する場合に得られる印象および経験(ユーザーエクスペリエンス)ついての専門家を含む例を示したが、本発明はこれに限られない。たとえば、評価者は、評価対象物に対応する分野の専門家を含んでもよい。すなわち、評価対象物が飲食物である場合には、評価者は、たとえば、調香師などの香りの専門家を含んでもよい。
また、上記第1および第2実施形態では、評価所見30は、評価対象物50を試用している被検者の行動を観察することによって取得された所見を含む例を示したが、本発明はこれに限られない。たとえば、評価所見は、評価者自身が評価対象物を試用することによって取得された所見であってもよい。
また、上記第1および第2実施形態では、生体情報20を測定しながら評価対象物50を試用している被検者60を評価者70が観察することによって、評価者70による評価所見30を取得する例を示したが、本発明はこれ位限られない。たとえば、被検者から生体情報を測定する場合とは別個のタイミングにおいて、生体情報を取得するための装置を装着していない状態の被検者が評価対象物を試用している状態を評価者が観察することによって、評価者による評価所見を取得するようにしてもよい。
また、上記第1~第3実施形態では、複数の評価対象物50の各々を比較した場合の順位を含む評価結果80を取得する例を示したが、本発明はこれに限られない。たとえば、複数の評価結果に対する評価の総合的な点数を含む評価結果を取得するようにしてもよい。また、順位ではなく、複数の評価対象物のうちから、最も良い評価を取得した評価対象物を判別可能に報知(表示)させるようにしてもよい。また、複数の評価対象物のうちから、1つの評価対象物の評価結果のみを取得するようにしてもよい。また、評価結果にアンケートの結果を含ませるようにしてもよい。
また、上記第1~第3実施形態では、測定された生体情報20と取得された評価所見30とが共通の基準に基づく表記によって表示された状態で評価結果80を表示する例を示したが、本発明はこれに限られない。たとえば、生体情報と評価所見とが異なる基準に基づく表記によって表示されていてもよい。すなわち、生体情報を点数表記によって表示するとともに、評価所見を3段階評価(たとえば、A、B、C)によって表示してもよい。
また、上記第1~第3実施形態では、測定された複数の生体情報20の各々と取得された評価所見30とに対して、各々重み付けが行われた状態の評価結果80を取得する例を示したが、本発明はこれに限られない。たとえば、重み付けを行わず、測定された複数の生体情報の得点と評価所見の得点とを均等に評価することによって評価結果を取得するようにしてもよい。
また、上記第1~第3実施形態では、生体情報20は、被検者60の脳血流量と、脳波と、心拍数と、視点移動量との少なくとも一つを含む例を示したが、本発明はこれに限られない。たとえば、呼吸数、体温、発汗量、または、瞳孔径などを生体情報として取得してもよい。また、頷く動作、または、表情など、被検者の無意識下での行動を数値化して生体情報として取得してもよい。
また、上記第2実施形態では、複数の測定項目のうちから、予め定められた測定項目の組み合わせを評価対象物50に対応するように選択するステップをさらに備える例を示したが、本発明はこれに限られない。たとえば、複数の測定項目のうちから、評価対象物に対応するように一の測定項目を選択するようにしてもよい。
また、上記第3実施形態では、機械学習によって生成された学習済みモデル370を用いて、評価所見330を取得する例を示したが、本発明はこれに限られない。たとえば、機械学習ではなくルールベースによって生成されたアルゴリズムを用いて、評価対象物に対する評価所見を取得するようにしてもよい。
また、上記第1~第3実施形態では、評価結果80を表示部12に表示する例を示したが、本発明はこれに限られない。たとえば、紙などに印刷することによって評価結果を出力してもよい。また、取得した評価結果を、通信部を介して外部に出力するようにしてもよい。
また、上記第1および第2実施形態では、評価者70が撮像部4によって撮像された被検者60を観察することによって、評価対象物50を評価する例を示したが、本発明はこれに限られない。たとえば、評価者が直接被検者を観察することによって、評価対象物を評価するようにしてもよい。また、その場合には、評価者による感性計測端末の操作部に対する入力操作に基づいて、感性計測端末が評価所見を取得するようにしてもよい。
また、上記第1および第2実施形態では、評価者端末3が撮像部4からの動画像を取得することによって、評価者端末3の表示部32に表示された被検者60を評価者70が観察することによって、評価対象物50を評価する例を示したが、本発明はこれに限られない。たとえば、撮像部によって撮像された動画像を感性計測端末の記憶部に記憶させるようにするとともに、記憶された動画像を評価者が視認することによって、評価対象物を試用している被検者を観察するようにしてもよい。
また、上記第1~第3実施形態では、感性計測端末1に含まれる記憶部14に生体情報20および評価所見30が記憶される例を示したが、本発明はこれに限られない。たとえば、クラウド(クラウドコンピューティング)上に構築されたデータベースに生体情報および評価所見を記憶するようにしてもよい。その場合、感性計測端末は、クラウド上に記憶された生体情報および評価所見に基づいて評価結果を取得するようにしてもよい。
また、上記第1および第2実施形態では、評価者70は人間工学の専門家と、プロダクトデザイナーである例を示したが、本発明はこれに限られない。たとえば、評価者は、人間中心設計の専門家であってもよい。また、評価者は、エスノグラファー(民族誌家)であってもよい。
[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(項目1)
評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定するステップと、
測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価対象物に対する評価結果を取得するステップと、を備える、感性計測方法。
(項目2)
前記被検者とは別個に前記評価対象物に対応するように選択された評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した評価所見を取得するステップをさらに備え、
前記評価結果を取得するステップは、測定された前記生体情報と取得された前記評価所見とを含む前記評価結果を取得するステップである、項目1に記載の感性計測方法。
(項目3)
前記評価所見を取得するステップは、製品、システム、および、サービスを利用する場合に得られる印象および経験についての専門家を含む前記評価者による評価の所見を示す文字情報を含む前記評価所見を取得するステップである、項目2に記載の感性計測方法。
(項目4)
前記評価所見を取得するステップは、前記評価対象物を試用している前記被検者の行動を観察することによって前記評価対象物の使用性の問題点を抽出する前記専門家による所見を含む前記評価所見を取得するステップである、項目3に記載の感性計測方法。
(項目5)
前記評価結果を取得するステップは、前記生体情報および前記評価所見に基づいて、前記複数の評価対象物の各々を比較した場合の順位を含む前記評価結果を取得するステップである、項目2~4のいずれか1項に記載の感性計測方法。
(項目6)
前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
前記複数の評価対象物の各々について、前記複数の生体情報の各々と前記評価所見とを並べて表示するとともに、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価結果を表示するステップをさらに備える、項目2~5のいずれか1項に記載の感性計測方法。
(項目7)
前記評価結果を表示するステップは、測定された前記生体情報と取得された前記評価所見とが共通の基準に基づく表記によって表示された状態で前記評価結果を表示するステップである、項目6に記載の感性計測方法。
(項目8)
前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
前記評価結果を取得するステップは、測定された前記複数の生体情報の各々と取得された前記評価所見とに対して、各々重み付けが行われた状態の前記評価結果を取得するステップである、項目2~7のいずれか1項に記載の感性計測方法。
(項目9)
前記生体情報を測定するステップは、前記被検者の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを含む前記生体情報を測定するステップである、項目1~8のいずれか1項に記載の感性計測方法。
(項目10)
前記生体情報を測定するステップの前に、複数の前記測定項目のうちから、予め定められた前記測定項目の組み合わせを前記評価対象物に対応するように選択するステップをさらに備え、
前記生体情報を測定するステップは、選択された前記測定項目の組み合わせに基づいて、前記選択された測定項目の組み合わせのうちの各々の前記測定項目に対応する複数の前記生体情報を測定するステップである、項目1~9のいずれか1項に記載の感性計測方法。
(項目11)
前記評価所見を取得するステップは、機械学習によって生成された学習済みモデルを用いて、測定された前記生体情報に基づいて出力された前記評価対象物に対する評価の所見を含む前記評価所見を取得するステップである、項目2~8のいずれか1項に記載の感性計測方法。
(項目12)
評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定する生体情報測定部と、
前記生体情報測定部によって測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を識別可能な情報を含む前記評価対象物に対する評価結果を取得する評価結果取得部と、を備える、感性計測システム。
(項目13)
前記被検者とは別個に前記評価対象物に対応するように選択された評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した評価所見を取得する評価所見取得部をさらに備え、
前記評価結果取得部は、前記生体情報測定部によって測定された前記生体情報と、前記評価所見取得部によって取得された前記評価所見とを含む前記評価結果を取得するように構成されている、項目12に記載の感性計測システム。
(項目14)
前記評価結果取得部によって取得された前記評価結果を表示する表示部をさらに備える、項目12または13に記載の感性計測システム。
1、201 感性計測端末(評価結果取得部)
2 測定装置(生体情報測定部)
3 評価者端末(評価所見取得部)
12 表示部
20 生体情報
30、330 評価所見
50、450 評価対象物
60 被検者
70 評価者
80、380 評価結果
100、200、300 感性計測システム
214b 測定項目の組み合わせ
301 感性計測端末(評価所見取得部、評価結果取得部)
370 学習済みモデル

Claims (16)

  1. 評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定するステップと、
    測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を表す情報を含む前記評価対象物に対する評価結果を取得するステップと、を備える、感性計測方法。
  2. 前記被検者とは異なる評価者が前記評価対象物を評価した評価所見を取得するステップをさらに備え、
    前記評価結果を取得するステップは、測定された前記生体情報および前記評価所見に基づいて、前記評価結果を取得するステップを含む、請求項1に記載の感性計測方法。
  3. 前記評価所見を取得するステップは、前記被検者とは別個に前記評価対象物に対応するように選択された前記評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した前記評価所見を取得するステップを含み
    前記評価結果を取得するステップは、測定された前記生体情報と取得された前記評価所見とを含む前記評価結果を取得するステップである、請求項に記載の感性計測方法。
  4. 前記評価所見を取得するステップは、製品、システム、および、サービスを利用する場合に得られる印象および経験についての専門家を含む前記評価者による評価の所見を示す文字情報を含む前記評価所見を取得するステップである、請求項に記載の感性計測方法。
  5. 前記評価所見を取得するステップは、前記評価対象物を試用している前記被検者の行動を観察することによって前記評価対象物の使用性の問題点を抽出する前記専門家による所見を含む前記評価所見を取得するステップである、請求項に記載の感性計測方法。
  6. 前記評価結果を取得するステップは、前記生体情報および前記評価所見に基づいて、前記複数の評価対象物の各々を比較した場合の順位を含む前記評価結果を取得するステップである、請求項2~5のいずれか1項に記載の感性計測方法。
  7. 前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
    前記複数の評価対象物の各々について、前記複数の生体情報の各々と前記評価所見とを並べて表示するとともに、前記複数の評価対象物の各々を比較した場合の順位を表す情報を含む前記評価結果を表示するステップをさらに備える、請求項2~6のいずれか1項に記載の感性計測方法。
  8. 前記評価結果を表示するステップは、測定された前記生体情報と取得された前記評価所見とが共通の基準に基づく表記によって表示された状態で前記評価結果を表示するステップである、請求項に記載の感性計測方法。
  9. 前記生体情報を測定するステップは、前記評価対象物に対応するように選択された複数の前記測定項目に基づいて、前記複数の測定項目の各々に対応する複数の前記生体情報を測定するステップであり、
    前記評価結果を取得するステップは、測定された前記複数の生体情報の各々に対して、各々重み付けが行われた状態の前記評価結果を取得するステップを含む、請求項2~8のいずれか1項に記載の感性計測方法。
  10. 記評価結果を取得するステップは、測定された前記複数の生体情報の各々と取得された前記評価所見とに対して、各々重み付けが行われた状態の前記評価結果を取得するステップである、請求項に記載の感性計測方法。
  11. 前記生体情報を測定するステップは、前記被検者の脳血流量と、脳波と、心拍数と、視点移動との少なくとも一つを含む前記生体情報を測定するステップである、請求項1~10のいずれか1項に記載の感性計測方法。
  12. 前記生体情報を測定するステップの前に、複数の前記測定項目のうちから、予め定められた前記測定項目の組み合わせを前記評価対象物に対応するように選択するステップをさらに備え、
    前記生体情報を測定するステップは、選択された前記測定項目の組み合わせに基づいて、前記選択された測定項目の組み合わせのうちの各々の前記測定項目に対応する複数の前記生体情報を測定するステップである、請求項1~11のいずれか1項に記載の感性計測方法。
  13. 前記評価所見を取得するステップは、機械学習によって生成された学習済みモデルを用いて、測定された前記生体情報に基づいて出力された前記評価対象物に対する評価の所見を含む前記評価所見を取得するステップである、請求項2~10のいずれか1項に記載の感性計測方法。
  14. 評価対象物に対応するように選択された測定項目に基づいて、複数の前記評価対象物の各々を試用している状態の被検者から生体情報を測定する生体情報測定部と、
    前記生体情報測定部によって測定された前記生体情報に基づいて、前記複数の評価対象物の各々を比較した場合の順位を表す情報を含む前記評価対象物に対する評価結果を取得する評価結果取得部と、を備える、感性計測システム。
  15. 前記被検者とは別個に前記評価対象物に対応するように選択された評価者が、前記被検者による前記複数の評価対象物の各々の試用状況に関する情報に基づいて前記評価対象物を評価した評価所見を取得する評価所見取得部をさらに備え、
    前記評価結果取得部は、前記生体情報測定部によって測定された前記生体情報と、前記評価所見取得部によって取得された前記評価所見とを含む前記評価結果を取得するように構成されている、請求項14に記載の感性計測システム。
  16. 前記評価結果取得部によって取得された前記評価結果を表示する表示部をさらに備える、請求項14または15に記載の感性計測システム。
JP2022547399A 2020-09-10 2021-05-28 感性計測方法および感性計測システム Active JP7485059B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020152341 2020-09-10
JP2020152341 2020-09-10
PCT/JP2021/020472 WO2022054349A1 (ja) 2020-09-10 2021-05-28 感性計測方法および感性計測システム

Publications (3)

Publication Number Publication Date
JPWO2022054349A1 JPWO2022054349A1 (ja) 2022-03-17
JPWO2022054349A5 JPWO2022054349A5 (ja) 2023-04-27
JP7485059B2 true JP7485059B2 (ja) 2024-05-16

Family

ID=80631478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022547399A Active JP7485059B2 (ja) 2020-09-10 2021-05-28 感性計測方法および感性計測システム

Country Status (5)

Country Link
US (1) US20230346275A1 (ja)
EP (1) EP4215115A4 (ja)
JP (1) JP7485059B2 (ja)
CN (1) CN116056639A (ja)
WO (1) WO2022054349A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290179A (ja) 2002-04-02 2003-10-14 Japan Tobacco Inc 感覚感性評価システム
WO2010093007A1 (ja) 2009-02-12 2010-08-19 国立大学法人長岡技術科学大学 感性状態判定装置
JP2011120824A (ja) 2009-12-14 2011-06-23 Tokyo Univ Of Agriculture & Technology 感性評価装置、感性評価方法、及び感性評価プログラム
JP2019208885A (ja) 2018-06-05 2019-12-12 株式会社電通サイエンスジャム 感情評価支援システム及び感情評価支援方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7097012B2 (ja) 2017-05-11 2022-07-07 学校法人 芝浦工業大学 感性推定装置、感性推定システム、感性推定方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290179A (ja) 2002-04-02 2003-10-14 Japan Tobacco Inc 感覚感性評価システム
WO2010093007A1 (ja) 2009-02-12 2010-08-19 国立大学法人長岡技術科学大学 感性状態判定装置
JP2011120824A (ja) 2009-12-14 2011-06-23 Tokyo Univ Of Agriculture & Technology 感性評価装置、感性評価方法、及び感性評価プログラム
JP2019208885A (ja) 2018-06-05 2019-12-12 株式会社電通サイエンスジャム 感情評価支援システム及び感情評価支援方法

Also Published As

Publication number Publication date
WO2022054349A1 (ja) 2022-03-17
JPWO2022054349A1 (ja) 2022-03-17
EP4215115A1 (en) 2023-07-26
US20230346275A1 (en) 2023-11-02
CN116056639A (zh) 2023-05-02
EP4215115A4 (en) 2024-04-17

Similar Documents

Publication Publication Date Title
US11561614B2 (en) Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance
Bulagang et al. A review of recent approaches for emotion classification using electrocardiography and electrodermography signals
Li et al. Current and potential methods for measuring emotion in tourism experiences: A review
Bos EEG-based emotion recognition
US20080255949A1 (en) Method and System for Measuring Non-Verbal and Pre-Conscious Responses to External Stimuli
JP6404239B2 (ja) 認知機能評価装置、認知機能評価装置の作動方法、システム及びプログラム
US20190313966A1 (en) Pain level determination method, apparatus, and system
JP2009508553A (ja) 眼球性質を解析することで、人間の感情を決定するシステムおよび方法
JP2006305334A (ja) 回答獲得装置及び評価解析装置
KR101721230B1 (ko) 뇌 기능 평가 및 증진용 웰니스 추천 시스템과 구현 방법
MX2009002419A (es) Metodos para medir la respuesta emocional y preferencia de seleccion.
Dawes et al. Objectively measuring pain using facial expression: is the technology finally ready?
CN101512574A (zh) 用于测量情绪响应和选择偏好的方法
CN105188537A (zh) 使用心理生理测量用于量化瘙痒度的客观非侵入性方法
Chen et al. Comparing measurements for emotion evoked by oral care products
Meschtscherjakov et al. Utilizing emoticons on mobile devices within ESM studies to measure emotions in the field
Matthews et al. Combining trending scan paths with arousal to model visual behaviour on the web: a case study of neurotypical people vs people with autism
Ramirez et al. Neuromarketing study using machine learning for predicting purchase decision
Minkin Vibraimage, Cybernetics and Emotions
JP7485059B2 (ja) 感性計測方法および感性計測システム
WO2020209846A1 (en) Pain level determination method, apparatus, and system
Niedziela et al. Neuroscience tools: Using the right tool for the right question
Georgiev et al. Biosignal measurements for Neurophysiological tests aimed to determine new beverage responses
Tyagi et al. Methods for the Recognition of Human Emotions Based on Physiological Response: Facial Expressions
Quiles Pérez et al. Data Fusion In Neuromarketing: Multimodal Analysis of Biosignals, Lifecycle Stages, Current Advances, Datasets, Trends, and Challenges

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7485059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150