JP6621197B2 - 行動・気持ち推定システム、及び、行動・気持ち推定装置 - Google Patents

行動・気持ち推定システム、及び、行動・気持ち推定装置 Download PDF

Info

Publication number
JP6621197B2
JP6621197B2 JP2015206911A JP2015206911A JP6621197B2 JP 6621197 B2 JP6621197 B2 JP 6621197B2 JP 2015206911 A JP2015206911 A JP 2015206911A JP 2015206911 A JP2015206911 A JP 2015206911A JP 6621197 B2 JP6621197 B2 JP 6621197B2
Authority
JP
Japan
Prior art keywords
information
feeling
behavior
biological
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015206911A
Other languages
English (en)
Other versions
JP2016085741A (ja
Inventor
康広 加藤
康広 加藤
Original Assignee
株式会社きもちラボ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2014214928 priority Critical
Priority to JP2014214928 priority
Application filed by 株式会社きもちラボ filed Critical 株式会社きもちラボ
Publication of JP2016085741A publication Critical patent/JP2016085741A/ja
Application granted granted Critical
Publication of JP6621197B2 publication Critical patent/JP6621197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、行動・気持ち推定システム、及び、行動・気持ち推定装置に関する。

従来より、webサイトの解析を行うために、被験者のマウスのクリック回数や視線を検出するwebサイト解析システムが知られている。(例えば、特許文献1参照)。

特開2005−56080号公報

しかしながら、上記webサイト解析システムでは、単に、クリック回数や視線を検出しているだけであるため、当該webページが目的とする行動(例えば、商品の購入等)を導くように作成されているか否かを解析するには不十分である。

そこで、本発明は、webサイト等の表示媒体の閲覧によって導かれる行動・気持ちを精度よく推定することのできる行動・気持ち推定システム、及び、行動・気持ち推定装置を提供することを目的としている。

上記課題を解決するために、本発明は、複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、前記情報群が表示された後の前記第1の被験者の行動・気持ち情報を入力するための入力部と、複数の第1の被験者から得られた前記動作・生体情報及び前記行動・気持ち情報に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、特定の前記情報群が表示された際の第2の被験者の動作・生体情報が検出された場合に、前記データベースを参照して、前記特定の情報群が表示された後の前記第2の被験者の行動・気持ちを推定する推定部と、を備えたことを特徴とする行動・気持ち推定システムを提供している。

このような構成によれば、まず、複数の第1の被験者から情報群閲覧時の“動作・生体情報”と、閲覧後の“行動・気持ち情報”と、を収集し、動作・生体情報”と“行動・気持ち情報”との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成する。そして、顧客から特定の情報群の行動・気持ち推定が依頼されると、複数の第2の被験者から当該情報群閲覧時の“動作・生体情報”を収集し、データベースを参照して、得られた“動作・生体情報”から導かれる“閲覧後の行動・気持ち”を推定する。これにより、解析業者は、推定部により推定された結果を参考にすることにより、顧客の有する情報群が、目的とする行動・気持ちに適したものであるか否かを高精度に判断することが可能となる。

なお、本発明の“行動・気持ち”とは、必ずしも“行動”と“気持ち”の両方であることを意味せず、いずれか一方の場合も含む。同様に、“動作・生体”も、必ずしも“動作”と“生体”の両方であることを意味せず、いずれか一方の場合も含む。

また、前記データベース作成部は、前記情報群の配置パターンごとに、前記データベースを作成することが好ましい。

このような構成によれば、データベースがより細かく作成されるので、より高精度に行動・気持ちの推定を行うことが可能となる。

また、前記データベース作成部は、前記情報群に配置された複数の情報の内容ごとに、前記データベースを作成することが好ましい。

このような構成によれば、データベースがより細かく作成されるので、より高精度に行動・気持ちの推定を行うことが可能となる。

また、本発明の別の観点によれば、複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、前記情報群が表示された後の前記第1の被験者の行動・気持ち情報を入力するための入力部と、複数の第1の被験者から得られた前記動作・生体情報及び前記行動・気持ち情報に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、前記表示群の目的を選択するための選択部と、各動作・生体情報に対応した前記複数の情報の配置パターンを記憶した記憶部と、前記目的が選択された場合に、前記データベースを参照して、選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報を抽出し、前記記憶部を参照して、抽出された動作・生体情報に対応した前記配置パターンが、前記選択された目的に応じたものであると推定する推定部と、を備えたことを特徴とする行動・気持ち推定システムを提供している。

このような構成によれば、選択された目的に対応した複数の情報の配置パターンを、行動・気持ち推定システムによって自動的に推定することが可能となる。

また、本発明の別の観点によれば、複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、前記情報群が表示された後の前記第1の被験者の行動・気持ち情報を入力するための入力部と、複数の第1の被験者から得られた前記動作・生体情報及び前記行動・気持ち情報に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、前記表示群の目的を選択するための選択部と、各動作・生体情報に対応した人間パターンを記憶した記憶部と、前記目的が選択された場合に、前記データベースを参照して、選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報を抽出し、前記記憶部を参照して、抽出された動作・生体情報に対応した前記人間パターンを推定する推定部と、を備えたことを特徴とする行動・気持ち推定システムを提供している。

このような構成によれば、選択された目的に対応した人間パターンを推定することができるので、人間パターンを考慮して、複数の情報の配置パターンを決定することが可能となる。

また、前記記憶部は、各人間パターンに対応した前記複数の情報の配置パターンを更に記憶しており、前記推定部は、前記記憶部を参照して、前記推定した人間パターンに対応した配置パターンが、前記選択された目的に応じたものであると推定することが好ましい。

このような構成によれば、選択された目的に対応した複数の情報の配置パターンまでも、行動・気持ち推定システムによって自動的に推定することが可能となる。

また、本発明の別の観点によれば、複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、前記情報群が表示された後の前記第1の被験者の行動・気持ち情報を入力するための入力部と、複数の第1の被験者から得られた前記動作・生体情報及び前記行動・気持ち情報に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、前記表示群の目的を選択するための選択部と、各動作・生体情報に対応した前記複数の情報の内容パターンを記憶した記憶部と、前記目的が選択された場合に、前記データベースを参照して、選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報を抽出し、前記記憶部を参照して、抽出された動作・生体情報に対応した前記内容パターンが、前記選択された目的に応じたものであると推定する推定部と、を備えたことを特徴とする行動・気持ち推定システムを提供している。

このような構成によれば、選択された目的に対応した複数の情報の内容パターンまでも、行動・気持ち推定システムによって自動的に推定することが可能となる。

また、本発明の別の観点によれば、複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記情報群が表示された後に前記複数の第1の被験者から得られた行動・気持ち情報と、に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、特定の前記情報群が表示された際の第2の被験者の動作・生体情報が検出された場合に、前記データベースを参照して、前記特定の情報群が表示された後の前記第2の被験者の行動・気持ちを推定する推定部と、を備えたことを特徴とする行動・気持ち推定装置を提供している。

また、本発明の別の観点によれば、複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記情報群が表示された後に前記複数の第1の被験者から得られた行動・気持ち情報と、に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、前記表示群の目的を選択するための選択部と、各動作・生体情報に対応した前記複数の情報の配置パターンを記憶した記憶部と、前記目的が選択された場合に、前記データベースを参照して、選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報を抽出し、前記記憶部を参照して、抽出された動作・生体情報に対応した前記配置パターンが、前記選択された目的に応じたものであると推定する推定部と、を備えたことを特徴とする行動・気持ち推定装置を提供している。

また、本発明の別の観点によれば、複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記情報群が表示された後に前記複数の第1の被験者から得られた行動・気持ち情報と、に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、前記表示群の目的を選択するための選択部と、各動作・生体情報に対応した人間パターンを記憶した記憶部と、前記目的が選択された場合に、前記データベースを参照して、選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報を抽出し、前記記憶部を参照して、抽出された動作・生体情報に対応した前記人間パターンを推定する推定部と、を備えたことを特徴とする行動・気持ち推定装置を提供している。

また、本発明の別の観点によれば、複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記情報群が表示された後に前記複数の第1の被験者から得られた行動・気持ち情報と、に基づき、各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、前記表示群の目的を選択するための選択部と、各動作・生体情報に対応した前記複数の情報の内容パターンを記憶した記憶部と、前記目的が選択された場合に、前記データベースを参照して、選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報を抽出し、前記記憶部を参照して、抽出された動作・生体情報に対応した前記内容パターンが、前記選択された目的に応じたものであると推定する推定部と、を備えたことを特徴とする行動・気持ち推定装置を提供している。

本発明の行動・気持ち推定システム、及び、行動・気持ち推定装置によれば、対象となる情報群が、目的とする行動・気持ちに適したものであるか否かを高精度に判断することが可能となる。

本発明の実施の形態による行動・気持ち推定システムの全体構成図 本発明の実施の形態による専用ページの説明図 本発明の実施の形態によるデータベースの一例を示した図 本発明の実施の形態による行動・気持ち推定の流れを説明する図 本発明の変形例による選択部の説明図

以下、本発明の実施の形態による行動・気持ち推定システム1について、図1−図4を参照して説明する。

図1は、行動・気持ち推定システム1の全体構成図である。図1に示すように、行動・気持ち推定システム1は、情報表示装置2と、検出装置3と、推定装置4と、を備えている。

本実施の形態では情報表示装置2及び検出装置3は、それぞれ被験者A及びBの自宅に設置され、推定装置4は、行動・気持ち推定システム1の所有者である解析業者Xのオフィスに設置されているものとする。また、情報表示装置2、検出装置3、及び、推定装置4は、それぞれインターネット等の情報通信網を介して通信可能であるものとする。

解析業者Xは、被験者用webページを開設しており、第1の被験者A及び第2の被験者Bとの間で情報収集モニター契約が締結されると、図2に示すように、被験者用webページ内に各被験者用の専用ページ11を作成するものとする。専用ページ11には、情報収集を行うwebページ12の“閲覧開始”ボタン11a、“閲覧終了”ボタン11b、及び、“閲覧後の行動・気持ち”の入力欄11cが設けられている。

このような構成の下、まず、解析業者Xは、行動・気持ち推定システム1を用いて、複数の第1の被験者Aから所定のwebページ12の閲覧時の“動作・生体情報”と、閲覧後の“行動・気持ち情報”と、を取得し、各“動作・生体情報”と各“行動・気持ち情報”との間の相関関係・因果関係を示したデータベースを作成する。

そして、顧客Yから特定のwebページ12の閲覧による行動・気持ち推定が依頼されると、解析業者Xは、行動・気持ち推定システム1を用いて、第2の被験者Bから当該特定のwebページ12の閲覧時の“動作・生体情報”を取得し、上記で作成されたデータベースを参照して、“閲覧後の行動・気持ち”を推定する。

以下、行動・気持ち推定システム1の各構成について詳細に説明する。

図1に示すように、行動・気持ち推定システム1は、情報表示装置2と、検出装置3と、推定装置4と、を備えている。

情報表示装置2は、情報通信環境により提示された画面を閲覧可能なものであり、例えば、PC、タブレット、スマートフォン等が考えられる。本実施の形態では、インターネット等の情報通信網を介してwebページ12を閲覧する場合を例に説明するが、これに限られものではない。

情報表示装置2は、第1の被験者A及び第2の被験者Bにより使用されるものであり、第1の被験者A及び第2の被験者Bは、個人のPC等を情報表示装置2として利用してもよいし、解析業者Xから貸し出されたものを情報表示装置2として利用してもよい。なお、本実施の形態では、webページ12が、本発明の“複数の情報が配置された情報群”に相当し、webページ12に表示された複数のコンテンツ13が、“複数の情報”に相当する。

また、第1の被験者A及び第2の被験者Bは、情報収集モニターとしてwebページ12の閲覧を行う際には、情報表示装置2を用いて解析業者Xが開設する被験者用webサイトの専用ページ11にアクセスし、“閲覧開始”ボタン11a及び“閲覧終了”ボタン11bの選択、及び、“閲覧後の行動・気持ち”の入力欄11cへの入力を行うことができる(図2参照)。“閲覧開始”ボタン11aには、情報取集を行うwebページ12のURLが埋め込まれており、“閲覧開始”ボタン11aを選択することで、当該webページ12が開かれると同時に、閲覧が開始された旨の信号が推定装置4に送信される。

検出装置3は、第1の被験者A及び第2の被験者Bの“動作・生体情報”を検出するためのものであり、情報表示装置2で閲覧を行う第1の被験者A及び第2の被験者Bを観察又は測定可能な位置に配置されている。

詳細には、専用ページ11において“閲覧開始”ボタン11aが選択されると、推定装置4からの指示により検出装置3が起動される。検出装置3は、“閲覧終了”ボタン11bが選択されるまで、第1の被験者A及び第2の被験者Bの“動作・生体情報”を検出し、その後、推定装置4に送信する。

“動作情報”としては、例えば、視線、表情、会話等が考えられ、これらの場合には、視線検出装置や監視カメラを検出装置3として用いることとなる。

また、“生体情報”としては、例えば、脳波、心電波、脈波等が考えられ、これらの場合には、脳波計、心電計、脈波計等を検出装置3として用いることとなる。

推定装置4は、記憶部41と、データベース作成部42と、推定部43と、を備えている。

記憶部41は、検出装置3から送信された第1の被験者A及び第2の被験者Bの“動作・生体情報”を記憶する。

また、記憶部41は、第1の被験者Aにより専用ページ11の“閲覧後の行動・気持ち”の入力欄11cから“行動・気持ち情報”が入力されると、入力された“行動・気持ち情報”を記憶する。

また、記憶部41には、被験者の“動作・生体情報”のモデルとなる複数の動作・生体情報モデル41Aと、被験者の“行動・気持ち情報”のモデルとなる複数の行動・気持ち情報モデル41Bと、が記憶されている。

動作・生体情報モデル41Aとしては、例えば、“動作情報”の場合、“視線の動き方のパターン(”どのコンテンツを見た“、”どの順番で見た“、”何秒見た“等)等が考えられ、”生体情報“の場合、“脳波の変動のパターン”等が考えられる。

また、行動・気持ち情報モデル41Bとしては、例えば、“行動情報”の場合、“関連商品の購入”、“店舗への来店”、“何もしなかった”等が考えられ、“気持ち情報”の場合、“好きになった”、“親近感が高くなった”、“欲しくなった”、“優しい気持ちになった”、“心地よくなった”、“情報を共有したくなった”、“コメントしたくなった”、“賛同したい”、“反対したい”、“何も感じなかった”等の気持ちや意図に関するものが考えられる。

データベース作成部42は、予め定められた識別子を参照して、複数の第1の被験者Aから得られた複数の“動作・生体情報”を、いずれかの動作・生体情報モデル41Aに割り振り、また、複数の第1の被験者Aから得られた複数の“行動・気持ち情報”を、いずれかの行動・気持ち情報モデル41Bに割り振る。

続いて、データベース作成部42は、このようにして割り振られた“動作・生体情報”と“行動・気持ち情報”との間の相関関係・因果関係を示したデータベース42Aを作成する。詳細には、図3に示すように、“動作・生体情報”ごとに、導かれた“行動・気持ち情報”の傾向を示したデータベース42Aを作成する。

推定部43は、データベース42Aを参照することにより、複数の第2の被験者Bから得られた“動作・生体情報”から導かれる“閲覧後の行動・気持ち”を推定する。この場合の推定の基準としては、例えば、発生確率が所定以上のものを“閲覧後の行動・気持ち”と推定する等、様々なものが考えられる。

そして、解析業者Xは、推定部43により推定された結果を参考にすることにより、顧客Yのwebページ12が、目的とする行動・気持ちに適したものであるか否かを高精度に判断することが可能となる。

以上説明した行動・気持ち推定システム1による行動・気持ち推定の流れを、図4を用いて説明する。行動・気持ち推定システム1による行動・気持ち推定は、収集段階、推定段階の2段階に分けられる。

1.収集段階

まず、解析業者Xと第1の被験者Aとの間で情報収集モニター契約が締結されると、解析業者Xは、被験者用webページ内に第1の被験者A用の専用ページ11を作成する(S401)。

第1の被験者Aにより専用ページ11の“閲覧開始”ボタン11aが選択されると、情報収集の対象となるwebページ12が情報表示装置2に表示される(S402)。

また、“閲覧開始”ボタン11aが選択されると検出装置3も起動され、“閲覧終了”ボタン11bが選択されるまで、第1の被験者Aの“動作・生体情報”が検出される(S403)。

続いて、第1の被験者Aは、専用ページ11の“閲覧後の行動・気持ち”の入力欄11cから“行動・気持ち情報”を入力する(S404)。“行動・気持ち情報”は、“関連商品の購入”や“店舗への来店”等、時間のかかるものが多いので、適当な入力期限を設けることが好ましい。

“動作・生体情報”及び“行動・気持ち情報”が記憶部41に記憶されると、これらに基づき、データベース作成部42によりデータベース42Aが作成され(S405)、収集段階を終了する。なお、“動作・生体情報”及び“行動・気持ち情報”は、複数の被験者Aから収集されるものであるため、データベース作成部42は、“動作・生体情報”及び“行動・気持ち情報”が記憶部41に記憶されるたびに、データベース42Aを更新することとなる。

2.推定段階

続いて、顧客Yから特定のwebページ12の行動・気持ち推定が依頼されると、解析業者Xと第2の被験者Bとの間で情報収集モニター契約が締結され、解析業者Xは、被験者用webページ内に第2の被験者B用の専用ページ11を作成する(S406)。

続いて、第2の被験者Bにより、専用ページ11内の“閲覧開始”ボタン11aが選択されると、情報収集の対象となるwebページ12が情報表示装置2に表示される(S407)。

“閲覧開始”ボタン11aが選択されると検出装置3も起動され、“閲覧終了”ボタン11bが選択されるまで、第2の被験者Bの“動作・生体情報”が検出される(S408)。

“動作・生体情報”が記憶部41に記憶されると、推定装置4は、データベースを参照して、検出された“動作・生体情報”から導かれる“閲覧後の行動・気持ち”を推定し(S409)、推定段階を終了する。

以上説明したように、本実施の形態による行動・気持ち推定システム1では、収集段階において、複数の第1の被験者Aからwebページ12閲覧時の“動作・生体情報”と、閲覧後の“行動・気持ち情報”と、を収集し、“動作・生体情報”と“行動・気持ち情報”との間の相関関係・因果関係を示したデータベース42Aを作成する。そして、顧客Yから特定のwebページ12の行動・気持ち推定が依頼されると、複数の第2の被験者Bから当該特定のwebページ12閲覧時の“動作・生体情報”を収集し、データベース42Aを参照して、得られた“動作・生体情報”から導かれる“閲覧後の行動・気持ち”を推定する。

このような構成によれば、解析業者Xは、推定部43により推定された結果を参考にすることにより、顧客Yのwebページ12が、目的とする行動・気持ちに適したものであるか否かを高精度に判断することが可能となる。

尚、本発明の行動・気持ち推定システムは、上述した実施の形態に限定されず、特許請求の範囲に記載した範囲で種々の変形や改良が可能である。

例えば、上記実施の形態では、検出装置3は、“動作情報”と“生体情報”の両方を検出する構成であったが、いずれか一方のみを検出する構成であってもよい。

また、上記実施の形態では、“閲覧後の行動・気持ち” の入力欄11cに“行動”と“気持ち”の両方を入力し、推定装置4も“行動”と“気持ち”の両方を推定する構成であったが、いずれか一方のみを入力及び推定する構成であってもよい。

また、上記実施の形態では、データベース42Aは、“動作・生体情報”と“行動・気持ち情報”との間の相関関係・因果関係を示したものであったが、相関関係及び因果関係のいずれか一方を示したものであってもよい。

また、上記実施の形態では、本発明の“複数の情報が配置された情報群”の一例として、オンライン状態のwebページ12を用いて説明したが、オフライン状態のものを用いてもよい。例えば、ダウンロードされたアプリ(例えば、ゲーム、ニュース等)をオフライン状態で使用する場合も、本発明の“複数の情報が配置された情報群”に相当する。

また、上記実施の形態では、本発明の”複数の情報が配置された情報群”の一例として、PC等の情報表示装置2の画面を用いて説明したが、また、画面以外ものを用いてもよい。

例えば、店舗において配置された商品群も、本発明の“複数の情報が配置された情報群”に相当する。この場合には、店舗内に情報表示装置2及び検出装置3が設置され、第1の被験者A及び第2の被験者Bは、配置された商品群を店舗において実際に閲覧し、後日、“行動・気持ち情報”を入力することとなる。また、ポイントカード等より購買情報等の“行動・気持ち情報”を自動的に取得することも考えられる。

また、検出装置3により検出された“動作・生体情報”は、必ずしも推定装置4に自動的に送信される構成でなくてもよく、解析業者Xが手動で記憶部41に記憶させる構成であってもよい。

また、“閲覧後の行動・気持ち” の入力欄11cへの入力は、必ずしも第1の被験者Aが自ら行う構成でなくてもよく、第1の被験者Aからの報告を受けて、解析業者Xが入力する構成であってもよい。

また、上記実施の形態では、第1の被験者Aが閲覧後に”行動・気持ち情報”を入力したが、何となくといった又は感性的な非言語的な気持ちや、気づいていない無意識的な気持ちが生じている場合もある。例えば、複数の第1の被験者Aが、ある商品に関して”行動・気持ち情報”を入力しなかった場合であっても、無意識に注意して興味関心が高くなり、関連した脳波等の生体情報が生じている可能性がある。また、ある商品に関して”行動・気持ち情報”を入力した場合であっても、何となくといったあやふやな非言語的気持ちであったため、的確に言語で表現して入力することができなかったが、関連した脳波等の生体情報が生じている可能性がある。従って、被験者Aの入力とは別に、解析業者X側で、非言語的・無意識的に生じている情報等も考慮して、データベース42Aの充実を図ることもできる。

1.第1の変形例

また、データベース作成部42は、情報群に配置された複数の情報(上記実施の形態では、コンテンツ13)の配置パターンごとに、更に細かくデータベース42Aを作成してもよい。

この場合、記憶部41に、“複数の情報が配置された情報群”の配置モデルを複数記憶しておくことが好ましい。閲覧されたwebページ12がいずれの配置モデルに属するかは、解析業者Xが判断してもよいし、例えば、データベース作成部42が、予め定められた識別子を参照して、webページ12内のコンテンツ13の配置パターンに応じて、自動的に判断してもよい。

このような構成によれば、データベース42Aがより細かく作成されるので、より高精度に行動・気持ちの推定を行うことが可能となる。

2.第2の変形例

同様に、データベース作成部42は、情報群に配置された複数の情報の内容(例えば、販売商品の内容、サービスの内容、宣伝広告の内容等)ごとに、更に細かくデータベース42Aを作成してもよい。

3.第3の変形例

また、上記実施の形態における推定装置4を用いて、“目的”に応じた“複数の情報の配置パターン”を推定することも可能である。

この場合、図5に示すように、“目的”を選択するための選択部51を備えた目的選択ページ5を準備し、選択部51において“目的”が選択されると、選択された“目的”が推定部43に送信されるように構成する。“目的”は、行動・気持ち情報モデル41Bに含まれる内容であることが好ましい。

また、記憶部41には、各動作・生体情報モデル41Aに対応した“複数の情報の配置パターン”を記憶させておく。

そして、推定部43は、データベース42Aを参照して、選択された“目的”と相関関係又は因果関係の高い動作・生体情報モデル41Aを抽出し、記憶部41を参照して、抽出された動作・生体情報モデル41Aに対応した“配置パターン”が、選択された“目的”に応じたものであると推定する。

これにより、例えば、選択された“目的”と相関関係の高いものとして、“視線の動き方”が抽出された場合には、抽出された“視線の動き方”に対応した“複数の情報の配置パターン”を推定し、顧客に提案することが可能となる。

4.第4の変形例

また、上記実施の形態における推定装置4を用いて、“目的”に応じた“人間パターン”を推定することも可能である。

上記した推定部43による動作・生体情報モデル41Aの抽出において、選択された“目的”と因果関係の高い“脳波”、“心電”、“脈波”等が抽出される場合もある。ここで、“脳波”、“心電”、“脈波”等は、“気持ち”、“体調”、“性格”等の“人間パターン”と密接な関連が多いことが多い。

そこで、記憶部41に、各動作・生体情報モデル41Aに対応した複数の“人間パターン”を記憶させておき、推定部43は、記憶部41を参照して、抽出された動作・生体情報モデル41Aに対応した“人間パターン”が、選択された“目的”に応じたものであると推定する。

これにより、例えば、選択された“目的”と因果関係が高いものとして、ある“脳波”が抽出され、その“脳波”を発生させる人の人間パターンが、“明るい性格の人”である可能性が高い場合、“明るい性格の人”を考慮して、“複数の情報の配置パターン”を決定することが可能となる。

5.第5の変形例

更に、記憶部41に、各“人間パターン”に対応した複数の“複数の情報の配置パターン”を記憶しておき、推定部43は、記憶部41を参照して、上記で推定された“人間パターン”に対応した“複数の情報の配置パターン”が、選択された“目的”に応じたものであると推定することも可能である。

6.第6の変形例

また、上記実施の形態における推定装置4を用いて、目的に応じた“複数の情報の内容パターン”を推定することも可能である。

“複数の情報の内容パターン”とは、上記第2の変形例で説明した、情報群に配置された複数の情報の内容(例えば、販売商品の内容、サービスの内容、宣伝広告の内容等)のことを意味する。

この場合、記憶部41に、各動作・生体情報モデル41Aに対応した 複数の“情報の内容パターン”を記憶させておき、推定部43は、記憶部41を参照して、抽出された動作・生体情報モデル41Aに対応した“複数の情報の内容パターン”が、選択された“目的”に応じたものであると推定する。

なお、上記した、目的に応じた“複数の情報の配置パターン”、“人間パターン”、及び、“複数の情報の内容パターン”の推定のために推定装置4を用いる場合には、推定部43は、上記実施の形態における図4のS405−S408に関する機能は、必ずしも必要ではない。

1 行動・気持ち推定システム
2 情報表示装置
3 検出装置
4 推定装置
11 専用ページ
41 記憶部
42 データベース作成部
42A データベース
43 推定部
51 選択部

Claims (11)

  1. 複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、
    前記第1の被験者の動作・生体情報の検出が終了した後に前記第1の被験者により行われた行動又は感じた気持ちに関する行動・気持ち情報を入力するための入力部と、
    複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、を記憶した記憶部と、
    複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    特定の前記情報群が表示された際の第2の被験者の動作・生体情報が検出された場合に、前記データベースを参照して、前記特定の情報群が表示された後の前記第2の被験者の行動・気持ちを推定する推定部と、
    を備え、
    前記複数の行動・気持ち情報モデルは、前記情報群の閲覧により被験者が行い得る複数の異なるタイプの行動に関する行動情報、及び、前記情報群の閲覧により被験者が感じ得る複数の異なるタイプの気持ちに関する気持ち情報のうちの少なくとも一方を含んでいることを特徴とする行動・気持ち推定システム。
  2. 前記データベース作成部は、前記情報群の配置パターンごとに、前記データベースを作成することを特徴とする請求項1に記載の行動・気持ち推定システム。
  3. 前記データベース作成部は、前記情報群に配置された複数の情報の内容ごとに、前記データベースを作成することを特徴とする請求項1又は2に記載の行動・気持ち推定システム。
  4. 複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、
    前記情報群が表示された後の前記第1の被験者の行動・気持ち情報を入力するための入力部と、
    複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、各動作・生体情報モデルに対応した前記複数の情報の配置パターンと、を記憶した記憶部と、
    複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    前記複数の行動・気持ち情報モデルのいずれかを前記情報群の目的として選択するための選択部と、
    前記複数の行動・気持ち情報モデルのいずれかが前記情報群の目的として選択された場合に、前記データベースを参照して、前記選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報モデルを抽出し、前記記憶部を参照して、抽出された動作・生体情報モデルに対応した前記配置パターンが、前記選択された目的に応じたものであると推定する推定部と、
    を備えたことを特徴とする行動・気持ち推定システム。
  5. 複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、
    前記情報群が表示された後の前記第1の被験者の行動・気持ち情報を入力するための入力部と、
    複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、各動作・生体情報モデルに対応した複数の人間パターンと、を記憶した記憶部と、
    複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    前記複数の行動・気持ち情報モデルのいずれかを前記情報群の目的として選択するための選択部と、
    前記複数の行動・気持ち情報モデルのいずれかが前記情報群の目的として選択された場合に、前記データベースを参照して、前記選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報モデルを抽出し、前記記憶部を参照して、抽出された動作・生体情報モデルに対応した前記人間パターンを推定する推定部と、
    を備えたことを特徴とする行動・気持ち推定システム。
  6. 前記記憶部は、各人間パターンに対応した前記複数の情報の配置パターンを更に記憶しており、
    前記推定部は、前記記憶部を参照して、前記推定した人間パターンに対応した配置パターンが、前記選択された目的に応じたものであると推定することを特徴とする請求項5に記載の行動・気持ち推定システム。
  7. 複数の情報が配置された情報群が表示された際の第1の被験者の動作・生体情報を検出する検出部と、
    前記情報群が表示された後の前記第1の被験者の行動・気持ち情報を入力するための入力部と、
    複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、各動作・生体情報モデルに対応した前記複数の情報の内容パターンと、を記憶した記憶部と、
    複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    前記複数の行動・気持ち情報モデルのいずれかを前記情報群の目的として選択するための選択部と、
    前記複数の行動・気持ち情報モデルのいずれかが前記情報群の目的として選択された場合に、前記データベースを参照して、前記選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報モデルを抽出し、前記記憶部を参照して、抽出された動作・生体情報モデルに対応した前記内容パターンが、前記選択された目的に応じたものであると推定する推定部と、
    を備えたことを特徴とする行動・気持ち推定システム。
  8. 複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、を記憶した記憶部と、
    複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記第1の被験者の動作・生体情報の検出が終了した後に前記第1の被験者により行われた行動又は感じた気持ちに関する行動・気持ち情報と、に基づき、複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    特定の前記情報群が表示された際の第2の被験者の動作・生体情報が検出された場合に、前記データベースを参照して、前記特定の情報群が表示された後の前記第2の被験者の行動・気持ちを推定する推定部と、
    を備え、
    前記複数の行動・気持ち情報モデルは、前記情報群の閲覧により被験者が行い得る複数の異なるタイプの行動に関する行動情報、及び、前記情報群の閲覧により被験者が感じ得る複数の異なるタイプの気持ちに関する気持ち情報のうちの少なくとも一方を含んでいることを特徴とする行動・気持ち推定装置。
  9. 複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、各動作・生体情報モデルに対応した複数の情報の配置パターンと、を記憶した記憶部と、
    前記複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記情報群が表示された後に前記複数の第1の被験者から得られた行動・気持ち情報と、に基づき、複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    前記複数の行動・気持ち情報モデルのいずれかを前記情報群の目的として選択するための選択部と、
    前記複数の行動・気持ち情報モデルのいずれかが前記情報群の目的として選択された場合に、前記データベースを参照して、前記選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報モデルを抽出し、前記記憶部を参照して、抽出された動作・生体情報モデルに対応した前記配置パターンが、前記選択された目的に応じたものであると推定する推定部と、
    を備えたことを特徴とする行動・気持ち推定装置。
  10. 複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、各動作・生体情報モデルに対応した複数の人間パターンと、を記憶した記憶部と、
    前記複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記情報群が表示された後に前記複数の第1の被験者から得られた行動・気持ち情報と、に基づき、複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    前記複数の行動・気持ち情報モデルのいずれかを前記情報群の目的として選択するための選択部と、
    前記複数の行動・気持ち情報モデルのいずれかが前記情報群の目的として選択された場合に、前記データベースを参照して、前記選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報モデルを抽出し、前記記憶部を参照して、抽出された動作・生体情報モデルに対応した前記人間パターンを推定する推定部と、
    を備えたことを特徴とする行動・気持ち推定装置。
  11. 複数の動作・生体情報モデルと、複数の行動・気持ち情報モデルと、各動作・生体情報モデルに対応した複数の情報の内容パターンと、を記憶した記憶部と、
    前記複数の情報が配置された情報群が表示された際に複数の第1の被験者から得られた複数の動作・生体情報と、前記情報群が表示された後に前記複数の第1の被験者から得られた行動・気持ち情報と、に基づき、複数の第1の被験者から得られた各動作・生体情報を前記複数の動作・生体情報モデルに割り振り、複数の第1の被験者から得られた各行動・気持ち情報を前記複数の行動・気持ち情報モデルに割り振り、前記割り振られた各動作・生体情報と各行動・気持ち情報との間の相関関係及び因果関係の少なくとも一方を示したデータベースを作成するデータベース作成部と、
    前記複数の行動・気持ち情報モデルのいずれかを前記情報群の目的として選択するための選択部と、
    前記複数の行動・気持ち情報モデルのいずれかが前記情報群の目的として選択された場合に、前記データベースを参照して、前記選択された目的と所定以上の相関関係又は因果関係を有する動作・生体情報モデルを抽出し、前記記憶部を参照して、抽出された動作・生体情報モデルに対応した前記内容パターンが、前記選択された目的に応じたものであると推定する推定部と、
    を備えたことを特徴とする行動・気持ち推定装置。
JP2015206911A 2014-10-22 2015-10-21 行動・気持ち推定システム、及び、行動・気持ち推定装置 Active JP6621197B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014214928 2014-10-22
JP2014214928 2014-10-22

Publications (2)

Publication Number Publication Date
JP2016085741A JP2016085741A (ja) 2016-05-19
JP6621197B2 true JP6621197B2 (ja) 2019-12-18

Family

ID=55973786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015206911A Active JP6621197B2 (ja) 2014-10-22 2015-10-21 行動・気持ち推定システム、及び、行動・気持ち推定装置

Country Status (1)

Country Link
JP (1) JP6621197B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032167A (ja) * 2003-07-11 2005-02-03 Sony Corp 情報検索装置、情報検索方法、情報検索システム、クライアント装置およびサーバ装置
JP4717934B2 (ja) * 2009-03-03 2011-07-06 日本たばこ産業株式会社 関係分析方法、関係分析プログラム、および、関係分析装置
JP5243318B2 (ja) * 2009-03-19 2013-07-24 株式会社野村総合研究所 コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム
JP2011065504A (ja) * 2009-09-18 2011-03-31 Tokyo Univ Of Science ユーザの選好関係についての予測モデルを生成する選好予測サーバ及びその方法

Also Published As

Publication number Publication date
JP2016085741A (ja) 2016-05-19

Similar Documents

Publication Publication Date Title
US20190220888A1 (en) Analysis of controlled and automatic attention for introduction of stimulus material
US10580031B2 (en) Neuro-physiology and neuro-behavioral based stimulus targeting system
US20200163571A1 (en) Personalized stimulus placement in video games
US20190139078A1 (en) Neuro-response stimulus and stimulus attribute resonance estimator
Bergstrom et al. Eye tracking in user experience design
US20160328790A1 (en) Virtual reality system including smart objects
EP2950551B1 (en) Method for recommending multimedia resource and apparatus thereof
US20170115742A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
Lee et al. Attention to banner ads and their effectiveness: An eye-tracking approach
US9189972B2 (en) Visualizing the mood of a group of individuals
Tussyadiah et al. Consumer evaluation of hotel service robots
Tuch et al. The role of visual complexity and prototypicality regarding first impression of websites: Working towards understanding aesthetic judgments
US8903176B2 (en) Systems and methods using observed emotional data
EP3164802B1 (en) Method of collecting and processing computer user data during interaction with web-based content
JP6681342B2 (ja) 行動イベント計測システム及び関連する方法
US20170026782A1 (en) Proximity-Based Sensing, Communicating, and Processing of User Physiologic Information
Feltman et al. Instagram use and self-objectification: The roles of internalization, comparison, appearance commentary, and feminism
US8620721B1 (en) System and method for determining relative preferences for marketing, financial, internet, and other commercial applications
US10111611B2 (en) Personal emotional profile generation
Velásquez Combining eye-tracking technologies with web usage mining for identifying Website Keyobjects
Bevan What is the difference between the purpose of usability and user experience evaluation methods
Hollingworth Two forms of scene memory guide visual search: Memory for scene context and memory for the binding of target object to scene location
US20140365333A1 (en) Retail store customer natural-gesture interaction with animated 3d images using sensor array
US20140365336A1 (en) Virtual interactive product display with mobile device interaction
US8548852B2 (en) Effective virtual reality environments for presentation of marketing materials

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190516

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6621197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150