JP2020038562A - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム Download PDF

Info

Publication number
JP2020038562A
JP2020038562A JP2018166228A JP2018166228A JP2020038562A JP 2020038562 A JP2020038562 A JP 2020038562A JP 2018166228 A JP2018166228 A JP 2018166228A JP 2018166228 A JP2018166228 A JP 2018166228A JP 2020038562 A JP2020038562 A JP 2020038562A
Authority
JP
Japan
Prior art keywords
user
information
information processing
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018166228A
Other languages
English (en)
Other versions
JP6724090B2 (ja
Inventor
一希 笠井
Kazuki KASAI
一希 笠井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018166228A priority Critical patent/JP6724090B2/ja
Publication of JP2020038562A publication Critical patent/JP2020038562A/ja
Application granted granted Critical
Publication of JP6724090B2 publication Critical patent/JP6724090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】各ユーザに最適化した情報を提供し、各ユーザへの利益の提供を実現することを目的とする。【解決手段】本発明の一態様に係る情報処理装置は、ユーザ情報取得部(1)と、顔情報取得部(2)と、ユーザの状態を検出する状態検出部(4)と、視認オブジェクト判定部(5)と、ユーザの趣向情報を生成する趣向情報生成部(6)と、趣向情報に基づきプログラムを実行するプログラム実行部(30)と、を備える。【選択図】図1

Description

本発明は情報処理装置、情報処理方法、および情報処理プログラムに関する。
近年、顧客の購買行動と、該顧客の動向とを照合することにより、顧客の趣向等を推定する方法が、マーケティングに利用されている。
特許公報4991440号(2012年5月11日登録)
しかしながら、上述のような従来技術は不特定多数の顧客(ユーザ)の購買履歴および趣向に関するデータを蓄積し、マーケティングで利用することのみを考えられたものであり、各ユーザに最適化した情報を提供するような、ユーザにとっての利益を考えたものではなかった。また、該情報が提供された後の各ユーザの動向についてはフォローされず、提供した該情報の評価はできなかった。
本発明の一態様は、各ユーザに最適化した情報を提供し、各ユーザへの利益の提供を実現することを目的とする。
また、本発明の一態様は、情報が提供された後の各ユーザの動向をフォローし、提供した情報の評価を行うことを目的とする。
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、上記状態検出部によるユーザの状態および上記視認オブジェクト判定部による判定結果を参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、上記趣向情報に基づきプログラムを実行するプログラム実行部と、を備えている。
これにより、情報処理装置は、ユーザの趣向情報を好適に生成することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定する。
これにより、情報処理装置100は、ユーザが視認しているオブジェクトを正確に判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定する。
これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、上記視認オブジェクト判定部は、上記画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定する。
これにより、ユーザが視認しているオブジェクトを好適に判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。
これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。
これにより、提案情報が適当なものであったかの評価を行うことができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報を、表示データとして外部の表示装置へ出力する。
これにより、学習者の推定理解度を可視化することができる。
上記の課題を解決するために、上記趣向情報は、ある問題に解答したユーザの推定理解度である。
これにより、ユーザの推定理解度を好適に生成することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力する。
これにより、学習者の推定理解度を可視化することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。
これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザの属性情報が含まれる。
これにより、ユーザの属性を取得することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる。
これにより、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部を備え、上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。
これにより、情報処理装置は、ユーザの状態を好適に検出することできる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部を備え、上記趣向情報生成部が生成する上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。
これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報に仮IDを付与する仮ID付与部と、上記仮ID上記とユーザが決済を行ったか否かの決済情報とを照合する照合部と、を更に備える。
これにより、情報処理装置は、顔情報を一時的に他の顔情報と区別することができる。
上記の課題を解決するために、本発明の一態様に係る情報処理プログラムは、上記情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、上記趣向情報生成部としてコンピュータを機能させる。
これにより、情報処理プログラムは、趣向情報生成部としてコンピュータを機能させることができる。
上記の課題を解決するために、本発明の一態様に係る情報処理方法は、情報処理装置によって実行される情報処理方法であって、登録された特定のユーザのユーザ情報を取得するユーザ情報取得ステップと、上記ユーザの顔情報を取得する顔情報取得ステップと、上記顔情報取得ステップにおいて取得した顔情報から上記ユーザの状態を検出する状態検出ステップと、上記状態検出ステップにおいて検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定ステップと、上記ユーザのユーザ情報と、上記視認オブジェクト判定ステップにおける判定結果とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成ステップと、上記趣向情報に基づきプログラムを実行するプログラム実行ステップとを含んでいる。
これにより、趣向情報を好適に生成することができる。
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して得られる趣向情報を取得する趣向情報取得部と、を備えている。
これにより、情報処理装置は、ユーザの趣向情報を取得することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記趣向情報に基づきプログラムを実行するプログラム実行部を更に備えている。
これにより、ユーザの趣向情報に基づいたプログラムを実行することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。
これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。

また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。
これにより、提案情報が適当なものであったかの評価を行うことができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。
これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、を更に備えている。
これにより、情報処理装置400は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定する。
これにより、ユーザがページ上のどのオブジェクトを視認しているか、正確に判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部を備え、上記視認オブジェクト判定部は、上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定する。
これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、上記視認オブジェクト判定部は、上記画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定する。
これにより、ユーザが視認しているオブジェクトを好適に判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザの状態を検出する状態検出部を備え、上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。
これにより、ユーザの集中度を好適に判定することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザの属性情報が含まれる。
これにより、ユーザの属性を取得することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザ情報を取得するユーザ情報取得部を備え、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる。
これにより、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、上記ユーザの顔情報を取得する顔情報取得部と、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、上記趣向情報に基づきプログラムを実行するプログラム実行部と、を備えている。
これにより、情報処理装置は、ユーザの趣向情報を好適に生成することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報に基づいた提案情報を上記ユーザに提案する。
これにより、ユーザは、自身の趣向に基づいた情報を享受することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、上記趣向情報と、上記提案情報とに基づいた評価を行う。
これにより、提案情報が適当なものであったかの評価を行うことができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、プログラム実行部を備え、上記プログラム実行部は、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。
これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。
また、上記の課題を解決するために、本発明の一態様に係る情報処理装置は、趣向情報を生成する趣向情報生成部、または、趣向情報を取得する趣向情報取得部を備え、上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。
これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。また、趣向情報取得部が該趣向情報を取得することで、ユーザは、自身の趣向に基づいた趣向情報を取得することができる。
本発明の一態様によれば、各ユーザの趣向に合わせた各ユーザへの利益を提供することができる。
本発明の実施形態1および2に係る情報処理装置の構成要素を示すブロック図である。 本発明の実施形態1および3に係る情報処理装置を備えたスマートフォンの表示部を示す図である。 本発明の実施形態1および3に係る情報処理装置を備えたパソコンの表示部を示す図である。 本発明の実施形態1、3および4に係る情報処理装置の視認オブジェクト判定部が出力するデータの一例を示す表である。 本発明の実施形態1、3および4に係る情報処理装置の趣向情報生成部が生成する趣向情報の一例を示す表である。 本発明の実施形態1に係る情報処理装置のプログラム実行部が生成するアバター画像の一例を示す表である。 本発明の実施形態1、3および4に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。 本発明の実施形態1、3および4に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。 本発明の実施形態1、3および4に係る情報処理装置を備えたパソコンの表示部を示し、(a)表示が変更される前、(b)表示が変更された後の表示部を示す図である。 本発明の実施形態1に係る情報処理装置の処理の流れの一例を示すフローチャートである。 本発明の実施形態1に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。 本発明の実施形態1に係る情報処理装置のプログラム実行部が出力するデータの一例を示す表である。 本発明の実施形態2に係る情報処理装置を備えた端末装置が表示するブラウザ画面の一例を示す図である。 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。 本発明の実施形態2に係る情報処理装置の趣向生成部が生成する趣向情報の一例を示す図である。 本発明の実施形態3に係る情報処理装置の構成要素を示すブロック図である。 本発明の実施形態3および4に係る情報処理装置同士の趣向情報の送受信の概要を示す図である。 本発明の実施形態3に係る情報処理装置を備えた端末装置が表示するブラウザ画面の一例を示す図である。 本発明の実施形態4に係る情報処理装置の構成要素を示すブロック図である。
<実施形態1>
以下、本発明の一実施形態について、詳細に説明する。以下の特定の項目(実施形態)における構成について、それが他の項目で説明されている構成と同じである場合は、説明を省略する場合がある。また、説明の便宜上、各項目に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
〔情報処理装置100の要部構成〕
図1は、情報処理装置100の構成要素を示すブロック図である。図1に示すように、本実施形態に係る情報処理装置100は、ユーザ情報取得部1、顔情報取得部2、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、およびプログラム実行部30を備えている。
これにより、情報処理装置100は、ユーザの趣向情報を好適に生成することができる。
ここで、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6およびプログラム実行部30は、情報処理装置100の備える制御部9の一構成として実現される。
情報処理装置100は、一例として、ローカルネットワーク又はグローバルネットワークに接続可能な端末装置(例えば、スマートフォン、タブレット、パソコン、テレビジョン受像機等)に実装される。図2は、情報処理装置100をスマートフォンに実装した場合の、当該スマートフォンの表示画面と、当該表示画面における視線位置とを模式的に示している。図3は、情報処理装置100を、パソコンに実装した場合の、当該パソコンの表示画面と、当該表示画面における視線位置とを模式的に示している。図2および図3に含まれる他の構成については後述する。
また、本実施形態においては、ユーザが電子商取引(EC(Electronic Commerce))サービスを利用して、商品を購入する形態について説明する。
(ユーザ情報取得部)
ユーザ情報取得部1は、例えば、ショッピングサイト等のデータベース等に予め登録されている特定のユーザのユーザ情報を取得し、取得したユーザ情報を趣向情報生成部6に送信する。一例として、ユーザ情報には、ユーザの属性を示す属性情報と、他のユーザと対象ユーザとを識別するためのユーザ識別情報が含まれる。ユーザの属性情報とは、例えば、ユーザの年齢、性別、会員の種別(有料会員であるか否か)等である。また、ユーザ識別情報とは、例えば、ユーザのID、ユーザのメールアドレス等である。
これにより、ユーザの属性を取得することができる。また、ユーザ情報に、ユーザ識別情報が含まれることで、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。
(顔情報取得部)
顔情報取得部2は、例えば、カメラ等の撮像部から取得した画像から、ユーザの顔情報を取得する。ユーザの顔情報とは、顔の特徴量を示す情報である。顔の特徴量とは、例えば、顔の各部位(例えば、目、鼻、口、頬および眉等)の位置を示す位置情報、形状を示す形状情報および大きさを示す大きさ情報等を指す。特に、目の情報からは、ユーザが注視する対象に対するユーザの興味および関心の度合い等を評価することができるため、特に有用である。目の情報としては、例えば目頭および目尻の端点、虹彩および瞳孔等のエッジ等が挙げられる。また、顔情報取得部2は、撮像部から取得した画像に、ノイズ低減、エッジ強調等の補正処理を適宜行ってもよい。顔情報取得部2は、抽出した顔情報を状態検出部4に送信する。
(状態検出部)
状態検出部4は、顔情報取得部2が取得した顔情報に基づき、ユーザの状態を検出する。状態検出部4は、ユーザの状態を検出した後、該検出結果を視認オブジェクト判定部5へ送信する。上記状態検出部4が検出する上記ユーザの状態は、例えば、ユーザの顔の各部位の状態であり、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、頬の動き、瞼の動き、唇の動きおよび顎の動きのうち少なくとも1つである。
状態検出部4は、一例として、顔情報取得部2が取得した顔の特徴量である顔の各部位(例えば、目、鼻、口、頬および眉等)の位置を示す位置情報、形状を示す形状情報および大きさを示す大きさ情報等を参照し、ユーザの状態として、例えば、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、頬の動き、瞼の動き、唇の動きおよび顎の動きのうち少なくとも1つを検出してもよい。
これにより、情報処理装置は、ユーザの状態を好適に検出することできる。
例えば、視線の検出方法としては、特に限定されないが、情報処理装置100に、点光源(不図示)を設け、点光源からの光の角膜反射像を撮像部で所定時間撮影することにより、ユーザの視線の移動先を検出する方法が挙げられる。点光源の種類は特に限定されず、可視光、赤外光が挙げられるが、例えば赤外線LEDを用いることで、ユーザに不快感を与えることなく、視線の検出をすることができる。視線の検出において、視線が所定時間以上移動しない場合は、同じ場所を注視しているといえる。
また、瞳孔の状態を検出する方法としては、特に限定されないが、例えば、ハフ変換を利用して、目の画像から円形の瞳孔を検出する方法等が挙げられる。一般的に、人間は、集中している場合に開瞳する傾向にあるため、瞳孔のサイズを検出することで、ユーザの集中の度合いを評価することができる。例えば、瞳孔のサイズを所定時間検出し、所定時間内で瞳孔が大きくなっている時間は、ユーザがある対象を注視している可能性が高いといえる。瞳孔のサイズに関して、閾値を設定し、瞳孔のサイズが閾値以上である場合は「開」、瞳孔のサイズが閾値未満である場合は「閉」として評価してもよい。
また、瞬きの回数を検出する方法としては、特に限定されないが、例えば、赤外光をユーザの目に対して照射し、開眼時と、閉眼時との赤外光量反射量の差を検出する方法等が挙げられる。一般的に、人間は、集中している場合、低い頻度で安定した間隔で瞬きをする傾向にあるため、瞬きの回数を検出することで、ユーザの集中度を評価することができる。例えば、瞬きの回数を所定時間検出し、所定時間内で瞬きが安定した間隔で行われている場合、ユーザがある対象を注視している可能性が高いといえる。
状態検出部4は、ユーザの視線、瞳孔の状態および瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つを検出すればよいが、これらを組み合わせることが好ましい。このように検出方法を組み合わせることで、状態検出部4は、ある対象物を視認しているときのユーザの集中度を好適に評価することができる。
目の状態以外では、例えば、眉の内側を持ち上げるか、外側を上げるか等の眉の動き、上瞼を上げる、瞼を緊張させる等の瞼の動き、鼻に皺を寄せる等の鼻の動き、上唇を持ち上げる、唇をすぼめる等の唇の動き、頬を持ち上げる等の頬の動き、顎を下げる等の顎の動き等の顔の各部位の状態が挙げられる。ユーザの状態として、顔の複数の部位の状態を組み合わせてもよい。
また、ユーザの表情を検出させる場合、状態検出部4は、ユーザの表情に関する情報を機械学習により算出することもできる。表情に関する情報を取得するための学習処理の具体的な構成は本実施形態を限定するものではないが、例えば、以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。
・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Baysian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、データをニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データアーギュメンテーション(Deta Argumentation)等の手法を用いることができる。
また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよい。より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。
また、ニューラルネットワークとして、数十〜数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。
(視認オブジェクト判定部)
視認オブジェクト判定部5は、ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定する。
これにより、情報処理装置100は、ユーザが視認しているオブジェクトを正確に判定することができる。
視認オブジェクト判定部5の具体的な処理について、情報処理装置100を備える端末装置10を例に挙げ、図2および図3を用いて説明する。図2は、情報処理装置100を備えるスマートフォン、図3は、情報処理装置100を備えるパソコンを示す。
図2において、本実施形態に係る情報処理装置100を備える端末装置(スマートフォン)10は、撮像部14と、表示部12とを更に備えている。例えば、図2のように、ブラウザの表示領域が、スマートフォンの表示部のサイズと同じであり、商品の画像が並んで配置されている場合を想定する。例えば、商品の表示順、各商品の製造会社および商品名は、表示部12が表示しているウェブページのソースコードから抽出することができる。各商品画像領域はブラウザによって制御されているため、視認オブジェクト判定部5は、ソースコードおよびブラウザを参照して、各商品の画像領域の座標を取得することができる。視認オブジェクト判定部5は、取得した各商品の画像領域の座標と、状態検出部4から取得した視線情報とを照合して、ユーザの視線の位置座標が、どの商品の画像領域の座標内にあるかを判定する。例えば、図2に示されるように、ユーザの視線の位置座標が、商品aの画像領域18の座標内にあると判定された場合、視認オブジェクト判定部5は、ユーザの視線の位置座標が、商品aの画像領域の座標内に留まっている時間のカウントを開始する。このように、ユーザの視線の位置座標と、商品の画像領域の座標とを照合することで、ユーザがどの商品を視認しているかを好適に判定することができる。また、視線の情報に加えて、(状態検出部)で記載したように、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きの検出結果を参照することで、ユーザがどの商品を集中して視認しているかを更に好適に判定することができる。
図3において、本実施形態に係る情報処理装置100を備える端末装置(パソコン)10も、図2と同様に、撮像部14と、表示部12とを更に備えている。図3の場合、ブラウザ画面16の大きさは、表示部12よりも小さいため、視認オブジェクト判定部5は、表示部12におけるブラウザ画面16の位置の情報も取得する必要がある。ブラウザの位置および領域は情報処理装置100のOS(Operating System)によって制御されているため、視認オブジェクト判定部5は、ソースコードおよびブラウザに加え、OSを参照して、各商品の画像領域の座標を取得することができる。例えば、図3に示されるように、ユーザの視線の位置座標が、商品bの画像領域18の座標内にあると判定された場合、視認オブジェクト判定部5は、ユーザの視線の位置座標が、商品bの画像領域の座標内に留まっている時間のカウントを開始する。
また、視認オブジェクト判定部5は、状態検出部4から取得した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。
これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。
視認オブジェクト判定部5は、状態検出部4から取得したユーザの顔の各部位の状態から、ユーザの感情を判定する。ユーザの感情を判定するために、例えば、Paul Ekman感情分類モデルを用いてもよい。該感情分類モデルには、例えば、「幸福」、「驚き」、「怒り」、「嫌悪」、「恐れ」、「悲しみ」が含まれる。なお、該感情分類モデルは、「平常」を含んでいてもよい。更に該感情分類モデルは、「面白さ」、「軽蔑」、「満足」、「困惑」、「興奮」、「罪悪感」、「功績に基づく自負心」、「安心」、「納得感」、「恥」のような感情およびこれら感情を複合したもの(例えば、怒り+嫌悪、幸福+満足など)を含むものであってもよい。
また、視認オブジェクト判定部5は、ユーザがどの商品を集中して視認しているかの判定およびユーザの感情の判定を、(状態検出部)に記載の機械学習的手法を用いて判定してもよい。
視認オブジェクト判定部5は、判定した結果を趣向情報生成部6へ送信する。
(画像取得部)
情報処理装置100は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部15を更に備えてもよい。ここで、ユーザが身に着ける撮像装置は、ユーザの状態を検出できれば特に限定されないが、例えば、メガネ型のウェアラブルデバイスに搭載されたカメラ、ヘッドマウントデバイスに搭載されたカメラ等が挙げられる。これらのデバイスの種類としては、透過型でもよいし、非透過型でもよい。非透過型の場合、一例として、カメラ(撮像装置)と、ユーザが視認している先のディスプレイ(表示部)とが同じ装置に備えられる構成であってもよい。
ユーザの視野を含む撮像画像とは、例えば、ユーザが見ている先の景色およびディスプレイ(表示部)等を撮影した画像である。
視認オブジェクト判定部5は、画像取得部15が取得した撮像画像と、上記状態検出部4が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定してもよい。具体的には、視認オブジェクト判定部5は、撮像画像領域の座標と、状態検出部4が検出したユーザの視線情報とを照合し、ユーザの視線の位置座標が、撮像画像中のどの座標に対応するかを判定する。視認オブジェクト判定部5は、画像取得部15が取得した撮像画像に含まれるオブジェクトを、例えば、機械学習を用いて認識させる構成としてもよい。
これにより、ユーザが視認しているオブジェクトを好適に判定することができる。
(趣向情報生成部)
趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報および視認オブジェクト判定部5から取得した判定結果を参照して、ユーザの趣向に関する趣向情報を生成する。ここで、趣向情報とは、ユーザの興味がどのオブジェクトに対して強く、どのオブジェクトに対して弱いかを示す情報である。
これにより、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部6は、重みづけを行った趣向情報を生成することができる。
例えば、趣向情報生成部6は、視認オブジェクト判定部5で判定された、ユーザが視認した商品の情報、該商品を視認していたときのユーザの集中度の結果、およびユーザの感情の結果を参照する。
図4は、趣向情報生成部6に入力される、状態検出部4で検出された結果を示すデータである。図4は、IDがAであるユーザ(以下、ユーザAと称する)についてのデータの一例である。図4の表は、商品ごとに、ユーザAがその商品を視認した時間(「視線」)、1分あたりの瞬きの回数(「瞬き」)、瞳孔の開閉(「瞳孔の状態」)を表している。図4の表から、ユーザAは、商品aを長時間視認しており、その間の瞬きの回数および瞳孔の状態から高い集中状態であることが判定される。また、図4の表から、ユーザAは商品cに関して、商品cの視認時間は短く、それほど高い集中状態ではないことが判定される。
図5の表は、各ユーザの属性、興味が強い商品および興味が弱い商品について生成される趣向情報の一例である。ここで、各ユーザの属性は、一例として性別である。趣向情報生成部6は、図4の表のデータを参照して、図5に示すような趣向情報を生成する。図5の表は、ユーザAが男性であり、実際にユーザAが商品aに強い興味を持っていること、商品bにはあまり興味を持っていないことを示している。このような趣向情報は、各ユーザ毎の趣向を示す情報であってもよいし、図5に示すように、複数のユーザの趣向を示す情報であってもよい。
また、趣向情報生成部6は、(状態検出部)に記載の機械学習的手法を用いて趣向情報を生成してもよい。
また、趣向情報生成部6は、上述の各種情報と共に、又は、上述の各種情報に代えて、クリック情報等の他の情報を参照してユーザの趣向情報を生成する構成としてもよい。ここで、クリック情報とは、ユーザがクリック又はタッチした位置、クリック又はタッチの回数、ダブルクリックの時間間隔等の情報を含み得る。また、クリック又はタッチの強さを検出する強度検出部を備え、趣向情報生成部6が当該クリック又はタッチの強さを参照してユーザの趣向情報を生成する構成としてもよい。
なお、表示部をタッチパネルとして構成する場合、いわゆる抵抗膜方式を採用すればユーザのタッチの強さを検出することができる。
趣向情報生成部6は、生成した趣向情報をプログラム実行部30へ送信する。
(プログラム実行部1−1)
プログラム実行部30は、ユーザに対応したアバター画像を生成し、状態検出部4が検出するユーザの状態、視認オブジェクト判定部5が判定するユーザが視認しているオブジェクト、ユーザの感情、および趣向情報生成部6から取得する趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
アバター画像は、ユーザを象徴的に表す情報であり、主には、ユーザを想起させる画像である。ユーザがショッピングサイトで商品を選んでいる場合、一例として、アバター画像は、実店舗を模倣して形成される画像上に生成される。
これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。
ユーザの状態は、(状態検出部)で記載したユーザの顔の各部位の状態である。ユーザが視認しているオブジェクトおよびユーザの感情は、(視認オブジェクト判定部)で記載した方法で判定される。また、趣向情報は、(趣向情報生成部)で記載したように、ユーザの興味がどのオブジェクトに対して強く、どのオブジェクトに対して弱いかを示す情報である。
図6は、プログラム実行部30が、生成するアバター画像の一例である。図6(a)は従来のアバター画像の一例、図6(b)はユーザの表情に応じたアバター画像の一例、図6(c)はユーザの表情および視線に応じたアバター画像の一例である。従来のアバター画像は、図6(a)で示すように、ユーザの表情は反映されていなかった。本実施形態のプログラム実行部30は、図6(b)で示すように、ユーザの表情に応じたアバター画像を生成する。例えば、ユーザがある商品を視認している際、口角を上げた表情をしている場合、口角を上げた表情のアバター画像を生成する。また、プログラム実行部30は、趣向情報を参照することにより、ユーザのある商品に対する好意の度合い(好み)を可視化したゲージを表示してもよい。図6(c)で示すように、ユーザの視線の情報に応じたアバター画像を生成してもよい。視線の情報とは、例えば、視線の方向、瞳孔の状態および瞬きの回数等である。例えば、ユーザがショッピングサイトの商品aの画像を視認している場合、実店舗のように商品が陳列されている画像上において、陳列されている商品aの方向をアバターが見ているように、アバター画像の視線を設定してもよい。また、プログラム実行部30は、ユーザが視認しているオブジェクトを、例えば、アバターの手に持たせて、アバターが手に持った商品を視認しているような画像を生成してもよい。
なお、アバター画像は、ユーザ自身が見ることが出来るように、該ユーザの端末装置の表示部12に表示されてもよいし、他のユーザが該ユーザのアバター画像を見ることが出来るように、他の端末装置およびショッピングサイトのサーバ等に送信されてもよい。
これにより、ユーザは、ショッピングサイトで自身がショッピングをしている様子を、あたかも実店舗でショッピングしている自身の姿として客観視ができる。また、他のユーザ(店舗のスタッフ等)は、ショッピングサイトでショッピングしているユーザを、アバター画像を介して、実店舗でショッピングしている客の一人として捉えることができ、ユーザにより良いサービスを提供するための意識の向上を図ることが出来る。
(プログラム実行部1−2)
プログラム実行部30は、趣向情報生成部6が生成した趣向情報を、表示データとして外部の表示装置へ出力してもよい。表示データの種類は特に限定されないが、例えば、数値、文字、表、グラフ、アニメーション等が挙げられる。表の例としては、例えば図5のような表が挙げられる。また、出力の対象となる趣向情報は、ある特定の一人のユーザの趣向情報であってもよいし、複数のユーザの趣向情報であってもよい。
これにより、ユーザの趣向情報を可視化することができる。
(プログラム実行部1−3)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいた提案情報をユーザに提案する。提案情報とは、例えば、ユーザの趣向情報における興味が強い商品の電子公告、値下がりの情報、および電子クーポン等である。プログラム実行部30は、例えば、メール、ソーシャルネットワークサービス(SNS)およびインスタントメッセージ(IM)等の通信手段を用いて、生成した提案情報をユーザに送信してもよい。また、バナー広告としてユーザに通知してもよい。
図7は、趣向情報生成部6から取得した趣向情報に基づいて、プログラム実行部30が生成した提案情報の一例を示す表である。趣向情報生成部6は、一例として、ユーザA、CおよびDは商品aに強い興味を持っていると推定し、ユーザEおよびFは商品bに強い興味を持っていると推定した趣向情報を生成する。その場合、プログラム実行部30は、趣向情報に基づきユーザA、CおよびDに商品aの広告(提案情報)を送信し、ユーザEおよびFに商品bの広告を送信する。
このように、プログラム実行部30が提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。
プログラム実行部30は、ユーザが提案情報を視認したか否かを判定してもよい。視認したか否かの判定は、例えば、広告に記載されたショッピングサイトのアドレスにユーザがアクセスしたか否かの情報をプログラム実行部30が参照することにより判定してもよい。また、例えば、広告を配信した後の所定期間内に、ユーザがショッピングサイトにログインした否かの情報をプログラム実行部30が参照して判定してもよい。ユーザがショッピングサイトにログインしたか否かの情報は、例えば、ユーザ情報取得部1から取得することができる。ショッピングサイトにログインした際、プログラム実行部30は、ユーザがどの商品画像を視認していたかの情報を参照することにより、ユーザが広告に記載された商品と同じ商品画像を視認しているか否かを判定してもよい。ユーザがどの商品画像を視認していたかの情報は、例えば、視認オブジェクト判定部5によって、(視認オブジェクト判定部)で記載の方法を用いて、判定されればよい。
また、プログラム実行部30は、趣向情報生成部6が生成した趣向情報と、プログラム実行部30が提案した提案情報とに基づいて評価を行ってもよい。評価の方法について以下に説明する。ここで、評価とは、例えば、ユーザへ提案した提案情報が適当であったかの評価である。
図8は、プログラム実行部30が行う評価の一例を示す表である。図8の表は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品画像を視認したか否かの判定の結果に基づいて、評価を行った結果である。本実施形態において、プログラム実行部30が行う評価とは、一例として、広告を送信した全ユーザの人数における、広告を視認したユーザの人数の割合を評価値としてもよい。ここで、評価値とは、一例として、「注目率」として表される。例えば、商品aの広告を送信したユーザA、CおよびDのうち、プログラム実行部30が、該広告を視認したと判定したのはユーザAおよびCであったため、プログラム実行部30は、注目率が66%であると評価する。また、商品bの広告を送信したユーザEおよびFのうち、プログラム実行部30が、該広告を視認したと判定したのはユーザFのみであったため、プログラム実行部30は、注目率は50%であると評価する。
このように、プログラム実行部30が評価を行うことで、提案情報が適当なものであったかの評価を行うができる。
(プログラム実行部1−4)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更する。ここで、外部の表示装置とは、一例として、端末装置の表示部12である。表示情報は、例えば、表示部12に表示されている画像を示す画像情報、および該画像の座標等を示すレイアウト情報等が含まれる。表示情報は、ソースコード、ブラウザ、およびOSから取得することができる。また、情報の変更とは、特に限定されないが、一例として、表示部12に表示させる商品画像のレイアウトの変更である。プログラム実行部30は、変更した表示情報を表示部12に送信する。
これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。
プログラム実行部30が行う処理の具体例を説明する。図9は、パソコンの表示部12を示す。図9(a)は表示が変更される前の表示部12を示し、表示部12は、商品a〜fの画像を表示している。図9(b)は表示が変更された後の表示部12を示している。
ここで、例えば、商品a〜fの中で、ユーザの興味の強い商品がd、e、fであるという趣向情報を、趣向情報生成部6が生成したとする。プログラム実行部30は、現在表示されている図9(a)の表示情報と、趣向情報生成部6が生成した趣向情報に基づき、商品a〜cの画像の位置と、商品d〜fの画像の位置とを入れ替えることによってレイアウトが変更された表示情報を生成する。表示部12は、プログラム実行部30から取得した変更された表示情報に基づき、図9(b)のような表示をさせる。すなわち、プログラム実行部30は、表示される画面の中で、最も目立つ場所に商品d、e、fの画像を配置し、表示させる。なお、レイアウトの変更は、この形態に限定されず、商品画像の上下の入れ替え、左右の入れ替え等が挙げられる。また、趣向情報生成部6の趣向情報に基づき、ユーザの興味が強い順に1つずつ画像を並べ替えてもよい。
表示部12の表示情報が変更されるタイミングは、特に限定されないが、ウェブページが更新されるタイミングでもよいし、所定の時間毎に変更されてもよい。また、ユーザがショッピングサイト等から一度ログアウトをし、次に同じサイトにログインした場合に変更されてもよい。
上記の説明では、プログラム実行部30による表示情報の変更処理として、表示情報に含まれるレイアウト情報の変更を例に挙げたが、本実施形態はこれに限定されるものではない。表示情報の変更の他の例として、ユーザの興味の強い商品の画像を強調表示する構成が挙げられる。具体的は強調表示の例として、
・当該商品の画像を枠囲みする
・当該商品の画像の周辺の背景色を変更する
・当該商品の画像を、他の商品よりも大きく表示する
・当該商品の画像をポップアップウィンドウとして表示する
等が挙げられる。
(制御部)
制御部9は、情報処理装置100の各部を統括的に制御するものである。制御部9は、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、およびプログラム実行部30を含むものである。制御部9の各機能、および情報処理装置100に含まれる全ての機能は、例えば、記憶部(不図示)等に記憶されたプログラムを、CPUが実行することによって実現されてもよい。
〔情報処理装置の処理例1〕
次に、図10のフローチャートに基づき、情報処理装置100の処理について説明する。
まず情報処理装置の使用を開始(ステップS100)し、処理を開始する。ステップS(以下、「ステップ」は省略する)102に進む。
S102では、ユーザ情報取得部1が、ユーザ情報を取得する(ユーザ情報取得ステップ)。処理の詳細は、(ユーザ情報取得部)に記載の通りである。ユーザ情報取得部1は、ユーザ情報を趣向情報生成部6に送信し、S104に進む。
S104では、顔情報取得部2が、ユーザの顔画像を撮像部から取得し、顔画像から顔の各部位を抽出する(顔情報取得ステップ)。処理の詳細は、(顔情報取得部)に記載の通りである。顔情報取得部2は、抽出した結果を状態検出部4に送信し、S106に進む。
S106では、状態検出部4が、ユーザの視線、瞬き、瞳孔の状態、および顔の各部位の状態を検出する(状態検出ステップ)。処理の詳細は(状態検出部)に記載の通りである。検出結果を視認オブジェクト判定部5に送信し、S108に進む。
S108では、視認オブジェクト判定部5が、ユーザの視認する商品画像(視認オブジェクト)、視認しているときの集中度、および視認しているときの感情を判定する(視認オブジェクト判定ステップ)。処理の詳細は、(視認オブジェクト判定部)に記載の通りである。視認オブジェクト判定部5は、判定した結果を、趣向情報生成部6に送信し、S110に進む。
S110では、趣向情報生成部6が、ユーザ情報取得部1から取得されたユーザ情報と、視認オブジェクト判定部5から取得された判定結果とを参照し、趣向情報を生成し(趣向情報生成ステップ)、S112へ進む。処理の詳細は、(趣向情報生成部)に記載の通りである。
S112では、制御部9は、趣向情報生成部6が生成した趣向情報をデータベース等に記録し、S114に進む。
S114では、プログラム実行部30が、アバター画像の生成、提案情報の提案、評価、および表示情報の変更のうち少なくとも1つを行う(プログラム実行ステップ)。プログラム実行部30が行う処理の詳細は、(プログラム実行部1−1)〜(プログラム実行部1−3)に記載の通りである。S116に進み、趣向推定処理を終了する。
これにより、趣向情報を好適に生成することができる。
(変形例1−1)
情報処理装置100は、決済情報取得部(不図示)を更に備えてもよい。決済情報取得部は、例えば、ユーザが商品を購入したか否かの決済情報を取得する。決済情報は、例えば、ショッピングサイト等に予め登録されているクレジットカード情報、ショッピングサイトの決済用サーバ、および決済代行事業者の決済用サーバ等から取得することができる。決済情報取得部は、ユーザが該ショッピングサイト内で、どの商品を購入したかの情報を取得することができる。決済情報は、クレジットカード情報に限定されず、ユーザの個人情報と紐づけられている媒体から取得することができる。例えば、デビットカード情報、プリペイドカード情報等が挙げられる。決済情報取得部は、取得した決済情報を、趣向情報生成部6へ送信する。
決済情報とは、ショッピング等においては、商品を購入したか否かの情報であるが、これに限定されず、より一般的に言えば、ユーザの意思を反映する意思決定情報である。
このような構成により、情報処理装置100は、より正確な趣向情報を生成することができる。
また、情報処理装置100が、決済情報取得部を備えることにより、プログラム実行部30は、ユーザが提案情報に基づく商品を購入したか否かを判定し、該判定の結果に基づいて評価を行うことができる。
図11は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告(提案情報)を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品の購入に至ったか否かを評価した結果である。図11の表中の成約率とは、プログラム実行部30が広告を送信したユーザの人数における、実際に広告の商品を購入したユーザの人数の割合である。商品aの広告を送信したユーザA、CおよびDは、全員が商品aを購入しているため、プログラム実行部30は、成約率は100%であると評価する。また、商品bの広告を送信したユーザEおよびFについては、ユーザEのみが商品bの購入に至っているため、プログラム実行部30は、成約率は50%であると評価する。このとき、広告を送信されたユーザが実際に広告を見たか否かについては必ずしも判定しなくてもよい。特に、メール等、オフライン状態でも確認できる広告においては、判定しなくてもよい。
また、プログラム実行部30は、広告を送信されたユーザが実際に広告を見たか否かという、広告の視認情報を参照して評価を行ってもよい。
図12は、プログラム実行部30が、ユーザA、CおよびDに商品aの広告を送信し、ユーザEおよびFに商品bの広告を送信した場合に、各ユーザが広告の商品の購入に至ったか否かを評価した結果を示す図である。図12の表中の成約率とは、プログラム実行部30が広告を送信したユーザの人数における、広告を視認して商品の購入に至ったユーザの人数の割合である。図12の表に示されるように、商品aの広告を送信したユーザA、CおよびDは、全員が商品aを購入したが、広告を見て購入に至ったのは、ユーザAおよびCのみであったため、プログラム実行部30は、成約率は66%であると評価する。また、商品bの広告を送信したユーザEおよびFについては、広告を見たうえで商品の購入に至ったユーザはいなかったため、プログラム実行部30は、成約率は0%であると評価する。
広告の視認情報は、(視認オブジェクト判定部)に記載の方法を用いて広告を見たか否かを判定してもよい。
(変形例1−2)
本変形例に係る情報処理装置100は、実施形態1に係る情報処理装置100と同じ部を備え、各部が行う処理についても視認オブジェクト判定部5以外は同じである。視認オブジェクト判定部5については後述する。また、本実施形態に係る情報処理装置100は、ユーザの決済情報を取得する決済情報取得部(不図示)と、仮IDを付与する仮ID付与部(不図示)と、仮IDと上記ユーザの決済情報とを照合する照合部(不図示)とを更に備える点で実施形態1に係る情報処理装置100と異なる。
決済情報取得部を備えることで、情報処理装置100は、より正確な趣向情報を生成することができる。仮ID付与部を備えることで、情報処理装置100は、顔情報を一時的に他の顔情報と区別することができる。また、照合部を更に備えることで、仮IDとユーザの決済情報とを照合することができる。
実施形態1においては、ユーザがECサービスを利用して商品を購入する形態について説明したが、本変形例では、ユーザが実店舗で商品を購入する形態について説明する。
実施形態1において、情報処理装置100は、ユーザの個人情報をまず取得する。これは、例えば、ショッピングサイトにおいて、ユーザがIDおよびパスワードを入力して、ショッピングサイトにログインすることに相当するが、実店舗では、ユーザが予めログインする場面は稀である。
本変形例においては、例えば、情報処理装置は、決済情報取得部から決済情報を取得した後に、または決済情報と同時にユーザ情報を取得する。一例として、店舗内の商品の陳列棚等に撮像部を設置し、ユーザが商品を選んでいる際のユーザの視線、瞬きおよび瞳孔の状態等を検出できるようにする。ユーザ情報が取得されるまでは、例えば、ユーザには仮ID付与部が仮のIDを付与しておき、ユーザが視認している商品の情報等を仮ID情報として、キャッシュメモリ等に格納してもよい。ユーザがレジでクレジットカード等、ユーザ情報が紐付けられている媒体を使用して決済を行った際に、初めて決済情報およびユーザ情報が取得されることになる。例えば、レジにも撮像部を設置しておき、陳列棚の撮像部から取得した画像と、レジの撮像部から取得した画像とを同期させた上で、どの仮IDのユーザが決済を行ったか判定し、照合部が、仮ID情報とユーザの決済情報とを、または仮ID情報とユーザ情報とを照合してもよい。
なお、仮IDのユーザが、現金で決済を行った場合等、ユーザ情報と照合できない方法で決済を行った場合は、仮ID情報を破棄してもよい。
<実施形態2>
本実施形態に係る情報処理装置は、学習支援装置である。学習支援装置の形態としては、例えばEラーニングを実施する装置が挙げられる。本実施形態において、情報処理装置は、複数の選択問題に解答する学習者の推定理解度を生成する。
図13は、本実施形態に係る情報処理装置が表示する問題文および解答選択肢の一例である。学習者は、図13のように、表示された問題文を読み、解答の選択肢を読んだ上で、正解だと思う選択肢を選択する。このような選択式の問題では、学習者が、最終的に正解である選択肢を選択した場合であっても、学習者が本当にその問題を理解した上で正解したとは限らない。複数の選択肢で迷った結果、偶然正解する場合もあれば、問題文を読まずにある選択肢を選択した結果、偶然正解する場合もある。本実施形態に係る情報処理装置は、学習者が該解答に至るまでの過程を考慮して、学習者の推定理解度を出力する。このように、推定理解度を出力することで、学習者本人、又は、学習者を指導する第三者が、該学習者の理解度を正確に知ることができる。
本実施形態に係る情報処理装置は、実施形態1と同じく、ユーザ情報取得部1と、顔情報取得部2と、状態検出部4と、視認オブジェクト判定部5と、趣向情報生成部6と、プログラム実行部30とを備えている。
ユーザ情報取得部1は、予め登録された学習者をユーザとして、該ユーザの情報を取得する。
顔情報取得部2は、ユーザの顔情報を取得する。顔情報取得部2が行うユーザの顔情報の取得は、実施形態1の顔情報取得部2と同じ処理を用いればよい。
状態検出部4は、顔情報取得部2が取得したユーザの顔情報から上記ユーザの状態を検出する。検出方法は、実施形態1の状態検出部4と同じ判定方法を用いればよい。
視認オブジェクト判定部5は、状態検出部4が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する。視認オブジェクト判定部5は、ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定してもよい。
また、視認オブジェクト判定部5は、状態検出部4が検出した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。視認オブジェクト判定部5が行う判定方法は、実施形態1の視認オブジェクト判定部5の判定方法と同じ方法を用いればよい。本実施形態において、ユーザが視認しているオブジェクトとは、ユーザが視認している問題文および解答の選択肢である。本実施形態において、ユーザの感情は、例えば、自信に満ちている、困っている等、問題を解いているときの学習者の感情である。
本実施形態において、趣向情報生成部6が生成する趣向情報は、ある問題に解答したユーザの推定理解度である。ここで、推定理解度とは、学習者(ユーザ)が該解答に至るまでの過程のみを考慮した上で、学習者の理解度を推定するための度合いである。趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報および視認オブジェクト判定部5から取得した判定結果を参照して、学習者の推定理解度を生成する。一例として、視認オブジェクト判定部5が、学習者が何度も視線を向けていると判定したオブジェクト、すなわち、何度も読み返している解答の選択肢について、趣向情報生成部6は、学習者が正解の候補として迷った選択肢であると判定し、推定理解度を生成する。本実施形態において、趣向情報生成部6は、ユーザがどの選択肢を実際に選択したかの結果は考慮せず、ユーザ情報および判定結果から学習者の推定理解度を生成する。
これにより、学習者の推定理解度を好適に生成することができる。
図14は、趣向情報生成部6が生成する情報の一例である。図14は、趣向情報生成部6が生成する情報の一例である。図14において、「ID」は、学習者を識別するための情報、「迷った選択肢」は、視認オブジェクト判定部5において、学習者が視認していたと判定された選択肢であり、「迷わなかった選択肢」は、学習者がそれほど視認していなかったと判定された選択肢である。「推定理解度」は、「迷った選択肢」および「迷わなかった選択肢」を総合的に判定し、学習者の理解度を5段階で示した結果である。本例において、解答の選択肢はa〜dの4つであり、正解の選択肢はaである。
学習者A〜Dの推定理解度について、それぞれ以下に説明する。
学習者Aは、正解である選択肢a以外に、選択肢bおよびcも視認していたため、学習者Aは、選択肢a、bおよびcで迷ったといえる。逆に、学習者Aは、選択肢dについては、それほど視認していなかったため、選択肢dを一読した上で正解の候補から除外していた可能性が高いといえる。このことより、学習者Aは、選択肢dを正解の候補から除外するだけの理解度はあったと趣向情報生成部6が判定し、中程度の理解度として推定理解度「3」を生成する。
学習者Bは、正解である選択肢aと、選択肢bとを視認しており、選択肢cおよびdをそれほど視認していなかったことより、選択肢aとbとで迷ったといえる。選択肢aおよびbのどちらかが正解であると絞り込んでいる点で、趣向情報生成部6は、学習者Bの推定理解度を学習者Aよりも高い「4」とする。
学習者Cは、問題文および選択肢を一読した上で、迷わず即答した。このことより、趣向情報生成部6は、学習者Cの理解度が高いと判定し、推定理解度「5」を生成する。
学習者Dは、選択肢a以外の選択肢b、c、およびdを視認していることから、正解である選択肢aを最初から正解の候補として含まず、選択肢b、c、およびdで迷ったといえる。このことより、趣向情報生成部6は、学習者Dの理解度はそれほど高くないと判定し、推定理解度「2」を生成する。
学習者Eは、全ての選択肢を同じように視認し、全ての選択肢で迷ったといえる。このことより、趣向情報生成部6は、学習者Eの理解度はそれほど高くないと判定し、推定理解度「1」を生成する。
(プログラム実行部2−1)
プログラム実行部30は、趣向情報生成部6が生成した推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力してもよい。表示データの一例として、グラフが挙げられる。
図15は、問題文5つに解答した、ある学習者の推定理解度を棒グラフに示したものである。可視化の方法は、限定されず、レーダチャート等を用いてもよい。また、図15は、1人の学習者の推定理解度を示しているが、同じ問題を解いた複数の学習者の平均の推定理解度等を併せて表示してもよい。
これにより、学習者の推定理解度を可視化することができる。
本実施形態において、趣向情報生成部6が生成する趣向情報の形態は、特に限定されない。図14で示すように、各問題における複数の学習者の推定理解度を示す情報であってもよいし、図15のように、各学習者における解答済みの複数の問題の推定理解度を示す情報であってもよい。
本実施形態に係る情報処理装置は、例えば、以下の事項を更に判定して、推定理解度を生成してもよい。
問題文および解答の選択肢の文全体を一読するのに最低限必要であるとされる閾値の時間より短い時間で解答した場合は、そもそも学習者が問題文および選択肢の文を読まずに解答した可能性が高く、理解した上での解答ではないといえる。この場合、趣向情報生成部6は、推定理解度を下げる等の処理を行ってもよい。
また、解答の選択肢に重みづけをした上で、学習者が複数の選択肢を解答の候補として迷った場合に、その選択肢の重みを推定理解度に反映させてもよい。例えば、事前に学習をしたはずの学習者なら通常選び得ない解答の選択肢が解答の候補とされた場合、趣向情報生成部6は、推定理解度を下げる等の処理を行ってもよい。
(プログラム実行部2−2)
プログラム実行部30は、趣向情報生成部6から取得した趣向情報に基づいた提案情報をユーザに提案する。本実施形態において、提案情報とは、例えば、趣向情報生成部6が生成する趣向情報に含まれる、各学習者における解答済みの複数の問題のうち推定理解度が低い問題について学習者に復習させるための情報である。復習させるための情報とは、具体的には、推定理解度が低い問題を学習者に理解させるための解説等である。復習させるための情報とは、更に具体的には、「英文法の過去完了形についての理解が低いようです。」、「教科書10ページから13ページを再度復習してください。」等のメッセージであってもよい。
提案情報の提案の方法として、例えば、学習者が所定の複数の問題を解き終わった後、解答の正誤を確認する画面において、プログラム実行部30が提案情報を表示部に表示してもよい。また、プログラム実行部30は、メール、ソーシャルネットワークサービス(SNS)およびインスタントメッセージ(IM)等の通信手段を用いて、生成した提案情報を学習者に送信してもよい。
このように、プログラム実行部30が提案情報を学習者に提案することで、学習者は、自身の推定理解度に基づいた情報を享受することができる。
プログラム実行部30は、ユーザが提案情報を視認したか否かを判定してもよい。ユーザが提案情報を視認したか否かの判定は、例えば、学習者に提案した、問題を復習させるための情報を表示した画面を、学習者が視認したか否かの情報をプログラム実行部30が参照することにより判定してもよい。学習者が視認したか否かの情報は、例えば、視認オブジェクト判定部5より取得する。視認オブジェクト判定部5は、例えば、実施形態1の(視認オブジェクト判定部)で記載の処理を行えばよい。
また、プログラム実行部30は、上述の判定の結果に基づいて評価を行ってもよい。ここで、評価とは、例えば、学習者へ提案した、問題を復習させるための情報(提案情報)が適当であったかの評価である。一例として、プログラム実行部30は、問題を復習させるための情報を視認した学習者が、再度問題を解くためのサイトにログインしたか、実際に問題を解いたか等の情報を参照することにより評価を行う。一例として、問題を復習させるための情報を提案した全学習者の人数における、再度問題を解いた学習者の人数の割合を評価値としてもよい。
(変形例2−1)
情報処理装置100は、選択情報取得部(不図示)を更に備えてもよい。選択情報取得部は、ユーザの選択情報を取得する。本実施形態において、選択情報とは、学習者が選択した選択肢の番号である。
本変形例に係る情報処理装置は、ユーザ情報取得部1と、顔情報取得部2と、状態検出部4と、視認オブジェクト判定部5と、選択情報取得部と、趣向情報生成部6とを備えている。
ユーザ情報取得部1、顔情報取得部2、状態検出部4、および視認オブジェクト判定部5の機能は、実施形態2で説明した部材の機能と同じであるため、その説明を省略する。
趣向情報生成部6は、ユーザ情報取得部1から取得したユーザ情報、視認オブジェクト判定部5から取得した判定結果、および選択情報取得部から取得した選択情報を参照して、学習者の推定理解度を生成する。一例として、視認オブジェクト判定部5が、学習者が何度も視線を向けていると判定したオブジェクト、すなわち、何度も読み返している解答の選択肢について、趣向情報生成部6は、学習者が正解の候補として迷った選択肢であると判定し、推定理解度を生成する。
図16は、趣向情報生成部6が生成する情報の一例である。図16において、「ID」は、学習者を識別するための情報、「選択番号」は、各IDの学習者が実際に選択した選択肢の番号、「正否」は、解答の正否である。「迷った選択肢」とは、視認オブジェクト判定部5において、学習者が視認していたと判定された選択肢であり、「迷わなかった選択肢」とは、学習者がそれほど視認していなかったと判定された選択肢である。「推定理解度」は、「正否」、「迷った選択肢」および「迷わなかった選択肢」を総合的に判定し、学習者の理解度を5段階で示した結果である。本例において、解答の選択肢はa〜dの4つであり、正解の選択肢はaである。
図16において、問題に正解した、学習者A、CおよびDの推定理解度について説明する。学習者A、CおよびDは、何れも正解である選択肢aを選択したが、選択肢aを選択するに至った過程が異なる。
学習者Aは、選択肢a以外に、選択肢bおよびcを視認していたため、学習者Aは、選択肢a、b、およびcで迷ったといえる。逆に、学習者Aは、選択肢dについては、それほど視認していなかったため、選択肢dを一読した上で正解の候補から除外していた可能性が高いといえる。このことより、学習者Aは、選択肢dを正解の候補から除外するだけの理解度はあったと趣向情報生成部6が判定し、中程度の理解度として推定理解度「3」を生成する。
学習者Cは、問題文および選択肢を一読した上で、選択肢aのみを視認し、選択肢aを正解として選択した。このことより、学習者Cは、理解度が高いと趣向情報生成部6が判定し、推定理解度「5」を生成する。
学習者Dは、選択肢a以外に、選択肢b、c、およびdも視認していたため、学習者Aは、選択肢全てで迷ったといえる。このことより、学習者Dは、最終的に正解の選択肢を選択したが、全ての選択肢で迷ったことから、偶然正解した可能性が高く、理解度はそれほど高くないと趣向情報生成部6が判定し、推定理解度「2」を生成する。
また、問題に不正解であった、学習者BおよびEの推定理解度についても同様に判定される。例えば、学習者Bは、不正解であったが、選択肢aおよびbで迷い、その他の選択肢では迷わなかったことから、選択肢aおよびbまで絞り込むまでの理解度は備えていたと趣向情報生成部6は判定し、推定理解度「4」を生成する。また、学習者Eは、全ての選択肢で迷った挙句、結局不正解であったため、理解度が低いと趣向情報生成部6が判定し、推定理解度「1」を生成する。
本変形例においても、<実施形態2>で記載のように、プログラム実行部30が、推定理解度に基づき提案情報を提案し、推定理解度と、提案情報とに基づき、評価を行ってもよい。
ここでの評価は、<実施形態2>と同じく、学習者へ提案した、問題を復習させるための情報(提案情報)が適当であったかの評価である。本変形例では、問題を復習させるための情報を視認した学習者が、再度問題を解いた際に、該学習者の成績が向上したか否かの情報等を、更に考慮して評価を行ってもよい。
<実施形態3>
本実施形態の情報処理装置100は、他の端末装置と趣向情報の共有を行う。図17は、情報処理装置100の構成要素を示すブロック図である。図17に示すように、本実施形態に係る情報処理装置100は、ユーザ情報取得部1、顔情報取得部2、状態検出部4、視認オブジェクト判定部5、趣向情報生成部6、プログラム実行部30、趣向共有依頼送信部20、趣向共有依頼受信部21、趣向共有依頼承認部22、および趣向共有部23を備える。趣向共有依頼送信部20、趣向共有依頼受信部21、趣向共有依頼承認部22、および趣向共有部23以外の部材の機能は、実施形態1で説明した部材の機能と同じであるため、その説明を省略する。
図18は、本実施形態に係る情報処理システムの概要を示す図である。図18に示すように本実施形態に係る情報処理システムは、サーバ300と、複数の情報処理装置100の一例としての複数の端末装置(10、10a)とを備えている。
趣向共有依頼送信部20は、サーバ300を介して他の端末に、趣向情報の共有を依頼するための情報を送信する。
趣向共有依頼受信部21は、サーバ300を介して他の端末の趣向共有依頼送信部から、趣向情報の共有を依頼されたことの情報を受信する。趣向共有依頼受信部21は、受信した情報を趣向共有依頼承認部へ通知する。
趣向共有依頼承認部22は、趣向共有依頼受信部21から受信した情報に基づき、趣向情報を他の端末に送信してもよいか、ユーザに認可を求める通知を表示部に表示させる。この表示に基づき、ユーザは、認可をするか否かを示す操作入力を行い、趣向共有依頼承認部22は、該入力の情報を趣向共有部23に送信する。
趣向共有部23は、趣向共有依頼承認部22から受信した情報が、認可を示す情報である場合、趣向情報生成部6から趣向情報を取得し、該趣向情報を、サーバ300を介して他の端末装置へ送信する。また、趣向共有部23は、サーバ300を介して他の端末から趣向情報を受信し、自身の端末装置の趣向情報および他の端末の趣向情報を合わせて両者の趣向情報を生成し、生成した両者の趣向情報の少なくとも一部を表示部12に表示させる。具体的には、両者の趣向情報を端末装置に表示させてもよいし、他の端末からの趣向情報のみを自身の端末装置に表示させてもよい。また、両者の趣向情報と、他の端末からの趣向情報のみとを、ユーザの操作等によって適宜切り換えて表示させてもよい。このような構成により、ユーザは、他の端末のユーザである相手の趣向情報を知ることができる。また、自分の趣向情報と、相手の趣向情報とを考慮した両者の趣向情報を知ることができる。
サーバ300は、上述した趣向情報の共有を依頼するための情報を、送信元の端末装置の端末ID又はユーザID、および、送信先の端末装置の端末ID又はユーザIDと関連付けて管理している。また、サーバ300は、「趣向情報」を、当該趣向情報の取得元の端末装置の端末ID又はユーザID、および当該趣向情報を共有可能な端末装置の端末ID又はユーザIDと関連付けて管理している。
一例として、飲食店の趣向情報を共有する場合を説明する。ユーザAおよびユーザBが、二人で利用する飲食店を選択する際、ユーザAと、ユーザBとが、お互いの飲食店に関する趣向情報を共有することで、お互いの趣向が最も近い、又は同じ飲食店を選択することができる。
例えば、ユーザAの端末装置の趣向共有依頼送信部は、ユーザBの端末装置にユーザBの飲食店の趣向情報の共有を依頼するための情報を送信する。ユーザBの端末装置の趣向共有依頼受信部21は、ユーザAの趣向共有依頼送信部から受信した情報を趣向共有依頼承認部22へ通知し、ユーザBの端末装置の表示部に、趣向情報を他の端末に送信してもよいか、ユーザBに認可を求める通知をさせる。ユーザBが、認可をするための入力を行うことで、趣向共有依頼承認部22は、趣向共有部23に認可されたことの情報を送信する。趣向共有部23は、趣向情報生成部6から趣向情報を取得し、ユーザAの端末装置へ趣向情報を送信する。また、趣向情報生成部6は、ユーザAの端末装置から趣向情報を取得し、ユーザAおよびユーザBの趣向情報に基づき、二人の趣向情報を生成し、生成した結果を表示部12に表示させる。
(プログラム実行部3)
プログラム実行部30は、実施形態1の(プログラム実行部1−1)で記載したように、ユーザに対応したアバター画像を生成し、状態検出部4が検出するユーザの状態、視認オブジェクト判定部5が判定するユーザが視認しているオブジェクト、ユーザの感情、および趣向情報生成部6から取得する趣向情報のうち少なくとも1つに応じたアバター画像を生成する。
本実施形態において、プログラム実行部30は、生成したアバター画像を、例えば、ユーザ自身が見ることが出来るように、該ユーザの端末装置の表示部12に表示してもよいし、趣向共有部23を介して、他の端末装置へ送信してもよい。すなわち、複数ユーザの間で、趣向情報と共にアバター画像を共有してもよい。
このように、プログラム実行部30がアバター画像を生成することにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。また、複数のユーザの間でアバター画像を共有することで、端末装置の表示部を見ながらもユーザ同士の親近感を増すことが可能となる。
図19は、ユーザAおよびユーザBの趣向情報を表示した一例である。例えば、ユーザAの趣向情報およびユーザBの趣向情報のうち、両方に含まれていた店舗は、両者の共通する趣向情報として上位に表示する。図19では、例えば、ブラウザ画面16において、上段に表示されている店舗Y、P、X、およびCは、ユーザAおよびユーザBの共通の好みである店舗である。また、ブラウザ画面16がユーザAの端末装置の表示部12に表示されている場合、ユーザAの端末装置の表示部12には、ユーザBの好みの店舗のみが表示されていてもよい。
本実施形態のプログラム実行部30は、表示部12のレイアウトを適宜変更してもよい。プログラム実行部30の処理は、実施形態1に記載のプログラム実行部30の処理と同じである。
趣向情報を共有する端末の数は、特に限定されず、3つ以上の端末装置の間で共有されてもよい。
本実施形態では、端末装置が、趣向情報生成部6および趣向共有部23を備えており、複数の端末装置同士で趣向情報を共有する形態であったが、この形態に限定されない。図18に示す例において、サーバ300が、趣向情報生成部6および趣向共有部23を備え、サーバを経由して、複数のユーザがお互いの趣向情報を共有し、複数人の趣向情報を生成する形態であってもよい。
サーバが趣向情報生成部6を備える構成については、実施形態4で説明する。
<実施形態4>
〔情報処理装置400およびサーバ200の要部構成〕
本実施形態に係る情報処理装置について、図20を用いて説明する。図20は、本実施形態に係る情報処理装置400を備える端末装置10および本実施形態に係る情報処理装置であるサーバ200の構成要素を示すブロック図である。
端末装置10は、ユーザのユーザ情報および顔情報を取得し、取得した情報をサーバ200に送信し、サーバ200は受信した情報を参照して趣向情報を生成する。サーバ200は、生成した趣向情報を端末装置10に送信し、端末装置10は、趣向情報を取得する。
本実施形態に係る情報処理装置400は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部1、ユーザの顔情報を取得する顔情報取得部2、ユーザのユーザ情報と、ユーザの顔情報とを参照して得られる趣向情報を取得する趣向情報取得部24、およびプログラム実行部30を備えている。また、情報処理装置を備える端末装置10は、表示部を更に備える。
これにより、本実施形態に係る情報処理装置400は、ユーザの趣向情報を取得することができる。
ユーザ情報取得部1および顔情報取得部2は、実施形態1と同じく、それぞれ、ユーザ情報およびユーザの顔情報を取得する。
ユーザ情報には、ユーザの属性情報が含まれ、具体的なユーザの属性情報は、実施形態1で記載の属性情報と同じである。
また、上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれ、具体的なユーザの識別情報は、実施形態1で記載の識別情報と同じである。
これにより、ユーザの属性を取得することができる。また、ユーザ情報に、ユーザ識別情報が含まれることで、他のユーザと対象ユーザとを識別することができ、ユーザの趣向情報と、ユーザ情報とを紐づけることができる。
本実施形態では、図20に示すように、ユーザ情報取得部1、および顔情報取得部2が取得した情報を、サーバ200に送信する点で、実施形態1とは異なる。
また、趣向情報取得部24は、サーバ200から趣向情報を取得し、取得した結果を表示部12に表示させる。
情報処理装置400は、趣向情報に基づきプログラムを実行するプログラム実行部(不図示)を更に備えてもよい。
これにより、情報処理装置400は、ユーザの趣向情報に基づいたプログラムを実行することができる。
(プログラム実行部4−1)
プログラム実行部30は、ユーザに対応したアバター画像であって、ユーザの状態、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報のうち少なくとも1つに応じたアバター画像を生成する。プログラム実行部が行うアバター画像の生成についての詳細は、実施形態1で説明した通りである。
このように、プログラム実行部30がアバター画像を生成することにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。
プログラム実行部30は、趣向情報に基づいた提案情報をユーザに提案し、趣向情報と、上記提案情報とに基づいた評価を行ってもよい。プログラム実行部が行う提案情報の提案および評価についての詳細は、実施形態1で説明した通りである。
このように、プログラム実行部30が提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。また、プログラム実行部30が評価を行うことで、提案情報が適当なものであったかの評価を行うことができる。
プログラム実行部は、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更してもよい。プログラム実行部が行う表示情報の変更についての詳細は、実施形態1で説明した通りである。
これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。
〔サーバ200の要部構成〕
図20に基づき、サーバ200について説明する。本実施形態に係るサーバ200は、登録された特定のユーザのユーザ情報を取得するユーザ情報取得部1aと、上記ユーザの顔情報を取得する顔情報取得部2aと、上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部6aと、上記趣向情報に基づきプログラムを実行するプログラム実行部30aを備えている。
これにより、サーバ200は、ユーザの趣向情報を好適に生成することができる。
図20に示すように、また、本実施形態に係るサーバ200は、趣向情報を送信する送信部19を更に備えている。
サーバ200が備えるユーザ情報取得部1aおよび顔情報取得部2aは、端末装置10内のユーザ情報取得部1および顔情報取得部2から、それぞれユーザ情報および顔情報を受信し、受信した情報を趣向情報生成部6aに送信する。
趣向情報生成部6aは、受信したユーザ情報および顔情報を参照することにより、ユーザの趣向情報を生成する。趣向情報生成部6aの具体的な動作は、実施形態1において説明した趣向情報生成部6と同様であるが、図20に示すように、本実施形態に係るサーバ200の趣向情報生成部6aは、状態検出部4a、および視認オブジェクト判定部5aを備え得る。ここで、状態検出部4aおよび視認オブジェクト判定部5aの機能は、実施形態1において説明した状態検出部4および視認オブジェクト判定部5の機能と同じである。
このように、状態検出部4aと、視認オブジェクト判定部5aとを備えることで、サーバ200は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。
なお、サーバ200と送受信を行う情報処理装置400が、顔情報取得部2が取得した顔情報からユーザの状態を検出する状態検出部と、状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクト判定する視認オブジェクト判定部とを備えてもよい。
このように、状態検出部と、視認オブジェクト判定部とを備えることで、情報処理装置400は、ユーザの状態を検出できると共に、ユーザが視認しているオブジェクトを好適に判定することができる。
視認オブジェクト判定部は、実施形態1に係る視認オブジェクト判定部と同様に、上記ユーザが閲覧しているページの配置情報を更に参照して、ユーザが視認しているオブジェクトを判定する。
このように視認オブジェクト判定部が、ページの配置情報を更に参照することで、ユーザがページ上のどのオブジェクトを視認しているか、正確に判定することができる。
また、視認オブジェクト判定部は、状態検出部が検出した結果を参照し、ユーザの集中度およびユーザの感情のうち少なくとも1つを更に判定してもよい。視認オブジェクト判定部の機能は、実施形態1に係る視認オブジェクト判定部5と同じである。
これにより、ユーザがどの程度オブジェクトに興味を持ち、どのような感情を持って該オブジェクトを視認しているかを判定することができる。
情報処理装置100は、ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部(不図示)を更に備えてもよい。また、視認オブジェクト判定部は、画像取得部が取得した撮像画像と、上記状態検出部が検出した結果と、を参照して、上記ユーザが視認しているオブジェクトを判定してもよい。
画像取得部および視認オブジェクト判定部の機能は、実施形態1で記載の画像取得部15および視認オブジェクト判定部5の機能と同じである。
これにより、ユーザが視認しているオブジェクトを好適に判定することができる。
状態検出部が検出するユーザの状態は、実施形態1に係る状態検出部4と同じであり、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである。
これにより、ユーザの集中度を好適に判定することができる。
ここで、趣向情報は、実施形態1と同様に、ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である。
これにより、サーバ200が備える趣向情報生成部6aは、各ユーザの興味が強いオブジェクトおよび興味の弱いオブジェクトの情報を知ることができ、趣向情報生成部は、重みづけを行った趣向情報を生成することができる。また、情報処理装置400が備える趣向情報取得部24が該趣向情報を取得することで、ユーザは、自身の趣向に基づいた趣向情報を取得することができる。
情報処理装置が、サーバであり、サーバが備える趣向情報生成部において趣向情報が生成される形態は、本実施形態に限定されず、上述した、実施形態1〜3にも適用され得る。
このように、サーバが趣向情報生成部を備えることで、例えば、ユーザが使用する端末装置が常に同じでなくても、該ユーザの趣向情報をサーバ上で生成することができるという効果を奏する。ユーザのユーザ情報および顔情報さえ取得出来れば、ユーザが、パソコン、タブレット、スマートフォンなどいずれの端末装置を使用した場合においても、該ユーザの趣向情報を安定して生成することができる。
また、サーバが趣向情報生成部を備えることは、実施形態3に記載の複数ユーザの趣向情報を共有する形態においては、特に有用である。複数ユーザの趣向情報を共有する場合、例えば、サーバが趣向共有部を更に備えてもよい。このような構成により、複数ユーザの趣向情報をサーバ上で好適に生成することができる。
(プログラム実行部4−2)
プログラム実行部30aは、ユーザに対応したアバター画像であって、ユーザの状態、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報のうち少なくとも1つに応じたアバター画像を生成する。プログラム実行部30aが行う処理は、実施形態1の(プログラム実行部1−1)に記載の処理と同じである。
これにより、ユーザが視認しているオブジェクト、ユーザの感情、および趣向情報を可視化することができる。
なお、本実施形態のプログラム実行部30aが生成するアバター画像は、送信部19を介して端末装置10の趣向情報取得部24に送信される。図20では、端末装置10にのみ送信される形態であるが、送信先の装置の種類および数は特に限定されず、複数の装置に送信されてもよい。
このように、サーバが複数の装置にプログラム実行部30aが生成するアバター画像を送信することにより、複数のユーザが、アバター画像を見ることができる。
また、図20では、端末装置10のみから、顔情報およびユーザ情報を受信している形態であるが、顔情報およびユーザ情報を送信する装置の種類および数は特に限定されず、サーバ200は、複数の装置から顔情報およびユーザ情報を受信してもよい。この場合、サーバ200の趣向情報生成部6aは、複数のユーザの顔情報およびユーザ情報を参照することにより、各ユーザの趣向情報を生成してもよい。また、趣向情報生成部6aは、複数のユーザの顔情報およびユーザ情報を参照することにより、複数のユーザの趣向情報を統合した趣向情報を生成してもよい。プログラム実行部30aは、趣向情報生成部6aが生成した各ユーザの趣向情報を参照して、各ユーザに対応するアバター画像を生成してもよい。また、プログラム実行部30aは、あるユーザに対応するアバター画像を、他のユーザに関連付けられた端末装置に送信可能な構成としてもよい。一例として、プログラム実行部30aは、複数のユーザに対応するアバター画像を1つの仮想空間に表示させるような画像を生成し、当該画像を、当該複数のユーザに関連付けられた各々の端末装置に送信可能な構成としてもよい。より具体的には、プログラム実行部30aは、各ユーザに対応するアバター画像を、実店舗を模した仮想空間に配置し、各ユーザが実店舗でショッピングをしているように見せるための画像を生成してもよい。
このように、サーバが複数の装置から複数のユーザの顔情報およびユーザ情報を受信することにより、趣向情報生成部6aは複数のユーザの趣向情報を生成することができる。また、プログラム実行部30aは、複数のユーザの趣向情報を参照して、アバター画像を生成することができる。
プログラム実行部30aは、趣向情報生成部6aが生成した趣向情報と、プログラム実行部30aが提案した提案情報とに基づいて評価を行ってもよい。プログラム実行部30aが行う提案情報の提案および評価についての詳細は、実施形態1で説明した通りである。
このように、プログラム実行部30aが提案情報をユーザに提案することで、ユーザは、自身の趣向に基づいた情報を享受することができる。また、プログラム実行部30aが評価を行うことで、提案情報が適当なものであったかの評価を行うことができる。
プログラム実行部30aは、趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更してもよい。プログラム実行部30が行う表示情報の変更についての詳細は、実施形態1で説明した通りである。
これにより、各ユーザの趣向情報に基づいたレイアウト等を各ユーザに提供することができる。
〔ソフトウェアによる実現例〕
情報処理装置100の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、情報処理装置100は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導
体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などを更に備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。更に、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1、1a ユーザ情報取得部
2、2a 顔情報取得部
4、4a 状態検出部
5、5a 視認オブジェクト判定部
6、6a 趣向情報生成部
15 画像取得部
30、30a プログラム実行部
24 趣向情報取得部
100、400 情報処理装置

Claims (37)

  1. 登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
    上記ユーザの顔情報を取得する顔情報取得部と、
    上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、
    上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、
    上記状態検出部によるユーザの状態および上記視認オブジェクト判定部による判定結果を参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、
    上記趣向情報に基づきプログラムを実行するプログラム実行部と
    を備えていることを特徴とする情報処理装置。
  2. 上記視認オブジェクト判定部は、
    上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする、請求項1に記載の情報処理装置。
  3. 上記視認オブジェクト判定部は、
    上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定することを特徴とする、請求項1または2に記載の情報処理装置。
  4. ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、
    上記視認オブジェクト判定部は、
    上記画像取得部が取得した撮像画像と、
    上記状態検出部が検出した結果と、
    を参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする請求項1〜3の何れか1項に記載の情報処理装置。
  5. 上記プログラム実行部は、
    上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  6. 上記プログラム実行部は、
    上記趣向情報に基づいた提案情報を上記ユーザに提案することを特徴とする請求項1〜5の何れか1項に記載の情報処理装置。
  7. 上記プログラム実行部は、
    上記趣向情報と、上記提案情報とに基づいた評価を行うことを特徴とする請求項6に記載の情報処理装置。
  8. 上記プログラム実行部は、
    上記趣向情報を、表示データとして外部の表示装置へ出力することを特徴とする請求項1〜7の何れか1項に記載の情報処理装置。
  9. 上記趣向情報は、ユーザの推定理解度である、請求項1〜8の何れか1項に記載の情報処理装置。
  10. 上記プログラム実行部は、
    上記推定理解度を可視化したオブジェクトを含む表示データを外部の表示装置へ出力することを特徴とする請求項9に記載の情報処理装置。
  11. 上記プログラム実行部は、
    上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項1〜10の何れか1項に記載の情報処理装置。
  12. 上記ユーザ情報には、上記ユーザの属性情報が含まれる、請求項1〜11の何れか1項に記載の情報処理装置。
  13. 上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる、請求項1〜12の何れか1項に記載の情報処理装置。
  14. 上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである、請求項1〜13の何れか1項に記載の情報処理装置。
  15. 上記趣向情報生成部が生成する上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である、請求項1〜14の何れか1項に記載の情報処理装置。
  16. 上記顔情報に仮IDを付与する仮ID付与部と、
    上記仮IDと上記ユーザが決済を行ったか否かの決済情報とを照合する照合部と、
    を更に備える請求項1〜15の何れか1項に記載の情報処理装置。
  17. 請求項1に記載の情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、
    上記趣向情報生成部としてコンピュータを機能させるための情報処理プログラム。
  18. 情報処理装置によって実行される情報処理方法であって、
    登録された特定のユーザのユーザ情報を取得するユーザ情報取得ステップと、
    上記ユーザの顔情報を取得する顔情報取得ステップと、
    上記顔情報取得ステップにおいて取得した顔情報から上記ユーザの状態を検出する状態検出ステップと、
    上記状態検出ステップにおいて検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定ステップと、
    上記ユーザのユーザ情報と、上記視認オブジェクト判定ステップにおける判定結果とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成ステップと、
    上記趣向情報に基づきプログラムを実行するプログラム実行ステップと
    を含んでいることを特徴とする情報処理方法。
  19. 登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
    上記ユーザの顔情報を取得する顔情報取得部と、
    上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して得られる趣向情報を取得する趣向情報取得部と、
    を備えていることを特徴とする情報処理装置。
  20. 上記趣向情報に基づきプログラムを実行するプログラム実行部を更に備えていることを特徴とする請求項19に記載の情報処理装置。
  21. 上記プログラム実行部は、
    上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項20に記載の情報処理装置。
  22. 上記プログラム実行部は、
    上記趣向情報に基づいた提案情報を上記ユーザに提案することを特徴とする請求項20または21の何れか1項に記載の情報処理装置。
  23. 上記プログラム実行部は、
    上記趣向情報と、上記提案情報とに基づいた評価を行うことを特徴とする請求項22に記載の情報処理装置。
  24. 上記プログラム実行部は、
    上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項20〜23の何れか1項に記載の情報処理装置。
  25. 上記顔情報取得部が取得した顔情報から上記ユーザの状態を検出する状態検出部と、
    上記状態検出部が検出した結果を参照し、上記ユーザが視認しているオブジェクトを判定する視認オブジェクト判定部と、
    を更に備えていることを特徴とする請求項19〜24の何れか1項に記載の情報処理装置。
  26. 上記視認オブジェクト判定部は、
    上記ユーザが閲覧しているページの配置情報を更に参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする、請求項25に記載の情報処理装置。
  27. 上記視認オブジェクト判定部は、
    上記状態検出部が検出した結果を参照し、上記ユーザの集中度および上記ユーザの感情のうち少なくとも1つを更に判定することを特徴とする、請求項25または26の何れか1項に記載の情報処理装置。
  28. ユーザが身に着ける撮像装置から、ユーザの視野を含む撮像画像を取得する画像取得部を更に備え、
    上記視認オブジェクト判定部は、
    上記画像取得部が取得した撮像画像と、
    上記状態検出部が検出した結果と、
    を参照して、上記ユーザが視認しているオブジェクトを判定することを特徴とする請求項25〜27の何れか1項に記載の情報処理装置。
  29. 上記状態検出部が検出する上記ユーザの状態は、上記ユーザの視線、瞳孔の状態、瞬きの回数、眉の動き、瞼の動き、頬の動き、鼻の動き、唇の動きおよび顎の動きのうち少なくとも1つである、請求項25〜28の何れか1項に記載の情報処理装置。
  30. 上記ユーザ情報には、上記ユーザの属性情報が含まれる、請求項19〜29の何れか1項に記載の情報処理装置。
  31. 上記ユーザ情報には、上記ユーザを他のユーザと識別するためのユーザ識別情報が含まれる、請求項19〜30の何れか1項に記載の情報処理装置。
  32. 登録された特定のユーザのユーザ情報を取得するユーザ情報取得部と、
    上記ユーザの顔情報を取得する顔情報取得部と、
    上記ユーザのユーザ情報と、上記ユーザの顔情報とを参照して、上記ユーザの趣向に関する趣向情報を生成する趣向情報生成部と、
    上記趣向情報に基づきプログラムを実行するプログラム実行部と
    を備えていることを特徴とする情報処理装置。
  33. 上記プログラム実行部は、
    上記ユーザに対応したアバター画像であって、上記ユーザの状態、上記ユーザが視認しているオブジェクト、上記ユーザの感情、および上記趣向情報のうち少なくとも1つに応じたアバター画像を生成することを特徴とする請求項32に記載の情報処理装置。
  34. 上記プログラム実行部は、
    上記趣向情報に基づいた提案情報を上記ユーザに提案することを特徴とする請求項32または33に記載の情報処理装置。
  35. 上記プログラム実行部は、
    上記趣向情報と、上記提案情報とに基づいた評価を行うことを特徴とする請求項34に記載の情報処理装置。
  36. 上記プログラム実行部は、
    上記趣向情報に基づいて、外部の表示装置に表示させるための表示情報を変更することを特徴とする請求項32〜35の何れか1項に記載の情報処理装置。
  37. 上記趣向情報は、上記ユーザの興味が強いオブジェクトおよび興味が弱いオブジェクトに関する情報である、請求項19〜36の何れか1項に記載の情報処理装置。
JP2018166228A 2018-09-05 2018-09-05 情報処理装置、情報処理方法、および情報処理プログラム Active JP6724090B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018166228A JP6724090B2 (ja) 2018-09-05 2018-09-05 情報処理装置、情報処理方法、および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166228A JP6724090B2 (ja) 2018-09-05 2018-09-05 情報処理装置、情報処理方法、および情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019027568A Division JP7263825B2 (ja) 2019-02-19 2019-02-19 情報処理装置、情報処理方法、および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020038562A true JP2020038562A (ja) 2020-03-12
JP6724090B2 JP6724090B2 (ja) 2020-07-15

Family

ID=69738097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166228A Active JP6724090B2 (ja) 2018-09-05 2018-09-05 情報処理装置、情報処理方法、および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP6724090B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022230069A1 (ja) * 2021-04-27 2022-11-03 株式会社I’mbesideyou 動画像分析システム
WO2022230070A1 (ja) * 2021-04-27 2022-11-03 株式会社I’mbesideyou 動画像分析システム
JP7565077B2 (ja) 2020-12-11 2024-10-10 株式会社Weavlinx 情報処理装置、情報処理方法及び情報処理システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108166A (ja) * 2008-10-29 2010-05-13 Mitsubishi Electric Information Systems Corp 追跡装置、追跡方法及び追跡プログラム
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2012009957A (ja) * 2010-06-22 2012-01-12 Sharp Corp 評価情報通知装置、コンテンツ提示装置、コンテンツ評価システム、評価情報通知装置の制御方法、評価情報通知装置の制御プログラムおよびコンピュータ読み取り可能な記録媒体
JP2012513631A (ja) * 2008-12-22 2012-06-14 ノーテル ネットワークス リミテッド ターゲット広告システムおよび方法
WO2015129587A1 (ja) * 2014-02-25 2015-09-03 株式会社Nttドコモ 表示装置及び表示方法
JP2016029540A (ja) * 2014-07-25 2016-03-03 ヤフー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018097427A (ja) * 2016-12-08 2018-06-21 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108166A (ja) * 2008-10-29 2010-05-13 Mitsubishi Electric Information Systems Corp 追跡装置、追跡方法及び追跡プログラム
JP2012513631A (ja) * 2008-12-22 2012-06-14 ノーテル ネットワークス リミテッド ターゲット広告システムおよび方法
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2012009957A (ja) * 2010-06-22 2012-01-12 Sharp Corp 評価情報通知装置、コンテンツ提示装置、コンテンツ評価システム、評価情報通知装置の制御方法、評価情報通知装置の制御プログラムおよびコンピュータ読み取り可能な記録媒体
WO2015129587A1 (ja) * 2014-02-25 2015-09-03 株式会社Nttドコモ 表示装置及び表示方法
JP2016029540A (ja) * 2014-07-25 2016-03-03 ヤフー株式会社 情報処理装置、情報処理方法及びプログラム
JP2018097427A (ja) * 2016-12-08 2018-06-21 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7565077B2 (ja) 2020-12-11 2024-10-10 株式会社Weavlinx 情報処理装置、情報処理方法及び情報処理システム
WO2022230069A1 (ja) * 2021-04-27 2022-11-03 株式会社I’mbesideyou 動画像分析システム
WO2022230070A1 (ja) * 2021-04-27 2022-11-03 株式会社I’mbesideyou 動画像分析システム

Also Published As

Publication number Publication date
JP6724090B2 (ja) 2020-07-15

Similar Documents

Publication Publication Date Title
Meißner et al. The promise of eye-tracking methodology in organizational research: A taxonomy, review, and future avenues
US20190095775A1 (en) Artificial intelligence (ai) character system capable of natural verbal and visual interactions with a human
US11288748B2 (en) Systems and methods for providing customized financial advice
US20170115742A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US20180018825A1 (en) Augmented Reality Device and Operation Thereof
US20120164613A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090119154A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090132275A1 (en) Determining a demographic characteristic of a user based on computational user-health testing
US20090118593A1 (en) Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20130266925A1 (en) Embedded Conversational Agent-Based Kiosk for Automated Interviewing
WO2018127782A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
JP7263825B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6724090B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN107210830B (zh) 一种基于生物特征的对象呈现、推荐方法和装置
CN108846724A (zh) 数据分析方法和系统
US11819338B1 (en) Risk tolerance simulation and baseline
JP7259370B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR20120057668A (ko) 오프라인 쇼핑몰에서 고객들 간의 커뮤니케이션 지원시스템 및 방법
Park et al. Understanding switching intentions between traditional banks and Internet-only banks among Generation X and Generation Z
WO2019220751A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
Ebaietaka The use of artificial intelligence (AI) in enhancing customer experience
Payne et al. Defining biometrics with privacy and benefits: A research agenda
Payne Do your eyes give you away: Consumers reactance and privacy concerns to biometrically determining the price for goods and services
De Bruin Automated usability analysis and visualisation of eye tracking data
Drousiotou Investigating website usability and behavioural intention for online hotel reservations: a cognitive perspective

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180905

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190227

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190305

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190426

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20190514

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20191008

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200414

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200512

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20200616

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R150 Certificate of patent or registration of utility model

Ref document number: 6724090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250