JP6191248B2 - 情報処理装置及び情報処理プログラム - Google Patents

情報処理装置及び情報処理プログラム Download PDF

Info

Publication number
JP6191248B2
JP6191248B2 JP2013118337A JP2013118337A JP6191248B2 JP 6191248 B2 JP6191248 B2 JP 6191248B2 JP 2013118337 A JP2013118337 A JP 2013118337A JP 2013118337 A JP2013118337 A JP 2013118337A JP 6191248 B2 JP6191248 B2 JP 6191248B2
Authority
JP
Japan
Prior art keywords
user
time
state
positive
negative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013118337A
Other languages
English (en)
Other versions
JP2014236447A (ja
Inventor
尚子 林田
尚子 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013118337A priority Critical patent/JP6191248B2/ja
Priority to US14/288,873 priority patent/US9839355B2/en
Publication of JP2014236447A publication Critical patent/JP2014236447A/ja
Application granted granted Critical
Publication of JP6191248B2 publication Critical patent/JP6191248B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Description

本発明は、情報処理装置及び情報処理プログラムに関する。
従来、コンテンツに対するユーザの関心度合を、生体センサや撮像した画像を用いて判断する技術が提案されている(例えば、特許文献1,2参照)。生体センサを用いる場合、ユーザの皮膚導電、皮膚温度、脈拍に基づいてユーザの集中度を判断する方法が知られており、画像を用いる場合、ユーザ姿勢(前傾や後傾)により、ユーザの熱中度の算定を行う方法が知られている。
特開2003−111106号公報 特開2006−41887号公報
撮影画像を用いる場合、表示対象のコンテンツの特性として大きな盛り上がりが期待できるような場合には、興味・関心があれば前傾がちになり、興味・関心がなければ後傾がちになるというような単純なモデルで、ユーザの状態を判断できる。
しかしながら、視聴対象がe-learningや講演映像のような大きな盛り上がりが期待できないコンテンツである場合、ユーザが興味・関心を持っているかどうかを外見から判断することは難しい。このため、ユーザの様子を撮像した画像から明確に興味あり/興味なしの判定を行うことも難しい。
1つの側面では、本発明は、コンテンツを視聴するユーザの状態を精度よく推定することが可能な情報処理装置及び情報処理プログラムを提供することを目的とする。
一つの態様では、情報処理装置は、コンテンツを視聴する複数人のユーザのポジティブな状態とネガティブな状態の検出結果に基づいて、該検出結果の傾向が類似するユーザをグループ化するグループ化実行部と、特定のユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定する特定部と、特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間を判定し、判定された該時間を前記特定のユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する推定部と、を備える。
一つの態様では、情報処理装置は、コンテンツを視聴するユーザのポジティブな状態とネガティブな状態の検出結果において、該ユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定する特定部と、特定した前記時間範囲内において、特定した前記時間範囲内における前記ユーザのポジティブ又はネガティブな状態を示す指標値の推移傾向に反する時間を抽出する抽出部と、前記抽出部が抽出した時間を前記ユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する推定部と、を備える。
一つの態様では、情報処理プログラムは、コンテンツを視聴する複数人のユーザのポジティブな状態とネガティブな状態の検出結果に基づいて、該検出結果の傾向が類似するユーザをグループ化し、特定のユーザの状態がポジティブな状態ともネガティブな状態とも判断できないニュートラルな状態の時間範囲を特定し、特定された前記ニュートラルな状態の時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間を判定し、判定された該時間をユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する、処理をコンピュータが実行する情報処理プログラムである。
一つの態様では、情報処理プログラムは、コンテンツを視聴するユーザのポジティブな状態とネガティブな状態の検出結果において、該ユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定し、特定した前記時間範囲内において、特定した前記時間範囲内における前記ユーザのポジティブ又はネガティブな状態を示す指標値の推移傾向に反する時間を抽出し、抽出した時間を前記ユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する、処理をコンピュータが実行する情報処理プログラムである。
コンテンツを視聴するユーザの状態を精度よく推定することができる。
第1の実施形態に係る情報処理システムの構成を概略的に示す図である。 図2(a)は、サーバのハードウェア構成を示す図であり、図2(b)は、クライアントのハードウェア構成を示す図である。 情報処理システムの機能ブロック図である。 実視聴センシングデータDBのデータ構造の一例を示す図である。 コンテンツ表示履歴DBのデータ構造の一例を示す図である。 実視聴時ユーザ状況変数DBのデータ構造の一例を示す図である。 ユーザ状態判定結果DBのデータ構造の一例を示す図である。 PNN推移特異区間DBのデータ構造の一例を示す図である。 データ収集部により実行される実視聴センシングデータ収集・管理処理のフローチャートである。 データ収集部により実行される姿勢変化評価値算出処理のフローチャートである。 データ収集部により実行される視聴のべ面積算出処理のフローチャートである。 図12(a)〜図12(e)は、図11の処理を説明するための図である。 第1の実施形態におけるデータ処理部の処理を示すフローチャートである。 ユーザ状態がニュートラルと判定されたコンテンツ時間区間のPNN推移値を示すグラフである。 図15(a)、図15(b)は、第1の実施形態の効果を説明するための図である。 図16(a)〜図16(c)は、第2の実施形態におけるグルーピングの一例を説明するための図である。 第2の実施形態におけるデータ処理部の処理を示すフローチャートである。 コンテンツ時間区間tm1〜tm1+nで集計した、各グループのPNN推移特異区間判定結果を示す表である。 第3の実施形態におけるデータ処理部の処理を示すフローチャートである。 第4の実施形態におけるデータ処理部の処理を示すフローチャートである。 図20の処理で生成される表である。 第5の実施形態におけるPNN推移値の一例を示す図である。 第5の実施形態における、複数の時間区間長でのPNN推移値比較と、PNN推移特異区間の判定結果の一例を示す表である。
《第1の実施形態》
以下、情報処理システムの第1の実施形態について、図1〜図15に基づいて詳細に説明する。本第1の実施形態の情報処理システム100は、コンテンツを視聴したユーザが興味・関心を持った状態(ポジティブ)になった時間や、興味・関心を持っていない状態(ネガティブ)になった時間、あるいは、ユーザが興味・関心を持った可能性が高い状態になった時間などを推定して、当該推定結果を利用するシステムである。
図1には、情報処理システム100の概略構成が示されている。図1に示すように、情報処理システム100は、情報処理装置としてのサーバ10と、クライアント20と、情報収集装置30と、を備える。サーバ10、クライアント20及び情報収集装置30は、インターネットやLAN(Local Area Network)などのネットワーク80に接続されている。
サーバ10は、サーバソフトウェアが配置(インストール)された情報処理装置であり、ユーザの状態に関するデータを集約し、整理して保管・分別・各種演算を行う。また、サーバ10はユーザに配信するコンテンツの表示形態の制御を含め、コンテンツ配信を管理する。図2(a)には、サーバ10のハードウェア構成が示されている。図2(a)に示すように、サーバ10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、ディスプレイ93、入力部95、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これらサーバ10の構成各部は、バス98に接続されている。ディスプレイ93は、液晶ディスプレイ等を含み、入力部95は、キーボードやマウス、タッチパネル等を含む。サーバ10では、ROM92あるいはHDD96に格納されているプログラム(情報処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(情報処理プログラムを含む)をCPU90が実行することにより、図3に示す、コンテンツ管理部50、データ収集部52、データ処理部54としての機能が実現される。なお、図3には、サーバ10のHDD96等に格納されているコンテンツDB(database)40、実視聴センシングデータDB41、コンテンツ表示履歴DB42、実視聴時ユーザ状況変数DB43、ユーザ状態判定結果DB44、PNN推移特異区間DB45も図示されている。なお、各DB40〜45の具体的なデータ構造等については後述する。
コンテンツ管理部50は、クライアント20のユーザからの求めに応じて、コンテンツDB40に格納されているコンテンツ(例えば、講演映像)をクライアント20(表示処理部60)に提供する。コンテンツDB40には、各種コンテンツのデータが格納されている。
データ収集部52は、ユーザが視聴したコンテンツの情報をコンテンツ管理部50から収集したり、コンテンツを視聴している間のユーザの状態に関するデータを情報収集装置30から収集したりする。また、データ収集部52は、収集した情報やデータを実視聴センシングデータDB41、コンテンツ表示履歴DB42、実視聴時ユーザ状況変数DB43に格納する。なお、データ収集部52は、ユーザの状態に関するデータを、ユーザ記録画像系列、視線データ(実視点領域)系列、ユーザ−画面距離系列等の実視聴センシングデータという形で収集する。
データ処理部54は、コンテンツ表示履歴DB42に格納されているデータや実視聴時ユーザ状況変数DB43に格納されているデータに基づいて、コンテンツを視聴していたユーザがポジティブな状態にあった時間区間やネガティブな状態にあった時間区間を判定する。また、データ処理部54は、ユーザがポジティブな状態にあった可能性が高い時間区間(PNN推移特異区間)を推定する。データ処理部54は、判定結果及び推定結果をユーザ状態判定結果DB44やPNN推移特異区間DB45に格納する。
クライアント20は、クライアントソフトウェアが配置(インストール)された情報処理装置であり、ユーザ向けのコンテンツを表示、管理したり、視聴履歴を保管したりする端末である。クライアント20としては、PC(Personal Computer)のほか、携帯電話やスマートフォンなどの携帯型の端末などを採用することができる。図2(b)には、クライアント20のハードウェア構成が示されている。図2(b)に示すように、クライアント20は、CPU190、ROM192、RAM194、記憶部(HDD)196、ディスプレイ193、入力部195、ネットワークインタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。クライアント20の構成各部は、バス198に接続されている。クライアント20においては、CPU190が、ROM192あるいはHDD196に格納されているプログラム、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラムを実行することで、図3に示す表示処理部60及び入力処理部62としての機能が実現される。
情報収集装置30は、ユーザの状態に関するデータを収集する装置であり、例えば、Webカメラを含んでいる。情報収集装置30では、収集したユーザの状態に関するデータをネットワーク80を介してサーバ10に送信する。なお、情報収集装置30は、クライアント20の一部(例えばディスプレイ周辺)に組み込まれていてもよい。
なお、本実施形態では、クライアント20においては、ディスプレイ193上でユーザに応じた情報表示が行われる。また、クライアント20のユーザからの情報収集はユーザと紐づけて情報処理システム100上に保管される。つまり、クライアント20は、クライアントソフトウェアもしくは、サーバソフトウェアによって、アクセス制御されている。そのため、本実施形態では、クライアント20のユーザが例えば「ユーザA」であることが確認されていることを前提に情報収集や情報表示が行われる。また、クライアント20においては、ディスプレイ193に応じた情報表示が行われる。また、クライアント20からの情報収集はディスプレイ193と紐づけて情報処理システム100上に保管される。つまり、クライアント20は、クライアントソフトウェアもしくは、サーバソフトウェアによって認識されており、ディスプレイ193が所定のディスプレイ(例えばスクリーンB(scrB))であることが確認されていることを前提に情報収集や情報表示が行われる。
次に、サーバ10が有するDB41〜45のデータ構造について、図4〜図8に基づいて説明する。
図4には、実視聴センシングデータDB41のデータ構造の一例が示されている。実視聴センシングデータDB41には、情報収集装置30を介してデータ収集部52により収集された実視聴センシングデータが格納される。図4に示すように、実視聴センシングデータDB41には、一例として、「ユーザ記録画像系列」、「視線データ(実視聴領域)系列」、「ユーザ−画面距離系列」が格納されている。
ユーザ記録画像系列は、コンテンツ視聴中のユーザの様子を画像として記録したものである。具体的には、ユーザ記録画像系列は、「記録開始時刻」、「記録終了時刻」、「ユーザ」、「スクリーン」、「記録画像」の各フィールドを有しており、ディスプレイ(例えばスクリーンB)においてコンテンツを視聴するユーザ(A)の様子を動画形式で格納する。なお、ユーザ記録画像系列においては、複数枚の連続した画像を格納することとしてもよい。
視線データ(実視点領域)系列は、例えば、各時刻においてユーザの視線の観察をすることによって得られる「ユーザ実視点予測マップ」を格納する。なお、視線の観察は、特殊な眼球の動きを測定する機器を用いることで実現することもできるが、情報収集装置30に含まれるWebカメラ(クライアント20のディスプレイ(スクリーンB)の上部に設置されているものとする)を用いて簡易にユーザの視線方向を特定することもできる(例えば、Stylianos Asteriadis et al., “Estimation of behavioral user state based on eye gaze and head pose-application in an e-learning environment”, Multimed Tools Appl, 2009.参照)。これらの視線検出技術において、コンテンツに注がれた視点データは、視点が注がれた時間が、円の面積と重なりの強度で表現されるヒートマップと呼ばれるデータとして表現される(図12(d)参照)。本実施形態では、単位時間に視点が注がれた複数の位置の中心を円の中心として、視点が注がれた位置を覆う円を当該単位時間の視点情報として記録する。ここで、時刻t1に記録するユーザ実視点予測マップには、時刻t0以降に記録された円情報がファイル中に記録される。時刻t0から時刻t1の間に視点情報が5つ記録された場合、円情報は最大5個分記録される(図12(d)参照)。
ユーザ−画面距離系列は、例えば、コンテンツ視聴中のユーザ(A)と、コンテンツを表示している画面(スクリーンB)との距離測定結果を記録したものである。距離測定は、レーザ光や距離画像カメラのような専用の距離測定装置を用いて行うこととしてもよいが、情報収集装置30に含まれるWebカメラが撮像したユーザ記録画像系列を用いて計測することとしてもよい。Webカメラが撮像したユーザ記録画像系列を用いる場合、ユーザの顔を囲む矩形領域の大きさの変化に係数を積算したものを距離として用いることができる。
図5には、コンテンツ表示履歴DB42のデータ構造の一例が示されている。ユーザは、場合によっては、同時に複数のスクリーンを視聴している場合や、1つのスクリーンにおいて、複数のウィンドウを表示している場合もある。したがって、コンテンツ表示履歴DB42では、ウィンドウがどのような状態でスクリーン上に配置され、ウィンドウ中にどのコンテンツが表示されたのかを履歴として蓄積する。具体的には、図5に示すように、コンテンツ表示履歴DB42は、「ウィンドウ座標」と「コンテンツ表示履歴」と「コンテンツ」のテーブルを保持している。
「ウィンドウ座標」のテーブルには、スクリーン上に表示されたウィンドウの「ウィンドウID」、ウィンドウの表示位置やサイズを示す「左上のx座標」、「左上のy座標」、「width」、「height」のほか、ウィンドウの「重なり順」も記録される。なお、「重なり順」が記録されるのは、ウィンドウ中にコンテンツが表示されている場合であってもウィンドウが他のウィンドウの下に隠れ、実際にはユーザが視認していないウィンドウがスクリーン上に存在する場合もあるからである。
「コンテンツ表示履歴」のテーブルには、スクリーン上に表示されているウィンドウの「ウィンドウID」や、ウィンドウ上で表示されているコンテンツの「コンテンツID」、「コンテンツ時間区間」が記録される。「コンテンツ時間区間」には、コンテンツのどの箇所(時間区間)が表示されているかが記録される。なお、「コンテンツID」としては、図5の「コンテンツ」テーブルにおいて定義されているコンテンツIDが格納される。
図6には、実視聴時ユーザ状況変数DB43のデータ構造の一例が示されている。ユーザ状況変数は、ユーザ状況変数の変数として用いる。図6では、一例として、実視聴時ユーザ状況変数DB43は、「顔パーツの動き」、「視線」、「姿勢変化」のテーブルを有している。
「顔パーツの動き」のテーブルは、「時刻(start)」、「時刻(end)」、「ユーザ」、「スクリーン」、「まばたき」、「眉」、…などのフィールドを有する。この「顔パーツの動き」のテーブルには、「時刻(start)」から「時刻(end)」における、まばたきや眉の動きが激しかったか、普通だったかなどの情報が格納される。
「視線」のテーブルは、「時刻(start)」、「時刻(end)」、「ユーザ」、「スクリーン」、「ウィンドウID」、「停留時間(msec)」、「コンテンツの視聴のべ面積」のフィールドを有する。ここで、「停留時間(msec)」は、視線が動かない状態が継続した時間を意味する。また、「コンテンツの視聴のべ面積」は、各コンテンツがどのくらいの量、ユーザに視聴されたかを表す数値を意味するが、その詳細については後述する。
「姿勢変化」のテーブルは、「時刻(start)」、「時刻(end)」、「ユーザ」、「スクリーン」、「ウィンドウID」、「ユーザ画面距離」、「姿勢変化フラグ」、「姿勢変化時間」のフィールドを有する。「ユーザ画面距離」、「姿勢変化フラグ」、「姿勢変化時間」それぞれの詳細については、後述する。
図7には、ユーザ状態判定結果DB44のデータ構造の一例が示されている。ユーザ状態判定結果DB44においては、コンテンツ時間区間ごとに、ユーザ状態がどのような状態であったかが記録される。ユーザ状態としては、ポジティブな状態の場合には「P」が記録され、ネガティブな状態の場合には「N」が記録され、ポジティブともネガティブともいえない状態(ニュートラルの状態)の場合には「−」が記録される。
図8には、PNN推移特異区間DB45のデータ構造の一例が示されている。このPNN推移特異区間DB45には、ユーザ状態判定結果DB44においては、ポジティブともネガティブともいえない状態(ニュートラルの状態)であるものの、ポジティブであった可能性が高いと推定できる時間区間(PNN推移特異区間)が記録される。PNN推移特異区間DB45の具体的内容については、後述する。
次に、サーバ10において実行される処理について説明する。
(実視聴センシングデータ収集・管理処理)
まず、図9のフローチャートに沿って、データ収集部52により実行される実視聴センシングデータ収集・管理処理について説明する。
図9の処理においては、まず、ステップS10において、データ収集部52が、実視聴センシングデータを情報収集装置30から取得する。次いで、ステップS12では、データ収集部52が、取得した実視聴センシングデータを種類ごと(ユーザ記録画像系列、視線データ(実視聴領域)系列、ユーザ−画面距離系列ごと)に実視聴センシングデータDB41に格納する。
次いで、ステップS14では、データ収集部52が、試聴コンテンツの時間区分に合わせて、視聴時のユーザ状況変数を算出し、実視聴時ユーザ状況変数DB43に格納する。
ここで、ステップS14としては収集したデータの種別に応じて種々の処理が想定されるが、本実施形態では、図6の「姿勢変化」テーブルの姿勢変化フラグや姿勢変化時間を算出する処理(姿勢変化評価値算出処理)と、図6の「視線」テーブルのコンテンツの視聴のべ面積を算出する処理(視聴のべ面積算出処理)について説明する。
(姿勢変化評価値算出処理)
図10のフローチャートに沿って、データ収集部52により実行される姿勢変化評価値算出処理について説明する。
図10の処理では、まず、ステップS30において、データ収集部52は、コンテンツ時間区間iを取得する。なお、コンテンツ時間区間iの区間長はTiであるとする。
次いで、ステップS32では、データ収集部52は、コンテンツ表示履歴DB42、実視聴センシングデータDB41のユーザ−画面距離系列から、コンテンツ時間区間と、実視聴センシングデータとを紐付け、ユーザ状況変数として、姿勢変化テーブルを作成する。この場合、図6の姿勢変化テーブルの「時刻(start)」、「時刻(end)」、「ユーザ」、「スクリーン」、「ウィンドウID」、「ユーザ画面距離」の各フィールドにデータが入力される。なお、「ユーザ画面距離」のフィールドには、基準位置(ユーザが通常位置している位置)からの変化量のデータが入力される。
次いで、ステップS34では、データ収集部52は、ユーザ画面距離|d|が閾値よりも大きいか否かを判断する。ここで、閾値は、例えば、基準位置×(1/3)=50mmなどを採用することができる。
ステップS34の判断が肯定された場合、すなわち、ユーザ画面距離が閾値よりも大きい場合には、ステップS36に移行し、データ収集部52は、姿勢変化テーブルにおいて、姿勢変化フラグを「true」とする。また、データ収集部52は、コンテンツ時間区間iの姿勢変化時間Ttrans_[i]を、Ttrans_[i]=Ttrans_[i-1]+Tiとする。なお、図6の姿勢変化テーブルにおいては、上から2データ目と3データ目が姿勢変化フラグ「true」となり、当該区間2012/7/12 11:00:01.69〜2012/7/12 11:00:02.29の600(msec)が姿勢変化時間として記録されることになる。
一方、ステップS34の判断が否定された場合、すなわち、ユーザ画面距離が閾値以下の場合には、ステップS38に移行し、データ収集部52は、姿勢変化テーブルにおいて、姿勢変化フラグを「false」とする。また、データ収集部52は、姿勢変化時間Ttrans_[i]を、Ttrans_[i]=0とする(例えば、図6の姿勢変化テーブルの上から4データ目参照)。
次いで、ステップS40では、データ収集部52は、姿勢変化評価値を算出すべきコンテンツ時間区間が残っているか否かを判断する。ここでの判断が肯定された場合には、ステップS30に戻り、上記処理を繰り返すが、ステップS40の判断が否定された場合には、図10の全処理を終了する。
(視聴のべ面積算出処理)
次に、データ収集部52により実行される、図6の視線テーブルの「コンテンツの視聴のべ面積」を算出する処理(視聴のべ面積算出処理)について、図11のフローチャートに沿って説明する。ここでは、時刻t1におけるスクリーンX(=scrB)に関し、ウィンドウID=Y(=1)のウィンドウで表示しているコンテンツID=Z(=1)のコンテンツの視聴のべ面積を算出する場合について説明する。
なお、時刻t0のスクリーンB上には、図12(a)に示すように、ウィンドウが2つ存在し、時刻t1のスクリーンB上には、図12(b)に示すように、ウィンドウが1つ存在するものとする。ここで、時刻t0からt1のどのタイミングでウィンドウID:2のウィンドウが消失したのかについては記録されていない。したがって、ウィンドウID:1とウィンドウID:2のウィンドウで表示されたコンテンツID=1とコンテンツID=2のコンテンツがそれぞれ、どのくらいの分量で視聴されたかは正確に算出することはできない。このため、本実施形態では、時刻t0からt1の間が微小であるという想定の下に、時刻t1の時点の視聴のべ面積は、時刻t1において存在するウィンドウに表示されているコンテンツについてのみ算出することとする。
図11の処理では、まず、ステップS50において、データ収集部52が、ウィンドウ領域t0-t1の面積SDWを算出する。ここで、「ウィンドウ領域t0-t1」とは、時刻t0から時刻t1の間に、スクリーンBにおいて表示された全ウィンドウの最端を囲んだ領域を意味する。具体的には、時刻t0におけるスクリーンBの状態が図12(a)に示すような状態であり、時刻t1におけるスクリーンBの状態が図12(b)に示すような状態であったとする。この場合、ウィンドウ領域t0-t1は、ウィンドウID:1の表示された最端を結んだ矩形とウィンドウID:2の表示された矩形とを囲んだ領域であり、図12(c)で太線にて示す領域を意味する。
次いで、ステップS52では、データ収集部52は、時刻t1におけるウィンドウID:1のウィンドウの面積S1Wを算出する。ここでは、図12(b)に示すウィンドウID:1のウィンドウ面積を算出する。
次いで、ステップS54では、データ収集部52は、ウィンドウ領域t0-t1に含まれる実視点予測ヒートマップの延べ面積(重なった部分の面積も加算)SESを算出する。ここで、時刻t1における実視点予測ヒートマップに図12(d)のように5つの円が記録されているものとすると、面積SESとしては、図12(e)に示すように、5つの円のうち、ウィンドウ領域t0-t1と重複している部分の面積が算出される。
次いで、ステップS56では、データ収集部52は、現在時刻t1のスクリーンBについて、ウィンドウID:1のウィンドウに表示しているコンテンツID=1のコンテンツの視聴のべ面積Sを算出する。この場合、ウィンドウID:1のウィンドウに表示されたコンテンツID=1のコンテンツに割り当てられる視聴のべ面積Sは、面積SESに、時刻t0から時刻t1の間において表示された全ウィンドウの最端で囲んだ領域に対する、時刻t1におけるウィンドウの面積の比率S1W/SDW(配分比率)を掛け合わせたものとして算出できる。すなわち、データ収集部52は、面積Sを次式(1)より算出することができる。
S=SES×S1W/SDW …(1)
なお、図6では、コンテンツの視聴のべ面積として「8000」が算出された例が示されている。
(データ処理部54の処理)
次に、データ処理部54の処理について、図13のフローチャートに沿って説明する。なお、データ処理部54は、図13の処理を、実視聴時ユーザ状況変数の算出(図9)と同期して行ってもよいし、コンテンツ視聴終了と同期して開始してもよい。あるいは、データ処理部54は、図13の処理を定時バッチ処理にて行うこととしてもよい。
図13の処理では、まず、ステップS70において、データ処理部54が、ポジティブ(P)、ニュートラル(−)、ネガティブ(N)なコンテンツ時間区間を特定し、ユーザ状態判定結果DB44に格納する。例えば、コンテンツ視聴時に、ユーザ状態がポジティブである場合には姿勢の変化時間が早く、ユーザ状態がネガティブである場合には姿勢の変化時間が遅くなることが想定される。この場合、姿勢変化時間をユーザ状況変数値として用いることができ、ユーザ状況変数値S=姿勢変化時間Ttransとすると、ユーザ状態Uは、U={Positive(S<2000),Negative(S>4000)}という形で表すことができる。あるいは、コンテンツ視聴時に、ユーザ状態がポジティブである場合には視線の停留時間が長く、ユーザ状態がネガティブである場合には視線の停留時間が短いことが想定できるとする。この場合、視線の停留時間をユーザ状況変数値として用いることができ、ユーザ状況変数値S=視線停留時間Tsとすると、ユーザ状態U={Positive(S>4000),Negative(S<1000)}のような形で表すことができる。なお、本第1の実施形態では、姿勢変化時間をユーザ状況変数値として用いる場合について説明する。
次いで、ステップS72では、データ処理部54が、ポジティブ→ネガティブな時間区間(PNN区間と呼ぶ)を抽出する。ここで、PNN区間(図7のコンテンツ時間区間5〜mの間)においては、ユーザ状態がポジティブともネガティブとも判定できないものの、時間経過とともにユーザ状況変数値Sの値が単調増加すると予測される。
次いで、ステップS74では、データ処理部54が、PNN推移特異区間を特定し、PNN推移特異区間DB45に記録する。なお、PNN推移特異区間とは、この場合、単調増加が予測される区間内であるにも関わらず、異なる推移を示した区間を意味する。また、この区間では、通常のポジティブからネガティブへの遷移に逆らった特異なユーザ状態が生じていた可能性がある。したがって、本実施形態ではこのPNN推移特異区間を、近傍区間と比較してユーザがポジティブな状態になった時間区間(ニュートラルプラス区間)である可能性が高い区間とみなす。
具体的には、ステップS74では、データ処理部54は、通常、PNN区間においてSi>Si-1(Si:コンテンツ時間区間iのPNN推移値)が成立するべきところ、Si<Si-1となるコンテンツ時間区間iをPNN推移特異区間として記録する。なお、PNN推移値は、ユーザのポジティブな状態又はネガティブな状態を示す指標値を意味する。図14には、図8に示すユーザ状態がニュートラルと判定されたコンテンツ時間区間(PNN区間)6〜(m−1)の間のPNN推移値S6〜Sm-1を折れ線(実線)で示している。また、図14では、当該PNN区間の単調増加変化を線形近似した直線を一点鎖線にて示している。
ここで、ステップS74では、ある時間区間における特異性を数値にて表すこととする。この場合の数値としては、線形近似値と算出値の差分で表される区間特異性値を採用することができる。この場合、コンテンツ時間区間i−1,i,i+1の隣接区間において、各PNN推移値と線形近似値との絶対値差がei-1,ei,ei+1であったとすると、コンテンツ時間区間iにおける特異性は、通常想定される絶対値差との差分で表現することができる。ここで、想定される絶対値差が(ei-1+ei+1)/2であるとすると、コンテンツ時間区間iの区間特異性値qiは、ei−((ei-1+ei+1)/2)で表される。したがって、データ処理部54は、各ニュートラルプラス区間候補(PNN区間内の各時間区間)において、区間特異性値qiをニュートラルプラス推定値viとして求め、値viが一定以上であれば、ニュートラルプラス区間と判定するようにすることができる。なお、本実施形態では、図14において矢印で示す区間(図8のコンテンツ時間区間=9)がPNN推移特異区間(ニュートラルプラス区間)として記録される。
このように、本実施形態では、図15(a)に示すように、ポジティブとネガティブの間の区間α(ポジティブともネガティブともいえない区間)がある場合であっても、図15(b)に示すように、ユーザがポジティブな状態になった可能性が高い区間をニュートラルプラス推定値viにて表すことができる。また、本実施形態では、ニュートラルプラス推定値viに基づいて、ニュートラルプラス区間(PNN推移特異区間)を推定することができるので、ユーザの状態をより高精度に推定することができる。
なお、サーバ10では、上記のようにしてユーザ状態判定結果DB44やPNN推移特異区間DB45に格納・記録されたデータを用いることとしている。このため、例えば、ポジティブ区間と、ニュートラルプラス区間のコンテンツ映像を用いて、コンテンツのダイジェスト映像を作成するなどすることができる。また、ユーザが興味・関心を持った時間区間や興味・関心を持たなかった時間区間の情報をコンテンツ作成者(講演者など)に提供する(フィードバックする)などすることもできる。このように、本実施形態では、コンテンツの評価や再構成、コンテンツに関する統計処理等を行うことができる。
なお、本実施形態では、データ処理部54により、コンテンツを視聴するユーザのポジティブな状態とネガティブな状態の検出結果からPNN区間を特定する特定部、特定したPNN区間内において、ユーザのポジティブ又はネガティブな状態を示す指標値(PNN推移値)が特異な値を示す時間区間を抽出する抽出部、及び、抽出した時間区間をニュートラルプラス区間として推定する推定部、としての機能が実現されている。
以上詳細に説明したように、本第1の実施形態によると、データ処理部54は、コンテンツを視聴するユーザの状態の検出結果において、ユーザの状態がポジティブ(P)ともネガティブ(N)とも判断できない時間範囲(PNN区間)を特定し、特定したPNN区間内において、ユーザのPNN推移値が特異な値を示す時間(単調増加や単調減少と異なる傾向を示す時間)を抽出し、抽出した時間をユーザがポジティブ又はネガティブな状態にあった可能性が高い時間(ニュートラルプラス区間)と推定する。これにより、ユーザの興味・関心の有無が表出されにくいケース(e-learningや講演の動画などを視聴している場合等)であっても、ユーザの興味・関心のあった可能性の高い区間を推定することができる。
また、本実施形態では、Webカメラなどの簡易な装置を用いて、ユーザの興味・関心のあった可能性の高い区間を推定することができるので、特別なセンシング機器を導入する必要がなく、低コスト化を図ることができる。
なお、上記実施形態では、図13のステップS70において、ポジティブやネガティブの時間区間を実視聴センシングデータを用いて特定する場合について説明した。しかしながら、これに限られるものではなく、データ処理部54は、ユーザから直接聞き取ったデータを用いて、ポジティブやネガティブの時間区間を特定することとしてもよい。
また、上記実施形態では、ユーザ状況変数として、1種類のデータを用いる場合について説明したが、これに限らず、複数人のユーザ状況変数を組み合わせて(例えば多項式で表すなどして)用いてもよい。
なお、上記実施形態では、ポジティブからネガティブに変化する区間(PNN区間)において特異区間を推定する場合について説明した。しかしながら、これに限られるものではなく、ネガティブからポジティブに変化する区間において特異区間を推定することとしてもよい。
《第2の実施形態》
以下、第2の実施形態について、図16、図17に基づいて説明する。本第2の実施形態では、図3のデータ処理部54が、多数のユーザを複数のグループに分け、当該グループに属するユーザの状態(ポジティブな状態、ネガティブな状態)に基づいて、コンテンツのPNN推移特異区間の判定処理を行う。
データ収集部52は、多数のユーザがコンテンツ(例えばe-learningや、講演映像)を視聴する場合、コンテンツ視聴時のユーザ状態のデータを大量に収集することができる。このため、データ処理部54は、大量に収集されたユーザ状況変数を用いて、視聴済のユーザをいくつかのグループに分類することができる。図16(a)〜図16(c)には、ユーザ状況変数として、姿勢変化を用いた場合のユーザグループ分類の例を示している。図16中の1本の縦棒は、ある時間区間における姿勢変化時間を示す。この分類の例では、姿勢変化時間が短い時間区間(ポジティブ)から長い時間区間(ネガティブ)の、ポジティブ→ニュートラル→ネガティブの遷移傾向に着目している。図16(a)は、ニュートラルの時間が長いグループの例を示し、図16(b)は、ネガティブの時間が長いグループの例を示し、図16(c)は、ポジティブの時間が長いグループの例を示している。
なお、データ処理部54は、グルーピングに際し、1つのコンテンツ視聴中の全ての時間区間のデータを使用してグルーピングしてもよいし、特定のコンテンツの特定の時間区間に着目して、ユーザ状態が同様に遷移したユーザをグルーピングしてもよい。あるいは、データ処理部54は、コンテンツを特定せずに、共通する姿勢変化のパターン(コンテンツ後半では、姿勢変化回数が極端に減る等)でグルーピングしてもよい。いずれの場合も、ユーザ状況変数の遷移が類似する傾向にあるユーザがグルーピングされることになる。
以下、本第2の実施形態におけるデータ処理部54の処理について、図17のフローチャートに沿って説明する。
なお、本第2の実施形態では、ユーザA、PNN区間k(コンテンツID=1,コンテンツ時間区間tm1〜tm1+n)のn個のニュートラルプラス推定値を算出することとする。また、ユーザAはユーザグループ1(ニュートラル時間が長い)に分類されているものとする。
まず、ステップS100では、データ処理部54は、ユーザAの属するグループのユーザ数Cmaxを取得する。
次いで、ステップS102では、データ処理部54は、コンテンツ時間区間tm1〜tm1+nのうちの未取得のコンテンツ時間区間iを取得する。次いで、ステップS104では、データ処理部54は、コンテンツ時間区間iがPNN推移特異区間であると判定したユーザの数Ciを取得する。
次いで、ステップS106では、データ処理部54は、ニュートラルプラス推定値viを次式(2)より算出する。なお、qiは、ユーザAのコンテンツ時間区間iにおける区間特異性値を意味する。
i=qi×(Ci+1)/Cmax …(2)
上式(2)のように、本実施形態では、ニュートラルプラス推定値の算出において、各コンテンツ時間区間でPNN推移特異区間と判定されたユーザ数のグループ内における割合を重みとして用いることとしている。これにより、同じグループのユーザに共通してPNN推移が特異であると判定された区間ほど、ニュートラルプラス推定値として高い値が算出されることになる。このように、本実施形態では、PNN区間全体において、ユーザA及びユーザAの属するグループ内のユーザに共通してポジティブ傾向にあると判断できる動きがあった時間をニュートラルプラス区間と推定することで、グループの傾向を考慮したユーザ状態の推定が可能となる。
その後は、ステップS108において、全てのコンテンツ区間を取得したか否かを判断し、ここでの判断が否定された場合には、ステップS102に戻る。そして、ステップS102以降の処理、判断を繰り返し、ステップS108の判断が肯定された段階で、図17の全処理を終了する。
なお、本第2の実施形態では、データ処理部54により、コンテンツを視聴する複数人のユーザをグループ化するグループ化実行部、特定のユーザ(ユーザA)の状態がポジティブともネガティブとも判断できないPNN区間を特定する特定部、PNN区間全体において、特定のユーザ及び特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間を判定し、該時間をニュートラルプラス区間と推定する推定部、としての機能が実現されている。
以上、説明したように、本第2の実施形態によると、データ処理部54は、ユーザAのPNN区間を特定し、PNN区間全体において、ユーザA及びユーザAの属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間(ニュートラルプラス推定値viの値が大きい時間)をニュートラルプラス区間と推定する。これにより、同じようにユーザ状態が遷移するグループの傾向を考慮して、ユーザ状態を推定することができるので、微細なユーザ状態の変化を精度良く推定することができる。
《第3の実施形態》
次に、第3の実施形態について図18、図19に基づいて説明する。本第3の実施形態では、データ処理部54は、ユーザが属するグループの情報のみならず、他のグループの情報も用いて、ニュートラルプラス推定値の補正を行う。なお、本実施形態では、第2の実施形態と同様、クライアント20のユーザAが、スクリーンB上で、コンテンツID=1を表示しているものとする。また、本実施形態では、PNN区間k(コンテンツ時間区間tm1〜tm1+n)のn個のニュートラルプラス推定値を算出する場合について説明する。
本実施形態では、ユーザAの分類されたグループ1だけではなく、コンテンツ時間区間tm1〜tm1+nのデータを用いて、他のグループ2,3のPNN推移値も参照する。ここで、図18には、コンテンツ時間区間tm1〜tm1+nで集計した、各グループのPNN推移特異区間判定結果を示している。図18では、各グループのコンテンツ時間区間iの特異性を、各グループに属するユーザのデータの平均値を用いて判定したものとする。なお、コンテンツ時間区間iにおける特異性を求める方法としては、各グループに属するユーザのデータの極大値や中央値等を用いる方法を採用してもよい。また、図18において示す[0.1]などの数値は、各グループ内の各ユーザ単体のデータを用いてPNN推移特異区間判定を行った場合に、特異区間と判定されたユーザの割合を示している。これら特異区間の判定は、ユーザ状況変数を用いた判定を行うため、グループによっては、特異区間と判定されにくい場合が想定される。例えば、姿勢変化の例でいうと、PNN区間でほぼ姿勢変化のないグループの場合などである。
本第3の実施形態では、データ処理部54は、これらのグループ間での偏った判定を補正する処理を実行する。
図19は、第3の実施形態のデータ処理部54の処理を示すフローチャートである。以下、図19に沿って、データ処理部54の処理について説明する。
図19の処理では、まず、ステップS130において、データ処理部54は、あるユーザAの属するグループXのユーザ数(Cmax)を取得する。次いで、ステップS132では、データ処理部54は、コンテンツ時間区間tm1〜tm1+nの間における未取得のコンテンツ時間区間iを取得する。
次いで、ステップS134では、データ処理部54は、コンテンツ時間区間iにおいて、グループXに属するユーザのPNN推移値の平均値を用いて計算した特異性値(qi)を算出する。なお、特異性値(qi)により、コンテンツ時間区間iがPNN推移特異区間であるか否かを判定することができる。
次いで、ステップS136では、データ処理部54は、コンテンツ時間区間iがPNN推移特異区間であると判定したグループX内のユーザの数(Ci)を算出する。
次いで、ステップS138では、データ処理部54は、コンテンツ時間区間iがPNN推移特異区間であると判定した他のグループの割合(gi)を算出する。この場合、例えば、他の全てのグループにおいてコンテンツ時間区間iがPNN推移特異区間であると判定されている場合には、giは1となる。
次いで、ステップS140では、データ処理部54は、ニュートラルプラス推定値viを次式(3)により算出する。
i=qi×((Ci/Cmax+gi)/2) …(3)
この場合、値viが一定以上であれば、ニュートラルプラス区間と判定するようにすることができる。
このように、本実施形態では、判定を行うユーザが属するグループ内においてPNN推移特異区間と判定したユーザの割合(Ci/Cmax)と、他のグループのうちPNN推移特異区間と判定したグループの割合(gi)とを重みとして、ニュートラルプラス推定値viの算出を行う。これにより同じグループのユーザに共通してPNN推移が特異であると判定された区間、及び他のグループにおいても共通してPNN推移が特異であると判定された区間ほど、ニュートラルプラス推定値として高い値が算出されることになる。
次いで、ステップS142では、データ処理部54は、全てのコンテンツ時間区間を取得したか否かを判断する。ここでの判断が否定された場合には、ステップS132に移行し、まだ取得していないコンテンツ時間区間iを取得して、以降の処理を繰り返す。一方、ステップS142の判断が肯定された場合には、図19の全処理を終了する。
以上、説明したように、本第3の実施形態によると、ユーザが属するグループのみならず、他のグループも考慮して、ニュートラルプラス推定値viを算出することで、より精度よくニュートラルプラス区間を推定することができる。
《第4の実施形態》
次に、第4の実施形態について、図20、図21に基づいて説明する。本第4の実施形態では、データ処理部54は、選別データ(ある属性(例えば汐留勤務の50代など)を有するユーザのデータ)を用いたPNN推移値を用いて、PNN推移特異区間の判定を行うことで、選別データ特有の高ニュートラルプラス推定値区間を特定する。
サーバ10では、複数人のユーザのデータを収集し、コンテンツ時間区間tm1〜tm1+nの時間内で、ユーザ属性(例えば属性C)のユーザにとって、ポジティブにとらえられた可能性の高い(高ニュートラルプラス推定値となった)時間区間を特定するために、ユーザ属性Cのユーザのデータだけを選別して処理するものとする。
図20には、第4の実施形態にかかるデータ処理部54の処理がフローチャートにて示されている。以下、図20に沿って、データ処理部54の処理について説明する。なお、図20の処理が開始される段階では、データ処理部54は、第1の実施形態等と同様に、多数のユーザのデータを用いて、高ニュートラルプラス推定値を示した時間区間(th1〜th1+j)を特定しているものとする。なお、i番目と(i+1)番目の時間区間(tiとti+1)は、実時間の経過順ではあるが、ti+1はtiの直後でなくてもよい。また、tiとti+1とで、別々のコンテンツ視聴をした場合のデータであってもよい。
図20の処理では、まず、ステップS150において、データ処理部54は、コンテンツ時間区間tm1〜tm1+nの間で、高ニュートラルプラス推定値を示した区間(th1〜th1+j)を取得する。
次いで、ステップS152では、データ処理部54が、th1〜th1+jの間のコンテンツ時間区間iを取得する。次いで、ステップS154では、データ処理部54は、コンテンツ時間区間iにおいて、全ユーザのPNN推移値の平均値(Si)を算出する。図21においては、本ステップS152で算出されたSiが「通常データ」の欄に格納される。
次いで、ステップS156では、データ処理部54が、選別したデータ(データXとする)に属する全ユーザ(属性Cの全ユーザ)の、コンテンツ時間区間iにおけるPNN推移値(pi)を算出する。
次いで、ステップS158では、データ処理部54は、コンテンツ時間区間iにおいて、選別データXに属する全ユーザのPNN推移値の平均値(Pi)を算出する。図21においては、本ステップS158で算出されたPiが「選別データ」の欄に格納される。
次いで、ステップS160では、データ処理部54は、|Si−Pi|>Si×10%であるか否かを判断する。なお、このステップS160では、通常データと選別データとの間に十分な差があるか否かを判断しているといえる。ここでの判断が否定された場合には、ステップS170に移行するが、肯定された場合(十分な差があった場合)には、ステップS162に移行する。なお、図21では、時間区間th1+1において、十分な差があったと判断されるものとする。
ステップS162に移行すると、データ処理部54は、時間区間iのユーザ状況変数の関数は単調減少関数か否かを判断する。ここでの判断が肯定された場合には、ステップS164に移行し、データ処理部54は、Si<Piであるか否かを判断する。例えば、図21の時間区間th1+1において単調減少であった場合には、ここでの判断が肯定されるので、ステップS168に移行する。ステップS168に移行すると、データ処理部54は、時間区間iを選別データで顕著な高ニュートラルプラス推定値時間区間とする(図21の時間区間th1+1における「通常より顕著にポジティブ側であった属性」の欄参照)。その後は、ステップS170に移行する。一方、ステップS164の判断が否定された場合には、ステップS168を経ずに、ステップS170に移行する。
これに対し、ステップS162の判断が否定された場合、すなわち、時間区間iのユーザ状況変数が単調減少関数でなかった場合には、データ処理部54は、ステップS166に移行する。ステップS166では、データ処理部54は、Si>Piであるか否かを判断する。ここでの判断が肯定された場合には、ステップS168に移行し、上記と同様、データ処理部54は、時間区間iを選別データで顕著な高ニュートラルプラス推定値時間区間とし、ステップS170に移行する。一方、ステップS166の判断が否定された場合には、ステップS168を経ずにステップS170に移行する。
ステップS170に移行すると、データ処理部54は、全てのコンテンツ時間区間を取得したか否かを判断する。ここでの判断が否定された場合には、ステップS152に移行し、まだ取得していないコンテンツ時間区間iを取得して、以降の処理を繰り返す。一方、ステップS170の判断が肯定された場合には、図20の全処理を終了する。
なお、本第4の実施形態では、高ニュートラルプラス推定値時間区間th1〜th1+jに限定して、PNN推移値の有意差を選別データと通常データとで比較したが、全てのPNN区間中の時間区間について有意差の比較を行ってもよい。
なお、本第4の実施形態では、データ処理部54により、複数人のユーザの一部を選別する選別部、選別されたユーザの状態の検出結果を用いて、選別されたユーザがポジティブ又はネガティブな状態にあった可能性が高い時間を推定し、前記推定部の推定結果と比較する比較部、としての機能が実現されている。
以上、説明したように、本第4の実施形態によると、ある属性では顕著に、ポジティブにとらえられた可能性のある時間区間を特定することができる。これにより、ある属性のユーザが特に興味・関心を持っているコンテンツの一部を精度よく特定することができる。
《第5の実施形態》
以下、第5の実施形態について、図22、図23に基づいて説明する。本第5の実施形態では、データ処理部54が、PNN推移特異区間を判定する際に、複数の長さの時間区間毎に、PNN推移特異区間の判定を行うものとする。
本第5の実施形態では、第2の実施形態等と同様、クライアント20のユーザAは、スクリーンB上で、コンテンツID=1のコンテンツを表示しているものとする。また、本第5の実施形態では、データ処理部54は、ユーザA、PNN区間k(コンテンツID=1、コンテンツ時間区間tm1〜tm1+n)のニュートラルプラス推定値を算出するものとする。また、PNN推定値算出においては、ユーザ状況変数として姿勢変化を用いるものとする。
ここで、姿勢変化(姿勢の移り変わり)そのものは、PNN区間で、シンプルに画面に近い状態から遠い状態に遷移するものではなく、特にコンテンツに興味を失ってくると、ユーザは落ち着きなく小さな動きを示すことが多いと考えられる。つまり、PNN区間では、画面から近い状態から遠い状態への姿勢の移行のほかに、小刻みな姿勢の変動が同時に観察されることがある。
このため、PNN推移値を算出した後、PNN推移特異区間の判定を行うとすると、どの時間長で比較するかによって、判定結果が異なる場合がある。したがって、本第5の実施形態では、PNN推移特異区間の判定において、複数の時間区間長を観察区間長としてPNN推移値を比較し、PNN推移特異区間の判定を行うこととする。
図22には、本第5の実施形態で用いるPNN推移値の一例が示されている。また、図23には、複数の時間区間長でのPNN推移値比較と、PNN推移特異区間の判定結果の一例が示されている。なお、図23では、PNN推移特異区間と判定した根拠となる時間区間長を併記するものとしている。
これらの図においては、時間区間tm1+kに着目して、1倍区間長と4倍区間長で、どのように区間特異性値が異なるかを比較している。ここで、ニュートラルプラス推定値の算出には、第1の実施形態と同様、区間特異性値を重みなしでそのまま使用することとしている。
1倍区間長では、近似関数値との差分が近傍区間のケースとそれ程差がないので、図22に示したようなPNN推移値の変化では、この区間で変化が起きていることが分かりにくい。これに対し、4倍区間長では、PNN推移値がtm1のときの値と同程度まで下がっているため、比較的大きな特異性を持つ区間であることがわかる。
このように、本第5の実施形態では、検出すべき変化が連続して起こる区間長によって、特異性の検討をすることで、必要な特異性を検出することが可能となる。なお、検出すべき変化の時間区間の長さは様々であるため、複数の区間長において特異性を判断してもよいし、全ての整数倍区間長で特異性を比較するといった網羅的な方法を採用してもよい。
また、本第5の実施形態では、m倍区間長のPNN推移値を平均値で代表させたが、極大値や極小値を当該区間の代表値として用いても良い。また、ここで求めた複数の1倍、2倍、…m倍区間長毎の区間特異性値は、基準となる1倍時間区間の特異性を判定するために算出した値である。当該時間区間の特異性の判定のために、他の時間区間のデータとの平均値や他の時間区間の極値を使用することが好ましくない場合には、PNN推移値ではなく、m倍区間長での隣接時間区間のPNN推移値の変化グラフを線形近似した傾き係数等を用いて、m倍区間長での区間特異性値としてもよい。
以上、説明したように、本第5の実施形態によると、複数の区間長で特異性を検出するので、姿勢変化のように大きな動きと小さな動きとが同時に観察されるような場合でも、精度よくPNN推移特異区間の判定を行うことが可能である。また、本第5の実施形態では、特異区間判定結果として、根拠となる時間区間長も記録されるので(図23)、PNN推移特異区間と判定された根拠(どのような姿勢変化があったためPNN推移特異区間と判定されたか)が明確となっている。これにより、PNN推移特異区間の判定結果を利用する場合に、当該根拠に基づいた利用が可能となる。
なお、上記各実施形態では、サーバ10とクライアント20が別装置である場合について説明した。しかしながら、これに限られるものではなく、サーバソフトウェアとクライアントソフトウェアが1台の装置上に実装され、1台の装置でサーバ10とクライアント20の機能を実現してもよい。
また、例えば、サーバ10やクライアント20の一部機能や、一部データを他の装置上に切り離して保持するなど、1つのソフトウェアシステムの機能が複数の装置に分散されていてもよい。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
なお、以上の第1〜第5の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) コンテンツを視聴する複数人のユーザのポジティブな状態とネガティブな状態の検出結果に基づいて、該検出結果の傾向が類似するユーザをグループ化するグループ化実行部と、
特定のユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定する特定部と、
特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間を判定し、判定された該時間を前記特定のユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する推定部と、を備える情報処理装置。
(付記2) 前記推定部は、特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間が前記特定のユーザが属さないグループにおいても共通する傾向にあるか否かに基づいて、前記特定のユーザがポジティブ又はネガティブな状態にあった可能性が高い時間を推定することを特徴とする付記1に記載の情報処理装置。
(付記3) ユーザのポジティブな状態とネガティブな状態の検出結果以外の情報に基づいて、前記複数人のユーザの一部を選別する選別部と、
前記選別部により選別されたユーザのポジティブな状態とネガティブな状態の検出結果を用いて、選別されたユーザがポジティブ又はネガティブな状態にあった可能性が高い時間を推定し、前記推定部の推定結果と比較する比較部と、を更に備える付記1又は2に記載の情報処理装置。
(付記4) コンテンツを視聴するユーザのポジティブな状態とネガティブな状態の検出結果において、該ユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定する特定部と、
特定した前記時間範囲内において、前記ユーザのポジティブ又はネガティブな状態を示す指標値が特異な値を示す時間を抽出する抽出部と、
前記抽出部が抽出した時間を前記ユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する推定部と、を備える情報処理装置。
(付記5)
コンテンツを視聴する複数人のユーザのポジティブな状態とネガティブな状態の検出結果に基づいて、該検出結果の傾向が類似するユーザをグループ化し、
特定のユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定し、
特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間を判定し、判定された該時間をユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する、
処理をコンピュータが実行する情報処理プログラム。
(付記6) 前記推定する処理では、特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間が前記特定のユーザが属さないグループにおいても共通する傾向にあるか否かに基づいて、前記特定のユーザがポジティブ又はネガティブな状態にあった可能性が高い時間を推定することを特徴とする付記5に記載の情報処理プログラム。
(付記7) ユーザのポジティブな状態とネガティブな状態の検出結果以外の情報に基づいて、前記複数人のユーザの一部を選別し、
前記選別部により選別されたユーザのポジティブな状態とネガティブな状態の検出結果を用いて、選別されたユーザがポジティブ又はネガティブな状態にあった可能性が高い時間を推定し、前記推定部の推定結果と比較する、処理を前記コンピュータに更に実行させる付記5又は6に記載の情報処理プログラム。
(付記8) コンテンツを視聴するユーザのポジティブな状態とネガティブな状態の検出結果において、該ユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定し、
特定した前記時間範囲内において、前記ユーザのポジティブ又はネガティブな状態を示す指標値が特異な値を示す時間を抽出し、
抽出した時間を前記ユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する、
処理をコンピュータが実行する情報処理プログラム。
10 サーバ(情報処理装置)
54 データ処理部(グループ化実行部、特定部、推定部、抽出部、選別部、比較部)

Claims (6)

  1. コンテンツを視聴する複数人のユーザのポジティブな状態とネガティブな状態の検出結果に基づいて、該検出結果の傾向が類似するユーザをグループ化するグループ化実行部と、
    特定のユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定する特定部と、
    特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間を判定し、判定された該時間を前記特定のユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する推定部と、を備える情報処理装置。
  2. 前記推定部は、特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間が前記特定のユーザが属さないグループにおいても共通する傾向にあるか否かに基づいて、前記特定のユーザがポジティブ又はネガティブな状態にあった可能性が高い時間を推定することを特徴とする請求項1に記載の情報処理装置。
  3. ユーザのポジティブな状態とネガティブな状態の検出結果以外の情報に基づいて、前記複数人のユーザの一部を選別する選別部と、
    前記選別部により選別されたユーザのポジティブな状態とネガティブな状態の検出結果を用いて、選別されたユーザがポジティブ又はネガティブな状態にあった可能性が高い時間を推定し、前記推定部の推定結果と比較する比較部と、を更に備える請求項1又は2に記載の情報処理装置。
  4. コンテンツを視聴するユーザのポジティブな状態とネガティブな状態の検出結果において、該ユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定する特定部と、
    特定した前記時間範囲内において、特定した前記時間範囲内における前記ユーザのポジティブ又はネガティブな状態を示す指標値の推移傾向に反する時間を抽出する抽出部と、
    前記抽出部が抽出した時間を前記ユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する推定部と、を備える情報処理装置。
  5. コンテンツを視聴する複数人のユーザのポジティブな状態とネガティブな状態の検出結果に基づいて、該検出結果の傾向が類似するユーザをグループ化し、
    特定のユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定し、
    特定された前記時間範囲全体において、前記特定のユーザ及び前記特定のユーザが属するグループ内のユーザに共通してポジティブ傾向又はネガティブ傾向にあると判断できる動きがあった時間を判定し、判定された該時間をユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する、
    処理をコンピュータが実行する情報処理プログラム。
  6. コンテンツを視聴するユーザのポジティブな状態とネガティブな状態の検出結果において、該ユーザの状態がポジティブな状態ともネガティブな状態とも判断できない状態にある時間範囲を特定し、
    特定した前記時間範囲内において、特定した前記時間範囲内における前記ユーザのポジティブ又はネガティブな状態を示す指標値の推移傾向に反する時間を抽出し、
    抽出した時間を前記ユーザがポジティブ又はネガティブな状態にあった可能性が高い時間と推定する、
    処理をコンピュータが実行する情報処理プログラム。
JP2013118337A 2013-06-04 2013-06-04 情報処理装置及び情報処理プログラム Active JP6191248B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013118337A JP6191248B2 (ja) 2013-06-04 2013-06-04 情報処理装置及び情報処理プログラム
US14/288,873 US9839355B2 (en) 2013-06-04 2014-05-28 Method of processing information, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013118337A JP6191248B2 (ja) 2013-06-04 2013-06-04 情報処理装置及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2014236447A JP2014236447A (ja) 2014-12-15
JP6191248B2 true JP6191248B2 (ja) 2017-09-06

Family

ID=51986452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013118337A Active JP6191248B2 (ja) 2013-06-04 2013-06-04 情報処理装置及び情報処理プログラム

Country Status (2)

Country Link
US (1) US9839355B2 (ja)
JP (1) JP6191248B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US20190253743A1 (en) * 2016-10-26 2019-08-15 Sony Corporation Information processing device, information processing system, and information processing method, and computer program
JP7135335B2 (ja) * 2018-02-23 2022-09-13 日本電気株式会社 視聴履歴記録システム、視聴履歴記録装置、記録方法及びプログラム
US10880365B2 (en) * 2018-03-08 2020-12-29 Ricoh Company, Ltd. Information processing apparatus, terminal apparatus, and method of processing information
CN112641441B (zh) * 2020-12-18 2024-01-02 河南翔宇医疗设备股份有限公司 一种体态评估方法、系统、装置及计算机可读存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030154180A1 (en) * 2002-02-13 2003-08-14 Case Simon J. Profile management system
AUPR460001A0 (en) * 2001-04-24 2001-05-24 Canon Kabushiki Kaisha Functional planning system
JP2003111106A (ja) 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
US20120150888A1 (en) * 2003-09-10 2012-06-14 Geoffrey Hyatt Method and system for relationship management and intelligent agent
JP4716083B2 (ja) 2004-07-27 2011-07-06 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US7945619B1 (en) * 2004-09-20 2011-05-17 Jitendra Chawla Methods and apparatuses for reporting based on attention of a user during a collaboration session
WO2009021198A1 (en) 2007-08-08 2009-02-12 Baynote, Inc. Method and apparatus for context-based content recommendation
JP2006293979A (ja) 2005-03-18 2006-10-26 Advanced Telecommunication Research Institute International コンテンツ提供システム
JP2010094493A (ja) 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
JP5445085B2 (ja) * 2009-12-04 2014-03-19 ソニー株式会社 情報処理装置、およびプログラム
WO2011114620A1 (ja) * 2010-03-16 2011-09-22 日本電気株式会社 関心度計測システム
JP2011193371A (ja) * 2010-03-16 2011-09-29 Sony Corp 情報管理装置、情報端末、および情報コンテンツ視聴方法
JP5556296B2 (ja) * 2010-03-25 2014-07-23 富士通株式会社 表示装置、表示方法及びプログラム
US8744898B1 (en) * 2010-11-12 2014-06-03 Adobe Systems Incorporated Systems and methods for user churn reporting based on engagement metrics
US20120143693A1 (en) * 2010-12-02 2012-06-07 Microsoft Corporation Targeting Advertisements Based on Emotion
US20130018954A1 (en) * 2011-07-15 2013-01-17 Samsung Electronics Co., Ltd. Situation-aware user sentiment social interest models
JP2013031009A (ja) * 2011-07-28 2013-02-07 Fujitsu Ltd 情報処理装置、ダイジェスト生成方法、及びダイジェスト生成プログラム
JP2013033375A (ja) * 2011-08-02 2013-02-14 Sony Corp 情報処理装置、情報処理方法、および、プログラム
US20130143185A1 (en) * 2011-12-02 2013-06-06 Eric Liu Determining user emotional state
WO2013085193A1 (ko) * 2011-12-06 2013-06-13 경북대학교 산학협력단 사용자 인지 향상 장치 및 그 인지 향상 방법
KR20130085570A (ko) * 2011-12-22 2013-07-30 한국전자통신연구원 단말 중심 사이버 공격 방지 방법 및 그에 따른 단말 장치
US8460090B1 (en) * 2012-01-20 2013-06-11 Igt Gaming system, gaming device, and method providing an estimated emotional state of a player based on the occurrence of one or more designated events
US20130219417A1 (en) * 2012-02-16 2013-08-22 Comcast Cable Communications, Llc Automated Personalization
US8903927B2 (en) * 2012-06-01 2014-12-02 Facebook, Inc. Increasing engagement of low engagement users in a social network
US9070046B2 (en) * 2012-10-17 2015-06-30 Microsoft Technology Licensing, Llc Learning-based image webpage index selection
US9450771B2 (en) * 2013-11-20 2016-09-20 Blab, Inc. Determining information inter-relationships from distributed group discussions
US20160005320A1 (en) * 2014-07-02 2016-01-07 Christopher deCharms Technologies for brain exercise training

Also Published As

Publication number Publication date
JP2014236447A (ja) 2014-12-15
US20140359115A1 (en) 2014-12-04
US9839355B2 (en) 2017-12-12

Similar Documents

Publication Publication Date Title
Doughty et al. Who's better? who's best? pairwise deep ranking for skill determination
JP6191248B2 (ja) 情報処理装置及び情報処理プログラム
Kurzhals et al. Space-time visual analytics of eye-tracking data for dynamic stimuli
JP5227911B2 (ja) 監視映像検索装置及び監視システム
RU2693906C2 (ru) Основанный на правилах анализ важности видео
US9953222B2 (en) Selecting and presenting representative frames for video previews
JP4622702B2 (ja) 映像監視装置
KR102015954B1 (ko) 영상 처리 시스템 및 영상 처리 방법
US9671862B2 (en) System and method for recommending content to a user based on user's interest
RU2648573C2 (ru) Выделение ресурсов для машинного обучения
US10185869B2 (en) Filter and shutter based on image emotion content
WO2016029796A1 (zh) 识别视频图像中的商品和展示其信息的方法、装置及系统
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP2014523014A5 (ja)
US9905270B2 (en) Techniques for processing and viewing video events using event metadata
US9495789B2 (en) Information processing apparatus, information processing method and computer program
JP6334767B1 (ja) 情報処理装置、プログラム、及び情報処理方法
JP7421149B2 (ja) 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
JP5306940B2 (ja) 動画像コンテンツ評価装置およびコンピュータプログラム
TW201523459A (zh) 物件追蹤方法及電子裝置
CN115686199B (zh) 一种群体眼动轨迹生成方法、装置、计算设备及存储介质
Balint et al. Storyline visualizations of eye tracking of movie viewing
JP2013164667A (ja) 映像検索装置、映像検索方法、および映像検索用プログラム
JP6717046B2 (ja) 関心度評価装置,方法及びプログラム
CN108881816A (zh) 录像文件的生成方法、装置及计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170724

R150 Certificate of patent or registration of utility model

Ref document number: 6191248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150