JP7185892B2 - データ処理装置、データ処理システム、データ処理方法、及びプログラム - Google Patents

データ処理装置、データ処理システム、データ処理方法、及びプログラム Download PDF

Info

Publication number
JP7185892B2
JP7185892B2 JP2018055033A JP2018055033A JP7185892B2 JP 7185892 B2 JP7185892 B2 JP 7185892B2 JP 2018055033 A JP2018055033 A JP 2018055033A JP 2018055033 A JP2018055033 A JP 2018055033A JP 7185892 B2 JP7185892 B2 JP 7185892B2
Authority
JP
Japan
Prior art keywords
users
user
data processing
timing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018055033A
Other languages
English (en)
Other versions
JP2019169805A5 (ja
JP2019169805A (ja
Inventor
珠実 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2018055033A priority Critical patent/JP7185892B2/ja
Priority to CN201980020916.4A priority patent/CN111886565A/zh
Priority to PCT/JP2019/009115 priority patent/WO2019181537A1/ja
Priority to KR1020207030046A priority patent/KR102516751B1/ko
Publication of JP2019169805A publication Critical patent/JP2019169805A/ja
Priority to US17/023,992 priority patent/US11983309B2/en
Publication of JP2019169805A5 publication Critical patent/JP2019169805A5/ja
Application granted granted Critical
Publication of JP7185892B2 publication Critical patent/JP7185892B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ユーザの瞬きに応じた指標を算出する技術に関する。
人が無意識に行う動作に基づいて、その人が観察する視覚情報への関心の度合いを推定する技術が、従来から提案されている。特許文献1は、人の視線変化及び瞬きの間隔に基づいて、映像への注目度を推定することを開示している。特許文献2は、コンテンツのジャンルに対応した満足度算出手法を選択して、ユーザの当該コンテンツに対する満足度を算出することを開示している。特許文献3は、端末操作データ、及び瞬きを含む身体データに基づいて、視聴質データを生成することを開示している。特許文献4は、視聴者の眼球運動に基づいて、コンテンツに対する興味・関心度を算出することを開示している。なお、同じ映像を見る複数の被験者の瞬きに関して、本件の発明者らによって、非特許文献1及び非特許文献2に以下の事項が開示されている。非特許文献1は、ビデオを観察しているときに複数の被験者の瞬きが同期し、環境ビデオや音声では複数の被験者の瞬きが同期しないことを開示している。非特許文献2は、手品の映像を見ているときの複数の被験者の瞬きが同期することを開示している。
特許第5771127号 特開2009-267445号公報 特開2005-142975号公報 再表2008-72739号公報
Tamami Nakano, Yoshiharu Yamamoto, Keiichi Kitajo, Toshimitsu Takahashi and Shigeru Kitazawa、"Synchronization of spontaneous eyeblinks while viewing video stories"、Proceedings of the Royal Society B: Biological Sciences、276(1673)、 p 3635 - 3644、[online]、[平成30年3月12日検索]、インターネット<URL:http://rspb.royalsocietypublishing.org/content/royprsb/early/2009/07/24/rspb.2009.0828.full.pdf>、(2009年) Richard J. Wiseman and Tamami Nakano、" Blink and you'll miss it: the role of blinking in the perception of magic tricks" 、PeerJ、e1873、[online]、[平成30年3月12日検索]、インターネット<URL:https://peerj.com/articles/1873/?utm#source=TrendMD&utm#campaign=PeerJ#TrendMD#1&utm#medium=TrendMD>、(2016年)
人間の瞬きの回数や頻度は個人差が大きい。このため、人の瞬きの回数や頻度をそのまま、関心度合い等の客観的な指標として用いることは、困難である。
そこで、本発明は、人の瞬きを客観的な指標として用いるための技術を提供することを目的とする。
本発明の一実施形態は、ユーザの瞬きのタイミングを示すデータを取得する取得部と、複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの瞬きのタイミングの一致度合いに応じた指標を算出する算出部と、前記指標に応じたデータを出力する出力部と、を備えるデータ処理装置を提供する。
本発明の一実施形態は、ユーザの瞬きを検出する瞬き検出部と、上記データ処理装置とを有し、前記取得部は、前記瞬き検出部の検出結果に応じて前記瞬きのタイミングを示すデータを取得するデータ処理システムを提供する。
本発明の一実施形態は、ユーザの瞬きのタイミングを示すデータを取得し、複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの瞬きのタイミングの一致度合いに応じた指標を算出するデータ処理方法を提供する。
本発明の一実施形態は、コンピュータに、ユーザの瞬きのタイミングを示すデータを取得し、複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの瞬きのタイミングの一致度合いに応じた指標を算出する処理を実行させるためのプログラムを提供する。
本発明によれば、人の瞬きを客観的な指標として用いるための技術を提供することができる。
本発明の第1実施形態であるデータ処理システムの全体構成を示すブロック図である。 本発明の第1実施形態のサーバ装置のハードウェア構成を示すブロック図である。 本発明の第1実施形態の端末装置のハードウェア構成を示すブロック図である。 本発明の第1実施形態のデータ処理システムの機能構成を示すブロック図である。 本発明の第1実施形態のデータ処理システムが実行する処理を示すフローチャートである。 本発明の第1実施形態の指標算出処理を示すフローチャートである。 本発明の第1実施形態の瞬きのタイミングの差異の算出方法を説明する図である。 本発明の第1実施形態のタイミング差の出現頻度の分布を示すグラフを示す。 本発明の第1実施形態のランダムデータの一例を示す図である。 本発明の第1実施形態の評価値の一例を示す図である。 本発明の第1実施形態のステップS17で出力されるデータの一例を示す図である。 本発明の第1実施形態の検証に係る被験者の瞬きの頻度の分布を示すグラフである。 本発明の第1実施形態の検証に係る被験者の1分ごとの瞬きの回数の時間的変化を示すグラフである。 本発明の第1実施形態の検証に係る動画を見た後のアンケ―トの結果と瞬きの回数との関係を示すグラフである。 本発明の第1実施形態の検証に係る評価値の算出結果を示すグラフである。 本発明の第1実施形態の検証に係る関心のある対象が異なる被験者毎に、各動画を見たときの評価値を算出した結果を示すグラフである。 本発明の第1実施形態の検証に係るすべての被験者について、各動画を見た後のアンケート結果と、評価値との関係を示したグラフである。 本発明の第1実施形態の検証に係る動画を見た後の感想と評価値との関係を示すグラフである。 本発明の第1実施形態の変形例のステップS17で出力されるデータの一例を示す図である。 本発明の第2実施形態であるデータ処理システムの全体構成を示すブロック図である。 本発明の第2実施形態のデータ処理システムの機能構成を示すブロック図である。 本発明の第2実施形態のデータ処理システムで実行される処理を示すフローチャートである。 本発明の第2実施形態の検証に係る映像講義における評価値を算出したグラフである。 本発明の第2実施形態の検証に係る出題される問題と瞬きのタイミングとの関係を示すグラフである。 本発明の第2実施形態の問題の正答率や理解度と評価値との関係を示すグラフである。 本発明の第2実施形態の問題の正答率と評価値との関係を示すグラフである。 本発明の第3実施形態のデータ処理システムの機能構成を示すブロック図である。 本発明の第3実施形態のデータ処理システムが実行する処理を示すフローチャートである。 本発明の第4実施形態であるデータ処理システムの全体構成を示すブロック図である。 本発明の第4実施形態の端末装置のハードウェア構成を示すブロック図である。 本発明の第4実施形態のデータ処理システムの機能構成を示すブロック図である。 本発明の第4実施形態のデータ処理システムで実行される処理を示すフローチャートである。 本発明の第4実施形態のデータ処理システムで実行される処理を説明する図である。 本発明の第4実施形態の変形例のステップS48で出力されるデータの一例を示す図である。 本発明の第4実施形態のデータ処理システムで実行される処理を説明する図である。 本発明の一変形例に係る撮像部を正面から見た模式図である。 本発明の一変形例に係る端末装置のハードウェア構成を示すブロック図である。 本発明の一変形例に係るデータ処理システムの機能構成を示すブロック図である。 本発明の一変形例に係るデータ処理システムで実行される処理を示すフローチャートである。 本開示に係るデータ処理装置の機能構成を示すブロック図である。
以下、本発明の一実施形態について、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。なお、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号(数字の後にA、Bなどを付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。
本件発明者は、複数のユーザの瞬きのタイミングの差異を、当該複数のユーザが観察する視覚情報に対する関心の度合いの指標として用いることができる、という知見を得た。例えば、複数のユーザの瞬きのタイミングの一致度合いが高い期間は、その期間に観察された視覚情報に対して、当該複数のユーザが強い関心を示している、と推測することができる。一方、その一致度合いが低い期間は、その期間に観察された視覚情報に対して当該複数のユーザが強い関心を示していない、と推測することができる。このような知見を得るに至った検証については、後述する。以下で説明する本発明の一実施形態では、このような知見に基づき、複数のユーザの瞬きのタイミング一致度合いに応じた処理を行うデータ処理システムを説明する。
[第1実施形態]
図1は、本発明の第1実施形態であるデータ処理システム1の全体構成を示すブロック図である。データ処理システム1は、所定の視覚情報を観察する複数のユーザの瞬きに基づいて、当該視覚情報を評価する。視覚情報は、人が視覚を通じて得られる情報を総称する。視覚情報は、本実施形態では動画である。動画は、人が視覚を通じて認識できる情報が時間的に変化する。動画は、さらに、人が聴覚を通じて認識できる情報(つまり、音)を含んでもよい。本実施形態の動画は、例えば、テレビジョン放送に係る動画(例えば、テレビ番組又はコマーシャルメッセージ)である。
データ処理システム1は、サーバ装置10と、複数の端末装置20(20-1,20-2,・・・,20-N)とを有する。サーバ装置10は、複数の端末装置20の各々から、ユーザの瞬きのタイミングを示すデータを取得し、取得した当該データに基づいて、動画の評価を行う。サーバ装置10は、例えば、ユーザによる動画の視聴傾向の集計、分析を行う事業者によって管理、運用される。サーバ装置10は、複数の端末装置20の各々と通信回線NWを介して通信する。通信回線NWは、例えばインターネットで例示される公衆通信回線、又は専用回線である。サーバ装置10は、本開示に係るデータ処理装置を有する装置の一例である。
複数の端末装置20は、動画を観察するユーザによって使用される。図1には、複数の端末装置20として、端末装置20-1,20-2,・・・,20-N(ただし、Nは2以上の自然数)が示されている。端末装置20-i(ただし、1≦i≦N)のユーザを、以下では、「ユーザUi」と称する。ユーザUiは、動画再生装置30-iを用いて、動画を観察する。動画再生装置30-1~30-Nは、例えばテレビジョンである。
端末装置20は、例えば、スマートフォン、タブレット端末、及びウェアラブル型コンピュータで例示される携帯型の端末装置である。又は、端末装置20は、動画の視聴空間(例えば、動画再生装置30-1~30-Nが設置された部屋)に設置される固定型の端末装置であってもよい。端末装置20は、動画を観察するユーザの瞬きを検出可能な位置に設けられる。例えば、端末装置20は、動画再生装置30-1~30-Nの近傍に設けられる。
図2は、サーバ装置10のハードウェア構成を示すブロック図である。サーバ装置10は、制御部11と、通信部12と、記憶部13とを有する。制御部11は、サーバ装置10の各部を制御する。制御部11は、例えば、CPUで例示される演算処理装置、及びメモリを含む。メモリは、例えば、演算処理装置がワークエリアとして使用するRAM、及び制御プログラムを記憶するROMを含む。
通信部12は、通信回線NWを介して、複数の端末装置20の各々と有線又は無線により通信する。通信部12は、例えば、通信回路及びアンテナを含む。
記憶部13は、データを記憶する。記憶部13は、例えば、プログラム131を記憶する。プログラム131は、制御部11に所定の機能を実現させるためのプログラムである。記憶部13は、例えば、光学式記録媒体、磁気記録媒体、及び半導体記録媒体で例示される任意の形式の記録媒体を含みうる。
図3は、端末装置20のハードウェア構成を示すブロック図である。端末装置20は、制御部21と、ユーザインタフェース22と、通信部23と、記憶部24と、撮像部25とを有する。制御部21は、端末装置20の各部を制御する。制御部21は、例えば、CPUで例示される演算処理装置、及びメモリを含む。メモリは、例えば、CPUがワークエリアとして使用するRAM、及び制御プログラムを記憶するROMを含む。制御部21は、さらに、所定の時間軸上で規定される時刻を計る計時部を有する。時間軸は、例えば、絶対時刻又は動画の再生位置(例えば、動画の再生開始時刻を基準とした相対時刻)を規定する。
ユーザインタフェース22は、ユーザと対話を行うためのインタフェースである。ユーザインタフェース22は、例えば、操作を受け付ける操作部(例えば、物理キー又はタッチセンサ)、及び情報を表示する表示部(例えば、液晶ディスプレイ)を含む。通信部23は、通信回線NWを介して、サーバ装置10と通信する。通信部23は、例えば、通信回路及びアンテナを含む。記憶部24は、データを記憶する。記憶部24は、例えば、プログラム241を記憶する。プログラム241は、制御部21に所定の機能を実現させるためのプログラムである。記憶部24は、例えば、光学式記録媒体、磁気記録媒体、及び半導体記録媒体で例示される任意の形式の記録媒体を含みうる。
撮像部25は、被写体を撮像し、当該撮像した画像を示す撮像データを生成する。被写体は、少なくとも、ユーザの顔、より詳細にはユーザの目を含む。撮像部25は、例えば、CCD(Charge Coupled Device)イメージセンサで例示される撮像素子、及びレンズを含む。
図4は、データ処理システム1の機能構成を示すブロック図である。サーバ装置10の制御部11は、プログラム131を実行することにより、取得部111と、算出部112と、出力部113とに相当する機能を実現する。複数の端末装置20の各々の制御部21は、プログラム241を実行することにより、瞬き検出部211と、送信部212とに相当する機能を実現する。
端末装置20において瞬き検出部211は、ユーザの瞬きを検出する。具体的には、瞬き検出部211は、撮像部25により生成された撮像データに基づいて、ユーザの瞬きを検出する。送信部212は、ユーザの瞬きのタイミングを示すデータ(以下「瞬きデータ」という。)を、通信部23を用いて、サーバ装置10へ送信する。本実施形態の瞬きデータは、瞬きが検出された時刻を、その時刻順に並べたデータ(第1データ)である。
サーバ装置10において取得部111は、通信部12を用いて、複数の端末装置20の各々から瞬きデータを取得する。
算出部112は、複数のユーザの瞬きのタイミングの差異に基づいて、当該複数のユーザの瞬きのタイミングの一致度合いに応じた指標を算出する。算出部112は、取得部111が取得した瞬きデータに基づいて、当該指標を算出する。当該指標は、本実施形態では、複数のユーザの動画に対する関心度合いの評価値である。
出力部113は、算出部112が算出した指標に応じたデータを出力する。本実施形態では、出力部113は、当該指標自体を出力してもよいし、当該指標から直接的又は間接的に特定されるデータ(例えば、コンテンツ)を出力してもよい。
次に、データ処理システム1の動作を説明する。図5は、データ処理システム1で実行される処理を示すフローチャートである。
端末装置20において瞬き検出部211は、撮像部25にユーザの目を撮像させる(ステップS11)。瞬き検出部211は、撮像部25により生成された撮像データに基づいて、ユーザの瞬きを検出する(ステップS12)。瞬きの検出のアルゴリズムは、種々の公知技術が適用されてよい。瞬き検出部211は、例えば、撮像データが示す画像から、ユーザの目の周縁に沿って複数の特徴点を抽出する。瞬き検出部211は、例えば、Haar-likeに基づいて該特徴点を抽出する。瞬き検出部211は、複数のフレームの撮像データに基づいて、抽出した特徴点の移動の方向、及びその速度の時間的な変化を特定することにより、ユーザの瞬きの有無を検出する。例えば人の瞬きに起因して、およそ0~300ミリ秒の間に、特徴点の急激な速度の変化が生じる。そこで、瞬き検出部211は、所定期間内の速度変化が閾値以上となった場合、ユーザの瞬きがあったことを検出する。
瞬き検出部211は、例えば、撮像部25から供給された撮像データに基づいて、リアルタイムで瞬きを検出する。又は、瞬き検出部211は、撮像データを記憶部24に記憶させておき、所定のタイミングに当該撮像データを読み出して、瞬きを検出してもよい。
送信部212は、ユーザの瞬きのタイミングを示す瞬きデータを、通信部23を用いて、サーバ装置10へ送信する(ステップS13)。送信部212は、さらに、瞬きデータと対応付けて動画特定情報を、サーバ装置10へ送信してもよい。動画特定情報は、ユーザが観察した動画を特定する情報である。動画特定情報は、例えば、動画を識別する識別情報、当該動画の放送日時を示す放送日時情報、および当該動画の放送チャネルを示すチャネル情報を含む。なお、瞬きデータの送信タイミングは、問わない。送信タイミングは、例えば、あらかじめ決められたタイミング(例えば、1日1回の所定の時刻)、又はサーバ装置10から要求があったタイミングである。
サーバ装置10において取得部111は、通信部12を用いて、複数の端末装置20の各々から、瞬きデータを取得する(ステップS14)。取得部111は、端末装置20が動画特定情報を送信した場合は、さらに、当該動画特定情報を取得する。
算出部112は、取得部111が取得した瞬きデータに基づいて、指標算出処理を行う(ステップS15)。
図6は、指標算出処理を示すフローチャートである。以下、指標算出処理を、具体例を挙げて説明する。
算出部112は、N人のユーザU1~UNの中から2人のユーザを選択する(ステップS151)。選択した2人のユーザを、以下、それぞれ「第1ユーザ」、「第2ユーザ」と称する。算出部112は、ここでは、ユーザU1とユーザU2とを選択したものとする。
次に、算出部112は、第1ユーザの瞬きのタイミングと、第2ユーザの瞬きのタイミングとの差異を算出する(ステップS152)。算出部112は、第1ユーザの瞬きのタイミングと、第2ユーザの瞬きのタイミングとのすべての組み合わせについて、タイミングの差異(以下「タイミング差」という。)を算出する。
図7は、瞬きのタイミングの差異の算出方法を説明する図である。図7は、瞬きが検出されたタイミングを示すタイミングチャートが示されている。図7に示すように、ユーザU1の瞬きのタイミングを、その時刻順に、t11,t12,・・・t1Bと表す。ユーザU2の瞬きのタイミングを、その時刻順に、t21,t22,・・・t27と表す。この場合、算出部112は、t11,t12,・・・t1Bの各々について、t21,t22,・・・t27の各々との差異を算出する。瞬きタイミングt1i(ただし、1≦i≦m)と瞬きタイミングt2j(ただし、1≦j≦n)との差異であるタイミング差を、以下「Δtij」と表す。この場合、算出部112は、タイミング差TD{Δt11、Δt12、・・・、Δt17、Δt21、Δt22、・・・、Δt27、・・・ΔtB1、ΔtB2、・・・、ΔtBn}を算出する。
図8は、タイミング差の出現頻度の分布を示すグラフDGを示す。図8のグラフDGにおいて、横軸がタイミング差に対応し、縦軸が各タイミング差の出現の度合い(つまり、出現頻度)に対応する。図8に示す例では、タイミング差が比較的小さい時間範囲T内で、出現頻度が高くなっている。
ところで、グラフDGで示される出現頻度の分布は、第1ユーザ及び第2ユ-ザによる動画の観察、及び第1ユーザ及び第2ユ-ザの瞬きの特性(例えば、回数や頻度)に起因して生じた、と考えられる。そこで、タイミング差TDで示される第1ユーザ及び第2ユ-ザの瞬きが、どの程度動画を観察したことに起因することを明らかにするため、算出部112は、サロゲートデータ法を用いて出現頻度の分布を解析する。
すなわち、算出部112は、ステップS13で取得した瞬きデータに基づいて、ランダムデータを生成する(ステップS153)。ランダムデータは、ここでは、ステップS151で選択した2人のユーザの一方又は両方について、時間軸上で瞬きの間隔の順番をランダムに変更したK通り(例えば、1000通り)のランダムデータR1~RK(第2データ)を含む。
図9は、ランダムデータR1~RKの一例を示す図である。図9に示すランダムデータR1~RKには、ユーザU1について瞬きの間隔の順番が変更されておらず、ユーザU2について瞬きの間隔の順番が変更されているランダムデータである。ランダムデータR1~RKにおいて、ユーザU2の瞬きのタイミングは、その時刻順に、t21a,t25a,・・・t23aと表される。なお、図7に示すタイミング「t2j」と、図9に示すタイミング「t2ja」とが対応する。
次に、算出部112は、K通りのランダムデータR1~RKの各々について、第1ユーザの瞬きのタイミングと、第2ユーザの瞬きのタイミングとの差異であるタイミング差を算出する(ステップS154)。タイミング差の算出方法は、ステップS152と同じでよい。すなわち、算出部112は、ランダムデータR1~RKの各々について、第1ユーザの瞬きのタイミングと、第2ユーザの瞬きのタイミングとのすべての組み合わせについて、タイミング差を算出する。瞬きタイミングt1ia(ただし、1≦i≦m)と瞬きタイミングt2ja(ただし、1≦j≦n)との差異であるタイミング差を、以下「Δtija」と表す。この場合、算出部112は、タイミング差TR{Δt11a、Δt15a、・・・、Δt13a、Δt21a、Δt25a、・・・、Δt23a、・・・ΔtB1a、ΔtB5a、・・・、ΔtB3a}を算出する。ランダムデータR1~RKにおけるタイミング差の出現頻度は、例えば、図8のグラフRGで示される。なお、グラフRGは、ランダムデータR1~RKのタイミング差の出現頻度の平均を示す。
次に、算出部112は、瞬きデータに基づくタイミング差と、ランダムデータに基づくタイミング差とに基づいて、評価値を算出する(ステップS155)。ランダムデータは、ユーザU2の瞬きの間隔をランダムに変更したデータであり、ユーザU2の瞬きの回数及び間隔を維持したまま、時系列の情報が崩されたデータといえる。よって、瞬きデータとランダムデータとを比較することによって、当該瞬きデータが示すタイミング差の出現分布が、動画の観察に起因して現れた度合いを把握することができる。
具体的には、算出部112は、評価値をZ値によって算出する。すなわち、算出部112は、瞬きデータが示すタイミング差TD{Δt11、Δt12、・・・、Δt17、Δt21、Δt22、・・・、Δt27、・・・ΔtB1、ΔtB2、・・・、ΔtBn}の各々から、ランダムデータR1~RKにおけるタイミング差の平均値を減じ、さらに、得られた値をランダムデータR1~RKにおけるタイミング差の標準偏差で除することによって、評価値Zを算出する。例えば、瞬きデータがランダムデータと同じである場合、評価値Zは0である。この場合、瞬きデータが示す出現頻度の分布が、動画の観察に起因して現れていないと推測することができる。一方、評価値Zが大きく、瞬きデータがランダムデータに対して差異が大きい場合、瞬きデータが示す出現頻度の分布が、動画の観察に起因して現れたと推測することができる。図8を用いて説明すると、出現頻度の差異Δが大きい場合ほど、評価値Zは大きくなる。
図10は、評価値Zの一例を示すグラフである。図10に示すグラフにおいて、横軸はタイミング差に対応し、縦軸は評価値に対応する。タイミング差は、ここでは、ビンの値によって表す。ビン番号「7」は、タイミング差が「0」と扱われることを示す。ビン間の時間幅は300ミリ秒で、ビン番号の値が大きくなる方向に、正の方向にタイミング差が大きいことを意味する。例えば、ビン番号「8」は+300ミリ秒の差異があり、ビン番号「9」は+600ミリ秒の差異があることを意味する。反対に、ビン番号の値が小さくなる方向に、負の方向にタイミング差が大きいことを意味する。例えば、ビン番号「6」は-300ミリ秒の差異があり、ビン番号「5」は-600ミリ秒の差異があることを意味する。なお、タイミング差が正の値である場合、第2ユーザの瞬きのタイミングが第1ユーザの瞬きのタイミングよりも早いことを意味する。タイミング差が負の値である場合、第1ユーザの瞬きのタイミングが第2ユーザの瞬きのタイミングよりも早いことを意味する。本実施形態では、タイミング差が300ミリ秒以下である瞬きの出現頻度が、ビン番号「7」の評価値Zを示す。言い換えれば、ビン番号「7」以外の番号に対応する出現頻度は、評価値Zの算出には使用されない。図10に示す例では、評価値Zは「0.4」である。算出部112は、動画の再生期間の全体に対して一つの評価値を算出してもよいし、当該再生期間を複数の単位期間(例えば、30秒の期間)に区分して、当該単位期間ごとに評価値を算出してもよい。
算出部112は、瞬きデータに加えて、動画特定情報に基づいて、指標算出処理を行ってもよい。この場合、算出部112は、動画特定情報に基づいて、N人のユーザの各ユーザが見ている動画を特定し、また、共通の時間軸上でのN人のユーザの瞬きタイミングに基づいて指標を算出する。
次に、算出部112は、すべてのユーザの組み合わせについて、評価値を算出したかどうかを判断する(ステップS156)。ステップS156で「NO」と判断した場合、算出部112はステップS151の処理に戻す。そして、算出部112は、選択する2人のユーザの組み合わせを変更して、評価値を算出する(ステップS151~S154)。そして、ステップS156で「YES」と判断した場合、算出部112は指標算出処理を終了する。
なお、ランダムデータは、ユーザU2について瞬きの間隔の順番が変更されておらず、ユーザU1について瞬きの間隔の順番が変更されたデータであってもよい。また、ランダムデータは、ステップS151で選択した2人のユーザ(例えば、ユーザU1及びユーザU2)の瞬きの間隔の順番が変更されたデータであってもよい。
指標算出処理が終了すると、出力部113は、算出された評価値に応じたデータを生成して出力する(図5のステップS16,S17)。
図11は、ステップS17で出力されるデータの一例を示す図である。この例では、出力部113は、時刻と関連付けた評価値を出力する。具体的には、出力部113は、横軸を時刻に対応させ、縦軸を評価値に対応させて、評価値の時間的な変化を示したグラフZGを生成する。縦軸の評価値は、例えば、単位期間ごとのN2通りで算出した評価値の平均値を示している。グラフZGは、N人のユーザの動画に対する評価値の時間的な変化を定量的に表したグラフである。なお、出力部113は、例えば、動画の再生期間(例えば、番組の放送期間)全体について評価値を算出するが、一部の期間について評価値を算出してもよい。
なお、出力部113は、N人のユーザの評価値の移動平均を出力してもよい。また、ステップS17のデータの出力の方法は、問わない。例えば、データの出力の方法は、例えば、通信、印刷又は表示により行われる。
通常、テレビジョン放送の視聴率は、各時刻に選局されているチャンネルに基づいて計測されている。よって、選局中の番組に、視聴者が関心かあるかどうかや、その関心の度合いを定量的に把握することはできなかった。これに対し、データ処理システム1によれば、複数のユーザの瞬きのタイミング差に応じて、動画に対する関心の度合いを定量的に評価することができる。この評価結果は、視聴傾向の分析やマーケティング等に利用することが可能である。
ここで、複数のユーザの瞬きのタイミングの差異を視覚情報の客観的な評価に用いることができる根拠を説明する。本件発明者らは、以下で説明する検証を行った。
発明者らは、59人の大学生を被験者とし、以下の(動画1)、(動画2)、(動画3)を主題とする動画を、それぞれ3種類ずつ作成し、(動画1)→(動画2)→(動画3)→(動画1)→(動画2)→(動画3)→(動画1)→(動画2)→(動画3)という順で、再生した。各動画の再生時間は3分間であり、動画の合計の再生時間は27分間である。本件発明者らは、これらの動画を観察する被験者の瞬きの検出を行った。
(動画1)将棋の対局解説
(動画2)サッカーの試合
(動画3)アイドル歌手Aのテレビインタビュー
図12は、動画を見ている59人の被験者の瞬きの頻度の分布を示すグラフである。図12に示すように、被験者の瞬きの頻度は5~50回/秒の範囲に分布し、個人差が大きいことが分かった。すなわち、或る瞬きの回数や頻度の瞬きが、動画を観察したことに起因して生じたか、又はその人の瞬きの特性によるかを推測することは困難である。
図13は、被験者の1分ごとの瞬きの回数の時間的変化を示すグラフである。図13には、将棋ファンである8人の被験者の瞬きの平均回数と、サッカーファンである19人の被験者の瞬きの平均回数と、アイドル歌手Aファン(図13、図16及び図17において、「Aファン」と示す。)である18人の被験者の瞬きの平均回数とがそれぞれ示されている。なお、59人の被験者のうち、事前アンケートで、将棋とサッカー又はサッカーとアイドル歌手A(図13、図16及び図18において「A」と表す。)という具合に、2つ以上の対象のファンであると回答した被験者が12人いた。このため、この12人の被験者については、特定の対象にファンである被験者からは除外した。図13に示すように、瞬きの回数は、動画に応じて変化する傾向が現れた。しかし、個々の被験者の関心のある対象と瞬きの回数との間に、相関は確認できなかった。また、図14は、動画を見た後のアンケ―トの結果と瞬きの回数との関係を示すグラフである。図14に示すように、動画への関心の度合いと瞬きの回数との間に、相関は確認できなかった。
次に、上述した指標算出処理を用いて、被験者の相互間の瞬きのタイミング差に基づいて評価値を算出した。すなわち、59人の被験者の中から2人のユーザを選択し、選択した2人のユーザの瞬きのタイミング差を算出して評価値を算出する処理を、すべてのユーザの組み合わせ(つまり592通り)について行い、さらにその平均値を算出した。なお、ランダムデータは1000通りとした。
図15は、本検証に係る評価値の算出結果を示すグラフである。図15に示すグラフにおいて、横軸はタイミング差に対応し、縦軸は評価値に対応する。タイミング差は、ここでは、ビンの値によって表す。図15には、ビン番号の時間幅を、150ms、200ms、250ms、300ms、500msとしたグラフがそれぞれ示されている。図15に示すように、ビン番号の時間幅を、150ms、200ms、250ms、300ms、500msのいずれとした場合も、瞬きのタイミング差が0と扱われるビン番号「7」において、出現頻度が局所的に高くなっていることを確認できた。
図16は、関心のある対象が異なる被験者毎に、各動画を見たときの評価値を算出した結果を示すグラフである。図16に示すグラフにおいて、横軸は動画に対応し、縦軸は評価値に対応する。図16に示すように、将棋、サッカー、アイドル歌手Aのそれぞれについて、自身が関心のある対象についての動画を観察しているときに、評価値が高くなっていることが分かる。
図17は、すべての被験者について、各動画を見た後のアンケート結果と、評価値との関係を示したグラフである。図17に示すグラフにおいて、横軸はタイミング差(ビンの値)に対応し、縦軸は評価値に対応する。図17に示すように、動画を面白いと感じた被験者の方が、退屈と感じた被験者よりも、評価値の上昇の度合いが大きいことが分かった。
図18は、動画を見た後の感想と評価値との関係を示すグラフである。図18に示すグラフにおいて、横軸は関心度合いに対応し、縦軸は評価値に対応する。関心度合いは、数値が大きいほど、動画を面白いと感じたことを意味する、図18に示す「r」は相関係数、「p」は確率である。ここでは、各被験者について、当該被験者と他のすべての被験者との2人を選択して評価値をそれぞれ算出し、算出した評価値の平均値を、当該被験者の評価値としている。この評価値においても、動画に関心がある被験者が多いほど高い値を示すこととなる。図18に示すグラフからも、動画を面白いという印象を持った被験者ほど、評価値が高い傾向を示していることが分かった。
以上の検証により、本件発明者らは、複数のユーザの瞬きのタイミング差に応じた評価値が、動画に対する関心の度合いの指標になるという知見を得られた。
<第1実施形態の変形例>
(1)算出部112は、複数のユーザを所定の規則に従い分類したグループごとに、評価値を算出してもよい。当該規則は、評価値を算出するユーザの組み合わせを規定する規則であるが、例えばユーザ属性である。ユーザ属性は、例えば、ユーザの性別、年齢、趣味、好みの動画のジャンル、又はこれらの組み合わせである。ユーザ属性は、これら以外のユーザの属性であってもよい。ユーザ属性は、あらかじめサーバ装置10に登録されて記憶部13に記憶されていてもよい。また、端末装置20のユーザが、ユーザインタフェース22を操作してユーザ属性を入力して、記憶部24に記憶させておく。そして、送信部212は、瞬きデータと対応付けてユーザ属性を、サーバ装置10へ送信してもよい。
出力部113は、さらに、グループごとに評価値に応じたデータを出力してもよい。出力部113は、例えば、ユーザ属性ごとに、評価値に応じたデータを出力してもよい。図19は、この変形例のステップS17で出力されるデータの一例を示す図である。ここでは、出力部113は、ユーザ属性ごとに、時刻と関連付けた評価値を出力する。この例では、出力部113は、横軸を時刻に対応させ、縦軸を評価値に対応させて、評価値の時間的な変化を示したグラフG1~G3を生成する。グラフG1は、例えば「属性1」に属するユーザの評価値、グラフG2は、例えば「属性2」に属するユーザの評価値、グラフG3は、例えば「属性3」に属するユーザの評価値を示している。これにより、ユーザ属性ごとに、動画の観察中における評価値の時間的な変化を把握できる。
(2)出力部113は、評価値が所定の条件を満たす動画を特定するデータを出力してもよい。出力部113は、例えば、多くのユーザの関心の度合いが高い動画を特定するデータを出力してもよい。この場合の所定の条件は、例えば、評価値が閾値を超えたこと、又は複数の動画の中で評価値が最大であることである。出力部113は、動画のうち、評価値が所定の条件を満たす期間を特定するデータを出力してもよい。この場合の所定の条件は、例えば、評価値が閾値を超えたこと、又は複数の動画の中で評価値が最大であることである。
[第2実施形態]
第2実施形態は、本開示に係るデータ処理システムを、映像講義を行うデータ処理システムに適用した場合を説明する。
図20は、データ処理システム1Aの全体構成を示す図である。データ処理システム1Aは、サーバ装置10Aと、複数の端末装置20Aとを有する。サーバ装置10Aは、学校の授業などの講義に関する動画を配信するとともに、複数の端末装置20Aの各々からユーザ(すなわち、受講生)の瞬きのタイミングを示すデータを取得し、取得した当該データに基づいて動画の評価を行う。サーバ装置10Aは、例えば、講義を実施する事業者によって管理、運用される。サーバ装置10Aは、複数の端末装置20Aの各々と通信回線NWを介して通信する。
複数の端末装置20Aは、映像講義に係る動画を見るユーザによって使用される。複数の端末装置20Aの各々は、ユーザの座席40にあらかじめ設置されている。端末装置20Aは、動画を見ているユーザの瞬きを検出可能な位置に設けられる。図1には、複数の端末装置20Aは、端末装置20A-1,20A-2,・・・,20A-N(ただし、Nは2以上の自然数)が示されている。説明の便宜のため、端末装置20A-i(ただし、1≦i≦N)のユーザを、以下では「ユーザUi」と称する。
サーバ装置10A及び端末装置20Aのハードウェア構成は、それぞれ上述した第1実施形態のサーバ装置10及び端末装置20と同じでよい。ただし、サーバ装置10Aの記憶部13は、講義が予め録画しておいた動画を再生して行われる場合に、当該動画を示す動画データを記憶してもよい。
図21は、データ処理システム1Aの機能構成を示すブロック図である。サーバ装置10Aの制御部11は、プログラム131を実行することにより、取得部111と、算出部112と、出力部113と、配信部114とに相当する機能を実現する。配信部114は、通信部12を介して、複数の端末装置20Aの各々に動画を配信する。
複数の端末装置20Aの各々の制御部21は、プログラム241を実行することにより、瞬き検出部211と、送信部212と、再生部213とに相当する機能を実現する。再生部213は、通信部23を用いてサーバ装置10Aから動画を受信し、受信した当該動画を再生する。再生された動画は、ユーザインタフェース22を介してユーザに表示される。
次に、データ処理システム1Aの動作を説明する。図22は、データ処理システム1Aで実行される処理を示すフローチャートである。
サーバ装置10Aにおいて配信部114は、映像講義に係る動画の配信を開始する(ステップS21)。端末装置20Aにおいて再生部213は、通信部23を用いて動画を受信し、受信した当該動画の再生を開始する(ステップS22)。瞬き検出部211は、撮像部25に撮像を開始させる(ステップS23)。瞬き検出部211は、撮像データに基づいて、ユーザの瞬きの検出を開始する(ステップS24)。ここでは、動画の再生開始と同時に瞬きの検出が開始されているが、動画の再生前に開始されてもよい。瞬きの検出のアルゴリズムは上述した第1実施形態と同じでよい。
送信部212は、瞬きの検出結果に基づいて、瞬きデータを、通信部23を用いてサーバ装置10Aへ送信する(ステップS25)。瞬きデータの送信タイミングは、問わない。送信タイミングは、例えば、あらかじめ決められたタイミング(例えば、映像講義の終了後)であってもよいし、サーバ装置10Aから要求があったタイミングであってもよい。
サーバ装置10において取得部111は、複数の端末装置20Aの各々から、瞬きデータを取得する(ステップS26)。算出部112は、取得部111が取得した瞬きデータに基づいて、指標算出処理を行う(ステップS27)。指標算出処理は、上述した第1実施形態と同じでよい。
出力部113は、評価値に応じたデータを生成し、出力する(ステップS28,S29)。出力部113は、時刻と関連付けた評価値を出力する。この場合、映像講義の中で特に関心を集めた場面を特定することができる。また、出力部113は、映像講義の全体の期間における評価値の平均値を出力してもよい。出力部113は、評価値が所定の条件を満たす場面(例えば、評価値が閾値以上の場面)を抽出した動画データを生成し、出力してもよい。これにより、講義の内容の分析や教材の作製、選定などの学校運営に役立てることができる。また、出力部113は、評価値に基づいて、その映像講義を担当した講師の評価値を出力してもよい。この場合、出力部113は、講師と評価値とを関連付けて出力してもよいし、評価値に従って講師の順位付けをして出力してもよい。
なお、本実施形態において、講師とユーザU1~UNとが同じ空間に居て講義が行われる場合、制御部11は配信部114に相当する機能を有していなくてよい。また、制御部21は再生部213に相当する機能を有していなくてよい。
評価値が関心度合いの指標となる理由は、上述の第1実施形態でも説明した。さらに、本件発明者らは、視覚情報を予備校の映像講義に係る動画として検証を行った。この検証では、86人の高校生を被験者とし、映像講義で扱われる問題8問を解く事前テスト、映像講義に係る動画の視聴、及び事後テストを、順次実施した。事後テストは、事前テストから数字などの条件が異なる問題8問を解くテストである。
図23は、映像講義における評価値を示すグラフである。図23に示すグラフにおいて、横軸はタイミング差に対応し、縦軸は評価値に対応する。図23に示すように、およそ0.25秒の時間範囲内のタイミング差の出現頻度が局所的に高くなることを確認した。
図24は、問題ごとの評価値を示すグラフである。本件発明者らは、出題される問題によって、瞬きのタイミングの同期する若干異なることを確認できた。
図25は、問題の正誤答の変化と評価値との関係を示すグラフである。図25に示すように、本件発明者らは、問題の正答率及び理解度と評価値との間に相関は、確認できなかった。
図26は、問題の正誤答と評価値との関係を示すグラフである。図26に示すように、事前テストの前後で正解の被験者(〇→〇)、事後テストのみ正解の被験者(×→〇)、事前テスト及び事後テストいずれも不正解の被験者(×→×)の順で、評価値が高い。事後テストで正答した被験者は、誤答した被験者よりも関心をもって映像講義を受けたと考えられる。よって、動画への関心度合いが高いほど評価値が高い傾向を示すと推測できる。
[第3実施形態]
第3実施形態は、本開示に係るデータ処理システムの端末装置が、テレビジョン放送に係る動画を再生する場合を説明する。
データ処理システム1Bの全体構成は、上述した第1実施形態のデータ処理システム1と同じである。ただし、データ処理システム1Bは、サーバ装置10Bと、複数の端末装置20Bとを備える。サーバ装置10B及び端末装置20Bのハードウェア構成は、それぞれ上述した第1実施形態のサーバ装置10及び端末装置20と同じでよい。
図27は、データ処理システム1Bの機能構成を示すブロック図である。サーバ装置10Bの制御部11は、プログラム131を実行することにより、取得部111と、算出部112と、出力部113とに相当する機能を実現する。
複数の端末装置20Bの各々の制御部21は、プログラム241を実行することにより、瞬き検出部211と、送信部212と、再生部214とに相当する機能を実現する。再生部214は、通信部23を介して受信された放送信号に基づいて、テレビジョン放送に係る動画を再生する。再生された動画は、ユーザインタフェース22を介してユーザに表示される。
次に、データ処理システム1の動作を説明する。図28は、データ処理システム1Bで実行される処理を示すフローチャートである。
端末装置20Bにおいて再生部214は、通信部23を用いて放送信号を受信し、受信した当該放送信号に基づいて。動画の再生を開始する(ステップS31)。瞬き検出部211は、撮像部25にユーザの目を撮像させ、撮像データに基づいてユーザの瞬きを検出する(ステップS11,S12)。ここでは動画の再生開始と同時に瞬きの検出が開始されているが、動画の再生前に開始されてもよい。瞬きの検出のアルゴリズムは上述した第1実施形態と同じでよい。
送信部212は、ユーザの瞬きのタイミングを示す瞬きデータを、通信部23を用いて、サーバ装置10Bへ送信する(ステップS32)。送信部212は、さらに、瞬きデータと対応付けて動画特定情報を、サーバ装置10Bへ送信してもよい。瞬きデータの送信タイミングは、問わない。送信タイミングは、例えば、あらかじめ決められたタイミング(例えば、テレビ番組の終了後)であってもよいし、サーバ装置10Bから要求があったタイミングであってもよい。
サーバ装置10Bにおいて取得部111は、複数の端末装置20Bの各々から、瞬きデータを取得する(ステップS14)。算出部112は、取得部111が取得した瞬きデータに基づいて、指標算出処理を行う(ステップS15)。指標算出処理は、上述した第1実施形態と同じでよい。取得部111は、端末装置20が動画特定情報を送信した場合は、さらに、当該動画特定情報を取得する。また。算出部112は、瞬きデータに加えて、動画特定情報に基づいて、指標算出処理を行ってもよい。出力部113は、評価値に応じたデータを生成し、出力する(ステップS16,S17)。
[第4実施形態]
上述した第1~3実施形態では、視覚情報は、動画であった。これに対し本実施形態の視覚情報は、外界の視覚情報である。視覚情報は、例えば、広告や交通標識などの設置物である。このような外界の視覚情報への関心の度合いを推定することにも、本開示のデータ処理システムを適用できる。
図29は、データ処理システム1Cの全体構成を示す図である。データ処理システム1Cは、サーバ装置10Cと、複数の端末装置20Cとを有する。端末装置20Cは、例えば車載機器で、本実施形態では車両50に設置されている。端末装置20Cは、カーナビゲーションシステムなどの車載機器と一体となっていてもよい。車両50は、ここでは四輪車(例えば自動車)であるが、二輪車(例えばオートバイ)又はその他の車両であってもよい。端末装置20Cは、ユーザ(例えば、ドライバー)の瞬きを検出可能な位置に設けられる。図29には、複数の端末装置20Cとして、端末装置20C-1,20C-2,・・・,20C-N(ただし、Nは2以上の自然数)が示されている。説明の便宜のため、端末装置20C-i(ただし、1≦i≦N)のユーザを、以下では「ユーザUi」と称する。
サーバ装置10Cのハードウェア構成は、上述した第1実施形態のサーバ装置10と同じでよい。
図30は、端末装置20Cのハードウェア構成を示すブロック図である。端末装置20Cは、測位部26を有する点で、上述した第1実施形態の端末装置20と相違する。測位部26は、端末装置20Cの位置を測定して、位置情報を生成する。測位部26は、例えばGPS(Global Positioning System)方式で測位するための受信回路及びアンテナを備える。この場合、測位部26は、緯度情報及び経度情報を含む位置情報を生成する。ただし、測位部26は、基地局測位などのGPS以外の方法で測位してもよい。
図31は、データ処理システム1Cの機能構成を示すブロック図である。サーバ装置10Cの制御部11は、プログラム131を実行することにより、取得部111と、算出部112と、出力部113とに相当する機能を実現する。複数の端末装置20Cの各々の制御部21は、プログラム241を実行することにより、瞬き検出部211と、送信部212とに相当する機能を実現する。送信部212は、瞬きのタイミングを示す瞬きデータと、その瞬きが検出されたときの端末装置20Cの位置を示す位置情報とを、サーバ装置10Cへ送信する。算出部112は、複数のユーザが瞬きをした位置ごとに評価値を算出する。出力部113は、位置と対応付けて評価値に応じたデータを出力する。
次に、データ処理システム1Cの動作を説明する。図32は、データ処理システム1Cで実行される処理を示すフローチャートである。
測位部26は、測位を開始する(ステップS41)。瞬き検出部211は、撮像部25に撮像させて、ユーザの瞬きの検出を行う(ステップS42,S43)。瞬き検出部211は、例えば、車両50の走行中又はカーナビゲーション装置の利用中において、ユーザの瞬きの検出を行う。
送信部212は、測位部26により生成された位置情報と、ユーザの瞬きのタイミングを示す瞬きデータとを対応付けて、通信部23を用いて、サーバ装置10Cへ送信する(ステップS44)。この瞬きデータは、例えば、或る領域に端末装置20C(つまり、車両50)が進入した時刻を開始時点とした時間軸上における瞬きのタイミングを示す。位置情報、及び瞬きデータの送信タイミングは、問わない。送信タイミングは、例えば、あらかじめ決められたタイミング(例えば、所定期間ごと)であってもよいし、サーバ装置10Cから要求があったタイミングであってもよい。
サーバ装置10Cにおいて取得部111は、複数の端末装置20Cの各々から、位置情報と瞬きデータとを取得する(ステップS45)。算出部112は、取得部111が取得した瞬きデータに基づいて、指標算出処理を行う(ステップS46)。本実施形態では、算出部112は、位置に応じた複数のユーザの瞬きのタイミングの差異に基づいて、評価値を算出する。
図33は、データ処理システム1Cで実行される処理を説明する図である。図33に示すように、算出部112は、例えば、所定の領域Y内にいる複数のユーザの瞬きの検出結果に基づいて、評価値を算出する。これにより、領域Yから観察できる領域Y1内に、ユーザの関心の度合いが高い視覚情報が存在するかどうか、また、その関心の度合いを評価することができる。領域Y、Y1の位置及び範囲は、あらかじめ決められてもよい。領域Yは、或るユーザの位置を基準として決められてもよい。
出力部113は、評価値に応じたデータを生成し、出力する(ステップS47,S48)。図34に示すように、出力部113は、例えば、位置情報と評価値とを関連付けたデータDOを出力する。この結果により、車両50の乗車中にユーザの関心を引く視覚情報が存在する位置を把握することができる。例えば、看板Bへの関心度の合いが高い場合、その領域Y内の位置を示す位置情報に対応付けられる評価値が高くなる。よって、看板Bによる広告効果を定量的に把握することができる。また、評価値が高い位置には、通行の支障となる原因がある可能性があるので、該評価値をその原因の把握にも利用することができる。広告や交通標識を観察できる領域で評価値が低い場合、設置場所の再検討にも利用することもできる。また、出力部113は、位置情報と評価値とに応じた情報を、車両50の乗員(ここでは、ドライバー)であるユーザに提供してもよい。例えば、出力部113は、車両50の位置を示す位置情報と評価値とを付けて、記憶部13に記憶させる。そして、出力部113は、記憶部13に蓄積された評価値と位置情報との対応関係に基づいて、複数のユーザの関心を引く対象を特定し、その対象に応じた情報を端末装置20Cへ送信する。この場合において、出力部113は、その対象に応じた位置に存在する車両50の端末装置20Cを送信先として特定してもよい。例えば、複数のユーザが同じ店舗(例えば、コンビニエンスストア)に注目していることが判明した場合、出力部113は、その店舗に関する情報(例えば、店舗情報及びクーポンで例示されるコンテンツ)を、その店舗の付近に存在する車両50の端末装置20Cへ送信する。これにより、複数のユーザの関心を引いた対象に関する情報を、他のユーザも共有することができる。
算出部112は、複数のユーザの瞬きデータと、当該複数のユーザの視線の方向とに基づいて、評価値の計算に用いるユーザのグループを生成してもよい。制御部11は、例えば、撮像部25の撮像データに基づいて、ユーザの視線方向を検出する。位置及び視線の方向が一致又は類似している複数のユーザは、同じ視覚情報を観察している可能性がある。よって、瞬きデータ及び視線方向を併用することで、同じ視覚情報を観察する複数のユーザが同じグループに分類されやすくなる。これにより、図35に示すように、領域Y1よりも狭い領域Y2内にユーザの関心を引く視覚情報が存在すると推測することもできる。
[変形例]
本発明は上記の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。以下の変形例は、特に断りのない限り、第2~第4実施形態の構成にも適用することができる。
(1)視覚情報は動画でなくてもよい。視覚情報は、例えば、ニュースの記事などの文字、図形、写真などの,視覚を通じて認識できる情報を含むコンテンツであってもよい。この場合の視覚情報は、例えば、ユーザの操作に応じて視覚を通じて認識できる情報が変化する。この変形例において、算出部112は、端末装置20に表示されている視覚情報と、その視覚情報の表示中に検出された瞬きとに基づいて、算出部112は視覚情報に対する評価値を算出する。これにより、コンテンツプロバイダが、評価値に基づいてコンテンツへの関心度合いを把握することができる。
(2)ユーザが、撮像部25により撮像されていることに抵抗を感じる場合がある。そこで、ユーザにより撮像部25が視認されるのを妨げる部材が設けられてもよい。図36は、この変形例に係る撮像部25を正面から見た模式図である。この例では、撮像部25に設けられた撮像レンズ251を覆うように、マジックミラー60が設けられている。マジックミラー60は、ユーザの側から撮像レンズ251に透過させるが、撮像レンズ251の側からユーザ側には光を透過させない部材である。これにより、ユーザの抵抗感が軽減される。
(3)上述した実施形態では、撮像部25の撮像データに基づいて瞬きを検出していたが、これ以外の方法が用いられてもよい。図37に示すように、例えば、端末装置20は、撮像部25に代えて、電波センサ(例えば、4GHz電波センサーモジュール)、赤外線センサ、ドップラセンサなどの非接触のセンサ27を用いて、瞬きを検出してもよい。なお、端末装置20が眼鏡型のウェアラブルコンピュータなどのユーザの顔又は頭部に設置される端末装置の場合、センサ27は、筋力の動きなどに基づいて瞬きを検出するセンサであってもよい。
(4)上述した実施形態では、端末装置20が瞬きを検出していたが、サーバ装置10で実行されてもよい。図38は、この変形例に係るデータ処理システムの機能構成を示すブロック図である。端末装置20において送信部212は、撮像部25の撮像データを、通信部23を用いてサーバ装置10へ送信する。サーバ装置10において制御部11は、取得部111と、瞬き検出部115と、算出部112と、出力部113とに相当する機能を実現する。取得部111は、端末装置20から撮像データを取得する。この撮像データは、ユーザの瞬きのタイミングを示すデータである。瞬き検出部115は、取得部111が取得した撮像データに基づいて、ユーザの瞬きを検出する。
図39は、データ処理システム1で実行される処理を示すフローチャートである。端末装置20において送信部212は、撮像により得られた撮像データを、通信部23を用いて、サーバ装置10へ送信する(ステップS11,S51)。サーバ装置10において取得部111は、ユーザの瞬きのタイミングを示すデータとして撮像データを取得する(ステップS52)。瞬き検出部115は、取得した撮像データに基づいて、ユーザの瞬きを検出する(ステップS53)。算出部112は、瞬き検出部115の検出結果に応じた瞬きデータに基づいて、指標算出処理を行う(ステップS15)。出力部113は算出された評価値に応じたデータを生成し、出力する(ステップS16,S17)。
以上説明したように、取得部111が取得するユーザの瞬きのタイミングを示すデータは、上述した瞬きデータであってもよいし、撮像データで例示される瞬きデータを特定するためのデータであってもよい。
(5)上述した実施形態の算出部112の評価値の算出方法は、一例に過ぎない。算出部112は、例えば、時系列で瞬きの回数を計数し、特定の期間(場面)における瞬きの回数に基づいて、評価値を算出してもよい。この場合、算出部112は、複数のユーザの瞬きの回数が多い期間ほど、視覚情報に対する関心の度合いが高いことを示す評価値を算出する。複数のユーザの瞬きの回数が多い期間は、それ以外の期間よりも、瞬きのタイミング差が小さいと考えられるからである。
要するに、本開示に係るデータ処理装置は、図40に示すように、ユーザの瞬きのタイミングを示すデータを取得する取得部101と、複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの瞬きのタイミングの一致度合いに応じた指標を算出する算出部102と、前記指標に応じたデータを出力する出力部103と、を備えていればよい。
(6)サーバ装置10,10A,10B,10Cの制御部11、及び端末装置20,20A,20B,20Cが実現する機能は、複数のプログラムの組み合わせによって実現され、又は複数のハードウェア資源の連係によって実現され得る。制御部11又は21の機能がプログラムを用いて実現される場合、この機能を実現するためのプログラム131又は241が、各種の磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、ネットワークを介して配信されてもよい。また、本発明は、データ処理方法としても把握することができる。
1,1A,1B,1C:データ処理システム、10,10A,10B,10C:サーバ装置、11:制御部、12:通信部、13:記憶部、20,20A,20B,20C:端末装置、21:制御部、22:ユーザインタフェース、23:通信部、24:記憶部、25:撮像部、26:測位部、30:動画再生装置、40:座席、50:車両、60:マジックミラー、101:取得部、102:算出部、103:出力部、111:取得部、112:算出部、113:出力部、114:配信部、115:瞬き検出部、131:プログラム、211:瞬き検出部、212:送信部、213:再生部、214:再生部、241:プログラム、251:撮像レンズ

Claims (25)

  1. ユーザの瞬きのタイミングを示すデータを取得する取得部と、
    複数のユーザが所定の視覚情報を観察している期間を特定し、特定した当該期間における前記複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの中から所定の規則に従って分類された一部のユーザを含む複数のグループのユーザの前記所定の視覚情報に対する瞬きのタイミングの同期度合いに応じ、前記グループ毎の前記所定の視覚情報に対する関心の度合いを示す指標を算出する算出部と、
    前記指標に応じたデータを出力する出力部と、
    を備える
    データ処理装置。
  2. 前記算出部は、前記差異が所定の時間範囲内に含まれる度合いに応じた前記指標を算出する請求項1に記載のデータ処理装置。
  3. 前記時間範囲は300ミリ秒以下である請求項2に記載のデータ処理装置。
  4. 前記複数のユーザは、第1ユーザと第2ユーザとを含み、
    前記算出部は、所定の時間軸上に時刻順に並べた前記第1ユーザ及び前記第2ユーザの瞬きのタイミングの差異と、前記時間軸上で前記第1ユーザ及び前記第2ユーザの少なくとも一方のユーザの瞬きの間隔の順番を変更した場合の前記第1ユーザ及び前記第2ユーザの瞬きのタイミングの差異とに基づいて、前記指標を算出する
    請求項2に記載のデータ処理装置。
  5. 前記指標はZ値である請求項2に記載のデータ処理装置。
  6. 前記指標に応じたデータは、関心の度合いを示すデータである、請求項1に記載のデータ処理装置。
  7. 前記算出部は、所定の期間を複数の単位期間に区分し、当該単位期間ごとに前記指標を算出する請求項1に記載のデータ処理装置。
  8. 前記出力部は、前記複数の単位期間の各々に前記指標を対応付けて出力する請求項7に
    記載のデータ処理装置。
  9. 前記視覚情報は動画である請求項1に記載のデータ処理装置。
  10. 前記算出部は、前記複数のユーザが瞬きをした位置ごとに、前記差異に基づいて前記指標を算出し、
    前記出力部は、前記位置と対応付けて前記指標に応じたデータを出力する請求項9に記載のデータ処理装置。
  11. ユーザの瞬きを検出する瞬き検出部と、
    請求項1に記載のデータ処理装置と
    を有する
    データ処理システム。
  12. 複数の端末装置と、
    サーバ装置と
    を備え、
    前記複数の端末装置の各々は、
    前記瞬き検出部と、
    自端末装置のユーザの瞬きのタイミングを示すデータを、前記サーバ装置へ送信する送信部と、
    を有し、
    前記サーバ装置は、
    前記データ処理装置を有する
    請求項11に記載のデータ処理システム。
  13. 前記複数の端末装置の各々は、
    自端末装置のユーザの目を撮像して、撮像データを生成する撮像部を有し、
    前記送信部は、前記撮像データを前記サーバ装置へ送信する
    請求項12に記載のデータ処理システム。
  14. ユーザの瞬きのタイミングを示すデータを取得し、
    複数のユーザが所定の視覚情報を観察している期間を特定し、特定した当該期間における前記複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの中から所定の規則に従って分類された一部のユーザを含む複数のグループのユーザの前記所定の視覚情報に対する瞬きのタイミングの同期度合いに応じ、前記グループ毎の前記所定の視覚情報に対する関心の度合いを示す指標を算出するデータ処理方法。
  15. コンピュータに、
    ユーザの瞬きのタイミングを示すデータを取得し、
    複数のユーザが所定の視覚情報を観察している期間を特定し、特定した当該期間における前記複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの中から所定の規則に従って分類された一部のユーザを含む複数のグループのユーザの前記所定の視覚情報に対する瞬きのタイミングの同期度合いに応じ、前記グループ毎の前記所定の視覚情報に対する関心の度合いを示す指標を算出する処理を実行させるためのプログラム。
  16. ユーザの瞬きのタイミングを示すデータを取得する取得部と、
    複数のユーザが所定の視覚情報を観察している期間を特定し、特定した当該期間における前記複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの前記所定の視覚情報に対する瞬きのタイミングの同期度合いに応じ、前記複数のユーザからなるグループとしての前記所定の視覚情報に対する関心の度合いを示す指標を算出する算出部と、
    前記指標に応じたデータを出力する出力部と、
    を備える
    データ処理装置。
  17. 前記算出部は、前記差異が所定の時間範囲内に含まれる度合いに応じた前記指標を算出する請求項16に記載のデータ処理装置。
  18. 前記時間範囲は300ミリ秒以下である請求項17に記載のデータ処理装置。
  19. 前記複数のユーザは、第1ユーザと第2ユーザとを含み、
    前記算出部は、所定の時間軸上に時刻順に並べた前記第1ユーザ及び前記第2ユーザの瞬きのタイミングの差異と、前記時間軸上で前記第1ユーザ及び前記第2ユーザの少なくとも一方のユーザの瞬きの間隔の順番を変更した場合の前記第1ユーザ及び前記第2ユーザの瞬きのタイミングの差異とに基づいて、前記指標を算出する
    請求項17に記載のデータ処理装置。
  20. 前記視覚情報は動画である請求項16に記載のデータ処理装置。
  21. 前記算出部は、前記複数のユーザが瞬きをした位置ごとに、前記差異に基づいて前記指標を算出し、
    前記出力部は、前記位置と対応付けて前記指標に応じたデータを出力する請求項20に記載のデータ処理装置。
  22. ユーザの瞬きを検出する瞬き検出部と、
    請求項16に記載のデータ処理装置と
    を有する
    データ処理システム。
  23. 複数の端末装置と、
    サーバ装置と
    を備え、
    前記複数の端末装置の各々は、
    前記瞬き検出部と、
    自端末装置のユーザの瞬きのタイミングを示すデータを、前記サーバ装置へ送信する送信部と、
    を有し、
    前記サーバ装置は、
    前記データ処理装置を有する
    請求項22に記載のデータ処理システム。
  24. ユーザの瞬きのタイミングを示すデータを取得し、
    複数のユーザが所定の視覚情報を観察している期間を特定し、特定した当該期間における前記複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの前記所定の視覚情報に対する瞬きのタイミングの同期度合いに応じ、前記複数のユーザからなるグループとしての前記所定の視覚情報に対する関心の度合いを示す指標を算出するデータ処理方法。
  25. コンピュータに、
    ユーザの瞬きのタイミングを示すデータを取得し、
    複数のユーザが所定の視覚情報を観察している期間を特定し、特定した当該期間における前記複数のユーザの前記瞬きのタイミングの差異に基づいて、前記複数のユーザの前記所定の視覚情報に対する瞬きのタイミングの同期度合いに応じ、前記複数のユーザからなるグループとしての前記所定の視覚情報に対する関心の度合いを示す指標を算出する処理を実行させるためのプログラム。
JP2018055033A 2018-03-22 2018-03-22 データ処理装置、データ処理システム、データ処理方法、及びプログラム Active JP7185892B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018055033A JP7185892B2 (ja) 2018-03-22 2018-03-22 データ処理装置、データ処理システム、データ処理方法、及びプログラム
CN201980020916.4A CN111886565A (zh) 2018-03-22 2019-03-07 处理装置、处理方法、数据处理装置、数据处理系统、数据处理方法和程序
PCT/JP2019/009115 WO2019181537A1 (ja) 2018-03-22 2019-03-07 処理装置、処理方法、データ処理装置、データ処理システム、データ処理方法及びプログラム
KR1020207030046A KR102516751B1 (ko) 2018-03-22 2019-03-07 처리 장치, 처리 방법, 데이터 처리 장치, 데이터 처리 시스템, 데이터 처리 방법 및 프로그램
US17/023,992 US11983309B2 (en) 2018-03-22 2020-09-17 Device and method to acquire timing of blink motion performed by a dialogue device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018055033A JP7185892B2 (ja) 2018-03-22 2018-03-22 データ処理装置、データ処理システム、データ処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019169805A JP2019169805A (ja) 2019-10-03
JP2019169805A5 JP2019169805A5 (ja) 2021-04-22
JP7185892B2 true JP7185892B2 (ja) 2022-12-08

Family

ID=68107573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018055033A Active JP7185892B2 (ja) 2018-03-22 2018-03-22 データ処理装置、データ処理システム、データ処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7185892B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023089812A1 (ja) * 2021-11-22 2023-05-25 日本電信電話株式会社 状態推定装置、状態推定方法、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tamami Nakano et al.,Synchronization of spontaneous eyeblinks while viewing video stories,Proceedings of the Royal Society B,The ROYAL SOCIETY,2009年07月29日,p.3635-3644,http://rspb.royalsocietypublishing.org/content/royprsb/early/2009/07/24/rspb.2009.0828.full.pdf

Also Published As

Publication number Publication date
JP2019169805A (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
US9179191B2 (en) Information processing apparatus, information processing method, and program
WO2009096428A1 (ja) 表示システム、表示効果測定システム、表示方法、表示効果測定方法、及び、記録媒体
US20160232561A1 (en) Visual object efficacy measuring device
US9411414B2 (en) Method and system for providing immersive effects
WO2008072739A1 (ja) 視聴傾向管理装置、システム及びプログラム
KR20100039706A (ko) 사용자의 반응 분석을 이용한 컨텐츠의 동적 서비스 방법 및 그 장치
US10013889B2 (en) Method and system for enhancing interactions between teachers and students
US20140351836A1 (en) Content providing program, content providing method, and content providing apparatus
US20130018735A1 (en) System and Method for interaction specific advertising media distribution
KR20140068634A (ko) 지능형 광고를 위한 얼굴 영상 분석시스템
JP7185892B2 (ja) データ処理装置、データ処理システム、データ処理方法、及びプログラム
KR20180025754A (ko) 디스플레이장치 및 그 제어방법
WO2022041182A1 (zh) 音乐推荐方法和装置
US11983309B2 (en) Device and method to acquire timing of blink motion performed by a dialogue device
CN116563924A (zh) 基于车内人脸图像推荐多媒体数据的方法及装置
JP2014060642A (ja) 表示装置及び表示システム
KR102428955B1 (ko) 딥 러닝을 이용한 인공지능 기반 3d 디스플레이 광고 영상 제공방법 및 시스템
CN110602534B (zh) 一种信息处理方法、设备及计算机可读存储介质
JP7043818B2 (ja) 情報処理方法及び情報処理装置
KR101570870B1 (ko) 안구 인식 기반의 동영상 시청확인에 의한 동영상 난이도 추정 시스템
WO2022239117A1 (ja) 情報処理装置、コンテンツ表示システム、コンテンツ表示方法
KR101453788B1 (ko) 대상물 인식을 이용한 스마트 tv 기반의 감성광고 방법
KR101506664B1 (ko) 광고비 산출 기능을 구비한 감성광고 기반의 스마트 tv의 광고 제공 방법
WO2020250080A1 (en) System and method for context aware digital media management
CN111932313A (zh) 一种广告播放方法和装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221118

R150 Certificate of patent or registration of utility model

Ref document number: 7185892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150