JP6369462B2 - クライアント装置、制御方法、システム、およびプログラム - Google Patents
クライアント装置、制御方法、システム、およびプログラム Download PDFInfo
- Publication number
- JP6369462B2 JP6369462B2 JP2015519740A JP2015519740A JP6369462B2 JP 6369462 B2 JP6369462 B2 JP 6369462B2 JP 2015519740 A JP2015519740 A JP 2015519740A JP 2015519740 A JP2015519740 A JP 2015519740A JP 6369462 B2 JP6369462 B2 JP 6369462B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- expression data
- viewing
- unit
- client device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 24
- 230000008451 emotion Effects 0.000 claims description 384
- 230000014509 gene expression Effects 0.000 claims description 184
- 238000006243 chemical reaction Methods 0.000 claims description 134
- 230000010354 integration Effects 0.000 claims description 54
- 230000004044 response Effects 0.000 claims description 27
- 230000002996 emotional effect Effects 0.000 claims description 24
- 230000005540 biological transmission Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 7
- 238000005562 fading Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 38
- 238000001514 detection method Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000002889 sympathetic effect Effects 0.000 description 5
- 206010011469 Crying Diseases 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010022998 Irritability Diseases 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012559 user support system Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.本開示の一実施形態による視聴反応フィードバックシステムの概要
2.各実施形態
2−1.第1の実施形態
2−1−1.構成
2−1−2.動作処理
2−2.第2の実施形態
2−3.第3の実施形態
2−4.第4の実施形態
3.まとめ
まず、本開示の一実施形態による視聴反応フィードバックシステムの概要について図1を参照して説明する。図1は、本開示の一実施形態による視聴反応フィードバックシステムの概要について説明するための図である。
ここで、複数のユーザが遠隔地で同じコンテンツを視聴して視聴反応を共有する方法としては、状況に応じて以下のような方法が考えられる。
友達や知人など面識ある特定のユーザ同士で同じコンテンツを視聴して感情を共有する状況が想定される。この場合、同じコンテンツを視聴しながら、ビデオ、音声、テキスト等を送受信可能な通信サービスを用いることで、感想を交換し合うことが可能である。しかし、テキストの場合、コンテンツを視聴しながら文字入力を行う必要があるので、コンテンツ視聴が妨げられてしまう。また、ビデオや音声を用いた場合、文字入力の手間は省けるが、お互いの会話や映像が全て筒抜けになってしまう。例えばコンテンツに関係のない家族の会話等も全て他のユーザに伝わってしまい、他のユーザのコンテンツ視聴の妨げとなってしまう。
例えばユーザが自宅でスポーツ観戦する際、ユーザが応援しているチームの他のサポータ等の不特定多数の他ユーザと感情を共有して一緒に盛り上がることができれば、コンテンツ視聴をより楽しむことができる。通常、テレビジョン装置でスポーツ観戦する場合、両方のチームのサポータの音声(試合会場で収音された音声)が聞こえてしまうので、ユーザが応援しているチームの他のサポータと一緒に盛り上がっている感覚を得ることが困難である。
<2−1.第1の実施形態>
まず、第1の実施形態による視聴反応フィードバックシステムについて、図3〜図8を参照して説明する。
図3は、第1の実施形態による視聴反応フィードバックシステムを形成する各装置の内部構成の一例を示すブロック図である。図3に示すように、本実施形態による視聴反応フィードバックシステムは、複数のクライアント装置1A−1、1B−1と、サーバ2−1を有する。
クライアント装置1A−1は、図1に示す視聴環境Aを制御する装置であって、具体的には、図3に示すように、反応情報取得部12、感情推定部13、および送信部15を有する。
サーバ2−1は、複数の視聴環境に居る各視聴ユーザの感情推定結果を統合し、統合結果を各視聴環境のクライアント装置に送信する。具体的には、本実施形態によるサーバ2−1は、図3に示すように、受信部21、統合部23、および送信部25を有する。
クライアント装置1B−1は、図1に示す視聴環境Bを制御する装置であって、サーバ2−1から送信された統合結果に基づいて、感情表現データを決定し、情報提示装置(例えばテレビジョン装置30B)から出力する。
図8は、本実施形態による視聴反応フィードバックシステムの動作処理を示すフローチャートである。図8に示すように、まず、ステップS203において、クライアント装置1A−1の反応情報取得部12は、視聴ユーザ3Aの反応情報をセンサ11Aから取得する。
上述した第1の実施形態では、各視聴ユーザの反応が、感情表現データに差し替えられて提示されるので、コンテンツの視聴が妨げられず、不特定多数の各視聴ユーザのプライバシーも保護される。しかし、面識ある特定のユーザ同士で本実施形態による視聴反応フィードバックシステムを利用する場合は、視聴ユーザの生の音声を他の視聴ユーザに提示しても、視聴ユーザのプライバシーは特に問題にならない。
図9は、第2の実施形態による視聴反応フィードバックシステムを形成する各装置の内部構成の一例を示すブロック図である。図9に示すように、本実施形態による視聴反応フィードバックシステムは、複数のクライアント装置1A−2、1B−2と、サーバ2−2を有する。
クライアント装置1A−2は、図1に示す視聴環境Aを制御する装置であって、具体的には、図9に示すように、反応情報取得部12、感情推定部13、抽出部14、および送信部15を有する。
サーバ2−2は、図9に示すように、受信部21、統合部23、送信部25、およびユーザ情報DB(データベース)28を有する。受信部21、統合部23、および送信部25の機能は、図3を参照して説明した第1の実施形態と同様である。ユーザ情報DB28には、どの視聴ユーザにとって誰が特定の視聴ユーザ(友人、知人等、面識のある他の視聴ユーザ)になるのか、または不特定多数の視聴ユーザ(面識のない他の視聴ユーザ)になるのかといったデータが格納されている。具体的には、例えば、互いに面識のある特定の視聴ユーザ同士には同じグループIDが対応付けられる(なお面識ある特定視聴ユーザ同士の組み合わせが複数ある場合は、組み合わせ毎に異なるグループIDが用いられる)。したがって、同じグループIDが対応付けられている他の視聴ユーザは面識のある特定の他の視聴ユーザであって、同じグループIDが対応付けられていない他の視聴ユーザは、面識のない不特定の他の視聴ユーザであるとされる。本実施形態によるサーバ2−2は、視聴ユーザ3Aと面識のある特定の他の視聴ユーザ(例えば視聴ユーザ3B)に対しては、統合部23による統合結果と共に、視聴ユーザ3Aの音声による感情表現データを送信する。一方、視聴ユーザ3Aと面識のない不特定多数の他の視聴ユーザ(例えば視聴ユーザ3C、3D)に対しては、サーバ2−2は、統合部23による統合結果のみを送信する。
クライアント装置1B−2は、図1に示す視聴環境Bを制御する装置であって、具体的には、図9に示すように、受信部16および出力制御部18を有する。ここで、視聴環境Bは、視聴ユーザ3Aと面識のある友人、知人等の特定の他の視聴ユーザである視聴ユーザ3Bが居る環境であることを想定する。どの視聴ユーザにとって誰が特定の視聴ユーザになるのか、または不特定多数の視聴ユーザになるのかは、上述したように、サーバ2−2側で管理されている。視聴環境Bを制御するクライアント装置1B−2は、受信部16によりサーバ2−2から受信した視聴ユーザ3Aの音声による感情表現データを、出力制御部18により情報提示装置(例えばテレビジョン装置30B)から出力するよう制御する。
ここで、視聴しているコンテンツのシーン、例えばサッカーのゴールシーンやファールシーンのような盛り上がる場面によっては、親しいユーザ同士が直接コメントを伝えたいと思う場合もある。そこで、第2の実施形態の変形例として、盛り上がり(特定共感シーン)が検出された場合は、一時的に直接的なコミュニケーションを可能とする。なお直接的なコミュニケーションは、盛り上がり(特定共感シーン)が検出された際に一時的にだけ行えるようにすることで、ユーザの視聴を妨げずに利便性を向上させることができる。以下、図10を参照して具体的に説明する。
クライアント装置1A−2’は、図1に示す視聴環境Aを制御する装置であって、具体的には、図10に示すように、反応情報取得部12A、感情推定部13、通信部10A、出力制御部18Aを有する。反応情報取得部12Aおよび感情推定部13は、図3を参照して説明した第1の実施形態と同様の機能を有する。
サーバ2−2’は、図10に示すように、通信部22、統合部23、および特定共感シーン検出部24を有する。
クライアント装置1B−2’は、図1に示す視聴環境Bを制御する装置であって、具体的には、図10に示すように、反応情報取得部12B、通信部10B、および出力制御部18Bを有する。
以上説明したように、ネットワークを介してサーバ2に接続された複数の視聴環境に対して、各視聴ユーザの感情推定結果の統合結果に基づく感情表現データを提示することで、各視聴ユーザは、共感をより強めることが可能となる。このような感情表現データの提示により視聴ユーザの共感を強めるシステムは、視聴環境が1つの場合にも適用され得る。視聴環境が1つしかない場合、他の視聴ユーザの感情推定結果の統合結果を用いることができないが、ユーザ指示の感情推定結果に基づいて、非言語リアクション等による感情表現データを決定し、ユーザ自身に提示することで、ユーザが感じている感情をより強く、増幅することができる。このような単一の視聴環境による本開示によるシステムの適用を、以下、感情アンプリファとも称する。以下、本実施形態による感情アンプリファについて、図11を参照して具体的に説明する。
以上第1〜第3の実施形態では、コンテンツをリアルタイムで視聴している視聴ユーザ間で感情表現データを提示し、各視聴ユーザの共感をより強めているが、本開示による視聴反応フィードバックシステムはこれに限定されない。例えば、各視聴ユーザの感情推定結果または統合結果を、コンテンツの該当シーンにタグ付け(以下、感情タグとも称す)することで、後から当該感情タグを用いてコンテンツを検索したり推薦したり感情表現データの提示を行ったりすることも可能である。
クライアント装置1A−4は、図1に示す視聴環境Aを制御する装置であって、具体的には、図12に示すように、反応情報取得部12A、感情推定部13A、通信部10A、およびコンテンツ処理部19Aを有する。反応情報取得部12A、感情推定部13A、および通信部10Aは、図10を参照して説明した第2の実施形態と同様である。
クライアント装置1B−4は、図1に示す視聴環境Bを制御する装置であって、具体的には、図12に示すように、反応情報取得部12B、感情推定部13B、通信部10B、およびコンテンツ処理部19Bを有する。反応情報取得部12Bおよび通信部10Bは、図10を参照して説明した第2の実施形態によると同様である。
サーバ2−4は、図12に示すように、受信部21、対応付け部26、感情タグ生成部27、および送信部25を有する。
上述したように、本実施形態では、視聴ユーザの視聴を妨げることなく、また、視聴ユーザのプライバシーも保護できる方法で、他の視聴ユーザまたは視聴ユーザ本人の視聴反応を示す感情表現データをフィードバックし、共感を強めさせることができる。
例えば、ユーザ3Aが、あるゲームを不特定多数の他のユーザと一緒にプレイしている際に、非言語リアクションを用いてユーザ3Aと同じチームのユーザの感情を提示してもよい。
(1)
コンテンツに対する視聴ユーザの反応を取得する取得部と、
前記取得部による取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定する感情推定部と、
前記感情推定部による推定された感情を表す感情表現データを決定する決定部と、
前記決定部により決定された感情表現データを出力する出力部と、
を備える、クライアント装置。
(2)
前記決定部は、複数の視聴ユーザの感情推定結果が統合された感情に基づいて、前記感情表現データを決定する、前記(1)に記載のクライアント装置。
(3)
前記クライアント装置は、
前記感情推定部により推定した感情を示す情報を、サーバに送信する送信部と、
前記複数の視聴ユーザの感情推定結果が統合された感情を示す情報を、前記サーバから受信する受信部と、
をさらに備える、前記(2)に記載のクライアント装置。
(4)
前記複数の視聴ユーザの感情推定結果とは、特定視聴ユーザの感情推定結果である、前記(2)または(3)に記載のクライアント装置。
(5)
前記複数の視聴ユーザの感情推定結果とは、不特定多数の視聴ユーザの感情推定結果である、前記(2)または(3)に記載のクライアント装置。
(6)
前記出力部は、特定視聴ユーザの感情推定結果の統合に基づいて決定された第1の感情表現データの出力開始後、不特定多数の視聴ユーザの感情推定結果の統合に基づいて決定された第2の感情表現データの出力を開始する、前記(2)に記載のクライアント装置。
(7)
前記出力部は、前記第1の感情表現データの出力を終了した後、前記第2の感情表現データの出力を開始する、前記(6)に記載のクライアント装置。
(8)
前記出力部は、前記第1の感情表現データの出力をフェードアウトさせながら、前記第2の感情表現データの出力をフェードインさせる、前記(6)に記載のクライアント装置。
(9)
前記出力部は、前記第2の感情表現データの出力を開始する際、前記第1の感情表現データの出力値を前記第2の感情表現データの出力値より下げる、前記(6)に記載のクライアント装置。
(10)
前記決定部は、前記感情表現データを、音声データ、テキストデータ、または描画データにより生成する、前記(1)〜(9)のいずれか1項に記載のクライアント装置。
(11)
前記感情表現データは、所定の感情を表す擬声語、感嘆詞、効果音、または効果線である、前記(10)に記載のクライアント装置。
(12)
前記決定部は、前記コンテンツの視聴者層、または前記視聴ユーザの属性の少なくともいずれかに応じた種類の感情表現データを決定する、前記(1)〜(11)のいずれか1項に記載のクライアント装置。
(13)
前記取得部は、前記視聴ユーザの反応として前記視聴ユーザの音声を収音する、前記(1)〜(12)のいずれか1項に記載のクライアント装置。
(14)
前記クライアント装置は、
前記収音した視聴ユーザの音声から前記感情表現データを抽出する抽出部と、
前記抽出部により抽出した前記感情表現データをサーバに送信する送信部と、
をさらに備える、前記(13)に記載のクライアント装置。
(15)
前記取得部は、前記視聴ユーザの反応として前記視聴ユーザの顔画像を撮像する、前記(1)〜(14)のいずれか1項に記載のクライアント装置。
(16)
前記出力部は、前記感情表現データを音声および表示の少なくともいずれかにより出力する、前記(1)〜(15)のいずれか1項に記載のクライアント装置。
(17)
前記出力部は、外部装置と連携して前記感情表現データを出力する、前記(1)〜(16)のいずれか1項に記載のクライアント装置。
(18)
コンテンツに対する視聴ユーザの反応を取得するステップと、
前記取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定するステップと、
前記推定された感情を表す感情表現データを決定するステップと、
前記決定された感情表現データを出力するステップと、
を含む、制御方法。
(19)
コンテンツに対する視聴ユーザの反応を取得する取得部と;
前記取得部による取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定する感情推定部と;
サーバから受信した推定感情結果の統合結果に基づいて、感情表現データを決定する決定部と;
前記決定部により決定された感情表現データを出力する出力部と;
を有するクライアント装置と、
複数の前記クライアント装置から受信した前記視聴ユーザの感情推定結果を統合する統合部を有するサーバと、
を備える、システム。
(20)
コンピュータを、
コンテンツに対する視聴ユーザの反応を取得する取得部と、
前記取得部による取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定する感情推定部と、
前記感情推定部による推定された感情を表す感情表現データを決定する決定部と、
前記決定部により決定された感情表現データを出力する出力部と、
として機能させるためのプログラム。
2、2−1〜2−4 サーバ
3、3A〜3D 視聴ユーザ
4 スピーカ
10 通信部
11 センサ
12 反応情報取得部
13 感情推定部
14 抽出部
15 送信部
16 受信部
17 決定部
18 出力制御部
19 コンテンツ処理部
21 受信部
22 通信部
23 統合部
24 特定共感シーン検出部
25 送信部
26 対応付け部
27 感情タグ生成部
28 ユーザ情報DB
30 テレビジョン装置
Claims (18)
- コンテンツに対する視聴ユーザの反応を取得する取得部と、
前記取得部による取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定する感情推定部と、
前記感情推定部による推定された感情を表す感情表現データを決定する決定部と、
前記決定部により決定された感情表現データを出力する出力部と、
を備え、
前記決定部は、複数の視聴ユーザの感情推定結果が統合された感情に基づいて、前記感情表現データを決定し、
前記出力部は、特定視聴ユーザの感情推定結果の統合に基づいて決定された第1の感情表現データの出力開始後、不特定多数の視聴ユーザの感情推定結果の統合に基づいて決定された第2の感情表現データの出力を開始する、クライアント装置。 - 前記クライアント装置は、
前記感情推定部により推定した感情を示す情報を、サーバに送信する送信部と、
前記複数の視聴ユーザの感情推定結果が統合された感情を示す情報を、前記サーバから受信する受信部と、
をさらに備える、請求項1に記載のクライアント装置。 - 前記複数の視聴ユーザの感情推定結果とは、特定視聴ユーザの感情推定結果である、請求項1に記載のクライアント装置。
- 前記複数の視聴ユーザの感情推定結果とは、不特定多数の視聴ユーザの感情推定結果である、請求項1に記載のクライアント装置。
- 前記出力部は、前記第1の感情表現データの出力を終了した後、前記第2の感情表現データの出力を開始する、請求項1に記載のクライアント装置。
- 前記出力部は、前記第1の感情表現データの出力をフェードアウトさせながら、前記第2の感情表現データの出力をフェードインさせる、請求項1に記載のクライアント装置。
- 前記出力部は、前記第2の感情表現データの出力を開始する際、前記第1の感情表現データの出力値を前記第2の感情表現データの出力値より下げる、請求項1に記載のクライアント装置。
- 前記感情表現データは、音声データ、テキストデータ、または描画データにより形成される、請求項1に記載のクライアント装置。
- 前記感情表現データは、所定の感情を表す擬声語、感嘆詞、効果音、または効果線である、請求項8に記載のクライアント装置。
- 前記決定部は、前記コンテンツの視聴者層、または前記視聴ユーザの属性の少なくともいずれかに応じた種類の感情表現データを決定する、請求項1に記載のクライアント装置。
- 前記取得部は、前記視聴ユーザの反応として前記視聴ユーザの音声を収音する、請求項1に記載のクライアント装置。
- 前記クライアント装置は、
前記収音した視聴ユーザの音声から前記感情表現データを抽出する抽出部と、
前記抽出部により抽出した前記感情表現データをサーバに送信する送信部と、
をさらに備える、請求項11に記載のクライアント装置。 - 前記取得部は、前記視聴ユーザの反応として前記視聴ユーザの顔画像を撮像する、請求項1に記載のクライアント装置。
- 前記出力部は、前記感情表現データを音声および表示の少なくともいずれかにより出力する、請求項1に記載のクライアント装置。
- 前記出力部は、外部装置と連携して前記感情表現データを出力する、請求項1に記載のクライアント装置。
- コンテンツに対する視聴ユーザの反応を取得するステップと、
前記取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定するステップと、
前記推定された感情を表す感情表現データを決定するステップと、
前記決定された感情表現データを出力するステップと、
を含み、
前記決定するステップは、複数の視聴ユーザの感情推定結果が統合された感情に基づいて、前記感情表現データを決定し、
前記出力するステップは、特定視聴ユーザの感情推定結果の統合に基づいて決定された第1の感情表現データの出力開始後、不特定多数の視聴ユーザの感情推定結果の統合に基づいて決定された第2の感情表現データの出力を開始する、制御方法。 - コンテンツに対する視聴ユーザの反応を取得する取得部と;
前記取得部による取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定する感情推定部と;
サーバから受信した推定感情結果の統合結果に基づいて、感情表現データを決定する決定部と;
前記決定部により決定された感情表現データを出力する出力部と;
を有するクライアント装置と、
複数の前記クライアント装置から受信した前記視聴ユーザの感情推定結果を統合する統合部を有するサーバと、
を備え、
前記決定部は、複数の視聴ユーザの感情推定結果が統合された感情に基づいて、前記感情表現データを決定し、
前記出力部は、特定視聴ユーザの感情推定結果の統合に基づいて決定された第1の感情表現データの出力開始後、不特定多数の視聴ユーザの感情推定結果の統合に基づいて決定された第2の感情表現データの出力を開始する、システム。 - コンピュータを、
コンテンツに対する視聴ユーザの反応を取得する取得部と、
前記取得部による取得された視聴ユーザの反応情報に基づいて、前記視聴ユーザの感情を推定する感情推定部と、
前記感情推定部による推定された感情を表す感情表現データを決定する決定部と、
前記決定部により決定された感情表現データを出力する出力部と、
として機能させ、
前記決定部は、複数の視聴ユーザの感情推定結果が統合された感情に基づいて、前記感情表現データを決定し、
前記出力部は、特定視聴ユーザの感情推定結果の統合に基づいて決定された第1の感情表現データの出力開始後、不特定多数の視聴ユーザの感情推定結果の統合に基づいて決定された第2の感情表現データの出力を開始する、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013113768 | 2013-05-30 | ||
JP2013113768 | 2013-05-30 | ||
PCT/JP2014/061071 WO2014192457A1 (ja) | 2013-05-30 | 2014-04-18 | クライアント装置、制御方法、システム、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014192457A1 JPWO2014192457A1 (ja) | 2017-02-23 |
JP6369462B2 true JP6369462B2 (ja) | 2018-08-08 |
Family
ID=51988496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015519740A Expired - Fee Related JP6369462B2 (ja) | 2013-05-30 | 2014-04-18 | クライアント装置、制御方法、システム、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10225608B2 (ja) |
EP (1) | EP3007456A4 (ja) |
JP (1) | JP6369462B2 (ja) |
CN (1) | CN105247879B (ja) |
BR (1) | BR112015029324A2 (ja) |
WO (1) | WO2014192457A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10638197B2 (en) * | 2011-11-07 | 2020-04-28 | Monet Networks, Inc. | System and method for segment relevance detection for digital content using multimodal correlations |
US11064257B2 (en) * | 2011-11-07 | 2021-07-13 | Monet Networks, Inc. | System and method for segment relevance detection for digital content |
KR102337509B1 (ko) * | 2014-08-29 | 2021-12-09 | 삼성전자주식회사 | 컨텐츠 제공 방법 및 그 전자 장치 |
US9671862B2 (en) * | 2014-10-15 | 2017-06-06 | Wipro Limited | System and method for recommending content to a user based on user's interest |
JP6367748B2 (ja) * | 2015-04-10 | 2018-08-01 | 日本電信電話株式会社 | 認識装置、映像コンテンツ提示システム |
WO2017094328A1 (ja) * | 2015-11-30 | 2017-06-08 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10534955B2 (en) * | 2016-01-22 | 2020-01-14 | Dreamworks Animation L.L.C. | Facial capture analysis and training system |
EP3425635A4 (en) * | 2016-02-29 | 2019-03-27 | Panasonic Intellectual Property Management Co., Ltd. | AUDIO PROCESSING DEVICE, IMAGE PROCESSING DEVICE, MICROPHONE NETWORK SYSTEM, AND AUDIO PROCESSING METHOD |
JP6720575B2 (ja) * | 2016-02-29 | 2020-07-08 | 株式会社ニコン | 動画再生装置および動画処理装置 |
US10304447B2 (en) | 2017-01-25 | 2019-05-28 | International Business Machines Corporation | Conflict resolution enhancement system |
JP6767322B2 (ja) * | 2017-08-18 | 2020-10-14 | ヤフー株式会社 | 出力制御装置、出力制御方法及び出力制御プログラム |
WO2019073661A1 (ja) * | 2017-10-13 | 2019-04-18 | ソニー株式会社 | 情報処理装置、情報処理方法、情報処理システム、表示装置及び予約システム |
KR101974130B1 (ko) * | 2018-02-02 | 2019-04-30 | 동서대학교 산학협력단 | 관객의 감정정보를 이용한 실시간 반응형 콘텐츠 제공 시스템 |
JP7098949B2 (ja) * | 2018-02-14 | 2022-07-12 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
US10820060B1 (en) * | 2018-06-27 | 2020-10-27 | Facebook, Inc. | Asynchronous co-watching |
CN108833992A (zh) * | 2018-06-29 | 2018-11-16 | 北京优酷科技有限公司 | 字幕显示方法及装置 |
US20200184979A1 (en) * | 2018-12-05 | 2020-06-11 | Nice Ltd. | Systems and methods to determine that a speaker is human using a signal to the speaker |
JP7189434B2 (ja) * | 2019-01-11 | 2022-12-14 | ダイキン工業株式会社 | 空間制御システム |
JP7212255B2 (ja) * | 2019-02-04 | 2023-01-25 | 株式会社Mixi | 情報処理システム,制御プログラム及び情報処理装置 |
WO2020184122A1 (ja) * | 2019-03-11 | 2020-09-17 | ソニー株式会社 | 情報処理装置、および情報処理システム |
WO2020217373A1 (ja) * | 2019-04-25 | 2020-10-29 | 日本電信電話株式会社 | 心理状態可視化装置、その方法、およびプログラム |
CN110418148B (zh) * | 2019-07-10 | 2021-10-29 | 咪咕文化科技有限公司 | 视频生成方法、视频生成设备及可读存储介质 |
US20220301580A1 (en) * | 2019-08-06 | 2022-09-22 | Nippon Telegraph And Telephone Corporation | Learning apparatus, estimation apparatus, methods and programs for the same |
JP7229146B2 (ja) * | 2019-11-13 | 2023-02-27 | グリー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US20230096240A1 (en) * | 2020-02-21 | 2023-03-30 | Philip Morris Products S.A. | Method and apparatus for interactive and privacy-preserving communication between a server and a user device |
JP7464437B2 (ja) | 2020-04-23 | 2024-04-09 | 株式会社Nttドコモ | 情報処理装置 |
US11277663B2 (en) | 2020-05-18 | 2022-03-15 | Mercury Analytics, LLC | Systems and methods for providing survey data |
WO2022025113A1 (ja) * | 2020-07-29 | 2022-02-03 | 浩行 喜屋武 | オンラインショー演出システム、笑い解析装置および笑い解析方法 |
US20220174357A1 (en) * | 2020-11-30 | 2022-06-02 | At&T Intellectual Property I, L.P. | Simulating audience feedback in remote broadcast events |
US11503090B2 (en) | 2020-11-30 | 2022-11-15 | At&T Intellectual Property I, L.P. | Remote audience feedback mechanism |
US11477520B2 (en) * | 2021-02-11 | 2022-10-18 | Roku, Inc. | Content-modification system with volume-level detection feature |
US20220377413A1 (en) * | 2021-05-21 | 2022-11-24 | Rovi Guides, Inc. | Methods and systems for personalized content based on captured gestures |
US11671657B2 (en) * | 2021-06-30 | 2023-06-06 | Rovi Guides, Inc. | Method and apparatus for shared viewing of media content |
JP2023025400A (ja) * | 2021-08-10 | 2023-02-22 | 富士フイルム株式会社 | 感情タグ付与システム、方法及びプログラム |
WO2023084933A1 (ja) * | 2021-11-11 | 2023-05-19 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20230290109A1 (en) * | 2022-03-14 | 2023-09-14 | Disney Enterprises, Inc. | Behavior-based computer vision model for content selection |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129594A (ja) | 1993-10-29 | 1995-05-19 | Toshiba Corp | 自動通訳システム |
US20050289582A1 (en) * | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
JP2007041988A (ja) * | 2005-08-05 | 2007-02-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US20070271580A1 (en) * | 2006-05-16 | 2007-11-22 | Bellsouth Intellectual Property Corporation | Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics |
KR100828371B1 (ko) * | 2006-10-27 | 2008-05-08 | 삼성전자주식회사 | 컨텐츠의 메타 데이터 생성 방법 및 장치 |
US20090063995A1 (en) * | 2007-08-27 | 2009-03-05 | Samuel Pierce Baron | Real Time Online Interaction Platform |
US8151292B2 (en) * | 2007-10-02 | 2012-04-03 | Emsense Corporation | System for remote access to media, and reaction and survey data from viewers of the media |
JP5020838B2 (ja) * | 2008-01-29 | 2012-09-05 | ヤフー株式会社 | 視聴反応共有システム、視聴反応管理サーバ及び視聴反応共有方法 |
US8645516B2 (en) * | 2008-02-22 | 2014-02-04 | Accenture Global Services Limited | System for analyzing user activity in a collaborative environment |
JP5244547B2 (ja) * | 2008-11-10 | 2013-07-24 | 株式会社日立ソリューションズ | 音声コメント配信共有方法及びシステム |
JP5326910B2 (ja) * | 2009-01-20 | 2013-10-30 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP5609160B2 (ja) * | 2010-02-26 | 2014-10-22 | ソニー株式会社 | 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体 |
JP5626878B2 (ja) | 2010-10-20 | 2014-11-19 | Necカシオモバイルコミュニケーションズ株式会社 | ビューイングシステム、携帯端末、サーバ、ビューイング方法 |
JPWO2012070429A1 (ja) * | 2010-11-24 | 2014-05-19 | 日本電気株式会社 | 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム |
JP2012129800A (ja) | 2010-12-15 | 2012-07-05 | Sony Corp | 情報理装置および方法、プログラム、並びに情報処理システム |
EP2678820A4 (en) * | 2011-02-27 | 2014-12-03 | Affectiva Inc | VIDEO RECOMMENDATION BASED ON AN AFFECT |
US20120311032A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Emotion-based user identification for online experiences |
US20120324492A1 (en) * | 2011-06-20 | 2012-12-20 | Microsoft Corporation | Video selection based on environmental sensing |
JP2013070155A (ja) * | 2011-09-21 | 2013-04-18 | Nec Casio Mobile Communications Ltd | 動画スコアリングシステム、サーバ装置、動画スコアリング方法、動画スコアリングプログラム |
US8943526B2 (en) * | 2011-12-02 | 2015-01-27 | Microsoft Corporation | Estimating engagement of consumers of presented content |
US8635637B2 (en) * | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9571879B2 (en) * | 2012-01-10 | 2017-02-14 | Microsoft Technology Licensing, Llc | Consumption of content with reactions of an individual |
US20130247078A1 (en) * | 2012-03-19 | 2013-09-19 | Rawllin International Inc. | Emoticons for media |
-
2014
- 2014-04-18 JP JP2015519740A patent/JP6369462B2/ja not_active Expired - Fee Related
- 2014-04-18 WO PCT/JP2014/061071 patent/WO2014192457A1/ja active Application Filing
- 2014-04-18 CN CN201480029851.7A patent/CN105247879B/zh active Active
- 2014-04-18 US US14/891,846 patent/US10225608B2/en active Active
- 2014-04-18 BR BR112015029324A patent/BR112015029324A2/pt active Search and Examination
- 2014-04-18 EP EP14804782.2A patent/EP3007456A4/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
EP3007456A1 (en) | 2016-04-13 |
JPWO2014192457A1 (ja) | 2017-02-23 |
EP3007456A4 (en) | 2016-11-02 |
US10225608B2 (en) | 2019-03-05 |
CN105247879B (zh) | 2019-07-12 |
WO2014192457A1 (ja) | 2014-12-04 |
BR112015029324A2 (pt) | 2017-07-25 |
US20160142767A1 (en) | 2016-05-19 |
CN105247879A (zh) | 2016-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6369462B2 (ja) | クライアント装置、制御方法、システム、およびプログラム | |
AU2015284756B2 (en) | Real-time digital assistant knowledge updates | |
US20120072936A1 (en) | Automatic Customized Advertisement Generation System | |
JP6337136B2 (ja) | 動画像処理装置、動画像処理方法及びプログラム | |
EP3007452A1 (en) | Display controller, display control method, and computer program | |
US10864447B1 (en) | Highlight presentation interface in a game spectating system | |
JP6718169B2 (ja) | 情報提示システム、情報提示装置及びプログラム | |
US10363488B1 (en) | Determining highlights in a game spectating system | |
WO2016136104A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20220020053A1 (en) | Apparatus, systems and methods for acquiring commentary about a media content event | |
JP2011164681A (ja) | 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 | |
US20230156245A1 (en) | Systems and methods for processing and presenting media data to allow virtual engagement in events | |
WO2012166072A1 (en) | Apparatus, systems and methods for enhanced viewing experience using an avatar | |
US20230097729A1 (en) | Apparatus, systems and methods for determining a commentary rating | |
WO2022249522A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
US20210402309A1 (en) | Generating video clip of computer simulation from multiple views | |
CA3224176A1 (en) | Method and apparatus for shared viewing of media content | |
KR102624164B1 (ko) | 영상 플레이어 상에서의 콘텐츠 변환 장치 및 방법 | |
US11554324B2 (en) | Selection of video template based on computer simulation metadata | |
JP2021197563A (ja) | 関連情報配信装置、プログラム、コンテンツ配信システム及びコンテンツ出力端末 | |
CN117714771A (zh) | 视频互动方法、装置、设备及可读存储介质 | |
JP2020095634A (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP2019165311A (ja) | サーバー、方法、プログラム及びシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180625 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6369462 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |