JP2015060380A - Information terminal and information processing system - Google Patents

Information terminal and information processing system Download PDF

Info

Publication number
JP2015060380A
JP2015060380A JP2013193238A JP2013193238A JP2015060380A JP 2015060380 A JP2015060380 A JP 2015060380A JP 2013193238 A JP2013193238 A JP 2013193238A JP 2013193238 A JP2013193238 A JP 2013193238A JP 2015060380 A JP2015060380 A JP 2015060380A
Authority
JP
Japan
Prior art keywords
information
reaction
content
information terminal
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013193238A
Other languages
Japanese (ja)
Inventor
二寛 青木
Tsuguhiro Aoki
二寛 青木
秀一 竹花
Shuichi Takehana
秀一 竹花
俊明 亀野
Toshiaki Kameno
俊明 亀野
悠一 信澤
Yuichi Nobusawa
悠一 信澤
俊平 布施
Shunpei Fuse
俊平 布施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013193238A priority Critical patent/JP2015060380A/en
Publication of JP2015060380A publication Critical patent/JP2015060380A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable, when a content is shared between terminals in an information processing system, real-time provision of a reaction of a user on the terminal having been supplied with the content to the terminal having supplied the content.SOLUTION: Three different states of an information terminal on the content transmission side are shown as information terminals 100A, 100B and 100C. Two different states of an information terminal on the content reception side are shown as information terminals 200A and 200B. When a user sees the information terminal 200B and reacts to it, reaction information indicating the details of the reaction is created and transmitted to the information terminal on the transmission side. On the information terminal 200C on the transmission side, the reaction information is output as an image 301.

Description

本発明は、他の端末とコンテンツを共有する情報端末および当該情報端末を含む情報処理システムに関する。   The present invention relates to an information terminal that shares content with other terminals and an information processing system including the information terminal.

従来、二台の端末間の通信において、一方の端末で取得されたユーザのリアクションや感情を、他方の端末に送信する技術が提案されている。たとえば、特開2007−280074号公報(特許文献1)は、メール受信者の反応をメール送信者に伝える情報端末およびこれを制御する制御方法を開示している。特開2003−271501号公報(特許文献2)は、送信側端末から送信された送信データを受信した送信先端末が、当該送信データを再生し、リアクション情報を取得し、そして、当該取得したリアクション情報を送信側端末に送信する技術を開示している。特開2003−110703号公報(特許文献3)は、通信端末を介する他ユーザの感情等の非言語情報を様々なタイミングで取得することができる情報通信システムを開示している。   2. Description of the Related Art Conventionally, in communication between two terminals, a technique for transmitting a user's reaction and emotion acquired by one terminal to the other terminal has been proposed. For example, Japanese Patent Application Laid-Open No. 2007-280074 (Patent Document 1) discloses an information terminal that transmits a mail receiver's reaction to a mail sender and a control method for controlling the information terminal. Japanese Patent Laid-Open No. 2003-271501 (Patent Document 2) discloses that a transmission destination terminal that receives transmission data transmitted from a transmission side terminal reproduces the transmission data, acquires reaction information, and the acquired reaction A technique for transmitting information to a transmitting terminal is disclosed. Japanese Patent Laying-Open No. 2003-110703 (Patent Document 3) discloses an information communication system that can acquire non-language information such as emotions of other users via communication terminals at various timings.

特開2007−280074号公報JP 2007-280074 A 特開2003−271501号公報JP 2003-271501 A 特開2003−110703号公報JP 2003-110703 A

特許文献1に記載の技術は、受信者がメールを表示してから終了するまでの間の受信者の顔画像を取得し、当該顔画像を利用してユーザ関連情報を作成し、当該ユーザ関連情報を含む返信メールを自動的に作成して、元の送信者へ送信する。したがって、特許文献1では、元の送信者は、ユーザ関連情報が、どのメールに対するリアクションなのかはわかるが、メールのどの部分のリアクションかはわからない。   The technology described in Patent Document 1 acquires a recipient's face image from when the recipient displays an email until the end, creates user-related information using the face image, A reply mail containing information is automatically created and sent to the original sender. Therefore, in Patent Document 1, the original sender knows which mail the user-related information is a reaction to, but does not know which part of the mail is a reaction.

特許文献2に記載の技術では、送信先端末からのリアクションを表す情報の送信は当該端末における送信データの再生後に行なわれる。したがって、送信元端末に対して提供される情報は、送信先端末におけるリアルタイムなリアクションではない。   In the technique described in Patent Document 2, transmission of information representing a reaction from a transmission destination terminal is performed after reproduction of transmission data at the terminal. Therefore, the information provided to the transmission source terminal is not a real-time reaction at the transmission destination terminal.

特許文献3に記載の技術では、感情を表す非言語情報が、非言語情報管理サーバを経由して送信される。したがって、非言語情報管理サーバが必要になる。また、特許文献3では、その図10(a)や図10(b)に示されるように、非言語情報は、装置間で送受信されるコンテンツ等とともに表示されることはない。このことから、提供される感情が、装置間で共有されるコンテンツなど、特定のコンテンツに関連付けられて提供されることは困難である。   In the technique described in Patent Document 3, non-linguistic information representing emotion is transmitted via a non-linguistic information management server. Therefore, a non-language information management server is required. In Patent Document 3, as shown in FIG. 10A and FIG. 10B, non-language information is not displayed together with contents transmitted and received between apparatuses. For this reason, it is difficult for the provided emotion to be provided in association with specific content such as content shared between devices.

本開示は、かかる実情に鑑み考え出されたものであり、その目的は、情報処理システムにおいて端末間でコンテンツが共有された場合に、コンテンツを供給された側の端末におけるユーザのリアクションをリアルタイムで供給した側の端末に与えられるようにすることである。   The present disclosure has been conceived in view of such a situation, and the purpose of the present disclosure is in real-time when a content is shared between terminals in an information processing system so that a user's reaction at the terminal to which the content is supplied is performed in real time. It is to be given to the terminal on the supply side.

ある局面に従うと、他の端末からコンテンツのデータを受信するための通信部と、他の端末から受信したデータに基づいてコンテンツを再生するための再生部と、再生部においてコンテンツが再生されているときにユーザのリアクションを検出するための検出部と、検出部が検出したリアクションに基づいて、当該リアクションの内容を示す情報であるリアクション情報を生成するための生成部とを備える情報端末が提供される。通信部は、リアクション情報を他の端末に送信する。   According to an aspect, a communication unit for receiving content data from another terminal, a playback unit for playing back content based on data received from another terminal, and the content are played back in the playback unit An information terminal is provided that includes a detection unit for detecting a user's reaction sometimes and a generation unit for generating reaction information that is information indicating the content of the reaction based on the reaction detected by the detection unit. The The communication unit transmits the reaction information to another terminal.

好ましくは、情報端末は、情報の入力を受け付けるための入力部をさらに備える。生成部は、入力部に情報が入力されたことに応じて、リアクション情報を生成する。   Preferably, the information terminal further includes an input unit for receiving information input. The generation unit generates reaction information in response to information input to the input unit.

他の局面に従うと、コンテンツを再生するための再生部と、再生部で再生されるコンテンツを他の端末に送信するための通信部とを備える情報端末が提供される。通信部は、コンテンツに対する他の端末でのリアクションの内容を示す情報であるリアクション情報を受信する。再生部は、コンテンツとともにリアクション情報を再生する。   According to another aspect, an information terminal including a reproducing unit for reproducing content and a communication unit for transmitting the content reproduced by the reproducing unit to another terminal is provided. The communication unit receives reaction information that is information indicating details of a reaction at another terminal with respect to the content. The playback unit plays back the reaction information together with the content.

好ましくは、情報端末は、コンテンツに対するリアクションを要求するタイミングを指定する情報であるタイミング情報を入力するための入力部をさらに備える。通信部は、タイミング情報によって特定されるタイミングにおいて他の端末が取得したリアクション情報を受信する。   Preferably, the information terminal further includes an input unit for inputting timing information that is information for designating a timing for requesting a reaction to the content. The communication unit receives reaction information acquired by another terminal at a timing specified by the timing information.

さらに他の局面に従うと、コンテンツを再生する第1の再生部を含む第1の情報端末と、第1の情報端末と通信可能な第2の情報端末とを備える情報処理システムが提供される。第1の情報端末は、第1の再生部において再生されるコンテンツを第2の情報端末に送信するための第1の通信部をさらに含む。第2の情報端末は、第1の情報端末から受信したコンテンツを再生するための第2の再生部と、第2の再生部においてコンテンツが再生されているときに当該第2の情報端末におけるユーザのリアクションを検出するための検出部と、検出部が検出したリアクションに基づいて、リアクション情報を生成するための生成部と、リアクション情報を第1の情報端末に送信するための第2の通信部とを含む。第1の通信部は、第2の情報端末からリアクション情報を受信する。第1の再生部は、リアクション情報を、コンテンツとともに再生する。   According to yet another aspect, an information processing system is provided that includes a first information terminal including a first reproduction unit that reproduces content, and a second information terminal that can communicate with the first information terminal. The first information terminal further includes a first communication unit for transmitting content reproduced in the first reproduction unit to the second information terminal. The second information terminal includes a second reproduction unit for reproducing the content received from the first information terminal, and a user in the second information terminal when the content is being reproduced in the second reproduction unit. A detecting unit for detecting the reaction, a generating unit for generating reaction information based on the reaction detected by the detecting unit, and a second communication unit for transmitting the reaction information to the first information terminal Including. The first communication unit receives reaction information from the second information terminal. The first playback unit plays back the reaction information together with the content.

本開示によれば、情報処理システムにおいてコンテンツが共有された場合、供給先の情報端末においてコンテンツ再生中に検出されたリアクションが、供給元の情報端末に送られる。これにより、情報処理システムにおいて、コンテンツを供給された側の端末におけるユーザのリアクションが、リアルタイムで、供給した側の端末に与えられる。   According to the present disclosure, when content is shared in an information processing system, a reaction detected during content reproduction in a supply destination information terminal is sent to the supply source information terminal. Thereby, in the information processing system, the reaction of the user at the terminal supplied with the content is given in real time to the terminal supplied with the content.

情報処理システムの構成を概略的に示す図である。1 is a diagram schematically illustrating a configuration of an information processing system. 情報処理システムにおける情報端末の動作概要を説明するための図である。It is a figure for demonstrating the operation | movement outline | summary of the information terminal in an information processing system. 情報端末のハードウェア構成の具体例を示す図である。It is a figure which shows the specific example of the hardware constitutions of an information terminal. 情報端末のハードウェア構成の具体例を示す図である。It is a figure which shows the specific example of the hardware constitutions of an information terminal. 表情の特定を説明するための図である。It is a figure for demonstrating specification of a facial expression. リアクション情報データベースにおける情報の格納例を示す図である。It is a figure which shows the example of a storage of the information in a reaction information database. 情報処理システムにおいて実行される処理のシーケンスを示す図である。It is a figure which shows the sequence of the process performed in an information processing system. 情報処理システムにおいてコンテンツが共有される際に実行される処理のフローチャートである。It is a flowchart of the process performed when a content is shared in an information processing system. リアクション情報の表示態様の変形例を示す図である。It is a figure which shows the modification of the display mode of reaction information.

以下、本開示の情報端末および情報処理システムの実施の形態について、図面を参照して説明する。以下の説明において、同一の機能および作用を有する部品は、各図を通して同じ符号を付し、重複する説明を繰返さない。   Hereinafter, embodiments of an information terminal and an information processing system according to the present disclosure will be described with reference to the drawings. In the following description, parts having the same function and action are denoted by the same reference numerals throughout the drawings, and redundant description will not be repeated.

[第1の実施の形態]
<システム構成>
図1は、情報処理システムの構成を概略的に示す図である。情報処理システムは、情報端末100と情報端末200とを含む。情報端末100と情報端末200は、コンテンツを共有する。本明細書では、主に、情報端末100は、コンテンツを供給する側として、また、情報端末200は、コンテンツを供給される側として、説明される。情報端末100と情報端末200とは、ネットワーク500を介して通信する。図1では、情報端末100,200の機能構成が記載されているが、各機能については後述する。
[First Embodiment]
<System configuration>
FIG. 1 is a diagram schematically showing the configuration of an information processing system. The information processing system includes an information terminal 100 and an information terminal 200. The information terminal 100 and the information terminal 200 share content. In this specification, the information terminal 100 will be mainly described as a content supply side, and the information terminal 200 will be described as a content supply side. The information terminal 100 and the information terminal 200 communicate via the network 500. In FIG. 1, functional configurations of the information terminals 100 and 200 are described, but each function will be described later.

<動作概要>
図2は、情報処理システムにおける情報端末100,200の動作の概要を説明するための図である。情報端末100は、ディスプレイ15を備える。情報端末200は、ディスプレイ25を備える。図2では、情報端末100の異なる3つの状態が情報端末100A,100B,100Cとして示されている。また、情報端末200の異なる2つの状態が情報端末200A,200Bとして示されている。
<Overview of operation>
FIG. 2 is a diagram for explaining an outline of operations of the information terminals 100 and 200 in the information processing system. The information terminal 100 includes a display 15. The information terminal 200 includes a display 25. In FIG. 2, three different states of the information terminal 100 are shown as information terminals 100A, 100B, and 100C. Also, two different states of the information terminal 200 are shown as information terminals 200A and 200B.

情報処理システムでは、情報端末100Aとして示されるように、送信側の端末でコンテンツが再生される。情報端末100Aは、当該コンテンツを情報端末200と共有するために、当該コンテンツを情報端末200へ送信する。これにより、情報端末200Aとして示されるように、受信側の端末でもコンテンツが再生される。情報端末100と情報端末200との間でコンテンツが共有されているため、情報端末100における再生内容が情報端末100Aから情報端末100Bへと変更されると、情報端末200における再生内容も情報端末200Aから情報端末200Bへと変更される。   In the information processing system, as shown as the information terminal 100A, the content is played back on the terminal on the transmission side. The information terminal 100 </ b> A transmits the content to the information terminal 200 in order to share the content with the information terminal 200. As a result, as shown as the information terminal 200A, the content is also reproduced at the receiving terminal. Since the content is shared between the information terminal 100 and the information terminal 200, when the reproduction content in the information terminal 100 is changed from the information terminal 100A to the information terminal 100B, the reproduction content in the information terminal 200 is also changed to the information terminal 200A. To the information terminal 200B.

情報端末200のユーザが、情報端末200Bに示されたような表示を見て、表情を変えたり声を出すなどして驚くようなリアクションをとったとする。情報端末200は、たとえばカメラによって取得された画像やマイクによって取得された音声に基づいて、そのようなリアクションを検出する。そして、情報端末200は、当該検出結果に基づいて、ユーザのリアクションの内容を示す情報であるリアクション情報を生成し、情報端末100へそれを送信する。   It is assumed that the user of the information terminal 200 takes a surprising reaction by changing the facial expression or making a voice while watching the display as shown on the information terminal 200B. The information terminal 200 detects such a reaction based on, for example, an image acquired by a camera or a sound acquired by a microphone. And the information terminal 200 produces | generates the reaction information which is the information which shows the content of a user's reaction based on the said detection result, and transmits it to the information terminal 100. FIG.

情報端末200からリアクション情報を受信すると、情報端末100は、当該リアクション情報を出力する。図2では、情報端末100Cは、ディスプレイ15に、情報端末100Bまでで表示させていたコンテンツとともに、リアクション情報として、検出されたリアクションに対応する画像301を表示する。   When the reaction information is received from the information terminal 200, the information terminal 100 outputs the reaction information. In FIG. 2, the information terminal 100 </ b> C displays an image 301 corresponding to the detected reaction as reaction information on the display 15 together with the content displayed up to the information terminal 100 </ b> B.

<ハードウェア構成>
(情報端末100)
図3は、情報端末100のハードウェア構成の具体例を示す図である。図3に示されるように、情報端末100は、演算装置であるCPU(Central Processing Unit)10と、CPU10が実行するプログラム(アプリケーション)などを記憶するためのROM(Read Only Memory)11と、CPU10がプログラムを実行する際の作業領域として機能するRAM(Random Access Memory)12と、コンテンツなどを記憶するためメモリ13と、情報端末100に対する操作入力を受け付けるための操作I/F(インタフェース)14と、画像出力部としてのディスプレイ15と、音声出力部としてのスピーカ16と、情報端末200等の外部機器と無線通信を行なうための通信I/F17と、カメラ18と、マイクロフォン(以下、「マイク」と略記する)19とを含む。
<Hardware configuration>
(Information terminal 100)
FIG. 3 is a diagram illustrating a specific example of the hardware configuration of the information terminal 100. As shown in FIG. 3, the information terminal 100 includes a CPU (Central Processing Unit) 10 that is an arithmetic device, a ROM (Read Only Memory) 11 for storing a program (application) executed by the CPU 10, and the CPU 10. A RAM (Random Access Memory) 12 that functions as a work area when the program is executed, a memory 13 for storing contents and the like, and an operation I / F (interface) 14 for receiving an operation input to the information terminal 100 A display 15 as an image output unit, a speaker 16 as an audio output unit, a communication I / F 17 for performing wireless communication with an external device such as the information terminal 200, a camera 18, a microphone (hereinafter referred to as "microphone"). 19).

(情報端末200)
図4は、情報端末200のハードウェア構成の具体例を示す図である。図4に示されるように、情報端末200は、情報端末100と同様に、演算装置であるCPU20と、CPU20で実行されるプログラム(アプリケーション)などを記憶するためのROM21と、CPU20がプログラムを実行する際の作業領域として機能するRAM22と、コンテンツなどを記憶するためメモリ23と、情報端末200に対する操作入力を受け付けるための操作I/F24と、画像出力部としてのディスプレイ25と、音声出力部としてのスピーカ26と、情報端末100等の外部機器との間で無線通信を行なうための通信I/F27と、カメラ28と、マイク29とを含む。カメラ28は、たとえば、ディスプレイ25を見つめるユーザの顔を撮影できる位置に設けられている。
(Information terminal 200)
FIG. 4 is a diagram illustrating a specific example of the hardware configuration of the information terminal 200. As shown in FIG. 4, the information terminal 200 is similar to the information terminal 100, the CPU 20 that is an arithmetic device, the ROM 21 for storing a program (application) executed by the CPU 20, and the CPU 20 executes the program. RAM 22 that functions as a work area when performing the operation, a memory 23 for storing contents, an operation I / F 24 for receiving an operation input to the information terminal 200, a display 25 as an image output unit, and an audio output unit A communication I / F 27 for performing wireless communication with an external device such as the information terminal 100, a camera 28, and a microphone 29. For example, the camera 28 is provided at a position where the user's face looking at the display 25 can be photographed.

<機能構成>
(情報端末100)
図1を参照して、情報端末100の機能構成を説明する。情報端末100では、操作入力部102は、外部からの情報の入力を受け付ける。表示部104は、映像(画像)を表示する。コンテンツDB(データベース)110は、コンテンツのファイルを格納する。コンテンツ再生部106は、コンテンツDB110に格納されたコンテンツを再生する。通信部120は、アンテナ122を有し、ネットワーク500を介して、コンテンツのファイル(データ)を情報端末200へ送信する。操作入力部102は、操作I/F14によって実現される。また、表示部104はディスプレイ15によって、通信部120は通信I/F17によって、コンテンツ再生部106はCPU10によって、コンテンツDB110はメモリ13によって、それぞれ実現される。
<Functional configuration>
(Information terminal 100)
The functional configuration of the information terminal 100 will be described with reference to FIG. In the information terminal 100, the operation input unit 102 accepts input of information from the outside. The display unit 104 displays a video (image). The content DB (database) 110 stores content files. The content playback unit 106 plays back the content stored in the content DB 110. The communication unit 120 includes an antenna 122 and transmits a content file (data) to the information terminal 200 via the network 500. The operation input unit 102 is realized by the operation I / F 14. The display unit 104 is realized by the display 15, the communication unit 120 is realized by the communication I / F 17, the content reproduction unit 106 is realized by the CPU 10, and the content DB 110 is realized by the memory 13.

後述するように、情報端末200は、情報端末100からコンテンツを受信すると、当該コンテンツを再生させながらリアクション情報を生成し、そして、当該リアクション情報を情報端末100へ送信する。コンテンツ再生部106は、リアクション情報を受信すると、上記コンテンツを再生させながら、当該リアクション情報を出力する。   As will be described later, when the information terminal 200 receives content from the information terminal 100, the information terminal 200 generates reaction information while reproducing the content, and transmits the reaction information to the information terminal 100. Upon receiving the reaction information, the content reproduction unit 106 outputs the reaction information while reproducing the content.

(情報端末200)
図1を参照して、情報端末200の機能構成を説明する。情報端末200では、操作入力部202は、外部からの情報の入力を受け付ける。通信部220は、アンテナ222を有し、情報端末100から送信されたコンテンツのファイルを受信する。表示部204は、当該コンテンツの再生画像を表示する。A/D(アナログ/デジタル)コンバータ206は、カメラ28に入力された映像のアナログデータをデジタルデータに変換し、マイク29に入力された音声のアナログデータをデジタルデータに変換する。そして、A/Dコンバータ206は、変換後のデジタルデータを、リアクション検出部210へ出力する。
(Information terminal 200)
The functional configuration of the information terminal 200 will be described with reference to FIG. In the information terminal 200, the operation input unit 202 receives input of information from the outside. The communication unit 220 includes an antenna 222 and receives a content file transmitted from the information terminal 100. The display unit 204 displays a playback image of the content. An A / D (analog / digital) converter 206 converts analog video data input to the camera 28 into digital data, and converts audio analog data input to the microphone 29 into digital data. Then, the A / D converter 206 outputs the converted digital data to the reaction detection unit 210.

リアクション検出部210は、A/Dコンバータ206から入力されたデジタルデータに基づいて、情報端末200のユーザによるリアクションを検出する。そして、リアクション検出部210は、リアクションを検出すると、入力されたデジタルデータを表情認識部212へ出力する。   The reaction detection unit 210 detects a reaction by the user of the information terminal 200 based on the digital data input from the A / D converter 206. Then, when detecting the reaction, the reaction detection unit 210 outputs the input digital data to the facial expression recognition unit 212.

「リアクションを検出」する例としては、カメラ28によって撮影された2以上の画像に基づいてユーザの表情に変化があったことが検出されたこと、カメラ28によって撮影された画像において検出されたユーザの表情が特定の表情であることが検出されたこと、マイク29によって取得された音声がユーザの声を含むことが検出されたこと、などが挙げられる。リアクション検出部210は、カメラ28が撮影した画像のみ、マイク29に入力された音声のみ、または、当該画像と当該音声の両方に基づいて、検出され得る。また、リアクションの有無は、画像および音声だけでなく、温度の変化や振動の有無等に基づいても、検出され得る。たとえば、温度の変化に基づくリアクションの有無は、温度センサによる手の温度の検出やカメラ撮影による顔の温度の検出などに基づいて、判断され得る。振動の有無については、たとえば、カメラによって撮影された画像からパターン認識等の技術に基づき顔の位置を特定し、当該顔の位置が特定のパターンで変位したか否かに基づいて、判断され得る。「表情の変化があったこと」の検出は、たとえば、公知の技術(チェイスフォーカス、スマイルシャッタ、等)に基づいて実現され得る。   As an example of “detecting a reaction”, it is detected that there is a change in the user's facial expression based on two or more images captured by the camera 28, and the user detected in the image captured by the camera 28 For example, the fact that the voice acquired by the microphone 29 includes the voice of the user is detected. The reaction detection unit 210 can detect only the image captured by the camera 28, only the sound input to the microphone 29, or both the image and the sound. The presence / absence of the reaction can be detected not only based on the image and sound but also based on the change in temperature and the presence / absence of vibration. For example, the presence / absence of a reaction based on a change in temperature can be determined based on detection of a hand temperature by a temperature sensor, detection of a face temperature by camera photography, or the like. The presence / absence of vibration can be determined based on, for example, whether the face position is identified based on a technique such as pattern recognition from an image captured by a camera and whether the face position is displaced in a specific pattern. . Detection of “change in facial expression” can be realized based on, for example, known techniques (chase focus, smile shutter, etc.).

図5は、表情の特定を説明するための図である。図5を参照して、リアクション検出部210は、たとえば、チェイスフォーカスの技術を利用して、顔を検出する。これにより、たとえば、図5の画像400から、領域401が、顔を表す領域として、抽出される。そして、リアクション検出部210は、検出された顔の中から、顔の中の部位(目や鼻や口)の位置を特定し、目の開き具合や目じりの下がり具合などを特定し、表情の判別に利用する。また、リアクション検出部210は、口の開き具合や口角の上がり具合などを判別に利用する場合もある。また、リアクション検出部210は、顔の中の2以上の部位の位置関係を総合的に特定し、総合的に、笑いや驚きなどの表情を特定する。   FIG. 5 is a diagram for explaining identification of facial expressions. Referring to FIG. 5, the reaction detection unit 210 detects a face using, for example, chase focus technology. Thereby, for example, the region 401 is extracted as a region representing a face from the image 400 of FIG. Then, the reaction detection unit 210 identifies the position of the part (eyes, nose, mouth) in the face from among the detected faces, identifies the degree of opening of the eyes, the degree of lowering of the eyes, and the like. Used for discrimination. In addition, the reaction detection unit 210 may use the degree of opening of the mouth, the degree of rising of the mouth corner, or the like for determination. In addition, the reaction detection unit 210 comprehensively specifies the positional relationship between two or more parts in the face, and comprehensively specifies facial expressions such as laughter and surprise.

また、音声に基づくリアクションの検出では、リアクション検出部210は、たとえば、笑い、驚き、悲しみ、称賛などに該当する音響モデルや言語モデルを格納したデータベースを参照することにより、ユーザが発した音声(マイク29に入力された音声データ、または、そこからユーザが発した音声を分離されたデータ)をモデルデータとマッチングする。そして、リアクション検出部210は、マッチングスコアの高いモデルデータに対応するリアクションを、結果として出力する。なお、リアクション検出部210は、リアクションの検出において、ユーザが発した音声を解析することにより発せられた言語(文言)を特定し、特定された言語そのものを利用してもいいし、音声を解析することによりユーザの声の調子(抑揚等)を特定し、当該声の調子を利用してもよい。   In the detection of reaction based on voice, the reaction detection unit 210 refers to a database storing acoustic models and language models corresponding to, for example, laughter, surprise, sadness, praise, and the like. The voice data input to the microphone 29 or the data from which the voice uttered by the user is separated) is matched with the model data. And the reaction detection part 210 outputs the reaction corresponding to model data with a high matching score as a result. The reaction detection unit 210 may identify a language (word) that is uttered by analyzing a voice uttered by a user in detecting a reaction, and may use the identified language itself or analyze the voice. By doing so, the tone (inflection etc.) of the user's voice may be specified and the tone of the voice may be used.

情報端末200では、カメラ28がユーザの顔を継続的に撮影し、撮影されたデータが継続的にリアクション検出部210に入力され得る。もしくは、情報端末200では、マイク29が継続的に音声データを生成し、生成された音声データが継続的にリアクション検出部210に入力され得る。   In the information terminal 200, the camera 28 continuously captures the user's face, and the captured data can be continuously input to the reaction detection unit 210. Alternatively, in the information terminal 200, the microphone 29 can continuously generate voice data, and the generated voice data can be continuously input to the reaction detection unit 210.

表情認識部212は、予め登録されたリアクションの2以上のパターンの中から、入力されたデジタルデータが該当するパターンを特定する情報を、感情推定部214へ出力する。表情認識部212は、たとえば、カメラ28で撮影された画像が、予め登録されたリアクションのパターン(たとえば、笑顔、怒り顔、泣き顔、困った顔、等)のいずれに該当するかを判断し、その結果を感情推定部214へ出力する。また、表情認識部212は、マイク29に入力された音声に含まれるユーザの声が、予め登録されたリアクションのパターン(たとえば、笑顔、怒り顔、泣き顔、困った顔、等)のいずれに該当するかを判断し、その結果を感情推定部214へ出力する。表情認識部212は、画像についてのリアクションパターンと、音声についてのリアクションのパターンの、いずれか一方を出力しても良いし、双方を出力しても良い。   The facial expression recognition unit 212 outputs, to the emotion estimation unit 214, information specifying a pattern to which the input digital data corresponds from two or more patterns of reactions registered in advance. The facial expression recognition unit 212 determines, for example, whether the image captured by the camera 28 corresponds to a reaction pattern (for example, a smile, an angry face, a crying face, a troubled face, etc.) registered in advance, The result is output to emotion estimation unit 214. Further, the facial expression recognition unit 212 corresponds to any of the reaction patterns (for example, smile, angry face, crying face, troubled face, etc.) registered in advance in the voice input to the microphone 29. Whether or not to do so, and outputs the result to emotion estimation section 214. The facial expression recognition unit 212 may output either one of the reaction pattern for the image and the reaction pattern for the sound, or may output both.

感情推定部214は、表情認識部212から出力されたリアクションのパターンに基づいて、情報端末200のユーザのリアクションの種類を特定する。特定されるリアクションの種類は、たとえば、「笑い」「驚き」「悲しみ」または「称賛」である。情報端末200には、たとえば、表情認識部212から出力されるリアクションのパターンと、特定されるリアクションの種類とを関連付けるテーブルが格納されている。感情推定部214は、当該テーブルを参照することにより、表情認識部212から出力されたパターンに対応するユーザのリアクションの種類を特定する。当該テーブルでは、表情認識部212から出力される画像のパターンと音声のパターンの組み合わせが、リアクションの種類と関連付けられている場合もあり得る。   The emotion estimation unit 214 identifies the type of reaction of the user of the information terminal 200 based on the reaction pattern output from the facial expression recognition unit 212. The type of reaction specified is, for example, “laughter”, “surprise”, “sadness”, or “praise”. The information terminal 200 stores, for example, a table that associates the reaction pattern output from the facial expression recognition unit 212 with the specified reaction type. The emotion estimation unit 214 identifies the type of user reaction corresponding to the pattern output from the facial expression recognition unit 212 by referring to the table. In the table, a combination of an image pattern and an audio pattern output from the facial expression recognition unit 212 may be associated with a reaction type.

リアクション情報DB216は、リアクションの種類を、リアクション情報と関連付けて格納している。図6は、リアクション情報DB216における情報の格納態様を模式的に示す図である。図6に示されるように、リアクション情報DB216では、リアクションの種類のそれぞれに、画像、文字、絵文字、および、音が関連付けられている。たとえば、種類「笑い」には、太陽の画像と、「ニコニコ」および「ハハハ」という文字と、笑顔を表す絵文字と、笑い声を表す音声情報とが、関連付けられている。   The reaction information DB 216 stores the type of reaction in association with the reaction information. FIG. 6 is a diagram schematically illustrating a storage mode of information in the reaction information DB 216. As shown in FIG. 6, in the reaction information DB 216, an image, a character, a pictograph, and a sound are associated with each type of reaction. For example, the type “laughter” is associated with a sun image, characters “Nico Nico” and “hahaha”, a pictograph representing a smile, and audio information representing a laughter.

感情推定部214は、リアクション情報DB216において、特定したリアクションの種類と関連付けられている画像、文字、絵文字、および/または、音の情報を、リアクション情報生成部218へ出力する。   The emotion estimation unit 214 outputs image, character, pictogram, and / or sound information associated with the identified reaction type in the reaction information DB 216 to the reaction information generation unit 218.

リアクション情報生成部218は、感情推定部214から出力された情報を利用して、情報端末100へ送信するリアクション情報を生成する。より具体的には、感情推定部214から出力された情報の中の少なくとも1つが情報端末100において出力されるように、リアクション情報を生成する。そして、リアクション情報生成部218は、リアクション情報を、通信部220を介して、情報端末100へ送信する。   The reaction information generation unit 218 uses the information output from the emotion estimation unit 214 to generate reaction information to be transmitted to the information terminal 100. More specifically, reaction information is generated so that at least one of the information output from the emotion estimation unit 214 is output at the information terminal 100. Then, the reaction information generation unit 218 transmits the reaction information to the information terminal 100 via the communication unit 220.

以上説明したように、情報端末200は、情報端末100からコンテンツを受信すると、当該コンテンツを再生させながら、カメラ28および/またはマイク29を用いて、ユーザのリアクションを検出する。そして、リアクションが検出されると、情報端末200は、当該リアクションの種類を特定し、情報端末100において特定された種類に関連付けられた情報を出力するためのリアクション情報を生成し、そして、当該リアクション情報を情報端末100へ送信する。   As described above, when receiving the content from the information terminal 100, the information terminal 200 detects the user's reaction using the camera 28 and / or the microphone 29 while reproducing the content. When the reaction is detected, the information terminal 200 specifies the type of the reaction, generates reaction information for outputting information associated with the type specified in the information terminal 100, and the reaction Information is transmitted to the information terminal 100.

情報端末200において、A/Dコンバータ206、リアクション検出部210、表情認識部212、感情推定部214、および、リアクション情報生成部218は、CPU20によって実現される。また、情報端末200において、操作入力部202は入力I/F24によって、表示部204はディスプレイ25によって、通信部220は通信I/F27によって、それぞれ実現される。   In the information terminal 200, the A / D converter 206, the reaction detection unit 210, the facial expression recognition unit 212, the emotion estimation unit 214, and the reaction information generation unit 218 are realized by the CPU 20. In the information terminal 200, the operation input unit 202 is realized by the input I / F 24, the display unit 204 is realized by the display 25, and the communication unit 220 is realized by the communication I / F 27.

<処理シーケンス>
次に、情報処理システムにおいて実行される処理のシーケンスを説明する。図7は、情報端末100と情報端末200とによって実行される処理のシーケンスを示す図である。
<Processing sequence>
Next, a sequence of processing executed in the information processing system will be described. FIG. 7 is a diagram illustrating a sequence of processes executed by the information terminal 100 and the information terminal 200.

情報端末100のユーザが、操作I/F14に対して、コンテンツを情報端末200と共有しながら再生する指示を入力すると、情報端末100は、情報端末200に対して、コンテンツの共有の可否を問合せる(S1:コンテンツ共有問合せ)。   When the user of the information terminal 100 inputs an instruction to reproduce the content while sharing the content with the information terminal 200 to the operation I / F 14, the information terminal 100 inquires the information terminal 200 whether the content can be shared. (S1: Content sharing inquiry).

情報端末200は、S1の問合せを受けると、ディスプレイ25に、コンテンツの共有の可否の入力を促すメッセージを表示させる。これに応じて、情報端末200のユーザは、操作I/F24に、コンテンツの共有を受け入れるか否かの情報を入力する。そして、情報端末200は、入力された情報を情報端末100へ送信する(S2:返答)。ここでは、コンテンツの共有を受け入れる情報が入力された場合が説明される。   When the information terminal 200 receives the inquiry of S1, the information terminal 200 displays on the display 25 a message that prompts the user to input whether the content can be shared. In response to this, the user of the information terminal 200 inputs information on whether or not to accept content sharing to the operation I / F 24. Then, the information terminal 200 transmits the input information to the information terminal 100 (S2: reply). Here, a case where information for accepting content sharing is input will be described.

情報端末200からの返答を受けると、情報端末100は、コンテンツを情報端末100において再生しながら、当該コンテンツのデータを情報端末200へ送信する(S3:コンテンツ共有開始、S4,S5:コンテンツデータ)。これに応じて、情報端末200では、データを受信したコンテンツが再生される。   Upon receiving a response from the information terminal 200, the information terminal 100 transmits the content data to the information terminal 200 while reproducing the content on the information terminal 100 (S3: content sharing start, S4, S5: content data). . In response to this, the information terminal 200 reproduces the content that has received the data.

情報端末200では、コンテンツの再生中にリアクションが検出されると、リアクション情報を生成して、情報端末100へ送信する(S6:リアクション検出・リアクション情報生成,S7:リアクション情報送信)。これに応じて、情報端末100は、コンテンツを再生するとともに、リアクション情報を出力する(S8:リアクション出力)。   In the information terminal 200, when a reaction is detected during content reproduction, reaction information is generated and transmitted to the information terminal 100 (S6: reaction detection / reaction information generation, S7: reaction information transmission). In response to this, the information terminal 100 reproduces the content and outputs reaction information (S8: reaction output).

情報端末100は、コンテンツの共有を終了する指示が入力されるまで、または、共有することを指示されたコンテンツが終了するまで、情報端末200へ、コンテンツのデータを送信する(S9:コンテンツデータ)。情報端末200では、当該コンテンツの再生が継続される。コンテンツの再生中、情報端末200では、ユーザのリアクションが検出されると、リアクション情報が生成され、当該リアクション情報が情報端末100へ送信される(S10:リアクション検出・リアクション情報生成,S11:リアクション情報送信)。そして、情報端末100は、リアクション情報を受信すると、当該リアクション情報を出力する(S12:リアクション出力)。   The information terminal 100 transmits content data to the information terminal 200 until an instruction to end content sharing is input or until the content instructed to share ends (S9: content data). . In the information terminal 200, the reproduction of the content is continued. During the reproduction of the content, when the user's reaction is detected in the information terminal 200, reaction information is generated and the reaction information is transmitted to the information terminal 100 (S10: reaction detection / reaction information generation, S11: reaction information). Send). And the information terminal 100 will output the said reaction information, if reaction information is received (S12: reaction output).

コンテンツの共有が終了すると、情報端末100は、情報端末200にその旨を通知する(S13:コンテンツデータ終了通知)。これに応じて、情報端末200は、情報端末100に、当該通知を受信したことを通知する(S14:返答)。   When content sharing ends, the information terminal 100 notifies the information terminal 200 to that effect (S13: content data end notification). In response to this, the information terminal 200 notifies the information terminal 100 that the notification has been received (S14: reply).

<フローチャート>
図8は、情報処理システムにおいてコンテンツが共有される際に、情報端末100と情報端末200において実行される処理のフローチャートである。図8では、左側に、情報端末100における処理のフローチャートが示され、右側に、情報端末200における処理のフローチャートが示されている。以下、図8を参照して、情報端末100と情報端末200において実行される処理の内容を説明する。
<Flowchart>
FIG. 8 is a flowchart of processing executed in the information terminal 100 and the information terminal 200 when content is shared in the information processing system. In FIG. 8, the flowchart of the process in the information terminal 100 is shown on the left side, and the flowchart of the process in the information terminal 200 is shown on the right side. Hereinafter, with reference to FIG. 8, the content of the process performed in the information terminal 100 and the information terminal 200 is demonstrated.

情報端末100では、入力I/F14にコンテンツの共有の指示が入力されると、ステップS102で、CPU10は、図7のS1として説明されたように、情報端末200に対して、コンテンツの共有の可否を問合せる情報を送信する。   In the information terminal 100, when a content sharing instruction is input to the input I / F 14, in step S102, the CPU 10 instructs the information terminal 200 to share the content as described in S1 of FIG. Send information to inquire about availability.

情報端末200では、ステップS202で、CPU20は、当該問合せを受信する。そして、制御は、ステップS204へ進められる。   In the information terminal 200, in step S202, the CPU 20 receives the inquiry. Then, control proceeds to step S204.

ステップS204では、CPU20は、ディスプレイ25にメッセージを表示する等して、ユーザに、情報端末100とのコンテンツの共有を許可するかどうかの指示の入力を促す。そして、CPU20は、共有を許可する指示を入力されると(ステップS204でYES)、ステップS208へ制御を進める。一方、CPU20は、共有を許可しない指示を入力されると(ステップS204でNO)、ステップS206へ制御を進める。   In step S <b> 204, the CPU 20 prompts the user to input an instruction as to whether or not sharing of content with the information terminal 100 is permitted by displaying a message on the display 25. And CPU20 will advance control to step S208, if the instruction | indication which permits sharing is input (it is YES at step S204). On the other hand, when an instruction not to permit sharing is input (NO in step S204), CPU 20 advances the control to step S206.

ステップS206では、CPU20は、情報端末100に対して共有を拒否する情報を送信して、処理を終了する。   In step S206, CPU20 transmits the information which refuses sharing with respect to the information terminal 100, and complete | finishes a process.

ステップS208では、CPU20は、情報端末100に対して共有を許可する情報を送信する。そして、制御は、ステップS210へ進められる。   In step S <b> 208, the CPU 20 transmits information permitting sharing to the information terminal 100. And control is advanced to step S210.

ステップS210では、CPU20は、カメラ28による撮影と、マイク29による集音を開始する。   In step S <b> 210, the CPU 20 starts shooting with the camera 28 and sound collection with the microphone 29.

一方、情報端末100では、ステップS104で、CPU10は、ステップS206またはステップS208で情報端末200から送信された情報を受信する。そして、制御は、ステップS106へ進められる。   On the other hand, in the information terminal 100, in step S104, the CPU 10 receives the information transmitted from the information terminal 200 in step S206 or step S208. Then, the control proceeds to step S106.

ステップS106では、CPU10は、ステップS104で情報端末200から受信した情報が、コンテンツの共有を許可するものであるか否かを判断する。CPU10は、当該情報がコンテンツの共有を許可するものであると判断すると、ステップS110へ制御を進める(ステップS106でYES)。一方、CPU10は、当該情報がコンテンツの共有を許可するものではないと判断すると、ステップS108へ制御を進める(ステップS106でNO)。   In step S106, the CPU 10 determines whether or not the information received from the information terminal 200 in step S104 permits content sharing. If the CPU 10 determines that the information permits content sharing, the CPU 10 advances the control to step S110 (YES in step S106). On the other hand, when CPU 10 determines that the information does not permit sharing of the content, control proceeds to step S108 (NO in step S106).

ステップS108では、CPU10は、コンテンツのデータを情報端末200へ送信することなく、図8に示された処理の開始時にユーザから入力されていた、コンテンツの共有の指示をキャンセルするための制御を実行して、処理を終了させる。   In step S108, the CPU 10 performs control for canceling the content sharing instruction input from the user at the start of the process shown in FIG. 8 without transmitting the content data to the information terminal 200. Then, the process is terminated.

ステップS110では、CPU10は、情報端末200に、コンテンツのデータを送信する。これは、図7のS4,S5,S9に相当する。   In step S <b> 110, the CPU 10 transmits content data to the information terminal 200. This corresponds to S4, S5 and S9 in FIG.

情報端末200では、上記したように、ステップS208で、情報端末100にコンテンツの共有を許可する情報が送信された後、ステップS210で、カメラ28による撮影が開始され、また、マイク29による集音が開始されている。また、ステップS110で、情報端末100から情報端末200に、コンテンツのデータが送信されている。そして、ステップS212で、CPU20は、情報端末100から送信されたコンテンツのデータを受信する。そして、CPU20は、当該データに従って、コンテンツを再生する。そして、制御はステップS214へ進められる。   In the information terminal 200, as described above, after information for permitting content sharing is transmitted to the information terminal 100 in step S208, shooting by the camera 28 is started in step S210, and sound collection by the microphone 29 is performed. Has been started. In step S110, content data is transmitted from the information terminal 100 to the information terminal 200. In step S212, the CPU 20 receives content data transmitted from the information terminal 100. Then, the CPU 20 reproduces the content according to the data. Then, the control proceeds to step S214.

ステップS214で、CPU20は、リアクションが検出されたか否かを判断する。リアクションの検出は、たとえば、リアクション検出部210の機能としてすでに説明された内容に従って実現される。CPU20は、リアクションが検出されたと判断すると、ステップS216へ制御を進める(ステップS214でYES)。一方、CPU20は、リアクションが検出されていないと判断すると、ステップS212へ制御を戻す(ステップS214でNO)。   In step S214, the CPU 20 determines whether or not a reaction has been detected. The detection of the reaction is realized, for example, according to the contents already described as the function of the reaction detection unit 210. When CPU 20 determines that a reaction has been detected, CPU 20 advances the control to step S216 (YES in step S214). On the other hand, if CPU 20 determines that no reaction has been detected, it returns control to step S212 (NO in step S214).

ステップS216では、CPU20は、リアクション情報を生成する。リアクション情報の生成は、たとえば、リアクション情報生成部218の機能としてすでに説明された内容に従って実現される。ステップS216は、図7のS6,S10に相当する。そして、制御は、ステップS218へ進められる。   In step S216, the CPU 20 generates reaction information. The generation of the reaction information is realized, for example, according to the contents already described as the function of the reaction information generation unit 218. Step S216 corresponds to S6 and S10 in FIG. Then, control proceeds to step S218.

ステップS218では、CPU20は、ステップS216で生成したリアクション情報を情報端末100へ送信する。ステップS218は、図7のS7,S11に相当する。そして、制御は、ステップS220へ進められる。   In step S218, the CPU 20 transmits the reaction information generated in step S216 to the information terminal 100. Step S218 corresponds to S7 and S11 in FIG. Then, the control proceeds to step S220.

情報端末100では、ステップS112で、CPU10は、リアクション情報を受信したか否かを判断する。そして、CPU10は、リアクション情報を受信したと判断すると、ステップS114へ制御を進める(ステップS112でYES)。一方、CPU10は、リアクション情報を受信していないと判断すると、ステップS110へ制御を戻す(ステップS112でNO)。   In the information terminal 100, in step S112, the CPU 10 determines whether or not reaction information has been received. When CPU 10 determines that the reaction information has been received, CPU 10 advances the control to step S114 (YES in step S112). On the other hand, when determining that the reaction information has not been received, the CPU 10 returns the control to step S110 (NO in step S112).

ステップS114で、CPU10は、受信したリアクション情報を出力する。リアクション情報の出力態様は、たとえば図2において、情報端末100Cとして示されている。情報端末100Cでは、ディスプレイ15内に、コンテンツとともに、リアクション情報に対応した画像301が表示されている。   In step S114, the CPU 10 outputs the received reaction information. The output mode of the reaction information is shown as an information terminal 100C in FIG. 2, for example. In the information terminal 100 </ b> C, an image 301 corresponding to the reaction information is displayed along with the content in the display 15.

情報端末100においてコンテンツの共有を終了させる条件が成立すると、CPU10は、ステップS116で、コンテンツの共有を終了させるための制御を実行する。これにより、処理は終了する。当該条件は、たとえば、情報端末100または情報端末200においてコンテンツの供給を終了させる指示が入力されたこと、または、再生中のコンテンツが終了したことによって成立する。コンテンツの供給を終了させるための制御は、たとえば、図7のS13として説明されたような情報端末200への通知を含む。   When the condition for ending content sharing is established in the information terminal 100, the CPU 10 executes control for ending content sharing in step S116. Thereby, the process ends. The condition is satisfied, for example, when an instruction to end the supply of content is input at the information terminal 100 or the information terminal 200, or when the content being reproduced is ended. The control for terminating the content supply includes, for example, notification to the information terminal 200 as described as S13 in FIG.

情報端末200では、ステップS218においてリアクション情報が送信された後、ステップS220において、CPU20は、情報端末100からデータを受信したコンテンツの再生が終了したか否かを判断する。当該判断は、たとえば、情報端末100から、図7のS13について説明されたような、コンテンツの共有を終了する旨の通知を受信したか否かを判断することによって実現される。CPU20は、コンテンツの再生が終了したと判断すると、ステップS222へ制御を進める(ステップS220でYES)。一方、CPU20は、まだコンテンツの再生が終了していないと判断すると、ステップS212へ制御を戻す(ステップS220でNO)。   In the information terminal 200, after the reaction information is transmitted in step S218, in step S220, the CPU 20 determines whether or not the reproduction of the content that has received data from the information terminal 100 is finished. This determination is realized, for example, by determining whether or not the information terminal 100 has received a notification to end content sharing as described in S13 of FIG. When CPU 20 determines that the reproduction of the content has ended, it proceeds to step S222 (YES in step S220). On the other hand, if the CPU 20 determines that the reproduction of the content has not ended yet, the CPU 20 returns the control to step S212 (NO in step S220).

ステップS222では、CPU20は、ステップS210で開始させた、カメラ28による撮影とマイク29による集音を終了させる。これにより、処理が終了する。   In step S222, the CPU 20 ends the shooting by the camera 28 and the sound collection by the microphone 29, which are started in step S210. Thereby, the process ends.

<実施の形態の効果>
以上説明した本実施の形態によれば、情報端末間でコンテンツを共有した場合、コンテンツの供給を受けた側のリアクションが、リアルタイムで、コンテンツを供給した側に送られる。これにより、コンテンツを共有した情報端末のユーザ間で、より円滑に、コミュニケーションが図られる。コンテンツの供給を受けた側の情報端末では、カメラおよび/またはマイクなどを利用して、ユーザのリアクションが検出される。したがって、コンテンツの供給を受けた側の情報端末では、コンテンツの再生中にユーザが能動的に情報を入力することなく、コンテンツを供給した側の情報端末にリアクションを返すことができる。このように、供給を受けた側の情報端末は、リアクションの送信に能動的な操作を必要としないため、コンテンツを全画面表示した状態でも、供給した側の情報端末にリアクションを返すことができる。
<Effect of Embodiment>
According to the present embodiment described above, when content is shared between information terminals, the reaction on the side that received the content is sent in real time to the side that supplied the content. As a result, communication between the users of the information terminals sharing the content can be performed more smoothly. In the information terminal that receives the supply of the content, the reaction of the user is detected using a camera and / or a microphone. Therefore, the information terminal that has received the content can return a reaction to the information terminal that has supplied the content without the user actively inputting information during the reproduction of the content. In this way, since the information terminal on the supply side does not require an active operation to transmit the reaction, the reaction can be returned to the information terminal on the supply side even when the content is displayed on the full screen. .

本実施の形態の情報処理システムでは、情報端末間で、直接、コンテンツが共有され、また、リアクション情報が送受信される。これにより、非言語情報管理サーバのような、特別なサーバを設けることを必要とされない。   In the information processing system of the present embodiment, content is directly shared between information terminals, and reaction information is transmitted and received. Thereby, it is not necessary to provide a special server such as a non-language information management server.

<変形例>
本実施の形態の情報処理システムでは、リアクション情報DB216を、情報端末200または情報端末100が通信可能なサーバ上に格納しておくことも可能である。情報端末200は、当該サーバから、検出されたリアクションの種類に対応する画像等を取得して、リアクション情報を生成し得る。もしくは、リアクション情報は、情報端末100において検出されたリアクションの種類に関連付けられた画像等を特定する情報を含み、当該リアクション情報を受信した情報端末100が、上記種類に関連付けられた画像等を取得して、出力する。
<Modification>
In the information processing system of this embodiment, the reaction information DB 216 can be stored on a server with which the information terminal 200 or the information terminal 100 can communicate. The information terminal 200 can generate reaction information by acquiring an image or the like corresponding to the detected reaction type from the server. Alternatively, the reaction information includes information specifying an image associated with the type of reaction detected in the information terminal 100, and the information terminal 100 that has received the reaction information obtains an image associated with the type. And output.

また、情報端末200において再生されたコンテンツに対するユーザのリアクションは、情報端末200以外の装置で検知されても良い。当該装置は、リアクションの有無やその種類を検知する。より具体的には、当該装置は、リアクションがあったことを検知した場合、当該リアクションの種類を特定して、情報端末200へ出力する。情報端末200は、当該装置から入力された情報に基づいて、ユーザのリアクションがあったこと、および、ユーザのリアクションの種類を検出する。   In addition, the user's reaction to the content reproduced on the information terminal 200 may be detected by a device other than the information terminal 200. The device detects the presence / absence of a reaction and its type. More specifically, when the device detects that a reaction has occurred, the device identifies the type of the reaction and outputs it to the information terminal 200. The information terminal 200 detects that there has been a user's reaction and the type of the user's reaction based on information input from the device.

本実施の形態において共有されるコンテンツは、たとえば、動画ファイル、音声ファイル、テキストファイル、文字、静止画像、カメラ18においてリアルタイムで撮影される映像、および/または、マイク19においてリアルタイムで取得される音声、によって構成される。   The content shared in the present embodiment is, for example, a moving image file, audio file, text file, character, still image, video captured in real time by the camera 18, and / or audio acquired in real time by the microphone 19. It is comprised by.

リアクションの有無の判断は、コンテンツの共有開始時の状態(カメラ28で撮影された顔の表情やマイク29で取得された音声の調子)と、リアクション検出時の状態または前回リアクションが検出された時の状態との差分に基づいてなされても良い。   Whether or not there is a reaction is determined based on the state at the start of content sharing (facial expression photographed by the camera 28 and the tone of the sound acquired by the microphone 29), the state at the time of reaction detection, or when the previous reaction is detected. It may be made on the basis of the difference from the state.

本実施の形態において出力されるリアクション情報としては、図2において情報端末100Cとして示されたような画像(画像301)の他に、図6を参照して説明されたように、文字であっても良いし、絵文字であっても良いし、音声であっても良いし、これらの組合せであっても良い。複数のリアクション情報からどれを出力するかについては、たとえば、所定の順序で選択されても良い。具体的には、たとえば、同一のコンテンツの再生中に同一の種類のリアクションが検出された回数に応じて、画像、文字、絵文字、音声、といった順序で、出力されるコンテンツ情報の種類が選択されても良い。より具体的には、あるコンテンツについて、初めて種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する画像が出力される。次に種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する文字が出力される。次に種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する絵文字が出力される。次に種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する音声が出力される。   As the reaction information output in the present embodiment, in addition to the image (image 301) shown as the information terminal 100C in FIG. 2, as described with reference to FIG. It may be a pictograph, a voice, or a combination thereof. Which of the plurality of reaction information is output may be selected in a predetermined order, for example. Specifically, for example, the type of content information to be output is selected in the order of image, character, pictogram, sound, etc., according to the number of times the same type of reaction is detected during playback of the same content. May be. More specifically, when a reaction of the type “laughter” is detected for a certain content for the first time, an image corresponding to “laughter” is output as reaction information. Next, when a reaction of the type “laughter” is detected, characters corresponding to “laughter” are output as reaction information. Next, when a reaction of the type “laughter” is detected, a pictograph corresponding to “laughter” is output as reaction information. Next, when a reaction of the type “laughter” is detected, a sound corresponding to “laughter” is output as reaction information.

リアクション情報の出力は、ユーザの姿や声が直接的に出力されるのではなく、画像の表示等によって実現されることから、コンテンツの供給を受けた側の情報端末のユーザの反応が、間接的に、コンテンツを供給した側の情報端末に送信される。これにより、コンテンツの供給を受けた側の情報端末のユーザは、比較的抵抗無く、相手の情報端末のユーザに、リアクションを伝えることができる。   Since the reaction information is output not by directly outputting the user's figure or voice, but by displaying the image etc., the reaction of the user of the information terminal receiving the content is indirectly Thus, the information is transmitted to the information terminal that has supplied the content. As a result, the user of the information terminal on the side receiving the content can transmit the reaction to the user of the partner information terminal with relatively little resistance.

情報端末200では、コンテンツの再生中、継続的にカメラ28での撮影とマイク29での集音とが実行されることによって、継続的にリアクションが検出された。そして、リアクションが検出されるたびに、リアクション情報が生成されて、情報端末100へ送信された。   In the information terminal 200, the reaction was continuously detected by continuously performing the shooting with the camera 28 and the sound collection with the microphone 29 during the reproduction of the content. Each time a reaction is detected, reaction information is generated and transmitted to the information terminal 100.

なお、情報端末200でのリアクションの検出は、特定のタイミングでのみ行なわれても良く、たとえば、情報端末200側のユーザが特定の操作ボタンを操作したときなど、情報端末200側のユーザが指定したタイミングでのみ、行なわれても良い。   The reaction may be detected at the information terminal 200 only at a specific timing. For example, when the user on the information terminal 200 operates a specific operation button, the user of the information terminal 200 designates the reaction. It may be performed only at the timing.

または、情報端末200でのリアクションの検出は、コンテンツの送信側である情報端末100においてユーザが特定の操作ボタンを操作したときなど、情報端末100側のユーザが指定したタイミングでのみ、行なわれても良い。また、情報端末100では、予め、情報端末200においてリアクションの検出を行うべきタイミングを設定することもできる。たとえば、コンテンツの共有を開始する際に、情報端末100のユーザは、「コンテンツの共有の開始から1分後の、情報端末200でのユーザのリアクションを取得する」という条件を設定できる。   Alternatively, the reaction is detected on the information terminal 200 only at a timing designated by the user on the information terminal 100 side, such as when the user operates a specific operation button on the information terminal 100 on the content transmission side. Also good. Moreover, in the information terminal 100, the timing which should detect reaction in the information terminal 200 can also be set previously. For example, when content sharing is started, the user of the information terminal 100 can set a condition “acquire user reaction at the information terminal 200 one minute after the start of content sharing”.

リアクション情報は、たとえば、予め登録された音声情報を出力する、予め登録された画像を一定時間出力する、といった態様で出力される。画像は、たとえば、ディスプレイ15に所与の時間だけ表示される。また、画像の表示位置は、ディスプレイ15の一定の位置に表示されても良いし、たとえば、図9において情報端末100D,100E、100Fとして示されるように、ディスプレイ15内でスクロール表示されても良い。なお、情報端末100D,100E、100Fでは、リアクション情報は、画像302と文字303の組合せとして、示されている。図9の情報端末100D,100E、100Fでは、画像302と文字303とは、左側から右側へ、スクロール表示されている。   The reaction information is output in such a manner that, for example, pre-registered audio information is output, or a pre-registered image is output for a certain period of time. The image is displayed on the display 15 for a given time, for example. Further, the display position of the image may be displayed at a fixed position on the display 15, or may be scrolled on the display 15 as shown as information terminals 100D, 100E, and 100F in FIG. . In the information terminals 100D, 100E, and 100F, the reaction information is shown as a combination of the image 302 and the character 303. In the information terminals 100D, 100E, and 100F in FIG. 9, the image 302 and the characters 303 are scroll-displayed from the left side to the right side.

本実施の形態では、リアクション情報は、情報端末200において生成され、情報端末100に対して送信された。なお、情報処理システムでは、リアクション情報は、コンテンツの送信側の端末でも生成される場合もあり得る。つまり、リアクション情報は、さらに、情報端末100において生成され、情報端末200に対して送信され得る。   In the present embodiment, the reaction information is generated in the information terminal 200 and transmitted to the information terminal 100. In the information processing system, the reaction information may be generated also at the terminal on the content transmission side. That is, the reaction information can be further generated at the information terminal 100 and transmitted to the information terminal 200.

[第2の実施の形態]
リアクション情報は、図6を参照して説明されたようにリアクションの種類に応じて変更されるもの以外に、リアクションの種類に関連しないものであっても良い。つまり、リアクションの種類が異なっても、同じリアクション情報が出力されても良い。
[Second Embodiment]
As described with reference to FIG. 6, the reaction information may be not related to the type of reaction other than the information changed according to the type of reaction. That is, the same reaction information may be output even if the reaction types are different.

[第3の実施の形態]
リアクション情報の出力態様としては、図6に示された画像等の以外にも、画面における背景の表示の変更であっても良いし、画面が振動するようなアニメーション表示であっても良いし、画面における表示の点滅であっても良い。
[Third Embodiment]
As the output mode of the reaction information, in addition to the image shown in FIG. 6, the display of the background on the screen may be changed, or an animation display that vibrates the screen may be used. It may be a blinking display on the screen.

[第4の実施の形態]
リアクション情報の出力態様としては、リアクションの声の大きさや表情の変化の大きさによって、図6に示された画像、文字、絵文字の表示サイズを変更したり、出力される音声の音量を変えたりしても良い。
[Fourth Embodiment]
As the output mode of the reaction information, the display size of the images, characters and pictograms shown in FIG. 6 is changed according to the volume of the reaction voice and the change in the expression, and the volume of the output voice is changed. You may do it.

今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be thought that embodiment disclosed this time and its modification are illustrations in all the points, and are not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10,20 CPU、15,25 ディスプレイ、100,200 情報端末。   10,20 CPU, 15,25 Display, 100,200 Information terminal.

Claims (5)

他の端末からコンテンツのデータを受信するための通信部と、
前記他の端末から受信した前記データに基づいてコンテンツを再生するための再生部と、
前記再生部においてコンテンツが再生されているときにユーザのリアクションを検出するための検出部と、
前記検出部が検出したリアクションに基づいて、当該リアクションの内容を示す情報であるリアクション情報を生成するための生成部とを備え、
前記通信部は、前記リアクション情報を前記他の端末に送信する、情報端末。
A communication unit for receiving content data from other terminals;
A playback unit for playing back content based on the data received from the other terminal;
A detection unit for detecting a user reaction when the content is being reproduced in the reproduction unit;
Based on the reaction detected by the detection unit, a generation unit for generating reaction information that is information indicating the content of the reaction,
The communication unit is an information terminal that transmits the reaction information to the other terminal.
情報の入力を受け付けるための入力部をさらに備え、
前記生成部は、前記入力部に情報が入力されたことに応じて、前記リアクション情報を生成する、請求項1に記載の情報端末。
It further includes an input unit for receiving information input,
The information terminal according to claim 1, wherein the generation unit generates the reaction information in response to information input to the input unit.
コンテンツを再生するための再生部と、
前記再生部で再生されるコンテンツを他の端末に送信するための通信部とを備え、
前記通信部は、前記コンテンツに対する前記他の端末でのリアクションの内容を示す情報であるリアクション情報を受信し、
前記再生部は、前記コンテンツとともに前記リアクション情報を再生する、情報端末。
A playback unit for playing back content,
A communication unit for transmitting content played back by the playback unit to another terminal;
The communication unit receives reaction information that is information indicating details of a reaction at the other terminal with respect to the content,
The playback unit plays back the reaction information together with the content.
前記コンテンツに対するリアクションを要求するタイミングを指定する情報であるタイミング情報を入力するための入力部をさらに備え、
前記通信部は、前記タイミング情報によって特定されるタイミングにおいて前記他の端末が取得したリアクション情報を受信する、請求項3に記載の情報端末。
An input unit for inputting timing information which is information for designating a timing for requesting a reaction to the content;
The information terminal according to claim 3, wherein the communication unit receives reaction information acquired by the other terminal at a timing specified by the timing information.
コンテンツを再生する第1の再生部を含む第1の情報端末と、前記第1の情報端末と通信可能な第2の情報端末とを備える情報処理システムであって、
前記第1の情報端末は、
前記第1の再生部において再生されるコンテンツを前記第2の情報端末に送信するための第1の通信部をさらに含み、
前記第2の情報端末は、
前記第1の情報端末から受信した前記コンテンツを再生するための第2の再生部と、
前記第2の再生部において前記コンテンツが再生されているときに当該第2の情報端末におけるユーザのリアクションを検出するための検出部と、
前記検出部が検出したリアクションに基づいて、リアクション情報を生成するための生成部と、
前記リアクション情報を前記第1の情報端末に送信するための第2の通信部とを含み、
前記第1の通信部は、前記第2の情報端末から前記リアクション情報を受信し、
前記第1の再生部は、前記リアクション情報を、前記コンテンツとともに再生する、情報処理システム。
An information processing system comprising a first information terminal including a first reproduction unit for reproducing content, and a second information terminal capable of communicating with the first information terminal,
The first information terminal is
A first communication unit for transmitting the content reproduced in the first reproduction unit to the second information terminal;
The second information terminal is
A second playback unit for playing back the content received from the first information terminal;
A detection unit for detecting a user reaction in the second information terminal when the content is being reproduced in the second reproduction unit;
Based on the reaction detected by the detection unit, a generation unit for generating reaction information;
A second communication unit for transmitting the reaction information to the first information terminal,
The first communication unit receives the reaction information from the second information terminal,
The information processing system, wherein the first reproduction unit reproduces the reaction information together with the content.
JP2013193238A 2013-09-18 2013-09-18 Information terminal and information processing system Pending JP2015060380A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013193238A JP2015060380A (en) 2013-09-18 2013-09-18 Information terminal and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013193238A JP2015060380A (en) 2013-09-18 2013-09-18 Information terminal and information processing system

Publications (1)

Publication Number Publication Date
JP2015060380A true JP2015060380A (en) 2015-03-30

Family

ID=52817860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013193238A Pending JP2015060380A (en) 2013-09-18 2013-09-18 Information terminal and information processing system

Country Status (1)

Country Link
JP (1) JP2015060380A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6096341B1 (en) * 2016-02-16 2017-03-15 Line株式会社 Display control method, terminal, program, and information processing apparatus
JP7552605B2 (en) 2019-09-24 2024-09-18 ソニーグループ株式会社 Information processing device, information processing system, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007173952A (en) * 2005-12-19 2007-07-05 Sony Corp Content reproduction system, reproducing unit and method, providing device and providing method, program, and recording medium
JP2007280074A (en) * 2006-04-07 2007-10-25 Hitachi Ltd Portable terminal and control method
JP2011103616A (en) * 2009-11-12 2011-05-26 Funai Electric Co Ltd Mobile terminal device and method of communication between mobile terminal devices
JP2012181704A (en) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc Information processor and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007173952A (en) * 2005-12-19 2007-07-05 Sony Corp Content reproduction system, reproducing unit and method, providing device and providing method, program, and recording medium
JP2007280074A (en) * 2006-04-07 2007-10-25 Hitachi Ltd Portable terminal and control method
JP2011103616A (en) * 2009-11-12 2011-05-26 Funai Electric Co Ltd Mobile terminal device and method of communication between mobile terminal devices
JP2012181704A (en) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc Information processor and information processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6096341B1 (en) * 2016-02-16 2017-03-15 Line株式会社 Display control method, terminal, program, and information processing apparatus
JP2017146743A (en) * 2016-02-16 2017-08-24 Line株式会社 Display control method, terminal, program, and information processing apparatus
JP7552605B2 (en) 2019-09-24 2024-09-18 ソニーグループ株式会社 Information processing device, information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5466420B2 (en) Emotion recognition message system, mobile communication terminal and message storage server
US8750678B2 (en) Conference recording method and conference system
FI115868B (en) speech synthesis
JP6400445B2 (en) Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program
EP1473937A1 (en) Communication apparatus
JP6212533B2 (en) Screen sharing system, screen sharing method, and screen sharing program
JP2004236186A (en) System, method, program for transmitting face information and computer readable recording medium
JP2016521929A (en) Method, user terminal, and server for information exchange in communication
US10812430B2 (en) Method and system for creating a mercemoji
WO2015176287A1 (en) Method and apparatus for communication by using text information
TW201017559A (en) Image recognition system and image recognition method
WO2017157174A1 (en) Information processing method, device, and terminal device
JP4469867B2 (en) Apparatus, method and program for managing communication status
JP2007280074A (en) Portable terminal and control method
KR20230103665A (en) Method, device, and program for providing text to avatar generation
JP2020136921A (en) Video call system and computer program
CN110188364B (en) Translation method, device and computer readable storage medium based on intelligent glasses
CN114880062A (en) Chat expression display method and device, electronic device and storage medium
JP2015060380A (en) Information terminal and information processing system
KR100686076B1 (en) Wireless Communication Terminal with Message Transmission According to Feeling of Terminal-User and Method of Message Transmission Using Same
KR101027406B1 (en) Emotion recognition message system, mobile communication terminal therefor and message storage server therefor
KR102058190B1 (en) Apparatus for providing character service in character service system
JP2004193809A (en) Communication system
JP7096626B2 (en) Information extraction device
CN112863511B (en) Signal processing method, device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170919