JP2015060380A - Information terminal and information processing system - Google Patents
Information terminal and information processing system Download PDFInfo
- Publication number
- JP2015060380A JP2015060380A JP2013193238A JP2013193238A JP2015060380A JP 2015060380 A JP2015060380 A JP 2015060380A JP 2013193238 A JP2013193238 A JP 2013193238A JP 2013193238 A JP2013193238 A JP 2013193238A JP 2015060380 A JP2015060380 A JP 2015060380A
- Authority
- JP
- Japan
- Prior art keywords
- information
- reaction
- content
- information terminal
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、他の端末とコンテンツを共有する情報端末および当該情報端末を含む情報処理システムに関する。 The present invention relates to an information terminal that shares content with other terminals and an information processing system including the information terminal.
従来、二台の端末間の通信において、一方の端末で取得されたユーザのリアクションや感情を、他方の端末に送信する技術が提案されている。たとえば、特開2007−280074号公報(特許文献1)は、メール受信者の反応をメール送信者に伝える情報端末およびこれを制御する制御方法を開示している。特開2003−271501号公報(特許文献2)は、送信側端末から送信された送信データを受信した送信先端末が、当該送信データを再生し、リアクション情報を取得し、そして、当該取得したリアクション情報を送信側端末に送信する技術を開示している。特開2003−110703号公報(特許文献3)は、通信端末を介する他ユーザの感情等の非言語情報を様々なタイミングで取得することができる情報通信システムを開示している。 2. Description of the Related Art Conventionally, in communication between two terminals, a technique for transmitting a user's reaction and emotion acquired by one terminal to the other terminal has been proposed. For example, Japanese Patent Application Laid-Open No. 2007-280074 (Patent Document 1) discloses an information terminal that transmits a mail receiver's reaction to a mail sender and a control method for controlling the information terminal. Japanese Patent Laid-Open No. 2003-271501 (Patent Document 2) discloses that a transmission destination terminal that receives transmission data transmitted from a transmission side terminal reproduces the transmission data, acquires reaction information, and the acquired reaction A technique for transmitting information to a transmitting terminal is disclosed. Japanese Patent Laying-Open No. 2003-110703 (Patent Document 3) discloses an information communication system that can acquire non-language information such as emotions of other users via communication terminals at various timings.
特許文献1に記載の技術は、受信者がメールを表示してから終了するまでの間の受信者の顔画像を取得し、当該顔画像を利用してユーザ関連情報を作成し、当該ユーザ関連情報を含む返信メールを自動的に作成して、元の送信者へ送信する。したがって、特許文献1では、元の送信者は、ユーザ関連情報が、どのメールに対するリアクションなのかはわかるが、メールのどの部分のリアクションかはわからない。 The technology described in Patent Document 1 acquires a recipient's face image from when the recipient displays an email until the end, creates user-related information using the face image, A reply mail containing information is automatically created and sent to the original sender. Therefore, in Patent Document 1, the original sender knows which mail the user-related information is a reaction to, but does not know which part of the mail is a reaction.
特許文献2に記載の技術では、送信先端末からのリアクションを表す情報の送信は当該端末における送信データの再生後に行なわれる。したがって、送信元端末に対して提供される情報は、送信先端末におけるリアルタイムなリアクションではない。
In the technique described in
特許文献3に記載の技術では、感情を表す非言語情報が、非言語情報管理サーバを経由して送信される。したがって、非言語情報管理サーバが必要になる。また、特許文献3では、その図10(a)や図10(b)に示されるように、非言語情報は、装置間で送受信されるコンテンツ等とともに表示されることはない。このことから、提供される感情が、装置間で共有されるコンテンツなど、特定のコンテンツに関連付けられて提供されることは困難である。 In the technique described in Patent Document 3, non-linguistic information representing emotion is transmitted via a non-linguistic information management server. Therefore, a non-language information management server is required. In Patent Document 3, as shown in FIG. 10A and FIG. 10B, non-language information is not displayed together with contents transmitted and received between apparatuses. For this reason, it is difficult for the provided emotion to be provided in association with specific content such as content shared between devices.
本開示は、かかる実情に鑑み考え出されたものであり、その目的は、情報処理システムにおいて端末間でコンテンツが共有された場合に、コンテンツを供給された側の端末におけるユーザのリアクションをリアルタイムで供給した側の端末に与えられるようにすることである。 The present disclosure has been conceived in view of such a situation, and the purpose of the present disclosure is in real-time when a content is shared between terminals in an information processing system so that a user's reaction at the terminal to which the content is supplied is performed in real time. It is to be given to the terminal on the supply side.
ある局面に従うと、他の端末からコンテンツのデータを受信するための通信部と、他の端末から受信したデータに基づいてコンテンツを再生するための再生部と、再生部においてコンテンツが再生されているときにユーザのリアクションを検出するための検出部と、検出部が検出したリアクションに基づいて、当該リアクションの内容を示す情報であるリアクション情報を生成するための生成部とを備える情報端末が提供される。通信部は、リアクション情報を他の端末に送信する。 According to an aspect, a communication unit for receiving content data from another terminal, a playback unit for playing back content based on data received from another terminal, and the content are played back in the playback unit An information terminal is provided that includes a detection unit for detecting a user's reaction sometimes and a generation unit for generating reaction information that is information indicating the content of the reaction based on the reaction detected by the detection unit. The The communication unit transmits the reaction information to another terminal.
好ましくは、情報端末は、情報の入力を受け付けるための入力部をさらに備える。生成部は、入力部に情報が入力されたことに応じて、リアクション情報を生成する。 Preferably, the information terminal further includes an input unit for receiving information input. The generation unit generates reaction information in response to information input to the input unit.
他の局面に従うと、コンテンツを再生するための再生部と、再生部で再生されるコンテンツを他の端末に送信するための通信部とを備える情報端末が提供される。通信部は、コンテンツに対する他の端末でのリアクションの内容を示す情報であるリアクション情報を受信する。再生部は、コンテンツとともにリアクション情報を再生する。 According to another aspect, an information terminal including a reproducing unit for reproducing content and a communication unit for transmitting the content reproduced by the reproducing unit to another terminal is provided. The communication unit receives reaction information that is information indicating details of a reaction at another terminal with respect to the content. The playback unit plays back the reaction information together with the content.
好ましくは、情報端末は、コンテンツに対するリアクションを要求するタイミングを指定する情報であるタイミング情報を入力するための入力部をさらに備える。通信部は、タイミング情報によって特定されるタイミングにおいて他の端末が取得したリアクション情報を受信する。 Preferably, the information terminal further includes an input unit for inputting timing information that is information for designating a timing for requesting a reaction to the content. The communication unit receives reaction information acquired by another terminal at a timing specified by the timing information.
さらに他の局面に従うと、コンテンツを再生する第1の再生部を含む第1の情報端末と、第1の情報端末と通信可能な第2の情報端末とを備える情報処理システムが提供される。第1の情報端末は、第1の再生部において再生されるコンテンツを第2の情報端末に送信するための第1の通信部をさらに含む。第2の情報端末は、第1の情報端末から受信したコンテンツを再生するための第2の再生部と、第2の再生部においてコンテンツが再生されているときに当該第2の情報端末におけるユーザのリアクションを検出するための検出部と、検出部が検出したリアクションに基づいて、リアクション情報を生成するための生成部と、リアクション情報を第1の情報端末に送信するための第2の通信部とを含む。第1の通信部は、第2の情報端末からリアクション情報を受信する。第1の再生部は、リアクション情報を、コンテンツとともに再生する。 According to yet another aspect, an information processing system is provided that includes a first information terminal including a first reproduction unit that reproduces content, and a second information terminal that can communicate with the first information terminal. The first information terminal further includes a first communication unit for transmitting content reproduced in the first reproduction unit to the second information terminal. The second information terminal includes a second reproduction unit for reproducing the content received from the first information terminal, and a user in the second information terminal when the content is being reproduced in the second reproduction unit. A detecting unit for detecting the reaction, a generating unit for generating reaction information based on the reaction detected by the detecting unit, and a second communication unit for transmitting the reaction information to the first information terminal Including. The first communication unit receives reaction information from the second information terminal. The first playback unit plays back the reaction information together with the content.
本開示によれば、情報処理システムにおいてコンテンツが共有された場合、供給先の情報端末においてコンテンツ再生中に検出されたリアクションが、供給元の情報端末に送られる。これにより、情報処理システムにおいて、コンテンツを供給された側の端末におけるユーザのリアクションが、リアルタイムで、供給した側の端末に与えられる。 According to the present disclosure, when content is shared in an information processing system, a reaction detected during content reproduction in a supply destination information terminal is sent to the supply source information terminal. Thereby, in the information processing system, the reaction of the user at the terminal supplied with the content is given in real time to the terminal supplied with the content.
以下、本開示の情報端末および情報処理システムの実施の形態について、図面を参照して説明する。以下の説明において、同一の機能および作用を有する部品は、各図を通して同じ符号を付し、重複する説明を繰返さない。 Hereinafter, embodiments of an information terminal and an information processing system according to the present disclosure will be described with reference to the drawings. In the following description, parts having the same function and action are denoted by the same reference numerals throughout the drawings, and redundant description will not be repeated.
[第1の実施の形態]
<システム構成>
図1は、情報処理システムの構成を概略的に示す図である。情報処理システムは、情報端末100と情報端末200とを含む。情報端末100と情報端末200は、コンテンツを共有する。本明細書では、主に、情報端末100は、コンテンツを供給する側として、また、情報端末200は、コンテンツを供給される側として、説明される。情報端末100と情報端末200とは、ネットワーク500を介して通信する。図1では、情報端末100,200の機能構成が記載されているが、各機能については後述する。
[First Embodiment]
<System configuration>
FIG. 1 is a diagram schematically showing the configuration of an information processing system. The information processing system includes an
<動作概要>
図2は、情報処理システムにおける情報端末100,200の動作の概要を説明するための図である。情報端末100は、ディスプレイ15を備える。情報端末200は、ディスプレイ25を備える。図2では、情報端末100の異なる3つの状態が情報端末100A,100B,100Cとして示されている。また、情報端末200の異なる2つの状態が情報端末200A,200Bとして示されている。
<Overview of operation>
FIG. 2 is a diagram for explaining an outline of operations of the
情報処理システムでは、情報端末100Aとして示されるように、送信側の端末でコンテンツが再生される。情報端末100Aは、当該コンテンツを情報端末200と共有するために、当該コンテンツを情報端末200へ送信する。これにより、情報端末200Aとして示されるように、受信側の端末でもコンテンツが再生される。情報端末100と情報端末200との間でコンテンツが共有されているため、情報端末100における再生内容が情報端末100Aから情報端末100Bへと変更されると、情報端末200における再生内容も情報端末200Aから情報端末200Bへと変更される。
In the information processing system, as shown as the
情報端末200のユーザが、情報端末200Bに示されたような表示を見て、表情を変えたり声を出すなどして驚くようなリアクションをとったとする。情報端末200は、たとえばカメラによって取得された画像やマイクによって取得された音声に基づいて、そのようなリアクションを検出する。そして、情報端末200は、当該検出結果に基づいて、ユーザのリアクションの内容を示す情報であるリアクション情報を生成し、情報端末100へそれを送信する。
It is assumed that the user of the
情報端末200からリアクション情報を受信すると、情報端末100は、当該リアクション情報を出力する。図2では、情報端末100Cは、ディスプレイ15に、情報端末100Bまでで表示させていたコンテンツとともに、リアクション情報として、検出されたリアクションに対応する画像301を表示する。
When the reaction information is received from the
<ハードウェア構成>
(情報端末100)
図3は、情報端末100のハードウェア構成の具体例を示す図である。図3に示されるように、情報端末100は、演算装置であるCPU(Central Processing Unit)10と、CPU10が実行するプログラム(アプリケーション)などを記憶するためのROM(Read Only Memory)11と、CPU10がプログラムを実行する際の作業領域として機能するRAM(Random Access Memory)12と、コンテンツなどを記憶するためメモリ13と、情報端末100に対する操作入力を受け付けるための操作I/F(インタフェース)14と、画像出力部としてのディスプレイ15と、音声出力部としてのスピーカ16と、情報端末200等の外部機器と無線通信を行なうための通信I/F17と、カメラ18と、マイクロフォン(以下、「マイク」と略記する)19とを含む。
<Hardware configuration>
(Information terminal 100)
FIG. 3 is a diagram illustrating a specific example of the hardware configuration of the
(情報端末200)
図4は、情報端末200のハードウェア構成の具体例を示す図である。図4に示されるように、情報端末200は、情報端末100と同様に、演算装置であるCPU20と、CPU20で実行されるプログラム(アプリケーション)などを記憶するためのROM21と、CPU20がプログラムを実行する際の作業領域として機能するRAM22と、コンテンツなどを記憶するためメモリ23と、情報端末200に対する操作入力を受け付けるための操作I/F24と、画像出力部としてのディスプレイ25と、音声出力部としてのスピーカ26と、情報端末100等の外部機器との間で無線通信を行なうための通信I/F27と、カメラ28と、マイク29とを含む。カメラ28は、たとえば、ディスプレイ25を見つめるユーザの顔を撮影できる位置に設けられている。
(Information terminal 200)
FIG. 4 is a diagram illustrating a specific example of the hardware configuration of the
<機能構成>
(情報端末100)
図1を参照して、情報端末100の機能構成を説明する。情報端末100では、操作入力部102は、外部からの情報の入力を受け付ける。表示部104は、映像(画像)を表示する。コンテンツDB(データベース)110は、コンテンツのファイルを格納する。コンテンツ再生部106は、コンテンツDB110に格納されたコンテンツを再生する。通信部120は、アンテナ122を有し、ネットワーク500を介して、コンテンツのファイル(データ)を情報端末200へ送信する。操作入力部102は、操作I/F14によって実現される。また、表示部104はディスプレイ15によって、通信部120は通信I/F17によって、コンテンツ再生部106はCPU10によって、コンテンツDB110はメモリ13によって、それぞれ実現される。
<Functional configuration>
(Information terminal 100)
The functional configuration of the
後述するように、情報端末200は、情報端末100からコンテンツを受信すると、当該コンテンツを再生させながらリアクション情報を生成し、そして、当該リアクション情報を情報端末100へ送信する。コンテンツ再生部106は、リアクション情報を受信すると、上記コンテンツを再生させながら、当該リアクション情報を出力する。
As will be described later, when the
(情報端末200)
図1を参照して、情報端末200の機能構成を説明する。情報端末200では、操作入力部202は、外部からの情報の入力を受け付ける。通信部220は、アンテナ222を有し、情報端末100から送信されたコンテンツのファイルを受信する。表示部204は、当該コンテンツの再生画像を表示する。A/D(アナログ/デジタル)コンバータ206は、カメラ28に入力された映像のアナログデータをデジタルデータに変換し、マイク29に入力された音声のアナログデータをデジタルデータに変換する。そして、A/Dコンバータ206は、変換後のデジタルデータを、リアクション検出部210へ出力する。
(Information terminal 200)
The functional configuration of the
リアクション検出部210は、A/Dコンバータ206から入力されたデジタルデータに基づいて、情報端末200のユーザによるリアクションを検出する。そして、リアクション検出部210は、リアクションを検出すると、入力されたデジタルデータを表情認識部212へ出力する。
The
「リアクションを検出」する例としては、カメラ28によって撮影された2以上の画像に基づいてユーザの表情に変化があったことが検出されたこと、カメラ28によって撮影された画像において検出されたユーザの表情が特定の表情であることが検出されたこと、マイク29によって取得された音声がユーザの声を含むことが検出されたこと、などが挙げられる。リアクション検出部210は、カメラ28が撮影した画像のみ、マイク29に入力された音声のみ、または、当該画像と当該音声の両方に基づいて、検出され得る。また、リアクションの有無は、画像および音声だけでなく、温度の変化や振動の有無等に基づいても、検出され得る。たとえば、温度の変化に基づくリアクションの有無は、温度センサによる手の温度の検出やカメラ撮影による顔の温度の検出などに基づいて、判断され得る。振動の有無については、たとえば、カメラによって撮影された画像からパターン認識等の技術に基づき顔の位置を特定し、当該顔の位置が特定のパターンで変位したか否かに基づいて、判断され得る。「表情の変化があったこと」の検出は、たとえば、公知の技術(チェイスフォーカス、スマイルシャッタ、等)に基づいて実現され得る。
As an example of “detecting a reaction”, it is detected that there is a change in the user's facial expression based on two or more images captured by the
図5は、表情の特定を説明するための図である。図5を参照して、リアクション検出部210は、たとえば、チェイスフォーカスの技術を利用して、顔を検出する。これにより、たとえば、図5の画像400から、領域401が、顔を表す領域として、抽出される。そして、リアクション検出部210は、検出された顔の中から、顔の中の部位(目や鼻や口)の位置を特定し、目の開き具合や目じりの下がり具合などを特定し、表情の判別に利用する。また、リアクション検出部210は、口の開き具合や口角の上がり具合などを判別に利用する場合もある。また、リアクション検出部210は、顔の中の2以上の部位の位置関係を総合的に特定し、総合的に、笑いや驚きなどの表情を特定する。
FIG. 5 is a diagram for explaining identification of facial expressions. Referring to FIG. 5, the
また、音声に基づくリアクションの検出では、リアクション検出部210は、たとえば、笑い、驚き、悲しみ、称賛などに該当する音響モデルや言語モデルを格納したデータベースを参照することにより、ユーザが発した音声(マイク29に入力された音声データ、または、そこからユーザが発した音声を分離されたデータ)をモデルデータとマッチングする。そして、リアクション検出部210は、マッチングスコアの高いモデルデータに対応するリアクションを、結果として出力する。なお、リアクション検出部210は、リアクションの検出において、ユーザが発した音声を解析することにより発せられた言語(文言)を特定し、特定された言語そのものを利用してもいいし、音声を解析することによりユーザの声の調子(抑揚等)を特定し、当該声の調子を利用してもよい。
In the detection of reaction based on voice, the
情報端末200では、カメラ28がユーザの顔を継続的に撮影し、撮影されたデータが継続的にリアクション検出部210に入力され得る。もしくは、情報端末200では、マイク29が継続的に音声データを生成し、生成された音声データが継続的にリアクション検出部210に入力され得る。
In the
表情認識部212は、予め登録されたリアクションの2以上のパターンの中から、入力されたデジタルデータが該当するパターンを特定する情報を、感情推定部214へ出力する。表情認識部212は、たとえば、カメラ28で撮影された画像が、予め登録されたリアクションのパターン(たとえば、笑顔、怒り顔、泣き顔、困った顔、等)のいずれに該当するかを判断し、その結果を感情推定部214へ出力する。また、表情認識部212は、マイク29に入力された音声に含まれるユーザの声が、予め登録されたリアクションのパターン(たとえば、笑顔、怒り顔、泣き顔、困った顔、等)のいずれに該当するかを判断し、その結果を感情推定部214へ出力する。表情認識部212は、画像についてのリアクションパターンと、音声についてのリアクションのパターンの、いずれか一方を出力しても良いし、双方を出力しても良い。
The facial expression recognition unit 212 outputs, to the emotion estimation unit 214, information specifying a pattern to which the input digital data corresponds from two or more patterns of reactions registered in advance. The facial expression recognition unit 212 determines, for example, whether the image captured by the
感情推定部214は、表情認識部212から出力されたリアクションのパターンに基づいて、情報端末200のユーザのリアクションの種類を特定する。特定されるリアクションの種類は、たとえば、「笑い」「驚き」「悲しみ」または「称賛」である。情報端末200には、たとえば、表情認識部212から出力されるリアクションのパターンと、特定されるリアクションの種類とを関連付けるテーブルが格納されている。感情推定部214は、当該テーブルを参照することにより、表情認識部212から出力されたパターンに対応するユーザのリアクションの種類を特定する。当該テーブルでは、表情認識部212から出力される画像のパターンと音声のパターンの組み合わせが、リアクションの種類と関連付けられている場合もあり得る。
The emotion estimation unit 214 identifies the type of reaction of the user of the
リアクション情報DB216は、リアクションの種類を、リアクション情報と関連付けて格納している。図6は、リアクション情報DB216における情報の格納態様を模式的に示す図である。図6に示されるように、リアクション情報DB216では、リアクションの種類のそれぞれに、画像、文字、絵文字、および、音が関連付けられている。たとえば、種類「笑い」には、太陽の画像と、「ニコニコ」および「ハハハ」という文字と、笑顔を表す絵文字と、笑い声を表す音声情報とが、関連付けられている。
The
感情推定部214は、リアクション情報DB216において、特定したリアクションの種類と関連付けられている画像、文字、絵文字、および/または、音の情報を、リアクション情報生成部218へ出力する。
The emotion estimation unit 214 outputs image, character, pictogram, and / or sound information associated with the identified reaction type in the
リアクション情報生成部218は、感情推定部214から出力された情報を利用して、情報端末100へ送信するリアクション情報を生成する。より具体的には、感情推定部214から出力された情報の中の少なくとも1つが情報端末100において出力されるように、リアクション情報を生成する。そして、リアクション情報生成部218は、リアクション情報を、通信部220を介して、情報端末100へ送信する。
The reaction
以上説明したように、情報端末200は、情報端末100からコンテンツを受信すると、当該コンテンツを再生させながら、カメラ28および/またはマイク29を用いて、ユーザのリアクションを検出する。そして、リアクションが検出されると、情報端末200は、当該リアクションの種類を特定し、情報端末100において特定された種類に関連付けられた情報を出力するためのリアクション情報を生成し、そして、当該リアクション情報を情報端末100へ送信する。
As described above, when receiving the content from the
情報端末200において、A/Dコンバータ206、リアクション検出部210、表情認識部212、感情推定部214、および、リアクション情報生成部218は、CPU20によって実現される。また、情報端末200において、操作入力部202は入力I/F24によって、表示部204はディスプレイ25によって、通信部220は通信I/F27によって、それぞれ実現される。
In the
<処理シーケンス>
次に、情報処理システムにおいて実行される処理のシーケンスを説明する。図7は、情報端末100と情報端末200とによって実行される処理のシーケンスを示す図である。
<Processing sequence>
Next, a sequence of processing executed in the information processing system will be described. FIG. 7 is a diagram illustrating a sequence of processes executed by the
情報端末100のユーザが、操作I/F14に対して、コンテンツを情報端末200と共有しながら再生する指示を入力すると、情報端末100は、情報端末200に対して、コンテンツの共有の可否を問合せる(S1:コンテンツ共有問合せ)。
When the user of the
情報端末200は、S1の問合せを受けると、ディスプレイ25に、コンテンツの共有の可否の入力を促すメッセージを表示させる。これに応じて、情報端末200のユーザは、操作I/F24に、コンテンツの共有を受け入れるか否かの情報を入力する。そして、情報端末200は、入力された情報を情報端末100へ送信する(S2:返答)。ここでは、コンテンツの共有を受け入れる情報が入力された場合が説明される。
When the
情報端末200からの返答を受けると、情報端末100は、コンテンツを情報端末100において再生しながら、当該コンテンツのデータを情報端末200へ送信する(S3:コンテンツ共有開始、S4,S5:コンテンツデータ)。これに応じて、情報端末200では、データを受信したコンテンツが再生される。
Upon receiving a response from the
情報端末200では、コンテンツの再生中にリアクションが検出されると、リアクション情報を生成して、情報端末100へ送信する(S6:リアクション検出・リアクション情報生成,S7:リアクション情報送信)。これに応じて、情報端末100は、コンテンツを再生するとともに、リアクション情報を出力する(S8:リアクション出力)。
In the
情報端末100は、コンテンツの共有を終了する指示が入力されるまで、または、共有することを指示されたコンテンツが終了するまで、情報端末200へ、コンテンツのデータを送信する(S9:コンテンツデータ)。情報端末200では、当該コンテンツの再生が継続される。コンテンツの再生中、情報端末200では、ユーザのリアクションが検出されると、リアクション情報が生成され、当該リアクション情報が情報端末100へ送信される(S10:リアクション検出・リアクション情報生成,S11:リアクション情報送信)。そして、情報端末100は、リアクション情報を受信すると、当該リアクション情報を出力する(S12:リアクション出力)。
The
コンテンツの共有が終了すると、情報端末100は、情報端末200にその旨を通知する(S13:コンテンツデータ終了通知)。これに応じて、情報端末200は、情報端末100に、当該通知を受信したことを通知する(S14:返答)。
When content sharing ends, the
<フローチャート>
図8は、情報処理システムにおいてコンテンツが共有される際に、情報端末100と情報端末200において実行される処理のフローチャートである。図8では、左側に、情報端末100における処理のフローチャートが示され、右側に、情報端末200における処理のフローチャートが示されている。以下、図8を参照して、情報端末100と情報端末200において実行される処理の内容を説明する。
<Flowchart>
FIG. 8 is a flowchart of processing executed in the
情報端末100では、入力I/F14にコンテンツの共有の指示が入力されると、ステップS102で、CPU10は、図7のS1として説明されたように、情報端末200に対して、コンテンツの共有の可否を問合せる情報を送信する。
In the
情報端末200では、ステップS202で、CPU20は、当該問合せを受信する。そして、制御は、ステップS204へ進められる。
In the
ステップS204では、CPU20は、ディスプレイ25にメッセージを表示する等して、ユーザに、情報端末100とのコンテンツの共有を許可するかどうかの指示の入力を促す。そして、CPU20は、共有を許可する指示を入力されると(ステップS204でYES)、ステップS208へ制御を進める。一方、CPU20は、共有を許可しない指示を入力されると(ステップS204でNO)、ステップS206へ制御を進める。
In step S <b> 204, the
ステップS206では、CPU20は、情報端末100に対して共有を拒否する情報を送信して、処理を終了する。
In step S206, CPU20 transmits the information which refuses sharing with respect to the
ステップS208では、CPU20は、情報端末100に対して共有を許可する情報を送信する。そして、制御は、ステップS210へ進められる。
In step S <b> 208, the
ステップS210では、CPU20は、カメラ28による撮影と、マイク29による集音を開始する。
In step S <b> 210, the
一方、情報端末100では、ステップS104で、CPU10は、ステップS206またはステップS208で情報端末200から送信された情報を受信する。そして、制御は、ステップS106へ進められる。
On the other hand, in the
ステップS106では、CPU10は、ステップS104で情報端末200から受信した情報が、コンテンツの共有を許可するものであるか否かを判断する。CPU10は、当該情報がコンテンツの共有を許可するものであると判断すると、ステップS110へ制御を進める(ステップS106でYES)。一方、CPU10は、当該情報がコンテンツの共有を許可するものではないと判断すると、ステップS108へ制御を進める(ステップS106でNO)。
In step S106, the
ステップS108では、CPU10は、コンテンツのデータを情報端末200へ送信することなく、図8に示された処理の開始時にユーザから入力されていた、コンテンツの共有の指示をキャンセルするための制御を実行して、処理を終了させる。
In step S108, the
ステップS110では、CPU10は、情報端末200に、コンテンツのデータを送信する。これは、図7のS4,S5,S9に相当する。
In step S <b> 110, the
情報端末200では、上記したように、ステップS208で、情報端末100にコンテンツの共有を許可する情報が送信された後、ステップS210で、カメラ28による撮影が開始され、また、マイク29による集音が開始されている。また、ステップS110で、情報端末100から情報端末200に、コンテンツのデータが送信されている。そして、ステップS212で、CPU20は、情報端末100から送信されたコンテンツのデータを受信する。そして、CPU20は、当該データに従って、コンテンツを再生する。そして、制御はステップS214へ進められる。
In the
ステップS214で、CPU20は、リアクションが検出されたか否かを判断する。リアクションの検出は、たとえば、リアクション検出部210の機能としてすでに説明された内容に従って実現される。CPU20は、リアクションが検出されたと判断すると、ステップS216へ制御を進める(ステップS214でYES)。一方、CPU20は、リアクションが検出されていないと判断すると、ステップS212へ制御を戻す(ステップS214でNO)。
In step S214, the
ステップS216では、CPU20は、リアクション情報を生成する。リアクション情報の生成は、たとえば、リアクション情報生成部218の機能としてすでに説明された内容に従って実現される。ステップS216は、図7のS6,S10に相当する。そして、制御は、ステップS218へ進められる。
In step S216, the
ステップS218では、CPU20は、ステップS216で生成したリアクション情報を情報端末100へ送信する。ステップS218は、図7のS7,S11に相当する。そして、制御は、ステップS220へ進められる。
In step S218, the
情報端末100では、ステップS112で、CPU10は、リアクション情報を受信したか否かを判断する。そして、CPU10は、リアクション情報を受信したと判断すると、ステップS114へ制御を進める(ステップS112でYES)。一方、CPU10は、リアクション情報を受信していないと判断すると、ステップS110へ制御を戻す(ステップS112でNO)。
In the
ステップS114で、CPU10は、受信したリアクション情報を出力する。リアクション情報の出力態様は、たとえば図2において、情報端末100Cとして示されている。情報端末100Cでは、ディスプレイ15内に、コンテンツとともに、リアクション情報に対応した画像301が表示されている。
In step S114, the
情報端末100においてコンテンツの共有を終了させる条件が成立すると、CPU10は、ステップS116で、コンテンツの共有を終了させるための制御を実行する。これにより、処理は終了する。当該条件は、たとえば、情報端末100または情報端末200においてコンテンツの供給を終了させる指示が入力されたこと、または、再生中のコンテンツが終了したことによって成立する。コンテンツの供給を終了させるための制御は、たとえば、図7のS13として説明されたような情報端末200への通知を含む。
When the condition for ending content sharing is established in the
情報端末200では、ステップS218においてリアクション情報が送信された後、ステップS220において、CPU20は、情報端末100からデータを受信したコンテンツの再生が終了したか否かを判断する。当該判断は、たとえば、情報端末100から、図7のS13について説明されたような、コンテンツの共有を終了する旨の通知を受信したか否かを判断することによって実現される。CPU20は、コンテンツの再生が終了したと判断すると、ステップS222へ制御を進める(ステップS220でYES)。一方、CPU20は、まだコンテンツの再生が終了していないと判断すると、ステップS212へ制御を戻す(ステップS220でNO)。
In the
ステップS222では、CPU20は、ステップS210で開始させた、カメラ28による撮影とマイク29による集音を終了させる。これにより、処理が終了する。
In step S222, the
<実施の形態の効果>
以上説明した本実施の形態によれば、情報端末間でコンテンツを共有した場合、コンテンツの供給を受けた側のリアクションが、リアルタイムで、コンテンツを供給した側に送られる。これにより、コンテンツを共有した情報端末のユーザ間で、より円滑に、コミュニケーションが図られる。コンテンツの供給を受けた側の情報端末では、カメラおよび/またはマイクなどを利用して、ユーザのリアクションが検出される。したがって、コンテンツの供給を受けた側の情報端末では、コンテンツの再生中にユーザが能動的に情報を入力することなく、コンテンツを供給した側の情報端末にリアクションを返すことができる。このように、供給を受けた側の情報端末は、リアクションの送信に能動的な操作を必要としないため、コンテンツを全画面表示した状態でも、供給した側の情報端末にリアクションを返すことができる。
<Effect of Embodiment>
According to the present embodiment described above, when content is shared between information terminals, the reaction on the side that received the content is sent in real time to the side that supplied the content. As a result, communication between the users of the information terminals sharing the content can be performed more smoothly. In the information terminal that receives the supply of the content, the reaction of the user is detected using a camera and / or a microphone. Therefore, the information terminal that has received the content can return a reaction to the information terminal that has supplied the content without the user actively inputting information during the reproduction of the content. In this way, since the information terminal on the supply side does not require an active operation to transmit the reaction, the reaction can be returned to the information terminal on the supply side even when the content is displayed on the full screen. .
本実施の形態の情報処理システムでは、情報端末間で、直接、コンテンツが共有され、また、リアクション情報が送受信される。これにより、非言語情報管理サーバのような、特別なサーバを設けることを必要とされない。 In the information processing system of the present embodiment, content is directly shared between information terminals, and reaction information is transmitted and received. Thereby, it is not necessary to provide a special server such as a non-language information management server.
<変形例>
本実施の形態の情報処理システムでは、リアクション情報DB216を、情報端末200または情報端末100が通信可能なサーバ上に格納しておくことも可能である。情報端末200は、当該サーバから、検出されたリアクションの種類に対応する画像等を取得して、リアクション情報を生成し得る。もしくは、リアクション情報は、情報端末100において検出されたリアクションの種類に関連付けられた画像等を特定する情報を含み、当該リアクション情報を受信した情報端末100が、上記種類に関連付けられた画像等を取得して、出力する。
<Modification>
In the information processing system of this embodiment, the
また、情報端末200において再生されたコンテンツに対するユーザのリアクションは、情報端末200以外の装置で検知されても良い。当該装置は、リアクションの有無やその種類を検知する。より具体的には、当該装置は、リアクションがあったことを検知した場合、当該リアクションの種類を特定して、情報端末200へ出力する。情報端末200は、当該装置から入力された情報に基づいて、ユーザのリアクションがあったこと、および、ユーザのリアクションの種類を検出する。
In addition, the user's reaction to the content reproduced on the
本実施の形態において共有されるコンテンツは、たとえば、動画ファイル、音声ファイル、テキストファイル、文字、静止画像、カメラ18においてリアルタイムで撮影される映像、および/または、マイク19においてリアルタイムで取得される音声、によって構成される。
The content shared in the present embodiment is, for example, a moving image file, audio file, text file, character, still image, video captured in real time by the
リアクションの有無の判断は、コンテンツの共有開始時の状態(カメラ28で撮影された顔の表情やマイク29で取得された音声の調子)と、リアクション検出時の状態または前回リアクションが検出された時の状態との差分に基づいてなされても良い。
Whether or not there is a reaction is determined based on the state at the start of content sharing (facial expression photographed by the
本実施の形態において出力されるリアクション情報としては、図2において情報端末100Cとして示されたような画像(画像301)の他に、図6を参照して説明されたように、文字であっても良いし、絵文字であっても良いし、音声であっても良いし、これらの組合せであっても良い。複数のリアクション情報からどれを出力するかについては、たとえば、所定の順序で選択されても良い。具体的には、たとえば、同一のコンテンツの再生中に同一の種類のリアクションが検出された回数に応じて、画像、文字、絵文字、音声、といった順序で、出力されるコンテンツ情報の種類が選択されても良い。より具体的には、あるコンテンツについて、初めて種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する画像が出力される。次に種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する文字が出力される。次に種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する絵文字が出力される。次に種類「笑い」のリアクションが検出された場合には、リアクション情報として、「笑い」に対応する音声が出力される。 As the reaction information output in the present embodiment, in addition to the image (image 301) shown as the information terminal 100C in FIG. 2, as described with reference to FIG. It may be a pictograph, a voice, or a combination thereof. Which of the plurality of reaction information is output may be selected in a predetermined order, for example. Specifically, for example, the type of content information to be output is selected in the order of image, character, pictogram, sound, etc., according to the number of times the same type of reaction is detected during playback of the same content. May be. More specifically, when a reaction of the type “laughter” is detected for a certain content for the first time, an image corresponding to “laughter” is output as reaction information. Next, when a reaction of the type “laughter” is detected, characters corresponding to “laughter” are output as reaction information. Next, when a reaction of the type “laughter” is detected, a pictograph corresponding to “laughter” is output as reaction information. Next, when a reaction of the type “laughter” is detected, a sound corresponding to “laughter” is output as reaction information.
リアクション情報の出力は、ユーザの姿や声が直接的に出力されるのではなく、画像の表示等によって実現されることから、コンテンツの供給を受けた側の情報端末のユーザの反応が、間接的に、コンテンツを供給した側の情報端末に送信される。これにより、コンテンツの供給を受けた側の情報端末のユーザは、比較的抵抗無く、相手の情報端末のユーザに、リアクションを伝えることができる。 Since the reaction information is output not by directly outputting the user's figure or voice, but by displaying the image etc., the reaction of the user of the information terminal receiving the content is indirectly Thus, the information is transmitted to the information terminal that has supplied the content. As a result, the user of the information terminal on the side receiving the content can transmit the reaction to the user of the partner information terminal with relatively little resistance.
情報端末200では、コンテンツの再生中、継続的にカメラ28での撮影とマイク29での集音とが実行されることによって、継続的にリアクションが検出された。そして、リアクションが検出されるたびに、リアクション情報が生成されて、情報端末100へ送信された。
In the
なお、情報端末200でのリアクションの検出は、特定のタイミングでのみ行なわれても良く、たとえば、情報端末200側のユーザが特定の操作ボタンを操作したときなど、情報端末200側のユーザが指定したタイミングでのみ、行なわれても良い。
The reaction may be detected at the
または、情報端末200でのリアクションの検出は、コンテンツの送信側である情報端末100においてユーザが特定の操作ボタンを操作したときなど、情報端末100側のユーザが指定したタイミングでのみ、行なわれても良い。また、情報端末100では、予め、情報端末200においてリアクションの検出を行うべきタイミングを設定することもできる。たとえば、コンテンツの共有を開始する際に、情報端末100のユーザは、「コンテンツの共有の開始から1分後の、情報端末200でのユーザのリアクションを取得する」という条件を設定できる。
Alternatively, the reaction is detected on the
リアクション情報は、たとえば、予め登録された音声情報を出力する、予め登録された画像を一定時間出力する、といった態様で出力される。画像は、たとえば、ディスプレイ15に所与の時間だけ表示される。また、画像の表示位置は、ディスプレイ15の一定の位置に表示されても良いし、たとえば、図9において情報端末100D,100E、100Fとして示されるように、ディスプレイ15内でスクロール表示されても良い。なお、情報端末100D,100E、100Fでは、リアクション情報は、画像302と文字303の組合せとして、示されている。図9の情報端末100D,100E、100Fでは、画像302と文字303とは、左側から右側へ、スクロール表示されている。
The reaction information is output in such a manner that, for example, pre-registered audio information is output, or a pre-registered image is output for a certain period of time. The image is displayed on the
本実施の形態では、リアクション情報は、情報端末200において生成され、情報端末100に対して送信された。なお、情報処理システムでは、リアクション情報は、コンテンツの送信側の端末でも生成される場合もあり得る。つまり、リアクション情報は、さらに、情報端末100において生成され、情報端末200に対して送信され得る。
In the present embodiment, the reaction information is generated in the
[第2の実施の形態]
リアクション情報は、図6を参照して説明されたようにリアクションの種類に応じて変更されるもの以外に、リアクションの種類に関連しないものであっても良い。つまり、リアクションの種類が異なっても、同じリアクション情報が出力されても良い。
[Second Embodiment]
As described with reference to FIG. 6, the reaction information may be not related to the type of reaction other than the information changed according to the type of reaction. That is, the same reaction information may be output even if the reaction types are different.
[第3の実施の形態]
リアクション情報の出力態様としては、図6に示された画像等の以外にも、画面における背景の表示の変更であっても良いし、画面が振動するようなアニメーション表示であっても良いし、画面における表示の点滅であっても良い。
[Third Embodiment]
As the output mode of the reaction information, in addition to the image shown in FIG. 6, the display of the background on the screen may be changed, or an animation display that vibrates the screen may be used. It may be a blinking display on the screen.
[第4の実施の形態]
リアクション情報の出力態様としては、リアクションの声の大きさや表情の変化の大きさによって、図6に示された画像、文字、絵文字の表示サイズを変更したり、出力される音声の音量を変えたりしても良い。
[Fourth Embodiment]
As the output mode of the reaction information, the display size of the images, characters and pictograms shown in FIG. 6 is changed according to the volume of the reaction voice and the change in the expression, and the volume of the output voice is changed. You may do it.
今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be thought that embodiment disclosed this time and its modification are illustrations in all the points, and are not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
10,20 CPU、15,25 ディスプレイ、100,200 情報端末。 10,20 CPU, 15,25 Display, 100,200 Information terminal.
Claims (5)
前記他の端末から受信した前記データに基づいてコンテンツを再生するための再生部と、
前記再生部においてコンテンツが再生されているときにユーザのリアクションを検出するための検出部と、
前記検出部が検出したリアクションに基づいて、当該リアクションの内容を示す情報であるリアクション情報を生成するための生成部とを備え、
前記通信部は、前記リアクション情報を前記他の端末に送信する、情報端末。 A communication unit for receiving content data from other terminals;
A playback unit for playing back content based on the data received from the other terminal;
A detection unit for detecting a user reaction when the content is being reproduced in the reproduction unit;
Based on the reaction detected by the detection unit, a generation unit for generating reaction information that is information indicating the content of the reaction,
The communication unit is an information terminal that transmits the reaction information to the other terminal.
前記生成部は、前記入力部に情報が入力されたことに応じて、前記リアクション情報を生成する、請求項1に記載の情報端末。 It further includes an input unit for receiving information input,
The information terminal according to claim 1, wherein the generation unit generates the reaction information in response to information input to the input unit.
前記再生部で再生されるコンテンツを他の端末に送信するための通信部とを備え、
前記通信部は、前記コンテンツに対する前記他の端末でのリアクションの内容を示す情報であるリアクション情報を受信し、
前記再生部は、前記コンテンツとともに前記リアクション情報を再生する、情報端末。 A playback unit for playing back content,
A communication unit for transmitting content played back by the playback unit to another terminal;
The communication unit receives reaction information that is information indicating details of a reaction at the other terminal with respect to the content,
The playback unit plays back the reaction information together with the content.
前記通信部は、前記タイミング情報によって特定されるタイミングにおいて前記他の端末が取得したリアクション情報を受信する、請求項3に記載の情報端末。 An input unit for inputting timing information which is information for designating a timing for requesting a reaction to the content;
The information terminal according to claim 3, wherein the communication unit receives reaction information acquired by the other terminal at a timing specified by the timing information.
前記第1の情報端末は、
前記第1の再生部において再生されるコンテンツを前記第2の情報端末に送信するための第1の通信部をさらに含み、
前記第2の情報端末は、
前記第1の情報端末から受信した前記コンテンツを再生するための第2の再生部と、
前記第2の再生部において前記コンテンツが再生されているときに当該第2の情報端末におけるユーザのリアクションを検出するための検出部と、
前記検出部が検出したリアクションに基づいて、リアクション情報を生成するための生成部と、
前記リアクション情報を前記第1の情報端末に送信するための第2の通信部とを含み、
前記第1の通信部は、前記第2の情報端末から前記リアクション情報を受信し、
前記第1の再生部は、前記リアクション情報を、前記コンテンツとともに再生する、情報処理システム。 An information processing system comprising a first information terminal including a first reproduction unit for reproducing content, and a second information terminal capable of communicating with the first information terminal,
The first information terminal is
A first communication unit for transmitting the content reproduced in the first reproduction unit to the second information terminal;
The second information terminal is
A second playback unit for playing back the content received from the first information terminal;
A detection unit for detecting a user reaction in the second information terminal when the content is being reproduced in the second reproduction unit;
Based on the reaction detected by the detection unit, a generation unit for generating reaction information;
A second communication unit for transmitting the reaction information to the first information terminal,
The first communication unit receives the reaction information from the second information terminal,
The information processing system, wherein the first reproduction unit reproduces the reaction information together with the content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013193238A JP2015060380A (en) | 2013-09-18 | 2013-09-18 | Information terminal and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013193238A JP2015060380A (en) | 2013-09-18 | 2013-09-18 | Information terminal and information processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015060380A true JP2015060380A (en) | 2015-03-30 |
Family
ID=52817860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013193238A Pending JP2015060380A (en) | 2013-09-18 | 2013-09-18 | Information terminal and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015060380A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6096341B1 (en) * | 2016-02-16 | 2017-03-15 | Line株式会社 | Display control method, terminal, program, and information processing apparatus |
JP7552605B2 (en) | 2019-09-24 | 2024-09-18 | ソニーグループ株式会社 | Information processing device, information processing system, information processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007173952A (en) * | 2005-12-19 | 2007-07-05 | Sony Corp | Content reproduction system, reproducing unit and method, providing device and providing method, program, and recording medium |
JP2007280074A (en) * | 2006-04-07 | 2007-10-25 | Hitachi Ltd | Portable terminal and control method |
JP2011103616A (en) * | 2009-11-12 | 2011-05-26 | Funai Electric Co Ltd | Mobile terminal device and method of communication between mobile terminal devices |
JP2012181704A (en) * | 2011-03-01 | 2012-09-20 | Sony Computer Entertainment Inc | Information processor and information processing method |
-
2013
- 2013-09-18 JP JP2013193238A patent/JP2015060380A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007173952A (en) * | 2005-12-19 | 2007-07-05 | Sony Corp | Content reproduction system, reproducing unit and method, providing device and providing method, program, and recording medium |
JP2007280074A (en) * | 2006-04-07 | 2007-10-25 | Hitachi Ltd | Portable terminal and control method |
JP2011103616A (en) * | 2009-11-12 | 2011-05-26 | Funai Electric Co Ltd | Mobile terminal device and method of communication between mobile terminal devices |
JP2012181704A (en) * | 2011-03-01 | 2012-09-20 | Sony Computer Entertainment Inc | Information processor and information processing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6096341B1 (en) * | 2016-02-16 | 2017-03-15 | Line株式会社 | Display control method, terminal, program, and information processing apparatus |
JP2017146743A (en) * | 2016-02-16 | 2017-08-24 | Line株式会社 | Display control method, terminal, program, and information processing apparatus |
JP7552605B2 (en) | 2019-09-24 | 2024-09-18 | ソニーグループ株式会社 | Information processing device, information processing system, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5466420B2 (en) | Emotion recognition message system, mobile communication terminal and message storage server | |
US8750678B2 (en) | Conference recording method and conference system | |
FI115868B (en) | speech synthesis | |
JP6400445B2 (en) | Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program | |
EP1473937A1 (en) | Communication apparatus | |
JP6212533B2 (en) | Screen sharing system, screen sharing method, and screen sharing program | |
JP2004236186A (en) | System, method, program for transmitting face information and computer readable recording medium | |
JP2016521929A (en) | Method, user terminal, and server for information exchange in communication | |
US10812430B2 (en) | Method and system for creating a mercemoji | |
WO2015176287A1 (en) | Method and apparatus for communication by using text information | |
TW201017559A (en) | Image recognition system and image recognition method | |
WO2017157174A1 (en) | Information processing method, device, and terminal device | |
JP4469867B2 (en) | Apparatus, method and program for managing communication status | |
JP2007280074A (en) | Portable terminal and control method | |
KR20230103665A (en) | Method, device, and program for providing text to avatar generation | |
JP2020136921A (en) | Video call system and computer program | |
CN110188364B (en) | Translation method, device and computer readable storage medium based on intelligent glasses | |
CN114880062A (en) | Chat expression display method and device, electronic device and storage medium | |
JP2015060380A (en) | Information terminal and information processing system | |
KR100686076B1 (en) | Wireless Communication Terminal with Message Transmission According to Feeling of Terminal-User and Method of Message Transmission Using Same | |
KR101027406B1 (en) | Emotion recognition message system, mobile communication terminal therefor and message storage server therefor | |
KR102058190B1 (en) | Apparatus for providing character service in character service system | |
JP2004193809A (en) | Communication system | |
JP7096626B2 (en) | Information extraction device | |
CN112863511B (en) | Signal processing method, device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170412 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170919 |