JP6698292B2 - 情報処理システム - Google Patents

情報処理システム Download PDF

Info

Publication number
JP6698292B2
JP6698292B2 JP2015160050A JP2015160050A JP6698292B2 JP 6698292 B2 JP6698292 B2 JP 6698292B2 JP 2015160050 A JP2015160050 A JP 2015160050A JP 2015160050 A JP2015160050 A JP 2015160050A JP 6698292 B2 JP6698292 B2 JP 6698292B2
Authority
JP
Japan
Prior art keywords
message
information processing
character
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015160050A
Other languages
English (en)
Other versions
JP2017037585A (ja
Inventor
高橋 龍太郎
龍太郎 高橋
翔 相馬
翔 相馬
一期 吉原
一期 吉原
銀河 亀井
銀河 亀井
雅幸 岡田
雅幸 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2015160050A priority Critical patent/JP6698292B2/ja
Priority to US15/061,159 priority patent/US11088976B2/en
Publication of JP2017037585A publication Critical patent/JP2017037585A/ja
Application granted granted Critical
Publication of JP6698292B2 publication Critical patent/JP6698292B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones

Description

本開示は、情報端末間でデータ通信が可能な情報処理システムに関する。
近年、スマートフォン等の携帯情報端末が普及している。そして、ユーザは様々なネットワークサービスをこのような携帯情報端末を用いて利用する機会も増加している。
また、これとは別に、いわゆるソーシャルネットワークサービス(SNS)も普及している。当該SNSは、パーソナルコンピュータのみならず、上記の携帯情報端末上でも利用可能であり、また、中には、携帯情報端末のみで利用可能なSNSのようなものも提供されている。実際、携帯情報端末でSNSを楽しむユーザも増加している。このようなSNSでは、ユーザ同士で投稿を閲覧することが可能である(特許文献1)。
特開2015−56127号公報
しかしながら、上記技術は投稿したユーザと文字または画像による投稿内容とが紐付けられて表示されるだけであり、コミュニケーションの表現を豊かにしてユーザ間のコミュニケーションを促進することについて改善の余地があった。
本開示の目的は、ユーザ間のコミュニケーションを促進することが可能な情報処理システム、情報処理装置、プログラムおよび情報処理装置の制御方法を提供することである。
ある局面に従うサーバを介して複数の情報処理装置の間でデータ通信が可能な情報処理システムであって、第1の情報処理装置は、第1の情報処理装置を操作するユーザにより入力された第1メッセージの入力を受け付ける第1メッセージ受付部と、受け付けた第1メッセージおよび第1キャラクタ情報をサーバに送信する第1メッセージ送信部とを含む。第2の情報処理装置は、第2の情報処理装置を操作するユーザにより入力された第2メッセージの入力を受け付ける第2メッセージ受付部と、受け付けた第2メッセージおよび第2キャラクタ情報をサーバに送信する第2メッセージ送信部とを含む。第1の情報処理装置は、第1キャラクタ情報に基づく第1キャラクタと対応させた第1メッセージと、サーバを介して取得した第2キャラクタ情報に基づく第2キャラクタと対応させた第2メッセージとを表示部に時系列的に表示する表示出力部と、第1メッセージと第2メッセージとを音声出力する音声出力部とをさらに含む。
好ましくは、再生出力部は、第1メッセージおよび第2メッセージの少なくともいずれかの内容の解析結果と対応するキャラクタ情報とに基づきキャラクタの表示処理を実行する。
好ましくは、再生出力部は、第1メッセージと第2メッセージとを音声出力しながら、解析結果と対応するキャラクタ情報とに基づきキャラクタの表示処理を実行する。
好ましくは、再生出力部は、第1メッセージおよび第2メッセージの少なくともいずれかの内容の解析結果に基づき当該第1メッセージおよび当該第2メッセージの少なくともいずれかの表示処理を実行する。
好ましくは、再生出力部は、第1メッセージおよび第2メッセージの少なくともいずれかの内容の解析結果に基づき当該第1メッセージおよび当該第2メッセージの少なくともいずれかを音声出力する。
好ましくは、解析結果は、第1メッセージおよび第2メッセージの少なくともいずれかの内容を所定単位毎に分割した、分割した単位毎の解析結果である。
好ましくは、表示部に時系列的に表示されたメッセージは、ユーザの操作に従ってスクロール表示可能に設けられており、再生出力部は、表示部の画面内に第1あるいは第2メッセージが表示されているか否かを判断し、画面内に表示されているメッセージに対して順次音声出力する。
好ましくは、キャラクタは、ユーザを示すアバターである。
好ましくは、再生出力部は、アバターのアニメーション表示を行う。
好ましくは、再生出力部は、複数の動作パターンの中から1つを選択してアバターのアニメーション表示を行う。
好ましくは、再生出力部は、表示部に時系列的に表示されたメッセージを順番に音声出力する。
好ましくは、再生出力部は、表示部に時系列的に表示されたメッセージを順番に繰り返し音声出力する。
好ましくは、再生出力部は、表示部に表示されていないメッセージをスクロール表示し、スクロール表示されたメッセージを順番に繰り返し音声出力する。
好ましくは、再生出力部は、メッセージを音声出力する際の再生位置に対応するサーバを介して取得したメッセージ内容の解析結果を取得する。
好ましくは、再生出力部は、取得した解析結果に基づき当該メッセージの表示処理を実行する。
好ましくは、再生出力部は、取得した解析結果および対応するキャラクタ情報に基づきキャラクタの表示処理を実行する。
ある局面に従うサーバを介して複数の情報処理装置間でデータ通信が可能な情報処理システムであって、第1の情報処理装置は、第1の情報処理装置を操作するユーザにより入力された第1メッセージの入力を受け付ける第1メッセージ受付部と、受け付けた第1メッセージおよび第1キャラクタ情報をサーバに送信する第1メッセージ送信部とを含む。第2の情報処理装置は、第2の情報処理装置を操作するユーザにより入力された第2メッセージの入力を受け付ける第2メッセージ受付部と、受け付けた第2メッセージおよび第2キャラクタ情報をサーバに送信する第2メッセージ送信部とを含む。第1の情報処理装置は、第1キャラクタ情報に基づく第1キャラクタと対応させた第1メッセージと、サーバを介して取得した第2キャラクタ情報に基づく第2キャラクタと対応させた第2メッセージとを表示部に時系列的に表示する表示出力部と、第1および第2メッセージの内容の解析結果に基づく再生処理を実行する再生出力部とをさらに含む。
ある局面に従うサーバを介して他の情報処理装置とデータ通信が可能な情報処理装置であって、情報処理装置を操作するユーザにより入力された第1メッセージの入力を受け付けるメッセージ受付部と、受け付けた第1メッセージおよび第1キャラクタ情報をサーバに送信するメッセージ送信部と、第1メッセージと対応させた第1キャラクタ情報に基づく第1キャラクタと、サーバを介して取得した他の情報処理装置により入力された第2メッセージと第2キャラクタ情報に基づく第2キャラクタとを表示部に時系列的に表示する表示出力部と、第1メッセージと第2メッセージとを音声出力する音声出力部とを備える。
ある局面に従うサーバを介して他の情報処理装置とデータ通信が可能な情報処理装置のコンピュータで実行されるプログラムであって、プログラムは、情報処理装置のコンピュータを、情報処理装置を操作するユーザにより入力された第1メッセージの入力を受け付けるメッセージ受付部と、受け付けた第1メッセージおよび第1キャラクタ情報をサーバに送信するメッセージ送信部と、第1メッセージと対応させた第1キャラクタ情報に基づく第1キャラクタと、サーバを介して取得した他の情報処理装置により入力された第2メッセージと第2キャラクタ情報に基づく第2キャラクタとを表示部に時系列的に表示する表示出力部と、第1メッセージと第2メッセージとを音声出力する音声出力部として機能させる。
ある局面に従うサーバを介して他の情報処理装置とデータ通信が可能な情報処理装置の制御方法であって、情報処理装置を操作するユーザにより入力された第1メッセージの入力を受け付けるステップと、受け付けた第1メッセージおよび第1キャラクタ情報をサーバに送信するステップと、第1メッセージと対応させた第1キャラクタ情報に基づく第1キャラクタと、サーバを介して取得した他の情報処理装置により入力された第2メッセージと第2キャラクタ情報に基づく第2キャラクタとを表示部に時系列的に表示するステップと、第1メッセージと第2メッセージとを音声出力するステップとを備える。
上記によれば、ユーザ間のコミュニケーションを促進することが可能である。
実施形態に基づく情報処理システムの一例の構成を示す図である。 実施形態に基づく端末2の構成を説明する図である。 実施形態に基づくサーバ5の構成を説明する図である。 実施形態に基づく情報処理システム1の各機能ブロック構成を説明する図である。 実施形態に基づく関連情報格納部44に格納されているデータを説明する図である。 実施形態に基づくサーバ5に送信される投稿データの一例を説明する図である。 実施形態に基づくサーバ5から送信される投稿データの一例を説明する図である。 実施形態に基づくメッセージを投稿する処理について説明する図である。 実施形態に基づく投稿されたメッセージを閲覧する処理について説明する図である。 実施形態に基づく情報処理システムのデータ通信の処理の流れを説明する図である。 実施形態に基づくサーバ5において実行される処理について説明するフロー図である。 実施形態に基づくサーバ5において実行される解析・編集処理について説明するフロー図である。 実施形態に基づくメッセージの解析処理(その1)を説明する図である。 実施形態に基づくメッセージの解析処理(その2)を説明する図である。 実施形態に基づく端末2のアプリ処理について説明するフロー図である。 実施形態に基づく仮想画面領域および表示領域の設定について説明する図である。 実施形態に基づく端末2の再生出力処理について説明するフロー図である。 実施形態に基づくメッセージ再生処理の概念を説明する図である。 実施形態に基づくメッセージ再生処理を説明するフロー図である。 実施形態に基づくメッセージ音声再生処理を説明するフロー図である。 実施形態に基づくメッセージ表示再生処理を説明するフロー図である。 実施形態に基づくキャラクタ表示再生処理を説明するフロー図である。
この実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。
(実施形態)
<情報処理システムの構成>
図1は、実施形態に基づく情報処理システムの一例の構成を示す図である。
図1に示すように、情報処理システム1は、サーバ5と、複数の端末2A〜2Cとを含む。端末2A〜2Cは、サーバ5と通信可能に設けられており、サーバ5を介して他の端末とデータ通信が可能である。
端末2A〜2Cは、データ通信が可能な任意の情報処理装置である。本実施形態においては、端末2A〜2Cは、例えば携帯型ゲーム装置、携帯電話、あるいはスマートフォン等といった、携帯型(可搬型とも言う)の装置であってもよいし、パーソナルコンピュータや家庭用ゲーム機等といった据置型の装置であってもよいし、業務用のアーケードゲーム装置のような大型の装置であってもよい。
サーバ5は、端末2A〜2Cとの間でデータ通信が可能な任意の情報処理装置である。
なお、本例においては、端末2A〜2Cについて説明するが特に当該個数に限られる訳ではなく、2以上の個数であればさらに複数の端末を設ける構成にすることも可能である。
以下、端末2A〜2C(以下、総称して端末2とも称する)の構成について説明する。
図2は、実施形態に基づく端末2の構成を説明する図である。
図2に示されるように、端末2は、通信部11と、CPU13と、メモリ14と、プログラム記憶部15と、入力部16と、表示部17とを含む。CPU13は、端末2で実行される各種の情報処理を実行するための情報処理部である。CPU13は、メモリ14を用いて上記各種の情報処理を実行する。プログラム記憶部15は、端末2において実行される各種プログラム(通信プログラムおよびアプリケーションプログラムを含む)を記憶する。プログラム記憶部15は、CPU13がアクセス可能な任意の記憶装置(記憶媒体)である。プログラム記憶部15は、例えばハードディスクやメモリ等の、端末2に内蔵される記憶部であってもよいし、例えば光ディスクやカートリッジ等の、端末2に着脱可能な記憶媒体であってもよいし、これらの記憶部および記憶媒体の両方であってもよい。
本実施形態においては、端末2では、少なくともアプリケーションプログラムおよび通信プログラムという2種類のプログラムがプログラム記憶部15に記憶される。
アプリケーションプログラムは、任意のアプリケーションを実行するためのプログラムである。アプリケーションプログラムは、例えば、ゲームデータを読み出して当該ゲームデータを用いてゲーム処理を行うゲームプログラムであってもよい。
通信プログラムは、サーバ5との間でデータ通信を行うためのプログラムである。例えば、通信プログラムは、アプリケーションからの指令を受けて通信のための動作を通信部11に行わせる。
入力部16は、ボタンやタッチパネル等、ユーザによる指示を受け付ける。
表示部17は、上記情報処理によって生成される画像を表示する。
端末2は、複数の装置によって構成されてもよい。例えば、端末2は、CPU13およびメモリ14を備える装置に対して、上記通信部11を備える装置が着脱可能に接続される構成であってもよい。また、端末2は、CPU13を有する本体装置と、入力部16および/または表示部17を有する装置とが別体である構成であってもよい。例えば、他の実施形態において、端末2は、本体装置と、入力部16および表示部17を有する端末装置とによって構成されてもよいし、本体装置と、入力部16を有する操作装置とによって構成されてもよい。また、端末2は、表示部17を備えず、テレビを表示装置として用いる構成であってもよい。
また、他の実施形態においては、端末2において実行される情報処理の少なくとも一部が、ネットワーク(広域ネットワークおよび/またはローカルネットワーク)によって通信可能な複数の装置によって分散して実行されてもよい。
図3は、実施形態に基づくサーバ5の構成を説明する図である。
図3を参照して、サーバ5は、通信部22と、CPU21と、メモリ23と、プログラム記憶部24とを含む。各機能については基本的に端末2で説明したのと同様であるのでその詳細な説明は繰り返さない。なお、入力部および表示部が設けられていないが、入力部および表示部を設けた構成とすることも可能である。
<機能ブロック構成>
図4は、実施形態に基づく情報処理システム1の各機能ブロック構成を説明する図である。
図4に示されるように、一例として端末2A,2B,2Cと、サーバ5の機能ブロックの構成が示されている。本例においては、サーバ5を介して端末2A,2B,2Cとの間のデータ通信について説明する。具体的には、一例としてユーザ同士でメッセージを互いに投稿しあい、投稿したメッセージを閲覧することが可能なネットワークサービスについて説明する。
ここでは、端末2A,2Bについてはメッセージを投稿する処理を実行するため同一の機能ブロックとして説明する。
また、端末2Cについては、投稿されたメッセージを閲覧する処理を実行する機能ブロックとして説明する。
なお、本例においては、説明を簡易にするために端末2A,2Bと、端末2Cとが有する機能が異なる場合について説明しているが、各端末2は、メッセージを投稿する処理と、投稿されたメッセージを閲覧する処理とを実行することが可能であり、端末2A,2Bが有する機能および端末2Cが有する機能の両方の機能を有している。
端末2A,2B,2Cの機能ブロックは、端末2のCPU13がプログラム記憶部15に記憶するプログラムを実行することにより各部と協働して実現されるものである。
また、サーバ5の機能ブロックは、サーバ5のCPU21がプログラム記憶部24に記憶するプログラムを実行することにより各部と協働して実現されるものである。
端末2A,2Bは、投稿受付部32と、投稿データ送信部33とを含む。
投稿受付部32は、ネットワークサービスの利用を目的としてユーザから任意のメッセージを投稿する指示を受け付ける。
投稿データ送信部33は、投稿受付部32で受け付けたメッセージを投稿データとしてサーバ5に送信する。この点で、投稿データ送信部33は、メッセージとともに、ユーザに関連するキャラクタに関するキャラクタ関連情報を投稿データに含めてサーバ5に送信する。
キャラクタは、端末2Aあるいは端末2Bのユーザに関連するキャラクタである。キャラクタは、ユーザを示すアバターである。
各端末2のプログラム記憶部15に記憶されるプログラムは、各端末2のユーザが利用するキャラクタを生成する生成プログラムを含んでおり、当該生成プログラムにより予め各端末2のユーザは利用するキャラクタを生成しているものとする。そして、当該キャラクタの生成によりキャラクタを一意に特定するキャラクタIDが発行される。各端末2は、キャラクタに関連する情報(キャラクタID)に基づいて、キャラクタを形成し表示出力することが可能である。
キャラクタに関連する情報(キャラクタ関連情報とも称する)は、キャラクタを特定するためのデータであり、本例においては一例としてキャラクタIDとして説明する。なお、当該キャラクタIDとともに、キャラクタを構成するために必要なキャラクタデータとして各パーツ等の詳細なデータでも良いし、あるいは各パーツ等を示すパーツIDを含めるようにしても良い。
各端末2のメモリ14には、生成したキャラクタ関連情報(一例として、キャラクタID)が格納されている。
また、各端末2のプログラム記憶部15に記憶されるプログラムは、フレンド登録プログラムを含んでおり、当該フレンド登録プログラムにより必要に応じて各端末2のユーザは互いにグループを形成するフレンド登録を実行しているものとする。
フレンド登録の方式については、種々の方式があるが例えば、赤外線通信により互いの情報を交換し合うことによりフレンド登録を実行するようにしても良い。また、サーバを利用する形態であっても良い。例えば、各端末2に設けられたGPS(Global Positioning System)機能を利用して位置情報等に基づいてユーザが互いに対面状態であることをサーバが認識した場合にフレンド登録を実行することも可能である。また、SNS(Social Networking Service)で既に友達同士になっているユーザについて、各端末2に「友達かも」と表示されて、登録の申請・承認の処理後にフレンド登録を実行することも可能である。あるいは、各端末2毎に予め決められている所定のコード(フレンドコード)をユーザ同士で交換し、交換したコードを入力することによりフレンド登録することが可能なフレンド登録プログラムを含んでおり、当該フレンド登録プログラムにより必要に応じて各端末2のユーザは互いにグループを形成するフレンド登録を実行しているものとする。
各端末2に関する情報(ユーザ名、キャラクタID、フレンド関係等)は、サーバ5に送信され、サーバ5で管理されているものとする。本例においては、後述する関連情報格納部44に格納される。
端末2Cは、投稿データ受信部51と、表示出力部52と、再生出力部53とを含む。
投稿データ受信部51は、サーバ5を介して投稿データを受信する。
表示出力部52は、サーバ5を介して受信した投稿データに基づいて、メッセージ等を表示出力する処理を実行する。
再生出力部53は、サーバ5を介して受信した投稿データに基づいて、メッセージ等を再生出力(例えば音声出力)する処理を実行する。
サーバ5は、送信管理部43と、関連情報格納部44と、投稿データ受信部45と、解析処理部46と、編集部48とを含む。
関連情報格納部44は、サーバ5と通信可能に設けられた各端末および当該端末と他の端末との関係を示す関連情報を格納する。具体的には、関連情報格納部44は、各端末を利用するユーザおよびユーザが利用するキャラクタ等に関連する情報を格納する。また、関連情報格納部44は、各端末毎にフレンド登録された他の端末に関する情報(他の端末に対応するキャラクタ)も含む。
投稿データ受信部45は、各端末から送信された投稿データを受信する。
解析処理部46は、投稿データ受信部45で受信された投稿データに対して解析処理を実行する。
編集部48は、解析処理部46で解析処理された解析結果に基づいて投稿データを編集する。
送信管理部43は、関連情報格納部44に格納されている関連情報に基づいて編集部48により編集された投稿データをフレンド登録されている各端末および投稿データを送信してきた端末を送信先として送信する。
図5は、実施形態に基づく関連情報格納部44に格納されているデータを説明する図である。
図5に示されるように、端末毎に端末IDが発行される。端末ID毎に、ユーザ名とキャラクタIDとが対応付けられている。また、端末に対応するキャラクタIDとフレンド登録された他の端末に対応するキャラクタIDについても関連付けされて登録されている。
一例として、端末2A〜2Cにそれぞれ対応して端末ID「T1」〜「T3」が割り当てられている。
端末2Aに対応する端末ID「T1」に対応して、ユーザPと、ユーザPにより生成されたキャラクタA君が対応付けられて登録されている場合が示されている。また、端末2Aとフレンド関係が登録された端末に対応するキャラクタ(フレンドキャラクタB君、C君、・・・)が対応付けられて登録されている。なお、ここでは説明を簡易にするためにキャラクタIDとしてキャラクタ名を用いて説明しているが、特にキャラクタ名に限られず、コード番号でもよくキャラクタを特定することが可能であればどのようなものでも良い。
また、端末2Bに対応する端末ID「T2」に対応して、ユーザQと、ユーザQにより生成されたキャラクタB君が対応付けられて登録されている場合が示されている。また、端末2Bとフレンド関係が登録された端末に対応するキャラクタ(フレンドキャラクタA君、C君、・・・)が対応付けられて登録されている。
また、端末2Cに対応する端末ID「T3」に対応して、ユーザRと、ユーザRにより生成されたキャラクタC君が対応付けられている場合が示されている。また、端末2Cとフレンド関係が登録された端末に対応するキャラクタ(フレンドキャラクタA君、B君、・・・)が対応付けられて登録されている。
他の端末IDについても同様にデータが関連付けされて登録されている。
図6は、実施形態に基づくサーバ5に送信される投稿データの一例を説明する図である。
図6には、端末2Aの投稿受付部32で生成されたサーバ5に送信される投稿データ300が示されている。
投稿データ300は、端末IDデータ302と、キャラクタIDデータ304と、メッセージデータ308とを含む。
端末IDデータ302は、送信する端末を特定するためのデータである。
キャラクタIDデータ304は、キャラクタを特定するためのデータである。
メッセージデータ308は、受け付けたメッセージ内容を示すデータである。
本例においては、メッセージ内容として「今日は、いい天気です。」が設定されている場合が示されている。
図7は、実施形態に基づくサーバ5から送信される投稿データの一例を説明する図である。
図7には、サーバ5で編集された投稿データ300Aが示されている。
投稿データ300Aは、投稿データ300と比較して、解析データ309がさらに追加された点が異なる。その他の点は同じであるのでその詳細な説明については繰り返さない。
解析データ309は、メッセージ内容を解析した解析結果に基づく各種の解析パラメータが設定されている。
本例においては、解析データ309は、文節データ310と、感情データ311と、発声データ312とを含む。
文節データ310は、一例としてメッセージ内容「今日は、いい天気です。」を所定単位毎に分割した文節の区切りを識別する文節IDで構成される。一例として、文節IDとしてP1〜P3が示されている。
感情データ311は、文節毎の感情種別を識別するデータ(「−、笑、−」)で構成される。
発声データ312は、発音文字に応じた口の形状パターンを識別するデータ(「C、・・・」)で構成される。
<情報処理システムにおける処理概要>
次に、実施形態に基づく情報処理システム1の処理概要について説明する。
図8は、実施形態に基づくメッセージを投稿する処理について説明する図である。
図8に示されるように、端末2Aの投稿受付部32は、指示に従ってユーザからのメッセージの投稿の入力を受け付ける。
本例においては、端末2Aの表示部17に投稿画面110が表示されている場合が示されている。
投稿画面110において、端末2AのユーザPが作成したA君のキャラクタ104が表示されている。また、投稿受付部32は、投稿画面110のメッセージ入力領域114においてユーザからのメッセージの入力を受け付ける。本例においては、ユーザPが入力部16を操作することによりメッセージ入力領域114に「今日は、いい天気です。」のメッセージを入力した場合が示されている。
また、投稿画面110には、投稿の入力を完了することを示す「OK」ボタン116と、投稿の入力を中止する「キャンセル」ボタン118が設けられる場合が示されている。
ユーザが「OK」ボタン116を選択した場合には、投稿データがサーバ5に送信される。具体的には、投稿データ送信部33は、受け付けられたメッセージを投稿データとしてサーバ5に送信する。
また、ユーザが「キャンセル」ボタン118を選択した場合には、投稿処理の入力を中止する処理を実行する。その場合には、投稿データは送信されない。
なお、本例においては、端末2Aにおけるメッセージを投稿する処理について説明したが、端末2Bあるいは他の端末におけるメッセージを投稿する処理についても同様である。
図9は、実施形態に基づく投稿されたメッセージを閲覧する処理について説明する図である。
図9に示されるように、端末2Cの表示出力部52は、受信した投稿データに基づいてキャラクタとともに、キャラクタに対応するメッセージを表示する処理を実行する。
本例においては、ユーザRが所持する端末2Cの表示部17に閲覧画面120が表示されている場合が示されている。
閲覧画面120において、端末2AのユーザPに対応するA君キャラクタと、当該A君キャラクタに対応するメッセージが表示されている。具体的には、ユーザPが投稿したメッセージ「今日は、いい天気です。」が表示されている。
また、端末2BのユーザQに対応するB君キャラクタと、当該B君キャラクタに対応するメッセージが表示されている。具体的には、ユーザQが投稿したメッセージ「本当ですね。」が表示されている。
また、端末2AのユーザPに対応するA君キャラクタと、当該A君キャラクタに対応するメッセージが表示されている。具体的には、ユーザPが投稿したメッセージ「どこに行きましょうか?」が表示されている。
このように端末2AのユーザPおよび端末2BのユーザQが投稿したメッセージが時系列的に表示部17に表示される。新たに投稿したメッセージは、本例においては一例として上下方向の下方向に追記して表示される。
表示部17は、一例として上下方向にスクロール表示可能に設けられているものとする。表示部17の閲覧画面120に表示されていないメッセージについては、ユーザからの上下方向に対するスクロール操作の指示(例えば、タッチパネルにおけるフリック操作等)によりスクロール表示させることが可能である。
また、当該閲覧画面120においては、後述するが音声出力等のメッセージ再生処理が実行される。
なお、本例においては、メッセージ再生処理が停止している状態が示されている。
なお、本例においては、端末2Cにおいてメッセージを閲覧する処理について説明したが、端末2A,2Bあるいは他の端末において、メッセージを閲覧する処理についても同様である。
<情報処理システムにおけるデータ通信>
図10は、実施形態に基づく情報処理システムのデータ通信の処理の流れを説明する図である。
図10に示されるように、一例として、端末2A〜2Cとサーバ5との間のデータの通信の処理の流れについて説明する。
端末2Aは、ユーザPからのメッセージの入力を受け付ける(シーケンスsq1)。具体的には、投稿受付部32は、図8で説明したようにユーザPから投稿するメッセージの入力を受け付ける。一例として、メッセージ「今日は、いい天気です。」を受け付ける。
そして、端末2Aは、受け付けた投稿データをサーバ5に送信する(シーケンスsq2)。具体的には、投稿データ送信部33は、サーバ5に図6で説明したキャラクタIDおよびメッセージを含む投稿データを生成して送信する。
サーバ5は、端末2Aから送信された投稿データを取得する(シーケンスsq3)。具体的には、投稿データ受信部45は、端末2Aからの投稿データを受信する。
サーバ5は、受信した投稿データに対して解析および編集処理を実行する(シーケンスsq4)。具体的には、解析処理部46は、受信した投稿データに対して解析処理を実行する。編集部48は、解析処理部46の解析処理された解析結果に基づいて投稿データを編集する。
サーバ5は、編集した投稿データを端末に送信する(シーケンスsq5)。具体的には、送信管理部43は、関連情報格納部44に格納されている関連情報に基づいてフレンド登録されている端末2B、端末2Cならびに送信元である端末2Aを送信先として選択して投稿データを送信する。
そして、端末2Cは、サーバ5から送信された投稿データを取得する(シーケンスsq10)。具体的には、投稿データ受信部51は、サーバ5から送信された投稿データを受信する。
次に、端末2Cは、受信された投稿データに従う出力処理を実行する(シーケンスsq11)。具体的には、表示出力部52は、図9で説明したようにサーバ5を介して受信した投稿データに基づいて、キャラクタおよびメッセージ等を表示出力する処理を実行する。
また、再生出力部53は、サーバ5を介して受信した投稿データに基づいて、メッセージ等を再生出力(例えば音声出力)する処理を実行する。
なお、端末2Cとは別の他の端末2Aにおいても同様の処理が実行される。すなわち、サーバ5から送信された投稿データを取得(シーケンスsq8)し、受信された投稿データに従う出力処理を実行する(シーケンスsq9)。また、端末2Bにおいても同様の処理が実行される。サーバ5から送信された投稿データを取得(シーケンスsq6)し、受信された投稿データに従う出力処理を実行する(シーケンスsq7)。
次に、端末2Bは、ユーザQからのメッセージの入力を受け付ける(シーケンスsq12)。具体的には、投稿受付部32は、図8で説明したようにユーザQから投稿するメッセージの入力を受け付ける。一例として、メッセージ「本当ですね。」を受け付ける。
そして、端末2Bは、受け付けた投稿データをサーバ5に送信する(シーケンスsq13)。具体的には、投稿データ送信部33は、サーバ5に図6で説明したキャラクタIDおよびメッセージを含む投稿データを生成して送信する。
サーバ5は、端末2Bから送信された投稿データを取得する(シーケンスsq14)。具体的には、投稿データ受信部45は、端末2Bからの投稿データを受信する。
サーバ5は、受信した投稿データに対して解析および編集処理を実行する(シーケンスsq15)。具体的には、解析処理部46は、受信した投稿データに対して解析処理を実行する。編集部48は、解析処理部46の解析処理された解析結果に基づいて投稿データを編集する。
サーバ5は、編集した投稿データを端末に送信する(シーケンスsq16)。具体的には、送信管理部43は、関連情報格納部44に格納されている関連情報に基づいてフレンド登録されている端末2A、端末2Cならびに送信元である端末2Bを送信先として選択して投稿データを送信する。
そして、端末2Cは、サーバ5から送信された投稿データを取得する(シーケンスsq21)。具体的には、投稿データ受信部51は、サーバ5から送信された投稿データを受信する。
次に、端末2Cは、受信された投稿データに従う出力処理を実行する(シーケンスsq22)。具体的には、表示出力部52は、図9で説明したようにサーバ5を介して受信した投稿データに基づいて、キャラクタおよびメッセージ等を表示出力する処理を実行する。
また、再生出力部53は、サーバ5を介して受信した投稿データに基づいて、メッセージ等を再生出力(例えば音声出力)する処理を実行する。
なお、端末2Cとは別の他の端末2Aにおいても同様の処理が実行される。すなわち、サーバ5から送信された投稿データを取得(シーケンスsq17)し、受信された投稿データに従う出力処理を実行する(シーケンスsq18)。また、端末2Bにおいてもサーバ5から送信された投稿データを取得(シーケンスsq19)し、受信された投稿データに従う出力処理を実行する(シーケンスsq20)。
当該処理により、端末2A,2B等において投稿したメッセージ等を各端末で閲覧することが可能である。なお、端末2Cからメッセージを投稿することも可能である。
なお、本例においては、投稿データを受け付けた装置についても送信先としてサーバ5から投稿データを送信する場合について説明するが、投稿データを受け付けた装置については、情報を既に有しているためサーバ5から当該装置については投稿データを送信しないようにすることも可能である。また、本例においては、サーバ5が投稿データについて解析および編集処理を実行する場合について説明するが、サーバ5は、単に投稿データを他の装置に転送する処理だけを実行し、解析および編集処理については各端末において実行する方式とすることも可能である。
<サーバ5の処理フロー>
図11は、実施形態に基づくサーバ5において実行される処理について説明するフロー図である。
サーバ5は、当該処理を実行するためのアプリケーションプログラムをプログラム記憶部24に記憶している。
図11に示されるように、サーバ5は、端末2から投稿データを取得したかどうかを判断する(ステップS2)。具体的には、投稿データ受信部45は、端末2から投稿データを受信したか否かを判断する。一例として受信した情報にメッセージデータが含まれている場合には投稿データとして判断することが可能である。
次に、サーバ5は、ステップS2において、投稿データを取得するまで当該状態を維持し、投稿データを取得したと判断した場合(ステップS2においてYES)には、端末IDを確認する(ステップS4)。具体的には、送信管理部43は、投稿データに含まれる端末IDを確認する。
次に、サーバ5は、関連情報に基づいて送信先を選択する(ステップS6)。具体的には、送信管理部43は、端末IDに従って関連情報に基づいてフレンド登録されている他の端末の情報を取得して送信先として選択する。例えば、端末IDが「T1」である場合には、関連情報に基づいてキャラクタB君、C君に対応する端末2B,2Cおよび送信元である端末2Aを送信先として選択する。
次に、サーバ5は、投稿データの解析・編集処理を実行する(ステップS8)。
具体的には、解析処理部46は、投稿データ受信部45で受信された投稿データに対して解析処理を実行する。また、編集部48は、解析処理部46で解析処理された解析結果に基づいて投稿データの編集処理を実行する。当該解析処理および編集処理については後述する。
次に、サーバ5は、編集した投稿データを送信する(ステップS10)。具体的には、送信管理部43は、選択した送信先の端末に対して編集した投稿データを送信する。
そして、処理を終了する(エンド)。
図12は、実施形態に基づくサーバ5において実行される解析・編集処理について説明するフロー図である。
図12に示されるように、サーバ5は、メッセージを所定単位毎に分割する(ステップS12)。具体的には、解析処理部46は、所定の規則に基づいてメッセージを複数の文節に分割する。また、分割した文節毎に文節IDを発行する。
次に、サーバ5は、感情を分析する(ステップS14)。具体的には、解析処理部46は、文節毎に当該文節に含まれる表現が所定の感情表現に適合するか否かを判断する。
次に、サーバ5は、発音する文字に応じた口の状態を分析する(ステップS18)。具体的には、解析処理部46は、メッセージ内容の発音する文字毎の口の形状パターンを分析する。
次に、サーバ5は、投稿データを編集する(ステップS20)。具体的には、編集部48は、図7で説明したように投稿データに、文節データ310、感情データ311、発声データ312を含める。
そして、処理を終了する(リターン)。
図13は、実施形態に基づくメッセージの解析処理(その1)を説明する図である。
図13(A)に示されるように、メッセージ内容「今日は、いい天気です。」について、3つの単位の文節に分割した場合が示されている。また、分割した文節毎に文節IDが発行され割り当てられる。本例においては、文節ID「P1」〜「P3」が割り当てられている。メッセージを実際の言語として不自然でない程度に区切った最小単位の文節に分割する手法については、いわゆる公知の形態素解析の手法を用いて、句読点や単語等に基づいて分割するが、特に手法については制限しない。
文節ID「P1」については、「今日は、」に対応している。
文節ID「P2」については、「いい天気」に対応している。
文節ID「P3」については、「です。」に対応している。
図13(B)に示されるように、感情表現に関する感情テーブルが示されている。
図13(B)に示されるように、感情表現として、複数のパターンが予め設けられている。一例として、「笑い」、「怒」、「通常」、・・・のパターンが設けられている。
「笑い」に対応する文字として、「うれしい、楽しい、いい天気」等が登録されている。
「怒」に対応する文字として、「悲しい、残念」等が登録されている。
なお、登録されている感情表現の文字と適合しない場合の感情は通常として処理される。
一例として、上記のメッセージ内容「今日は、いい天気です。」については、「今日は、」の感情表現は「通常」、「いい天気」の感情表現は「笑」、「です。」の感情表現は「通常」と分析される。分析結果として文節毎に感情データが設定される。
また、感情表現の種別に応じてキャラクタの顔の表情パターンが対応付けられている。例えば、感情表現が「笑」の場合には、顔の表情がにこやかな表情となる表情パターンが設定される。一方、感情表現が「怒」の場合には、顔の表情が厳しい表情となる表情パターンが設定される。また、感情表現が「普通」の場合には、顔の表情は通常の表情となる表情パターンが設定される。
後述するキャラクタ表示再生処理において、設定された感情データに基づく表情パターンの顔表示が実行される。
図14は、実施形態に基づくメッセージの解析処理(その2)を説明する図である。
図14(A)に示されるように、メッセージ「今日は、いい天気です。」について、文節毎に発音文字「キョウハ」、「トテモ」、「イイテンキ」、「デス」が示されている。
図14(B)は、発音文字と、口の形状パターンとの対応テーブルを説明する図である。
図14(B)を参照して、発音文字「ア」〜「ン」にそれぞれ対応して口の形状パターンが予め設定されているものとする。本例においては、一例として、例えば、発音文字「ア」については、形状パターン「C」が割り当てられている。また、発音文字「ン」については、形状パターン「A」が割り当てられている。例えば、形状パターン「A」は、口を開かない形状として割り当てられているものとする。形状パターン「C」は、口が大きく開いた形状として割り当てられているものとする。形状パターン「B」は、通常時の(発音していない状態)キャラクタの口の形状として割り当てられているものとする。なお、口の形状パターンは、3種類に限られるものではなく、それぞれの発音文字に対応して、さらに複数種類の形状パターンを設けることにより、実際に発音する際の口の形状に近付けることが可能である。これにより臨場感あるコミュニケーションを促進することが可能である。
当該対応テーブルを用いて上記のメッセージ内容の発音する文字毎の口の形状パターンを分析する。
図14(A)においては、分析結果の一例として、発音文字「キョ」に対応して形状パターン「A」、発音文字「ウ」に対応して形状パターン「A」、発音文字「ハ」に対応して形状パターン「C」の発声データが設定される場合が示されている。
後述するキャラクタ表示再生処理において、設定された発声データに基づく形状パターンの口表示が実行される。
<端末2の処理フロー>
図15は、実施形態に基づく端末2のアプリ処理について説明するフロー図である。
図15を参照して、各端末2は、当該アプリ処理を実行するためのアプリケーションプログラムをプログラム記憶部15に記憶している。
なお、ステップS30およびS32は、主に投稿受付部32および投稿データ送信部33で実行される処理である。ステップS36〜S44は、主に投稿データ受信部51、表示出力部52および再生出力部53で実行される処理である。
図15に示されるように、端末2は、投稿入力を受け付けたか否かを判断する(ステップS30)。具体的には、投稿受付部32は、図8で説明した投稿画面110においてユーザによりメッセージ入力領域114にメッセージが入力されて、「OK」ボタン116が選択されたかどうかを判断する。
ステップS30において、端末2は、投稿入力を受け付けたと判断した場合(ステップS30においてYES)には、投稿処理を実行する(ステップS32)。具体的には、投稿データ送信部33は、図6で説明した投稿データをサーバ5に送信する。
次に、端末2は、ステップS34に進み、アプリ処理を終了するかどうかを判断する。例えば、端末2は、入力部16の所定の操作指示に従うアプリ処理の終了指示が有ったかどうかを判断する。
ステップS34において、端末2は、アプリ処理の終了指示が無くアプリ処理を終了しないと判断した場合(ステップS34においてNO)には、ステップS30に戻り、上記処理を繰り返す。
一方、ステップS34において、端末2は、アプリ処理の終了指示が有りアプリ処理を終了すると判断した場合(ステップS34においてYES)には、ステップS30に戻らずに当該アプリ処理を終了する(エンド)。
一方、端末2は、ステップS30において、投稿入力を受け付けていないと判断した場合(ステップS30においてNO)には、ステップS36に進む。
ステップS36において、端末2は、サーバ5から投稿データを取得したか否かを判断する(ステップS36)。具体的には、投稿データ受信部51は、サーバ5から投稿データを受信したか否かを判断する。
ステップS36において、端末2は、サーバ5から投稿データを取得したと判断した場合(ステップS36においてYES)には、仮想画面領域内にメッセージおよびキャラクタを配置する(ステップS38)。具体的には、表示出力部52は、取得した投稿データに含まれるキャラクタIDおよびメッセージデータに基づいて仮想画面領域内にキャラクタIDに基づくキャラクタおよびメッセージを配置する。
図16は、実施形態に基づく仮想画面領域および表示領域の設定について説明する図である。
図16に示されるように、仮想画面領域200が示されている。仮想画面領域200は領域を拡張可能に設けられており、投稿データを取得する毎にメッセージ等を配置するための領域が拡大する。本例においては、時系列的に下方向にメッセージ等が配置されて領域が拡大する場合が示されている。仮想画面領域200は、新たに投稿データが取得された場合には、投稿データのメッセージ等のサイズに応じた領域が拡大される。
また、投稿データを取得する毎にメッセージ識別番号202が発行されるものとする。一例としてメッセージ識別番号(M1〜M5)が投稿データ毎に割り当てられている場合が示されている。また、メッセージ識別番号に関連して再生フラグ204が設けられており、後述するメッセージ再生処理が実行された場合には、再生フラグがオン(「X」)に設定される。なお、一例として再生フラグがオフの場合には「X」は消去された状態となる。
また、表示領域210が設けられており、表示部17の表示画面サイズに応じた領域が設定される。表示部17は、表示領域210に含まれている仮想画面領域200に配置された情報(メッセージ等)を表示する。
本例においては、メッセージ識別番号(M2〜M4)に対応する投稿データのメッセージ等が表示領域210に含まれている場合が示されている。表示部17には、メッセージ識別番号(M2〜M4)の投稿データに含まれるキャラクタIDに基づくキャラクタとメッセージとがそれぞれ表示される。
また、ユーザが入力部16によりスクロール操作を指示することにより表示領域210に対する仮想画面領域200の相対的な位置関係が変化する。
例えば、表示領域210の位置を固定とした場合に、スクロール操作を指示することにより仮想画面領域200が表示領域210に対して上下方向に移動することによりスクロール表示が実行される。例えば、仮想画面領域200が表示領域210に対して上方向に移動することによりメッセージ識別番号(M5)の投稿データに含まれるキャラクタIDに基づくキャラクタとメッセージとが表示される。反対に、仮想画面領域200が表示領域210に対して下方向に移動することによりメッセージ識別番号(M1)の投稿データに含まれるキャラクタIDに基づくキャラクタとメッセージとが表示される。
再び、図15を参照して、次に、端末2は、表示領域を設定・表示する(ステップS40)。具体的には、表示出力部52は、仮想画面領域200内における表示領域210を設定する。ユーザが入力部16によりスクロール操作を指示することにより表示領域210に対する仮想画面領域200の相対的な位置関係が変化し、それに基づいて表示領域210が設定される。そして、表示出力部52は、表示領域210に含まれている仮想画面領域200に配置された投稿データの情報(キャラクタとメッセージ)を表示部17に表示する。
次に、端末2は、再生出力処理を実行する(ステップS42)。具体的には、再生出力部53は、表示領域に含まれるメッセージ等を再生出力する処理を実行する。再生出力処理については後述する。そして、次に、ステップS34に進む。
一方、ステップS36において、端末2は、サーバ5から投稿データを取得していないと判断した場合(ステップS36においてNO)には、閲覧画面120において入力部16によるスクロール操作の指示が有るか否かを判断する(ステップS44)。具体的には、表示出力部52は、閲覧画面120において入力部16によるスクロール操作の指示が有るか否かを判断する。
ステップS44において、端末2は、閲覧画面120において、入力部16によるスクロール操作の指示が有ると判断した場合(ステップS44においてYES)には、ステップS40に進む。具体的には、表示出力部52は、ユーザが入力部16によりスクロール操作を指示することにより表示領域210に対する仮想画面領域200の相対的な位置関係の変化に基づいて表示領域210を設定する。そして、表示出力部52は、表示領域210に含まれている仮想画面領域200に配置された投稿データの情報(キャラクタとメッセージ)を表示部17に表示する。以降の処理については上記で説明したのと同様であるのでその詳細な説明については繰り返さない。
一方、ステップS44において、端末2は、閲覧画面120において、入力部16によるスクロール操作の指示が無いと判断した場合(ステップS44においてNO)には、ステップS34に進む。
当該処理により、閲覧画面120において、入力部16によるスクロール操作の指示が有る場合には、閲覧画面120がスクロール表示により変更される。これに伴い再生出力処理が実行される。
図17は、実施形態に基づく端末2の再生出力処理について説明するフロー図である。
図17に示されるように、端末2は、表示領域外の再生フラグをリセットする(ステップS50)。具体的には、再生出力部53は、表示領域210外における仮想画面領域200に配置された投稿データのメッセージ識別番号に関連して設けられた再生フラグを全てリセット(再生フラグをオフ)する。
次に、端末2は、表示領域内の投稿データに対応する再生フラグを確認する(ステップS52)。具体的には、再生出力部53は、表示領域210内の投稿データに割り当てられたメッセージ識別情報に関連して設けられた再生フラグを確認する。
次に、端末2は、先頭の投稿データの再生フラグがオン(「X」)であるか否かを判断する(ステップS54)。具体的には、再生出力部53は、表示領域210内の最初(先頭)の投稿データの再生フラグがオンであるか否かを判断する。
次に、端末2は、ステップS54において、先頭の投稿データの再生フラグがオン(「X」)であると判断した場合(ステップS54においてYES)には、表示領域内に再生フラグがオフの投稿データが有るか否かを判断する(ステップS56)。具体的には、再生出力部53は、表示領域210内の投稿データに対応する再生フラグがオンでないものがあるか否かを判断する。
次に、端末2は、表示領域内に再生フラグがオフの投稿データが有ると判断した場合(ステップS56においてYES)には、当該投稿データに関するメッセージ再生処理を実行する(ステップS58)。再生出力部53は、表示領域210内の再生フラグがオンでない投稿データが有ると判断した場合、すなわち、表示領域210内の再生フラグがオフである投稿データが有ると判断した場合には、当該投稿データに関するメッセージ再生処理を実行する。メッセージ再生処理については後述する。
次に、端末2は、メッセージ再生処理後、当該投稿データに対応する再生フラグをオンに設定する(ステップS60)。再生出力部53は、再生した投稿データの再生フラグをオン(「X」)に設定する。
次に、端末2は、閲覧画面120において入力部16によるスクロール操作の指示が有るか否かを判断する(ステップS62)。具体的には、表示出力部52は、閲覧画面120において入力部16によるスクロール操作の指示が有るか否かを判断する。
端末2は、閲覧画面120において入力部16によるスクロール操作の指示が無いと判断した場合(ステップS62においてNO)には、ステップS56に戻り、再生出力部53における上記処理を繰り返す。
ステップS56において、端末2は、表示領域210内の投稿データに対応する再生フラグがオフで無いと判断した場合(ステップS56においてNO)には、再生出力処理を終了する(リターン)。再生出力部53は、表示領域210内の投稿データに対応する再生フラグが全てオン(「X」)であると判断した場合には、再生出力処理を終了する。
当該処理により、表示領域210内の再生フラグがオフの投稿データに対するメッセージ再生処理が順番に実行される。そして、表示領域210内の投稿データに対応する再生フラグが全てオンとなった場合に再生出力処理が終了する。
一方、端末2は、閲覧画面120において入力部16によるスクロール操作の指示が有ると判断した場合(ステップS62においてYES)には、図15のステップS40に戻る。具体的には、表示出力部52は、仮想画面領域200内における表示領域210を設定する。ユーザが入力部16によりスクロール操作を指示することにより表示領域210に対する仮想画面領域200の相対的な位置関係が変化し、それに基づいて表示領域210が設定される。そして、表示出力部52は、表示領域210に含まれている投稿データの情報(キャラクタとメッセージ)を表示する。
一方、ステップS54において、端末2は、先頭の投稿データの再生フラグがオン(「X」)でないと判断した場合(ステップS54においてNO)には、表示領域210内の投稿データに対応する再生フラグをリセットする(ステップS64)。そして、ステップS56に進む。再生出力部53は、表示領域210内の投稿データに対応する再生フラグを全てリセット(再生フラグをオフ)する。そして、ステップS56に進む。
当該処理により、表示領域210内の先頭の投稿データについて再生フラグがオフの場合には、表示領域210内のすべての投稿データの再生フラグがオフに設定される。したがって、先頭の投稿データのメッセージ再生処理が実行される場合には、それ以降の投稿データについても順番にメッセージ再生処理が実行される。
また、上記処理として、ステップS50において表示領域外の再生フラグがリセットされる。例えば、ステップS58のメッセージ再生処理の後、ステップS62においてユーザが入力部16によりスクロール操作を指示することにより表示領域210に対する仮想画面領域200が表示領域210に対して下方向に移動した場合には、再生フラグがオフの投稿データが表示領域210の先頭に配置される。これに伴い他の投稿データの再生フラグはリセットされる。したがって、ユーザが入力部16によりスクロール操作を指示することにより表示領域210に対する仮想画面領域200が表示領域210に対して下方向に移動した場合には、表示領域210の先頭に配置された投稿データから順番にメッセージ再生処理が実行される。
<メッセージ再生処理>
図18は、実施形態に基づくメッセージ再生処理の概念を説明する図である。
図18に示されるように、一例として、メッセージ内容「今日は、」「いい天気」「です。」が示されている。
実施形態においては、再生出力部53は、メッセージの再生処理として、3種類の再生処理を実行する。
具体的には、再生処理を音声で再生するメッセージ音声再生処理と、再生処理を表示処理で実行するメッセージ表示再生処理と、再生処理をキャラクタの表示処理で実行するキャラクタ表示再生処理とを実行する。
メッセージ音声再生処理は、メッセージの1文字ずつを音声出力する。
メッセージ表示再生処理は、音声出力するメッセージの再生位置に従って当該メッセージの表示の色を変化させる。具体的には、初期状態においては、一例として表示されるメッセージは、白色の文字で表示されているものとする。そして、再生位置に対応する文節データを色付けする。一例として、「今日は、」を音声出力する際に、「今日は、」の白色の文字を黒色の文字に色付けして表示する。なお、本例においては、白色の文字を黒色の文字に色付けする場合について説明するが、特にこれに限られず、異なる色に変化するのであればどのような対応でも良い。
また、本例のメッセージ表示再生処理は、再生位置に従うメッセージの表示の色を色付けして変化させる場合について説明するが、これに限られず再生位置に従うメッセージの大きさを変化させて強調表示させるようにしても良い。あるいは、再生位置に従うメッセージを動的に変化させて強調表示させるようにしても良い。
キャラクタ表示再生処理は、音声出力するメッセージの再生位置に従って表示するキャラクタの顔および口の状態を変化させる。具体的には、文節データに対応する感情データに基づいて顔の表情パターンを設定する。そして、発声データに基づいて口の形状パターンを設定する。そして、再生出力部53は、設定された顔および口の両者を合成した表示処理を実行する。一例として、メッセージ「今日は、」について文節データに対応する感情データは通常である。したがって、通常の顔の表情パターンが設定される。そして、発音文字「キョウハ」の再生位置に対応する発声データに基づいて口の形状パターンが設定される。例えば、「ハ」の再生位置の際に口が大きく開く形状パターンが設定されて表示される。
当該処理により、メッセージを音声出力することにより視覚だけでなく聴覚によりメッセージを認識することが可能である。したがって、対応するキャラクタが話しているように感じるため臨場感あるコミュニケーションが可能である。
また、音声出力の再生位置に対応して文節データの色を変化させることにより、時間の経過とともにメッセージが強調表示される。したがって、対応するキャラクタが話しているように感じるため臨場感あるコミュニケーションが可能である。
また、音声出力の再生位置に対応して発音文字に応じた口の形状パターンに設定することにより、対応するキャラクタが口を実際に動かして話しているように感じるため臨場感あるコミュニケーションが可能である。
また、メッセージ内容に応じて対応するキャラクタの表情も変化する。したがって、対応するキャラクタが実際に話しているように感じるため臨場感あるコミュニケーションが可能である。
なお、キャラクタの顔だけに限られず、体全体の動き(演出)についてアニメーション表示するようにしても良い。キャラクタによる動きをユーザに再生出力することにより、対応するキャラクタが体全体を動かして実際に話しているように感じるため臨場感あるコミュニケーションが可能である。
なお、予め複数の動作パターンを設けて、複数の動作パターンの中から1つを選択してアニメーション表示を行うようにしても良い。具体的には、解析データ309に含まれる感情データに基づいて、複数の動作パターンの中から1つを選択してアニメーション表示を行うようにしても良い。例えば、感情データが「笑」の場合には楽しい状態を想起させる動作パターンを選択してアニメーション表示を実行することが好ましい。
当該処理により、コミュニケーションの表現を実際の会話により近づけることが可能であり、コミュニケーションの表現を豊かにしてユーザ間のコミュニケーションを促進することが可能である。
図19は、実施形態に基づくメッセージ再生処理を説明するフロー図である。
図19に示されるように、端末2は、メッセージ情報を取得する(ステップS70)。具体的には、再生出力部53は、再生フラグがオフの投稿データのメッセージ情報を取得する。具体的には、再生出力部53は、投稿データからキャラクタIDと、メッセージデータ308と、解析データ309とを抽出する。
次に、端末2は、メッセージ音声再生処理を実行する(ステップS72)。再生出力部53は、メッセージデータ308と解析データ309とに基づいてメッセージ音声再生処理を実行する。メッセージ音声再生処理については、後述する。
次に、端末2は、メッセージ表示再生処理を実行する(ステップS74)。再生出力部53は、メッセージデータ308と、解析データ309と、メッセージ音声再生処理の再生位置情報とに基づいてメッセージ表示再生処理を実行する。メッセージ表示再生処理については、後述する。
次に、端末2は、キャラクタ表示再生処理を実行する(ステップS76)。再生出力部53は、キャラクタIDと、解析データ309と、メッセージ音声再生処理の再生位置情報とに基づいてキャラクタ表示再生処理を実行する。キャラクタ表示再生処理については、後述する。
次に、端末2は、再生処理が終了したかどうかを判断する(ステップS78)。再生出力部53は、投稿データのメッセージ等についての再生処理が終了したかどうかを判断する。
端末2は、再生処理が終了したと判断した場合(ステップS78においてYES)には、処理を終了する(リターン)。
一方、端末2は、再生処理が終了していないと判断した場合(ステップS78においてNO)には、ステップS72に戻り、再生処理が終了するまで上記処理を繰り返す。
図20は、実施形態に基づくメッセージ音声再生処理を説明するフロー図である。
図20に示されるように、端末2は、投稿データのメッセージデータについて音声合成ライブラリを用いて音声合成する(ステップS80)。具体的には、再生出力部53は、音声合成ライブラリを用いて文節毎のメッセージについて音声合成する。
次に、端末2は、音声を再生する(ステップS82)。再生出力部53は、音声合成した音声データを再生する。
次に、端末2は、再生位置を取得する(ステップS84)。再生出力部53は、メッセージデータにおける音声データの再生位置を取得する。
そして、処理を終了する(リターン)。
なお、音声データを再生するにあたり音声の高さ、速さ、アクセント、調子等のパラメータは任意の値に予め設定されており、当該パラメータに基づく音声データの再生が行なわれる。なお、各パラメータは任意に設定変更可能に設けられているものとする。
図21は、実施形態に基づくメッセージ表示再生処理を説明するフロー図である。
図21に示されるように、端末2は、取得した再生位置に基づいて文節毎に色付け表示を行う(ステップS86)。再生出力部53は、メッセージデータ308と、解析データ309と、メッセージ音声再生処理の再生位置情報とに基づいてメッセージ表示再生処理を実行する。再生出力部53は、再生位置に基づいて文節毎に色付け表示処理を実行する。一例として、再生出力部53は、白色で表示されている文節の文字を黒色の文字に変化させる。
そして、処理を終了する(リターン)。
図22は、実施形態に基づくキャラクタ表示再生処理を説明するフロー図である。
図22に示されるように、端末2は、取得した再生位置と、感情データとに基づいて顔パターンを設定する(ステップS90)。具体的には、再生出力部53は、分析データに含まれる文節毎の感情データに基づいて当該文節毎のメッセージの再生位置における表情パターンを設定する。
次に、端末2は、取得した再生位置と、発声データとに基づいて口の形状パターンを設定する(ステップS92)。具体的には、再生出力部53は、分析データに含まれる口の形状パターンデータに基づいてメッセージの再生位置における口の形状パターンを選択する(ステップS92)。
次に、端末2は、合成表示する(ステップS94)。具体的には、再生出力部53は、表情パターンおよび口の形状パターンを合成した顔表示を表示部17に表示する。
そして、処理を終了する(リターン)。
(変形例1)
上記図17の再生出力処理のステップS56において、表示領域210内の投稿データに対応する再生フラグがオフで無いと判断した場合(ステップS56においてNO)、全て再生フラグがオンであると判断した場合には、再生出力処理を終了する場合について説明したが、自動的にスクロール表示するようにしても良い。具体的には、仮想画面領域200を表示領域210に対して上方向に移動させて、表示領域210内に表示されていない仮想画面領域200内の投稿データをスクロール表示するようにしても良い。そして、ステップS58に進み、メッセージ再生処理を実行する。
当該処理により、表示領域210内の投稿データに対するメッセージ再生処理が完了した場合にはスクロール表示により表示領域210内に表示されていない投稿データを自動的に表示し、メッセージ再生処理を継続することによりユーザの指示によるスクロール操作無しに投稿データを閲覧することが可能である。
(変形例2)
上記図17の再生出力処理のステップS56において、表示領域210内の投稿データに対応する再生フラグがオフで無いと判断した場合(ステップS56においてNO)、全て再生フラグがオンであると判断した場合には、再生出力処理を終了する場合について説明したが、メッセージ再生処理を再び繰り返す(リピート再生)ようにしても良い。具体的には、ステップS64で説明したように表示領域内の再生フラグをリセットして、ステップS58に進み、メッセージ再生処理を実行するようにしても良い。
当該処理により、表示領域210内の投稿データに対するメッセージ再生処理を繰り返し実行することにより、投稿データのメッセージ内容を把握してユーザ間のコミュニケーションを促進することが可能である。
(変形例3)
上記の実施形態においては、図17の再生出力処理として、再生フラグをリセットして、再生フラグがオフの投稿データに対するメッセージ再生処理について説明したが、再生フラグをリセットしないようにしても良い。
すなわち、一度再生した投稿データについては、メッセージ再生処理を行わず、新規の投稿データについてのみメッセージ再生処理を実行するようにしても良い。
新規の投稿データについてのみメッセージ再生処理を実行することにより新規の投稿データに対する興趣性を高めることが可能である。
また、上記の実施形態においては、表示領域210内の先頭の投稿データから再生フラグがオンであるか否かを確認してオフである場合には、先頭の投稿データからメッセージ再生処理を実行する方式について説明したが、表示領域210内の投稿データのうちユーザが入力部16を介してタッチ操作等により指定した投稿データから順次メッセージ再生処理を行うようにしても良い。
ユーザが指定した投稿データから順次メッセージ再生処理を行うことにより、ユーザの意図を反映したメッセージ再生処理を実行することが可能である。
(その他の実施形態)
上記の実施形態においては、サーバ5を介して端末間でデータ通信する場合について説明したが、サーバ5を介さずに直接データ通信するようにしても良い。また、サーバ5で説明した投稿データの解析・編集処理の機能等については、各端末2が有する構成にすることも可能である。
具体的には、端末2A〜2Cがそれぞれ通信部11の無線通信機能を利用して通信可能な通信範囲に含まれる端末間で無線通信が可能であるものとする。
「直接データ通信」とは、端末2Aから近距離に存在する他の端末2B,2Cに対して、メモリ14に格納された所定のデータ(一例として「投稿データ」)を自動的に(ユーザによる操作無しに)直接送信する通信をいうものとする。そして、他の端末2B,2Cは、投稿データに基づく出力処理を実行する。
より具体的には、無線通信は、端末2のCPU13および通信部11等が協働することによって実行される。この処理は、例えば端末2がいわゆるスリープ状態(スタンバイ状態などと呼ばれることもある)のときに、バックグラウンド処理として実行される処理である。例えば、スリープ中は、基本的には通信部11が主体となって動作し、必要に応じて一時的にCPU13のスリープが解除され、CPU13が一時的に実行主体となる等の制御が行われる(例えば、他の端末の探索処理は通信部11等で行なわれ、データの送受信はCPU13で行なわれる等)。その他、例えば、端末2は、CPU13とは別に低消費電力で動作可能な第2のCPUを備え、スリープ中は当該第2のCPUが実行主体となるようにしてもよい。また、本例における無線通信は、端末2がスリープ状態でない場合でも、アプリケーションの処理中あるいはユーザの指示操作などによって適宜実行されても良い。また、アプリケーションの実行中にバックグランド処理として当該無線通信を実行することも可能である。
端末2は、無線通信において、たとえば、近距離の無線通信の通信範囲内に存在する不特定の他の端末2を繰り返し探索する。そして、端末2は、探索により発見した他の端末2との間で通信を確立する。そして、メモリ14に格納されている通信データを自動的に送信する。あるいは、当該他の端末2のメモリ14に格納された通信データを当該他の端末2から自動的に受信する。なお、こられが両方行なわれる通信であっても良い。
上記した無線通信は、例えば、端末2を所持しているユーザ同士がすれちがった際に行なわれるようにすることが可能である。
また、本実施形態におけるプログラムとして、パーソナルコンピュータで実行可能なアプリケーションを提供してもよい。このとき、本実施の形態に係るプログラムは、パーソナルコンピュータ上で実行される各種アプリケーションの一部の機能(モジュール)として組み込まれてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A 情報処理システム、2,2A,2B,2C 端末、5 サーバ、11,22 通信部、14,23 メモリ、15,24 プログラム記憶部、16 入力部、17 表示部、32 投稿受付部、33 投稿データ送信部、43 送信管理部、44 関連情報格納部、45,51 投稿データ受信部、46 解析処理部、48 編集部、52 表示出力部、53 再生出力部。

Claims (17)

  1. サーバを介して複数の情報処理装置の間でデータ通信が可能な情報処理システムであって、
    第1の情報処理装置は、
    前記第1の情報処理装置を操作するユーザにより入力された第1メッセージの入力を受け付ける第1メッセージ受付部と、
    受け付けた前記第1メッセージおよび第1キャラクタ情報を前記サーバに送信する第1メッセージ送信部とを含み、
    第2の情報処理装置は、
    前記第2の情報処理装置を操作するユーザにより入力された第2メッセージの入力を受け付ける第2メッセージ受付部と、
    受け付けた前記第2メッセージおよび第2キャラクタ情報を前記サーバに送信する第2メッセージ送信部とを含み、
    前記サーバは、
    前記複数の情報処理装置の間で通信するための、予め送信先のグループとして前記第1の情報処理装置に対応する前記第1キャラクタ情報および前記第2の情報処理装置に対応する前記第2キャラクタ情報に関連付けられて登録されている第3の情報処理装置に対応する第3キャラクタ情報を含む関連情報格納部と、
    前記関連情報格納部に基づいて前記複数の情報処理装置のうちの前記第3キャラクタ情報に対応する前記第3の情報処理装置を送信先として前記第1メッセージおよび前記第1キャラクタ情報ならびに第2メッセージおよび前記第2キャラクタ情報を送信する送信管理部とを含み、
    前記第3の情報処理装置は、
    前記サーバを介して取得した前記第1キャラクタ情報に基づく第1キャラクタと対応させた前記第1メッセージと、前記サーバを介して取得した前記第2キャラクタ情報に基づく第2キャラクタと対応させた前記第2メッセージとを表示部に時系列的に表示する表示出力部と、
    前記第1メッセージと前記第2メッセージとを音声出力する再生出力部とをさらに含む、情報処理システム。
  2. 前記再生出力部は、前記第1メッセージおよび前記第2メッセージの少なくともいずれかの内容の解析結果と対応するキャラクタ情報とに基づきキャラクタの表示処理を実行する、請求項1記載の情報処理システム。
  3. 前記再生出力部は、前記第1メッセージと前記第2メッセージとを音声出力しながら、前記解析結果と前記対応するキャラクタ情報とに基づきキャラクタの表示処理を実行する、請求項2記載の情報処理システム。
  4. 前記再生出力部は、前記第1メッセージおよび前記第2メッセージの少なくともいずれかの内容の解析結果に基づき当該対応するメッセージの表示処理を実行する、請求項1記載の情報処理システム。
  5. 前記再生出力部は、前記第1メッセージおよび前記第2メッセージの少なくともいずれかの内容の解析結果に基づき当該対応するメッセージを音声出力する、請求項1記載の情報処理システム。
  6. 前記解析結果は、前記第1メッセージおよび前記第2メッセージの少なくともいずれかの内容を所定単位毎に分割した、分割した単位毎の解析結果である、請求項2〜5のいずれか1項に記載の情報処理システム。
  7. 前記表示部に時系列的に表示されたメッセージは、ユーザの操作に従ってスクロール表示可能に設けられており、
    前記再生出力部は、前記表示部の画面内に前記第1あるいは第2メッセージが表示されているか否かを判断し、画面内に表示されているメッセージに対して順次音声出力する、請求項1〜6のいずれか1項に記載の情報処理システム。
  8. 前記第1および第2キャラクタは、前記ユーザを示すアバターである、請求項1〜7のいずれか1項に記載の情報処理システム。
  9. 前記再生出力部は、前記アバターのアニメーション表示を行う、請求項8記載の情報処理システム。
  10. 前記再生出力部は、複数の動作パターンの中から1つを選択して前記アバターのアニメーション表示を行う、請求項9記載の情報処理システム。
  11. 前記再生出力部は、前記表示部に時系列的に表示されたメッセージを順番に音声出力する、請求項1〜10のいずれか1項に記載の情報処理システム。
  12. 前記再生出力部は、前記表示部に時系列的に表示されたメッセージを順番に繰り返し音声出力する、請求項11記載の情報処理システム。
  13. 前記再生出力部は、前記表示部に表示されていないメッセージをスクロール表示し、スクロール表示されたメッセージを順番に繰り返し音声出力する、請求項11記載の情報処理システム。
  14. 前記再生出力部は、前記メッセージを音声出力する際の再生位置に対応する前記サーバを介して取得したメッセージ内容の解析結果を取得する、請求項1〜13のいずれか1項に記載の情報処理システム。
  15. 前記再生出力部は、取得した解析結果に基づき当該メッセージの表示処理を実行する、請求項14記載の情報処理システム。
  16. 前記再生出力部は、取得した解析結果および対応するキャラクタ情報に基づきキャラクタの表示処理を実行する、請求項14記載の情報処理システム。
  17. サーバを介して複数の情報処理装置間でデータ通信が可能な情報処理システムであって、
    第1の情報処理装置は、
    前記第1の情報処理装置を操作するユーザにより入力された第1メッセージの入力を受け付ける第1メッセージ受付部と、
    受け付けた前記第1メッセージおよび第1キャラクタ情報を前記サーバに送信する第1メッセージ送信部とを含み、
    第2の情報処理装置は、
    前記第2の情報処理装置を操作するユーザにより入力された第2メッセージの入力を受け付ける第2メッセージ受付部と、
    受け付けた前記第2メッセージおよび第2キャラクタ情報を前記サーバに送信する第2メッセージ送信部とを含み、
    前記サーバは、
    前記複数の情報処理装置の間で通信するための、予め送信先のグループとして前記第1の情報処理装置に対応する前記第1キャラクタ情報および前記第2の情報処理装置に対応する前記第2キャラクタ情報に関連付けられて登録されている第3の情報処理装置に対応する第3キャラクタ情報を含む関連情報格納部と、
    前記関連情報格納部に基づいて前記複数の情報処理装置のうちの前記第3キャラクタ情報に対応する前記第3の情報処理装置を送信先として前記第1メッセージおよび前記第1キャラクタ情報ならびに第2メッセージおよび前記第2キャラクタ情報を送信する送信管理部とを含み、
    前記第3の情報処理装置は、
    前記サーバを介して取得した前記第1キャラクタ情報に基づく第1キャラクタと対応させた前記第1メッセージと、前記サーバを介して取得した前記第2キャラクタ情報に基づく第2キャラクタと対応させた前記第2メッセージとを表示部に時系列的に表示する表示出力部と、
    前記第1および前記第2メッセージの内容の解析結果に基づく再生処理を実行する再生出力部とをさらに含む、情報処理システム。
JP2015160050A 2015-08-14 2015-08-14 情報処理システム Active JP6698292B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015160050A JP6698292B2 (ja) 2015-08-14 2015-08-14 情報処理システム
US15/061,159 US11088976B2 (en) 2015-08-14 2016-03-04 Information processing system capable of promoting communication between/among users, information processing apparatus, non-transitory storage medium encoded with computer readable program, and method of controlling information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015160050A JP6698292B2 (ja) 2015-08-14 2015-08-14 情報処理システム

Publications (2)

Publication Number Publication Date
JP2017037585A JP2017037585A (ja) 2017-02-16
JP6698292B2 true JP6698292B2 (ja) 2020-05-27

Family

ID=57996179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015160050A Active JP6698292B2 (ja) 2015-08-14 2015-08-14 情報処理システム

Country Status (2)

Country Link
US (1) US11088976B2 (ja)
JP (1) JP6698292B2 (ja)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985913B2 (en) 2000-12-28 2006-01-10 Casio Computer Co. Ltd. Electronic book data delivery apparatus, electronic book device and recording medium
JP4075349B2 (ja) * 2001-10-18 2008-04-16 カシオ計算機株式会社 電子書籍装置および電子書籍データ表示制御方法
JP2002366474A (ja) * 2001-06-05 2002-12-20 Nec Corp 情報端末
JP2003271532A (ja) * 2002-03-15 2003-09-26 Seiko Epson Corp コミュニケーションシステム、当該システムのデータ転送方法、当該システムのサーバ、当該システムのための処理プログラム、および、記録媒体
JP4173056B2 (ja) * 2003-06-10 2008-10-29 株式会社ケンウッド 携帯通信端末及びプログラム
JP2005276103A (ja) * 2004-03-26 2005-10-06 Seiko Epson Corp 聞き手感情推定装置、聞き手感情推定方法、及びプログラム
US8224359B2 (en) * 2006-12-22 2012-07-17 Yahoo! Inc. Provisioning my status information to others in my social network
US9165426B2 (en) * 2008-01-09 2015-10-20 International Business Machines Corporation System and method for attending a recorded event in a metaverse application
JP5894819B2 (ja) * 2012-02-02 2016-03-30 株式会社コナミデジタルエンタテインメント メッセージ交換システム、制御方法およびプログラム
KR101278049B1 (ko) 2012-04-06 2013-06-24 주식회사 아이온커뮤니케이션즈 웹 페이지 상에서 만화 스토리 형식의 대화를 지원하는 모바일 채팅 시스템
KR20140052155A (ko) * 2012-10-19 2014-05-07 삼성전자주식회사 디스플레이 장치, 디스플레이 장치 제어 방법 및 디스플레이 장치의 제어를 위한 정보처리장치
JP6235842B2 (ja) 2013-09-13 2017-11-22 任天堂株式会社 サーバ装置、情報処理プログラム、情報処理システム、および情報処理方法
US9706040B2 (en) * 2013-10-31 2017-07-11 Udayakumar Kadirvel System and method for facilitating communication via interaction with an avatar
US9397972B2 (en) * 2014-01-24 2016-07-19 Mitii, Inc. Animated delivery of electronic messages

Also Published As

Publication number Publication date
US20170048173A1 (en) 2017-02-16
JP2017037585A (ja) 2017-02-16
US11088976B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
US20220230374A1 (en) User interface for generating expressive content
JP3679350B2 (ja) プログラム、情報記憶媒体及びコンピュータシステム
JP4395687B2 (ja) 情報処理装置
CN105917404B (zh) 用于实现数字个人助理的方法、设备和系统
US9652134B2 (en) Avatars reflecting user states
RU2488232C2 (ru) Сеть связи и устройства для преобразования текста в речь и текста в анимацию лица
US20150287403A1 (en) Device, system, and method of automatically generating an animated content-item
TW201528728A (zh) 即時通訊過程中的表情信息處理方法及裝置
WO2006011295A1 (ja) 通信装置
US11842433B2 (en) Generating personalized videos with customized text messages
WO2020150693A1 (en) Systems and methods for generating personalized videos with customized text messages
CN112367551A (zh) 视频编辑的方法及装置、电子设备和可读存储介质
EP3912086A2 (en) Systems and methods for providing personalized videos
CN108055191A (zh) 信息处理方法、终端及计算机可读存储介质
CN107592255A (zh) 信息展示方法和设备
JP2005078427A (ja) 携帯端末及びコンピュータ・ソフトウエア
CN108965101B (zh) 会话消息处理方法、装置、存储介质和计算机设备
JP6698292B2 (ja) 情報処理システム
JP2004023225A (ja) 情報通信装置およびその信号生成方法、ならびに情報通信システムおよびそのデータ通信方法
US20050195927A1 (en) Method and apparatus for conveying messages and simple patterns in communications network
KR101308601B1 (ko) 애니메이션 메신저 서비스 제공 방법
Ballagas et al. Reading, laughing, and connecting with young children
KR101595856B1 (ko) 3d 캐릭터 기반 음성 sns 시스템 및 방법
JPH09305787A (ja) アニメーション作成・再生装置、及びアニメーション検索装置
KR102657002B1 (ko) 공연 영상 컨텐츠의 생성 방법 및 이를 수행하기 위한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200428

R150 Certificate of patent or registration of utility model

Ref document number: 6698292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250