JP2015172883A - 端末装置、情報通信方法及び情報通信プログラム - Google Patents

端末装置、情報通信方法及び情報通信プログラム Download PDF

Info

Publication number
JP2015172883A
JP2015172883A JP2014048848A JP2014048848A JP2015172883A JP 2015172883 A JP2015172883 A JP 2015172883A JP 2014048848 A JP2014048848 A JP 2014048848A JP 2014048848 A JP2014048848 A JP 2014048848A JP 2015172883 A JP2015172883 A JP 2015172883A
Authority
JP
Japan
Prior art keywords
information
terminal device
user
unit
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014048848A
Other languages
English (en)
Inventor
一也 ▲高▼橋
一也 ▲高▼橋
Kazuya Takahashi
祐介 大塚
Yusuke Otsuka
祐介 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2014048848A priority Critical patent/JP2015172883A/ja
Publication of JP2015172883A publication Critical patent/JP2015172883A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】複数のユーザ間の音声情報によるメッセージの送受信において、ユーザの顔画像を相手方において表示させることなく、興趣を向上させることを目的とする。【解決手段】端末装置は、複数のユーザ間で相互に音声情報の送受信をする端末装置であって、自端末装置のユーザの顔画像情報を取得する取得部と、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断部と、自端末装置のユーザを表すアバターの態様を制御する制御情報であって、前記判断部により判断されたユーザの顔の向きを示す顔向き情報を含む制御情報を自端末装置以外の他の端末装置で受信可能に送信する送信部と、前記他の端末装置から送信された制御情報を受信する受信部と、前記他の端末装置のユーザを表すアバターを前記受信部により受信された制御情報に従った態様で表示手段に表示させる表示制御部と、を備える。【選択図】図2

Description

本発明の一側面は、端末装置、情報通信方法及び情報通信プログラムに関する。
端末装置において入力されたテキスト情報を、ネットワークを介して送受信するチャットアプリケーションが提供されている(例えば、特許文献1参照)。例えば、チャットアプリケーションにおいては、複数のユーザからなるグループが形成され、グループ内のユーザ間でメッセージを送受信するグループチャットを行うことができる。
特許第5380638号
テキストによるチャットにおいてメッセージの送受信が頻繁に行われるような状況では、テキストによるチャットよりも、音声により直接に対話が可能な音声チャット及びビデオチャットの利便性が高い。しかしながら、音声のみによるチャットでは興趣に欠ける。また、ビデオチャットでは、ユーザの顔画像を送受信するので、処理負荷が重くなる。さらに、ユーザが自分の顔画像を相手に見られたくない場合や、カメラにより取得される画像において、ユーザの背景に相手に見られたくない物がある場合がある。
そこで本発明の一側面は、複数のユーザ間の音声情報によるメッセージの送受信において、ユーザの顔画像を相手方において表示させることなく、興趣を向上させることを目的とする。
上記課題を解決するために、本発明の一側面に係る端末装置は、複数のユーザ間で相互に音声情報の送受信をする端末装置であって、自端末装置のユーザの顔画像情報を取得する取得部と、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断部と、自端末装置のユーザを表すアバターの態様を制御する制御情報であって、前記判断部により判断されたユーザの顔の向きを示す顔向き情報を含む制御情報を自端末装置以外の他の端末装置で受信可能に送信する送信部と、前記他の端末装置から送信された制御情報を受信する受信部と、前記他の端末装置のユーザを表すアバターを前記受信部により受信された制御情報に従った態様で表示手段に表示させる表示制御部と、を備える。
本発明の一側面に係る情報通信方法は、複数のユーザ間で相互に音声情報の送受信をする端末装置における情報通信方法であって、第1の端末装置が、自端末装置のユーザの顔画像情報を取得する取得ステップと、第1の端末装置が、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断ステップと、第1の端末装置が、自端末装置のユーザを表すアバターの態様を制御する制御情報であって、前記判断ステップにおいて判断されたユーザの顔の向きを示す顔向き情報を含む制御情報を自端末装置以外の他の端末装置で受信可能に送信する送信ステップと、第2の端末装置が、前記第1の端末装置から送信された制御情報を受信する受信ステップと、第2の端末装置が、前記第1の端末装置のユーザを表すアバターを前記受信ステップにおいて受信された制御情報に従った態様で表示手段に表示させる表示制御ステップと、を有する。
本発明の一側面に係る情報通信プログラムは、コンピュータを、複数のユーザ間で相互に音声情報の送受信をする端末装置として機能させるための情報通信プログラムであって、前記コンピュータに、自端末装置のユーザの顔画像情報を取得する取得機能と、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断機能と、自端末装置のユーザを表すアバターの態様を制御する制御情報であって、前記判断機能により判断されたユーザの顔の向きを示す顔向き情報を含む制御情報を自端末装置以外の他の端末装置で受信可能に送信する送信機能と、前記他の端末装置から送信された制御情報を受信する受信機能と、前記他の端末装置のユーザを表すアバターを前記受信機能により受信された制御情報に従った態様で表示手段に表示させる表示制御機能と、を実現させる。
実施形態に係る端末装置を含む情報通信システムの構成を示す図である。 第1実施形態に係る端末装置の機能的構成を示すブロック図である。 端末装置のハードウェア構成図である。 制御情報の一例を示す図である。 設定情報を含む制御情報の一例を示す図である。 顔の動きを示す情報を含む設定情報を含む制御情報の一例を示す図である。 ユーザの端末装置における表示部に表示された画面例を示す図である。 第1実施形態における情報通信方法の処理の例を示すフローチャートである。 第1実施形態における情報通信方法の処理の他の例を示すフローチャートである。 第1実施形態における情報通信方法の処理の他の例を示すフローチャートである。 情報通信プログラムの構成を示す図である。 第2実施形態に係る端末装置の機能的構成を示すブロック図である。 第2実施形態におけるユーザの端末装置のる表示部に表示された画面例を示す図である。 第2実施形態における指定情報を含む制御情報の一例を示す図である。 第2実施形態における制御情報の例を示す図である。 第2実施形態におけるユーザの端末装置の表示部22に表示される画面例を示す図である。 第2実施形態における情報通信方法の処理の例を示すフローチャートである。 第2実施形態における情報通信プログラムの構成を示す図である。 第3実施形態に係る端末装置の機能的構成を示すブロック図である。 第3実施形態における、テキストチャットが実施されている端末装置の表示部に表示される画面例を示す図である。 移行要求情報を受信した端末装置の表示部に表示される画面例を示す図である。 テキストチャットから音声チャットへの移行に関する処理を示すフローチャートである。 第3実施形態における情報通信プログラムの構成を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
(第1実施形態)
図1は、本実施形態に係る端末装置10を含む情報通信システム1の構成を示す図である。図1に示すように、情報通信システム1は、複数のユーザが登録されたグループ内においてチャットを行うシステムであって、図1に示すように、端末装置10a〜10d及びサーバ50を含む。端末装置10及びサーバ50は互いにインターネットなどのネットワークNを介して通信可能である。端末装置10は、複数のユーザ間で相互に音声情報の送受信をする装置であって、例えば、チャットのためのアプリケーションがインストールされることにより音声チャットを実施できる。さらに、端末装置10は、テキスト情報を相互に送受信することによるテキストチャットを実施できる。サーバ50は、端末装置10間の情報通信を仲介することにより音声チャットやテキストチャットを制御する。端末装置10を構成する装置は限定されず、例えば据置型又は携帯型のパーソナルコンピュータでもよいし、高機能携帯電話機(スマートフォン)や携帯電話機、携帯情報端末(PDA)などの携帯端末でもよい。なお、図1では、4台の端末装置10が例示されているが、端末装置の台数は限定されない。
図2は、本実施形態に係る端末装置10の機能的構成を示すブロック図である。端末装置10は、機能的には、取得部11、判断部12、送信部13、受信部14及び表示制御部15、を含む。また、端末装置10は、画像センサ21、表示部22(表示手段の一例)を備える。画像センサ21は、ユーザの顔画像を撮像するための装置である。表示部22は、表示制御部15による制御に基づいて画像を表示する部分であって、例えばディスプレイといった装置により構成される。
図3は、端末装置10のハードウェア構成図である。端末装置10は、物理的には、図3に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、メモリ及びハードディスク等で構成される補助記憶装置103、通信制御装置104、入力デバイスであるキーボード等の入力装置105、ディスプレイ等の出力装置106などを含むコンピュータシステムとして構成されている。
図2に示した各機能は、図3に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェア(情報通信プログラム)を読み込ませることにより、CPU101の制御のもとで通信制御装置104、入力装置105、出力装置106を制御させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。
続いて、端末装置10の機能部を説明する。取得部11は、自端末装置のユーザの顔画像情報を取得する部分である。具体的には、取得部11は、画像センサ21により撮像されたユーザの顔画像に関する顔画像情報を取得する。取得部11は、取得した顔画像情報を判断部12に送出する。なお、取得部11は、種々の事情により顔画像情報を取得できなかった場合には、その旨の情報を判断部12に送出する。
判断部12は、顔画像情報に基づき、少なくともユーザの顔の向きを判断する部分である。具体的には、判断部12は、例えば、ユーザの顔画像情報から周知の画像処理技術等により目、鼻、口等の部分を検出し、それらの部分の位置関係に基づき顔の向き及び正面向きに対する変位の大きさを判断する。判断部12は、判断した顔の向き及び顔の向きの変位の大きさに関する情報を送信部13に送出する。なお、判断部12は、顔画像情報が取得できなかった場合及びその他の何らかの事情により顔画像情報におけるユーザの顔の向きを判断できなかった場合に、その旨の情報を送信部13に送出することとしてもよい。
送信部13は、通信制御装置104を制御して情報通信システム1を構成する他の装置に対して各種情報を送信する部分である。例えば、送信部13は、自端末装置のユーザを表すアバターの態様を制御する制御情報を、自端末装置以外の他の端末装置10で受信可能に送信する。アバターは、ユーザの分身として画面上に登場させるキャラクターであって、ユーザの顔等が模式的に表される。アバターの態様は、例えば、アバターに表される表情、ジェスチャー及び動き等である。制御情報は、アバターの態様を制御するための情報であって、顔画像情報におけるユーザの顔の向き及び顔の向きの変位の大きさを示す顔向き情報を含む。図4は、制御情報Cの一例を示す図である。図4に示す例では、制御情報Cは、顔の方向「左」、顔の向きの変位の大きさ「中」といった情報を含む顔向き情報Fを含む。
本実施形態では、自端末装置と他の端末装置との情報通信はサーバ50を介して行われるので、送信部13は、制御情報Cを他の端末装置10で受信可能にするために、制御情報Cをサーバ50に送信する。サーバ50は、受信した制御情報Cを他の端末装置10に送信する。このように送信部13は、間接的に自端末装置から他の端末装置へ制御情報Cを送信する。なお、端末装置10間におけるチャットのための情報通信がサーバを介さずに直接に行われるシステムでは、送信部13は、他の端末装置10に制御情報Cを送信する。この場合には送信部13は、直接的に自端末装置から他の端末装置へ制御情報Cを送信する。したがって、送信部13は、直接的または間接的に制御情報Cを他の端末装置10で受信可能に送信することができる。
また、送信部13は、自端末装置において設定されたアバターの態様を示す設定情報を含む制御情報を送信できる。設定情報は、例えば、アバターの態様を制御するために端末装置10において顔向き情報Fに関して予め設定される情報である。さらに、設定情報は、顔向き情報Fと同様に、顔の向き及び顔の向きの変位の大きさを示す情報を含むことができる。図5は、設定情報Dを含む制御情報Cの一例を示す図である。図5に示す例では、制御情報Cは、顔の方向「正面」といった情報を含む設定情報Dを含む。この例の場合、設定情報Dは、顔の向きが正面向きであることを示す情報である。
また、設定情報は、顔の動きを示す情報を含んでもよい。図6は、顔の動きを示す情報を含む設定情報Dを含む制御情報Cの一例を示す図である。図6に示す例では、制御情報Cは、「10秒間隔で頷く」といった顔の動きを示す情報を含む設定情報Dを含む。このような,顔の動きを示す情報を設定情報Dに設定することができるので、動きを伴うアバターを他の端末装置10に表示させることが可能となる。
設定情報Dは、端末装置10において予め設定される場合の他、ユーザによる入力に基づき設定されることとしてもよい。つまり、設定情報は、自端末装置のユーザにより入力された顔の向き又は顔の動きを示す情報であってもよい。
送信部13は、取得部11により顔画像情報が取得できなかった場合又は判断部12が顔の向きを判断できなかった場合に、設定情報Dを含む制御情報Cを送信することとしてもよい。具体的には、取得部11が顔画像情報を取得できなかった場合又は判断部12が顔画像情報におけるユーザの顔の向きを判断できなかった場合にはその旨の情報が判断部12から送信部13に送出されるので、送信部13は、かかる情報を受信した場合に、設定情報Dを含む制御情報Cを送信する。これにより、自端末装置において顔向き情報が得られなかった場合であっても、他の端末装置10において設定情報Dに従った態様で自端末装置のユーザを表すアバターを表示させることが可能となる。
なお、送信部13は、顔の向きの判断の可否に関わらず、所定のタイミングで設定情報Dを含む制御情報Cを送信することとしてもよい。設定情報Dを含む制御情報Cの送信のタイミングについては、後にフローチャートを参照して説明する。
以上説明した取得部11、判断部12及び送信部13は、制御情報を送信する側に関する機能部であるが、以下に説明する機能部14,15は、制御情報を受信する側に関する機能部である。
受信部14は、通信制御装置104を制御して情報通信システム1を構成する他の装置から各種情報を受信する部分である。例えば、受信部14は、他の端末装置10から送信された制御情報Cを受信する。本実施形態では、端末装置10間の情報通信はサーバ50を介して行われるので、受信部14は、サーバ50から制御情報Cを受信する。つまり、受信部14は送信部13と同様に、直接的または間接的に制御情報Cを他の端末装置10から受信することができる。
表示制御部15は、他の端末装置10のユーザを表すアバターを受信部14により受信された制御情報Cに従った態様で表示部22に表示させる部分である。前述したとおり、制御情報Cは顔向き情報Fまたは設定情報Dを含むことができる。従って、表示制御部15は、顔向き情報Fまたは設定情報Dに従った態様でアバターを表示部22に表示させる。図7は、ユーザAの端末装置10aにおける、表示制御部15により表示部22に表示された画面例を示す図である。
即ち、図7は、ユーザA,B,C,Dからなるグループで行われている音声チャットの画面例であって、ユーザBの端末装置10bから、図4に示すような制御情報CがユーザA,C,Dの端末装置10a,10c,10dに送信された場合の例である。この画面例では、端末装置10aのユーザAを表すアバターVが、自端末装置のユーザのアバターとして右下欄に表示され、その他のユーザB,C,Dを表すアバターV,V,Vがそれぞれ、左上欄、右上欄、左下欄に表示されている。そして、ユーザBを示すアバターVが、顔の方向「左」、顔の向きの変位の大きさ「中」といった顔向き情報に従った態様で表示されている。なお、ユーザBの端末装置10bの表示画面では、ユーザBを表すアバターが、自端末装置のユーザのアバターとして右下欄に表示され、その他のユーザA,C,Dを表すアバターがそれぞれ、左上欄、右上欄、左下欄に表示されるように制御されることとしてもよい。
次に、図8を参照して、本実施形態の情報通信方法について説明する。図8は、第1の実施形態における情報通信方法の処理の例を示すフローチャートである。このフローチャートは、例えば、図4に示すようなユーザAの端末装置10aから送信された制御情報Cに基づき、ユーザB,C,Dの端末装置10b,10c,10dにおいてユーザAを表すアバターを表示させる処理の例を示す。なお、本実施形態では、制御情報Cはサーバ50を介して端末装置10b,10c,10dに送信されるが、フローチャートではサーバ50の制御の処理は省略している。
まず、画像センサ21は、ユーザAの顔画像を撮像する(S1)。続いて、取得部11は、ユーザAの顔画像情報を取得する(S2)。そして、判断部12は、ステップS2において取得された顔画像情報に基づき、ユーザAの顔の向きを判断する(S3)。
送信部13は、ステップS3において判断されたユーザAの顔の向きを示す顔向き情報Fを含む制御情報CをユーザB,C,Dの端末装置10b,10c,10dに送信する(S4)。
ステップS11において、受信部14は、制御情報Cを受信したか否かを判定する(S11)。制御情報Cを受信したと判定した場合には、処理手順はステップS12に進められる。一方、制御情報Cを受信したと判定されなかった場合には、ステップS11の判定処理が繰り返される。ステップS12において、表示制御部15は、ユーザAを表すアバターをステップS11において受信した制御情報Cに従った態様で表示部22に表示させる(S12)。
端末装置10aにおいて、所定時間が経過したか否かが判定され(S5)、所定時間が経過した場合には、処理手順はステップS1に戻る。即ち、端末装置10aでは、顔画像の撮像(S1)から制御情報の送信(S4)に至る処理を所定時間ごとに実施する。なお、本実施形態では、制御情報の送信が所定時間ごとに実施されることとして説明したが、ステップS1〜S4の処理が実施されるタイミング及び時間間隔は限定されない。
次に、図9を参照して、本実施形態の情報通信方法の、図8に示した例とは異なる処理の例を説明する。図9は、第1の実施形態における情報通信方法の処理の他の例を示すフローチャートである。このフローチャートは、例えば、図5に示すようなユーザAの端末装置10aから送信された設定情報Dを含む制御情報Cに基づき、ユーザB,C,Dの端末装置10b,10c,10dにおいてユーザAを表すアバターを表示させる処理の例を示す。
まず、画像センサ21は、ユーザAの顔画像を撮像する(S21)。続いて、取得部11は、ユーザAの顔画像情報の取得を試みる(S22)。そして、取得部11は、顔画像情報を取得できたか否かを判定する(S23)。顔画像情報を取得できたと判定された場合には、処理手順はステップS24に進められる。一方、顔画像情報を取得できたと判定されなかった場合には、処理手順はステップS26に進められる。
ステップS24において、判断部12は、取得された顔画像情報に基づき、ユーザAの顔の向きの判断を試みる(S24)。続いて、判断部12は、顔の向きを判断できたか否かを判定する(S25)。顔の向きを判断できたと判定された場合には、処理手順はステップS27に進められる。一方、顔の向きを判断できたと判定されなかった場合には、処理手順はステップS26に進められる。
ステップS27において、送信部13は、ステップS24において判断されたユーザAの顔の向きを示す顔向き情報Fを含む制御情報CをユーザB,C,Dの端末装置10b,10c,10dに送信する(S27)。一方、ステップS26において、送信部13は、設定情報Dを含む制御情報Cを、端末装置10b,10c,10dに送信する(S26)。ここで送信される設定情報Dは、例えば、図5に示すような、予め設定された顔の方向「正面」といった情報を含む。
ステップS31において、受信部14は、制御情報Cを受信したか否かを判定する(S31)。制御情報Cを受信したと判定した場合には、処理手順はステップS32に進められる。一方、制御情報Cを受信したと判定されなかった場合には、ステップS31の判定処理が繰り返される。ステップS32において、表示制御部15は、ユーザAを表すアバターをステップS31において受信した制御情報Cに従った態様で表示部22に表示させる(S32)。
端末装置10aにおいて、所定時間が経過したか否かが判定され(S28)、所定時間が経過した場合には、処理手順はステップS21に戻る。このように、端末装置10aにおいて顔向き情報Fが得られなかった場合であっても、設定情報Dを含む制御情報Cが送信されるので、端末装置10b,10c,10dにおいて設定情報Dに従った態様でユーザAを表すアバターを表示させることが可能となる。これにより、音声チャットにおける表示画面の興趣が向上される。
次に、図10を参照して、本実施形態の情報通信方法の、図8及び図9に示した例とは異なる処理の例を説明する。図10は、図9に示した例とは、設定情報Dを含む制御情報Cの送信のタイミングが異なる。図10に示すフローチャートは、ユーザAの端末装置10aから送信された制御情報Cに基づき、ユーザB,C,Dの端末装置10b,10c,10dにおいてユーザAを表すアバターを表示させる処理の例を示す。
この処理の例では、まず、送信部13は、ユーザAの顔の向きの判断の可否によらず、設定情報Dを含む制御情報Cを、予め端末装置10b,10c,10dに送信する(S41)。ステップS51において、受信部14は、ステップS41において送信された制御情報Cを受信する(S51)。そして、表示制御部15は、ユーザAを表すアバターをステップS51において受信した制御情報Cに従った態様で表示部22に表示させる(S52)。これにより、端末装置10b,10c,10dは、顔向き情報Fを含む制御情報の受信の有無によらず、端末装置10aから送信された設定情報Dに基づき、ユーザAを表すアバターを表示できる。
端末装置10aにおいて、画像センサ21は、ユーザAの顔画像を撮像する(S42)。続いて、取得部11は、ユーザAの顔画像情報の取得を試みる(S43)。そして、取得部11は、顔画像情報を取得できたか否かを判定する(S44)。顔画像情報を取得できたと判定された場合には、処理手順はステップS45に進められる。一方、顔画像情報を取得できたと判定されなかった場合には、処理手順はステップS48に進められる。
ステップS45において、判断部12は、取得された顔画像情報に基づき、ユーザAの顔の向きの判断を試みる(S45)。続いて、判断部12は、顔の向きを判断できたか否かを判定する(S46)。顔の向きを判断できたと判定された場合には、処理手順はステップS47に進められる。一方、顔の向きを判断できたと判定されなかった場合には、処理手順はステップS48に進められる。
ステップS47において、送信部13は、ステップS45において判断されたユーザAの顔の向きを示す顔向き情報Fを含む制御情報CをユーザB,C,Dの端末装置10b,10c,10dに送信する(S47)。端末装置10b,10c,10dにおいて、受信部14は、顔向き情報Fを含む制御情報Cを受信したか否かを判定する(S53)。顔向き情報Fを含む制御情報Cを受信したと判定した場合には、処理手順はステップS54に進められる。一方、顔向き情報Fを含む制御情報Cを受信したと判定されなかった場合には、処理手順はステップS52に戻る。即ち、表示制御部15は、受信部14により顔向き情報Fを含む制御情報Cが受信されなかった場合に、設定情報Dに従った態様でアバターを表示部22に表示させる(S52)。
ステップS54において、表示制御部15は、ユーザAを表すアバターをステップS53において受信した顔向き情報Fに従った態様で、表示部22に所定時間表示させる(S54)。そして、処理手順はステップS52に戻る。これにより、ユーザAを表すアバターが、顔向き情報Fに従った態様で所定時間表示された後、再び、設定情報Dに従った態様で表示されることとなる。なお、本実施形態では、顔向き情報Fに従った態様で所定時間表示されることとして説明したが、顔向き情報Fに従った態様から設定情報Dに従った態様に戻るタイミングはそれに限定されない。
端末装置10aにおいて、所定時間が経過したか否かが判定され(S48)、所定時間が経過した場合には、処理手順はステップS42に戻る。このように、端末装置10b,10c、10dにおいて、顔向き情報Fを含む制御情報Cが受信されなかった場合であっても、予め受信した設定情報Dに従った態様でユーザAを表すアバターを表示させることが可能となる。これにより、他の端末装置10に表示されるアバターの態様の制御を継続できるので、他の端末装置10のユーザの興味が損なわれることを防止できる。
次に、図11を参照して、コンピュータを端末装置10として機能させるための情報通信プログラムを説明する。情報通信プログラム10Pは、メインモジュール10m、取得モジュール11m、判断モジュール12m、送信モジュール13m、受信モジュール14m及び表示制御モジュール15mを備える。
メインモジュール10mは、情報通信処理を統括的に制御する部分である。取得モジュール11m、判断モジュール12m、送信モジュール13m、受信モジュール14m及び表示制御モジュール15mを実行することにより実現される機能はそれぞれ、図2に示される端末装置10の取得部11、判断部12、送信部13、受信部14及び表示制御部15の機能と同様である。
情報通信プログラム10Pは、例えば、CD−ROMやDVD−ROM等及び半導体メモリ等の記録媒体10Dによって提供される。また、情報通信プログラム10Pは、当該プログラムを配信するサーバの記憶装置からダウンロードされるように、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。
以上説明した第1実施形態の端末装置10によれば、自端末装置10のユーザの顔画像情報に基づき判断された顔の向きを示す顔向き情報Fを含む制御情報Cが他の端末装置10により受信され、制御情報Cを受信した他の端末装置10において、自端末装置10のユーザを表すアバターVが表示されるので、自端末装置10のユーザの顔画像が他の端末装置10において表示されることがない。また、自端末装置10から他の端末装置10に対して、顔向きを示す情報を含む制御情報Cが送信されるので、顔画像情報が送信される場合と比較して処理負荷が軽い。また、他の端末装置10において、制御情報Cに従った態様でアバターVが表示されるので、複数のユーザ間の音声情報によるメッセージの送受信における興趣を向上させることが可能となる。
(第2実施形態)
次に、第2実施形態について説明する。図12は、第2実施形態に係る端末装置10Aの機能的構成を示すブロック図である。端末装置10Aは、指定情報取得部16を更に備える点で、図2に示した第1の実施形態の端末装置10と異なる。
指定情報取得部16は、自端末装置のユーザの入力デバイス(入力装置105の一例)の操作により入力された、アバターの態様を指定する指定情報を取得する部分である。指定情報は、アバターの態様を制御するための情報であって、端末装置10Aのユーザにより明示的に入力される情報である。そして、送信部13は、指定情報取得部16により取得された指定情報を含む制御情報Cを他の端末装置10に送信する。指定情報を含む制御情報を受信した他の端末装置10において、表示制御部15は、指定情報に従った態様で自端末装置のユーザを表すアバターを表示部22に表示させる。
図13は、ユーザAの端末装置10a(10A)における、表示制御部15により表示部22に表示された画面例を示す図である。この画面例では、ユーザAによる指定情報の入力を受け付けるためのソフトウェアボタン(オンスクリーンボタン)である操作部g,g2が含まれる。なお、ソフトウェアボタンに対するユーザの操作は、ソフトウェアボタンに対応したタッチパネルが入力デバイスとして受け付ける。
操作部gは、自端末装置のユーザのアバターの態様を指定するためのソフトウェアボタンであって、例えば、「嬉しい」、「怒り」、「哀しい」、「楽しい」といったアバターの表情を指定することができる。例えば、ユーザAにより「嬉しい」の表示がされた操作部gが操作されると、指定情報取得部16は、喜んでいる表情でユーザAのアバターVを表示させるための指定情報を取得する。
図14は、指定情報Gを含む制御情報Cの一例を示す図である。図14に示すように、制御情報Cは指定情報Gを含み、指定情報Gはアバターの表情を指定するための情報「嬉しい」を含む。図14に示されるような制御情報Cが送信部13により送信されると、ユーザB,C,Dの端末装置10において、喜んでいる表情のユーザAのアバターVが表示される。このように、指定情報Gに従った態様のアバターを他の端末装置において表示させることができるので、自端末装置のユーザの所望の態様のアバターを他の端末装置において表示させることが可能となる。これにより、他の端末装置10AにおけるアバターVの表示において、自端末装置10Aのユーザの意図を反映させることが可能となる。
また、再び図13を参照して、操作部gは、自端末装置のユーザ以外のユーザを表すアバターの態様を指定するためのソフトウェアボタンである。具体的には、操作部gは、自端末装置のユーザのアバターから他のユーザのアバターに対するアクションを指定することができ、アクションの対象とするユーザ及びアクションの内容を指定するための入力ボタンを含む。
例えば、操作部gにおいて、アクションの内容を指定する「顔をなぐる」の入力ボタンを操作して、「顔をなぐる」のアクションを選択する。次に、選択したアクションをどのユーザに対して行うかの選択として、例えば、ユーザCを表すアバターVが表示されている右上欄の画面がタッチ操作されると、指定情報取得部16は、「ユーザAのアバターがユーザCのアバターの顔をなぐる」という態様を指定する指定情報を取得する。このタッチ操作を続けて行えるようにして、指定情報取得部16は、「ユーザAのアバターがユーザCのアバターの顔をなぐる」という態様を指定する指定情報を複数回取得するこことしてもよい。また、「顔をなぐる」のアクションを選択したままで、複数のユーザに対するタッチ操作を行うようにして、指定情報取得部16は、「ユーザAのアバターがユーザCとユーザDのアバターの顔をなぐる」という態様を指定する指定情報を取得するこことしてもよい。なお、選択されたアクションは、例えば所定時間が経過した場合に当該選択が無効にされたり、他のアクションを選択した場合に当該選択が無効にされたりする。
図15は、操作部gが操作された場合に、送信部13により送信される制御情報Cの例を示す図である。図15に示すように、制御情報Cは、指定情報Gを含み、指定情報GはユーザAのアバター及びユーザCのアバターの態様を指定するための情報「Cの顔をなぐる」を含む。すなわち、指定情報Gは、自端末装置のユーザ以外のユーザを表すアバターの態様を指定する情報を含むようにしてもよい。この場合、表示制御部15は、他の端末装置のユーザを表すアバター及び該ユーザ以外のユーザを表すアバターを、受信部14により受信された制御情報Cに含まれる指定情報Gに従った態様で表示部22に表示させるようにする。
図16は、図15に示されるような制御情報Cが送信部13により送信された場合における、ユーザBの端末装置10b(10A)の表示部22に表示される画面例を示す図である。図16に示すように、端末装置10bの表示制御部15は、「ユーザAのアバターがユーザCのアバターの顔をなぐる」態様で、アバターV,Vを表示部22に表示させる。このように、指定情報Gにおいて、自端末装置のユーザだけではなく他の端末装置のユーザの態様を指定することができる。これにより、他の端末装置10AにおけるアバターVの表示において、自端末装置10Aのユーザの意図を反映させると共に、他のユーザとのコミュニケーションにおける面白みを高めることが可能となる。
次に、図17を参照して、第2実施形態の情報通信方法の処理の例を説明する。図17に示すフローチャートは、ユーザAの端末装置10a(10A)から送信された制御情報Cに基づき、ユーザB,C,Dの端末装置10b(10A),10c(10A),10d(10A)においてユーザを表すアバターを表示させる処理の例を示す。
まず、送信部13は、ユーザAの顔の向きの判断の可否及び指定情報の取得の有無によらず、設定情報Dを含む制御情報Cを、端末装置10b,10c,10dに予め送信する(S61)。ステップS71において、受信部14は、ステップS61において送信された制御情報Cを受信する(S71)。そして、表示制御部15は、ユーザAを表すアバターをステップS71において受信した制御情報Cに従った態様で表示部22に表示させる(S72)。これにより、端末装置10b,10c,10dは、顔向き情報F又は指定情報Gを含む制御情報の受信の有無によらず、端末装置10aから送信された設定情報Dに基づき、ユーザAを表すアバターを表示できる。
端末装置10aにおいて、指定情報取得部16は、ユーザAによる操作に応じた指定情報を取得したか否かを判定する(S62)。指定情報を取得したと判定された場合には、処理手順はステップS63に進められる。一方、指定情報を取得したと判定されなかった場合には、処理手順はステップS64に進められる。ステップS63において、送信部13は、指定情報Gを含む制御情報Cを送信する(S63)。その後に処理手順はステップS70pに進められる。
一方、ステップS64において、画像センサ21は、ユーザAの顔画像を撮像する(S64)。続いて、取得部11は、ユーザAの顔画像情報の取得を試みる(S65)。そして、取得部11は、顔画像情報を取得できたか否かを判定する(S66)。顔画像情報を取得できたと判定された場合には、処理手順はステップS67に進められる。一方、顔画像情報を取得できたと判定されなかった場合には、処理手順はステップS70に進められる。
ステップS67において、判断部12は、取得された顔画像情報に基づき、ユーザAの顔の向きの判断を試みる(S67)。続いて、判断部12は、顔の向きを判断できたか否かを判定する(S68)。顔の向きを判断できたと判定された場合には、処理手順はステップS69に進められる。一方、顔の向きを判断できたと判定されなかった場合には、処理手順はステップS70に進められる。
ステップS69において、送信部13は、ステップS67において判断されたユーザAの顔の向きを示す顔向き情報Fを含む制御情報CをユーザB,C,Dの端末装置10b,10c,10dに送信する(S69)。端末装置10b,10c,10dにおいて、受信部14は、顔向き情報F又は指定情報Gを含む制御情報Cを受信したか否かを判定する(S73)。顔向き情報F又は指定情報Gを含む制御情報Cを受信したと判定した場合には、処理手順はステップS74に進められる。一方、顔向き情報F又は指定情報Gを含む制御情報Cを受信したと判定されなかった場合には、処理手順はステップS72に戻る。即ち、表示制御部15は、受信部14により顔向き情報F又は指定情報Gを含む制御情報Cが受信されなかった場合に、設定情報Dに従った態様でアバターを表示部22に表示させる(S72)。
ステップS74において、表示制御部15は、ステップS73において受信した顔向き情報F又は指定情報Gに従った態様で、各ユーザを表すアバターを表示部22に所定時間表示させる(S74)。そして、処理手順はステップS72に戻る。
端末装置10aにおいて、所定時間が経過したか否かが判定され(S70)、所定時間が経過した場合には、処理手順はステップS62に戻る。
次に、図18を参照して、コンピュータを端末装置10Aとして機能させるための情報通信プログラムを説明する。情報通信プログラム10APは、メインモジュール10m、取得モジュール11m、判断モジュール12m、送信モジュール13m、受信モジュール14m、表示制御モジュール15m及び指定情報取得モジュール16mを備える。
メインモジュール10mは、情報通信処理を統括的に制御する部分である。取得モジュール11m、判断モジュール12m、送信モジュール13m、受信モジュール14m、表示制御モジュール15m及び指定情報取得モジュール16mを実行することにより実現される機能はそれぞれ、図12に示される端末装置10Aの取得部11、判断部12、送信部13、受信部14、表示制御部15及び指定情報取得部16の機能と同様である。
(第3実施形態)
次に、第3実施形態について説明する。図19は、第3実施形態に係る端末装置10Bの機能的構成を示すブロック図である。端末装置10Bは、移行要求受付部31、移行要求送信部32、移行要求受信部33、移行要求表示部34及び制御部35を更に備える点で、図2に示した第1実施形態の端末装置10及び図12に示した第2実施形態の端末装置10Aと異なる。端末装置10Bは、予め設定されたグループに含まれる複数のユーザ間で相互にテキスト情報の送受信が可能であり、テキスト情報の送受信を制御するテキストチャットを実施している状態(第1の制御状態の一例)と音声情報の送受信を制御する音声チャットを実施している状態(第2の制御状態の一例)とを含む。具体的には、端末装置10Bは、複数の端末装置10B間において、テキストチャット及び音声チャットを実施できる。
移行要求受付部31は、テキストチャットを実施している状態において、端末装置10Bのユーザの入力デバイスの操作により、音声チャットを実施している状態への移行要求入力を受け付ける部分である。図20は、テキストチャットが実施されているユーザAの端末装置10a(10B)において、表示部22に表示される画面例を示す図である。この画面例では、ユーザからの音声チャットへの移行要求入力を受け付けるためのソフトウェアボタンR1が含まれる。ソフトウェアボタンR1が操作されると、移行要求受付部31は、その操作を音声チャットへの移行要求入力として受け付ける。なお、ソフトウェアボタンに対するユーザの操作は、ソフトウェアボタンに対応したタッチパネルが入力デバイスとして受け付ける。
移行要求送信部32は、移行要求入力が受け付けられた旨を示す移行要求情報を自端末装置以外の他の端末装置に送信する部分である。具体的には、例えば、図20に示す例において、ユーザAの端末装置10aにおいて移行要求入力が受け付けられると、移行要求送信部32は、ユーザB,C,Dの端末装置10b(10B)、10c(10B)、10d(10B)に、移行要求情報を送信する。
移行要求受信部33は、他の端末装置から送信された移行要求情報を受信する部分である。具体的には、他の端末装置10Bにおいて受け付けられた移行要求入力に基づく移行要求情報がグループ内の他の端末装置10Bから送信されると、移行要求受信部33は、送信された移行要求情報を受信する。
移行要求表示部34は、移行要求受信部33により移行要求情報が受信された場合に、音声チャットを実施している状態への移行を促す旨のメッセージを表示部22に表示させる部分である。図21は、移行要求情報を受信したユーザBの端末装置10bにおいて、表示部22に表示される画面例を示す図である。図21に示されるように、移行要求表示部34は、「音声チャットに移行しよう!このボタンを押して!」といった音声チャットへの移行を促すメッセージを含むソフトウェアボタンR2を、表示部22に表示させる。ユーザBによりソフトウェアボタンR2が操作されると、端末装置10bは、移行要求情報に対する応答入力として受け付ける。受け付けられた応答入力は、グループ内の各端末装置10Bに送信される。
制御部35は、グループに含まれる複数のユーザの一部または全ての端末装置10Bにおいて移行要求情報に対する応答入力が受け付けられた場合に、音声チャットを実施している状態に制御状態を移行する部分である。具体的には、制御部35は、送信した移行要求情報に対する応答入力が受け付けられた旨の情報を、グループ内の端末装置10Bの少なくとも一部から取得した場合に、自端末装置の制御状態を、例えば図20に示されるようなテキストチャットから、例えば図7等に示されるような音声チャットに移行する。
図22は、テキストチャットから音声チャットへの移行に関する処理を示すフローチャートである。図22に示すフローチャートは、ユーザAの端末装置10aから端末装置10b,10c、10dに送信された移行要求情報に基づき音声チャットへの移行制御が行われる処理の例を示す。
まず、移行要求受付部31は、テキストチャットを実施している状態において、ユーザAからの、音声チャットへの移行要求入力を受け付けたか否かを判定する(S81)。音声チャットへの移行要求入力を受け付けたと判定された場合には、処理手順はステップS82に進められる。一方、音声チャットへの移行要求入力を受け付けたと判定されなかった場合には、ステップS81の処理内容を繰り返す。ステップS81において移行要求受付部31が移行要求入力を受け付けると、移行要求送信部32は、移行要求情報を端末装置10b,10c、10dに送信する(S82)。
移行要求情報を送信された端末装置10Bにおいて、移行要求受信部33は、移行要求情報を受信する(S91)。次に、移行要求表示部34は、移行要求受信部33により移行要求情報が受信された場合に、音声チャットへの移行を促す旨のメッセージを表示部22に表示させる(S92)。
音声チャットへの移行を促す旨のメッセージが表示された端末装置10Bにおいて、移行要求情報に対する応答入力が受け付けられたか否かが判定される(S93)。応答入力が受け付けられた場合には、処理手順はステップS94に進められる。ステップS94において、応答入力が受け付けられた旨の情報が、ユーザAの端末装置10aを含む他の端末装置10Bに送信される(S94)。ステップS93の移行要求情報に対する応答入力の受け付け処理において、グループに含まれる複数のユーザ全ての応答入力が受け付けられる必要がなく、例えば少なくとも一人のユーザの応答入力が受け付けられることで、音声チャット(第2の制御状態)を実施するようにしてもよく、後から残りのユーザが音声チャットに参加できるようにすることとしてもよい。
ユーザAの端末装置10aにおいて、制御部35は、他の端末装置10Bにおいて応答入力が受け付けられた旨の情報を受信すると(S83)、端末装置10aにおける制御状態を音声チャットに移行する(S84)。また、移行要求情報に対する応答入力を受け付けた端末装置10Bにおいても、制御部35は、制御状態を音声チャットに移行する(S95)。
次に、図23を参照して、コンピュータを端末装置10Bとして機能させるための情報通信プログラムを説明する。情報通信プログラム10BPは、メインモジュール10m、取得モジュール11m、判断モジュール12m、送信モジュール13m、受信モジュール14m、表示制御モジュール15m、移行要求受付モジュール31m、移行要求送信モジュール32m、移行要求受信モジュール33m、移行要求表示モジュール34m及び制御モジュール35mを備える。
メインモジュール10mは、情報通信処理を統括的に制御する部分である。取得モジュール11m、判断モジュール12m、送信モジュール13m、受信モジュール14m、表示制御モジュール15m、移行要求受付モジュール31m、移行要求送信モジュール32m、移行要求受信モジュール33m、移行要求表示モジュール34m及び制御モジュール35mを実行することにより実現される機能はそれぞれ、図19に示される端末装置10Bの取得部11、判断部12、送信部13、受信部14、表示制御部15、移行要求受付部31、移行要求送信部32、移行要求受信部33、移行要求表示部34及び制御部35の機能と同様である。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。例えば、本発明は、以下に記載する端末装置、情報通信方法及び情報通信プログラムであってもよい。
本発明の一側面に係る端末装置10は、複数のユーザ間で相互に音声情報の送受信をする端末装置10であって、自端末装置のユーザの顔画像情報を取得する取得部11と、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断部12と、自端末装置のユーザを表すアバターVの態様を制御する制御情報Cであって、前記判断部により判断されたユーザの顔の向きを示す顔向き情報Fを含む制御情報Cを自端末装置10以外の他の端末装置10で受信可能に送信する送信部13と、前記他の端末装置から送信された制御情報Cを受信する受信部14と、前記他の端末装置10のユーザを表すアバターVを前記受信部14により受信された制御情報Cに従った態様で表示手段(例えば、表示部22)に表示させる表示制御部15と、を備える。
本発明の一側面に係る情報通信方法は、複数のユーザ間で相互に音声情報の送受信をする端末装置における情報通信方法であって、第1の端末装置10が、自端末装置10のユーザの顔画像情報を取得する取得ステップ(S2)と、第1の端末装置10が、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断ステップ(S3)と、第1の端末装置10が、自端末装置のユーザを表すアバターVの態様を制御する制御情報Cであって、前記判断ステップにおいて判断されたユーザの顔の向きを示す顔向き情報Fを含む制御情報Cを自端末装置10以外の他の端末装置10で受信可能に送信する送信ステップ(S4)と、第2の端末装置が、前記第1の端末装置から送信された制御情報Cを受信する受信ステップ(S11)と、第2の端末装置10が、前記第1の端末装置10のユーザを表すアバターVを前記受信ステップにおいて受信された制御情報Cに従った態様で表示手段に表示させる表示制御ステップ(S12)と、を有する。
本発明の一側面に係る情報通信プログラム10Pは、コンピュータを、複数のユーザ間で相互に音声情報の送受信をする端末装置として機能させるための情報通信プログラム10Pであって、前記コンピュータに、自端末装置のユーザの顔画像情報を取得する取得機能(取得モジュール11m)と、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断機能(判断モジュール12m)と、自端末装置のユーザを表すアバターVの態様を制御する制御情報Cであって、前記判断機能により判断されたユーザの顔の向きを示す顔向き情報Fを含む制御情報Cを自端末装置以外の他の端末装置で受信可能に送信する送信機能(送信モジュール13m)と、前記他の端末装置から送信された制御情報Cを受信する受信機能(受信モジュール14m)と、前記他の端末装置のユーザを表すアバターVを前記受信機能により受信された制御情報Cに従った態様で表示手段に表示させる表示制御機能(表示制御モジュール15m)と、を実現させる。
上記側面によれば、自端末装置10のユーザの顔画像情報に基づき判断された顔の向きを示す顔向き情報Fを含む制御情報Cが他の端末装置10により受信され、制御情報Cを受信した他の端末装置10において、自端末装置10のユーザを表すアバターVが表示されるので、自端末装置10のユーザの顔画像が他の端末装置10において表示されることがない。また、自端末装置10から他の端末装置10に対して、顔向きを示す情報を含む制御情報Cが送信されるので、顔画像情報が送信される場合と比較して処理負荷が軽い。また、他の端末装置10において、制御情報Cに従った態様でアバターVが表示されるので、複数のユーザ間の音声情報によるメッセージの送受信における興趣を向上させることが可能となる。
別の側面に係る端末装置10では、前記送信部13は、自端末装置10において設定されたアバターVの態様を示す設定情報Dを含む制御情報Cを送信し、前記表示制御部15は、前記制御情報Cに含まれる前記顔向き情報F又は前記設定情報Dに従った態様で前記アバターVを前記表示手段22に表示させることとしてもよい。
上記側面によれば、他の端末装置10において、顔向き情報F又は設定情報Dに従った態様でアバターVが表示されるので、複数のユーザ間の音声情報によるメッセージの送受信における興趣を向上させることが可能となる。
別の側面に係る端末装置では、前記送信部13は、前記取得部11により顔画像情報が取得できなかった場合又は前記判断部12が顔の向きを判断できなかった場合に、前記設定情報Dを含む制御情報Cを送信することとしてもよい。
上記側面によれば、自端末装置10において顔向き情報Fが得られなかった場合であっても、設定情報Dを含む制御情報Cが他の端末装置10に送信されるので、他の端末装置10において設定情報Dに従った態様で自端末装置10のユーザを表すアバターVを表示させることが可能となる。従って、複数のユーザ間の音声情報によるメッセージの送受信における興趣が向上される。
別の側面に係る端末装置では、前記表示制御部15は、前記受信部14により顔向き情報Fを含む制御情報Cが受信されなかった場合に、前記設定情報Dに従った態様で前記アバターVを前記表示手段22に表示させることとしてもよい。
上記側面によれば、他の端末装置10において顔向き情報Fを含む制御情報Cが受信されなかった場合であっても、設定情報Dに従った態様で自端末装置10のユーザを表すアバターVを表示させることが可能となる。従って、複数のユーザ間の音声情報によるメッセージの送受信における興趣が向上される。
別の側面に係る端末装置では、前記設定情報Dは、顔の向きに関して予め設定された情報であることとしてもよい。
上記側面によれば、他の端末装置10において、設定された任意の顔の向きで自端末装置10のユーザを表すアバターVを表示させることができる。
別の側面に係る端末装置では、前記設定情報Dは、顔の向きが正面向きであることを示す情報であることとしてもよい。
上記側面によれば、他の端末装置10において、自端末装置10のユーザを表すアバターVを顔が正面を向いた状態で表示させることができる。
別の側面に係る端末装置では、前記設定情報Dは、自端末装置10のユーザにより入力された顔の向き又は顔の動きを示す情報であることとしてもよい。
上記側面によれば、自端末装置10のユーザによる入力内容に応じた態様で、他の端末装置10において自端末装置10のユーザを表すアバターVを表示させることができる。また、設定情報Dにおいて、顔の向き及び顔の動きをアバターVの態様として設定できるので、自端末装置10のユーザの所望の顔の向き及び動きを伴うアバターを他の端末装置10に表示させることが可能となる。
別の側面に係る端末装置では、自端末装置10Aのユーザにより入力された、アバターの態様を指定する指定情報Gを取得する指定情報取得部16を更に備え、前記送信部13は、前記指定情報Gを含む前記制御情報Cを送信し、前記表示制御部15は、前記受信部14により受信された制御情報Cに含まれる指定情報Gに従った態様で前記表示手段22にアバターVを表示させることとしてもよい。
上記側面によれば、自端末装置10Aのユーザにより入力された指定情報Gに従った態様のアバターVが他の端末装置10Aにおいて表示されるので、自端末装置10Aのユーザの所望の態様のアバターVを他の端末装置10Aに表示させることができる。これにより、他の端末装置10AにおけるアバターVの表示において、自端末装置10Aのユーザの意図を反映させることが可能となる。
別の側面に係る端末装置10Aでは、前記指定情報Gは、自端末装置10Aのユーザ以外のユーザを表すアバターVの態様を指定する情報を含み、前記表示制御部15は、前記他の端末装置10Aのユーザを表すアバターV及び該ユーザ以外のユーザを表すアバターVを、前記受信部14により受信された制御情報Cに含まれる指定情報Gに従った態様で前記表示手段22に表示させることとしてもよい。
上記側面によれば、自端末装置10Aのユーザ以外の他のユーザを表すアバターVの態様を指定情報Gにおいて指定でき、その指定情報Gに従った態様で他のユーザのアバターが表示される。これにより、他の端末装置10AにおけるアバターVの表示において、自端末装置10Aのユーザの意図を反映させると共に、他のユーザとのコミュニケーションにおける興趣を高めることが可能となる。
別の側面に係る端末装置10Bは、予め設定されたグループに含まれる複数のユーザ間で相互にテキスト情報の送受信が可能であり、テキスト情報の送受信を制御する第1の制御状態(テキストチャット)と音声情報の送受信を制御する第2の制御状態(音声チャット)とを含み、前記第1の制御状態において、ユーザからの第2の制御状態への移行要求入力を受け付ける移行要求受付部31と、前記移行要求入力が受け付けられた旨を示す移行要求情報を自端末装置10B以外の他の端末装置10Bに送信する移行要求送信部32と、自端末装置10B以外の他の端末装置10Bから送信された移行要求情報を受信する移行要求受信部33と、前記移行要求受信部33により移行要求情報が受信された場合に、第2の制御状態への移行を促す旨のメッセージを前記表示手段22に表示させる移行要求表示部34と、前記グループに含まれる複数のユーザの一部または全ての端末装置10Bにおいて前記移行要求情報に対する応答入力が受け付けられた場合に、第2の制御状態に制御状態を移行する制御部35と、を更に備えることとしてもよい。
上記側面によれば、グループ内のユーザ間でテキスト情報の送受信が行われるテキストチャットが実施されている制御状態において、音声情報の送受信が行われる音声チャットが実施される制御状態への一のユーザからの移行要求入力に対して、グループ内の他のユーザの少なくとも一部のユーザからの応答入力が受け付けられると、音声チャットが実施される制御状態への移行制御が行われる。これにより、テキストチャットから音声チャットへの容易な移行が可能となる。
10,10A,10B…端末装置、50…サーバ、N…ネットワーク、10P,10AP,10BP…情報通信プログラム、11…取得部、12…判断部、13…送信部、14…受信部、15…表示制御部、16…指定情報取得部、21…画像センサ、22…表示部、31…移行要求受付部、32…移行要求送信部、33…移行要求受信部、34…移行要求表示部、35…制御部、10m…メインモジュール、11m…取得モジュール、12m…判断モジュール、13m…送信モジュール、14m…受信モジュール、15m…表示制御モジュール、16m…指定情報取得モジュール、31m…移行要求受付モジュール、32m…移行要求送信モジュール、33m…移行要求受信モジュール、34m…移行要求表示モジュール、35m…制御モジュール、C…制御情報、D…設定情報、F…顔向き情報、G,G,G…指定情報、V,V,V,V,V…アバター。

Claims (12)

  1. 複数のユーザ間で相互に音声情報の送受信をする端末装置であって、
    自端末装置のユーザの顔画像情報を取得する取得部と、
    前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断部と、
    自端末装置のユーザを表すアバターの態様を制御する制御情報であって、前記判断部により判断されたユーザの顔の向きを示す顔向き情報を含む制御情報を自端末装置以外の他の端末装置で受信可能に送信する送信部と、
    前記他の端末装置から送信された制御情報を受信する受信部と、
    前記他の端末装置のユーザを表すアバターを前記受信部により受信された制御情報に従った態様で表示手段に表示させる表示制御部と、
    を備える端末装置。
  2. 前記送信部は、自端末装置において設定されたアバターの態様を示す設定情報を含む制御情報を送信し、
    前記表示制御部は、前記制御情報に含まれる前記顔向き情報又は前記設定情報に従った態様で前記アバターを前記表示手段に表示させる、
    請求項1に記載の端末装置。
  3. 前記送信部は、前記取得部により顔画像情報が取得できなかった場合又は前記判断部が顔の向きを判断できなかった場合に、前記設定情報を含む制御情報を送信する、
    請求項2に記載の端末装置。
  4. 前記表示制御部は、前記受信部により顔向き情報を含む制御情報が受信されなかった場合に、前記設定情報に従った態様で前記アバターを前記表示手段に表示させる、
    請求項2に記載の端末装置。
  5. 前記設定情報は、顔の向きに関して予め設定された情報である、
    請求項2〜4のいずれか一項に記載の端末装置。
  6. 前記設定情報は、顔の向きが正面向きであることを示す情報である、請求項5に記載の端末装置。
  7. 前記設定情報は、自端末装置のユーザにより入力された顔の向き又は顔の動きを示す情報である、請求項5に記載の端末装置。
  8. 自端末装置のユーザにより入力された、アバターの態様を指定する指定情報を取得する指定情報取得部を更に備え、
    前記送信部は、前記指定情報を含む前記制御情報を送信し、
    前記表示制御部は、前記受信部により受信された制御情報に含まれる指定情報に従った態様で前記表示手段にアバターを表示させる、
    請求項1〜7のいずれか一項に記載の端末装置。
  9. 前記指定情報は、自端末装置のユーザ以外のユーザを表すアバターの態様を指定する情報を含み、
    前記表示制御部は、前記他の端末装置のユーザを表すアバター及び該ユーザ以外のユーザを表すアバターを、前記受信部により受信された制御情報に含まれる指定情報に従った態様で前記表示手段に表示させる、
    請求項8に記載の端末装置。
  10. 前記端末装置は、予め設定されたグループに含まれる複数のユーザ間で相互にテキスト情報の送受信が可能であり、テキスト情報の送受信を制御する第1の制御状態と音声情報の送受信を制御する第2の制御状態とを含み、
    前記第1の制御状態において、ユーザからの第2の制御状態への移行要求入力を受け付ける移行要求受付部と、
    前記移行要求入力が受け付けられた旨を示す移行要求情報を自端末装置以外の他の端末装置に送信する移行要求送信部と、
    自端末装置以外の他の端末装置から送信された移行要求情報を受信する移行要求受信部と、
    前記移行要求受信部により移行要求情報が受信された場合に、第2の制御状態への移行を促す旨のメッセージを前記表示手段に表示させる移行要求表示部と、
    前記グループに含まれる複数のユーザの一部または全ての端末装置において前記移行要求情報に対する応答入力が受け付けられた場合に、第2の制御状態に制御状態を移行する制御部と、を更に備える、
    請求項1〜8のいずれか一項に記載の端末装置。
  11. 複数のユーザ間で相互に音声情報の送受信をする端末装置における情報通信方法であって、
    第1の端末装置が、自端末装置のユーザの顔画像情報を取得する取得ステップと、
    第1の端末装置が、前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断ステップと、
    第1の端末装置が、自端末装置のユーザを表すアバターの態様を制御する制御情報であって、前記判断ステップにおいて判断されたユーザの顔の向きを示す顔向き情報を含む制御情報を自端末装置以外の他の端末装置で受信可能に送信する送信ステップと、
    第2の端末装置が、前記第1の端末装置から送信された制御情報を受信する受信ステップと、
    第2の端末装置が、前記第1の端末装置のユーザを表すアバターを前記受信ステップにおいて受信された制御情報に従った態様で表示手段に表示させる表示制御ステップと、
    を有する情報通信方法。
  12. コンピュータを、複数のユーザ間で相互に音声情報の送受信をする端末装置として機能させるための情報通信プログラムであって、
    前記コンピュータに、
    自端末装置のユーザの顔画像情報を取得する取得機能と、
    前記顔画像情報に基づき、少なくともユーザの顔の向きを判断する判断機能と、
    自端末装置のユーザを表すアバターの態様を制御する制御情報であって、前記判断機能により判断されたユーザの顔の向きを示す顔向き情報を含む制御情報を自端末装置以外の他の端末装置で受信可能に送信する送信機能と、
    前記他の端末装置から送信された制御情報を受信する受信機能と、
    前記他の端末装置のユーザを表すアバターを前記受信機能により受信された制御情報に従った態様で表示手段に表示させる表示制御機能と、
    を実現させる情報通信プログラム。

JP2014048848A 2014-03-12 2014-03-12 端末装置、情報通信方法及び情報通信プログラム Pending JP2015172883A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014048848A JP2015172883A (ja) 2014-03-12 2014-03-12 端末装置、情報通信方法及び情報通信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014048848A JP2015172883A (ja) 2014-03-12 2014-03-12 端末装置、情報通信方法及び情報通信プログラム

Publications (1)

Publication Number Publication Date
JP2015172883A true JP2015172883A (ja) 2015-10-01

Family

ID=54260161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014048848A Pending JP2015172883A (ja) 2014-03-12 2014-03-12 端末装置、情報通信方法及び情報通信プログラム

Country Status (1)

Country Link
JP (1) JP2015172883A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216327A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109800644A (zh) * 2018-12-17 2019-05-24 深圳壹账通智能科技有限公司 基于表情识别的终端设备切换方法、装置、介质及终端
JP2020064426A (ja) * 2018-10-16 2020-04-23 株式会社アンビリアル コミュニケーションシステム及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (ja) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd 画像コミュニケーション機能付き情報端末装置および画像配信システム
JP2005130356A (ja) * 2003-10-27 2005-05-19 Matsushita Electric Ind Co Ltd テレビ電話システム及びその通信方法、並びに通信端末
WO2006003709A1 (ja) * 2004-07-02 2006-01-12 Fujitsu Limited 通信制御方法及びコンピュータ・システム
JP2006065683A (ja) * 2004-08-27 2006-03-09 Kyocera Communication Systems Co Ltd アバタ通信システム
JP2006185393A (ja) * 2004-12-28 2006-07-13 Oki Electric Ind Co Ltd 情報端末装置
JP2010086163A (ja) * 2008-09-30 2010-04-15 Oki Electric Ind Co Ltd 情報処理装置、プログラム及び通信システム
US20140055554A1 (en) * 2011-12-29 2014-02-27 Yangzhou Du System and method for communication using interactive avatar

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (ja) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd 画像コミュニケーション機能付き情報端末装置および画像配信システム
JP2005130356A (ja) * 2003-10-27 2005-05-19 Matsushita Electric Ind Co Ltd テレビ電話システム及びその通信方法、並びに通信端末
WO2006003709A1 (ja) * 2004-07-02 2006-01-12 Fujitsu Limited 通信制御方法及びコンピュータ・システム
JP2006065683A (ja) * 2004-08-27 2006-03-09 Kyocera Communication Systems Co Ltd アバタ通信システム
JP2006185393A (ja) * 2004-12-28 2006-07-13 Oki Electric Ind Co Ltd 情報端末装置
JP2010086163A (ja) * 2008-09-30 2010-04-15 Oki Electric Ind Co Ltd 情報処理装置、プログラム及び通信システム
US20140055554A1 (en) * 2011-12-29 2014-02-27 Yangzhou Du System and method for communication using interactive avatar

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
森永英文, 外2名: ""表情伝達を目的としたアバターチャットシステム"", 第66回(平成16年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6015050170, 9 March 2004 (2004-03-09), pages 4 - 239, ISSN: 0003215275 *
見尾昇亮, 外5名: ""バーチャルヒューマンを用いたアバターシステムの構築"", 第70回(平成20年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6015050171, 13 March 2008 (2008-03-13), pages 4 - 287, ISSN: 0003215276 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216327A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020064426A (ja) * 2018-10-16 2020-04-23 株式会社アンビリアル コミュニケーションシステム及びプログラム
CN109800644A (zh) * 2018-12-17 2019-05-24 深圳壹账通智能科技有限公司 基于表情识别的终端设备切换方法、装置、介质及终端

Similar Documents

Publication Publication Date Title
CN103530096B (zh) 远程控制方法、远程控制设备和显示设备
KR20180057366A (ko) 이동 단말기 및 그 제어방법
CN103812761B (zh) 用于使用增强现实提供社交网络服务的设备和方法
KR20190137953A (ko) 주변 장치들과 무선 페어링하고 주변 장치들에 관한 상태 정보를 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
KR20170024170A (ko) 소셜 네트워킹 서비스들 및 어플리케이션들로의 감각 기능성들의 통합
JP2008263297A (ja) 通信制御装置および通信端末
KR20150032674A (ko) 통신 시스템
CN113709022B (zh) 消息交互方法、装置、设备及存储介质
JP6175969B2 (ja) 情報処理装置、情報処理システム及びプログラム
JP7400231B2 (ja) 通信システム、情報処理装置、通信方法およびプログラム
KR20140137736A (ko) 그룹 메시지 표시 방법 및 장치
CN111148081B (zh) 一种信息交互方法及电子设备
WO2020248627A1 (zh) 一种视频通话方法和显示设备
JP2015172883A (ja) 端末装置、情報通信方法及び情報通信プログラム
WO2016002306A1 (ja) 情報処理システム、情報処理端末、および情報処理方法
JP2015126524A (ja) 遠隔会議プログラム、端末装置および遠隔会議方法
JP7416735B2 (ja) アバタ表示装置、アバタ表示システム、アバタ表示方法およびアバタ表示プログラム
CN111108491B (zh) 会议系统
JP2008270912A (ja) 制御装置、移動通信システム及び通信端末
WO2014168030A1 (ja) 通信端末及び通信方法
KR20160020747A (ko) 이동 단말기
WO2020083178A1 (zh) 数字图像展示方法、装置、电子设备及存储介质
CN111831367A (zh) 应用操作方法、可穿戴设备及具有存储功能的装置
JP6208910B1 (ja) 動画像処理装置、動画像処理システム、動画像処理方法及び動画像処理プログラム
US20180267600A1 (en) Method and device for controlling virtual reality helmets

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160524