JP2014006869A - 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP2014006869A
JP2014006869A JP2012252377A JP2012252377A JP2014006869A JP 2014006869 A JP2014006869 A JP 2014006869A JP 2012252377 A JP2012252377 A JP 2012252377A JP 2012252377 A JP2012252377 A JP 2012252377A JP 2014006869 A JP2014006869 A JP 2014006869A
Authority
JP
Japan
Prior art keywords
image
information processing
display
user
editable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012252377A
Other languages
English (en)
Inventor
Fumihiko Tamiya
文彦 民谷
Daiji Imai
大二 今井
Nash Bjorn
ナッシュ ビョーン
Chau Darwin
チャウ ダーウィン
Macfarlane Alex
マクファーレン アレックス
Steven Evans
エバンズ スティーブン
Gill Brandon
ギル ブランドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012252377A priority Critical patent/JP2014006869A/ja
Priority to US13/827,596 priority patent/US9661264B2/en
Priority to US13/826,789 priority patent/US9083844B2/en
Publication of JP2014006869A publication Critical patent/JP2014006869A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)

Abstract

【課題】画像を用いたコミュニケーションの利便性を高めることを課題とする。
【解決手段】情報処理装置を、可搬型情報処理装置2のカメラ29を用いて撮像されたユーザ画像を取得するユーザ画像取得部31と、ネットワークを介して通信相手画像を取得する通信相手画像取得部32と、可搬型情報処理装置2のディスプレイ26を視認するユーザおよび通信相手ユーザの少なくとも何れかによって編集可能な編集可能画像を取得する編集可能画像取得部と、ユーザ画像、通信相手画像および編集可能画像を可搬型情報処理装置2のディスプレイ26および外部ディスプレイ3の少なくとも何れかに表示させる表示制御部33と、として機能させる。
【選択図】図10D

Description

本発明は、表示装置に接続される情報処理装置に関する。
従来、2点間で互いの映像を含む情報を双方向で通信するコミュニケーション装置がある(例えば、特許文献1を参照)。
特開2012−85172号公報
しかし、特許文献1には、部屋等に固定的に設置されたディスプレイを用いて相手とコミュニケーションをとることが開示されているのみである。
本発明は、上記した問題に鑑み、画像を用いたコミュニケーションの利便性を高めることを課題とする。
本発明では、上記課題を解決するために、以下の構成を採用した。即ち、本発明は、表示装置に接続されるコンピュータを、前記表示装置を視認するユーザを撮像可能なカメラを用いて撮像された第一画像を取得する第一画像取得手段と、ネットワークを介して接続された他の情報処理装置から、該他の情報処理装置のユーザを撮像可能な他のカメラを用いて撮像された第二画像を取得する第二画像取得手段と、前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザの少なくとも何れかによって編集可能な編集可能画像を取得する編集可能画像取得手段と、前記第一画像、前記第二画像および前記編集可能画像を、前記表示装置に表示させる表示制御手段と、として機能させるための情報処理プログラム。
また、前記表示制御手段は、前記編集可能画像を、前記第一画像および前記第二画像の少なくとも何れかに重ねて表示させてもよい。
また、前記編集可能画像取得手段は、前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザによって編集可能な前記編集可能画像を取得し、前記表示制御手段は、前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザによって編集された前記編集可能画像を前記表示装置に表示させてもよい。
また、前記表示制御手段は、前記編集可能画像取得手段によって取得された前記編集可能画像を、リアルタイムに表示させてもよい。
また、前記表示装置は、第一表示部および第二表示部を有し、前記表示制御手段は、前記第一画像を、前記第一表示部および前記第二表示部の何れか一方に表示させ、前記第二画像を、前記第一表示部および前記第二表示部の他方に表示させ、前記編集可能画像を、前記第一表示部に表示させてもよい。
また、前記情報処理プログラムは、前記コンピュータを、前記第一表示部と前記第二表示部との間で、前記第一画像と前記第二画像とを入れ替える切替手段として更に機能させ、前記表示制御手段は、前記切替手段による画像の入れ替えに拘らず、前記編集可能画像を前記第一表示部に表示させてもよい。
また、前記第一表示部および前記第二表示部は、前記表示装置の単一の表示領域中に定義された第一表示領域および第二表示領域に対応し、前記表示制御手段は、前記表示装置において、前記第一表示領域が、前記第二表示領域に比べて広い領域となるように表示制御してもよい。
また、前記情報処理プログラムは、前記コンピュータを、ユーザによるポインティングデバイスを用いた操作を受け付ける操作受付手段と、前記操作受付手段によって受け付けられた操作で指示される位置の変化に対応する軌跡に応じた画像を描画するように、前記編集可能画像を編集する画像編集手段として更に機能させてもよい。
また、前記画像編集手段は、ユーザによる消去操作に応じて、前記編集可能画像を消去してもよい。
また、前記画像編集手段は、ユーザによる消去操作に応じて、前記編集可能画像のうち、該ユーザによって編集された部分を消去し、前記他の情報処理装置のユーザによる消去操作に応じて、前記編集可能画像のうち、該他の情報処理装置のユーザによって編集された部分を消去してもよい。
また、本発明は、情報処理装置、1または複数の情報処理装置を有する情報処理システム、コンピュータによって実行される方法、またはコンピュータに実行させるプログラムとしても把握することが可能である。また、本発明は、そのようなプログラムをコンピュータその他の装置、機械等が読み取り可能な記録媒体に記録したものでもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることが出来る記録媒体をいう。
本発明によれば、画像を用いたコミュニケーションの利便性を高めることが可能となる。
実施形態に係る情報処理システムのハードウェア構成の概略を示す図である。 実施形態に係る情報処理システムの機能構成の概略を示す図である。 実施形態に係る発呼側ビデオチャット処理の流れを示すフローチャートAである。 実施形態に係る発呼側ビデオチャット処理の流れを示すフローチャートBである。 実施形態におけるビデオチャットアプリケーションの宛先ユーザ選択画面を示す図である。 実施形態におけるビデオチャットアプリケーションの接続前演出画面を示す図である。 実施形態におけるビデオチャットアプリケーションの接続演出画面を示す図である。 実施形態におけるビデオチャットアプリケーションの終了演出画面を示す図である。 実施形態におけるビデオチャットアプリケーションの終了後演出画面を示す図である。 実施形態に係る着呼側ビデオチャット処理の流れを示すフローチャートである。 実施形態において、外部ディスプレイに通信相手画像を、内蔵ディスプレイにユーザ画像を表示させるディスプレイ割当の例を示す図である。 実施形態において、外部ディスプレイには通信相手画像およびユーザ画像の何れも表示せず、内蔵ディスプレイに通信相手画像およびユーザ画像を表示させるディスプレイ割当の例を示す図である。 実施形態において、ビデオチャットを行いながら「お絵描きチャット」を行う場合のディスプレイ割当の例を示す図である。 実施形態において、ビデオチャットの画像上に「お絵描きチャット」を行う場合のディスプレイ割当の例を示す図である。 実施形態において、外部ディスプレイおよび内蔵ディスプレイの夫々に通信相手画像およびユーザ画像を表示させるディスプレイ割当の例を示す図である。 実施形態において、ジャイロセンサーによる出力を用いて行われる画像の傾き補正の概要を示す図である。 実施形態における、ビデオチャット中の画像のキャプチャ処理の流れを示すシーケンス図である。
以下、本発明の実施の形態を、図面に基づいて説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態毎に具体的構成が適宜採用されてよい。例えば、本発明は、一般的なコンピュータにおいて実行される情報処理プログラム、情報処理装置、1または複数の情報処理装置を有する情報処理システムおよび情報処理方法等にも適用することが出来る。
<実施形態に係るシステムの概要>
図1は、本実施形態に係る情報処理システム100のハードウェア構成の概略を示す図である。本実施形態に係る情報処理システム100は、テレビジョン受像機等の外部ディスプレイ3に接続される据置型の第一情報処理装置1と、内蔵ディスプレイ26、カメラ29およびマイクロフォン28を有する可搬型(手持ち型、携帯型等)の第二情報処理装置2と、を備える。第二情報処理装置2は可搬型であるため、ユーザが自由に持ち歩くことができ、第二情報処理装置2の内蔵ディスプレイ26はユーザによる使用中、当該ユーザによって占有可能である。なお、第二情報処理装置2は、第一情報処理装置1のコントローラであってもよい。また、第二情報処理装置2は、ディスプレイ付の操作装置であってもよい。
また、情報処理システム100は、インターネット等のネットワークを介して他の1または複数の情報処理システム100と接続される。ネットワークを介して接続された複数の情報処理システム100は、夫々の情報処理システム100におけるカメラ29およびマイクロフォン28を用いて入力された動画像および音声を、ネットワークを介して互いに送受信することで、ユーザにビデオチャット機能を提供する。
本実施形態では、第二情報処理装置2において入力された動画像および音声は無線通信部24および16を介して第一情報処理装置1に送信され、第一情報処理装置1が、ネットワークを介して他の情報処理システム100に対して動画像および音声を送信する。他の情報処理システム100から受信された動画像および音声は、第一情報処理装置1から
第二情報処理装置2に対して送信され、第二情報処理装置2は、受信した動画像および音声をデコードして、内蔵ディスプレイ26および内蔵スピーカ30から出力する。但し、他の情報処理システム100とネットワークを介して通信する手段は、第二情報処理装置側2に備えられてもよい。第一情報処理装置1は、受信された動画像および音声を、外部ディスプレイ3および外部スピーカ4に出力させる。
第一情報処理装置1は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、補助記憶装置14と、第二情報処理装置2との間で無線通信を行うための無線通信部16と、外部ディスプレイ3および外部スピーカ4に接続される出力インターフェース17と、ネットワークを介して他の情報処理システム100と通信するためのネットワークインターフェース18と、を備える情報処理装置である。
CPU11は、中央処理装置であり、RAM12およびROM13等に展開された命令およびデータを処理することで、RAM12、補助記憶装置14等の、第一情報処理装置1に備えられた各構成を制御する。また、RAM12は、主記憶装置であり、CPU11によって制御され、各種命令やデータが書き込まれ、読み出される。即ち、CPU11、RAM12、およびROM13は、第一情報処理装置1の制御部を構成する。
補助記憶装置14は、不揮発性の記憶装置であり、主に第一情報処理装置1の電源を落としても保持したい情報、例えば、RAM12にロードされる第一情報処理装置1のOS(Operating System)や、後述する処理を実行するための各種プログラムの他、第一情報処理装置1によって使用される各種データが書き込まれ、読み出される。補助記憶装置14としては、例えば、EEPROM(Electrically Erasable Programmable ROM)やHDD(Hard Disk Drive)等を用いることが出来る。また、補助記憶装置14として、第一情報処理装置1に対して着脱可能に装着される可搬媒体が用いられてもよい。可搬媒体の例としては、EEPROM等によるメモリーカード、CD(Compact Disc)、DVD(Digital Versatile Disc)およびBD(Blu−ray Disc)等が挙げられる。可搬媒体による補助記憶装置14と、可搬型ではない補助記憶装置14とは、組み合わせて用いることも可能である。
無線通信部16は、所定の帯域の電波を送受信し、第二情報処理装置2との無線通信を行うためのデバイスである。
第二情報処理装置2は、CPU21と、RAM22と、ROM23と、第一情報処理装置1との間で無線通信を行うための無線通信部24と、ジャイロセンサー25と、内蔵ディスプレイ26と、内蔵ディスプレイ26に設けられたタッチパネル27と、マイクロフォン28と、カメラ29と、内蔵スピーカ30と、が電気的に接続された情報処理装置である。なお、第一情報処理装置1および第二情報処理装置2の具体的なハードウェア構成に関しては、実施の形態毎に適宜構成要素の省略や置換、追加が行われてよい。
第二情報処理装置2に備えられたCPU21、RAM22、ROM23および無線通信部24については、第一情報処理装置1に備えられたCPU11、RAM12、ROM13および無線通信部16と概略同様であるため、説明を省略する。
第二情報処理装置2は、第一情報処理装置1の無線通信部16によって送信され、無線通信部24によって受信された動画像および音声をデコードして、内蔵ディスプレイ26および内蔵スピーカ30から出力する。なお、動画像および音声のデコードは、CPU2
1によって行われてもよいし、CPU21とは別にデコード用のプロセッサを設け(図示は省略する)、このプロセッサによって行われてもよい。
また、第二情報処理装置2に設けられたジャイロセンサー25、タッチパネル27、マイクロフォン28およびカメラ29等の入力装置を介して取得された情報は、無線通信部24および16を介して、第一情報処理装置1に送信される。
カメラ29は、第二情報処理装置2をユーザが利用する状態で、ユーザを撮像可能な位置、換言すれば、撮像方向がユーザを向く位置に設けられる。ここで、第二情報処理装置2をユーザが利用する状態とは、第二情報処理装置2をユーザが利用するために机等に置いた状態、またはユーザによって利用のために把持されている状態、等である。このような位置にカメラ29が設けられることで、情報処理システム100は、ユーザが後述するビデオチャットアプリケーションを利用している間、ユーザを撮像することが出来る。
また、情報処理システム100は、ネットワークを介してサーバと通信可能である。サーバは、情報処理システム100のユーザ情報と関連付けて、情報処理システム100の接続先情報を管理する。サーバは、情報処理システム100からの要求に応じて、通信相手のユーザ情報に関連付けて保持されている接続先情報を通知する。
図2は、本実施形態に係る情報処理システム100の機能構成の概略を示す図である。本実施形態に係る情報処理システム100は、CPU11および21が、RAM12および22に展開された各種プログラムを夫々解釈および実行することで、ユーザ画像取得部31、通信相手画像取得部32、表示制御部33、切替部34および通信制御部35を備える情報処理システム100として機能する。
ユーザ画像取得部31は、カメラ29を用いて撮像されたユーザ画像を取得する。また、通信相手画像取得部32は、ネットワークを介して接続された他の情報処理システム100から、当該他の情報処理システム100のユーザの画像である通信相手画像を取得する。
表示制御部33は、ユーザ画像を、内蔵ディスプレイ26および外部ディスプレイ3の少なくとも何れかに表示させ、通信相手画像を、内蔵ディスプレイ26および外部ディスプレイ3の少なくとも何れかに表示させる。ビデオチャット中の、外部ディスプレイ3と内蔵ディスプレイ26とに表示される画像を割り当てる場合のバリエーションについては、図10Aから図10Dを用いて後述する。
切替部34は、内蔵ディスプレイ26と外部ディスプレイ3との間で、ユーザ画像または通信相手画像の表示状態を切り替える。本実施形態に係る情報処理システム100は、ビデオチャットに用いる画像を2つのディスプレイに対して様々なパターンで割り当てることが出来、また、ビデオチャット中に、ビデオチャットに用いる画像が表示されるディスプレイを自由に変更することが可能である。例えば、切替部34によって切り替えられる表示状態には、図10Aから図10Dを用いて後述する表示状態が含まれる。
通信制御部35は、サーバまたは通信相手の情報処理システム100との間でネットワークを介して行われる通信を制御する。
<処理の流れ>
次に、本実施形態において実行される処理の流れを説明する。なお、本実施形態に係るフローチャートに示された処理の具体的な内容および処理順序は、本発明を実施するための一例である。具体的な処理内容および処理順序は、本発明の実施の形態毎に適宜選択さ
れてよい。
図3Aおよび図3Bは、本実施形態に係る発呼側ビデオチャット処理の流れを示すフローチャートである。本フローチャートに示された発呼側ビデオチャット処理は、ユーザ操作に基づいて、情報処理システム100にインストールされたビデオチャットアプリケーションが起動されたことを契機として実行される。
ステップS101およびステップS102では、ユーザの動画像および宛先ユーザリストが表示され、ビデオチャットの通信相手の選択が受け付けられる。ビデオチャットアプリケーションが起動されると、ユーザ画像取得部31は、カメラ29で撮像されている現在の動画像、即ち、ユーザの現在の動画像を取得し、表示制御部33は、取得されたユーザの動画像を第二情報処理装置2の内蔵ディスプレイ26に表示させる。また、表示制御部33は、更に、外部ディスプレイ3および内蔵ディスプレイ26に、宛先ユーザリストを表示させる(ステップS101)。
図4は、本実施形態におけるビデオチャットアプリケーションの宛先ユーザ選択画面を示す図である。外部ディスプレイ3には、宛先ユーザリストに登録されているユーザのアバターが表示され、内蔵ディスプレイ26には、宛先ユーザリストに登録されているユーザのアイコンおよび名前が、ユーザの動画像に重畳されて表示される。外部ディスプレイ3には、更に、ユーザと宛先ユーザリストに登録されているユーザとの関係性や、過去のビデオチャットの記録(キャプチャされた画像や、後述する「お絵描きチャット」で編集された画像等)が表示されてもよい。また、内蔵ディスプレイ26に表示されるユーザの動画像は、アプリケーションの起動と同時に表示されてもよいし、アプリケーションの起動後、ユーザによる表示操作を待って表示されてもよい。
なお、外部ディスプレイ3および内蔵ディスプレイ26に表示される宛先ユーザリストは、所定の優先順位に従って並べられていることが好ましい。例えば、宛先ユーザリストは、これまでにビデオチャットを行った合計時間が長い順や、これまでにビデオチャットを行った回数が多い順、等の利用頻度の高い宛先ユーザの順番で、外部ディスプレイ3および内蔵ディスプレイ26に宛先ユーザを表示される。図4に示された例では、優先順位が高い順に左から右へユーザのアバターまたはアイコンが並べられる。但し、アイコンの並びは左から右の並びに限定されない。アイコンは、上下方向に並べられてもよいし、複数列/複数行に亘って並べられてもよい。また、宛先ユーザの表示順は、ビデオチャットの利用頻度に基づく順番でなくてもよい。例えば、宛先ユーザは、以前にビデオチャットを行った日付に基づいて最新のものから順番に並べられてもよいし、ユーザ名に基づいて「あいうえお」順に並べられてもよい。
また、内蔵ディスプレイ26に表示されるユーザ画像は、カメラ29による撮像画像を反転させたものとしてもよい。このようにすることで、ユーザは、内蔵ディスプレイ26の表示を、自身を映す鏡のように扱うことが出来、内蔵ディスプレイ26の表示を、ビデオチャット開始前に身だしなみを整える等の目的に用いることが出来る。
また、外部ディスプレイ3または内蔵ディスプレイ26には、予めサーバから取得された宛先ユーザリスト上のユーザの情報に基づいて、夫々の宛先ユーザがオンライン状態(通信相手の情報処理システム100に接続可能な状態)であるか、またはオフライン状態(通信相手の情報処理システム100に接続不可能な状態)であるかを示す表示がされてもよい。
内蔵ディスプレイ26に宛先ユーザリストが表示されると、ユーザは、内蔵ディスプレイ26に設けられたタッチパネル27を介して所望の宛先ユーザのアイコンを選択する操
作を行うことで、宛先ユーザを選択することが出来る。情報処理システム100は、ユーザによる宛先ユーザの選択操作を受け付ける(ステップS102)。なお、本実施形態では、ビデオチャットを行う場合に、ユーザが行わなければならない操作は、ビデオチャットアプリケーションの起動操作、および宛先ユーザの選択操作であるため、ユーザは、2ステップの操作でビデオチャットを行うことが出来る。また、ビデオチャットアプリケーションの起動操作および宛先ユーザの選択操作を、夫々タッチパネル27を1回タッチするのみの操作とした場合、ユーザは、タッチパネル27を2回タッチするのみで、ビデオチャットを行うことが出来る。但し、誤発信を防ぐために、宛先ユーザの選択後に確認用の「発信ボタン」が有効化され、このボタンの押下を待って接続を開始することとしてもよい。その後、処理はステップS103へ進む。
ステップS103では、サーバへの接続が開始される。通信制御部35は、サーバに接続し、宛先ユーザ(以降、「通信相手」と称する)の情報処理システム100の接続先情報(例えば、IPアドレス)を取得する。サーバは、ユーザ情報と、ユーザ情報に係る情報処理システム100の接続先情報を保持しており、情報処理システム100による接続先情報の要求に応じて、通信相手の接続先情報を返信する。サーバへの接続が開始されると、処理はステップS104へ進む。
ステップS104では、通信相手の家までユーザのアバターが歩くアニメーションが表示される。表示制御部33は、通信相手の家に向かって、ユーザのアバターが道を歩いていくアニメーションを生成し、外部ディスプレイ3に表示させる。このアニメーションは、所定の時間(例えば、10秒)表示される。
図5は、本実施形態におけるビデオチャットアプリケーションの接続前演出画面を示す図である。ここで表示されるアニメーションの道の両脇には、通信相手に関連する情報が表示される。表示制御部33は、通信相手との前回のビデオチャットで撮像された画像の一部や、前回のビデオチャットで交わされた会話の一部を音声認識することで得られたテキスト等を、道の両脇に配置されるように、外部ディスプレイ3に表示させる。但し、接続前演出画面において、「道」を表示しない演出が行われてもよい。このような場合であっても、通信相手との前回のビデオチャットで撮像された画像の一部や、前回のビデオチャットで交わされた会話の一部を音声認識することで得られたテキスト等を、外部ディスプレイ3に表示させてよい。このようにすることで、本実施形態に係るビデオチャットアプリケーションは、ユーザに対して、これからビデオチャットを行う相手に関する記憶を思い出させ、またこれから始まるビデオチャットにおける会話のきっかけを与えることが出来る。但し、前回のビデオチャットで交わされた会話の一部は、音声のまま外部スピーカ4または第二情報処理装置2の内蔵スピーカ30から出力されてもよい。なお、この間も第二情報処理装置2の内蔵ディスプレイ26には、カメラ29で撮像されたユーザの現在の動画像が表示される。また、内蔵ディスプレイ26には、ビデオレター作成の選択肢が表示されてもよい。この選択肢は、アニメーションの表示中にタッチパネル27を介して選択可能である。ビデオレターの作成が選択された場合の処理の流れについては後述する。その後、処理はステップS105へ進む。
ステップS105およびステップS106では、通信相手の状況およびビデオレター作成の選択状況が判定される。情報処理システム100は、ステップS103において接続したサーバから、通信相手の接続先情報が得られたか否かを判定することで、通信相手がオンライン状態(通信相手の情報処理システム100に接続可能な状態)であるか、またはオフライン状態(通信相手の情報処理システム100に接続不可能な状態)であるかを判定する(ステップS105)。また、情報処理システム100は、ビデオレター作成を選択するユーザ操作が受け付けられたか否かを判定する(ステップS106)。ここで、通信相手がオフライン状態であると判定された場合、またはビデオレター作成が選択され
たと判定された場合、処理はステップS121へ進む。一方、相手方がオンライン状態であり、且つビデオレター作成が選択されなかったと判定された場合、処理はステップS107へ進む。なお、通信相手がオフライン状態であると判定された場合(ステップS105でYES)、自動的にビデオレターの作成(ステップS121)に進むのではなく、ユーザにビデオレターの作成の要否を選択させてもよい。ここで、ユーザによってビデオレターの作成が選択された場合にはステップS121以降のビデオレターの作成に進む。一方、ユーザによってビデオレターの作成が選択されなかった場合、本フローチャートに示された処理は終了する。
ステップS107では、ユーザのアバターが、通信相手の家に到着し、通信相手のアバターを家のドアの前で待つアニメーションが表示される。表示制御部33は、通信相手の家にユーザのアバターが到着し、通信相手の家のドアを叩く(またはドアホンを押す)アニメーションを生成し、外部ディスプレイ3に表示させる。
図6は、本実施形態におけるビデオチャットアプリケーションの接続演出画面を示す図である。ステップS104における、ユーザのアバターが通信相手の家まで歩くアニメーション(図5を参照)や、ステップS107における、ユーザのアバターが通信相手の家に到着し、通信相手のアバターが家から現れるのを待つアニメーション(図6を参照)が表示されることで、本実施形態に係るビデオチャットアプリケーションは、ユーザに対して、これから通信相手と場所を共有して会話をする、あるいは通信相手に会いにいく、という印象を与えることが出来る。なお、この間も第二情報処理装置2の内蔵ディスプレイ26には、カメラ29で撮像されたユーザの現在の動画像が表示される。但し、家が表示されない演出が採用されてもよい。例えば、鏡が表示され、アバターが鏡の向こう側に移動するとビデオチャットが始まるような演出が考えられる。このような演出を行うことで、地理的に離れたユーザ同士があたかも空間を共有しているように会話することができるという、超日常的な世界を表現することが出来る。その後、処理はステップS108へ進む。
ステップS108では、通信相手の情報処理システム100への接続および発呼が行われる。通信制御部35は、ステップS103におけるサーバへの問い合わせによって得られた通信相手の接続先情報に基づいて、通信相手の情報処理システム100へ接続する。また、この接続を介して、通信相手の情報処理システム100へビデオチャット開始要求を送信し(発呼し)、通信相手の情報処理システム100からの応答を待つ。通信相手の情報処理システム100は、ビデオチャット開始要求を受信した(着呼した)ことをユーザに通知し、通信相手によるビデオチャットに応じるか否かの操作を待つ。その後、処理はステップS109へ進む。
なお、発呼側ユーザの情報処理システム100は、発呼の後、着呼側ユーザの情報処理システム100がビデオチャットの開始要求に応じる前に、着呼側ユーザの情報処理システム100に対して、ユーザ画像取得部31によって取得される動画像の送信を開始してもよい。ビデオチャットの開始前に着呼側ユーザの情報処理システム100に送信された動画像の着呼側での処理については、図9に示すフローチャートを用いて後述する。
ステップS109では、ユーザに対して外見チェックが促される。情報処理システム100は、ステップS108における発呼の後、通信相手の情報処理システム100からの応答を受信するまでの間、第二情報処理装置2の内蔵ディスプレイ26に表示されたユーザの現在の動画像を参照して外見チェックを行うよう、ユーザに促すメッセージを出力する。メッセージは、テキストや画像として外部ディスプレイ3または内蔵ディスプレイ26に出力されてもよいし、音声として外部スピーカ4または内蔵スピーカ30に出力されてもよい。
ここで出力されるメッセージとしては、例えば、ユーザに笑顔を作るよう促すメッセージが挙げられる。情報処理システム100は、ユーザに対して笑顔を作るよう促すメッセージを出力し、カメラ29によって得られた画像を画像解析エンジンの笑顔検出機能を用いて解析することで、笑顔を検出する。笑顔が検出された場合、情報処理システム100は、ユーザに対して笑顔が検出されたことを示す表示を行う。この表示は、メッセージの出力であってもよいし、ディスプレイにおける表示の変化であってもよい。その後、処理はステップS110へ進む。
ステップS110では、ビデオチャットが開始される。通信制御部35は、通信相手の情報処理システム100から、ビデオチャットに応じる旨の応答が受信されると、ユーザ画像取得部31によって取得された動画像および音声の通信相手の情報処理システム100への送信、および通信相手画像取得部32による通信相手からの動画像および音声の受信、を開始することで、ビデオチャットを開始する。送受信されるユーザ画像および通信相手画像は、表示制御部33によって外部ディスプレイ4または内蔵ディスプレイ26に表示される。また、ビデオチャットの継続中、ユーザの情報処理システム100と、通信相手の情報処理システム100とは、動画像及び音声に限らず、ビデオチャットに必要な情報を、ネットワークを介して送受信する。ここで送受信される情報には、例えば、ビデオチャットの終了操作が受け付けられたことを示す情報や、後述する「お絵描きチャット」のための情報、後述するキャプチャ処理のために必要な情報、等が含まれる。
更に、ビデオチャット中には、ビデオチャットにおける画像の一部のキャプチャや、ビデオチャットで交わされた会話の一部の録音、等が行われる。このようにしてキャプチャまたは録音された画像の一部および会話の一部は、次回ビデオチャットが行われる際にステップS104で出力するための情報や、今回のビデオチャットの終了後にステップS114およびステップS209で出力するための情報として用いられる。その後、処理はステップS111へ進む。
ステップS111からステップS113では、ビデオチャットの終了操作が受け付けられ、ビデオチャットの終了処理が行われる。ステップS110で開始されたビデオチャットは、ユーザまたは通信相手によるビデオチャットの終了操作が行われるまで継続される。情報処理システム100は、ユーザまたは通信相手によるビデオチャットの終了操作を受け付ける(ステップS111)。なお、ビデオチャットの終了操作が受け付けられたことを示す情報は、ユーザの情報処理システム100と、通信相手の情報処理システム100との間で、ネットワークを介して送受信される。ビデオチャットの終了操作が受け付けられると、表示制御部33および通信制御部35は、終了操作の受付から一定時間(例えば、5秒)ビデオチャットの動画像・音声の送受信および出力を継続してから(ステップS112)、通信相手の情報処理システム100との接続を切断する(ステップS113)。ここで、一定時間とは、終了操作の受付後、セッションの切断や表示画像の切替等の通常の終了処理に必要となる時間よりも長い時間である。但し、ステップS112の一定時間継続処理は、ユーザ操作またはユーザ設定によってキャンセルされてもよい。本ステップの処理は、ビデオチャット処理に係る双方の情報処理システム100によって互いに動画像・音声が送受信されることによるものであるため、一方の情報処理システム100によって一定時間継続処理がキャンセルされた場合、他方の情報処理システム100でも一定時間継続処理がキャンセルされることが好ましい。
図7は、本実施形態におけるビデオチャットアプリケーションの終了演出画面を示す図である。図7には、終了演出として、ビデオチャット画面に、徐々に動画像の表示範囲が狭まっていくシャッターエフェクト(絞りエフェクト)が施される例が示されている。但し、終了演出に用いられるエフェクトは、例えばフェードアウトエフェクト等、その他の
エフェクトであってもよい。終了操作の受付から一定時間ビデオチャットの動画像・音声の送受信および出力を継続することで、ビデオチャットの終了の際に即座に通信が途絶えることを避け、ユーザおよび通信相手に対して相手を見送る時間を与えることが出来、ユーザおよび通信相手は、互いに手を振ったり言葉を交わしたりしながら、ビデオチャットを終えることが出来る。つまり、本実施形態に係る終了演出によれば、また会いたくなるような別れ方を演出することが出来る。その後、処理はステップS114へ進む。
ステップS114では、通信相手の家からユーザのアバターが歩いて戻ってくるアニメーションが表示される。表示制御部33は、通信相手の家から、ユーザのアバターが道を歩いて戻ってくるアニメーションを生成し、外部ディスプレイ3に表示させる。このアニメーションは、所定の時間(例えば、10秒)表示される。
図8は、本実施形態におけるビデオチャットアプリケーションの終了後演出画面を示す図である。ここで表示されるアニメーションの道の両脇には、通信相手に関連する情報が表示される。表示制御部33は、直前に終了したビデオチャットで撮像された画像の一部や、直前のビデオチャットで交わされた会話の一部を音声認識することで得られたテキスト等を、道の両脇に配置されるように、外部ディスプレイ3に表示させる。このようにすることで、ユーザに対して、ビデオチャットの内容を思い出させることが出来る。また、直前のビデオチャットの内容を振り返ることで、また会いたくなるような気持ちをユーザに抱かせることができる。但し、ビデオチャットで交わされた会話の一部は、音声のまま外部スピーカ4または第二情報処理装置2の内蔵スピーカ30から出力されてもよい。その後、本フローチャートに示された処理は終了する。
ステップS121からステップS123では、ビデオレターの作成および送信が行われる。情報処理システム100は、ユーザによるビデオレターの録画開始を指示する操作を受け付けると(ステップS121)、カメラ29から入力され、ユーザ画像取得部31によって取得される画像の録画を開始する(ステップS122)。録画は、ユーザによる録画終了を指示する操作が受け付けられるか、所定の録画上限時間に達した場合に終了する。録画が終了すると、情報処理システム100は、録画された動画像の動画像ファイルを含むビデオレターを生成し、当該ビデオレターを、通信相手を宛先に設定してサーバに送信する(ステップS123)。このような処理を行うことによって、通信相手が不在である等の理由でビデオチャットが出来ない場合にも、ビデオレターによって通信相手にメッセージを送ることが出来る。通信相手は、その後、都合のよいときにそのビデオレターを見ることができるので、時間に縛られない動画像を用いたコミュニケーションを行うことができる。その後、本フローチャートに示された処理は終了する。
ビデオレターを受信したサーバは、通信相手の情報処理システム100に対してビデオレターがあることを通知する。この通知を受けた通信相手の情報処理システム100は、ビデオレターをサーバからダウンロードして再生する、またはサーバからストリーミング再生する、等の方法でビデオレターを再生する。但し、通信相手の接続先情報が判明している場合、ビデオレターは、サーバを介さずに通信相手の情報処理システム100に送信されてもよい。
なお、ビデオレターには、通信相手にビデオレターの視聴を許可する日時が設定可能であってもよい。設定された視聴許可日時は、動画像ファイルのメタ情報に含まれるか、サーバに通知されることで、通信相手の情報処理システム100による再生機能を制御する。ビデオレターに視聴許可日時が設定された場合、通信相手は、ビデオレターを受け取った場合でも、視聴許可日時になるまで、ビデオレターを視聴することが出来ない。このため、記念日等の前には、視聴許可日時として或る同一の日が設定されたビデオレターが受信リストに複数溜まっていき、当日にならないと内容がわからないことによる期待感をユ
ーザに持たせることが出来る。
図9は、本実施形態に係る着呼側ビデオチャット処理の流れを示すフローチャートである。本フローチャートに示された着呼側ビデオチャット処理は、図3Aおよび図3Bに示した発呼側ビデオチャット処理のステップS108において送信されたビデオチャット開始要求が着呼側ユーザの情報処理システム100によって受信されたことを契機として実行される。なお、本フローチャートでは、着呼側ユーザが「ユーザ」として、発呼側ユーザが「通信相手」として説明される。
ステップS201およびステップS202では、ビデオチャットの着呼が通知され、ビデオチャットアプリケーションの起動操作が受け付けられる。発呼側の情報処理システム100より送信されたビデオチャット開始要求が着呼側の情報処理システム100によって受信されると、着呼側の情報処理システム100は、着呼側の第一情報処理装置1または第二情報処理装置2に備えられたLED(図示は省略する)を明滅させる、またはメッセージを外部ディスプレイ3、内蔵ディスプレイ26、外部スピーカ4または内蔵スピーカ30に出力する、等の方法で、ユーザに対して着呼を通知する(ステップS201)。そして、情報処理システム100は、着呼していることの通知を受けたユーザによる応答操作、または自動応答機能によって、ビデオチャットアプリケーションを起動する(ステップS202)。但し、ビデオチャットアプリケーションが予め起動されている場合には、ステップS202に示された処理は省略される。その後、処理はステップS203へ進む。
ステップS203では、通信相手の動画像が表示される。表示制御部33は、発呼側の情報処理システム100が、着呼側の情報処理システム100からの応答を待たずに動画像送信を開始している場合、受信した動画像を、外部ディスプレイ3または内蔵ディスプレイ26に表示する。発呼側の動画像が、着呼側において着呼側が応答する前に表示されることで、あたかも自宅のドアの前に通信相手が訪れてドアスコープ等から来訪者を確認しているかのような印象を、着呼側のユーザに対して与えることが出来る。但し、通信相手の動画像に代えて通信相手のアバターが表示されてもよいし、ステップS203に示された処理は省略されてもよい。その後、処理はステップS204へ進む。
ステップS204およびステップS205では、ビデオチャットへの応答操作が受け付けられ、ビデオチャットが開始される。発呼側情報処理システム100からの着呼があると、内蔵ディスプレイ26に、着呼したビデオチャットに応答するためのボタンが表示される。ユーザは、内蔵ディスプレイ26に設けられたタッチパネル27を介して応答ボタンを選択する操作を行うことで、ビデオチャットを受け付けることが出来る(ステップS204)。表示制御部33および通信制御部35は、ユーザの情報処理システム100から、ビデオチャットに応じる旨の応答が送信されると、ユーザの情報処理システム100のカメラ29およびマイクロフォン28を用いて入力された動画像および音声の通信相手の情報処理システム100への送信、および通信相手の情報処理システム100からの動画像および音声の受信、を開始することで、ビデオチャットを開始する。その後、処理はステップS206へ進む。
ステップS206からステップS208の処理は、図3Aおよび図3Bを用いて説明したステップS111からステップS113の処理と概略同様であるため、説明を省略する。その後、処理はステップS209へ進む。
ステップS209では、通信相手のアバターを見送るアニメーションが表示される。表示制御部33は、通信相手のアバターをユーザのアバターが見送るアニメーションを生成し、外部ディスプレイ3に表示させる。このアニメーションは、所定の時間(例えば、1
0秒)表示される。
ここで表示されるアニメーションでは、通信相手に関連する情報が表示される。表示制御部33は、直前に終了したビデオチャットで撮像された画像の一部や、直前のビデオチャットで交わされた会話の一部を音声認識することで得られたテキスト等を、外部ディスプレイ3に表示させる。このようにすることで、ユーザに対して、ビデオチャットの内容を思い出させることが出来、またビデオチャットをしたいという気持ちを抱かせることが出来る。但し、ビデオチャットで交わされた会話の一部は、音声のまま外部スピーカ4または第二情報処理装置2の内蔵スピーカ30から出力されてもよい。その後、本フローチャートに示された処理は終了する。
<表示形態のバリエーション>
本実施形態に係る情報処理システム100によれば、ユーザは、第一情報処理装置1に接続される外部ディスプレイ3と、第二情報処理装置2の内蔵ディスプレイ26との2つのディスプレイを用いてビデオチャットを行うことが可能である。このため、本実施形態に係る情報処理システム100は、ビデオチャットに用いる画像を2つのディスプレイに対して様々なパターンで割り当てることが出来、また、ビデオチャット中に、ビデオチャットに用いる画像が表示されるディスプレイを自由に切り替えることが可能である。以下、ビデオチャット中に、外部ディスプレイ3と内蔵ディスプレイ26とに表示される画像を割り当てる場合のバリエーションについて説明する。
図10Aは、本実施形態において、外部ディスプレイ3に通信相手画像を、内蔵ディスプレイ26にユーザの画像(以下、単に「ユーザ画像」と称する)を表示させるディスプレイ割当の例を示す図である。図10Aに示す例では、第一情報処理装置1に接続される外部ディスプレイ3には、主に通信相手画像が表示される。但し、外部ディスプレイ3には、通信相手画像に比べて小さいサイズで、更にユーザ画像が表示されてもよい。また、第二情報処理装置2の内蔵ディスプレイ26には、ユーザ画像が表示される。内蔵ディスプレイ26にも、通信相手画像に比べて小さいサイズで、更にユーザ画像が表示されてよい(図10Eを参照)。
図10Eは、本実施形態において、外部ディスプレイ3および内蔵ディスプレイ26の夫々に通信相手画像およびユーザ画像を表示させるディスプレイ割当の例を示す図である。図10Eに示す例では、外部ディスプレイ3および内蔵ディスプレイ26の夫々において、第一表示領域3a、26aおよび第二表示領域3b、26bが設定される。本実施形態において、第二表示領域3b、26bは、第一表示領域3a、26aに比べて狭い(換言すれば、第一表示領域3a、26aは、第二表示領域3b、26bに比べて広い)。初期状態において、外部ディスプレイ3の第一表示領域3aには通信相手画像が表示され、外部ディスプレイ3の第二表示領域3bにはユーザ画像が表示される。また、内蔵ディスプレイ26の第一表示領域26aには通信相手画像が表示され、内蔵ディスプレイ26の第二表示領域26bにはユーザ画像が表示される。
ここで、内蔵ディスプレイ26の第二表示領域26b、即ち、小さく表示されている方の映像をタッチ操作することで、外部ディスプレイ3と内蔵ディスプレイ26双方の表示構成を同時に切り替えることが出来るようにしてもよい。即ち、図10Eの表示状態で、情報処理システム100の操作受付部(図示は省略する)によって内蔵ディスプレイ26の第二表示領域26bに対するタッチ操作が受け付けられると、切替部34は、外部ディスプレイ3および内蔵ディスプレイ26の何れにおいても、第一表示領域3a、26aと第二表示領域3b、26bとの表示内容を入れ替える。このような切替部34による切り替えの結果、ユーザ映像と通信相手映像とで表示の大小関係は逆転し、ユーザ画像に比べて小さいサイズで、通信相手画像が表示される。ここで更に内蔵ディスプレイ26の第二
表示領域26bがタッチ操作されると、切替部34は、外部ディスプレイ3および内蔵ディスプレイ26の何れにおいても、第一表示領域3a、26aと第二表示領域3b、26bとの表示内容を入れ替え、結果として、表示状態は図10Eに示された関係に戻る。また、この操作によって、後述する「お絵描きチャット」の編集可能画像の切り替えも行うことが出来る。
通信相手画像およびユーザ画像を、図10Aまたは図10Eに示す例のようにディスプレイに割り当てることで、ユーザの周囲に居る人々(家族等)は外部ディスプレイ3を介して通信相手(およびユーザ)のビデオチャットの内容を視聴しつつ、ユーザ自身は可搬型の第二情報処理装置2を携帯して移動しながら、内蔵ディスプレイ26を介してビデオチャットを行うことが出来る。
図10Bは、本実施形態において、外部ディスプレイ3には通信相手画像およびユーザ画像の何れも表示せず、内蔵ディスプレイ26に通信相手画像およびユーザ画像を表示させるディスプレイ割当の例を示す図である。図10Bに示す例では、第一情報処理装置1に接続される外部ディスプレイ3には、通信相手画像およびユーザ画像の何れも表示されず、他の画像が表示される。ここで外部ディスプレイ3に表示される他の画像は、ユーザ画像および通信相手画像の何れでもない画像であればよく、例えば、ビデオチャット画像の代わりに表示される何らかの壁紙画像であってもよいし、情報処理システム100によって実行されている他のアプリケーション(ゲーム等)の画像であってもよい。内蔵ディスプレイ26には、主に通信相手画像が表示され、通信相手画像に比べて小さいサイズで、ユーザ画像が表示される。図10Bに示す例においても、内蔵ディスプレイ26の「小さく表示されている方の映像」をタッチ操作することで、外部ディスプレイ3と内蔵ディスプレイ26双方の表示構成を同時に切り替えることが出来るようにしてもよい。
通信相手画像およびユーザ画像を、図10Bに示す例のようにディスプレイに割り当てることで、ビデオチャットを行っているユーザがテレビジョン受像機等の外部ディスプレイ3を占有することなくビデオチャットを行うことが出来る。また、ビデオチャットの動画像を周囲の人に見られないように隠したい場合にも好適である。本実施形態に示すディスプレイ割当は、ビデオチャット中に自由に切替可能であるため、ユーザの周囲に居る人々と共にビデオチャットを楽しんでいる場合には図10Aのディスプレイ割当とし、ユーザの周囲に居る人々が外部ディスプレイ3を用いて他のコンテンツを楽しみたいがユーザはビデオチャットを継続したいという場合や、ユーザのみがビデオチャットを楽しみたい場合には図10Bのディスプレイ割当に切り替える(変更する)、等の対応が可能である。
図10Cは、本実施形態において、ビデオチャットを行いながら「お絵描きチャット」を行う場合のディスプレイ割当の例を示す図である。ここで、「お絵描きチャット」とは、ビデオチャット中に、ビデオチャットの参加者によって編集可能な編集可能画像を用意し、ビデオチャットを行いながらこの編集可能画像に手書きで描いた線や図形を追加したり削除したりする編集を行うことで参加者間のコミュニケーションを図ることをいう。編集可能画像は、操作受付部(図示は省略する)によって受け付けられた、タッチパネル27等のポインティングデバイスを介したユーザ操作に応じて編集される。例えば、ポインティングデバイスを介して指示される位置の変化に対応する軌跡が、編集可能画像上に特定され、この軌跡に沿って編集可能画像に線や図形等が追加(描画)される。編集可能画像は、参加者のうちの1人のみによって編集可能であってもよいし、複数の参加者によって同時に編集可能であってもよい。図10Cに示す例では、第一情報処理装置1に接続される外部ディスプレイ3には、通信相手画像およびユーザ画像に加えて、「お絵描きチャット」用の編集可能画像が表示される。編集可能画像の表示内容は、編集権限を有するユーザによる編集内容がリアルタイムで反映され、更新される。内蔵ディスプレイ26には
、主に編集可能画像の内容が表示される。なお、編集可能画像の編集は、内臓ディスプレイ26に設けられたタッチパネル27等への入力によって行われる。
図10Dは、本実施形態において、ビデオチャットの画像上に「お絵描きチャット」を行う場合のディスプレイ割当の例を示す図である。図10Dに示す例では、ビデオチャットの参加者によって編集可能な透過型の編集可能画像を、ビデオチャットの通信相手画像およびユーザ画像の上に重ねて表示させる。このため、ビデオチャットの参加者は、通信相手画像やユーザ画像上に落書きをする感覚で編集可能画像の編集を行い、参加者間のコミュニケーションを図ることが出来る。編集可能画像は、図10Cを用いて説明した例と同様、参加者のうちの1人のみによって編集可能であってもよいし、複数の参加者によって同時に編集可能であってもよい。図10Dに示す例では、第一情報処理装置1に接続される外部ディスプレイ3には、第一表示領域3aおよび第二表示領域3bに通信相手画像およびユーザ画像が表示され、これらの夫々の画像に、「お絵描きチャット」用の編集可能画像が重ねて表示される。編集可能画像の表示内容は、編集権限を有するユーザによる編集内容がリアルタイムで反映され、更新される。内蔵ディスプレイ26にも、第一表示領域26aおよび第二表示領域26bに通信相手画像およびユーザ画像が表示され、これらの夫々の画像に、「お絵描きチャット」用の編集可能画像が重ねて表示される。但し、編集可能画像が重ねて表示されるのは、何れか一方の表示領域(例えば、第一表示領域3a、26a)のみとし、他方の表示領域(例えば、第二表示領域3b、26b)には編集可能画像が表示されないこととしてもよい。そして、内蔵ディスプレイ26上に設けられたタッチパネル27やポインティングデバイスを用いてお絵描きを行うことができ、そのお絵描きの入力結果が内蔵ディスプレイ26および外部ディスプレイ3に反映される。
なお、図10Dに示す例では、外部ディスプレイ3および内蔵ディスプレイ26の夫々において、第一表示領域3a、26aおよび第二表示領域3b、26bが設定される。図10Dに示す例では、内蔵ディスプレイ26においてのみ第二表示領域26bが第一表示領域26aに比べて狭い(換言すれば、第一表示領域26aが第二表示領域26bに比べて広い)。但し、外部ディスプレイ3においても、第二表示領域3bが第一表示領域3aに比べて狭くなるようにしてもよい。初期状態において、第一表示領域3a、26aには通信相手画像が表示され、第二表示領域3b、26bにはユーザ画像が表示される。
ここで、内蔵ディスプレイ26の第二表示領域26b、即ち、小さく表示されている方の映像をタッチ操作することで、外部ディスプレイ3と内蔵ディスプレイ26双方の表示構成を同時に切り替えることが出来るようにしてもよいことは、図10Eを用いて説明した例と同様である。即ち、図10Dの表示状態で、情報処理システム100の操作受付部によって第二表示領域26bに対するタッチ操作が受け付けられると、切替部34は、外部ディスプレイ3および内蔵ディスプレイ26の何れにおいても、通信相手画像およびユーザ画像が表示される表示領域を、第一表示領域3a、26aと第二表示領域3b、26bとの間で切り替える。ここで更に第二表示領域26bがタッチ操作されると、切替部34は、外部ディスプレイ3および内蔵ディスプレイ26の何れにおいても、通信相手画像およびユーザ画像が表示される表示領域を切り替え、結果として、表示状態は図10Dに示された関係に戻る。
但し、上述のタッチ操作によっても、編集可能画像が表示される表示領域は入れ替わらない。即ち、第一表示領域3a、26aに表示されていた編集可能画像は、タッチ操作によって通信相手画像およびユーザ画像が表示される表示領域が入れ替わっても、第一表示領域3a、26aに表示されたままとなる。同様に、第二表示領域3b、26bに表示されていた編集可能画像は、通信相手画像およびユーザ画像が表示される表示領域が入れ替わっても、第二表示領域3b、26bに表示されたままとなる。このようにすることで、ユーザによって編集された編集可能画像が重ねられる対象を、通信相手画像とユーザ画像
との間で切り替えることが出来る。
なお、第一表示領域3a、26aおよび第二表示領域3b、26bの夫々に編集可能画像が重ねて表示される例について上述したが、編集可能画像が重ねて表示されるのは、何れか一方の表示領域(例えば、第一表示領域3a、26a)のみとし、他方の表示領域(例えば、第二表示領域3b、26b)には編集可能画像が表示されないこととしてもよい。この場合にも、第一表示領域3a、26aに表示されていた編集可能画像は、タッチ操作によって通信相手画像およびユーザ画像が表示される表示領域が入れ替わっても、第一表示領域3a、26aに表示されたままとなり、編集可能画像が重ねられる対象を、通信相手画像とユーザ画像との間で切り替えることが出来る。
また、ビデオチャットの画像上に「お絵描きチャット」を行う場合のディスプレイ割当には、図10Dに示した例とは異なるディスプレイ割当が採用されてもよい。図10Dに示した例では、通信相手画像およびユーザ画像を表示するための第一表示部および第二表示部として、外部ディスプレイ3および内蔵ディスプレイ26の夫々に設けられた第一表示領域3a、26aおよび第二表示領域3b、26bが用いられる。このようなディスプレイ割当に代えて、外部ディスプレイ3を第一表示部とし、内蔵ディスプレイ26を第二表示部とするようなディスプレイ割当が採用されてもよい。この場合、切替部は、第一表示部である外部ディスプレイ3と第二表示部である内蔵ディスプレイ26との間で、表示内容を入れ替える。
なお、上記説明では、ユーザ画像/通信相手画像に透過型の編集可能画像を重ねて表示させる方法について説明したが、このような方法に代えて、ユーザ画像/通信相手画像の静止画像をキャプチャして、キャプチャ画像を編集可能画像として表示させる方法が採用されてもよい。
また、編集可能画像は、透過型であるか否かを問わず、通信相手に対して閲覧権限の有無を変更することが可能であり、また、通信相手の閲覧権限の有無に拘らず、編集権限を有するユーザはこれを編集することが可能である。通信相手に対して閲覧権限を付与していない(非公開)状態で編集可能画像を編集してから、通信相手に対して閲覧権限を付与する(公開する)ことで、編集可能画像を見た通信相手に対して驚きを与えることが出来る。当然、閲覧権限の付与後は、通信相手に対しても編集権限を付与し、複数ユーザによって同時に編集することが可能である。また、全てのビデオチャット参加者に閲覧権限を付与し(即ち、誰でも閲覧可能な状態とし)、編集権限をユーザ毎に付与できるようにしてもよい。
編集権限は、編集可能画像において、各ユーザが編集した部分毎に設定されてもよい。即ち、編集可能画像において、各ユーザは、自身が編集した部分(描いた線やその色等)について、消去または変更することが出来る。より具体的には、情報処理システム100の画像編集部(図示は省略する)は、内蔵ディスプレイ26を視認するユーザによる操作に応じて、編集可能画像のうち、内蔵ディスプレイ26を視認するユーザによって編集された部分を消去または変更し、通信相手ユーザによる操作に応じて、編集可能画像のうち、通信相手ユーザによって編集された部分を消去または変更する。
即ち、本実施形態における「お絵描きチャット」では、編集可能画像に関して、閲覧権限および編集権限の2種類の権限が設定可能である。但し、このような権限を確認するために、ビデオチャット中に編集可能画像の設定情報等を参照することはユーザにとって煩雑であり、また分かり辛い。このため、ディスプレイへの表示状態や、アバターの表示状態によって、閲覧権限および編集権限を把握可能としてもよい。
例えば、外部ディスプレイ3への表示の有無によって通信相手への閲覧権限の有無を判断可能としてもよい。外部ディスプレイ3はユーザ以外からも容易に閲覧可能なディスプレイである。このため、ユーザは、外部ディスプレイ3に表示がある場合には、通信相手から閲覧されることを直感的に把握し、外部ディスプレイ3に表示がなく内蔵ディスプレイ26のみに表示がある場合には、通信相手から閲覧されないことを直感的に把握することができる。また、ユーザは、閲覧権限の設定を意識することなく、編集可能画像を外部ディスプレイ3への表示のON/OFFという直感的な操作のみで、編集可能画像の閲覧権限を管理することが出来る。
また、例えば、編集可能画像の手前に重畳表示されるアバターによって、何れのユーザが編集権限を有しているかを判断可能としてもよい。この場合、編集可能画像には、編集権限を有するユーザのアバターが重畳表示される。また、この際に表示されるアバターは、編集権限を有していることが直感的に把握できるように、画材等をもっている状態で表示されてもよい。また、ユーザは、編集権限の設定を意識することなく、編集可能画像へのアバター表示のON/OFFという直感的な操作のみで、編集可能画像の編集権限を管理することが出来る。
また、本実施形態に係る情報処理システム100は、内蔵ディスプレイ26上で大きく表示される側の画像のサイズを変更する機能を備えていてもよい。例えば、縦横比3:4であるカメラ映像全体が映るように表示させるモード(カメラ映像の左右に余白を表示)や、カメラ映像の上端と下端をカットして縦横比9:16のコントローラ画面全体に表示させるモード、を切り替えられるようにすることが出来る。
また、本実施形態に係る情報処理システム100は、外部ディスプレイ3上で大きく表示される側の画像が、外部ディスプレイ3の表示領域に占める割合を変更する機能を備えていてもよい。例えば、情報処理システム100は、外部ディスプレイ3上の大きい方の画像が外部ディスプレイ3の表示領域に占める割合を数段階で切り替える機能を備えていてもよい。このようにすることで、表示領域のサイズが大きい外部ディスプレイ3を用いる場合には画像の荒さが目立たない程度の画像サイズとし、一方、表示領域のサイズが小さい外部ディスプレイ3を用いる場合には可能な限り画面全体に表示させてユーザ体験を向上させることが出来る。
<傾き補正>
図11は、本実施形態において、ジャイロセンサー25による出力を用いて行われる画像の傾き補正の概要を示す図である。本実施形態に係る第二情報処理装置2は、カメラ29を用いてユーザを撮像し、通信相手の情報処理装置に画像を送信するが、第二情報処理装置2がビデオチャット中にユーザに把持されて用いられる場合、カメラ29によって撮像される画像が傾く場合がある。そこで、本実施形態に係る情報処理システム100は、第二情報処理装置2が備えるジャイロセンサー25から取得された情報を参照してカメラ29の傾きを検出し、カメラ29によって撮像された画像に傾き補正をかけることとした。図11に示す例では、表示制御部33は、ジャイロセンサー25から取得された情報に基づいてカメラ29の傾きθを得ると、撮像された画像を−θ回転させる傾き補正を行う。そして、表示制御部33は、補正後の画像を、外部ディスプレイ3または内蔵ディスプレイ26へ出力し、通信制御部35は、通信相手の情報処理システム100へ送信する。但し、傾き補正は、通信相手の情報処理システム100に行わせることとしてもよい。この場合、通信制御部35は、通信相手の情報処理システム100に対して、傾き補正前の画像と傾きθの情報を送信する。
<画像キャプチャ>
図12は、本実施形態における、ビデオチャット中の画像のキャプチャ処理の流れを示
すシーケンス図である。本シーケンス図に示すキャプチャ処理は、画像のキャプチャを指示するユーザ操作が受け付けられたことや、情報処理システム100が自動的に画像のキャプチャを指示したことを契機として開始される。例えば、情報処理システム100は、画像解析エンジンによってカメラ29によって得られた画像から笑顔が検出されたタイミングや、マイクロフォン28によって得られた音声のボリュームの変化量が所定値を超えたタイミングで、画像のキャプチャを指示する。なお、本シーケンス図に示されたキャプチャ処理は、発呼側ユーザおよび着呼側ユーザの何れからも行うことが可能である。
ステップS301からステップS304では、画像のキャプチャ指示が送受信され、画像のキャプチャが行われる。キャプチャ指示送信側の情報処理システム100は、通信相手(キャプチャ指示受信側)の情報処理システム100に対して、キャプチャ指示を送信する(ステップS301)。キャプチャ指示受信側の情報処理システム100は、画像のキャプチャ指示を受信すると(ステップS302)、キャプチャ指示受信側の情報処理システム100が有するカメラ29の出力から、ネットワークを介した送信のための圧縮等の処理が施される前の画像をキャプチャして、画像ファイルBを生成する(ステップS303)。また、キャプチャ指示送信側ユーザの情報処理システム100は、キャプチャ指示受信側におけるキャプチャ(ステップS303)と同時かまたは近いタイミングで、キャプチャ指示送信側ユーザの情報処理システム100が有するカメラ29の出力から、ネットワークを介した送信のための圧縮等の処理が施される前の画像をキャプチャして、画像ファイルAを生成する(ステップS304)。その後、処理はステップS305へ進む。
ステップS305からステップS307では、キャプチャされた画像ファイルBが送受信され、キャプチャ画像ファイルAおよびBが保存される。キャプチャ指示受信側の情報処理システム100は、ステップS303において生成された画像ファイルBを、キャプチャ指示送信側ユーザの情報処理システム100に対して送信する(ステップS305)。キャプチャ指示送信側ユーザの情報処理システム100は、画像ファイルBを受信すると(ステップS306)、受信された画像ファイルB(ステップS303で生成された画像ファイルB)を、ステップS304で生成された画像ファイルAと関連付けて、第一情報処理装置1の補助記憶装置14に保存する(ステップS307)。その後、本シーケンス図に示された処理は終了する。
本シーケンス図に示す処理によれば、画像のキャプチャを行う場合に、ネットワークを介して受信した画像に対してキャプチャを行うのではなく、通信相手の情報処理装置にキャプチャ指示を行ってキャプチャを行わせ、キャプチャされた画像を受信する。このため、キャプチャされる画像は、ネットワークを介した送信のための圧縮や、ネットワーク上でリアルタイムプロトコルによって通信を行う際のパケットロスやパケット遅延によるデータロスの影響がない良好な画質の画像を取得することが出来る。また、キャプチャ指示送信側の情報処理システム100でもキャプチャ指示受信側と略同時にキャプチャを行い、双方でキャプチャされた画像を合成することで、ビデオチャットの様子を良好な画質で記録することが出来る。なお、キャプチャされる画像は、静止画像であってもよいし、時間の限定された(例えば、数秒程度の)動画像ファイルであってもよい。また、キャプチャ画像は、ステップS104やステップS114、ステップS209において、先述した通信相手に関連する情報として表示されてもよい。
<ビデオチャットの保留機能>
また、本実施形態に係る情報処理システム100は、電話の保留機能のように、ビデオチャットを保留する機能を備えてもよい。この機能は、ビデオチャット中にその場を離れる際や、固定電話の着信があった際等、その時の映像や音声情報を相手に届けたくないときに使用することが出来る。本実施形態に係る保留機能において、情報処理システム10
0は、保留操作を受け付けると、ユーザ画像および音声を通信相手に全く送信しないようにしてもよいし、ユーザの気配を感じさせるような情報(例えば、ぼかしの入った映像等)のみを送信してもよい。また、保留中にも編集可能画像を双方から編集可能とすることで、音声や映像を相手に伝えられない状況の中、手書きで状況を説明することとしてもよい。このようにすることで、保留待機中の通信相手を不安にさせないようにすることが出来る。なお、保留待機中にビデオチャット自体を切断する場合に、編集可能画像に相手宛のメッセージを残せることとしてもよい。
100 情報処理システム
1 第一情報処理装置
2 第二情報処理装置

Claims (13)

  1. 表示装置に接続されるコンピュータを、
    前記表示装置を視認するユーザを撮像可能なカメラを用いて撮像された第一画像を取得する第一画像取得手段と、
    ネットワークを介して接続された他の情報処理装置から、該他の情報処理装置のユーザを撮像可能な他のカメラを用いて撮像された第二画像を取得する第二画像取得手段と、
    前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザの少なくとも何れかによって編集可能な編集可能画像を取得する編集可能画像取得手段と、
    前記第一画像、前記第二画像および前記編集可能画像を、前記表示装置に表示させる表示制御手段と、
    として機能させるための情報処理プログラム。
  2. 前記表示制御手段は、前記編集可能画像を、前記第一画像および前記第二画像の少なくとも何れかに重ねて表示させる、
    請求項1に記載の情報処理プログラム。
  3. 前記編集可能画像取得手段は、前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザによって編集可能な前記編集可能画像を取得し、
    前記表示制御手段は、前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザによって編集された前記編集可能画像を前記表示装置に表示させる、
    請求項1または2に記載の情報処理プログラム。
  4. 前記表示制御手段は、前記編集可能画像取得手段によって取得された前記編集可能画像を、リアルタイムに表示させる、
    請求項1から3の何れか一項に記載の情報処理プログラム。
  5. 前記表示装置は、第一表示部および第二表示部を有し、
    前記表示制御手段は、前記第一画像を、前記第一表示部および前記第二表示部の何れか一方に表示させ、前記第二画像を、前記第一表示部および前記第二表示部の他方に表示させ、前記編集可能画像を、前記第一表示部に表示させる、
    請求項1から4の何れか一項に記載の情報処理プログラム。
  6. 前記コンピュータを、
    前記第一表示部と前記第二表示部との間で、前記第一画像と前記第二画像とを入れ替える切替手段として更に機能させ、
    前記表示制御手段は、前記切替手段による画像の入れ替えに拘らず、前記編集可能画像を前記第一表示部に表示させる、
    請求項5に記載の情報処理プログラム。
  7. 前記第一表示部および前記第二表示部は、前記表示装置の単一の表示領域中に定義された第一表示領域および第二表示領域に対応し、
    前記表示制御手段は、前記表示装置において、前記第一表示領域が、前記第二表示領域に比べて広い領域となるように表示制御する、
    請求項5または6に記載の情報処理プログラム。
  8. 前記コンピュータを、
    ユーザによるポインティングデバイスを用いた操作を受け付ける操作受付手段と、
    前記操作受付手段によって受け付けられた操作で指示される位置の変化に対応する軌跡に応じた画像を描画するように、前記編集可能画像を編集する画像編集手段
    として更に機能させる、請求項1から7の何れか一項に記載の情報処理プログラム。
  9. 前記画像編集手段は、ユーザによる消去操作に応じて、前記編集可能画像を消去する、
    請求項8に記載の情報処理プログラム。
  10. 前記画像編集手段は、ユーザによる消去操作に応じて、前記編集可能画像のうち、該ユーザによって編集された部分を消去し、前記他の情報処理装置のユーザによる消去操作に応じて、前記編集可能画像のうち、該他の情報処理装置のユーザによって編集された部分を消去する、
    請求項9に記載の情報処理プログラム。
  11. 表示装置を視認するユーザを撮像可能なカメラを用いて撮像された第一画像を取得する第一画像取得手段と、
    ネットワークを介して接続された他の情報処理装置から、該他の情報処理装置のユーザを撮像可能な他のカメラを用いて撮像された第二画像を取得する第二画像取得手段と、
    前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザの少なくとも何れかによって編集可能な編集可能画像を取得する編集可能画像取得手段と、
    前記第一画像、前記第二画像および前記編集可能画像を、前記表示装置に表示させる表示制御手段と、
    を備える情報処理装置。
  12. ユーザによって可搬であり第一の表示装置およびカメラを有する可搬情報処理装置を備え、第二の表示装置に接続される情報処理システムであって、
    前記第一の表示装置を視認するユーザを撮像可能なカメラを用いて撮像された第一画像を取得する第一画像取得手段と、
    ネットワークを介して接続された他の情報処理装置から、該他の情報処理装置のユーザを撮像可能な他のカメラを用いて撮像された第二画像を取得する第二画像取得手段と、
    前記第一の表示装置を視認するユーザおよび前記他の情報処理装置のユーザの少なくとも何れかによって編集可能な編集可能画像を取得する編集可能画像取得手段と、
    前記第一画像、前記第二画像および前記編集可能画像を、前記第一の表示装置または前記第二の表示装置の少なくとも何れかに表示させる表示制御手段と、
    を備える情報処理システム。
  13. コンピュータが、
    表示装置を視認するユーザを撮像可能なカメラを用いて撮像された第一画像を取得する第一画像取得ステップと、
    ネットワークを介して接続された他の情報処理装置から、該他の情報処理装置のユーザを撮像可能な他のカメラを用いて撮像された第二画像を取得する第二画像取得ステップと、
    前記表示装置を視認するユーザおよび前記他の情報処理装置のユーザの少なくとも何れかによって編集可能な編集可能画像を取得する編集可能画像取得ステップと、
    前記第一画像、前記第二画像および前記編集可能画像を、前記表示装置に表示させる表示制御ステップと、
    を実行する情報処理方法。
JP2012252377A 2012-06-01 2012-11-16 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法 Pending JP2014006869A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012252377A JP2014006869A (ja) 2012-06-01 2012-11-16 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
US13/827,596 US9661264B2 (en) 2012-06-01 2013-03-14 Multi-display video communication medium, apparatus, system, and method
US13/826,789 US9083844B2 (en) 2012-06-01 2013-03-14 Computer-readable medium, information processing apparatus, information processing system and information processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012126493 2012-06-01
JP2012126493 2012-06-01
JP2012252377A JP2014006869A (ja) 2012-06-01 2012-11-16 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法

Publications (1)

Publication Number Publication Date
JP2014006869A true JP2014006869A (ja) 2014-01-16

Family

ID=50104492

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012252377A Pending JP2014006869A (ja) 2012-06-01 2012-11-16 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP2012252376A Active JP6283160B2 (ja) 2012-06-01 2012-11-16 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012252376A Active JP6283160B2 (ja) 2012-06-01 2012-11-16 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法

Country Status (1)

Country Link
JP (2) JP2014006869A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159543A1 (ja) * 2014-04-18 2015-10-22 セイコーエプソン株式会社 表示システム、表示装置、及び、表示制御方法
JP2015206854A (ja) * 2014-04-18 2015-11-19 セイコーエプソン株式会社 表示システム、表示装置、及び、表示制御方法
JP2015207082A (ja) * 2014-04-18 2015-11-19 セイコーエプソン株式会社 表示システム、表示装置、及び、表示方法
JP7477222B1 (ja) 2023-03-06 2024-05-01 Necプラットフォームズ株式会社 携帯端末装置、着信画面表示方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401736B2 (ja) * 2019-09-27 2023-12-20 株式会社Mixi 情報処理装置、情報処理システム、及び情報処理プログラム
JP7168238B2 (ja) * 2020-11-20 2022-11-09 株式会社インタラクティブソリューションズ ミーティング支援システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298227A (ja) * 1994-04-20 1995-11-10 Canon Inc 動画像処理装置
JPH08272578A (ja) * 1995-03-31 1996-10-18 Canon Inc 情報処理装置および画像表示制御方法
JPH09319890A (ja) * 1996-05-29 1997-12-12 Casio Comput Co Ltd 画像描画装置
JP2005109669A (ja) * 2003-09-29 2005-04-21 Casio Comput Co Ltd 表示システム、端末装置及び端末収納用鞄
JP2005184366A (ja) * 2003-12-18 2005-07-07 Sharp Corp 端末装置
JP2006080702A (ja) * 2004-09-08 2006-03-23 Nec Corp テレビ電話システム、通信端末装置及びそれに用いる文字情報送信方法並びにそのプログラム
JP2007082223A (ja) * 2005-09-09 2007-03-29 Lg Electronics Inc 携帯端末機及びこれを利用した表示方法
US20090049395A1 (en) * 2007-08-16 2009-02-19 Lee Ha Youn Mobile communication terminal having touch screen and method of controlling the same
US20100103243A1 (en) * 2008-10-27 2010-04-29 Jong Pil Won Method and apparatus for transmitting and receiving data using mobile terminal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6025871A (en) * 1998-12-31 2000-02-15 Intel Corporation User interface for a video conferencing system
JP2005151446A (ja) * 2003-11-19 2005-06-09 Sharp Corp 携帯端末、クレードル、携帯端末の制御方法、クレードルの制御方法、制御プログラム、および該プログラムを記録した記録媒体
WO2006043977A1 (en) * 2004-10-19 2006-04-27 Sony Ericsson Mobile Communications Ab Handheld wireless communication device for displaying information on multiple display screens, method of operating the device, and computer program product for operating the device
JP5334687B2 (ja) * 2009-05-29 2013-11-06 株式会社イトーキ 離隔地間会議システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298227A (ja) * 1994-04-20 1995-11-10 Canon Inc 動画像処理装置
JPH08272578A (ja) * 1995-03-31 1996-10-18 Canon Inc 情報処理装置および画像表示制御方法
JPH09319890A (ja) * 1996-05-29 1997-12-12 Casio Comput Co Ltd 画像描画装置
JP2005109669A (ja) * 2003-09-29 2005-04-21 Casio Comput Co Ltd 表示システム、端末装置及び端末収納用鞄
JP2005184366A (ja) * 2003-12-18 2005-07-07 Sharp Corp 端末装置
JP2006080702A (ja) * 2004-09-08 2006-03-23 Nec Corp テレビ電話システム、通信端末装置及びそれに用いる文字情報送信方法並びにそのプログラム
JP2007082223A (ja) * 2005-09-09 2007-03-29 Lg Electronics Inc 携帯端末機及びこれを利用した表示方法
US20090049395A1 (en) * 2007-08-16 2009-02-19 Lee Ha Youn Mobile communication terminal having touch screen and method of controlling the same
US20100103243A1 (en) * 2008-10-27 2010-04-29 Jong Pil Won Method and apparatus for transmitting and receiving data using mobile terminal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"オンラインソフトの新作・注目作を厳選してリポート! Online Software TOPICS", WINDOWS100%, vol. 第11巻第10号 通巻120号, JPN6017006010, 1 October 2008 (2008-10-01), JP, pages 17, ISSN: 0003505413 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159543A1 (ja) * 2014-04-18 2015-10-22 セイコーエプソン株式会社 表示システム、表示装置、及び、表示制御方法
JP2015206854A (ja) * 2014-04-18 2015-11-19 セイコーエプソン株式会社 表示システム、表示装置、及び、表示制御方法
JP2015207082A (ja) * 2014-04-18 2015-11-19 セイコーエプソン株式会社 表示システム、表示装置、及び、表示方法
JP7477222B1 (ja) 2023-03-06 2024-05-01 Necプラットフォームズ株式会社 携帯端末装置、着信画面表示方法およびプログラム
WO2024185304A1 (ja) * 2023-03-06 2024-09-12 Necプラットフォームズ株式会社 携帯端末装置、着信画面表示方法およびプログラム

Also Published As

Publication number Publication date
JP6283160B2 (ja) 2018-02-21
JP2014007723A (ja) 2014-01-16

Similar Documents

Publication Publication Date Title
US9661264B2 (en) Multi-display video communication medium, apparatus, system, and method
US10325394B2 (en) Mobile communication terminal and data input method
CN105594163B (zh) 具有实时状态通知的语音通信
KR101894644B1 (ko) 채팅창에서 게임을 구현하는 방법, 장치 및 단말
JP6283160B2 (ja) 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
US20080252716A1 (en) Communication Control Device and Communication Terminal
EP2887686A1 (en) Sharing content on devices with reduced user actions
CN104539871B (zh) 多媒体通话方法及装置
US20090029694A1 (en) Control device, mobile communication system, and communication terminal
JP6414223B2 (ja) 操作システム、通信端末、通信システム、操作方法、及びプログラム
WO2016021584A1 (ja) 端末装置及び管理サーバ
JP2017068329A (ja) 通信管理システム、通信システム、通信管理方法、及びプログラム
JP2017142610A (ja) サーバ装置、伝送システム及びプログラム
EP2095607A2 (en) Interdevice transmission of data
JP2008270912A (ja) 制御装置、移動通信システム及び通信端末
CN106331780B (zh) 授权直播方法、装置、设备及系统
JP2013197740A (ja) 電子機器、電子機器の制御方法、電子機器の制御プログラム
CN105577653B (zh) 建立视频通话的方法及装置
JP2008270911A (ja) 制御装置、移動通信システム及び通信端末
CN105847274A (zh) 终端设备及其文件传输方法
JP2003271277A (ja) 情報処理装置及び情報入力方法
JP2004101708A (ja) 画像表示制御装置および方法、並びにプログラム
JP2006526330A (ja) マルチメディア・サンプルをキャプチャ及び挿入するマルチメディア通信装置
JP5025813B1 (ja) 情報処理装置、情報処理方法及びプログラム
JP4870993B2 (ja) 遠隔制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171010