JP2007208458A - 通信システム、通信端末および通信方法 - Google Patents

通信システム、通信端末および通信方法 Download PDF

Info

Publication number
JP2007208458A
JP2007208458A JP2006022963A JP2006022963A JP2007208458A JP 2007208458 A JP2007208458 A JP 2007208458A JP 2006022963 A JP2006022963 A JP 2006022963A JP 2006022963 A JP2006022963 A JP 2006022963A JP 2007208458 A JP2007208458 A JP 2007208458A
Authority
JP
Japan
Prior art keywords
video
terminal
video content
communication terminal
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2006022963A
Other languages
English (en)
Inventor
Tatsuo Yoshino
達生 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006022963A priority Critical patent/JP2007208458A/ja
Priority to US11/700,047 priority patent/US20070188594A1/en
Publication of JP2007208458A publication Critical patent/JP2007208458A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data

Abstract

【課題】リアルタイムで映像を送受信する通信システムにおいて、自分方で閲覧している任意の映像を相手方に送り、かつその映像に関する操作を相手方からもできるようにする。
【解決手段】通信端末1bの操作特定信号送信部11fは、リモコン60に入力された映像コンテンツに関係する操作を特定する制御パケット(操作特定信号)を通信端末1aに送信する(B3)。通信端末1aは、通信端末1bから操作特定信号を受信すると(A3)、受信した操作特定信号に従って通信端末1bに入力された映像コンテンツに関係する操作を特定する(A4)。通信端末1aは、特定された映像コンテンツに関係する操作に応じた処理を行う(A5)。
【選択図】 図12

Description

本発明は通信システム、通信端末および通信方法に係り、特に画像ないし音声による双方向コミュニケーションを提供するシステム、端末および方法に関する。
従来、ある端末で閲覧しているコンテンツを所望の別の端末にも同じように表示させる技術が開発されている。例えば特許文献1によると、スペシャリストである営業活動支援者が操作するオペレータ用コンピュータ、およびオペレータ用コンピュータと遠隔した状態で営業担当者が操作するエージェント用コンピュータの両者に、プロキシモジュールと、プロキシモジュールからコンテンツキャッシュ更新イベントを受信することができるブラウザモジュールとを備えたプロキシサーバ付きブラウザをそれぞれ設定し、両仮想ブラウザ間の同期をとる。これらが設定されたコンピュータをネットワークで更新接続可能とし、オペレータ用コンピュータには更新情報取得用のWebサーバを接続して情報複写システムを構成し、オペレータ用コンピュータにおいて取得したWebページ等の閲覧対象情報が自動的に複写されて、エージェント用コンピュータに表示されるようにする。
特許公開2003−122694号公報
ところで、TV電話、TV会議システムにみられるような通信ネットワークを介して接続された端末同士でリアルタイムに複数の映像を相互に交信する場合、自分方端末から相手方端末に送る映像の1つとして予め用意された静止画や動画を選択できるようにすると便宜である。
特許文献1の技術では、オペレータ用コンピュータで複写された閲覧対象がエージェントコンピュータに表示されるだけであり、自分方端末、相手方端末の双方が、所望の映像を相手に送り、かつ相手から受けるという双方向性は全く示唆されていない。
また、特許文献1の技術では、単にオペレータ用コンピュータの閲覧画面をエージェントコンピュータに複写するだけであり、エージェント用コンピュータで閲覧対象を自由に操作できるのか、仮に操作できたとしてもその操作がオペレータ用コンピュータでどのように扱われるのか不明である。
本発明の目的は、リアルタイムで映像を送受信する通信システムにおいて、自分方で閲覧している任意の映像を相手方に送り、かつその映像に関する操作を相手方からもできるようにすることにある。
上述の課題を解決するため、本発明は、被写体映像と映像コンテンツとを送信する送信側端末と、送信側端末から被写体映像と映像コンテンツとを受信して画面に表示する受信側端末とを備える通信システムにおいて、受信側端末は、画面に表示された映像コンテンツに関する各種の入力操作を受け付ける受信側操作部と、受信側操作部に入力された映像コンテンツに関する操作を特定する信号である操作特定信号を送信側通信端末に送信する操作特定信号送信部とを備え、送信側端末は、操作特定信号を受信する操作特定信号受信部と、操作特定信号受信部の受信した操作特定信号に従って受信側端末における映像コンテンツに関する操作を特定し、特定された受信側端末における操作を入力操作と見なす送信側操作部とを備える。
この発明によると、各種の映像コンテンツ入力系統から入力された映像コンテンツを送信側端末から受信する受信側端末から、その映像コンテンツに関係する操作を特定する信号を送信側端末に送る。送信側端末は、該信号に基づき、受信側端末でなされた入力操作を自分方の入力操作とみなす。これにより、受信側端末のユーザは、送信側端末から送られてくる相手の被写体映像と映像コンテンツと音声を視聴しながら、送信側端末に入力される映像コンテンツに関する遠隔操作を行うことができる。
特に、受信側端末と送信側端末の構成を組み合わせたものを新たに受信側端末ないし送信側端末とすれば、双方が互いに送受信する映像と音声によって対話しながら、相手方の端末に入力される映像コンテンツに関する操作を自分方の端末から遠隔で入力できる。
ここで、受信側端末は、受信した映像コンテンツと受信側操作部の受け付けた映像コンテンツに関する入力操作を示す映像とを合成して表示するとよい。
こうすると、受信側端末で行われた映像コンテンツに対する入力操作を受信側端末で視覚できる。
また、送信側端末は、1または複数の映像コンテンツの入力系統の一覧を画面に表示し、画面に表示された映像コンテンツの入力系統の一覧から送信側操作部への入力操作により任意に指定された入力系統の映像コンテンツを、受信側端末に送信してもよい。
ここで、1または複数の映像コンテンツの入力系統を例示すると、コンテンツサーバ、Webサーバ、可搬性記録媒体の情報読取装置、スチルカメラもしくはビデオカメラまたはこれらの一部または全部の組み合わせが挙げられる。
映像コンテンツに関する各種の入力操作の一例としては、プリント注文する画像の指定、再生映像の指定、映像コンテンツデータの元データのダウンロード要求が挙げられる。
本発明は、被写体映像と映像コンテンツとを相手方の通信端末に送信する通信端末であって、相手方の通信端末に入力された、映像コンテンツに関する操作を特定する信号である操作特定信号を相手方の通信端末から受信する操作特定信号受信部と、操作特定信号受信部の受信した操作特定信号に従って相手方の通信端末における映像コンテンツに関する操作を特定し、特定された相手方の通信端末における操作を入力操作と見なす送信側操作部と、を備える。
また、本発明は、相手方の通信端末から、被写体映像と映像コンテンツとを受信して画面に表示する通信端末であって、画面に表示された映像コンテンツに関する操作を特定する信号である操作特定信号を相手方の通信端末に送信する操作特定信号送信部を備える。
本発明は、被写体映像と映像コンテンツとを送信する送信側端末と、送信側端末から被写体映像と映像コンテンツとを受信して画面に表示する受信側端末とを備える通信システムで用いられる通信方法に関する。この方法は、受信側端末の画面に表示された映像コンテンツに関する入力操作を受け付けるステップと、受け付けられた映像コンテンツに関する操作を特定する信号である操作特定信号を送信するステップと、操作特定信号を受信するステップと、受信した操作特定信号に従って受信側端末における映像コンテンツに関する操作を特定し、特定された受信側端末における操作を送信側端末における入力操作と見なすステップと、を含む。
この発明によると、各種の映像コンテンツ入力系統から入力された映像コンテンツを送信側端末から受信する受信側端末から、その映像コンテンツに関係する操作を特定する信号を送信側端末に送る。送信側端末は、該信号に基づき、受信側端末でなされた入力操作を自分方の入力操作とみなす。これにより、受信側端末のユーザは、送信側端末から送られてくる相手の被写体映像と映像コンテンツと音声を視聴しながら、送信側端末に入力される映像コンテンツに関する遠隔操作を行うことができる。
特に、受信側端末と送信側端末の構成を組み合わせたものを新たに受信側端末ないし送信側端末とすれば、双方が互いに送受信する映像と音声によって対話しながら、相手方の端末に入力される映像コンテンツに関する操作を自分方の端末から遠隔で入力できる。
図1は本発明の好ましい実施形態に係る映像音声通信システムのブロック図である。このシステムは、同等の構成を有する通信端末1aと通信端末1bとがインターネットなどのネットワーク10を介して接続されており、互いに映像と音声を送受信する。
通信端末1aと通信端末1bとは同様の構成であり、両者を区別するのはネットワークの通信相手を区別するためにすぎず、以下の説明において、両者の役割の全部または一部を入れ換えることもできることに注意を要する。両者をネットワークの通信相手として区別する必要がなければ、まとめて通信端末1と表すこともある。
ネットワーク10は、例えばADSL、光ファイバ(FTTH)、ケーブルテレビなどのブロードバンドネットワークや、ISDNなどのナローバンドネットワーク、UWB(Ultra Wide Band)やWi−Fi(Wireless Fidelity)といったIEEE 802.xx準拠の無線通信などで構成される。
本実施形態では、ネットワーク10は、所定値の帯域(通信速度)が常に確保できるかどうかは保証されていないベストエフォート型ネットワークを想定する。ネットワーク10は、電話局と自宅の距離やADSLモデム間の通信速度、トラフィックの増減、セッションの相手方の通信環境などの各種要因で、公称されている最大帯域が実質的に制限されることがある。実効値が公称値の数分の一以下になる場合も多い。ネットワーク10の帯域は、ビット毎秒(bps)で表される。例えば、FTTHの公称帯域は100Mbpsなどが一般的であるが、実際には、数百kbpsにまで制限されることがある。
通信端末1aと通信端末1bとの接続経路は、SIP(Session Initiation Protocol)サーバで構成された交換台サーバ6がネットワークアドレス(グローバルIPアドレスなど)、ポート、識別子(MACアドレスなど)を用いて指定する。名称や電子メールアドレスなど通信端末1のユーザに関する情報や通信端末1の接続に関する情報(アカウント情報)はアカウントデータベース(DB)8a内に格納されており、アカウント管理サーバ8によって管理されている。アカウント情報はWebサーバ7を介してアカウント管理サーバ8に接続した通信端末1から更新・変更・削除することもできる。Webサーバ7は、メールを送信するメールサーバ、ファイルのダウンロードを行うファイルサーバも兼ねている。
通信端末1aは、マイク3a、カメラ4a、スピーカ2a、モニタ5aと接続され、カメラ4aで撮影された映像とマイク3aで集音された音声がネットワーク10を介して通信端末1bに送信される。通信端末1bも、マイク3b、カメラ4b、スピーカ2b、モニタ5bと接続され、同様に映像と音声とを通信端末1aに送信できる。
通信端末1bが受信した映像と音声はモニタ5b、スピーカ2bに出力され、通信端末1aが受信した映像と音声はそれぞれモニタ5a、スピーカ2aに出力される。なお、マイク3とスピーカ2はヘッドセットとして一体構成してもよい。
図2は通信端末1の詳細構成を示すブロック図である。
通信端末1の本体外面には、音声入力端子31、映像入力端子32、音声出力端子33、映像出力端子34が設けられており、それぞれマイク3、カメラ4、スピーカ2、モニタ5と接続される。
外部入力端子30−1は、IEEE1394系の入力端子であり、デジタルビデオカメラ70からDV方式その他の仕様に従った動画像/静止画像/音声データの入力を受ける。外部入力端子30−2は、デジタルスチルカメラ71からJPEG仕様その他の仕様に従った静止画像の入力を受ける。
音声入力端子31に接続されたマイク3からオーディオデータ化部14に入力された音声信号と、NTSCデコーダ15の生成した色差信号は、MPEG4エンコーダなどの高画質対応符号器で構成されたCH1符号化部12−1によってデジタル圧縮符号化されてストリームデータ(リアルタイム配信可能な形式のコンテンツデータ)に変換される。このストリームデータをCH1ストリームデータとよぶ。
スイッチャ78によってデータ入力元となった、Webブラウザモジュール43がWebコンテンツサーバ90からダウンロードした静止画像もしくは動画像、デジタルビデオカメラ70からの静止画像もしくは動画像、デジタルスチルカメラ71からの静止画像もしくは動画像、ストリーミングモジュール44がストリーミングサーバ91からダウンロードした動画像、または記録メディア73からの動画像もしくは静止画像のいずれか1つ(以下、これらの画像入力元を、デジタルビデオカメラ70等の映像コンテンツ入力元と略称することもある)を含んだ映像信号と、スイッチャ78によってデータ入力元となった、ストリーミングモジュール44がストリーミングサーバ91からダウンロードした音声またはデジタルビデオカメラ70からの音声を含んだ音声信号(以下、これらの音声入力元を、デジタルビデオカメラ70等の音声入力元と略称することもある)とは、MPEG4エンコーダなどの高画質対応符号器で構成されたCH2符号化部12−2によってデジタル圧縮符号化されてストリームデータに変換される。このストリームデータをCH2ストリームデータとよぶ。
CH2符号化部12−2は、デジタルビデオカメラ70等から入力される静止画を、動画像に変換して出力する機能を有する。この機能の詳細は後述する。
合成部51−1は、CH1ストリームデータと、CH2ストリームデータとを合成したストリームデータ(合成ストリームデータ)を作成し、パケット化部25に出力する。
合成ストリームデータはパケット化装置25によってパケット化され、一旦送信バッファ26に記憶される。送信バッファ26は、通信インターフェース13を介し、パケットを一定のタイミングでネットワーク10に送出する。送信バッファ26は、例えば、30フレーム毎秒の動画像が取り込まれると、1パケットに1フレームのデータを記憶して送出する能力を有する。
なお、本実施形態では、ネットワーク10の伝送帯域の減少が推定されても、伝送フレームレートを低下させること、すなわちフレームを間引くことは行わない。これは映像の動きがカクカクして滑らかでなくなるのを防ぐためである。
映像/音声データ分離部45−1は、外部入力端子30−1から入力された多重化データから映像データと音声データとを分離する。
映像/音声データ分離部45−1によって分離された動画像データまたは静止画データは、それぞれ動画デコーダ41または静止画デコーダ42によって復号化された後、フレーム画像として所定時間間隔ごとに映像バッファ80に一時的に記憶される。なお、映像バッファ80に記憶される1秒あたりのフレーム数(フレームレート)は、後述のビデオキャプチャバッファ54のフレームレート(例えば30fps(frame per second))と合致させる必要がある。
映像/音声データ分離部45−1によって分離された音声データは、音声デコーダ47−2によって復号化された後、音声バッファ81に一時的に記憶される。
NTSCデコーダ15は、カメラ4から入力されたNTSC信号を輝度信号および色差信号に変換するカラーデコーダであり、NTSC信号 をY/C 分離回路により輝度信号と搬送色信号とに分離し、さらに搬送色信号を色信号復調回路により復調して色差信号(Cb,Cr)を生成する。
オーディオデータ化部14は、マイク3から入力されたアナログオーディオ音声信号をデジタルデータに変換してオーディオキャプチャバッファ53に出力する。
スイッチャ(スイッチング回路)78は、制御部11の制御に従い、映像バッファ80への入力映像を、デジタルビデオカメラ70の動画像もしくは静止画像、デジタルスチルカメラ71からの静止画像、メディアリーダ74によって記録メディア73から読み込まれた動画像または静止画像のいずれか1つに切り替える。
合成部51−2は、デジタルビデオカメラ70等の映像コンテンツ入力元からの映像と、CH1復号化部13−1、CH2復号化部13−2から復号化された動画フレーム画像とを合成し、この合成画像を映像出力部17に出力する。こうして得られた合成画像はモニタ5に表示される。
相手方の通信端末1は、CH1符号化部12−1の符号化した映像データ、CH2符号化部12−2の符号化した映像データをそれぞれストリーム化回路22により個別にストリーム化したあと、CH1符号化部12−1の符号化したストリームデータはCH1復号化部13−1で、CH2符号化部12−2の符号化したストリームデータはCH2復号化部13−2でそれぞれ動画像ないし音声に復号化され、合成部51−2に出力される。
合成部51−2は、カメラ4の映像すなわち自分映像、CH1復号化部13−1の復号化した動画像すなわち相手映像、およびCH2復号化部13−2の復号化した動画像すなわち映像コンテンツを、モニタ5の表示画面における表示エリアに収まるようリサイズして合成する。リサイズはリモコン60から入力される表示モード切替に応じて行われる。
図3はモニタ5に表示される映像の配置の一例を示す。この図に示すように、モニタ34には、相手方の通信端末1のカメラ4の映像(相手映像)が第1の表示エリアX1に、相手方の通信端末1のデジタルビデオカメラ70等の映像コンテンツ入力元から入力された映像(映像コンテンツ)が第2の表示エリアX2に、自分方のカメラ4から入力された映像(自分映像)が第3の表示エリアX3に表示される。
第1の表示エリアX1ないし第3の表示エリアX3に配置される映像はこの図に示したものに限定されず、後述する表示モードの設定に応じて切り替わる。
その他、自分方のスイッチャ78に対するデジタルビデオカメラ70等の映像コンテンツ入力元その他の情報をリスト化したコンテンツメニューM、各種のメッセージやお知らせを表示するメッセージ&情報表示エリアYが、それぞれ1画面内に収まるよう縮小されて、各々重複しないエリアに表示される。
なお、この図では1表示画面中の各表示エリアX1〜X3が所定の面積比に従って分割表示されているが、この画面分割の仕方は色々変形可能である。また、複数映像全てを必ずしも1画面内で同時に表示する必要はなく、リモコン60の所定操作に応じて表示モードを切り替え、自分映像のみ、相手映像のみもしくは映像コンテンツのみ、あるいはそれらの一部を組み合わせて表示するようにしてもよい。表示モードについては後述する。
コンテンツメニューMではリモコン60の操作によって任意の項目を選択できる。制御部11は、リモコン60の項目選択操作に応じて映像コンテンツの入力元をスイッチャ78によって切り替える制御を行う。これにより、映像コンテンツとして表示すべき映像を任意に選択することができる。ここでは、「Webサーバ」項目を選択するとWebブラウザモジュール43がWebコンテンツサーバ90から取得したWebコンテンツ、「コンテンツサーバ」項目を選択するとストリーミングモジュール44がストリーミングサーバ91から取得したストリーミングコンテンツが、「DV」項目を選択するとデジタルビデオカメラ70からの映像が、「スチル」項目を選択するとデジタルスチルカメラ71からの映像が、「メディア」項目を選択すると記録メディア73から読み込まれた映像が映像コンテンツとなる。
CH1符号化部12−1は、オーディオキャプチャバッファ53から供給されるマイク3からの音声のキャプチャデータを順次MPEG方式などに従って圧縮符号化する。符号化された音声データは、パケット化部25によりパケット化されて相手方の通信端末1へストリーム送信される。
CH2符号化部12−2は、スイッチャ78によって音声入力元となった、ストリーミングモジュール44からの音声またはデジタルビデオカメラ70からの音声のいずれか一方(デジタルビデオカメラ70等の音声入力元)をMPEG方式などに従って圧縮符号化する。符号化された音声データは、パケット化部25によりパケット化されて相手方の通信端末1へストリーム送信される。
CH1復号化部13−1は、CH1符号化部12−1が符号化した音声データを復号化する。CH2復号化部13−2は、CH2符号化部12−2が符号化した音声データを復号化する。
合成部51−2は、CH1復号化部13−1の復号化した音声データと、CH2復号化部13−2の復号化した音声データとを合成し、この合成音声データを音声出力部16に出力する。こうして、相手方の通信端末1のマイク3で集音された音声および相手方の通信端末1に接続されたデジタルビデオカメラ70等から得られた音声が自分方のスピーカ2によって再生される。
帯域推定部11cは、ネットワーク10のジッタ(ゆらぎ)などから伝送帯域を推定する。
符号化制御部11eは、推定された伝送帯域に応じてCH1符号化部12−1、CH2符号化部12−2の映像伝送ビットレートを変化させる。即ち、伝送帯域が低下していくことを推定すれば映像伝送ビットレートを低下させ、伝送帯域が増加していくことを推定すれば映像伝送ビットレートを増加させる。こうすることで、伝送帯域を超えるパケット送出によりパケットロスが発生するのを防ぐことができ、伝送帯域の変化に応じたスムースなストリームデータ送信を行える。
帯域推定部11cによる具体的な帯域推定は、例えば次のようにすればよい。相手方の通信端末1bからSR(Sender Report)タイプのRTCPパケット(RTCP SR)を受信すると、RTCP SRパケットのヘッダ内にあるsequence number fieldのシーケンス番号を計数することで受信したRTCP SRの損失数を算出する。そして、当該損失数が記述されたRR(Receiver Report)タイプのRTCPパケット(RTCP RR)を相手方の通信端末1に送信する。RTCP RRには、RTCP SRの受信からRTCP RRの送信までの時間(便宜上応答時間と呼ぶ)も記述されている。
相手方の通信端末1bがRTCP RRを受信すると、RTCP SRの送信時刻からRTCP RRの受信時刻までの時間から応答時間を引いた時間であるRTT(Round Trip Time)を算出する。また、RTCP SRの送出パケット数とRTCP RRの損失数を参照し、定期期間内における(損失数)/(送出パケット数)=パケット損失率を算出する。このRTTとパケット損失率を通信状態レポートとする。
監視パケットを出す間隔は、10秒から数10秒に一回あたりが適当と考えられるが、1回の監視パケット試行での推定では、ネットワーク状態が正確に把握できない時も多いため、複数回に分けて行い、その平均等を取って推定する方が推定確度は増す。監視パケットの数量を多くすると,それ自体が帯域を狭める要因ともなるので、全体の通信量の2−3%に留めておくのが好ましい。
なお、以上に説明した以外にも、各種のQoS(Quality of Service)制御技術を帯域推定部11cに用いることで通信状態レポートを得ることができる。
なお、推定した伝送帯域に応じて音声符号化のビットレートを変化させてもよいが、音声の伝送帯域は映像に比較して帯域への寄与率が低いため、固定としても問題はない。
通信インターフェース13を介して他の通信端末1から受信したストリームデータのパケットは一旦受信バッファ21に記憶されたあと、一定のタイミングでストリーム化装置22に出力される。受信バッファ21のゆらぎ吸収バッファ21aは、当該パケットの伝送遅延時間が変動して到着間隔がばらついても、連続的な再生をするためにパケット受信から再生開始までに遅延を付加する。ストリーム化装置22は、パケットデータをストリーム再生データに再構成する。
CH1復号化部13−1、CH2復号化部13−2はMPEG4デコーダなどで構成された映像音声復号化装置である。
表示制御部11dは、リモコン60から入力された画面切替信号に応じて合成部51−2を制御し、CH1復号化部13−1で復号化した映像データ(CH1映像データ)と、CH2復号化部13−2で復号化した映像データ(CH2映像データ)と、NTSCデコーダ15から入力した映像データ(自分映像)と、映像バッファ80から入力した映像データ(映像コンテンツ)の全部もしくは一部を合成して出力する(合成出力)か、あるいはそれらの映像データのうちいずれか1つを他のものと全く合成しないまま出力する(スルー出力)。合成部51−2から出力された映像データは映像出力部17でNTSC信号に変換されてモニタ5に出力される。
図4〜図9は合成された映像データを表示したモニタ5の画面を例示する。このそれぞれの画面は、リモコン60による表示モード切替操作により順次切り替わる。
図4は、合成部51−2がカメラ4からの映像データ(自分映像)だけを、その他の映像データと合成せずに映像出力部17にスルー出力した場合におけるモニタ5の画面表示を示す。この画面では自分方のカメラ4で撮影した映像(自分映像)だけが全画面表示される。
図5は、合成部51−2がCH1復号化部13−1からの映像データ(相手映像)だけを、その他の映像データと合成せずに映像出力部17にスルー出力した場合におけるモニタ5の画面表示を示す。この画面では相手方のカメラ4で撮影した映像(相手映像)だけが全画面表示される。
図6は、合成部51−2がCH1復号化部13−1からの映像データ(相手映像)と自分方のカメラ4からの映像データ(自分映像)とを合成して映像出力部17に出力した場合におけるモニタ5の画面表示を示す。この画面では、相手映像と自分映像がそれぞれ表示エリアX1、X3に表示される。
図7は、合成部51−2がCH1復号化部13−1からの映像データ(相手映像)とCH2復号化部13−2からの映像データ(映像コンテンツ)と自分方のカメラ4からの映像データ(自分映像)とを合成して映像出力部17に出力した場合におけるモニタ5の画面表示を示す。この画面では、相手映像が表示エリアX1、映像コンテンツが表示エリアX2、自分映像が表示エリアX3に収まるようにリサイズされて表示される。かつ、表示エリアX1、X3は、表示エリアX1が表示エリアX3に比して大きくなるような所定の面積比を保っている。
図8は、合成部51−2がCH1復号化部13−1からの映像データ(相手映像)とCH2復号化部13−2からの映像データ(映像コンテンツ)と自分方のカメラ4からの映像データ(自分映像)とを合成して映像出力部17に出力した場合におけるモニタ5の画面表示を示す。この画面では、映像コンテンツが表示エリアX1、相手映像が表示エリアX2、自分映像が表示エリアX3に表示されている。
図9は、合成部51−2がCH2復号化部13−2からの映像データ(映像コンテンツ)だけを、その他の映像データと合成せずに映像出力部17にスルー出力した場合におけるモニタ5の画面表示を示す。この画面では映像コンテンツだけが表示される。
図10は各表示エリアX1〜X3の面積比の一例を示す。ここでは、4:3の画面比の画面を9つのタイルに等分割し、表示エリアX1の面積は4タイル、表示エリアX2、X3の面積は1タイルとなっている。また、コンテンツメニュー表示エリアMの面積は1タイル、メッセージ・情報表示エリアの面積は2タイルとなっている。
通信端末1bは、リモコン60から画面切替信号が入力されると、その画面切替信号が入力されたことを示す制御パケットを、ネットワーク10を介して通信端末1aに送信する。同様の機能は通信端末1aも有する。
符号化制御部11eは、相手方の通信端末1から受信した制御パケットで識別される表示エリアX1、X2もしくはX3の面積比に応じ、相手方の通信端末1のモニタ5の表示エリアX1、X2もしくはX3にそれぞれ表示される映像(上記制御パケットで特定可能)の伝送帯域を推定伝送帯域の範囲内で割り当て、割り当てられた伝送帯域内にデータが収まるよう(パケットのオーバーフローが生じないよう)、CH1符号化部12−1およびCH2符号化部12−2の量子化回路117を制御する。
なお、CH1復号化部13−1、CH2復号化部13−2で復号化された音声データは音声出力部16でアナログ音声信号に変換されてスピーカ2に出力される。必要であれば、自分方のデジタルビデオカメラ70等から入力された音声データとコンテンツデータに含まれる音声データとを合成部51−2で合成して音声出力部16に出力することもできる。
通信インターフェース13には、ネットワーク端子61が設けられており、この端子が各種ケーブルによりブロードバンドルータやADSLモデムなどと接続されることでネットワーク10と接続される。ネットワーク端子61は単数または複数設けられる。
なお、通信インターフェース13がファイアウォールやNAT機能(Network Address Translation、グローバルIPアドレスとプライベートIPアドレスの相互変換を行う)を有するルータと接続されると、SIPによる通信端末1同士の直接接続ができない問題(いわゆるNAT越え)が生じることが当業者で認識されている。通信端末1同士を直接接続して映像音声送受信の遅延を最小化するには、STUN(Simple Traversal of UDP through NATs)サーバ30を利用したSTUN技術や、UPnP(Universal Plug and Play) サーバによるNAT越え機能を通信端末1に実装することが好ましい。
制御部11は、各種のボタンやキーから構成される操作部18もしくはリモコン60からの操作入力に基づいて通信端末1内の各回路を統括制御する。制御部11は、CPUなどの演算装置で構成され、自分方表示モード通知部11a、相手方表示モード検出部11b、帯域推定部11c、表示制御部11d、符号化制御部11e、操作特定信号送信部11fの各機能を記憶媒体23に記憶されたプログラムによって実現する。
各通信端末1を一意に識別するアドレス(必ずしもグローバルIPアドレスと同義ではない)、アカウント管理サーバ8が通信端末1を認証するのに必要なパスワード、通信端末1の起動プログラムは、電源オフ状態でもデータを保持可能な不揮発性の記憶媒体23に記憶されている。ここに記憶されたプログラムは、アカウント管理サーバ8から提供されるアップデートプログラムにより最新のバージョンに更新できる。
制御部11の各種処理に必要なデータは、一時的にデータを記憶するRAMで構成されたメインメモリ36に記憶される。
通信端末1にはリモコン受光回路63が設けられており、このリモコン受光回路63にはリモコン受光部64が接続されている。リモコン受光回路63は、リモコン60からリモコン受光部64に入射した赤外線信号をデジタル信号に変換して制御部11へ出力する。制御部11は、リモコン受光回路63から入力したデジタル赤外線信号に応じて各種動作を制御する。
発光制御回路24は、制御部11の制御によって、通信端末1の外面に設けられたLED65の発光・点滅・点灯の制御を行う。発光制御回路24にはコネクタ66を介してフラッシュランプ67を接続することもでき、発光制御回路24は、フラッシュランプ67の発光・点滅・点灯の制御も行う。RTC20は内蔵時計である。
図11はCH1符号化部12−1、CH2符号化部12−2に共通する要部構成を示したブロック図である。CH1符号化部12−1・CH2符号化部12−2(まとめて符号化部12と表すこともある)は、画像入力部111、動きベクトル検出回路114、動き補償回路115、DCT116、量子化回路117、可変長符号化器(VLC)118、符号化制御部11e、静止ブロック検出部124、静止ブロック記憶部125等を備えている。この装置は、動き補償予測符号化と、DCTによる圧縮符号化を組み合わせたMPEG方式の映像符号化装置の構成を一部含んでいる。
画像入力部111は、ビデオキャプチャバッファ54や映像バッファ80に蓄積された映像(カメラ4の動画像のみ、デジタルビデオカメラ70等から入力された動画像もしくは静止画像のみ、あるいはそれらの動画像および静止画像の合成画像からなる動画像)をフレームメモリ122に入力する。
動きベクトル検出回路114は、画像入力部111から入力されたデータが表す現在のフレーム画像を、フレームメモリ122に記憶されている前のフレーム画像と比較することで、動きベクトルを検出する。この動きベクトルの検出は、入力された現在のフレーム画像を複数のマクロブロックに分割し、個々のマクロブロックを単位として、前のフレーム画像上に各々設定した探索範囲内で被探索マクロブロックを適宜動かしながら誤差演算を繰り返すことで、被探索マクロブロックに最も類似しているマクロブロック(誤差が最小となるマクロブロック)を探索範囲内から探し出し、該マクロブロックと被探索マクロブロックとのずれ量及びずれの方向を被探索マクロブロックについての動きベクトルとする。そして、各マクロブロック毎に求めた動きベクトルを各マクロブロック毎の誤差を考慮して合成することで、予測符号化における予測差分を最小とする動きベクトルを求めることができる。
動き補償回路115は、検出した動きベクトルに基づき予測用参照画像に対して動き補償を行うことで予測画像のデータを生成し、減算器123へ出力する。減算器123は、画像入力部111からから入力されたデータが表す現在のフレーム画像から、動き補償回路115から入力されたデータが表す予測画像を減算することで、予測差分を表す差分データを生成する。
減算器123にはDCT(離散コサイン変換)部116、量子化回路117、VLC118が順次接続されている。DCT116は、減算器123から入力された差分データを任意のブロック毎に直交変換して出力し、量子化回路117は、DCT116から入力された直交変換後の差分データを所定の量子化ステップで量子化してVLC118へ出力する。また、VLC118には動き補償回路115が接続されており、動き補償回路115から動きベクトルのデータも入力される。
VLC118は、直交変換・量子化を経た差分データを2次元ハフマン符号により符号化すると共に、入力された動きベクトルのデータもハフマン符号により符号化し、両者を多重化する。そして、符号化制御部11eから出力される符号化ビットレートに基づいて定められたレートで、可変長符号化動画像データを出力する。可変長符号化動画像データはパケット化部25に出力され、画像圧縮情報としてネットワーク10にパケット送出される。量子化回路117の符号量(ビットレート)は符号化制御部11eによって制御される。
VLC118の作成する符号化動画像データのデータ構造は、階層構造をなしており、下位から、ブロック層、マクロブロック層、スライス層、ピクチャ層、GOP層およびシーケンス層となっている。
ブロック層は、DCTを行う単位であるDCTブロックからなる。マクロブロック層は、複数のDCTブロックで構成される。スライス層は、ヘッダ部と、1以上のマクロブロックより構成される。ピクチャ層は、ヘッダ部と、1以上のスライス層とから構成される。ピクチャは、1画面に対応する。GOP層は、ヘッダ部と、フレーム内符号化に基づくピクチャであるIピクチャと、予測符号化に基づくピクチャであるPおよびBピクチャとから構成される。Iピクチャは、それ自身の情報のみで復号化が可能であり、PおよびBピクチャは、予測画像として前あるいは前後の画像が必要とされ、単独では復号化されない。
また、シーケンス層、GOP層、ピクチャ層、スライス層およびマクロブロック層の先頭には、それぞれ所定のビットパターンからなる識別コードが配され、識別コードに続けて、各層の符号化パラメータが格納されるヘッダ部が配される。
スライス層に含まれるマクロブロックは、複数のDCTブロックの集合であり、画面(ピクチャ)を格子状(例えば8画素×8画素)に分割したものである。スライスは、例えばこのマクロブロックを水平方向に連結してなる。画面のサイズが決まると、1画面当たりのマクロブロック数は、一意に決まる。
MPEGのフォーマットにおいては、スライス層が1つの可変長符号系列である。可変長符号系列とは、可変長符号を復号化しなければデータの境界を検出できない系列である。MPEGストリームの復号時には、スライス層のヘッダ部を検出し、可変長符号の始点と終点とを見つけ出す。
ここで、フレームメモリ122に入力された画像データが静止画のみであれば、全マクロブロックの動きベクトルは零となり、Iピクチャのみで復号化が可能となる。そうすると、B、Pピクチャを送らなくて済む。このため、ネットワーク10の伝送帯域幅が狭まっても、静止画を動画として、比較的精細に相手方の通信端末1に送ることができる。
また、フレームメモリ122に入力された画像データが静止画と動画の合成画像であっても、静止画に相当するマクロブロックの動きベクトルは零となり、その部分はスキップドマクロとしてデータを送らずに済む。
フレームメモリ122に入力された画像データが静止画のみである場合は、フレームレートを落とし、その代わりIピクチャの符号量を増やすようにしてもよい。これにより、動きのない静止画を精細に表示することができる。
自分方の通信端末1aのスイッチャ78によって静止画の入力元がWebブラウザモジュール43、デジタルビデオカメラ70、デジタルスチルカメラ71またはメディアリーダ73のいずれに切り替わっても、入力元の種類とは無関係に、静止画に相当する部分のマクロブロックが動きベクトル零となるようなフレーム動画像が相手方の通信端末1bにリアルタイムで送信される。このため、自分方の通信端末1aでスイッチャ78による静止画の入力元が不定期に切り替わっても、これに追従して、相手方の通信端末1に送信されるフレーム動画像がすみやかに切り替わり、結果的に相手方の通信端末1bで表示される静止画もすみやかに切り替わる。
次に、図12のフローチャートに従い、通信端末1aと通信端末1bとの間で行われる動作を説明する。
まず、通信端末1aは、リモコン60からデジタルビデオカメラ70等の映像コンテンツ入力元を選択する信号(入力元選択信号)が入力された場合、制御部11はこの入力元選択信号に従ってスイッチャ(スイッチング回路)78を制御し、映像バッファ80への入力映像を切り替える(A1)。
通信端末1aは、映像コンテンツ入力元から供給された映像コンテンツおよびカメラ4から供給された被写体映像をそれぞれ符号化してパケットデータを順次通信端末1bに送出する(A2)。また、通信端末1aにおいて行った映像コンテンツに対する操作を示す操作状態映像、例えばカーソルやマウスポインタの移動を示す映像を図示しないOSD回路などによって作成し、この操作状態映像を映像コンテンツと合成して送出してもよい。こうすると、通信端末1bにおいて通信端末1aの操作状態を表示できる。
なお上述したように、通信端末1aは、デジタルスチルカメラ71などから入力された静止画像も動画像としてリアルタイム送出することに注意を要する。
通信端末1bは、通信端末1aから受信したパケットをストリーム化し、リモコン60で設定された表示モードに応じた表示エリアに被写体映像もしくは映像コンテンツの一方またはそれらの両方をモニタ5bに再生表示する(B1)。
通信端末1bは、モニタ5bに再生表示された映像コンテンツに関係する操作をリモコン60から受け付ける(B2)。「映像コンテンツに関係する操作」の具体例は後述する。
通信端末1bの操作特定信号送信部11fは、リモコン60に入力された映像コンテンツに関係する操作を特定する制御パケット(操作特定信号)を通信端末1aに送信する(B3)。
通信端末1aは、通信端末1bから操作特定信号を受信すると(A3)、受信した操作特定信号に従って通信端末1bに入力された映像コンテンツに関係する操作を特定する(A4)。
通信端末1aは、特定された映像コンテンツに関係する操作に応じた処理を行う(A5)。
さて、「映像コンテンツに関係する操作」と「特定された操作に応じた処理」を映像コンテンツの入力元ごとに例示列挙すると、次のようになる。
・映像コンテンツの入力元がデジタルスチルカメラ71や記録メディア73であれば、「映像コンテンツに関係する操作」は、現にモニタ5bに再生表示されている静止画像のうちプリント注文する静止画像の指定。あるいは該再生表示されている静止画像の元画像ファイル自体を通信端末1aから通信端末1bに送信するよう通信端末1aに要求するコマンドの指定。あるいは再生表示したい静止画像を、デジタルスチルカメラ71や記録メディア73に記録されている画像の中で、あるいは予め閲覧の許可された画像(例えば閲覧許可する画像のみを振り分けたフォルダ内の画像やDPOFフォーマットで記録された画像)の中で任意に切り替える指定。また、「特定された操作に応じた処理」とは、プリント注文する静止画像として指定された静止画像をプリント店93に送信すること。あるいは通信端末1bから送信要求された静止画像の元画像ファイルを通信端末1bに送信すること。あるいは再生表示したい静止画像として指定された静止画像をストリーム送信すること。
・映像コンテンツの入力元がデジタルビデオカメラ70であれば、デジタルビデオカメラ70に記録されている映像コンテンツの中で再生したい映像の指定。あるいは現に再生されている映像コンテンツの再生開始、再生終了、早送り、巻き戻し、一時停止、一時停止解除の指定。あるいは該再生表示されている動画像の元画像ファイル自体を通信端末1aから通信端末1bに送信するよう通信端末1aに要求するコマンドの指定。また、「特定された操作に応じた処理」とは、指定に応じた映像コンテンツのストリーム送信の開始、終了、映像の早送り、映像の巻き戻し、映像の一時停止、映像の一時停止解除。あるいは通信端末1bから送信要求された動画像の元画像ファイルを通信端末1bに送信すること。
・映像コンテンツの入力元がWebコンテンツサーバ90であれば、現に表示されているWebページの上下左右のスクロール、拡縮、移動の指定。あるいは、現に表示されているWebページに埋め込まれたハイパーリンク先へのジャンプの指定。商品購入フォームなど各種入力フォームへの情報の入力と入力された情報のWebコンテンツサーバ90への送信の指定。また、「特定された操作に応じた処理」とは、指定に応じて必要なWebコンテンツのダウンロード、必要なデータのアップロード。
・映像コンテンツの入力元がストリーミングサーバ91であれば、現に再生されている映像コンテンツの早送り、巻き戻し、一時停止、再生再開の指定。「特定された操作に応じた処理」とは、指定に応じた映像コンテンツのストリームのダウンロードの開始、終了、ダウンロードした映像の再生、早送り、巻き戻し、一時停止、一時停止解除。
これらの動作を図で例示すると次のようになる。例えば、通信端末1aにおいて、映像コンテンツの入力元として「スチル」すなわちデジタルスチルカメラ71がモニタ5aのコンテンツメニュー表示エリアMから選択されたとする(図13)。この場合、デジタルスチルカメラ71に記憶されている静止画像ファイルのファイル名の一覧がモニタ5bのコンテンツメニュー表示エリアMに表示される(図示は省略)。
通信端末1bにおいて、この一覧から所望の画像ファイル名をリモコン60の操作で選択すると、選択されたファイル名を示す操作特定信号が通信端末1aに送信される。通信端末1aは操作特定信号を受信すると、操作特定信号に従って、通信端末1bで選択されたファイル名と該ファイル名の付与された静止画像ファイルをデジタルスチルカメラ71内で特定し、この静止画像ファイルに記録される静止画像を動画像としてストリーム送信する。
通信端末1bのモニタには、コンテンツメニュー表示エリアMから選択された静止画像のストリーム動画像が映像コンテンツとして表示されるとともに、相手方のカメラ4aで撮像した被写体(相手映像)も自分方のカメラ4bで撮像した被写体(自分映像)も表示される(図14)。
表示された静止画像が気に入れば、通信端末1bから通信端末1aに対してプリント注文やアルバム作成依頼をプリント店93に送信するよう要求したり、ストリーム動画像でなく静止画像ファイルそのものを送るように通信端末1aに対して要求するコマンドを送信することもできる。
相手方のユーザとは、映像および音声でコミュニケーションを取りながら互いに同じ静止画像を同時に閲覧していくことができるため、遠隔した当事者同士が同じ画像についてリアルタイムで対話したりプリント注文すべき画像を決めることができる。
ただし、プリント注文やアルバム作成依頼に関しては、無制限に認めると不都合なので、通信端末1aのリモコン60などの操作によって許可が入力された場合にのみ注文指示をプリント店93に送信するようにしてもよい。
また、デジタルスチルカメラ71内のどの画像も自由に閲覧されると困る場合もあるから、通信端末1aのリモコン60などの操作によって許可が入力された場合にのみ、通信端末1bのコンテンツメニュー表示エリアMから選択された静止画像のストリーム動画像を送るようにしてもよい。
あるいは、例えば、通信端末1aにおいて、映像コンテンツの入力元として「DV」すなわちデジタルビデオカメラ70がモニタ5aのコンテンツ表示エリアMから選択されたとする(図15)。この場合、デジタルスチルカメラ71に記憶されている動画像ファイルのファイル名の一覧がモニタ5bのコンテンツメニュー表示エリアMに表示される(図示は省略)。
通信端末1bにおいて、この一覧から所望の画像ファイル名をリモコン60の操作で選択すると、選択されたファイル名を示す操作特定信号が通信端末1aに送信される。通信端末1aは操作特定信号を受信すると、操作特定信号に従って、通信端末1bで選択されたファイル名と該ファイル名の付与された動画像ファイルを特定し、この動画像ファイルに記録される動画像をストリーム送信する。
通信端末1bのモニタ5bには、選択された動画像が映像コンテンツとして表示されるとともに、相手方のカメラ4aで撮像した被写体も表示される(図16)。
この場合もやはり相手方のユーザと映像および音声でコミュニケーションを取りながら互いに同じ動画像ファイルを同時に閲覧していくことができるため、遠隔した当事者同士が同じ動画像についてリアルタイムで対話することができる。
あるいは、例えば、通信端末1aにおいて、映像コンテンツの入力元として「コンテンツサーバ」すなわちストリーミングサーバ91がモニタ5aのコンテンツ表示エリアMから選択されたとする(図17)。この場合、ストリーミングサーバ91に記憶されている動画像コンテンツのコンテンツ名の一覧がモニタ5bのコンテンツメニュー表示エリアMに表示される(図示は省略)。
通信端末1aにおいて、この一覧から所望のコンテンツ名をリモコン60の操作で選択すると、選択されたコンテンツ名を示す操作特定信号が通信端末1aに送信される。通信端末1aは操作特定信号を受信すると、操作特定信号に従って、通信端末1bで選択されたコンテンツ名と該コンテンツ名の付与された動画像コンテンツを特定し、この動画像コンテンツをストリーミングサーバ91からダウンロードした上、このダウンロードした動画像をストリーム送信する。ストリーミングサーバ91からのデータは通信端末1aを介して通信端末1bに送られるため、ストリーミングサーバ91から通信端末1bへデータ送信する必要がなく、ストリーミングサーバ91の負荷は増加しない。
通信端末1bのモニタには、選択された動画像が映像コンテンツとして表示されるとともに、相手方のカメラ4aで撮像した被写体も表示される(図18)。
この場合もやはり相手方のユーザと映像および音声でコミュニケーションを取りながら互いに同じ動画像コンテンツを同時に閲覧していくことができるため、遠隔した当事者同士が同じ動画像についてリアルタイムで対話することができる。
あるいは、例えば、通信端末1aにおいて、映像コンテンツの入力元として「Webサーバ」すなわちWebコンテンツサーバ90がモニタ5aのコンテンツ表示エリアMから選択されたとする(図19)。この場合、Webコンテンツサーバ90に記憶されているWebコンテンツ(例えばWebページ)のコンテンツ名の一覧がモニタ5bのコンテンツメニュー表示エリアMに表示される(図示は省略)。
通信端末1bにおいて、この一覧から所望のコンテンツ名をリモコン60の操作で選択すると、選択されたコンテンツ名を示す操作特定信号が通信端末1aに送信される。通信端末1aは操作特定信号を受信すると、操作特定信号に従って、通信端末1bで選択されたコンテンツ名と該コンテンツ名の付与されたコンテンツを特定し、このWebコンテンツをWebコンテンツサーバ90からダウンロードした上、このダウンロードしたWebコンテンツを動画像としてストリーム送信する。通信端末1bのモニタには、選択されたWebコンテンツが映像コンテンツとして表示されるとともに、相手方のカメラ4aで撮像した被写体も表示される(図20)。リモコン60による表示モード切り替えに応じて、Webコンテンツの表示位置を表示エリアX1に、相手方の被写体映像を表示エリアX2に表示してもよい(図21)。
また、通信端末1bは、自分方のリモコン60等から入力された操作状態を示す映像(ポインタなど)を、通信端末1aから受信した映像と合成して表示してもよい(図21)。こうすると、通信端末1bで、相手方から受け取った映像に対する自分の操作状況がよく分かる。
ただし、通信端末1aから指定された入力フォームへの情報が、通信端末1bに送られると不都合な場合もあるので、通信端末1aのリモコン60などの操作によって許可が入力された場合にのみWebコンテンツをストリーム送信してもよい。
また、Webコンテンツのアクセスに関しても、無制限に認めると不都合なので、通信端末1aのリモコン60などの操作によって許可が入力された場合にのみWebコンテンツをストリーム送信してもよい。
いずれにせよ、この場合もやはり相手方のユーザと映像および音声でコミュニケーションを取りながら互いに同じWebコンテンツを同時に閲覧していくことができるため、遠隔した当事者同士が同じWebコンテンツについてリアルタイムで対話することができる。
第1実施形態に係る映像音声通信システムのブロック図 通信端末のブロック図 モニタ5に表示される画面の一例を示す図 全画面自分映像表示モードの概念説明図 全画面相手映像表示モードの概念説明図 PoutP画面(通常対話)表示モードの概念説明図 PoutP画面(コンテンツ対話(1))表示モードの概念説明図 PoutP画面(コンテンツ対話(2))表示モードの概念説明図 全画面(コンテンツ対話(3))表示モードの概念説明図 表示エリアを画定するタイルの概念説明図 符号化部の詳細ブロック図 通信端末の動作を示すフローチャート コンテンツ映像入力元として「スチル」すなわちデジタルスチルカメラが選択された状態を示す図 選択された静止画像のストリーム動画像が映像コンテンツとして表示されるとともに、相手方のカメラで撮像した被写体も表示された状態を示す図 コンテンツ映像入力元として「DV」すなわちデジタルビデオカメラが選択された状態を示す図 選択された動画像のストリーム動画像が映像コンテンツとして表示されるとともに、相手方のカメラで撮像した被写体も表示された状態を示す図 コンテンツ映像入力元として「コンテンツサーバ」すなわちストリーミングサーバが選択された状態を示す図 選択された動画像が映像コンテンツとして表示されるとともに、相手方のカメラで撮像した被写体も表示された状態を示す図 コンテンツ映像入力元として「Webサーバ」すなわちWebコンテンツサーバが選択された状態を示す図 選択されたWebコンテンツが映像コンテンツとして表示されるとともに、相手方のカメラで撮像した被写体も表示された状態を示す図 自分方のリモコン等から入力された操作を示す映像を、相手方の通信端末から受信した映像と合成して表示した状態を示す図
符号の説明
11a:自分方表示モード通知部、11b:相手方表示モード検出部、11e:符号化制御部、11f:操作特定信号送信部

Claims (8)

  1. 被写体映像と映像コンテンツとを送信する送信側端末と、前記送信側端末から被写体映像と映像コンテンツとを受信して画面に表示する受信側端末とを備える通信システムであって、
    前記受信側端末は、前記画面に表示された映像コンテンツに関する各種の入力操作を受け付ける受信側操作部と、前記受信側操作部に入力された映像コンテンツに関する操作を特定する信号である操作特定信号を前記送信側通信端末に送信する操作特定信号送信部とを備え、
    前記送信側端末は、前記操作特定信号を受信する操作特定信号受信部と、前記操作特定信号受信部の受信した操作特定信号に従って前記受信側端末における前記映像コンテンツに関する操作を特定し、特定された前記受信側端末における操作を入力操作と見なす送信側操作部とを備える通信システム。
  2. 前記受信側端末は前記映像コンテンツと前記受信側操作部の受け付けた映像コンテンツに関する入力操作を示す映像とを合成して前記画面に表示する請求項1に記載の通信システム。
  3. 前記送信側端末は、1または複数の映像コンテンツの入力系統の一覧を画面に表示し、前記画面に表示された映像コンテンツの入力系統の一覧から前記送信側操作部への入力操作により任意に指定された入力系統の映像コンテンツを、前記受信側端末に送信する請求項1または2に記載の通信システム。
  4. 前記1または複数の映像コンテンツの入力系統は、コンテンツサーバ、Webサーバ、可搬性記録媒体の情報読取装置、スチルカメラもしくはビデオカメラまたはこれらの一部または全部の組み合わせを含む請求項1〜3のいずれかに記載の通信システム。
  5. 前記映像コンテンツに関する各種の入力操作は、プリント注文する画像の指定、再生映像の指定、映像コンテンツデータの元データのダウンロード要求を含む請求項1〜4のいずれかに記載の通信システム。
  6. 被写体映像と映像コンテンツとを相手方の通信端末に送信する通信端末であって、
    前記相手方の通信端末に入力された、前記映像コンテンツに関する操作を特定する信号である操作特定信号を前記相手方の通信端末から受信する操作特定信号受信部と、
    前記操作特定信号受信部の受信した操作特定信号に従って前記相手方の通信端末における前記映像コンテンツに関する操作を特定し、特定された前記相手方の通信端末における操作を入力操作と見なす前記送信側操作部と、
    を備える通信端末。
  7. 相手方の通信端末から、被写体映像と映像コンテンツとを受信して画面に表示する通信端末であって、
    前記画面に表示された映像コンテンツに関する操作を特定する信号である操作特定信号を前記相手方の通信端末に送信する操作特定信号送信部を備える通信端末。
  8. 被写体映像と映像コンテンツとを送信する送信側端末と、前記送信側端末から被写体映像と映像コンテンツとを受信して画面に表示する受信側端末とを備える通信システムで用いられる通信方法あって、
    前記受信側端末の画面に表示された映像コンテンツに関する入力操作を受け付けるステップと、
    受け付けられた映像コンテンツに関する操作を特定する信号である操作特定信号を送信するステップと、
    前記操作特定信号を受信するステップと、
    受信した操作特定信号に従って前記受信側端末における前記映像コンテンツに関する操作を特定し、特定された前記受信側端末における操作を前記送信側端末における入力操作と見なすステップと、
    を含む通信方法。
JP2006022963A 2006-01-31 2006-01-31 通信システム、通信端末および通信方法 Abandoned JP2007208458A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006022963A JP2007208458A (ja) 2006-01-31 2006-01-31 通信システム、通信端末および通信方法
US11/700,047 US20070188594A1 (en) 2006-01-31 2007-01-31 Communication system, communication terminal and communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006022963A JP2007208458A (ja) 2006-01-31 2006-01-31 通信システム、通信端末および通信方法

Publications (1)

Publication Number Publication Date
JP2007208458A true JP2007208458A (ja) 2007-08-16

Family

ID=38367946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006022963A Abandoned JP2007208458A (ja) 2006-01-31 2006-01-31 通信システム、通信端末および通信方法

Country Status (2)

Country Link
US (1) US20070188594A1 (ja)
JP (1) JP2007208458A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009213115A (ja) * 2008-02-05 2009-09-17 Konica Minolta Business Technologies Inc 画像配信装置、画像配信方法および画像配信プログラム
JP2009284106A (ja) * 2008-05-20 2009-12-03 Konica Minolta Business Technologies Inc 画像処理装置、画像出力方法および画像出力プログラム
JP2009290388A (ja) * 2008-05-28 2009-12-10 Hitachi Ltd 携帯電話向け動画蓄積編集閲覧システム
JP2014086774A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JPWO2013098896A1 (ja) * 2011-12-28 2015-04-30 パナソニックIpマネジメント株式会社 テレビジョン受像装置及びテレビジョン受像装置の制御方法
JP2015115724A (ja) * 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末、及びプログラム
JP2015115723A (ja) * 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム
JP2015119335A (ja) * 2013-12-18 2015-06-25 Kddi株式会社 動き変化量に応じて撮影動画像のフレームを間引く端末、システム、プログラム及び方法
US9154729B2 (en) 2011-12-28 2015-10-06 Panasonic Intellectual Property Management Co., Ltd. Television receiving apparatus and control method for television receiving apparatus
JP2015222567A (ja) * 2014-04-30 2015-12-10 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287065A (ja) * 2006-04-20 2007-11-01 Sony Corp 電子機器及びログ出力方法
US9680964B2 (en) * 2009-03-11 2017-06-13 Microsoft Technology Licensing, Llc Programming model for installing and distributing occasionally connected applications
US8812451B2 (en) 2009-03-11 2014-08-19 Microsoft Corporation Programming model for synchronizing browser caches across devices and web services
JP5652047B2 (ja) * 2010-08-13 2015-01-14 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP2012160869A (ja) * 2011-01-31 2012-08-23 Sanyo Electric Co Ltd 画像処理装置
US9648062B2 (en) * 2014-06-12 2017-05-09 Apple Inc. Systems and methods for multitasking on an electronic device with a touch-sensitive display
US11966578B2 (en) 2018-06-03 2024-04-23 Apple Inc. Devices and methods for integrating video with user interface navigation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0235881A (ja) * 1988-07-26 1990-02-06 Pioneer Electron Corp 補間信号生成回路
JPH03157084A (ja) * 1989-07-26 1991-07-05 Hitachi Ltd マルチメデイアテレミーテイング端末装置,端末装置システム,並びにその操作方法
JP2002374508A (ja) * 2001-06-14 2002-12-26 Canon Inc 通信装置、通信システム、映像通信処理方法、記憶媒体、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6369847B1 (en) * 2000-03-17 2002-04-09 Emtel, Inc. Emergency facility video-conferencing system
JP4064652B2 (ja) * 2001-10-12 2008-03-19 株式会社シンクプラス プロキシサーバ付きブラウザおよび情報複写システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0235881A (ja) * 1988-07-26 1990-02-06 Pioneer Electron Corp 補間信号生成回路
JPH03157084A (ja) * 1989-07-26 1991-07-05 Hitachi Ltd マルチメデイアテレミーテイング端末装置,端末装置システム,並びにその操作方法
JP2002374508A (ja) * 2001-06-14 2002-12-26 Canon Inc 通信装置、通信システム、映像通信処理方法、記憶媒体、及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009213115A (ja) * 2008-02-05 2009-09-17 Konica Minolta Business Technologies Inc 画像配信装置、画像配信方法および画像配信プログラム
US8325191B2 (en) 2008-02-05 2012-12-04 Konica Minolta Business Technologies, Inc. Image distribution apparatus, image distribution method, and image distribution program
JP2009284106A (ja) * 2008-05-20 2009-12-03 Konica Minolta Business Technologies Inc 画像処理装置、画像出力方法および画像出力プログラム
US8185474B2 (en) 2008-05-20 2012-05-22 Konica Minolta Business Technologies, Inc. Image processing apparatus, image outputting method, and image outputting program embodied on computer readable medium
JP2009290388A (ja) * 2008-05-28 2009-12-10 Hitachi Ltd 携帯電話向け動画蓄積編集閲覧システム
JPWO2013098896A1 (ja) * 2011-12-28 2015-04-30 パナソニックIpマネジメント株式会社 テレビジョン受像装置及びテレビジョン受像装置の制御方法
US9154729B2 (en) 2011-12-28 2015-10-06 Panasonic Intellectual Property Management Co., Ltd. Television receiving apparatus and control method for television receiving apparatus
JP2014086774A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2015115724A (ja) * 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末、及びプログラム
JP2015115723A (ja) * 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム
JP2015119335A (ja) * 2013-12-18 2015-06-25 Kddi株式会社 動き変化量に応じて撮影動画像のフレームを間引く端末、システム、プログラム及び方法
JP2015222567A (ja) * 2014-04-30 2015-12-10 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
US20070188594A1 (en) 2007-08-16

Similar Documents

Publication Publication Date Title
JP2007208458A (ja) 通信システム、通信端末および通信方法
US11228764B2 (en) Streaming multiple encodings encoded using different encoding parameters
KR101070947B1 (ko) 디지털 스트리밍 포맷들 또는 소스들의 고속 변경을 수용하기 위한 장치, 홈 비디오 서버에 의해 제공되는 비디오 스트림들을 관리하는 방법 및 홈 비디오 서버 시스템
JP2018186524A (ja) コンテンツ送信装置およびコンテンツ再生装置
US8160129B2 (en) Image pickup apparatus and image distributing method
JP2008269174A (ja) 制御装置、方法およびプログラム
WO2014057555A1 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
JP4654918B2 (ja) 情報処理装置及び情報処理システム
KR100410973B1 (ko) 주문형 비디오 시스템에서 동영상의 스트리밍 방법
CN103329521A (zh) 用于暂停视频流传送内容的方法、设备和计算机程序产品
JP2008193510A (ja) 映像送信装置、映像受信装置、及び映像伝送システム
US20050151836A1 (en) Video conferencing system
JP2019083555A (ja) 情報処理装置、コンテンツ要求方法およびコンピュータプログラム
JP2006319643A (ja) 動画通信システム
JP4567646B2 (ja) 動画像・音声再生携帯端末、及び、動画像・音声配信端末、及び、システム
CN112584194A (zh) 视频码流的推送方法、装置、计算机设备和存储介质
US20140298392A1 (en) Image processing device, image processing method, and computer program
JP4799191B2 (ja) 通信端末、通信システムおよび通信方法
JP2005130428A (ja) 双方向画像通信装置、その処理方法及びクライアント装置並びにプログラム
JP5389528B2 (ja) ネットワークデコーダ装置
JP2009171294A (ja) 映像配信システム、映像中継装置、及び映像中継方法
JPH11331843A (ja) 大きな画像から無制限の選択された画像ビュ―を生成する方法および装置
JP3975909B2 (ja) 撮像装置、記録装置および再生装置
JP2005045666A (ja) トランスコーダ
JP2007110586A (ja) 映像配信システム、映像配信サーバ、映像配信方法、映像配信プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110518

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110621