JP2010087907A - 映像合成表示装置、映像表示システム及び映像表示方法 - Google Patents

映像合成表示装置、映像表示システム及び映像表示方法 Download PDF

Info

Publication number
JP2010087907A
JP2010087907A JP2008255575A JP2008255575A JP2010087907A JP 2010087907 A JP2010087907 A JP 2010087907A JP 2008255575 A JP2008255575 A JP 2008255575A JP 2008255575 A JP2008255575 A JP 2008255575A JP 2010087907 A JP2010087907 A JP 2010087907A
Authority
JP
Japan
Prior art keywords
person
display
video
area
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008255575A
Other languages
English (en)
Inventor
Takashi Oya
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008255575A priority Critical patent/JP2010087907A/ja
Priority to US12/562,530 priority patent/US8467509B2/en
Publication of JP2010087907A publication Critical patent/JP2010087907A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact

Abstract

【課題】複数のコンテンツを合成して表示する場合において、人物を含む映像のコンテンツ等の複数のコンテンツの視認性を向上させることを目的とする。
【解決手段】グラフィック及びテキストの少なくとも一つを含む情報を映像に合成して表示する映像合成表示装置であって、前記映像に含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報の領域とを重複しないように表示する表示処理手段を有することを特徴とする。
【選択図】図3

Description

本発明は、人物を含む複数の映像を合成して表示する映像合成表示装置、映像表示システム、映像表示方法、プログラム及び記録媒体に関するものである。
テレビ放送やビデオ会議において、複数のライブ映像や、ライブ映像とテキスト・グラフィック等とを合成する技術が広く使用されている。このような技術としては、画面分割による複数地点映像の合成、ピクチャーインピクチャー合成及びクロマキー合成等がある。
例えば、特許文献1には、ビデオ会議において、二分割した画面に人物映像とドキュメント映像とをそれぞれ表示する技術が開示されている。また、例えば、特許文献2には、二地点間のテレビ電話において、話者を共通の背景上に配置する技術と、蓄積画像を背景として相手映像をピクチャーインピクチャー形式で表示する技術とが開示されている。更に、例えば、特許文献3には、ビデオ会議において、人物の周囲に吹き出し等のグラフィック又はテキストを配置する技術が開示されている。
特開平08−79721号公報 特許第2849119号公報 特開2004−72310号公報
しかしながら、ライブ映像中の人物を抜き出して別の背景映像と合成するクロマキー合成では、特定の色(クロマ)を検出して背景領域を求めている。したがって、背景に文書等を表示する場合には、背景全体に文書を表示すると重要な部分が前景の人物に隠される場合がある。また、背景を機械的に別の映像に置換するものなので、前景の位置や境界を考慮して、背景に文書やテキストを配置する用途には適さない。
一方、画面を複数に分割して人物と文書とを表示する方法があるが、所定の形状に分割された画面上に人物映像や文書映像を表示するため、必ずしも画面全体を有効に使用しているとは限らない。また人物領域を検出して、背景領域に図形やテキストを配置する技術があるが、内容が多い文書の場合には空き領域が狭くて全体を表示できない場合がある。
本発明は、上述したような問題点に鑑みてなされたものであり、複数のコンテンツを合成して表示する場合において、人物を含む映像のコンテンツ等の複数のコンテンツの視認性を向上させることを目的とする。
本発明は、グラフィック及びテキストの少なくとも一つを含む情報を映像に合成して表示する映像合成表示装置であって、前記映像に含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報の領域とを重複しないように表示する表示処理手段を有することを特徴とする。
本発明は、送信装置と受信装置とを有する映像表示システムであって、前記送信装置は、映像を前記受信装置に送信する送信手段を有し、前記受信装置は、前記送信手段により送信された映像に含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報の領域とを重複しないように表示する表示処理手段を有することを特徴とする。
本発明は、グラフィック及びテキストの少なくとも一つを含む情報を映像に合成して表示する映像合成表示装置における映像表示方法であって、前記映像のコンテンツに含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報とを重複しないように表示する表示処理ステップを有することを特徴とする。
本発明は、グラフィック及びテキストの少なくとも一つの情報を映像に合成して表示させるためのプログラムであって、コンピュータに前記映像のコンテンツに含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報とを重複しないように表示する表示処理ステップを実行させるためのプログラムである。
本発明によれば、映像、グラフィック及びテキストの少なくとも一つを含む複数のコンテンツを合成して表示する場合において、人物を含む映像のコンテンツ等の複数のコンテンツの視認性を向上させることができる。
以下、本発明に係る実施形態について図面を参照して説明する。
(第1の実施形態)
本実施形態では、人物の背景領域に文書(テキスト)およびグラフィック等のコンテンツ(情報)を配置する合成表示方式において、人物とコンテンツとの双方の視認性がよい表示方式について説明する。なお、合成においては、人物の境界領域を計測し、人物領域とコンテンツ領域とが重複しないように双方を配置する。このとき、人物領域が所望の配置となるようにカメラのパン、チルト、ズームを制御することによって、広い背景領域を設ける。
本実施形態に係る映像表示システムを構成する端末装置の機能構成(一部ハードウェア構成を含む)を図1及び図2に示す。なお、図1及び図2では、本実施形態の説明に関係する部分のみ示している。また、本実施形態では、映像表示システムの用途としてビデオ会議(テレビ会議)を取り上げて説明する。
映像表示システムは、送信装置100と受信装置200とを含んで構成されている。通常、ビデオ会議では、送信装置100と受信装置200とが、それぞれ一体化されて構成されている。
まず、図1に示す送信装置100は、映像及び音声を取得して、相手端末に送信するものである。送信装置100には、撮像装置(カメラ)10とマイクロホン20とが接続されている。なお、カメラ10は、送信装置100に一体的に構成されていてもよい。
送信装置100は、映像取得部111、映像符号化部112、音声取得部121、音声符号化部122、撮像装置制御部130、データ会議通信制御部150、通信インターフェース160を含んで構成されている。
映像取得部111は、カメラ10により生成された映像を取得する。映像符号化部112は、映像取得部111経由で入力された映像情報を符号化する。ここで、映像符号化の方式としては、MotionJPEG、MPEG−2、MPEG−4、H.264等の方式があるが、特定の符号化方式に限定されるものではない。
また、音声取得部121は、マイクロホン20により集音された音声を取得する。音声符号化部122は、音声取得部121により取得された音声情報を符号化する。ここで、音声の符号化方式としては、G.711やG.722等の方式があるが、特定の符号化方式に限定されるものではない。符号化された音声及び映像は、通信インターフェース160経由でインターネット等のネットワーク経由で相手端末に送信される。
カメラ10は、相手端末からネットワーク経由でパン、チルト、ズーム制御可能である。すなわち、送信装置100は、相手端末から通信インターフェース160経由で制御命令を受信し、撮像装置制御部130が、その制御命令を解釈して、カメラ10の制御を実行する。なお、ビデオ会議では、自端末と相手端末との間で、文書や画像等のデータ共有が行われる。すなわち、例えば共有ホワイトボード機能等を用いて、自端末と同一の画像を相手端末に表示したりする。データ会議通信制御部150は、このような画像や文書等のデータを共有する制御を行う。なお、データ共有のプロトコルにはT.120がある。また、表示するデータは、必ずしも相手端末から取得する必要はなく、例えば、受信装置200内部にあるデータを表示してもよいし、各種の設定情報やメッセージを表示してもよい。
次に、図2に示す受信装置200は、送信装置100から送信された映像及び音声等を受信するものである。また、受信装置200は、映像、グラフィック(画像)及びテキスト(文書)の少なくとも一つを含む複数のコンテンツを合成して表示する映像合成表示装置としての機能を有する。
受信装置200には、表示装置(ディスプレイ)30、スピーカ40、リモコン等の外部入力機器271、外部記憶装置261が接続されている。なお、ディスプレイ30は、受信装置200に一体に構成されていてもよい。また、受信装置200は、映像復号化部210、人物領域特定部211、データ会議通信制御部212、コンテンツ解析部213、合成部214を含んでいる。また、受信装置200は、ビデオRAM216、ディスプレイ制御部215、音声復号化部220、映像音声同期部221、音声バッファ222、通信インターフェース290、外部記憶制御部260、入力機器制御部270を含んで構成されている。
受信装置200は、送信装置100から送信された映像、音声及び文書等のデータを通信インターフェース290経由で受信する。受信装置200は、各データを受信した後、データの種類ごとにそれぞれ復号化を行う。例えば、映像のコンテンツは、映像復号化部210で復号化を行う。その後、人物領域特定部211において、復号化された映像データから人物領域を抽出して、特定する。ここで、人物領域の抽出方法としては、顔検出による方法や上体検出による方法がある。これらの検出方法の詳細については、後述する。
一方、文書や静止画像等のコンテンツは、データ会議通信制御部212で復号化される。その後、コンテンツ解析部213は、復号化された文書内容を解析する。例えば、文書のコンテンツの場合、コンテンツ解析部213は、文書を構成するフォントサイズやレイアウト等を解析する。その後、合成部214は、人物を含む映像と文書との配置を決定し、1つの映像に合成する。なお、レイアウトや合成の具体的な方法については後述する。
この後、合成した映像は、ビデオRAM216に記憶される。そして、ディスプレイ制御部215は、ビデオRAM216に記憶されている合成した映像をディスプレイ30に表示する。なお、ディスプレイ制御部215は、ディスプレイ30に表示する表示タイミング等を制御する。また、音声は、音声復号化部220で復号化される。また、映像音声同期部221において、映像との間で再生タイミングを図りながら、音声バッファ222を介してスピーカ40で再生する。また、外部記憶制御部260は、ハードディスク等の外部記憶装置261に記憶されたデータの読み出しや書き込みを制御する。また、入力機器制御部270は、ユーザによる入力機器271を介した入力を制御する。
なお、送信装置100及び受信装置200の内部構成としては、不図示のCPU、ROM、RAM、バス等により構成されている。図1及び図2に示す送信装置100及び受信装置200の機能構成は、それぞれのCPUがROM等や外部記憶装置261に記憶されているプログラムを実行することにより実現する。なお、送信装置100及び受信装置200の構成は、例えばPCや組み込みボードを用いて実現可能である。例えば、映像符号化部112、音声符号化部122、映像復号化部210、音声復号化部220は、専用のコーデックチップにより実現することができる。同様に、人物領域特定部211は、専用の画像処理チップにより実現することができる。
次に、図3及び図4を参照して、本実施形態に係る人物を含む映像のコンテンツと文書を含むコンテンツとの合成方法の一例について説明する。
まず、図3は、人物を撮影したカメラ10の映像310において、人物領域の配置を変更する方法を説明するための図である。図3に示す映像310は、カメラ10によって撮影された原映像である。また、図3に示す画面350は、人物領域の配置が変更された後の映像である。
まず、映像310では、人物は中央に配置されているため、人物の背景領域に文書を配置する領域が少ない。したがって、以下に説明する二つの方法により、図4に示すような配置にする。図4は、各コンテンツの配置の一例を示す図である。画面400は、ディスプレイ30の表示領域である。画面400では、人物431,432を表示範囲における右下に配置し、その背景領域に複数の文書のコンテンツ410、420を配置している。図4では、人物領域と文書のコンテンツ領域とが重複しないように配置されている。なお、図4では、文書のコンテンツ410、420を配置しているが、例えば、画像(グラフィック)や映像等のコンテンツであってもよい。
まず、第一の方法は、画像処理により人物領域の位置及びサイズ等を変更する方法である。すなわち、図3に示す人物周辺の領域320、すなわち人物領域(顔領域)311、312を含むような領域320を切り出し、電子的に拡大、縮小及び平行移動を施す。この処理は、領域変更手段の一例に対応する。そして、画面350に示すように表示領域に対して新たな位置に人物領域を含むように領域352を配置する。次に、第二の方法は、カメラ制御により人物領域の位置及びサイズ等を変更する方法である。すなわち、カメラ10のパン、チルト及びズームのうち少なくとも何れか一つを制御する。この処理は、撮像装置制御手段の一例に対応する。そして、画面350に示す領域352の位置に、人物が映るように配置する。第一の手段及び第二の手段の何れかの方法であっても、顔検出又は上体検出を行って、人物領域を特定する。これらの検出処理は、目、眉、鼻、口、肩等の部分の特徴を画像中から検出し、人物の存在する位置を特定するものであり、その機能は、既に例えばデジタルカメラ等に搭載されている。
次に、第一の方法と第二の方法との違いについて説明する。
まず、第一の方法では、図3に示す背景領域1は実映像であるが、背景領域2は実映像ではない。一方、第二の方法では、背景領域1及び背景領域2共に、実映像を利用することができる。したがって、第二の方法では、図4に示す文書のコンテンツ410、420を配置し、文書を透過表示する場合等に、自然な合成映像を生成することが可能である。
また、第一の方法では、拡大、縮小及び平行移動処理が毎フレーム必要である。一方、第二の方法では、毎フレームごとの処理は、必要ではない。しかし、第二の方法は、カメラ10の制御が必要であるため、共有表示を希望しない端末に対しても、画面350のような映像が送信されてしまう。また、カメラ10の制御を行うときに制御権を必要とするシステム構成の場合、制御権が取得できない場合があり、この場合、第一の方法を採用する。
次に、第二の方法における、カメラ制御量について説明する。
図3において、制御前の人物サイズをH0とし、制御後のサイズをH1とする。また、移動前の人物位置を(x0,y0)とし、移動後の人物位置を(x1,y1)とする。また、制御前のパン、チルト、ズーム倍率を(P0,T0,Z0)とし、制御後のパン、チルト、ズーム倍率を(P1,T1,Z1)とする。ここで、P1,T1,Z1の概算値は、以下の式により導出される。
P1=P0+tan-1(x1/Z1/F)−tan-1(x0/Z0/F)
T1=T0+tan-1(y1/Z1/F)−tan-1(y0/Z0/F)
Z1=Z0×H1/H0
(式1)
但し、Fは、倍率1のときの焦点距離(画素)である。人物の位置(x,y)は、画面中央を中心とし、向かって右方向をx軸の正方向とし、向かって上方向をy軸の正方向とする。また、カメラを横から見て、上方向への回転をチルト回転の正方向とし、カメラを上から見て、時計回りをパン回転の正方向とする。なお、画像の歪等による計測位置のずれは無視している。
また、顔、図形又は文字を表示する際の視認性を保つためには、一定の解像度及び物理サイズを維持する必要がある。これは、顔、図形又は文字の解像度及び実環境での表示サイズによって決定される。前者を論理表示サイズ、後者を物理表示サイズという。受信装置200は、論理表示サイズを算出する。この処理は、論理表示サイズ算出手段の一例に対応する。また、受信装置200は、物理表示サイズを算出する。この処理は、物理表示サイズ算出手段の一例に対応する。また、受信装置200は、各サイズの下限値を設定する。この処理は、下限設定手段の一例に対応する。
例えば、顔に関しては、論理表示サイズとして縦横の画素数(Fh、Fv)を選択する。
また、物理サイズとしては代表的な視点から顔を見込む角度(θh、θv)を選択する。ここで、図5に視点と表示領域のサイズとの関係を示す。図5は、ユーザがディスプレイを水平方向から見ている状態の実配置を示す図である。代表的な視点は、端末の設置されている会場における座席位置から求めることができる。視点からディスプレイ(スクリーン)までの距離をLとする。また、ディスプレイの単位長さあたりの表示画素数を(Rh,Rv)(pixel/m)とすると、顔を見込む角度(θh、θv)の概算値は、以下の式により導出される。
θh=2tan-1(Fh/Rh/2L)
θv=2tan-1(Fv/Rv/2L)
(式2)
となる。従って、人物画像を配置する場合に、(θh、θv)の下限値を割り込まないように、縮小倍率又はズーム倍率を設定、制御する必要がある。すなわち、受信装置200は、論理表示サイズ及び物理表示サイズを算出するときには、下限以上になるようにして表示レイアウトを決定する。
以上の理論は、文書における文字フォントに関しても適用することができる。すなわち、各文字の視認性を保つための物理表示サイズを定める。文字の場合も、顔と同様にフォントサイズから物理表示サイズを算出可能である。従って、文書全体を表示する場合に最低限必要な論理表示サイズ及び物理表示サイズを算出できる。このようにすることで、顔の視認性を損なわない範囲で文書画像の表示サイズを定めることができる。
なお、例えば、受信装置200は、所望する文書画像の物理表示サイズを確保できない場合、人物画像の物理表示サイズを優先させて、人物画像を表示するものとする。すなわち、受信装置200は、人物画像の物理表示サイズを優先させるように、表示レイアウトを決定する。そして、受信装置200は、文書画像を、表示領域にそのままで、拡大、縮小及び縦横スクロール処理の少なくとも一つを行い、文書の一部分を表示すればよい。このとき、受信装置200は、文書画像を、下限以上で設定した論理表示サイズ及び物理表示サイズで表示する。ここで、縦横スクロール処理とは、所定のコンテンツ領域に表示しきれないコンテンツの内容の一部を表示するように、コンテンツの内容をスクロールさせて表示させる処理をいう。ここで、スクロールさせる方法は、自動的にスクロールさせてもよく、ユーザによるスクロールバー等の入力の操作に応じて、スクロールさせてもよく、どのような方法であってもよい。
また、ネットワーク経由での映像を配信する場合、符号化の際の画質も考慮する必要がある。例えば、JPEGの場合、Q値(Quality Number)の設定により画質が大きく変化する。所定のレベルでの視認性を確保するためには、例えば、JPEGでQ値の最低値を設定する等、符号化時の符号化画質及び帯域の少なくとも一つの設定を併せて行う。これは受信装置200から送信装置100に対して設定を要求する設定要求情報を送信することにより行う。この処理は、設定要求情報送信手段の一例に対応する。また、送信装置100では、この設定要求情報に基づいて、例えば、映像符号化部112が映像に対して符号化時の符号化画質又は帯域の設定を行うことで実現することができる。この処理は、設定手段の一例に対応する。
以上、説明した方法をビデオ会議に適用した場合、送信装置100と受信装置200との動作処理について、図6に示すシーケンス図を参照して説明する。
図6では、送信装置100と受信装置200と間のシーケンスを示したものであるが、通常の会議端末は両方の機能を同時に備えるのが通常であり、送信装置100と受信装置200とが対向で利用されるものと考えてよい。
まず、ステップS601では、受信装置200は、装置の初期化処理を行う。また、ステップS602では、送信装置100は、装置の初期化処理を行う。
次に、ステップS603では、受信装置200は、送信装置100に対して接続要求を行う。
ステップS604では、送信装置100は、接続を許可する旨の信号を受信装置200に返信する。この処理により、ステップS605において、送信装置100と受信装置200との接続が確立する。なお、端末間の接続制御には、H.323やSIP(Session Initiation Protocol)が用いられるが、特定の接続制御プロトコルに限定されるものではない。ここでは、説明の都合上、受信装置200から送信装置100に対して接続要求を行うものとしてが、実際は、接続が確立するまでは、送信・受信の区別はなく、受信装置200以外の制御部分が接続処理を行ってもよい。
次に、ステップS607では、受信装置200は、送信装置100に対してカメラ10の制御権を要求する。
次に、ステップS608では、送信装置100は、カメラ制御の許可又は不許可の信号を返信する。
次に、ステップS609では、受信装置200は、その信号を取得して、その内容を判定する。この処理は、取得判定手段の一例に対応する。
続いて、受信装置200は、判定結果に基づいて、画面合成モードを選択する。画面選択モードは、図3及び図4で説明したように、人物領域の配置を変更するときに、画像処理により配置するか、カメラ制御により配置するかを選択するモードである。ここで、受信装置200は、送信装置100からカメラ制御の許可を示す信号を受信した場合、すなわちカメラ制御権を取得した場合、カメラ制御により人物領域を配置するモードを選択する。一方、受信装置200は、送信装置100からカメラ制御の不許可を示す信号を受信した場合、人物領域を電子的に変更して配置するモードを選択する。
次に、ステップS610では、送信装置100は、人物の映像データを送信する。ステップS611では、受信装置200は、人物の映像データを受信する。
また、ステップS612では、送信装置100は、文書データを送信する。ステップS613では、受信装置200は、文書データを受信する。なお、図示しないが、人物の映像データの受信は連続して行われる。
ステップS615では、受信装置200は、人物検出処理を行う。また、受信装置200は、図4に示すような人物領域とその他のコンテンツ領域とが重複しないように表示レイアウトを決定する。具体的には、例えば、人物領域とコンテンツ領域とを、所定の距離、離間させて表示レイアウトを決定する。この処理は、表示レイアウト決定手段の一例に対応する。このとき、受信装置200は、上述のように算出した論理表示サイズや物理表示サイズに基づいて、表示レイアウトを決定する。
次に、ステップS617では、受信装置200は、送信装置100に対してカメラ制御要求を行う。なお、受信装置200が、カメラ制御権を有していない場合、上述したように、画像処理により人物領域の配置を行う。
ステップS618では、送信装置100は、受信装置200からのカメラ制御要求に基づいて、カメラ10に対してパン、チルト及びズームの制御を行う。
カメラ動作後、ステップS620では、送信装置100は、人物の映像データを送信する。
ステップS621では、受信装置200は、人物の映像データを受信する。
ステップS622では、受信装置200は、決定した表示レイアウトに基づいて、文書のデータ及び人物の映像データを合成する。
ステップS623では、受信装置200は、合成した映像をディスプレイ30に表示する。この処理は、表示処理手段の一例に対応する。
次に、受信装置200の動作処理について図7に示すフローチャートを参照して説明する。図7に示すフローチャートは、例えば、受信装置200の外部記憶装置261に記憶されているプログラムを受信装置200のCPUが実行することにより実現する。なお、プログラムは、同時並行的に動作する複数の実行単位から構成される。本実施形態では、本発明に関わる部分として、メインスレッドと表示スレッドとの動作手順に限定して説明する。
まず、メインスレッドにおいて、ステップS701では、受信装置200は、装置の初期化を行う。
次に、ステップS702では、受信装置200は、相手端末すなわち送信装置100に対して接続要求を行う。
次に、ステップS703において、受信装置200は、接続が成功したか否かを判定する。接続が成功した場合、ステップS704に処理を進める。接続が成功しない場合、ステップS702において、受信装置200は、再び接続を要求する。
ステップS704では、受信装置200は、送信装置100に対してカメラ10の制御権を要求する。なお、送信装置100とカメラ10とが一体的に構成されている場合、受信装置200は、カメラ10に対して制御権を要求する。このとき、制御権を取得できるか否かにより、後述する表示スレッドの処理が一部異なってくる。
次に、ステップS705では、受信装置200は、相手端末すなわち送信装置100からの映像データの取得を開始する。
また、ステップS706では、受信装置200は、文書データの共有を開始する処理を行う。この処理は、相手端末との間で特定の文書データの共有処理を指示するものである。文書の実データが記憶されている装置は、自端末である受信装置200であっても、相手端末である送信装置100の何れかであってもよい。共有が開始されると、文書データが追加される等、更新された場合、相互に通知が行われる。
次に、ステップS707では、受信装置200は、文書データの共有の処理が終了したか否かを判定する。終了した場合、ステップS708に処理を進める。終了していない場合、終了するまで待機する。
ステップS708では、受信装置200は、メインスレッドの処理を終了する。
続いて、文書のコンテンツ領域すなわち文書領域と人物領域との合成及び表示を行う、表示スレッドについて説明する。
まず、ステップS710では、受信装置200は、映像データを受信したか否かを判定する。映像データを受信した場合、ステップS711に処理を進める。映像データを受信しない場合、ステップS713に処理を進める。
ステップS711では、受信装置200は、受信した映像中の人物を検出する。ここで、受信装置200は、映像に含まれる人物の顔又は上半身に基づいて、単数又は複数の人物を検出する。この処理は、人物検出手段の一例に対応する。
次に、ステップS712では、受信装置200は、人物検出結果を解析し、人物情報に変化があったか否かを判定する。人物情報に変化があった場合、ステップS720に処理を進める。
ステップS720では、受信装置200は、人物情報に基づいて、人物領域を特定し、表示レイアウトを算出する。ステップS712において、人物情報に変化がない場合、ステップS713に処理を進める。
ステップS713では、受信装置200は、文書データを受信したか否かを判定する。文書データを受信した場合、ステップS714に処理を進める。
ステップS714では、受信装置200は、文書データを解析して、文書のフォントサイズや使用領域等を検出する。
解析後、ステップS720に処理を進め、人物領域や文書領域に基づいて、表示レイアウトを算出する。このように人物領域又は文書領域の少なくとも一つが変化した場合、受信装置200は、表示レイアウトの再計算を行う。
次に、ステップS721では、受信装置200は、カメラ制御権を取得しているか否かを確認する。制御権を取得している場合、ステップS722に処理を進める。ステップS722では、受信装置200は、ステップS720で算出した表示レイアウトの計算結果に基づいて、送信装置100に対してカメラ制御要求を行う。すなわち、カメラ制御により、カメラ10にパン、チルト及びズームの動作を行わせ、映像における人物領域を変更させ、表示領域に再配置する。
ステップS721において、制御権を取得していない場合、画像処理により人物領域を再配置して、ステップS723に処理を進める。
ステップS723では、受信装置200は、再配置した人物領域を含む映像と文書とを合成する。
ステップS724では、受信装置200は、合成した映像と文書とをディスプレイ30に表示する。表示した後、ステップS710に処理を戻し、次のイベント処理を行う。なお、ステップS713において、受信装置200が、文書データを受信していないと判定した場合、ステップS715に処理を進める。ステップS715では、受信装置200は、その他のイベント処理を行う。
このように、本実施形態によれば、人物を所定のサイズに維持したまま、ディスプレイ30の表示領域の隅に移動させ背景領域に文書のコンテンツ等の他のコンテンツを合成して表示する。したがって、人物の映像と文書のコンテンツ等の複数のコンテンツを視認するときの視認性を向上させることができる。
また、人物領域と文書のコンテンツ領域等の他のコンテンツ領域とが重複しないように表示レイアウトを決定する。具体的には、例えば、人物領域とコンテンツ領域とを、所定の距離、離間させる等して表示レイアウトを決定するので、ディスプレイの表示画面を有効に利用することができる。
また、人物の物理表示サイズの下限を定め、下限以下に画像処理をしたり、カメラ制御をしたりしないようにすることで、人物をディスプレイに表示したときの視認性を向上させることができる。
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態では、一定時間の人物領域の観測値に基づいて、文書のコンテンツ等のその他のコンテンツを配置するコンテンツ領域を算出する。具体的には、人物領域と他のコンテンツ領域とのマージンを算出する処理が追加されたものである。
図3を参照して、配置の方法について説明する。
図3において、受信装置200は、映像中に二つの顔領域311、312を検出している。また、図3では、人物は着座しているものの、完全に静止しているわけではないため、画面上において人物の顔の位置は、常に微少変動する。したがって、文書領域等を配置するときに、文書領域と人物領域とを接近させすぎると、人物が人物領域外に出たり、人物が文書領域を隠したりする問題が生じる。本実施形態では、この問題を解決するために、人物領域と他のコンテンツ領域との間に適切なマージンを配置する。
本実施形態では、単に一枚の映像から人物領域を決定するのではなく、一定時間顔検出を行い、画面上で顔領域となる確率が一定値以上の領域を人物領域とする。以下、このような人物領域を特定する方法について、具体的に説明する。
まず、受信装置200が、顔検出の結果として顔領域を矩形の領域で取得した場合、当該矩形の周囲DO画素の領域を計測領域(候補領域)として設定する。なお、複数の顔を対象にすることも可能である。この場合、例えば、検出した複数の顔を含む任意の領域を設定し、この領域の周囲DO画素の領域を計測領域として設定する。この処理は、候補領域設定手段の一例に対応する。
次に、受信装置200は、一定時間Tの間、計測領域内における顔の検出を行う。ここで、取得したフレームにおいて、候補領域を構成する画像要素(画素)ごとに、顔を検出した検出回数を1(フレーム)加算する。受信装置200は、計測中のフレーム数をNとすると、0からNまでの間に、検出回数の統計量を取得することができる。この処理は、計測手段の一例に対応する。
次に、受信装置200は、計測結果に基づいて、所定値Th以上の検出回数の画素の領域を特定する。Thは、フレーム数からTh=r×Nにより算出することができる。ここで、rは、検出率であり、例えば、一定確率以上として例えば、90%以上とする場合、0.9を用いる。なお、投票を行う単位として、画素以外にもJPEG等の符号化ブロック単位又は任意形状の領域等を用いることもできる。
この結果、受信装置200は、検出率r以上の確率で、顔として検出される画素の集合の領域を算出することができる。なお、このようにして求めた領域には、通常、突起や穴を有するために、例えばモルフォロジカルオペレータによる膨張・縮退処理を施して、平滑化を行う。また、複数の領域が得られる場合があるが、これらの領域を包含する領域を判定し、当該領域の外側に一定のマージンD1を設定する。この処理は、領域判定手段の一例に対応する。そして、受信装置200は、一定のマージンを設定した領域を最終的な人物領域として特定する。
受信装置200は、一旦、人物領域を決定したら、第1の実施形態で説明したような、画像処理又はカメラ制御により、人物領域の配置処理を行い、文書領域等の他のコンテンツ領域を含む表示レイアウトを決定することができる。
次に、上述した処理を映像表示システムに適用した場合の動作処理について、図8に示すフローチャートを参照して説明する。
図8に示すフローチャートは、図7に示す表示スレッドのフローチャートにおいて、ステップS712の後に挿入されるものである。
図8に示す動作処理は、数秒程度の時間を要するものであるため、人物に大きな動きがあった場合のみ、実行することが合理的である。
まず、ステップS801では、受信装置200は、映像データを受信したか否かを判定する。映像データを受信した場合、ステップS802に処理を進める。
ステップS802では、受信装置200は、顔検出処理を行う。
次に、ステップS803では、受信装置200は、顔を検出したか否かを判定する。顔を検出しない場合、ステップS801に処理を戻し、次の映像データを受信する。顔を検出した場合、ステップS804に処理を進める。
ステップS804では、受信装置200は、人物領域の計測中であるか否かを判定する。計測中ではない場合、新規に計測を開始するために、ステップS806に処理を進める。
ステップS806では、受信装置200は、検出した顔及びその周辺領域に対応した画素に対して投票用配列を確保する。
次に、ステップS807では、受信装置200は、所定時間、計測を開始する。
なお、ステップS804において、計測中の場合、ステップS805に処理を進める。ステップS805では、受信装置200は、画素に対する投票を行う。すなわち、上述したように、画素ごとに、顔を検出した検出回数を加算する。
ステップS808では、受信装置200は、所定時間経過したか又は所定フレームの計測をしたか否かを判定する。更に計測が必要な場合、ステップS801に処理を戻す。
一方、所定時間経過して、十分な計測データを取得した場合、ステップS809に処理を進める。
ステップS809では、受信装置200は、一定の投票数以上の画素を選択する。すなわち、所定値Th以上の検出回数の画素を特定する。
次に、ステップS810では、受信装置200は、選択した画素の集合に対し、モルフォロジカルオペレータによる膨張・縮退処理を施す。
次に、ステップS811では、受信装置200は、ステップS810の処理結果に対して、一定のマージンを加えたものを、人物領域として決定する。
このように、本実施形態によれば、一定確率以上で顔を検出する画素の集合の領域を検出し、検出した領域に基づいて、人物領域を決定する。したがって、人物が微動する場合を考慮して、人物領域を決定することができるので、人物が動くことにより他のコンテンツ領域と重複することを防止することができる。
なお、本実施形態では、人物の検出の方法として顔検出についてのみ説明したが、人物検出の方法は顔検出に限定されるものではない。例えば、上体検出等の方法を用いて人物を検出してもよい。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態では、人物検出を送信側で行う場合について説明する。この場合、送信装置100は、カメラ10から映像を取得した後に、人物領域を特定する。そして、映像データと共に、特定した人物領域のデータを受信装置200に送信する。
なお、送信装置100は、受信装置200の要求に応じて、人物領域の特定結果を受信装置200に送信してもよい。特定結果は、人物領域のデータであって、例えば顔の数、各顔の位置やサイズである。送信方法は、例えば受信装置200からのHTTPのリクエストに対して、送信装置100がレスポンスを返信する。あるいは、送信する映像に人物領域のデータを添付して受信装置200に送信してもよい。このように、本実施形態によれば、送信装置100により人物領域を特定するので、受信装置200側の負荷を軽減させることができる。
(第4の実施形態)
次に、第4の実施形態について説明する。第4の実施形態では、人物検出により特定した人物を識別し、識別情報をディスプレイに表示する場合について図9を参照して、説明する。
受信装置200は、例えば、図8に示すフローチャートのステップS802の処理の後に、検出した顔を識別する処理を行う。具体的には、受信装置200は、検出した顔から特徴データを抽出し、抽出した特徴データから、外部記憶装置261等に記憶されている複数の特徴データのうち一致する特徴データを検出する。この処理は、検索手段の一例に対応する。そして、一致する特徴データに関連付けられている人物の識別情報を取得する。この処理は、識別情報取得手段の一例に対応する。なお、識別情報には、例えば検出した顔の人物の氏名情報、アドレス情報等の人物の付属情報が含まれる。
その後、受信装置200は、図7に示す表示スレッドのフローチャートのステップS724において、合成した映像と文書とをディスプレイ30に表示するとき、図9に示すように、映像に含まれる人物に近接させて、取得した識別情報901、902を表示する。
このように、本実施形態によれば、映像に含まれる人物の識別情報を表示するので、ディスプレイ30を視聴するユーザは、表示されている人物をすぐに識別することができ、送信装置100と受信装置200との間におけるビデオ会議を円滑に進めることができる。
なお、本実施形態では、受信装置200で、識別情報を取得する場合について説明したが、この場合に限られない。例えば、送信装置100において、顔を検出して、特徴データを抽出し、その人物の顔を認識して、識別情報を取得するように構成してもよい。この場合、送信装置100は、映像データと共に、取得した人物の識別情報を受信装置200に送信する。
また、第3の実施形態のように、送信装置100によって送信された映像データ及び特定した人物領域のデータから、受信装置200が人物領域を切り出して、人物の顔を識別して、識別情報を取得するように構成してもよい。
(第5の実施形態)
次に、第5の実施形態について説明する。第5の実施形態では、ビデオ会議のような双方向にデータを送信できるような映像音声通信システム以外に用いる場合について説明する。本実施形態として、例えば、個人放送やモニタリングシステム等の片方向の映像音声通信システムに用いる場合について説明する。
本実施形態のシステム構成は、図1及び図2に示す構成のうち、カメラ10、送信装置100、ネットワーク、受信装置200、ディスプレイ30を含んで構成される。ここで、個人放送の場合、送信装置100は、不特定多数向けに、共有して表示させたい文書等のコンテンツと共に映像を配信することになる。また、受信装置200は、多数となり、それぞれの環境に併せて所望のサイズで映像や文書等の複数のコンテンツを表示する。
一方、モニタリングシステムの場合、送信装置100が、多数となる。また、映像中に不審人物を検出したときに、受信装置200は、当該人物の情報を画面上に表示する。このようなときに、人物領域を再配置して、背景領域を生成すれば、詳細な情報を表示することができる。ここで表示する情報は、送信装置100内部に記憶させてもよいが、通常は、受信装置200が、外部のデータベースから取得するか又は受信装置200の外部記憶装置261に記憶する。また、第1の実施形態と同様に、カメラ10と送信装置100とは、一体化した構成とすることができ、代表的な例としてはネットワークカメラが挙げられる。
(第6の実施形態)
次に、第6の実施形態について説明する。第6の実施形態では、人物領域と重複しないようにコンテンツ領域を配置する表示レイアウトの決定方法について図10を参照して、説明する。
まず、図10に示すように、受信装置200は、原映像から人物を検出し、顔表情が認識できるような下限の物理表示サイズになるように人物領域のサイズを決定し、表示範囲における右下隅に人物領域910を配置する。ここでは、人物領域は上体検知によって人物の境界を判別した場合の例を示している。
次に、受信装置200は、人物領域と重複しない空き領域に、他のコンテンツのコンテンツ領域を設定する。ここで、設定方法としては、縦方向を優先する方法がある。縦方向を優先する場合、図10(a)に示すように、第一の配置領域1(920)を縦長に設定する。なお、第2の実施形態で説明したように、受信装置200は、人物領域910の境界には、第一の配置領域1(920)の境界との間に一定のマージンを設ける。このように、第一の配置領域1(920)が決定されると、残りの空き領域に第二の配置領域2(930)を設定することができる。このようにして、再帰的に複数のコンテンツ領域を設定、すなわち表示レイアウトを決定することができる。なお、配置領域には最低面積等の基準を予め設けておき、一定面積以上の配置領域を新規に確保できない場合には、配置領域を設定する処理を終了する。
次に、設定方法としては、横方向を優先する方法がある。横方向を優先する場合、図10(b)に示すように、第一の配置領域1(970)を横長に設定する。また、人物領域960は、図10(b)に示すように、表示範囲における左下隅に配置することができる。受信装置200は、上述と同様に、人物領域960の境界には、第一の配置領域1(970)との間に一定のマージンを設ける。同様に、残りの空き領域に第二の配置領域2(980)を設定する。
なお、本実施形態では、配置領域は矩形にする場合について説明したが、任意の形状であっても同様な方法により、人物領域と重複しないようにコンテンツ領域を設定することが可能である。
また、本実施形態では、順々にコンテンツ領域を設定する場合について説明したが、同一属性の複数のコンテンツ領域をまとめて確保してもよい。例えば、配置したいコンテンツ領域の個数を予め決めておいて、同一形状の矩形領域を並べることにより、複数のコンテンツ領域を設定してもよい。また、同様に、同一面積の任意形状のコンテンツ領域を所望の個数分、表示領域に設定するようにしてもよい。
また、本実施形態では、人物領域が一つの場合について説明したが、複数の人物領域を特定してもよい。この場合、まず、複数の人物領域の配置を決定し、次に当該複数の人物領域と重複しないようにコンテンツ領域を設定する。この場合、複数の映像から特定した人物領域を使用してもよく、人物ごと個別で配置してもよい。何れであっても、人物領域間で重複しないような配置を設定する。
上述した本発明の実施形態における装置及びシステムを構成する各手段、並びに方法の各ステップは、コンピュータのRAMやROM等に記憶されたプログラムが動作することによって実現できる。このプログラム及びこのプログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施形態も可能である。また、本発明は、上述した実施形態の機能を実現するソフトウェアのプログラムを、システム又は装置に直接、又は遠隔から供給する。そして、そのシステム又は装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
従って、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。更に、そのプログラムの指示に基づき、コンピュータ上で稼動しているOS等が、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
更に、その他の方法として、まず記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。
送信装置の機能構成の一例を示す図である。 受信装置の機能構成の一例を示す図である。 原映像から人物領域の配置位置を算出するための方法を説明するための図である。 人物を含む映像と文書のコンテンツとを合成して表示した画面の一例を示す図である。 人物及び文字の物理表示サイズを説明するための図である。 送信装置及び受信装置の動作シーケンスを示す図である。 受信装置の動作処理を示すフローチャートである。 人物領域を算出する動作処理を示すフローチャートである。 人物と共に人物の識別情報を表示した画面の一例を示す図である。 コンテンツ領域を配置する表示レイアウトの決定方法を説明するための図である。
符号の説明
10 撮像装置(カメラ)
20 マイクロホン
30 表示装置(ディスプレイ)
40 スピーカ
100 送信装置
111 映像取得部
112 映像符号化部
121 音声取得部
122 音声符号化部
130 撮像装置制御部
150 データ会議通信制御部
160 通信インターフェース
200 受信装置
210 映像復号化部
211 人物領域特定部
212 データ会議通信制御部
213 コンテンツ解析部
214 合成部
215 ディスプレイ制御部
220 音声符号化部
221 映像音声同期部
222 音声バッファ
290 通信インターフェース

Claims (15)

  1. グラフィック及びテキストの少なくとも一つを含む情報を映像に合成して表示する映像合成表示装置であって、
    前記映像に含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報の領域とを重複しないように表示する表示処理手段を有することを特徴とする映像合成表示装置。
  2. 前記映像に含まれる人物の人物領域を特定する人物領域特定手段と、
    前記人物領域特定手段により特定された人物領域と重複しないように、前記人物領域と前記グラフィック及びテキストの少なくとも一つを含む情報の領域との表示レイアウトを決定する表示レイアウト決定手段とを更に有し、
    前記表示処理手段は、前記表示レイアウト決定手段により決定された表示レイアウトに基づいて、前記グラフィック及びテキストの少なくとも一つを含む情報を表示することを特徴とする請求項1に記載の映像合成表示装置。
  3. 前記人物領域特定手段により特定された人物領域の位置及びサイズの少なくとも何れか一方を表示領域に対して電子的に変更する領域変更手段を更に有し、
    前記表示処理手段は、前記領域変更手段により変更された人物領域と、前記グラフィック及びテキストの少なくとも一つを含む情報の領域とを重複しないように表示することを特徴とする請求項2に記載の映像合成表示装置。
  4. 前記人物領域特定手段により特定された人物領域の位置及びサイズの少なくとも何れか一方を表示領域に対して変更するために、前記映像を撮影する撮像装置のパン、チルト及びズームの少なくとも何れか1つの動作を制御する撮像装置制御手段を更に有し、
    前記表示処理手段は、前記撮像装置制御手段により制御された撮像装置の動作によって、前記表示領域に対して変更された人物領域と、前記グラフィック及びテキストの少なくとも一つを含む情報の領域とを重複しないように表示することを特徴とする請求項2に記載の映像合成表示装置。
  5. 前記映像を撮影する撮像装置の制御権を取得したか否かを判定する取得判定手段を更に有し、
    前記取得判定手段による判定結果に応じて、前記人物領域特定手段により特定された人物領域の位置及びサイズの少なくとも何れか一方を表示領域に対して変更する手段を選択することを特徴とする請求項3又は4に記載の映像合成表示装置。
  6. 前記映像に含まれる人物の顔又は上半身を検出する人物検出手段を更に有し、
    前記人物領域特定手段は、前記人物検出手段により検出された単数又は複数の人物の顔又は上半身に基づいて、人物領域を特定することを特徴とする請求項2乃至5の何れか1項に記載の映像合成表示装置。
  7. 前記人物検出手段により検出された人物の顔の特徴データに基づいて、一致する特徴データを検索する検索手段と、
    前記検索手段により検索された特徴データに関連付けて記憶された人物の識別情報を取得する識別情報取得手段とを更に有し、
    前記表示処理手段は、前記映像に含まれる人物と共に、前記識別情報取得手段により取得された識別情報を表示することを特徴とする請求項6に記載の映像合成表示装置。
  8. 前記映像に含まれる人物領域を含む候補領域を設定する候補領域設定手段と、
    前記候補領域設定手段により設定される候補領域を構成する画像要素ごとに、一定時間に人物として検出された検出回数を計測する計測手段と、
    前記計測手段による計測結果に基づいて、一定確率以上の画像要素の領域を判定する領域判定手段とを更に有し、
    前記人物領域特定手段は、前記領域判定手段により判定された領域を人物領域として特定することを特徴とする請求項2乃至7の何れか1項に記載の映像合成表示装置。
  9. 前記映像に含まれる人物を表示装置に表示するときの論理表示サイズを算出する論理表示サイズ算出手段と、
    前記映像を表示する表示装置とユーザとの実配置に基づいて、前記人物を表示装置に表示するときの物理表示サイズを算出する物理表示サイズ算出手段と、
    前記論理表示サイズと前記物理表示サイズとの下限を設定する下限設定手段とを更に有し、
    前記表示処理手段は、前記下限設定手段により設定された下限以上で、前記映像に含まれる人物を表示することを特徴とする請求項1乃至8の何れか1項に記載の映像合成表示装置。
  10. 前記論理表示サイズ算出手段は、前記テキストを表示装置に表示するときの論理表示サイズを算出し、
    前記物理表示サイズ算出手段は、前記テキストを表示する表示装置とユーザとの実配置に基づいて、前記テキストを表示装置に表示するときの物理表示サイズを算出し、
    前記下限設定手段は、前記テキストの論理表示サイズと物理表示サイズとの下限を設定し、
    前記表示処理手段は、前記テキストを前記表示装置に表示するときの物理表示サイズを得られない場合、前記人物の物理表示サイズを優先させて、表示することを特徴とする請求項9に記載の映像合成表示装置。
  11. 前記表示処理手段は、前記下限設定手段により設定されたテキストの下限以上で、前記テキストを拡大、縮小及び縦横スクロール処理の少なくとも一つを行うことにより、一部分を表示することを特徴とする請求項10に記載の映像合成表示装置。
  12. 送信装置と受信装置とを有する映像表示システムであって、
    前記送信装置は、映像を前記受信装置に送信する送信手段を有し、
    前記受信装置は、前記送信手段により送信された映像に含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報の領域とを重複しないように表示する表示処理手段を有することを特徴とする映像表示システム。
  13. グラフィック及びテキストの少なくとも一つを含む情報を映像に合成して表示する映像合成表示装置における映像表示方法であって、
    前記映像のコンテンツに含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報とを重複しないように表示する表示処理ステップを有することを特徴とする映像表示方法。
  14. グラフィック及びテキストの少なくとも一つの情報を映像に合成して表示させるためのプログラムであって、
    コンピュータに
    前記映像のコンテンツに含まれる人物の人物領域と、グラフィック及びテキストの少なくとも一つを含む情報とを重複しないように表示する表示処理ステップを実行させるためのプログラム。
  15. 請求項14に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2008255575A 2008-09-30 2008-09-30 映像合成表示装置、映像表示システム及び映像表示方法 Pending JP2010087907A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008255575A JP2010087907A (ja) 2008-09-30 2008-09-30 映像合成表示装置、映像表示システム及び映像表示方法
US12/562,530 US8467509B2 (en) 2008-09-30 2009-09-18 Video displaying apparatus, video displaying system and video displaying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008255575A JP2010087907A (ja) 2008-09-30 2008-09-30 映像合成表示装置、映像表示システム及び映像表示方法

Publications (1)

Publication Number Publication Date
JP2010087907A true JP2010087907A (ja) 2010-04-15

Family

ID=42057067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008255575A Pending JP2010087907A (ja) 2008-09-30 2008-09-30 映像合成表示装置、映像表示システム及び映像表示方法

Country Status (2)

Country Link
US (1) US8467509B2 (ja)
JP (1) JP2010087907A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005226A (ja) * 2018-07-02 2020-01-09 株式会社アスカネット 画像通信装置及び画像通信方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
JP5664442B2 (ja) 2011-04-27 2015-02-04 ブラザー工業株式会社 テレビ会議装置、表示制御方法及び表示制御プログラム
ITUB20152652A1 (it) * 2015-07-30 2017-01-30 Bbs Srl Sistema per un servizio di scambio in remoto di documenti
KR20190075988A (ko) * 2016-10-26 2019-07-01 오캠 테크놀로지스 리미티드 이미지를 분석하고 피드백을 제공하는 웨어러블 기기 및 방법
US10691950B2 (en) 2017-03-10 2020-06-23 Turing Video, Inc. Activity recognition method and system
US11475671B2 (en) 2017-05-26 2022-10-18 Turing Video Multiple robots assisted surveillance system
WO2020220287A1 (zh) * 2019-04-30 2020-11-05 华为技术有限公司 一种视频处理的方法和装置
CN112631471B (zh) * 2020-11-19 2023-01-31 楷知信息科技(上海)有限公司 多应用切换并分享内容方法、装置、存储介质及终端设备
CN113891105A (zh) * 2021-09-28 2022-01-04 广州繁星互娱信息科技有限公司 画面显示方法和装置、存储介质及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099691A (ja) * 1998-09-18 2000-04-07 Toshiba Corp 人物撮影装置
JP2002176619A (ja) * 2000-09-12 2002-06-21 Matsushita Electric Ind Co Ltd メディア編集方法及びその装置
JP2004112824A (ja) * 2003-11-04 2004-04-08 Ricoh Co Ltd テレビカメラ通信装置
WO2005031612A1 (ja) * 2003-09-26 2005-04-07 Nikon Corporation 電子画像蓄積方法、電子画像蓄積装置、及び電子画像蓄積システム
JP2005227957A (ja) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp 最適顔画像記録装置及び最適顔画像記録方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2849119B2 (ja) 1989-07-17 1999-01-20 日本電信電話株式会社 共覧形画面電話方式
US5689641A (en) * 1993-10-01 1997-11-18 Vicor, Inc. Multimedia collaboration system arrangement for routing compressed AV signal through a participant site without decompressing the AV signal
JPH0879721A (ja) 1994-09-02 1996-03-22 Hitachi Ltd テレビ電話装置
US6008809A (en) * 1997-09-22 1999-12-28 International Business Machines Corporation Apparatus and method for viewing multiple windows within a dynamic window
US7058689B2 (en) * 2001-10-16 2006-06-06 Sprint Communications Company L.P. Sharing of still images within a video telephony call
JP2004072310A (ja) 2002-08-05 2004-03-04 Matsushita Electric Ind Co Ltd テレビ電話装置
US20040189710A1 (en) * 2003-03-28 2004-09-30 Goulden David L. Technique for displaying a window in a computer screen
US8120638B2 (en) * 2006-01-24 2012-02-21 Lifesize Communications, Inc. Speech to text conversion in a videoconference
US20080307324A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Sharing content in a videoconference session

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099691A (ja) * 1998-09-18 2000-04-07 Toshiba Corp 人物撮影装置
JP2002176619A (ja) * 2000-09-12 2002-06-21 Matsushita Electric Ind Co Ltd メディア編集方法及びその装置
WO2005031612A1 (ja) * 2003-09-26 2005-04-07 Nikon Corporation 電子画像蓄積方法、電子画像蓄積装置、及び電子画像蓄積システム
JP2004112824A (ja) * 2003-11-04 2004-04-08 Ricoh Co Ltd テレビカメラ通信装置
JP2005227957A (ja) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp 最適顔画像記録装置及び最適顔画像記録方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005226A (ja) * 2018-07-02 2020-01-09 株式会社アスカネット 画像通信装置及び画像通信方法
JP7101062B2 (ja) 2018-07-02 2022-07-14 株式会社アスカネット 画像通信装置及び画像通信方法

Also Published As

Publication number Publication date
US8467509B2 (en) 2013-06-18
US20100079675A1 (en) 2010-04-01

Similar Documents

Publication Publication Date Title
JP2010087907A (ja) 映像合成表示装置、映像表示システム及び映像表示方法
US11303881B2 (en) Method and client for playing back panoramic video
JP6410918B2 (ja) パノラマ映像コンテンツの再生に使用するシステム及び方法
KR102063895B1 (ko) 서버, 사용자 단말 장치 및 그 제어 방법
US11119719B2 (en) Screen sharing for display in VR
KR20190121867A (ko) 가상 현실 미디어 컨텐츠의 패키징 및 스트리밍을 위한 방법 및 장치
CN113064684B (zh) 一种虚拟现实设备及vr场景截屏方法
JP2019537294A (ja) 全方位ビデオのための補正された動き補償方法および装置
EP3633628B1 (en) Image processing device and method, file generation device and method, and program
WO2017094527A1 (ja) 動画生成システムおよび動画表示システム
CN107211191B (zh) 主设备、从设备及其控制方法
US11430178B2 (en) Three-dimensional video processing
JP2012173683A (ja) 表示制御装置、情報表示装置、及び表示制御方法
US20180270463A1 (en) Recording medium, image generation apparatus, and image generation method
CN111556350B (zh) 一种智能终端及人机交互方法
US20230209126A1 (en) Display device and operating method therefor
JP2011151773A (ja) 映像処理装置及び制御方法
US11297378B2 (en) Image arrangement determination apparatus, display controlling apparatus, image arrangement determination method, display controlling method, and program
KR20200003291A (ko) 서버, 사용자 단말 장치 및 그 제어 방법
JP6004978B2 (ja) 被写体画像抽出装置および被写体画像抽出・合成装置
US8279207B2 (en) Information processing apparatus, information processing method, and program
US20220101498A1 (en) Video distribution system, video distribution method, and display terminal
KR20210061869A (ko) 증강현실 콘텐츠 제작 방법 및 장치
EP2600625A1 (en) Image reproducer, image reproduction method, and data structure
US20230410444A1 (en) Display system for displaying mixed reality space image andprocessing method for use of display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130625