以下、添付図面を参照しながら、本発明の表示装置およびOSD表示方法に係る好適な実施の形態について説明する。
図1は、本発明の一実施形態に係る表示装置の構成例を示すブロック図で、図中、10は表示装置を示す。表示装置10は、距離・視線角度検出用データベース11と、画像データから特定部分(顔部分や矩形部分など)を抽出する画像検出部12と、表示装置10の動作を制御する主制御部13と、OSD(On Screen Display)の表示位置を算出する表示位置算出部14と、映像表示制御部15aおよびOSD表示制御部15bを含む表示部15と、リモコン等の操作入力機器21と通信し操作入力機器21から操作信号を入力する通信部16と、カメラ22と接続しカメラ22の動作を制御するカメラ制御部17と、ネットワークの一例であるインターネット23を介して他のユーザの表示装置と接続するインターネット制御部18とを備える。
図2は、本発明の表示装置をビデオ電話システムに適用した場合の画面表示例を示す図である。本例では、表示装置10で実行される所定のアプリケーションの一例としてSkype(登録商標)等のビデオ電話アプリケーション(ビデオ電話アプリ)を例示し、このビデオ電話アプリを用いて、ユーザA〜Dの4人のユーザ間でインターネット23を介してビデオ会議を行う場合について説明する。つまり、ユーザDは表示装置10の画面を見ながら、ユーザA〜Cと音声通話を行うように構成されている。表示装置10は、ユーザAの画像を表示する領域151と、ユーザBの画像を表示する領域152と、ユーザCの画像を表示する領域153とを有し、OSDの表示内容の一例としてビデオ電話アプリを操作するための操作パネル154を表示する。なお、ユーザDはカメラ22で撮影され、ユーザDの撮影画像は他のユーザA〜Cの表示装置(図示せず)にインターネット23を介して送信され、図2の例と同様にユーザA〜Cのそれぞれの表示装置の画面上に表示される。
本発明の主たる目的は、ネットワークを介して受信した画像データを領域毎に表示させたときに、ユーザが視線を向けた領域の画像データの邪魔にならず、ユーザが見易い適切な場所にOSDを配置することにある。このための構成として、図1,2において、表示装置10は、表示部15の画面を見るユーザDを撮影する撮影部と、撮影した撮影データを解析してユーザDの位置および視線の方向を検出する視線検出部と、検出したユーザDの位置および視線の方向に基づいて視線が到達する表示部15の画面上の領域を決定する領域決定部と、決定した領域の画像データから特定部分(顔部分など)を抽出する特定部分抽出部と、抽出した特定部分の位置に重ならないようにOSDの表示位置を算出するOSD表示位置算出部とを備える。なお、カメラ22は撮影部に相当し、画像検出部12は視線検出部、領域決定部、および特定部分抽出部に相当し、表示位置算出部14はOSD表示位置算出部に相当する。
表示部15は、例えば、液晶ディスプレイなどの表示デバイスとして構成され、インターネット23を介して受信したユーザA〜Cのビデオストリームを領域毎に表示すると共に、表示位置算出部14で算出したOSDの表示位置に操作パネル154を表示する。表示部15は、映像表示制御部15aおよびOSD表示制御部15bを備え、映像表示制御部15aはユーザA〜Cのビデオストリームを領域毎に表示するように表示部15を制御し、OSD表示制御部15bは表示位置算出部14で算出したOSDの表示位置に操作パネル154が表示されるように表示部15を制御する。
図2において、ユーザA〜Dの4者間でビデオ通話を行う際に、ユーザDの表示装置10では、ユーザA,B,Cの各表示装置(図示せず)から、ユーザA,B,Cそれぞれを撮影したビデオストリームとして、videoA,B,Cをインターネット23経由で受信し、図2(A)に示すように、表示部15の各領域に表示する。また、表示部15の中心にはカメラ22が設置されており、カメラ22によりユーザDが撮影される。そして、表示装置10は、ユーザDを撮影したビデオストリームとして、videoDをインターネット23経由でユーザA,B,Cの各表示装置に送信する。
また、ビデオ電話アプリを操作するための操作パネル154を図2(B)に例示する。この操作パネル154は、リモコン等の操作入力機器21の十字キーに応じて操作ができるように操作ボタンが配置されている。つまり、ユーザDは、操作パネル154を見ながら操作入力機器21の十字キーを操作することにより、操作パネル154の操作ボタンを選択して実行することができる。なお、図2(B)の例では「End call」が選択されている。
図3は、本発明の表示装置10によるOSD表示方法の一例を説明するための図である。なお、videoAはユーザAを撮影したビデオストリーム、videoBはユーザBを撮影したビデオストリーム、videoCはユーザCを撮影したビデオストリーム、videoDはユーザDを撮影したビデオストリームを示す。
まず、カメラ22でユーザDを撮影したvideoDは、主制御部13に送信され(S1)、主制御部13は、このvideoDをインターネット23を介してユーザA〜Cの各表示装置に送信すると共に、映像表示制御部15aに出力し(S2)、映像表示制御部15aは、主制御部13から入力されたvideoDを“PlaneL”として図示しないフレームバッファに保存する(S3)。
次に、主制御部13は、インターネット23を介してユーザA〜Cの各表示装置からvideoA,B,Cおよびその領域情報を受信し(S4)、受信したvideoA,B,Cの領域情報として、AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h)をメモリ(図示せず)に保存する(S5)。そして、主制御部13は、videoA,B,Cおよびその領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))を映像表示制御部15aに出力し(S6)、映像表示制御部15aは、主制御部13から入力されたvideoA,B,Cおよびその領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))を、それぞれ“PlaneA”、“PlaneB”、“PlaneC”としてフレームバッファに保存し、これらのvideoA,B,Cを図2(A)の例のように画面上に表示する。(S7)。
次に、主制御部13は、カメラ22からユーザDを撮影したvideoDを入力すると(S8)、このvideoDを画像検出部12に出力する(S9)。画像検出部12は、主制御部13から入力されたvideoDを解析しユーザDの位置および視線の方向を検出し、検出したユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))を主制御部13に返す(S10)。主制御部13は、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))をメモリに保存し(S11)、S5で保存したvideoA,B,Cの領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))と、S11で保存したユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))とを表示位置算出部14に出力する(S12)。この際、カメラ22の設置位置情報(CameraPosition(x,y))も主制御部13から表示位置算出部14に出力される。なお、本例ではカメラ22の設置位置は固定としている。
表示位置算出部14は、主制御部13から入力された、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))と、videoA,B,Cの領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))と、カメラ22の設置位置情報(CameraPosition(x,y))とに基づいて、第1の表示位置算出処理を実行する(S13)。
表示位置算出部14による第1の表示位置算出処理のアルゴリズムの概要を図4(A)に示す。表示位置算出部14は、上記のDposition(x,y,z)、Deye_dir(r,y,p)、AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h)、CameraPosition(x,y)が入力されると、三角関数を用いて、ユーザDが見ているポイントの中心位置(UserSpot(x,y))を複数確定し(S31)、確定した複数のUserSpot(x,y)の平均値を取得する(S32)。そして、表示位置算出部14は、取得した平均値に基づいてユーザDがユーザA、B,Cの誰を見ているか(つまり、ユーザDがvideoA,B,Cのどのvideo planeを見ているか)を決定し(S33)、主制御部13に対して、videoX(X=AorBorC)が選択されたことを示す“Select VideoX=AorBorC”を出力する。
すなわち、図3において、表示位置算出部14は、上記の第1の表示位置算出処理により、videoA,B,Cの中からユーザDが見ているvideoX(X=AorBorC)を選択し、videoX(X=AorBorC)が選択されたことを示す“Select VideoX=AorBorC”を主制御部13に出力する(S14)。
次に、主制御部13は、表示位置算出部14から入力された“Select VideoX=AorBorC”に応じて、インターネット23を介してvideoX(X=AorBorC)を受信すると(S15)、受信したvideoX(X=AorBorC)を画像検出部12に出力する(S16)。画像検出部12は、主制御部13から入力されたvideoX(X=AorBorC)から顔検出を行ない、その検出結果(Xface(x,y,v,h))を主制御部13に返す(S17)。なお、顔検出は従来公知の方法により実現することができる。主制御部13は、顔検出結果(Xface(x,y,v,h))をメモリに保存し(S18)、表示位置算出部14に対して、S11で保存したユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))と、videoXの領域情報(XVideo(x,y,v,h))と、S18で保存した顔検出結果(Xface(x,y,v,h))とを出力する(S19)。
表示位置算出部14は、主制御部13から入力された、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))と、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、第2の表示位置算出処理を実行する(S20)。
表示位置算出部14による第2の表示位置算出処理のアルゴリズムの概要を図4(B)に示す。表示位置算出部14は、上記のDposition(x,y,z)、Deye_dir(r,y,p)、XVideo(x,y,v,h)、Xface(x,y,v,h)が入力されると、Xface(対象物:本例では顔部分)の位置に重複せず、且つ、Xfaceの近傍に操作パネル154の表示位置を決定する(S41)。例えば、Xface(x=40,y=40,v=50,h=60)の場合、XVideo(x,y,v,h)で定まる範囲内で顔の斜め上側に十分なスペースがあれば、その位置に操作パネル154を配置する。そして、表示位置算出部14は、操作パネル154の表示ポジションデータを生成し(S42)、主制御部13に対して、表示ポジションデータを示す“Pposition(x,y,v,h)”を出力する。
すなわち、図3において、表示位置算出部14は、上記の第2の表示位置算出処理により、操作パネル154を画面上に表示する際の表示位置を示す表示ポジションデータ(Pposition(x,y,v,h))を主制御部13に出力する(S21)。
次に、主制御部13は、表示位置算出部14から入力された“Pposition(x,y,v,h)”に基づいて、OSD表示制御部15bに対して、操作用GUI(Graphical User Interface)である操作パネル154をOSDとして描画するように指示する(S22)。OSD表示制御部15bは、主制御部13からの指示に従って、表示ポジションデータ(Pposition(x,y,v,h))に対応する表示位置に、操作パネル154を表示するように表示部15を制御する(S23)。
図5,6は、表示位置算出部14による第1の表示位置算出処理の一例を説明するためのフロー図である。本例のフローは図4(A)に示した処理を具体的に説明したものである。まず、図5において、表示位置算出部14は、主制御部13から、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))、videoA〜Cの領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))、カメラ22の位置情報(CameraPosition(x,y))が入力されると、三角関数を用いて、ユーザDが見ているポイントの中心位置(UserSpot(x,y))を複数確定し(ステップS51)、確定した複数(本例では20個分)のUserSpot(x,y)をリングバッファに格納する(ステップS52)。つまり、10fps(frame per second)=100ms周期で、2s間の平均を取る。そして、20個分たまっている場合には、分散の大きなデータを省く処理を行い(ステップS53)、20個分のUserSpot(x,y)の平均値(Ave_UserSpot(x,y))をメモリに格納する(ステップS54)。
次に、図6において、表示位置算出部14は、メモリに格納された平均値(Ave_UserSpot(x,y))を取得すると(ステップS61)、平均値(Ave_UserSpot(x,y))がvideoAの領域情報(AVideo(x,y,v,h))に含まれるか否かを判定し(ステップS62)、含まれると判定した場合(YESの場合)、ユーザDが見ている領域として、videoAを選択し、videoAを選択したことを示す“Select VideoX=A”を生成する(ステップS63)。そして、表示位置算出部14は、主制御部13に対して、videoAを選択したことを示す“Select VideoX=A”(Select Video Value)を出力する(ステップS64)。
また、表示位置算出部14は、ステップS62において、平均値(Ave_UserSpot(x,y))がvideoAの領域情報(AVideo(x,y,v,h))に含まれないと判定した場合(NOの場合)、平均値(Ave_UserSpot(x,y))がvideoBの領域情報(BVideo(x,y,v,h))に含まれるか否かを判定し(ステップS65)、含まれると判定した場合(YESの場合)、ユーザDが見ている領域として、videoBを選択し、videoBを選択したことを示す“Select VideoX=B”を生成する(ステップS66)。そして、ステップS64に移行して、表示位置算出部14は、主制御部13に対して、videoBを選択したことを示す“Select VideoX=B”(Select Video Value)を出力する。
また、表示位置算出部14は、ステップS65において、平均値(Ave_UserSpot(x,y))がvideoBの領域情報(BVideo(x,y,v,h))に含まれないと判定した場合(NOの場合)、平均値(Ave_UserSpot(x,y))がvideoCの領域情報(CVideo(x,y,v,h))に含まれるか否かを判定し(ステップS67)、含まれると判定した場合(YESの場合)、ユーザDが見ている領域として、videoCを選択し、videoCを選択したことを示す“Select VideoX=C”を生成する(ステップS68)。そして、ステップS64に移行して、表示位置算出部14は、主制御部13に対して、videoCを選択したことを示す“Select VideoX=C”(Select Video Value)を出力する。
また、表示位置算出部14は、ステップS67において、平均値(Ave_UserSpot(x,y))がvideoCの領域情報(CVideo(x,y,v,h))に含まれないと判定した場合(NOの場合)、前回値(videoAorBorC)を選択し、前回値(videoAorBorC)を選択したことを示す“Select VideoX=前回値”を生成する(ステップS69)。そして、ステップS64に移行して、表示位置算出部14は、主制御部13に対して、前回値を選択したことを示す“Select VideoX=前回値”(Select Video Value)を出力する。
図7は、表示位置算出部14による第2の表示位置算出処理の一例を説明するためのフロー図である。本例のフローは図4(B)に示した処理を具体的に説明したものである。まず、表示位置算出部14は、主制御部13から、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))、videoX(X=AorBorC)の領域情報(XVideo(x,y,v,h))、videoXの顔検出結果(Xface(x,y,v,h))が入力されると、これらの情報の中から顔検出結果(Xface(x,y,v,h))を抽出する(ステップS71)。ここで、videoXがvideoA(X=A)であった場合の映像例を図8に示す。なお、videoB、Cの場合も同様である。
図8において、videoAの領域は矩形とされ、左上端の位置がAVideo(x,y)、右下端の位置がAVideo(x+v,y+h)と示される。これより、videoAの領域情報は、AVideo(x,y,v,h)と示される。また、顔部分についても同様に、左上端の位置がAface(x,y)、右下端の位置がAface(x+v,y+h)と示される。これより、顔部分の位置を示す顔検出結果は、Aface(x,y,v,h)と示される。また、“Position data”はOSD(本例の場合、操作パネル154)の表示位置を示しており、このOSDはデフォルトではvideoAの右下端に配置される。そして、デフォルトポジションとして、OSDの左上端の位置はdefaultPosition(x,y)、右下端の位置はdefaultPosition(x+v,y+h)で示される。このように、OSD(操作パネル154)は、顔部分に重ならない位置であって、顔部分の近傍位置に配置される。
次に、図7において、表示位置算出部14は、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、顔部分の右側に操作パネル154の表示スペースがあるか否かを判定する(ステップS72)。そして、表示スペースがあると判定した場合(YESの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=Xface(x)+Xface(v)+α、Position data(y)=Xface(y)+β、を生成し(ステップS73)、主制御部13に対して、操作パネル154の“Position data”を出力する(ステップS74)。なお、α(x方向)、β(y方向)は、図8に例示するように、顔部分の右上端とOSD(操作パネル154)の左上端との距離を示す。
また、表示位置算出部14は、ステップS72において、顔部分の右側に操作パネル154の表示スペースがないと判定した場合(NOの場合)、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、顔部分の左側に操作パネル154の表示スペースがあるか否かを判定する(ステップS75)。そして、表示スペースがあると判定した場合(YESの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=Xface(x)-OSDsize(v)-α、Position data(y)=Xface(y)+β、を生成し(ステップS76)、ステップS74に移行して、主制御部13に対して、操作パネル154の“Position data”を出力する。
また、表示位置算出部14は、ステップS75において、顔部分の左側に操作パネル154の表示スペースがないと判定した場合(NOの場合)、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、顔部分の下側に操作パネル154の表示スペースがあるか否かを判定する(ステップS77)。そして、表示スペースがあると判定した場合(YESの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=Xface(x)-OSDsize(v)-α、Position data(y)=Xface(y)+Xface(h)+β、を生成し(ステップS78)、ステップS74に移行して、主制御部13に対して、操作パネル154の“Position data”を出力する。
また、表示位置算出部14は、ステップS77において、顔部分の下側に操作パネル154の表示スペースがないと判定した場合(NOの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=defaultPositon(x)、Position data(y)=defaultPosition(y)、を生成し(ステップS79)、ステップS74に移行して、主制御部13に対して、操作パネル154の“Position data”を出力する。すなわち、顔部分の右側、左側、下側に表示スペースがない場合には、操作パネル154は図8に示すデフォルトポジションに配置される。
図9は、画像検出部12によりユーザDの視線を検出する方法の一例を説明するための図である。前述の図1の例において、ユーザDの視線を検出する方法は、例えば、特開2007−213469号公報に記載された方法や、「沼尻 貴昭, 中村 明生, 久野 義徳、「多量情報の効率的取得のための高速閲覧システム」、第8回画像センシングシンポジウム (SSII 2002) 講演論文集, pp.463-468, 横浜, July 2002」に記載された方法など、従来公知の方法を用いて実行することができる。以下では、特開2007−213469号公報に記載された方法について簡単に説明する。
図9に示すように、眼球は円(球体)と仮定することができるから、水平方向の視線の角度をθ、眼球の半径をr、目の中心から虹彩の中心までの距離をdとすると、次の式(1)の関係が成り立つ。
θ=sin-1(d/r) …式(1)
ここで、距離dは、目の画像を解析して求めることができる。また、眼球の半径rは、予め視線角度が分かっている方向(角度θ0)を見たときの目の中心から虹彩の中心までの距離d0を求め、θ0及びd0を式(1)に代入して求めることができる。画像検出部12は、こうして求めた眼球の半径rと、カメラ22の映像の解析から得た距離dとを用いて、式(1)から、時々刻々と変わる水平方向の視線の向きを算出することができる。これにより、ユーザDの視線の向きθ、すなわち、前述の(Deye_dir(r,y,p))を求めることができる。
図10は、画像検出部12によりユーザDの位置を抽出する方法の一例を説明するための図である。前述の図1に示した距離・視線角度検出用データベース11には、ユーザの顔のサイズと、カメラ22からの距離の情報とが保持されている。例えば、ユーザの顔部分のサイズを(v,h)、カメラ22からの距離をDcとした場合に、(1)v=10、h=15、Dc=1000mm、(2)v=20、h=30、Dc=700mm、(3)v=30、h=50、Dc=400mm、(4)・・・、などと予め保持しておく。画像検出部12は、ユーザDを撮影した撮影データから顔部分を検出し、その顔部分のサイズ(v,h)を求める。そして、画像検出部12は、ユーザDの顔部分のサイズ(v,h)に基づき、距離・視線角度検出用データベース11を参照し、カメラ22からユーザDまでの距離Dc、つまり、ユーザDの位置Dcを求めることができる。これにより、ユーザDの位置Dc、すなわち、前述の(Dposition(x,y,z))を求めることができる。
図11は、ユーザDが見ているポイントの中心位置を算出する方法の一例を説明するための図である。本例では前述の図5で説明したUserSpot(x,y)を算出する方法について説明する。なお、カメラ22の位置を“Xcamara”とし本例では固定とする。図中、dは表示部15の画面からカメラ22のレンズまでの距離を示し、予め定められた値である。また、Dcはカメラ22のレンズからユーザDまでの距離を示し、前述の図10で説明した方法により求めることができる。また、θuはカメラ22の中心を通り表示部15の画面に直交する線分31とカメラ22とユーザDとでなす角度を示し、本例では予め定められた値とする。また、θはユーザDの視線の向きを示し、前述の図9で説明した方法により求めることができる。
上記より、カメラ22からユーザDが見ているポイントの中心位置までの距離をxとすると、
x=(Dc+d)tanθ−(Dc)tanθu …式(2)
DisplayPosition(x)=Xcamera+x …式(3)
この式(2)、(3)により、ユーザDが見ているポイントの中心位置(UserSpot(x,y))を求めることができる。
図12は、図11に示すθuを算出する方法の一例を説明するための図である。このように画像解析によりθuを算出するようにしてもよい。図12の例は、カメラ22でユーザDを撮影して得た画像データであり、点線が画像データ上の中心位置を示している。カメラ22の水平画角θmaxは、カメラ22の設計により固定値となる。また、この画像データの中心位置(点線の位置)からユーザDの顔部分の中心までの距離(画素数)をpx(計測値)、カメラ22の水平解像度の1/2をpxmax(固定値)とすると、θuとの間で以下の式が成立する。
θu:θmax=px:pxmax …式(4)
θu=(px/pxmax)×θmax …式(5)
なお、距離pxは、ユーザDの顔部分を検出し、検出した顔部分の中心までの画素数を計測することで得ることができる。そして、これらθmax、px、pxmaxと式(5)によりθuを算出することができる。
このように本発明によれば、ネットワークを介して受信した画像データを領域毎に表示させたときに、ユーザの位置および視線を検出することによりユーザが見ている領域を決定し、その領域の画像データに含まれる特定部分(顔部分など)に重ならないようにOSDの表示位置を算出することができるため、ユーザが視線を向けた領域の画像データの邪魔にならず、ユーザが見易い適切な場所にOSDを配置することができる。
図13は、本発明による表示装置に表示される他のOSDの画面表示例を示す図である。本例の場合、OSDとしてプレゼンテーション資料(以下、プレゼン資料)155を表示させる。プレゼン資料155は、例えば、MicrosoftPowerPoint(登録商標)などのアプリケーションソフトを利用して適宜作成することができる。ユーザDがユーザA〜Cに対してプレゼンテーションを行っているときに、例えば、ユーザAの方向を向いてプレゼン資料155を説明する場合を想定する。この場合、プレゼン資料155は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、プレゼン資料155の内容を説明することができる。これにより、重点的にプレゼンしたい相手に対して、効果的なプレゼンを行うことが可能となる。
図14は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。図14(A)は図14(B)に示す操作パネル156を表示部15に表示させたときの画面表示例を示す。本例の場合、OSDとしてユーザDの撮影画像を含む操作パネル156を表示させる。ユーザDがユーザA〜Cとの間でビデオ会議を行っているときに、例えば、ユーザAの方向を向いて操作パネル156を操作する場合を想定する。この場合、操作パネル156は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、操作入力機器21を用いて操作パネル156を操作することができる。そして、さらに、操作パネル156にユーザD自身の撮像画像がプレビュー表示されるため、ユーザA〜Cの各表示装置においてユーザD自身が表示されていることを確認することができる。このように、OSDの表示内容として、ビデオ電話アプリに係る付加情報を含むようにしてもよい。本例の場合、付加情報として、ユーザD自身の撮影画像がプレビュー表示される。
図15は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。本例の場合、OSDとしてTVの番組視聴予約のコーション157を表示させる。このコーション157は時刻情報を含むようにしてもよい。ユーザDがユーザA〜Cとの間でビデオ会議を行っているときに、例えば、ユーザAの方向を向いて話す場合を想定する。この場合、コーション157は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、コーション157の内容を確認することができる。
図16は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。図16(A)は図16(B)に示す操作パネル158を表示部15に表示させたときの画面表示例を示す。本例の場合、OSDとしてユーザA〜Dの全ての撮影画像を含む操作パネル158を表示させる。ユーザDがユーザA〜Cとの間でビデオ会議を行っているときに、例えば、ユーザAの方向を向いて操作パネル158を操作する場合を想定する。この場合、操作パネル158は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、操作入力機器21を用いて操作パネル158を操作することができる。そして、さらに、操作パネル158にユーザA〜Dの全ユーザの撮像画像がプレビュー表示されるため、ユーザDはユーザAの顔に注視しながらも、他のユーザB,Cの顔を確認し、さらには、ユーザD自身の顔を確認することができる。このように、OSDの表示内容として、ビデオ電話アプリに係る付加情報を含むようにしてもよい。本例の場合、付加情報として、ユーザA〜Dの撮影画像がプレビュー表示される。
図17は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。本例の表示部15は、記事159aを含むHP(ホームページ)1を表示する領域159と、HP2を表示する領域160と、HP3を表示する領域161とを有し、OSDとしてビデオ電話の着信を示す着信OSD162を表示させる。ユーザDがHP1の方向を向いて記事159aを読んでいるときに、ビデオ電話の着信があった場合を想定する。この着信OSD162は、HP1の記事159aに重ならないようにOSD表示されるため、ユーザDは記事159aを読みながら、着信OSD162を確認することができる。このため、ユーザはビデオ電話の着信があった場合でもHPの閲覧を妨害されることがなく、また、着信OSD162によってHPの画面からビデオ電話の画面へスムーズに移行させることができる。