JP5845079B2 - 表示装置およびosd表示方法 - Google Patents

表示装置およびosd表示方法 Download PDF

Info

Publication number
JP5845079B2
JP5845079B2 JP2011271107A JP2011271107A JP5845079B2 JP 5845079 B2 JP5845079 B2 JP 5845079B2 JP 2011271107 A JP2011271107 A JP 2011271107A JP 2011271107 A JP2011271107 A JP 2011271107A JP 5845079 B2 JP5845079 B2 JP 5845079B2
Authority
JP
Japan
Prior art keywords
display
osd
user
unit
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011271107A
Other languages
English (en)
Other versions
JP2013122529A (ja
Inventor
広明 近藤
広明 近藤
宗樹 吉田
宗樹 吉田
高明 野口
高明 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011271107A priority Critical patent/JP5845079B2/ja
Publication of JP2013122529A publication Critical patent/JP2013122529A/ja
Application granted granted Critical
Publication of JP5845079B2 publication Critical patent/JP5845079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置およびOSD表示方法に関し、より詳細には、画像データを領域毎に表示可能な大画面ディスプレイを備えた表示装置およびOSD表示方法に関する。
従来、Skype(登録商標)等のビデオ電話アプリケーションを用いて、複数のユーザ間でユーザの画像を互いに表示させながら音声通話を行う表示装置が知られている。最近の表示装置は大画面化されており、3人以上の多人数であっても同時に一画面にユーザの画像を表示させることが可能となっている。このようなビデオ電話アプリケーションと大画面の表示装置とを組み合わせることにより、企業等においては遠隔地にある複数の事業所をネットワーク経由で結んで、多人数でビデオ会議を行うことができるため、出張経費を削減できるなどの大きなメリットがある。このため企業等ではビデオ電話アプリケーションを用いたビデオ会議システムの導入が進んでいる。
一方、上記のような大画面の表示装置を用いてプレゼンテーションを行う技術が提案されている(例えば、特許文献1を参照)。この特許文献1に記載の大画面プレゼンテーションシステム用ポインティング装置によれば、プレゼンテーションする画像を表示するディスプレイと、ディスプレイ上で指示すべき点を表示するカーソルと、説明者の眼球の近傍に設置され説明者の注視点を検出する視線追従センサとを備え、この視線追従センサの出力を受けて演算し説明者が注視しているプレゼンテーション画面上の個所にカーソルを移動させるように構成されている。
特開平10−39994号公報
図18は、従来の表示装置を用いたビデオ電話システムにおける画面表示例を示す図で、図中、100は表示装置、101はカメラを示す。この例では、ビデオ電話アプリケーション(以下、ビデオ電話アプリという)を用いて、ユーザA〜Dの4人のユーザ間でネットワークを介してビデオ会議を行う場合について想定する。つまり、ユーザDは表示装置100の画面を見ながら、ユーザA〜Cと音声通話を行うように構成されている。表示装置100は、ユーザAの画像を表示する領域102と、ユーザBの画像を表示する領域103と、ユーザCの画像を表示する領域104とを有し、OSD(On Screen Display)の表示内容としてビデオ電話アプリを操作するための操作パネル105を表示する。なお、ユーザDはカメラ101で撮影され、ユーザDの撮影画像は他のユーザA〜Cの表示装置(図示せず)にネットワークを介して送信され、図18の例と同様にユーザA〜Cのそれぞれの表示装置の画面上に表示される。
図18において、ユーザDが例えばユーザAの領域102を見ながら、音声通話を行っている場合、操作パネル105は領域103上に表示されているため、ユーザDの視界に入らない。このため、ユーザDがユーザAの領域102を見ながら操作パネル105を操作するためには、操作パネル105を移動させ、ユーザAの領域102上に表示させなくてはならない。すなわち、ユーザDは視線を移した先の領域に操作パネル105が表示されていない場合には、その都度操作パネル105を移動させる必要があり、面倒な操作を強いられていた。
これに対して、上述の特許文献1に記載の技術を用いることで、ユーザDが視線を移した先の画面上の位置に操作パネル105を移動させることができる。しかしながら、ユーザDがユーザAの顔に視線を向けていれば、操作パネル105はユーザAの顔に重畳され、ユーザAの顔が隠れてしまう。このため、ユーザDはユーザAの顔が隠れないように操作パネル105の表示位置を調整しなくてはならず、ユーザDはやはり面倒な操作を行わなければならなかった。
本発明は、上述のような実情に鑑みてなされたもので、ネットワークを介して受信した画像データを領域毎に表示させたときに、ユーザが視線を向けた領域の画像データの邪魔にならず、ユーザが見易い適切な場所にOSDを配置することができる表示装置およびOSD表示方法を提供すること、を目的とする。
上記課題を解決するために、本発明の第1の技術手段は、ネットワークを介して受信した画像データを領域毎に表示する表示部を備えた表示装置であって、前記表示部の画面を見るユーザを撮影する撮影部と、該撮影した撮影データを解析してユーザの位置および視線の方向を検出する視線検出部と、該検出したユーザの位置および視線の方向に基づいて該視線が到達する前記表示部の画面上の領域を決定する領域決定部と、該決定した領域の画像データから特定部分を抽出する特定部分抽出部と、該抽出した特定部分の位置に重ならないようにOSDの表示位置を算出するOSD表示位置算出部とを備え、前記表示部は、前記OSD表示位置算出部で算出したOSDの表示位置に該OSDを表示することを特徴としたものである。
第2の技術手段は、第1の技術手段において、前記特定部分抽出部は、前記特定部分として、人間の顔部分を抽出することを特徴としたものである。
第3の技術手段は、第1または第2の技術手段において、前記OSDの表示内容は、前記表示装置で実行される所定のアプリケーションを操作するための操作パネルであることを特徴としたものである。
第4の技術手段は、第3の技術手段において、前記OSDの表示内容は、前記所定のアプリケーションに係る付加情報を含むことを特徴としたものである。
第5の技術手段は、第1〜第4のいずれか1の技術手段において、前記OSDは、前記特定部分に重ならない位置であって、該特定部分の近傍位置に配置されることを特徴としたものである。
第6の技術手段は、ネットワークを介して受信した画像データを領域毎に表示する表示部を備えた表示装置によるOSD表示方法であって、前記表示部の画面を見るユーザを撮影する撮影ステップと、該撮影した撮影データを解析してユーザの位置および視線の方向を検出する視線検出ステップと、該検出したユーザの位置および視線の方向に基づいて該視線が到達する前記表示部の画面上の領域を決定する領域決定ステップと、該決定した領域の画像データから特定部分を抽出する特定部分抽出ステップと、該抽出した特定部分の位置に重ならないようにOSDの表示位置を算出するOSD表示位置算出ステップと、該算出したOSDの表示位置に該OSDを表示する表示ステップとを備えたことを特徴としたものである。
本発明によれば、ネットワークを介して受信した画像データを領域毎に表示させたときに、ユーザの位置および視線を検出することによりユーザが見ている領域を決定し、その領域の画像データに含まれる特定部分に重ならないようにOSDの表示位置を算出することができるため、ユーザが視線を向けた領域の画像データの邪魔にならず、ユーザが見易い適切な場所にOSDを配置することができる。
本発明の一実施形態に係る表示装置の構成例を示すブロック図である。 本発明の表示装置をビデオ電話システムに適用した場合の画面表示例を示す図である。 本発明の表示装置によるOSD表示方法の一例を説明するための図である。 表示位置算出部による第1、第2の表示位置算出処理のアルゴリズムの概要を説明する図である。 表示位置算出部による第1の表示位置算出処理の一例を説明するためのフロー図である。 表示位置算出部による第1の表示位置算出処理の一例を説明するためのフロー図である。 表示位置算出部による第2の表示位置算出処理の一例を説明するためのフロー図である。 videoXがvideoA(X=A)であった場合の映像例を示す図である。 画像検出部によりユーザの視線を検出する方法の一例を説明するための図である。 画像検出部によりユーザの位置を抽出する方法の一例を説明するための図である。 ユーザが見ているポイントの中心位置を算出する方法の一例を説明するための図である。 図11に示すθuを算出する方法の一例を説明するための図である。 本発明による表示装置に表示される他のOSDの画面表示例を示す図である。 本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。 本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。 本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。 本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。 従来の表示装置を用いたビデオ電話システムにおける画面表示例を示す図である。
以下、添付図面を参照しながら、本発明の表示装置およびOSD表示方法に係る好適な実施の形態について説明する。
図1は、本発明の一実施形態に係る表示装置の構成例を示すブロック図で、図中、10は表示装置を示す。表示装置10は、距離・視線角度検出用データベース11と、画像データから特定部分(顔部分や矩形部分など)を抽出する画像検出部12と、表示装置10の動作を制御する主制御部13と、OSD(On Screen Display)の表示位置を算出する表示位置算出部14と、映像表示制御部15aおよびOSD表示制御部15bを含む表示部15と、リモコン等の操作入力機器21と通信し操作入力機器21から操作信号を入力する通信部16と、カメラ22と接続しカメラ22の動作を制御するカメラ制御部17と、ネットワークの一例であるインターネット23を介して他のユーザの表示装置と接続するインターネット制御部18とを備える。
図2は、本発明の表示装置をビデオ電話システムに適用した場合の画面表示例を示す図である。本例では、表示装置10で実行される所定のアプリケーションの一例としてSkype(登録商標)等のビデオ電話アプリケーション(ビデオ電話アプリ)を例示し、このビデオ電話アプリを用いて、ユーザA〜Dの4人のユーザ間でインターネット23を介してビデオ会議を行う場合について説明する。つまり、ユーザDは表示装置10の画面を見ながら、ユーザA〜Cと音声通話を行うように構成されている。表示装置10は、ユーザAの画像を表示する領域151と、ユーザBの画像を表示する領域152と、ユーザCの画像を表示する領域153とを有し、OSDの表示内容の一例としてビデオ電話アプリを操作するための操作パネル154を表示する。なお、ユーザDはカメラ22で撮影され、ユーザDの撮影画像は他のユーザA〜Cの表示装置(図示せず)にインターネット23を介して送信され、図2の例と同様にユーザA〜Cのそれぞれの表示装置の画面上に表示される。
本発明の主たる目的は、ネットワークを介して受信した画像データを領域毎に表示させたときに、ユーザが視線を向けた領域の画像データの邪魔にならず、ユーザが見易い適切な場所にOSDを配置することにある。このための構成として、図1,2において、表示装置10は、表示部15の画面を見るユーザDを撮影する撮影部と、撮影した撮影データを解析してユーザDの位置および視線の方向を検出する視線検出部と、検出したユーザDの位置および視線の方向に基づいて視線が到達する表示部15の画面上の領域を決定する領域決定部と、決定した領域の画像データから特定部分(顔部分など)を抽出する特定部分抽出部と、抽出した特定部分の位置に重ならないようにOSDの表示位置を算出するOSD表示位置算出部とを備える。なお、カメラ22は撮影部に相当し、画像検出部12は視線検出部、領域決定部、および特定部分抽出部に相当し、表示位置算出部14はOSD表示位置算出部に相当する。
表示部15は、例えば、液晶ディスプレイなどの表示デバイスとして構成され、インターネット23を介して受信したユーザA〜Cのビデオストリームを領域毎に表示すると共に、表示位置算出部14で算出したOSDの表示位置に操作パネル154を表示する。表示部15は、映像表示制御部15aおよびOSD表示制御部15bを備え、映像表示制御部15aはユーザA〜Cのビデオストリームを領域毎に表示するように表示部15を制御し、OSD表示制御部15bは表示位置算出部14で算出したOSDの表示位置に操作パネル154が表示されるように表示部15を制御する。
図2において、ユーザA〜Dの4者間でビデオ通話を行う際に、ユーザDの表示装置10では、ユーザA,B,Cの各表示装置(図示せず)から、ユーザA,B,Cそれぞれを撮影したビデオストリームとして、videoA,B,Cをインターネット23経由で受信し、図2(A)に示すように、表示部15の各領域に表示する。また、表示部15の中心にはカメラ22が設置されており、カメラ22によりユーザDが撮影される。そして、表示装置10は、ユーザDを撮影したビデオストリームとして、videoDをインターネット23経由でユーザA,B,Cの各表示装置に送信する。
また、ビデオ電話アプリを操作するための操作パネル154を図2(B)に例示する。この操作パネル154は、リモコン等の操作入力機器21の十字キーに応じて操作ができるように操作ボタンが配置されている。つまり、ユーザDは、操作パネル154を見ながら操作入力機器21の十字キーを操作することにより、操作パネル154の操作ボタンを選択して実行することができる。なお、図2(B)の例では「End call」が選択されている。
図3は、本発明の表示装置10によるOSD表示方法の一例を説明するための図である。なお、videoAはユーザAを撮影したビデオストリーム、videoBはユーザBを撮影したビデオストリーム、videoCはユーザCを撮影したビデオストリーム、videoDはユーザDを撮影したビデオストリームを示す。
まず、カメラ22でユーザDを撮影したvideoDは、主制御部13に送信され(S1)、主制御部13は、このvideoDをインターネット23を介してユーザA〜Cの各表示装置に送信すると共に、映像表示制御部15aに出力し(S2)、映像表示制御部15aは、主制御部13から入力されたvideoDを“PlaneL”として図示しないフレームバッファに保存する(S3)。
次に、主制御部13は、インターネット23を介してユーザA〜Cの各表示装置からvideoA,B,Cおよびその領域情報を受信し(S4)、受信したvideoA,B,Cの領域情報として、AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h)をメモリ(図示せず)に保存する(S5)。そして、主制御部13は、videoA,B,Cおよびその領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))を映像表示制御部15aに出力し(S6)、映像表示制御部15aは、主制御部13から入力されたvideoA,B,Cおよびその領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))を、それぞれ“PlaneA”、“PlaneB”、“PlaneC”としてフレームバッファに保存し、これらのvideoA,B,Cを図2(A)の例のように画面上に表示する。(S7)。
次に、主制御部13は、カメラ22からユーザDを撮影したvideoDを入力すると(S8)、このvideoDを画像検出部12に出力する(S9)。画像検出部12は、主制御部13から入力されたvideoDを解析しユーザDの位置および視線の方向を検出し、検出したユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))を主制御部13に返す(S10)。主制御部13は、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))をメモリに保存し(S11)、S5で保存したvideoA,B,Cの領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))と、S11で保存したユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))とを表示位置算出部14に出力する(S12)。この際、カメラ22の設置位置情報(CameraPosition(x,y))も主制御部13から表示位置算出部14に出力される。なお、本例ではカメラ22の設置位置は固定としている。
表示位置算出部14は、主制御部13から入力された、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))と、videoA,B,Cの領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))と、カメラ22の設置位置情報(CameraPosition(x,y))とに基づいて、第1の表示位置算出処理を実行する(S13)。
表示位置算出部14による第1の表示位置算出処理のアルゴリズムの概要を図4(A)に示す。表示位置算出部14は、上記のDposition(x,y,z)、Deye_dir(r,y,p)、AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h)、CameraPosition(x,y)が入力されると、三角関数を用いて、ユーザDが見ているポイントの中心位置(UserSpot(x,y))を複数確定し(S31)、確定した複数のUserSpot(x,y)の平均値を取得する(S32)。そして、表示位置算出部14は、取得した平均値に基づいてユーザDがユーザA、B,Cの誰を見ているか(つまり、ユーザDがvideoA,B,Cのどのvideo planeを見ているか)を決定し(S33)、主制御部13に対して、videoX(X=AorBorC)が選択されたことを示す“Select VideoX=AorBorC”を出力する。
すなわち、図3において、表示位置算出部14は、上記の第1の表示位置算出処理により、videoA,B,Cの中からユーザDが見ているvideoX(X=AorBorC)を選択し、videoX(X=AorBorC)が選択されたことを示す“Select VideoX=AorBorC”を主制御部13に出力する(S14)。
次に、主制御部13は、表示位置算出部14から入力された“Select VideoX=AorBorC”に応じて、インターネット23を介してvideoX(X=AorBorC)を受信すると(S15)、受信したvideoX(X=AorBorC)を画像検出部12に出力する(S16)。画像検出部12は、主制御部13から入力されたvideoX(X=AorBorC)から顔検出を行ない、その検出結果(Xface(x,y,v,h))を主制御部13に返す(S17)。なお、顔検出は従来公知の方法により実現することができる。主制御部13は、顔検出結果(Xface(x,y,v,h))をメモリに保存し(S18)、表示位置算出部14に対して、S11で保存したユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))と、videoXの領域情報(XVideo(x,y,v,h))と、S18で保存した顔検出結果(Xface(x,y,v,h))とを出力する(S19)。
表示位置算出部14は、主制御部13から入力された、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))と、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、第2の表示位置算出処理を実行する(S20)。
表示位置算出部14による第2の表示位置算出処理のアルゴリズムの概要を図4(B)に示す。表示位置算出部14は、上記のDposition(x,y,z)、Deye_dir(r,y,p)、XVideo(x,y,v,h)、Xface(x,y,v,h)が入力されると、Xface(対象物:本例では顔部分)の位置に重複せず、且つ、Xfaceの近傍に操作パネル154の表示位置を決定する(S41)。例えば、Xface(x=40,y=40,v=50,h=60)の場合、XVideo(x,y,v,h)で定まる範囲内で顔の斜め上側に十分なスペースがあれば、その位置に操作パネル154を配置する。そして、表示位置算出部14は、操作パネル154の表示ポジションデータを生成し(S42)、主制御部13に対して、表示ポジションデータを示す“Pposition(x,y,v,h)”を出力する。
すなわち、図3において、表示位置算出部14は、上記の第2の表示位置算出処理により、操作パネル154を画面上に表示する際の表示位置を示す表示ポジションデータ(Pposition(x,y,v,h))を主制御部13に出力する(S21)。
次に、主制御部13は、表示位置算出部14から入力された“Pposition(x,y,v,h)”に基づいて、OSD表示制御部15bに対して、操作用GUI(Graphical User Interface)である操作パネル154をOSDとして描画するように指示する(S22)。OSD表示制御部15bは、主制御部13からの指示に従って、表示ポジションデータ(Pposition(x,y,v,h))に対応する表示位置に、操作パネル154を表示するように表示部15を制御する(S23)。
図5,6は、表示位置算出部14による第1の表示位置算出処理の一例を説明するためのフロー図である。本例のフローは図4(A)に示した処理を具体的に説明したものである。まず、図5において、表示位置算出部14は、主制御部13から、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))、videoA〜Cの領域情報(AVideo(x,y,v,h)、BVideo(x,y,v,h)、CVideo(x,y,v,h))、カメラ22の位置情報(CameraPosition(x,y))が入力されると、三角関数を用いて、ユーザDが見ているポイントの中心位置(UserSpot(x,y))を複数確定し(ステップS51)、確定した複数(本例では20個分)のUserSpot(x,y)をリングバッファに格納する(ステップS52)。つまり、10fps(frame per second)=100ms周期で、2s間の平均を取る。そして、20個分たまっている場合には、分散の大きなデータを省く処理を行い(ステップS53)、20個分のUserSpot(x,y)の平均値(Ave_UserSpot(x,y))をメモリに格納する(ステップS54)。
次に、図6において、表示位置算出部14は、メモリに格納された平均値(Ave_UserSpot(x,y))を取得すると(ステップS61)、平均値(Ave_UserSpot(x,y))がvideoAの領域情報(AVideo(x,y,v,h))に含まれるか否かを判定し(ステップS62)、含まれると判定した場合(YESの場合)、ユーザDが見ている領域として、videoAを選択し、videoAを選択したことを示す“Select VideoX=A”を生成する(ステップS63)。そして、表示位置算出部14は、主制御部13に対して、videoAを選択したことを示す“Select VideoX=A”(Select Video Value)を出力する(ステップS64)。
また、表示位置算出部14は、ステップS62において、平均値(Ave_UserSpot(x,y))がvideoAの領域情報(AVideo(x,y,v,h))に含まれないと判定した場合(NOの場合)、平均値(Ave_UserSpot(x,y))がvideoBの領域情報(BVideo(x,y,v,h))に含まれるか否かを判定し(ステップS65)、含まれると判定した場合(YESの場合)、ユーザDが見ている領域として、videoBを選択し、videoBを選択したことを示す“Select VideoX=B”を生成する(ステップS66)。そして、ステップS64に移行して、表示位置算出部14は、主制御部13に対して、videoBを選択したことを示す“Select VideoX=B”(Select Video Value)を出力する。
また、表示位置算出部14は、ステップS65において、平均値(Ave_UserSpot(x,y))がvideoBの領域情報(BVideo(x,y,v,h))に含まれないと判定した場合(NOの場合)、平均値(Ave_UserSpot(x,y))がvideoCの領域情報(CVideo(x,y,v,h))に含まれるか否かを判定し(ステップS67)、含まれると判定した場合(YESの場合)、ユーザDが見ている領域として、videoCを選択し、videoCを選択したことを示す“Select VideoX=C”を生成する(ステップS68)。そして、ステップS64に移行して、表示位置算出部14は、主制御部13に対して、videoCを選択したことを示す“Select VideoX=C”(Select Video Value)を出力する。
また、表示位置算出部14は、ステップS67において、平均値(Ave_UserSpot(x,y))がvideoCの領域情報(CVideo(x,y,v,h))に含まれないと判定した場合(NOの場合)、前回値(videoAorBorC)を選択し、前回値(videoAorBorC)を選択したことを示す“Select VideoX=前回値”を生成する(ステップS69)。そして、ステップS64に移行して、表示位置算出部14は、主制御部13に対して、前回値を選択したことを示す“Select VideoX=前回値”(Select Video Value)を出力する。
図7は、表示位置算出部14による第2の表示位置算出処理の一例を説明するためのフロー図である。本例のフローは図4(B)に示した処理を具体的に説明したものである。まず、表示位置算出部14は、主制御部13から、ユーザDの位置(Dposition(x,y,z))および視線の方向(Deye_dir(r,y,p))、videoX(X=AorBorC)の領域情報(XVideo(x,y,v,h))、videoXの顔検出結果(Xface(x,y,v,h))が入力されると、これらの情報の中から顔検出結果(Xface(x,y,v,h))を抽出する(ステップS71)。ここで、videoXがvideoA(X=A)であった場合の映像例を図8に示す。なお、videoB、Cの場合も同様である。
図8において、videoAの領域は矩形とされ、左上端の位置がAVideo(x,y)、右下端の位置がAVideo(x+v,y+h)と示される。これより、videoAの領域情報は、AVideo(x,y,v,h)と示される。また、顔部分についても同様に、左上端の位置がAface(x,y)、右下端の位置がAface(x+v,y+h)と示される。これより、顔部分の位置を示す顔検出結果は、Aface(x,y,v,h)と示される。また、“Position data”はOSD(本例の場合、操作パネル154)の表示位置を示しており、このOSDはデフォルトではvideoAの右下端に配置される。そして、デフォルトポジションとして、OSDの左上端の位置はdefaultPosition(x,y)、右下端の位置はdefaultPosition(x+v,y+h)で示される。このように、OSD(操作パネル154)は、顔部分に重ならない位置であって、顔部分の近傍位置に配置される。
次に、図7において、表示位置算出部14は、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、顔部分の右側に操作パネル154の表示スペースがあるか否かを判定する(ステップS72)。そして、表示スペースがあると判定した場合(YESの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=Xface(x)+Xface(v)+α、Position data(y)=Xface(y)+β、を生成し(ステップS73)、主制御部13に対して、操作パネル154の“Position data”を出力する(ステップS74)。なお、α(x方向)、β(y方向)は、図8に例示するように、顔部分の右上端とOSD(操作パネル154)の左上端との距離を示す。
また、表示位置算出部14は、ステップS72において、顔部分の右側に操作パネル154の表示スペースがないと判定した場合(NOの場合)、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、顔部分の左側に操作パネル154の表示スペースがあるか否かを判定する(ステップS75)。そして、表示スペースがあると判定した場合(YESの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=Xface(x)-OSDsize(v)-α、Position data(y)=Xface(y)+β、を生成し(ステップS76)、ステップS74に移行して、主制御部13に対して、操作パネル154の“Position data”を出力する。
また、表示位置算出部14は、ステップS75において、顔部分の左側に操作パネル154の表示スペースがないと判定した場合(NOの場合)、videoXの領域情報(XVideo(x,y,v,h))と、顔検出結果(Xface(x,y,v,h))とに基づいて、顔部分の下側に操作パネル154の表示スペースがあるか否かを判定する(ステップS77)。そして、表示スペースがあると判定した場合(YESの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=Xface(x)-OSDsize(v)-α、Position data(y)=Xface(y)+Xface(h)+β、を生成し(ステップS78)、ステップS74に移行して、主制御部13に対して、操作パネル154の“Position data”を出力する。
また、表示位置算出部14は、ステップS77において、顔部分の下側に操作パネル154の表示スペースがないと判定した場合(NOの場合)、操作パネル154の表示位置を示す“Position data”として、Position data(x)=defaultPositon(x)、Position data(y)=defaultPosition(y)、を生成し(ステップS79)、ステップS74に移行して、主制御部13に対して、操作パネル154の“Position data”を出力する。すなわち、顔部分の右側、左側、下側に表示スペースがない場合には、操作パネル154は図8に示すデフォルトポジションに配置される。
図9は、画像検出部12によりユーザDの視線を検出する方法の一例を説明するための図である。前述の図1の例において、ユーザDの視線を検出する方法は、例えば、特開2007−213469号公報に記載された方法や、「沼尻 貴昭, 中村 明生, 久野 義徳、「多量情報の効率的取得のための高速閲覧システム」、第8回画像センシングシンポジウム (SSII 2002) 講演論文集, pp.463-468, 横浜, July 2002」に記載された方法など、従来公知の方法を用いて実行することができる。以下では、特開2007−213469号公報に記載された方法について簡単に説明する。
図9に示すように、眼球は円(球体)と仮定することができるから、水平方向の視線の角度をθ、眼球の半径をr、目の中心から虹彩の中心までの距離をdとすると、次の式(1)の関係が成り立つ。
θ=sin-1(d/r) …式(1)
ここで、距離dは、目の画像を解析して求めることができる。また、眼球の半径rは、予め視線角度が分かっている方向(角度θ0)を見たときの目の中心から虹彩の中心までの距離d0を求め、θ0及びd0を式(1)に代入して求めることができる。画像検出部12は、こうして求めた眼球の半径rと、カメラ22の映像の解析から得た距離dとを用いて、式(1)から、時々刻々と変わる水平方向の視線の向きを算出することができる。これにより、ユーザDの視線の向きθ、すなわち、前述の(Deye_dir(r,y,p))を求めることができる。
図10は、画像検出部12によりユーザDの位置を抽出する方法の一例を説明するための図である。前述の図1に示した距離・視線角度検出用データベース11には、ユーザの顔のサイズと、カメラ22からの距離の情報とが保持されている。例えば、ユーザの顔部分のサイズを(v,h)、カメラ22からの距離をDcとした場合に、(1)v=10、h=15、Dc=1000mm、(2)v=20、h=30、Dc=700mm、(3)v=30、h=50、Dc=400mm、(4)・・・、などと予め保持しておく。画像検出部12は、ユーザDを撮影した撮影データから顔部分を検出し、その顔部分のサイズ(v,h)を求める。そして、画像検出部12は、ユーザDの顔部分のサイズ(v,h)に基づき、距離・視線角度検出用データベース11を参照し、カメラ22からユーザDまでの距離Dc、つまり、ユーザDの位置Dcを求めることができる。これにより、ユーザDの位置Dc、すなわち、前述の(Dposition(x,y,z))を求めることができる。
図11は、ユーザDが見ているポイントの中心位置を算出する方法の一例を説明するための図である。本例では前述の図5で説明したUserSpot(x,y)を算出する方法について説明する。なお、カメラ22の位置を“Xcamara”とし本例では固定とする。図中、dは表示部15の画面からカメラ22のレンズまでの距離を示し、予め定められた値である。また、Dcはカメラ22のレンズからユーザDまでの距離を示し、前述の図10で説明した方法により求めることができる。また、θuはカメラ22の中心を通り表示部15の画面に直交する線分31とカメラ22とユーザDとでなす角度を示し、本例では予め定められた値とする。また、θはユーザDの視線の向きを示し、前述の図9で説明した方法により求めることができる。
上記より、カメラ22からユーザDが見ているポイントの中心位置までの距離をxとすると、
x=(Dc+d)tanθ−(Dc)tanθu …式(2)
DisplayPosition(x)=Xcamera+x …式(3)
この式(2)、(3)により、ユーザDが見ているポイントの中心位置(UserSpot(x,y))を求めることができる。
図12は、図11に示すθuを算出する方法の一例を説明するための図である。このように画像解析によりθuを算出するようにしてもよい。図12の例は、カメラ22でユーザDを撮影して得た画像データであり、点線が画像データ上の中心位置を示している。カメラ22の水平画角θmaxは、カメラ22の設計により固定値となる。また、この画像データの中心位置(点線の位置)からユーザDの顔部分の中心までの距離(画素数)をpx(計測値)、カメラ22の水平解像度の1/2をpxmax(固定値)とすると、θuとの間で以下の式が成立する。
θu:θmax=px:pxmax …式(4)
θu=(px/pxmax)×θmax …式(5)
なお、距離pxは、ユーザDの顔部分を検出し、検出した顔部分の中心までの画素数を計測することで得ることができる。そして、これらθmax、px、pxmaxと式(5)によりθuを算出することができる。
このように本発明によれば、ネットワークを介して受信した画像データを領域毎に表示させたときに、ユーザの位置および視線を検出することによりユーザが見ている領域を決定し、その領域の画像データに含まれる特定部分(顔部分など)に重ならないようにOSDの表示位置を算出することができるため、ユーザが視線を向けた領域の画像データの邪魔にならず、ユーザが見易い適切な場所にOSDを配置することができる。
図13は、本発明による表示装置に表示される他のOSDの画面表示例を示す図である。本例の場合、OSDとしてプレゼンテーション資料(以下、プレゼン資料)155を表示させる。プレゼン資料155は、例えば、MicrosoftPowerPoint(登録商標)などのアプリケーションソフトを利用して適宜作成することができる。ユーザDがユーザA〜Cに対してプレゼンテーションを行っているときに、例えば、ユーザAの方向を向いてプレゼン資料155を説明する場合を想定する。この場合、プレゼン資料155は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、プレゼン資料155の内容を説明することができる。これにより、重点的にプレゼンしたい相手に対して、効果的なプレゼンを行うことが可能となる。
図14は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。図14(A)は図14(B)に示す操作パネル156を表示部15に表示させたときの画面表示例を示す。本例の場合、OSDとしてユーザDの撮影画像を含む操作パネル156を表示させる。ユーザDがユーザA〜Cとの間でビデオ会議を行っているときに、例えば、ユーザAの方向を向いて操作パネル156を操作する場合を想定する。この場合、操作パネル156は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、操作入力機器21を用いて操作パネル156を操作することができる。そして、さらに、操作パネル156にユーザD自身の撮像画像がプレビュー表示されるため、ユーザA〜Cの各表示装置においてユーザD自身が表示されていることを確認することができる。このように、OSDの表示内容として、ビデオ電話アプリに係る付加情報を含むようにしてもよい。本例の場合、付加情報として、ユーザD自身の撮影画像がプレビュー表示される。
図15は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。本例の場合、OSDとしてTVの番組視聴予約のコーション157を表示させる。このコーション157は時刻情報を含むようにしてもよい。ユーザDがユーザA〜Cとの間でビデオ会議を行っているときに、例えば、ユーザAの方向を向いて話す場合を想定する。この場合、コーション157は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、コーション157の内容を確認することができる。
図16は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。図16(A)は図16(B)に示す操作パネル158を表示部15に表示させたときの画面表示例を示す。本例の場合、OSDとしてユーザA〜Dの全ての撮影画像を含む操作パネル158を表示させる。ユーザDがユーザA〜Cとの間でビデオ会議を行っているときに、例えば、ユーザAの方向を向いて操作パネル158を操作する場合を想定する。この場合、操作パネル158は、ユーザAの顔に重ならないようにOSD表示されるため、ユーザDはユーザAの顔を見ながら、操作入力機器21を用いて操作パネル158を操作することができる。そして、さらに、操作パネル158にユーザA〜Dの全ユーザの撮像画像がプレビュー表示されるため、ユーザDはユーザAの顔に注視しながらも、他のユーザB,Cの顔を確認し、さらには、ユーザD自身の顔を確認することができる。このように、OSDの表示内容として、ビデオ電話アプリに係る付加情報を含むようにしてもよい。本例の場合、付加情報として、ユーザA〜Dの撮影画像がプレビュー表示される。
図17は、本発明による表示装置に表示される更に他のOSDの画面表示例を示す図である。本例の表示部15は、記事159aを含むHP(ホームページ)1を表示する領域159と、HP2を表示する領域160と、HP3を表示する領域161とを有し、OSDとしてビデオ電話の着信を示す着信OSD162を表示させる。ユーザDがHP1の方向を向いて記事159aを読んでいるときに、ビデオ電話の着信があった場合を想定する。この着信OSD162は、HP1の記事159aに重ならないようにOSD表示されるため、ユーザDは記事159aを読みながら、着信OSD162を確認することができる。このため、ユーザはビデオ電話の着信があった場合でもHPの閲覧を妨害されることがなく、また、着信OSD162によってHPの画面からビデオ電話の画面へスムーズに移行させることができる。
10…表示装置、11…距離・視線角度検出用データベース、12…画像検出部、13…主制御部、14…表示位置算出部、15…表示部、15a…映像表示制御部、15b…OSD表示制御部、16…通信部、17…カメラ制御部、18…インターネット制御部、21…操作入力機器、22…カメラ、23…インターネット。

Claims (6)

  1. ネットワークを介して受信した画像データを領域毎に表示する表示部を備えた表示装置であって、
    前記表示部の画面を見るユーザを撮影する撮影部と、該撮影した撮影データを解析してユーザの位置および視線の方向を検出する視線検出部と、該検出したユーザの位置および視線の方向に基づいて該視線が到達する前記表示部の画面上の領域を決定する領域決定部と、該決定した領域の画像データから特定部分を抽出する特定部分抽出部と、該抽出した特定部分の位置に重ならないようにOSDの表示位置を算出するOSD表示位置算出部とを備え、
    前記表示部は、前記OSD表示位置算出部で算出したOSDの表示位置に該OSDを表示することを特徴とする表示装置。
  2. 請求項1に記載の表示装置において、前記特定部分抽出部は、前記特定部分として、人間の顔部分を抽出することを特徴とする表示装置。
  3. 請求項1または2に記載の表示装置において、前記OSDの表示内容は、前記表示装置で実行される所定のアプリケーションを操作するための操作パネルであることを特徴とする表示装置。
  4. 請求項3に記載の表示装置において、前記OSDの表示内容は、前記所定のアプリケーションに係る付加情報を含むことを特徴とする表示装置。
  5. 請求項1〜4のいずれか1項に記載の表示装置において、前記OSDは、前記特定部分に重ならない位置であって、該特定部分の近傍位置に配置されることを特徴とする表示装置。
  6. ネットワークを介して受信した画像データを領域毎に表示する表示部を備えた表示装置によるOSD表示方法であって、
    前記表示部の画面を見るユーザを撮影する撮影ステップと、該撮影した撮影データを解析してユーザの位置および視線の方向を検出する視線検出ステップと、該検出したユーザの位置および視線の方向に基づいて該視線が到達する前記表示部の画面上の領域を決定する領域決定ステップと、該決定した領域の画像データから特定部分を抽出する特定部分抽出ステップと、該抽出した特定部分の位置に重ならないようにOSDの表示位置を算出するOSD表示位置算出ステップと、該算出したOSDの表示位置に該OSDを表示する表示ステップとを備えたことを特徴とするOSD表示方法。
JP2011271107A 2011-12-12 2011-12-12 表示装置およびosd表示方法 Active JP5845079B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011271107A JP5845079B2 (ja) 2011-12-12 2011-12-12 表示装置およびosd表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011271107A JP5845079B2 (ja) 2011-12-12 2011-12-12 表示装置およびosd表示方法

Publications (2)

Publication Number Publication Date
JP2013122529A JP2013122529A (ja) 2013-06-20
JP5845079B2 true JP5845079B2 (ja) 2016-01-20

Family

ID=48774517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011271107A Active JP5845079B2 (ja) 2011-12-12 2011-12-12 表示装置およびosd表示方法

Country Status (1)

Country Link
JP (1) JP5845079B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014207828A1 (ja) * 2013-06-25 2014-12-31 富士通株式会社 情報処理装置およびプログラム
KR102496603B1 (ko) * 2018-05-30 2023-02-03 삼성에스디에스 주식회사 어플리케이션 실행 화면의 위치 선정 방법
JP2020091617A (ja) 2018-12-05 2020-06-11 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112949A (ja) * 1997-10-06 1999-04-23 Sanyo Electric Co Ltd データ多重送信器、データ多重受信器、およびそれらを用いたデータ多重送受信システム
JP2004110769A (ja) * 2003-06-09 2004-04-08 Canon Inc 端末及びポインティングデバイス
JP5263476B2 (ja) * 2007-10-12 2013-08-14 セイコーエプソン株式会社 プロジェクタ、会議支援システムおよび会議支援方法

Also Published As

Publication number Publication date
JP2013122529A (ja) 2013-06-20

Similar Documents

Publication Publication Date Title
US11470377B2 (en) Display apparatus and remote operation control apparatus
JP7385052B2 (ja) 撮影方法、装置、電子機器および記憶媒体
US8502780B1 (en) Head mount display and method for controlling the same
US10757335B2 (en) Mobile terminal
JP7005161B2 (ja) 電子機器及びその制御方法
JP2007121489A (ja) 携帯表示装置
CN108965656B (zh) 显示控制设备、显示控制方法和存储介质
JP2006235771A (ja) 遠隔操作装置
KR20130094023A (ko) 디스플레이장치 및 그 시선추적방법
KR102474729B1 (ko) 모니터링 장치
JP2008097571A (ja) 電子機器および有効な機能の選択方法
JP5845079B2 (ja) 表示装置およびosd表示方法
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
EP2953351A1 (en) Method and apparatus for eye-line augmentation during a video conference
WO2023040288A1 (zh) 显示设备及设备控制方法
CN104238983B (zh) 一种控制方法及电子设备
EP3561570A1 (en) Head-mounted display apparatus, and visual-aid providing method thereof
JP6792721B2 (ja) 電子機器、プログラム、制御装置および制御方法
US20140043445A1 (en) Method and system for capturing a stereoscopic image
US9832372B1 (en) Dynamic vediotelphony systems and methods of using the same
US11265529B2 (en) Method and apparatus for controlling image display
WO2021076301A1 (en) Facial tracking during video calls using remote control input
JP7005160B2 (ja) 電子機器及びその制御方法
WO2018186004A1 (ja) 電子機器及びその制御方法
US11232796B2 (en) Voice activity detection using audio and visual analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151120

R150 Certificate of patent or registration of utility model

Ref document number: 5845079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150