JP6478454B2 - Display device including imaging unit and control method thereof - Google Patents
Display device including imaging unit and control method thereof Download PDFInfo
- Publication number
- JP6478454B2 JP6478454B2 JP2013251364A JP2013251364A JP6478454B2 JP 6478454 B2 JP6478454 B2 JP 6478454B2 JP 2013251364 A JP2013251364 A JP 2013251364A JP 2013251364 A JP2013251364 A JP 2013251364A JP 6478454 B2 JP6478454 B2 JP 6478454B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- face
- image
- user
- imaging unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、有機EL(エレクトロルミネッセンス)、液晶、プラズマ方式などの比較的薄型の表示機器と一体的に撮像機器を備えた表示装置に関する。さらに詳しくは、テレビ会議などのリアルタイム双方向通信などに好適な撮像機能を有する表示装置に関する。 The present invention relates to a display device including an imaging device integrally with a relatively thin display device such as an organic EL (electroluminescence), a liquid crystal, or a plasma method. More specifically, the present invention relates to a display device having an imaging function suitable for real-time bidirectional communication such as a video conference.
近年、通信網が発達し、テレビ会議などのリアルタイム双方向通信が可能となった。テレビ会議は、被写体像を電気的な画像信号に変換する撮像手段と、電気的な画像信号を光信号に変換して表示する表示手段を備える。テレビ会議の利用者は、表示画面に映った相手の顔画像を見ながら会話をし、同時に利用者の顔は、撮像手段により撮影され電気信号に変換されて相手に送られる。 In recent years, communication networks have been developed, enabling real-time two-way communication such as video conferencing. The video conference includes an imaging unit that converts a subject image into an electrical image signal, and a display unit that converts the electrical image signal into an optical signal for display. The user of the video conference talks while looking at the other party's face image displayed on the display screen, and at the same time, the user's face is photographed by the imaging means, converted into an electrical signal, and sent to the other party.
従来のテレビ会議などの双方向通信用装置では、撮像手段が表示装置の周辺部に配置されるか、または表示装置とは別の独立した撮像装置として設置する構成である。このため、表示画面を見ている観察者の撮影は、斜め方向から行われることになる。表示画面に映った相手の顔は視線が別のところを向いており、相互に話していてもぎこちなくなる可能性がある。相手と面と向かって話をする場合に比較して違和感をもたらすという問題がある。また撮像装置と表示装置とを別々に製造する形態ではコストが嵩み、別個の装置として取り扱う必要があるため、システムの構築が煩雑になるという問題がある。 In a conventional two-way communication device such as a video conference, the image pickup means is arranged in the peripheral portion of the display device or installed as an independent image pickup device separate from the display device. For this reason, photographing of the observer who is looking at the display screen is performed from an oblique direction. The other person's face on the display screen has a different line of sight, which can be awkward even if they talk to each other. There is a problem that it causes a sense of incongruity compared to the case of talking face to face with the other party. Further, in the form of separately manufacturing the imaging device and the display device, there is a problem that the cost increases and it is necessary to handle them as separate devices, so that the construction of the system becomes complicated.
これらの問題を解決するために、特許文献1は撮像装置付き表示装置を開示している。この装置は、複数の表示画素と複数の表示画素の各表示画素間に配置された遮光部材とを備えた表示手段と、表示手段の背部に配置された撮像手段とを具備する。遮光部材は一部に撮像手段に光を導くための開口部を備え、撮像手段は開口部に対応した位置に結像手段を備える。表示手段を見ながらの撮像ができ、かつ表示手段に表示される相手と自分の視線を一致させることが可能となる。その結果、テレビ会議等で対話する相手に対して利用者が自分を見て話しているように認識してもらえるようになり、コミュニケーション力が向上する。利用者同士の視線を合致させる際、利用者がカメラの場所を注視するように、カメラの配設されている位置に相手側の顔画像を重畳する表示制御が行われる。
In order to solve these problems,
図8は従来の装置の画像表示方法の説明図である。撮像装置付き表示装置1の表示パネル2の背面にて、表示画面の中央部にカメラ10が配設されている。図8(A)は表示画像を例示し、表示パネル2には利用者αの顔画像がカメラ10の位置に重なって表示される。利用者αの顔画像の背景として、例えば窓枠γが映り込んでいる。図8(B)は図8(A)に示す状態から利用者αが動いた場合を示している。撮像装置付き表示装置1は、利用者αの顔画像とカメラ10の位置とが重畳するように表示制御を行う。その結果、図8(C)に示すように、利用者αの顔画像は画面中央の位置に表示される。
FIG. 8 is an explanatory diagram of an image display method of a conventional apparatus. On the back surface of the
従来の装置では、相手側の利用者が顔の位置を動かした場合、顔画像の位置は、例えばカメラの配設された画面中央に固定された状態となり、背景だけが動いてしまう。よって、いわゆる流し撮りをしているかのような表示画像となり、利用者が違和感をもつ可能性がある。
本発明の目的は、対話を行う相手側の利用者が顔の位置を動かした場合でも、違和感なく利用者同士の視線を合致させる効果が得られる撮像装置付き表示装置を提供することである。
In the conventional apparatus, when the user on the other side moves the position of the face, the position of the face image is fixed, for example, at the center of the screen where the camera is disposed, and only the background moves. Therefore, the display image appears as if so-called panning is taken, and the user may feel uncomfortable.
An object of the present invention is to provide a display device with an imaging device that can obtain an effect of matching the line of sight of users without a sense of incongruity even when a user on the other side of the conversation moves the face position.
上記課題を解決するために、本発明に係る装置は、表示部と該表示部の背面に配置された撮像部を備える表示装置であって、画像信号および当該画像信号に係る画像における被写体の顔の位置の情報の入力および前記撮像部による撮像信号の出力を行う入出力手段と、前記入出力手段により得られた前記被写体の顔の位置の情報を取得し、該顔の位置の時間変化量に応じて顔画像の表示位置を決定する演算手段と、前記演算手段が決定した前記顔画像の表示位置に前記顔画像を表示させる制御を行う表示制御手段と、を備える。前記演算手段は、前記撮像部による前記撮像信号に基づいて前記表示部の観察距離の情報と観察者の位置の情報とを取得し、前記観察距離の情報と前記観察者の位置の情報とに基づいて、前記観察者の位置を基準とした前記顔画像の表示位置と前記撮像部との角度の時間変化量を決定することで前記顔画像の表示位置を決定する際、前記被写体の顔の位置の時間変化量が増加するにしたがって、前記顔画像の表示位置と前記撮像部との角度の時間変化量が増加し、且つ、前記顔画像の表示位置と前記撮像部との角度の時間変化量が、閾値以下となるように前記画像の表示位置を算出する。前記閾値は、視線が合致していると認識できる角度である。
In order to solve the above-described problems, an apparatus according to the present invention is a display device that includes a display unit and an imaging unit disposed on a back surface of the display unit, and includes a face of a subject in an image signal and an image related to the image signal. and output means for outputting the position information of the input and the imaging signal by the imaging unit obtains the information on the position of the face of the subject obtained by the input means, the time variation of the position of the face comprising calculating means for determining the display position of the face image, and a display control means for performing control to display the facial image at the display position of the face image in which the calculating means is determined in accordance with. The computing means acquires information on the observation distance of the display unit and information on the position of the observer based on the imaging signal from the imaging unit, and information on the observation distance and information on the position of the observer. Based on the position of the face of the subject, when determining the display position of the face image by determining the amount of time change of the angle between the display position of the face image and the imaging unit based on the position of the observer based on As the time change amount of the position increases, the time change amount of the angle between the display position of the face image and the imaging unit increases, and the time change of the angle between the display position of the face image and the imaging unit The display position of the image is calculated so that the amount is equal to or less than the threshold value . The threshold is an angle at which the line of sight can be recognized as matching.
本発明によれば、対話を行う相手側の利用者が顔の位置を動かした場合でも、違和感なく利用者同士の視線を合致させる効果が得られる。 According to the present invention, it is possible to obtain an effect of matching the lines of sight of users without a sense of incongruity even when a user on the other side of the conversation moves the face position.
以下に、本発明の実施形態について、添付図面を参照して説明する。本実施形態に係る表示装置は、表示部と該表示部の背面に配置された撮像部を備える。図1から図7を参照して、本実施形態に係る撮像装置付き表示装置(以下、単に表示装置という)を用いて、複数の利用者がテレビ会議を行う例を説明する。本実施形態では、第1空間(以下、空間1という)で利用者βがテレビ会議を利用し、空間1とは異なる第2空間(以下、空間2という)で利用者αがテレビ会議を利用する例を示す。
Embodiments of the present invention will be described below with reference to the accompanying drawings. The display device according to the present embodiment includes a display unit and an imaging unit arranged on the back surface of the display unit. With reference to FIG. 1 to FIG. 7, an example in which a plurality of users conduct a video conference using the display device with an imaging device according to the present embodiment (hereinafter simply referred to as a display device) will be described. In the present embodiment, the user β uses the video conference in the first space (hereinafter referred to as space 1), and the user α uses the video conference in a second space (hereinafter referred to as space 2) different from the
図1(A)は、空間1のテレビ会議システム等で使用される表示装置101の正面図である。表示装置101の表示画面には空間2の利用者αが映し出される。また、図1(B)は表示装置101の上面図であり、空間1で表示装置101を観察する利用者βとの位置関係を示す。以下、表示装置101の表示面に垂直な方向をz方向(背面側を正方向)とする。z方向に直交する左右方向をx方向(右側を正方向)とし、上下方向をy方向(上側を正方向)と定義する。図1(B)にて、利用者βと表示面との距離をZβとし、撮影光軸を基準とした利用者βのx方向のずれ量をXβとする。
FIG. 1A is a front view of a
表示パネル102は光を透過可能な表示手段である。表示パネル102の背面(図中+z方向)には、表示パネル102を観察する利用者を撮影するための撮像部として、カメラ11が配置されている。カメラ11は撮像光学系を構成するレンズ群と、撮像素子および撮像素子駆動回路から構成される。カメラ11は、表示パネル102の画面中央よりもやや上方(図中+y方向)に配設され、表示パネル102の一部の表示画素部を通して利用者βを撮影する。表示パネル102は有機ELで構成され、カメラ11の撮影光路にて光が透過するように構成されている。また表示パネル102の周囲には、利用者の音声を検出する音声検出手段としてのマイク121、122、123および124と、空間2で検出された音声を伝えるスピーカ131および132が配置されている。なお、相手側の空間2で使用される表示装置についても同様の構成であるため、説明を省略する。
The
次に、図2から図4を参照して、表示装置101の制御動作を説明する。表示装置101を、異なる空間でテレビ会議に使用することで、利用者同士の視線を合致させる効果が得られるとともに、動きに違和感のない画像を表示することができる。空間1で利用者βがテレビ会議に参加し、空間2で利用者αがテレビ会議に参加している場合を想定する。
Next, the control operation of the
図2は表示装置101の構成例を示すブロック図である。撮像素子110は撮像光学系を通過して結像される被写体からの光を受光して光電変換する。撮像素子駆動回路51はシステム制御回路50からの制御指令に従って撮像素子110を駆動する。表示処理回路52は表示パネル102の表示制御手段であり、表示パネル102は表示画像信号に従って画像を表示する。マイク120(図1(A):121〜124参照)は、検出信号を音声処理回路53に出力する。スピーカ130(図1(A):131,132参照)は駆動回路54に接続されており、音声を出力する。
FIG. 2 is a block diagram illustrating a configuration example of the
表示装置101の各部を制御するシステム制御回路50はCPU(中央演算処理装置)を備え、メモリから制御プログラムを読み出して実行し、撮像素子駆動回路51、表示処理回路52、音声処理回路53、駆動回路54などを制御する。操作スイッチ(SW)40は、テレビ会議システムを起動させる際に利用者が使用する操作部材であり、操作信号をシステム制御回路50に出力する。リモートコントロール回路55は表示装置101を操作する際に利用者が使用し、操作信号をシステム制御回路50に出力する。送受信回路56は相手側表示装置との間で画像信号や音声信号を送受し合う信号入出力手段である。つまり、送受信回路56は相手側表示装置からの画像信号の入力処理、およびカメラ11の撮像信号を相手側表示装置の出力する出力処理を行う。演算回路57は、カメラ11で撮影された画像情報を取得して、利用者の顔認識等の演算処理を行う。記憶回路58はシステムで使用する各種情報や、制御プログラム等を記憶する。送受信回路56、演算回路57、記憶回路58はシステム制御回路50に接続されている。
A
図4は表示装置101の動作を説明するフローチャートである。
空間1にてテレビ会議の利用者βが表示装置101の操作スイッチ40を操作すると、テレビ会議システムが起動する(S100)。システム制御回路50は、送受信回路56を通して空間2の表示装置との通信状態を設定する(S101)。相手側表示装置との通信状態が設定されると、システム制御回路50は相手側表示装置のシステム情報を確認する(S102)。システム情報とは、表示装置が有するカメラの数、カメラの焦点距離情報および位置情報、送信される信号の形態等の情報である。送信される信号の形態の情報とは、例えば送信される画像信号のフレーム周期の情報である。
FIG. 4 is a flowchart for explaining the operation of the
When the video conference user β operates the
さらに、システム制御回路50は空間1の利用者情報を初期設定する(S103)。本実施形態での利用者情報は、利用者の人数、会話を行っている話者の目の位置、話者以外の利用者の目の位置等の情報であり、記憶回路58に記憶される。次に、カメラ11が空間1の利用者βを撮影する(S104)。このとき、システム制御回路50は撮像素子駆動回路51を介して撮像素子110に撮影指示を行う。同時に、音声処理回路53はマイク121〜124にて検出した音声信号を相手側表示装置に送信可能な所定の信号形態に処理する。
Further, the
カメラ11によって空間1の撮影が行われると、システム制御回路50は送受信回路56を介して画像信号および音声信号、利用者情報の信号を相手側表示装置に送信する(S105)。つまり、カメラ11で撮影した画像信号と、音声処理回路53で処理された音声信号と併せて、記憶回路58に記憶された空間1の利用者情報の送信処理が実行される。カメラ11で撮影した画像信号は時系列にしたがって順次に送信される。
When the
次に演算回路57は、カメラ11で撮影された空間1の画像から、利用者βの顔認識処理を行う(S106)。このとき、演算回路57は顔領域の目の位置を検出して(S107)、カメラ11の撮影光軸に対する、利用者βの顔の中心位置の変位量Ixβを算出する。システム制御回路50は算出結果を利用者情報として記憶回路58に記憶する(S108)。画像から利用者の顔を認識する方法は、本出願人より特許文献2に開示されている。この顔領域抽出処理では、肌色領域を検出し、肌色領域の射影分布を作成する作成工程の後、作成された射影分布から放物線を探索する探索工程を行う。探索された放物線の位置から顔領域候補が抽出され、顔領域候補に対して知識処理により顔領域かどうかが判断される。
Next, the
また演算回路57は、撮影された利用者βの顔画像の目の間隔から、利用者βが表示装置101を観察している位置までの距離Zβを算出する。成人の目の間隔はおおよそ65mmであるため、カメラ11の撮影倍率に基づいて観察距離Zβを算出可能である。
次にシステム制御回路50は送受信回路56を介して、テレビ会議の相手側表示装置から送信されてきた画像信号、音声信号および利用者情報を受信する(S109)。空間2の利用者情報は利用者αの顔の位置Ixαを含む。この位置情報については、表示装置101の表示パネル102の画面サイズが考慮され、記憶回路58に記憶される。
In addition, the
Next, the
演算回路57は、受信画像における空間2の利用者αの顔画像について、表示パネル102での表示位置Dxαを、空間1の利用者βの観察位置に応じて設定する(S110)。受信画像の表示位置の設定処理については、図4(B)を用いて後述する。
システム制御回路50は表示処理回路52を介して表示パネル102の画面上に空間2の利用者αの画像を表示する(S120)。図3は、表示パネル102に表示される空間2の利用者αの画像を例示する。表示画像については、あたかもカメラが小さくパンニングしたかのように、顔や背景が滑らかな動きで表示が行われる。空間1の利用者βは、空間2の利用者αと視線が合致しているので、コミュニケーションが向上するとともに、表示の変化に対しても違和感をもつことがない。
The
The
表示パネル102に空間2の利用者αの画像が表示されると、音声処理回路53はマイク121、122、123および124にて検出した音声信号から、空間1で会話を行っている話者を検出する(S121)。複数の音声信号から話者を検出する方法には、例えば遅延和方式等がある。会話を行っている話者の位置が検出されると、記憶回路58に記憶された利用者の目の位置データが、話者の目の位置データとして更新される(S122)。そしてシステム制御回路50は操作スイッチ40の状態を確認して通信の終了判定を行う(S123)。テレビ会議システムが使用中である場合、S105に処理を戻して撮影画像等の送受信を続行する。
When the image of the user α in the
一方、利用者によって操作スイッチ40のオフ操作が行われたことをシステム制御回路50が判定すると(S123でyes)、相手側表示装置との送受信を終了させる(S124)。さらに、システム制御回路50はカメラ11による利用者の撮影を終了させるとともに、表示パネル102の画像表示を終了させる(S125)。
On the other hand, when the
次に、図4(B)のフローチャートを参照して、図4(A)のS110の定義済み処理、すなわち相手側表示装置から送られてきた画像の利用者αの顔を、表示パネル102で表示位置Dxα(図1(A)参照)に設定する処理を説明する。
まずシステム制御回路50は空間2の利用者情報を用いて、利用者αの目の位置から顔の中心位置を認識し、利用者αの顔の中心位置と表示画面の中心との距離Ixαを確認する(S111)。図1(A)には、相手側表示装置から送られてきた画像を、表示装置101の画面にそのまま表示した状態を例示している。図1(A)では、利用者αの顔の中心位置と表示画面の中心との距離Ixαが、表示パネル102での利用者αの顔の表示位置Dxαと一致している例を示す。
Next, referring to the flowchart of FIG. 4B, the predefined process of S110 of FIG. 4A, that is, the face of the user α of the image sent from the counterpart display device is displayed on the
First, the
演算回路57は、空間2の利用者αの目の位置と、既に確認した空間2の表示装置のシステム情報より、受信した画像信号の特性を判定する(S112)。即ち、演算回路57は、記憶回路58に記憶された空間2の利用者αの顔の中心位置情報Ixαと、受信画像のフレーム周期Δtとに基づいて、利用者αの顔の位置の時間変化量ΔIxαを計算する。前回の受信画像における空間2の利用者αの顔の位置をIxα0とし、今回の受信画像における空間2の利用者αの顔の位置をIxα1とする。位置の時間に対する変化量を示す時間変化量ΔIxαは、
ΔIxα=(Ixα1−Ixα0)/Δt (1)式
と表される。
The
ΔIxα = (Ixα1-Ixα0) / Δt (1)
システム制御回路50は、記憶回路58に記憶された空間1の利用者βの位置情報Zβを確認する(S113)。システム制御回路50は、演算回路57が(1)式により算出した時間変化量ΔIxαを確認する(S114)。空間2の利用者αの顔の位置が変化している場合、演算回路57は表示パネル102の画面上にて、空間2の利用者αの顔の表示位置Dxαを算出する(S115)。S114で空間2の利用者αの顔の位置が変化していない場合、S116に移行する。
The
本実施形態では、相手側の利用者の顔の位置が動いた場合でも、利用者同士の視線を合致させるとともに、顔や背景が滑らかに動くように制御することで、違和感のない表示制御を行う。演算回路57は(1)式の時間変化量ΔIxαに応じて、利用者αの表示位置Dxαを決定する。図1(B)の上面図では、相手側表示装置から送られてきた利用者αの画像を表示装置101の画面にそのまま表示した場合を例示し、空間1の利用者βの注視位置とカメラ11とのなす視線振れ角θβを示している。空間1の利用者βは、空間2の利用者αの顔の表示位置Dxαを注視するので、視線振れ角θβは、
tan(θβ)≒Dxα/Zβ (2)式
の関係式を満たす。tan(θβ)は視線振れ角θβの正接関数を表す。
In this embodiment, even when the position of the face of the other user moves, the user's line of sight is matched and control is performed so that the face and background move smoothly. Do. The
tan (θβ) ≈Dxα / Zβ The relational expression (2) is satisfied. tan (θβ) represents a tangent function of the line-of-sight angle θβ.
また、利用者βの注視位置とカメラ11とのなす角度θβは、視線が合致していると認識できる角度の限界θβth内に収まるように制御される。本実施形態では、限界角度θβthは2[°]に設定している。
ここで、前回の受信画像における利用者αの顔の、表示パネル102上での表示位置をDxα0とし、観察者の位置を基準として表示位置Dxα0とカメラ11とのなす角度をθβ0とする。さらに、今回の受信画像における利用者αの顔の、表示パネル102上での表示位置をDxα1とし、観察者の位置を基準として表示位置Dxα1とカメラ11とのなす角度をθβ1とする。時間変化量をΔθβとすると、視線振れ角は、
θβ1 = θβ0 + Δθβ < θβth (3)式
を満足する。
Further, the angle θβ formed between the gaze position of the user β and the
Here, the display position on the
θβ1 = θβ0 + Δθβ <θβth The expression (3) is satisfied.
図5は顔画像の表示位置の制御を説明する図である。横軸は、空間2で撮影された利用者αの顔の位置の時間変化量ΔIxα(単位:mm)を示し、縦軸は、空間1の利用者βに対する、表示装置101に表示される利用者αの顔の位置とカメラ11とのなす角度の制御量Δθβ(単位:degree)を示す。
図5(A)は、前回における利用者αの顔の位置DXα0とカメラ11とのなす角度θβ0が零の場合の制御例を示す。すなわち、前回の受信画像ではカメラ11の光軸上に空間2の利用者αの顔画像が位置する場合の制御例を示している。
本実施形態では、利用者αの顔の位置の時間変化量ΔIxαが所定の閾値以下の場合(例えば、制御量Δθβ≦1[°]の範囲)、時間変化量ΔIxαに対して線形に変換するように制御量Δθβが設定される。また、時間変化量ΔIxαが所定の閾値よりも大きい場合には、受信画像をそのまま表示せずに、表示位置が大きく変化しないように補正してから画像表示が行われる。このときの角度制御量Δθβは、視線が合致していると認識できる角度の限界値以内(θβth以下)に入るように設定される。
FIG. 5 is a diagram for explaining the control of the display position of the face image. The horizontal axis indicates the time change ΔIxα (unit: mm) of the position of the face of the user α taken in the
FIG. 5A shows a control example in the case where the angle θβ0 formed by the previous position αα0 of the user α and the
In the present embodiment, when the time change amount ΔIxα of the face position of the user α is equal to or less than a predetermined threshold (for example, a range of control amount Δθβ ≦ 1 [°]), the time change amount ΔIxα is linearly converted. Thus, the control amount Δθβ is set. When the time change amount ΔIxα is larger than the predetermined threshold value, the received image is not displayed as it is, and the image display is performed after correcting the display position so as not to change greatly. The angle control amount Δθβ at this time is set so as to be within the limit value of the angle at which the line of sight can be recognized as matching (θβth or less).
以上のように、空間2で撮影された利用者αの顔の位置の時間変化量ΔIxαに対して、空間1の利用者βが視認する表示装置101の画面に表示される利用者αの顔の位置とカメラ11とのなす角度の制御量Δθβが決定される。角度制御量Δθβは、表示の変化量が大きくなり過ぎないように、所定値以下になるように演算回路57が決定する。角度制御量Δθβが決定されると、演算回路57は上式(2)および(3)を用いて、空間2の利用者αの、表示パネル102上での顔の表示位置Dxα1を算出(S115)し、顔の表示位置を決定する(S116)。その後、図4(A)のメインルーチンに戻る(S117)。
図5(A)では、前回の受信画像にてカメラ11の光軸上に空間2の利用者αの顔画像が位置する場合の制御例を示した。図5(B)では、前回の受信画像にて利用者αの顔画像がカメラ11の光軸上に位置しない場合の制御例を示す。利用者αの顔の表示位置DXα0とカメラ11とのなす角度θβ0が、例えば1[°]の場合を例示する。
As described above, the face of the user α displayed on the screen of the
FIG. 5A shows an example of control when the face image of the user α in the
図5(B)にて、利用者αの顔の表示位置DXα0とカメラ11とのなす角度θβ0が所定値以上の場合、表示位置が大きく変化しないように補正してから画像が表示される。顔の位置の時間変化量ΔIxαが小さい場合でも受信画像をそのまま表示せずに、表示位置が補正される。このときの角度制御量Δθβは、視線が合致していると認識できる角度の限界値以内(θβth以下)に入るように設定される。
In FIG. 5B, when the angle θβ0 between the display position DXα0 of the face of the user α and the
本実施形態では、演算回路57が受信画像から、空間2の利用者αの顔の位置Ixαを取得し、表示パネル102上での利用者αの顔の表示位置Dxαを決定する例を示した。一方、顔の動きを事前に予測することにより、画像を遅延無く滑らかに表示可能である。図6は顔の追尾の説明図であり、横軸に時間を示し、縦軸に顔画像の動きに対応する角度を示す。演算回路57は顔の位置の時間的変化(図中の実線領域)を監視し、将来的な顔の位置を外挿することで、顔画像の動きを予測(図中の点線領域)し、顔画像の表示位置を決定する。これにより、画像を遅延無く滑らかに表示可能となる。
本実施形態では、対話を行う相手側の利用者が顔の位置を動かした場合、顔画像の位置を撮像部の配置された画面中央部に固定しようとして背景だけが動いてしまうことがないので、違和感なく利用者同士の視線を合致させる効果が得られる。
In the present embodiment, an example is shown in which the
In the present embodiment, when the other user who performs the conversation moves the position of the face, only the background does not move in an attempt to fix the position of the face image to the center of the screen where the imaging unit is arranged. Thus, the effect of matching the lines of sight of the users can be obtained without a sense of incongruity.
なお本実施形態では、表示装置101を観察する利用者βの観察距離Zβを、利用者βの目の間隔に基づいて算出する例を説明した。これに限らず、表示パネル102の大きさによって概ね観察距離は決まるため、表示パネル102の大きさに従った観察距離Zβを自動的に設定しても構わない。
In the present embodiment, the example in which the observation distance Zβ of the user β who observes the
[変形実施形態]
次に本発明の変形実施形態を説明する。
図7(A)は、空間2でのテレビ会議システムに使用する表示装置201の正面図である。表示装置201の表示画面には空間1の利用者βが映し出されている。また、図7(B)は表示装置201の上面図である。空間2での表示装置201を観察する利用者αとの位置関係を示している。表示装置201は空間1で使用する表示装置101と同様の構成である。
図7(A)に示すように、表示パネル202の画面に表示される、空間1の画像の一部には非表示領域203が設定されている。図7(B)に示すように、利用者αがカメラ211の撮影光軸から離れた位置Xαにて表示パネル202を注視する場合、表示パネル202の表示画面に非表示領域203が設定される。非表示領域203の設定目的は、観察者に対して観察位置をカメラ211の撮影光軸寄りに誘導することである。表示パネル202に非表示領域203を設定するか否かの判定処理は、以下のように行われる。
[Modified Embodiment]
Next, a modified embodiment of the present invention will be described.
FIG. 7A is a front view of the
As shown in FIG. 7A, a
システム制御回路50は、表示パネル202の背面に配設されたカメラ211で利用者αを撮影する。次に演算回路57は、カメラ211で撮影された画像から空間2での利用者αの顔認識処理を実行する。このとき、演算回路57は利用者αの顔領域の目の位置を検出し、カメラ211の撮影光軸に対する利用者αの顔の中心位置の変位量Xαを算出する。実空間上でのカメラ211の撮影光軸に対する、利用者αの顔の中心位置の変位量Xαは、カメラ211の撮影倍率から換算される。この変位量Xαが所定値(判定基準値)以上である場合、演算回路57は利用者αをカメラ211の撮影光軸寄りに誘導するために、表示パネル202の非表示領域203を設定する。システム制御回路50は表示処理回路52を介して表示パネル202の画面上に、空間1の利用者βの画像を非表示領域203とともに表示させる。図7(A)の表示画面を見た利用者αは、非表示領域203のない画面が表示される観察位置へと移動する。
変形実施形態によれば、利用者の顔画像の位置と撮像部との相対位置を検出して利用者をカメラ211の撮影光軸寄りに誘導することで、利用者同士の視線を合致させる効果を奏する。
The
According to the modified embodiment, the relative position between the face image of the user and the imaging unit is detected, and the user is guided closer to the photographing optical axis of the
11,211 カメラ
101,201 表示装置
102,202 表示パネル
121〜124 マイク
131〜132 スピーカ
11, 211
Claims (4)
画像信号および当該画像信号に係る画像における被写体の顔の位置の情報の入力および前記撮像部による撮像信号の出力を行う入出力手段と、
前記入出力手段により得られた前記被写体の顔の位置の情報を取得し、該顔の位置の時間変化量に応じて顔画像の表示位置を決定する演算手段と、
前記演算手段が決定した前記顔画像の表示位置に前記顔画像を表示させる制御を行う表示制御手段と、を備え、
前記演算手段は、
前記撮像部による前記撮像信号に基づいて前記表示部の観察距離の情報と観察者の位置の情報とを取得し、
前記観察距離の情報と前記観察者の位置の情報とに基づいて、前記観察者の位置を基準とした前記顔画像の表示位置と前記撮像部との角度の時間変化量を決定することで前記顔画像の表示位置を決定する際、
前記被写体の顔の位置の時間変化量が増加するにしたがって、前記顔画像の表示位置と前記撮像部との角度の時間変化量が増加し、且つ、前記顔画像の表示位置と前記撮像部との角度の時間変化量が、閾値以下となるように前記画像の表示位置を算出し、
前記閾値は、視線が合致していると認識できる角度であることを特徴とする表示装置。 A display device comprising a display unit and an imaging unit disposed on the back of the display unit,
Input / output means for inputting information of the position of the face of the subject in the image signal and the image related to the image signal and outputting the imaging signal by the imaging unit;
Acquires information on the position of the face of the subject obtained by the input means, and calculating means for determining the display position of the face image according to the time variation of the position of the face,
Display control means for performing control to display the face image at the display position of the face image determined by the calculation means,
The computing means is
Based on the imaging signal by the imaging unit, obtain information on the observation distance of the display unit and information on the position of the observer ,
Based on the information on the observation distance and the information on the position of the observer, the time change amount of the angle between the display position of the face image and the imaging unit based on the position of the observer is determined. When determining the display position of the face image,
As the time change amount of the face position of the subject increases, the time change amount of the angle between the display position of the face image and the imaging unit increases, and the display position of the face image and the imaging unit The display position of the image is calculated so that the time change amount of the angle is equal to or less than a threshold value ,
The display device according to claim 1, wherein the threshold is an angle at which the line of sight can be recognized as matching .
前記表示制御手段は、前記顔画像および前記演算手段が決定した前記非表示領域を前記表示部に表示させる制御を行うことを特徴とする請求項1又は2に記載の表示装置。 The calculation means detects a relative position between the position of the face image captured by the imaging unit and the imaging unit, determines a non-display area of the image on the display screen of the display unit,
Said display control means display device according to claim 1 or 2, characterized in that the control for displaying the facial image and the computing means decides the non-display area on the display unit.
入出力手段により画像信号および当該画像信号に係る画像における被写体の顔の位置の情報の入力および前記撮像部による撮像信号の出力を行う入出力ステップと、
前記入出力手段により得られた前記被写体の顔の位置の情報を演算手段が取得し、該顔の位置の時間変化量に応じて顔画像の表示位置を決定する演算ステップと、
前記演算手段が決定した前記顔画像の表示位置に前記顔画像を表示させる制御を表示制御手段が行う表示制御ステップと、を有し、
前記演算ステップにて前記演算手段は、
前記撮像部による前記撮像信号に基づいて前記表示部の観察距離の情報と観察者の位置の情報とを取得し、
前記観察距離の情報と前記観察者の位置の情報とに基づいて、前記観察者の位置を基準とした前記顔画像の表示位置と前記撮像部との角度の時間変化量を決定することで前記顔画像の表示位置を決定する際、
前記被写体の顔の位置の時間変化量が増加するにしたがって、前記顔画像の表示位置と前記撮像部との角度の時間変化量が増加し、且つ、前記顔画像の表示位置と前記撮像部との角度の時間変化量が、閾値以下となるように前記画像の表示位置を算出し、
前記閾値は、視線が合致していると認識できる角度であることを特徴とする表示装置の制御方法。
A control method executed in a display device including a display unit and an imaging unit disposed on the back of the display unit,
An input / output step for inputting an image signal and information on the position of the face of the subject in the image related to the image signal by the input / output means, and outputting an imaging signal by the imaging unit;
A calculating step of determining the display position of the face image obtained information on the position of the face of the subject acquired computing means is, according to the time variation of the position of the face by said input means,
A display control step in which display control means performs control to display the face image at the display position of the face image determined by the calculation means, and
In the calculation step, the calculation means includes:
Based on the imaging signal by the imaging unit, obtain information on the observation distance of the display unit and information on the position of the observer ,
Based on the information on the observation distance and the information on the position of the observer, the time change amount of the angle between the display position of the face image and the imaging unit based on the position of the observer is determined. When determining the display position of the face image,
As the time change amount of the face position of the subject increases, the time change amount of the angle between the display position of the face image and the imaging unit increases, and the display position of the face image and the imaging unit The display position of the image is calculated so that the time change amount of the angle is equal to or less than a threshold value ,
The method for controlling a display device, wherein the threshold value is an angle at which the line of sight can be recognized as matching .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013251364A JP6478454B2 (en) | 2013-12-04 | 2013-12-04 | Display device including imaging unit and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013251364A JP6478454B2 (en) | 2013-12-04 | 2013-12-04 | Display device including imaging unit and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015109557A JP2015109557A (en) | 2015-06-11 |
JP6478454B2 true JP6478454B2 (en) | 2019-03-06 |
Family
ID=53439619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013251364A Expired - Fee Related JP6478454B2 (en) | 2013-12-04 | 2013-12-04 | Display device including imaging unit and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6478454B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2947113B2 (en) * | 1995-03-09 | 1999-09-13 | 日本電気株式会社 | User interface device for image communication terminal |
JPH08251562A (en) * | 1995-03-14 | 1996-09-27 | Matsushita Electric Ind Co Ltd | Video conversation system |
JP2003309828A (en) * | 2002-04-17 | 2003-10-31 | Sumitomo Electric Ind Ltd | Method for correcting display position of monitor image, terminal, mount tool, and two-way interactive system |
JP2007208819A (en) * | 2006-02-03 | 2007-08-16 | Funai Electric Co Ltd | Imaging and display device |
JP2008139599A (en) * | 2006-12-01 | 2008-06-19 | Toshiba Corp | Small-sized terminal device |
-
2013
- 2013-12-04 JP JP2013251364A patent/JP6478454B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015109557A (en) | 2015-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110493528B (en) | Image pickup apparatus and control method thereof | |
JP4899805B2 (en) | Video phone equipment | |
US10609273B2 (en) | Image pickup device and method of tracking subject thereof | |
JP4781440B2 (en) | Image capturing apparatus, control method and control program for image capturing apparatus | |
US9541761B2 (en) | Imaging apparatus and imaging method | |
CN108028884B (en) | Image pickup system and image pickup control method | |
JP6138453B2 (en) | Equipment with videophone function, program, and control method of equipment with videophone function | |
JP2019047357A (en) | Display unit with imaging apparatus | |
JPWO2012099175A1 (en) | Auto focus system | |
JP2019023767A (en) | Information processing apparatus | |
US20100123790A1 (en) | Autofocus system | |
JP6259544B2 (en) | Method and apparatus for displaying framing information | |
CN113225474A (en) | Voice input device, control method thereof, and storage medium | |
JP2014049797A (en) | Display device with camera | |
EP3211879A1 (en) | Method and device for automatically capturing photograph, electronic device | |
JP2018152787A (en) | Imaging device, external device, imaging system, imaging method, operation method, and program | |
CN113395438B (en) | Image correction method and related device for eyeball tracking technology | |
CN113170075B (en) | Information processing device, information processing method, and program | |
JP6478454B2 (en) | Display device including imaging unit and control method thereof | |
JP2010085530A (en) | Autofocus system | |
CN114339022B (en) | Camera shooting parameter determining method and neural network model training method | |
JP2018133722A (en) | Display device, control method of the same, and control program | |
JP2007208819A (en) | Imaging and display device | |
JP7009066B2 (en) | Display device, its control method, and control program | |
WO2012099174A1 (en) | Autofocus system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190205 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6478454 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |