JP6478454B2 - Display device including imaging unit and control method thereof - Google Patents

Display device including imaging unit and control method thereof Download PDF

Info

Publication number
JP6478454B2
JP6478454B2 JP2013251364A JP2013251364A JP6478454B2 JP 6478454 B2 JP6478454 B2 JP 6478454B2 JP 2013251364 A JP2013251364 A JP 2013251364A JP 2013251364 A JP2013251364 A JP 2013251364A JP 6478454 B2 JP6478454 B2 JP 6478454B2
Authority
JP
Japan
Prior art keywords
display
face
image
user
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013251364A
Other languages
Japanese (ja)
Other versions
JP2015109557A (en
Inventor
長野 明彦
明彦 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013251364A priority Critical patent/JP6478454B2/en
Publication of JP2015109557A publication Critical patent/JP2015109557A/en
Application granted granted Critical
Publication of JP6478454B2 publication Critical patent/JP6478454B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、有機EL(エレクトロルミネッセンス)、液晶、プラズマ方式などの比較的薄型の表示機器と一体的に撮像機器を備えた表示装置に関する。さらに詳しくは、テレビ会議などのリアルタイム双方向通信などに好適な撮像機能を有する表示装置に関する。   The present invention relates to a display device including an imaging device integrally with a relatively thin display device such as an organic EL (electroluminescence), a liquid crystal, or a plasma method. More specifically, the present invention relates to a display device having an imaging function suitable for real-time bidirectional communication such as a video conference.

近年、通信網が発達し、テレビ会議などのリアルタイム双方向通信が可能となった。テレビ会議は、被写体像を電気的な画像信号に変換する撮像手段と、電気的な画像信号を光信号に変換して表示する表示手段を備える。テレビ会議の利用者は、表示画面に映った相手の顔画像を見ながら会話をし、同時に利用者の顔は、撮像手段により撮影され電気信号に変換されて相手に送られる。   In recent years, communication networks have been developed, enabling real-time two-way communication such as video conferencing. The video conference includes an imaging unit that converts a subject image into an electrical image signal, and a display unit that converts the electrical image signal into an optical signal for display. The user of the video conference talks while looking at the other party's face image displayed on the display screen, and at the same time, the user's face is photographed by the imaging means, converted into an electrical signal, and sent to the other party.

従来のテレビ会議などの双方向通信用装置では、撮像手段が表示装置の周辺部に配置されるか、または表示装置とは別の独立した撮像装置として設置する構成である。このため、表示画面を見ている観察者の撮影は、斜め方向から行われることになる。表示画面に映った相手の顔は視線が別のところを向いており、相互に話していてもぎこちなくなる可能性がある。相手と面と向かって話をする場合に比較して違和感をもたらすという問題がある。また撮像装置と表示装置とを別々に製造する形態ではコストが嵩み、別個の装置として取り扱う必要があるため、システムの構築が煩雑になるという問題がある。   In a conventional two-way communication device such as a video conference, the image pickup means is arranged in the peripheral portion of the display device or installed as an independent image pickup device separate from the display device. For this reason, photographing of the observer who is looking at the display screen is performed from an oblique direction. The other person's face on the display screen has a different line of sight, which can be awkward even if they talk to each other. There is a problem that it causes a sense of incongruity compared to the case of talking face to face with the other party. Further, in the form of separately manufacturing the imaging device and the display device, there is a problem that the cost increases and it is necessary to handle them as separate devices, so that the construction of the system becomes complicated.

これらの問題を解決するために、特許文献1は撮像装置付き表示装置を開示している。この装置は、複数の表示画素と複数の表示画素の各表示画素間に配置された遮光部材とを備えた表示手段と、表示手段の背部に配置された撮像手段とを具備する。遮光部材は一部に撮像手段に光を導くための開口部を備え、撮像手段は開口部に対応した位置に結像手段を備える。表示手段を見ながらの撮像ができ、かつ表示手段に表示される相手と自分の視線を一致させることが可能となる。その結果、テレビ会議等で対話する相手に対して利用者が自分を見て話しているように認識してもらえるようになり、コミュニケーション力が向上する。利用者同士の視線を合致させる際、利用者がカメラの場所を注視するように、カメラの配設されている位置に相手側の顔画像を重畳する表示制御が行われる。   In order to solve these problems, Patent Document 1 discloses a display device with an imaging device. The apparatus includes a display unit including a plurality of display pixels and a light shielding member disposed between the display pixels of the plurality of display pixels, and an imaging unit disposed on the back of the display unit. The light shielding member is partially provided with an opening for guiding light to the imaging means, and the imaging means is provided with an imaging means at a position corresponding to the opening. It is possible to take an image while viewing the display means, and to match the line of sight with the opponent displayed on the display means. As a result, the communication partner can be recognized as if the user is looking at him / herself and talking to the other party who is talking in the video conference or the like. When the lines of sight of the users are matched, display control is performed to superimpose the other party's face image at the position where the camera is disposed so that the users gaze at the location of the camera.

図8は従来の装置の画像表示方法の説明図である。撮像装置付き表示装置1の表示パネル2の背面にて、表示画面の中央部にカメラ10が配設されている。図8(A)は表示画像を例示し、表示パネル2には利用者αの顔画像がカメラ10の位置に重なって表示される。利用者αの顔画像の背景として、例えば窓枠γが映り込んでいる。図8(B)は図8(A)に示す状態から利用者αが動いた場合を示している。撮像装置付き表示装置1は、利用者αの顔画像とカメラ10の位置とが重畳するように表示制御を行う。その結果、図8(C)に示すように、利用者αの顔画像は画面中央の位置に表示される。   FIG. 8 is an explanatory diagram of an image display method of a conventional apparatus. On the back surface of the display panel 2 of the display device 1 with the imaging device, a camera 10 is disposed in the center of the display screen. FIG. 8A illustrates a display image, and the face image of the user α is displayed on the display panel 2 so as to overlap the position of the camera 10. As the background of the face image of the user α, for example, a window frame γ is reflected. FIG. 8B shows a case where the user α has moved from the state shown in FIG. The display device with an imaging device 1 performs display control so that the face image of the user α and the position of the camera 10 are superimposed. As a result, as shown in FIG. 8C, the face image of the user α is displayed at the center of the screen.

特開2005−176151号公報JP 2005-176151 A 特開2000−48184号公報JP 2000-48184 A

従来の装置では、相手側の利用者が顔の位置を動かした場合、顔画像の位置は、例えばカメラの配設された画面中央に固定された状態となり、背景だけが動いてしまう。よって、いわゆる流し撮りをしているかのような表示画像となり、利用者が違和感をもつ可能性がある。
本発明の目的は、対話を行う相手側の利用者が顔の位置を動かした場合でも、違和感なく利用者同士の視線を合致させる効果が得られる撮像装置付き表示装置を提供することである。
In the conventional apparatus, when the user on the other side moves the position of the face, the position of the face image is fixed, for example, at the center of the screen where the camera is disposed, and only the background moves. Therefore, the display image appears as if so-called panning is taken, and the user may feel uncomfortable.
An object of the present invention is to provide a display device with an imaging device that can obtain an effect of matching the line of sight of users without a sense of incongruity even when a user on the other side of the conversation moves the face position.

上記課題を解決するために、本発明に係る装置は、表示部と該表示部の背面に配置された撮像部を備える表示装置であって、画像信号および当該画像信号に係る画像における被写体の顔の位置の情報の入力および前記撮像部による撮像信号の出力を行う入出力手段と、前記入出力手段により得られた前記被写体の顔の位置の情報を取得し、該顔の位置の時間変化量に応じて顔画像の表示位置を決定する演算手段と、前記演算手段が決定した前記顔画像の表示位置に前記顔画像を表示させる制御を行う表示制御手段と、を備える。前記演算手段は、前記撮像部による前記撮像信号に基づいて前記表示部の観察距離の情報と観察者の位置の情報とを取得し、前記観察距離の情報と前記観察者の位置の情報とに基づいて、前記観察者の位置を基準とした前記顔画像の表示位置と前記撮像部との角度の時間変化量を決定することで前記顔画像の表示位置を決定する際、前記被写体の顔の位置の時間変化量が増加するにしたがって、前記顔画像の表示位置と前記撮像部との角度の時間変化量が増加し、且つ、前記顔画像の表示位置と前記撮像部との角度の時間変化量が、閾値以下となるように前記画像の表示位置を算出する。前記閾値は、視線が合致していると認識できる角度である。
In order to solve the above-described problems, an apparatus according to the present invention is a display device that includes a display unit and an imaging unit disposed on a back surface of the display unit, and includes a face of a subject in an image signal and an image related to the image signal. and output means for outputting the position information of the input and the imaging signal by the imaging unit obtains the information on the position of the face of the subject obtained by the input means, the time variation of the position of the face comprising calculating means for determining the display position of the face image, and a display control means for performing control to display the facial image at the display position of the face image in which the calculating means is determined in accordance with. The computing means acquires information on the observation distance of the display unit and information on the position of the observer based on the imaging signal from the imaging unit, and information on the observation distance and information on the position of the observer. Based on the position of the face of the subject, when determining the display position of the face image by determining the amount of time change of the angle between the display position of the face image and the imaging unit based on the position of the observer based on As the time change amount of the position increases, the time change amount of the angle between the display position of the face image and the imaging unit increases, and the time change of the angle between the display position of the face image and the imaging unit The display position of the image is calculated so that the amount is equal to or less than the threshold value . The threshold is an angle at which the line of sight can be recognized as matching.

本発明によれば、対話を行う相手側の利用者が顔の位置を動かした場合でも、違和感なく利用者同士の視線を合致させる効果が得られる。   According to the present invention, it is possible to obtain an effect of matching the lines of sight of users without a sense of incongruity even when a user on the other side of the conversation moves the face position.

本発明の実施形態に係る撮像装置付き表示装置の正面図(A)および上面図(B)である。It is the front view (A) and top view (B) of the display apparatus with an imaging device which concern on embodiment of this invention. 撮像装置付き表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display apparatus with an imaging device. 撮像装置付き表示装置の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of a display apparatus with an imaging device. 撮像装置付き表示装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the display apparatus with an imaging device. 表示位置の制御例を説明するグラフである。It is a graph explaining the example of control of a display position. 顔の追尾処理を説明するグラフである。It is a graph explaining face tracking processing. 本発明の変形実施形態に係る撮像装置付き表示装置の正面図(A)および上面図(B)である。It is the front view (A) and top view (B) of the display apparatus with an imaging device which concern on deformation | transformation embodiment of this invention. 従来技術による表示方法の説明図である。It is explanatory drawing of the display method by a prior art.

以下に、本発明の実施形態について、添付図面を参照して説明する。本実施形態に係る表示装置は、表示部と該表示部の背面に配置された撮像部を備える。図1から図7を参照して、本実施形態に係る撮像装置付き表示装置(以下、単に表示装置という)を用いて、複数の利用者がテレビ会議を行う例を説明する。本実施形態では、第1空間(以下、空間1という)で利用者βがテレビ会議を利用し、空間1とは異なる第2空間(以下、空間2という)で利用者αがテレビ会議を利用する例を示す。
Embodiments of the present invention will be described below with reference to the accompanying drawings. The display device according to the present embodiment includes a display unit and an imaging unit arranged on the back surface of the display unit. With reference to FIG. 1 to FIG. 7, an example in which a plurality of users conduct a video conference using the display device with an imaging device according to the present embodiment (hereinafter simply referred to as a display device) will be described. In the present embodiment, the user β uses the video conference in the first space (hereinafter referred to as space 1), and the user α uses the video conference in a second space (hereinafter referred to as space 2) different from the space 1. An example is shown.

図1(A)は、空間1のテレビ会議システム等で使用される表示装置101の正面図である。表示装置101の表示画面には空間2の利用者αが映し出される。また、図1(B)は表示装置101の上面図であり、空間1で表示装置101を観察する利用者βとの位置関係を示す。以下、表示装置101の表示面に垂直な方向をz方向(背面側を正方向)とする。z方向に直交する左右方向をx方向(右側を正方向)とし、上下方向をy方向(上側を正方向)と定義する。図1(B)にて、利用者βと表示面との距離をZβとし、撮影光軸を基準とした利用者βのx方向のずれ量をXβとする。   FIG. 1A is a front view of a display device 101 used in a video conference system in the space 1 or the like. The user α in the space 2 is displayed on the display screen of the display device 101. FIG. 1B is a top view of the display device 101 and shows a positional relationship with the user β who observes the display device 101 in the space 1. Hereinafter, the direction perpendicular to the display surface of the display device 101 is defined as the z direction (the back side is the positive direction). The horizontal direction orthogonal to the z direction is defined as the x direction (right side is the positive direction), and the vertical direction is defined as the y direction (upper direction is the positive direction). In FIG. 1B, the distance between the user β and the display surface is Zβ, and the amount of deviation in the x direction of the user β with reference to the photographing optical axis is Xβ.

表示パネル102は光を透過可能な表示手段である。表示パネル102の背面(図中+z方向)には、表示パネル102を観察する利用者を撮影するための撮像部として、カメラ11が配置されている。カメラ11は撮像光学系を構成するレンズ群と、撮像素子および撮像素子駆動回路から構成される。カメラ11は、表示パネル102の画面中央よりもやや上方(図中+y方向)に配設され、表示パネル102の一部の表示画素部を通して利用者βを撮影する。表示パネル102は有機ELで構成され、カメラ11の撮影光路にて光が透過するように構成されている。また表示パネル102の周囲には、利用者の音声を検出する音声検出手段としてのマイク121、122、123および124と、空間2で検出された音声を伝えるスピーカ131および132が配置されている。なお、相手側の空間2で使用される表示装置についても同様の構成であるため、説明を省略する。   The display panel 102 is display means that can transmit light. On the back surface of the display panel 102 (in the + z direction in the figure), a camera 11 is arranged as an imaging unit for photographing a user who observes the display panel 102. The camera 11 includes a lens group that constitutes an imaging optical system, an imaging element, and an imaging element drive circuit. The camera 11 is arranged slightly above the center of the screen of the display panel 102 (in the + y direction in the figure), and photographs the user β through a part of the display pixel portion of the display panel 102. The display panel 102 is composed of an organic EL, and is configured so that light is transmitted through the photographing optical path of the camera 11. Further, around the display panel 102, microphones 121, 122, 123 and 124 as voice detecting means for detecting a user's voice and speakers 131 and 132 for transmitting the voice detected in the space 2 are arranged. In addition, since it is the same structure also about the display apparatus used in the other party's space 2, description is abbreviate | omitted.

次に、図2から図4を参照して、表示装置101の制御動作を説明する。表示装置101を、異なる空間でテレビ会議に使用することで、利用者同士の視線を合致させる効果が得られるとともに、動きに違和感のない画像を表示することができる。空間1で利用者βがテレビ会議に参加し、空間2で利用者αがテレビ会議に参加している場合を想定する。   Next, the control operation of the display device 101 will be described with reference to FIGS. By using the display device 101 for a video conference in different spaces, it is possible to obtain an effect of matching the lines of sight of users and to display an image with no sense of incongruity in movement. It is assumed that the user β participates in the video conference in the space 1 and the user α participates in the video conference in the space 2.

図2は表示装置101の構成例を示すブロック図である。撮像素子110は撮像光学系を通過して結像される被写体からの光を受光して光電変換する。撮像素子駆動回路51はシステム制御回路50からの制御指令に従って撮像素子110を駆動する。表示処理回路52は表示パネル102の表示制御手段であり、表示パネル102は表示画像信号に従って画像を表示する。マイク120(図1(A):121〜124参照)は、検出信号を音声処理回路53に出力する。スピーカ130(図1(A):131,132参照)は駆動回路54に接続されており、音声を出力する。   FIG. 2 is a block diagram illustrating a configuration example of the display device 101. The image sensor 110 receives light from a subject formed through the imaging optical system and photoelectrically converts it. The image sensor drive circuit 51 drives the image sensor 110 in accordance with a control command from the system control circuit 50. The display processing circuit 52 is a display control unit of the display panel 102, and the display panel 102 displays an image according to the display image signal. The microphone 120 (see FIG. 1A: 121 to 124) outputs a detection signal to the sound processing circuit 53. The speaker 130 (see FIG. 1A: 131 and 132) is connected to the drive circuit 54 and outputs sound.

表示装置101の各部を制御するシステム制御回路50はCPU(中央演算処理装置)を備え、メモリから制御プログラムを読み出して実行し、撮像素子駆動回路51、表示処理回路52、音声処理回路53、駆動回路54などを制御する。操作スイッチ(SW)40は、テレビ会議システムを起動させる際に利用者が使用する操作部材であり、操作信号をシステム制御回路50に出力する。リモートコントロール回路55は表示装置101を操作する際に利用者が使用し、操作信号をシステム制御回路50に出力する。送受信回路56は相手側表示装置との間で画像信号や音声信号を送受し合う信号入出力手段である。つまり、送受信回路56は相手側表示装置からの画像信号の入力処理、およびカメラ11の撮像信号を相手側表示装置の出力する出力処理を行う。演算回路57は、カメラ11で撮影された画像情報を取得して、利用者の顔認識等の演算処理を行う。記憶回路58はシステムで使用する各種情報や、制御プログラム等を記憶する。送受信回路56、演算回路57、記憶回路58はシステム制御回路50に接続されている。   A system control circuit 50 that controls each part of the display device 101 includes a CPU (Central Processing Unit), reads out and executes a control program from a memory, and performs an image sensor driving circuit 51, a display processing circuit 52, an audio processing circuit 53, and a driving The circuit 54 and the like are controlled. The operation switch (SW) 40 is an operation member used by the user when starting the video conference system, and outputs an operation signal to the system control circuit 50. The remote control circuit 55 is used by the user when operating the display device 101, and outputs an operation signal to the system control circuit 50. The transmission / reception circuit 56 is signal input / output means for transmitting and receiving image signals and audio signals to and from the counterpart display device. That is, the transmission / reception circuit 56 performs an input process of an image signal from the counterpart display device and an output process of outputting the image pickup signal of the camera 11 from the counterpart display device. The arithmetic circuit 57 acquires image information taken by the camera 11 and performs arithmetic processing such as user face recognition. The storage circuit 58 stores various information used in the system, a control program, and the like. The transmission / reception circuit 56, the arithmetic circuit 57, and the storage circuit 58 are connected to the system control circuit 50.

図4は表示装置101の動作を説明するフローチャートである。
空間1にてテレビ会議の利用者βが表示装置101の操作スイッチ40を操作すると、テレビ会議システムが起動する(S100)。システム制御回路50は、送受信回路56を通して空間2の表示装置との通信状態を設定する(S101)。相手側表示装置との通信状態が設定されると、システム制御回路50は相手側表示装置のシステム情報を確認する(S102)。システム情報とは、表示装置が有するカメラの数、カメラの焦点距離情報および位置情報、送信される信号の形態等の情報である。送信される信号の形態の情報とは、例えば送信される画像信号のフレーム周期の情報である。
FIG. 4 is a flowchart for explaining the operation of the display device 101.
When the video conference user β operates the operation switch 40 of the display device 101 in the space 1, the video conference system is activated (S100). The system control circuit 50 sets a communication state with the display device in the space 2 through the transmission / reception circuit 56 (S101). When the communication state with the counterpart display device is set, the system control circuit 50 checks the system information of the counterpart display device (S102). The system information is information such as the number of cameras included in the display device, focal length information and position information of the cameras, and the form of signals to be transmitted. The information on the form of the transmitted signal is, for example, information on the frame period of the transmitted image signal.

さらに、システム制御回路50は空間1の利用者情報を初期設定する(S103)。本実施形態での利用者情報は、利用者の人数、会話を行っている話者の目の位置、話者以外の利用者の目の位置等の情報であり、記憶回路58に記憶される。次に、カメラ11が空間1の利用者βを撮影する(S104)。このとき、システム制御回路50は撮像素子駆動回路51を介して撮像素子110に撮影指示を行う。同時に、音声処理回路53はマイク121〜124にて検出した音声信号を相手側表示装置に送信可能な所定の信号形態に処理する。   Further, the system control circuit 50 initializes the user information of the space 1 (S103). The user information in the present embodiment is information such as the number of users, the positions of the eyes of speakers who are having a conversation, and the positions of eyes of users other than the speakers, and is stored in the storage circuit 58. . Next, the camera 11 captures the user β in the space 1 (S104). At this time, the system control circuit 50 issues a shooting instruction to the image sensor 110 via the image sensor drive circuit 51. At the same time, the audio processing circuit 53 processes the audio signal detected by the microphones 121 to 124 into a predetermined signal form that can be transmitted to the counterpart display device.

カメラ11によって空間1の撮影が行われると、システム制御回路50は送受信回路56を介して画像信号および音声信号、利用者情報の信号を相手側表示装置に送信する(S105)。つまり、カメラ11で撮影した画像信号と、音声処理回路53で処理された音声信号と併せて、記憶回路58に記憶された空間1の利用者情報の送信処理が実行される。カメラ11で撮影した画像信号は時系列にしたがって順次に送信される。   When the space 11 is photographed by the camera 11, the system control circuit 50 transmits an image signal, an audio signal, and a user information signal to the counterpart display device via the transmission / reception circuit 56 (S105). That is, the transmission processing of the user information of the space 1 stored in the storage circuit 58 is executed together with the image signal captured by the camera 11 and the audio signal processed by the audio processing circuit 53. Image signals captured by the camera 11 are sequentially transmitted in time series.

次に演算回路57は、カメラ11で撮影された空間1の画像から、利用者βの顔認識処理を行う(S106)。このとき、演算回路57は顔領域の目の位置を検出して(S107)、カメラ11の撮影光軸に対する、利用者βの顔の中心位置の変位量Ixβを算出する。システム制御回路50は算出結果を利用者情報として記憶回路58に記憶する(S108)。画像から利用者の顔を認識する方法は、本出願人より特許文献2に開示されている。この顔領域抽出処理では、肌色領域を検出し、肌色領域の射影分布を作成する作成工程の後、作成された射影分布から放物線を探索する探索工程を行う。探索された放物線の位置から顔領域候補が抽出され、顔領域候補に対して知識処理により顔領域かどうかが判断される。   Next, the arithmetic circuit 57 performs face recognition processing of the user β from the image of the space 1 photographed by the camera 11 (S106). At this time, the arithmetic circuit 57 detects the position of the eye in the face area (S107), and calculates the displacement amount Ixβ of the center position of the user β with respect to the photographing optical axis of the camera 11. The system control circuit 50 stores the calculation result as user information in the storage circuit 58 (S108). A method for recognizing a user's face from an image is disclosed in Patent Document 2 by the present applicant. In this face area extraction process, a skin color area is detected, and after the creation process for creating a projection distribution of the skin color area, a search process for searching for a parabola from the created projection distribution is performed. A face area candidate is extracted from the searched parabola position, and it is determined whether the face area candidate is a face area by knowledge processing.

また演算回路57は、撮影された利用者βの顔画像の目の間隔から、利用者βが表示装置101を観察している位置までの距離Zβを算出する。成人の目の間隔はおおよそ65mmであるため、カメラ11の撮影倍率に基づいて観察距離Zβを算出可能である。
次にシステム制御回路50は送受信回路56を介して、テレビ会議の相手側表示装置から送信されてきた画像信号、音声信号および利用者情報を受信する(S109)。空間2の利用者情報は利用者αの顔の位置Ixαを含む。この位置情報については、表示装置101の表示パネル102の画面サイズが考慮され、記憶回路58に記憶される。
In addition, the arithmetic circuit 57 calculates a distance Zβ to the position where the user β is observing the display device 101 from the interval between the eyes of the face image of the captured user β. Since the distance between adult eyes is approximately 65 mm, the observation distance Zβ can be calculated based on the imaging magnification of the camera 11.
Next, the system control circuit 50 receives the image signal, the audio signal, and the user information transmitted from the other party display device of the video conference via the transmission / reception circuit 56 (S109). The user information of the space 2 includes the face position Ixα of the user α. This position information is stored in the storage circuit 58 in consideration of the screen size of the display panel 102 of the display device 101.

演算回路57は、受信画像における空間2の利用者αの顔画像について、表示パネル102での表示位置Dxαを、空間1の利用者βの観察位置に応じて設定する(S110)。受信画像の表示位置の設定処理については、図4(B)を用いて後述する。
システム制御回路50は表示処理回路52を介して表示パネル102の画面上に空間2の利用者αの画像を表示する(S120)。図3は、表示パネル102に表示される空間2の利用者αの画像を例示する。表示画像については、あたかもカメラが小さくパンニングしたかのように、顔や背景が滑らかな動きで表示が行われる。空間1の利用者βは、空間2の利用者αと視線が合致しているので、コミュニケーションが向上するとともに、表示の変化に対しても違和感をもつことがない。
The arithmetic circuit 57 sets the display position Dxα on the display panel 102 for the face image of the user α in the space 2 in the received image according to the observation position of the user β in the space 1 (S110). The process for setting the display position of the received image will be described later with reference to FIG.
The system control circuit 50 displays an image of the user α in the space 2 on the screen of the display panel 102 via the display processing circuit 52 (S120). FIG. 3 illustrates an image of the user α in the space 2 displayed on the display panel 102. The display image is displayed with a smooth movement of the face and background as if the camera were panned small. Since the user β in the space 1 has a line of sight with the user α in the space 2, the communication is improved and the user is not uncomfortable with the display change.

表示パネル102に空間2の利用者αの画像が表示されると、音声処理回路53はマイク121、122、123および124にて検出した音声信号から、空間1で会話を行っている話者を検出する(S121)。複数の音声信号から話者を検出する方法には、例えば遅延和方式等がある。会話を行っている話者の位置が検出されると、記憶回路58に記憶された利用者の目の位置データが、話者の目の位置データとして更新される(S122)。そしてシステム制御回路50は操作スイッチ40の状態を確認して通信の終了判定を行う(S123)。テレビ会議システムが使用中である場合、S105に処理を戻して撮影画像等の送受信を続行する。   When the image of the user α in the space 2 is displayed on the display panel 102, the sound processing circuit 53 selects a speaker who is talking in the space 1 from the sound signals detected by the microphones 121, 122, 123 and 124. It is detected (S121). As a method for detecting a speaker from a plurality of audio signals, for example, there is a delay sum method. When the position of the speaker who is talking is detected, the position data of the user's eyes stored in the storage circuit 58 is updated as the position data of the eyes of the speaker (S122). Then, the system control circuit 50 confirms the state of the operation switch 40 and determines the end of communication (S123). When the video conference system is in use, the process returns to S105 to continue transmission / reception of a photographed image or the like.

一方、利用者によって操作スイッチ40のオフ操作が行われたことをシステム制御回路50が判定すると(S123でyes)、相手側表示装置との送受信を終了させる(S124)。さらに、システム制御回路50はカメラ11による利用者の撮影を終了させるとともに、表示パネル102の画像表示を終了させる(S125)。   On the other hand, when the system control circuit 50 determines that the operation switch 40 is turned off by the user (Yes in S123), the transmission / reception with the display device on the other end is terminated (S124). Further, the system control circuit 50 ends the user's photographing by the camera 11 and ends the image display on the display panel 102 (S125).

次に、図4(B)のフローチャートを参照して、図4(A)のS110の定義済み処理、すなわち相手側表示装置から送られてきた画像の利用者αの顔を、表示パネル102で表示位置Dxα(図1(A)参照)に設定する処理を説明する。
まずシステム制御回路50は空間2の利用者情報を用いて、利用者αの目の位置から顔の中心位置を認識し、利用者αの顔の中心位置と表示画面の中心との距離Ixαを確認する(S111)。図1(A)には、相手側表示装置から送られてきた画像を、表示装置101の画面にそのまま表示した状態を例示している。図1(A)では、利用者αの顔の中心位置と表示画面の中心との距離Ixαが、表示パネル102での利用者αの顔の表示位置Dxαと一致している例を示す。
Next, referring to the flowchart of FIG. 4B, the predefined process of S110 of FIG. 4A, that is, the face of the user α of the image sent from the counterpart display device is displayed on the display panel 102. Processing for setting the display position Dxα (see FIG. 1A) will be described.
First, the system control circuit 50 recognizes the center position of the face from the position of the eyes of the user α using the user information in the space 2, and determines the distance Ixα between the center position of the face of the user α and the center of the display screen. Confirm (S111). FIG. 1A illustrates a state in which an image sent from the counterpart display device is displayed on the screen of the display device 101 as it is. FIG. 1A shows an example in which the distance Ixα between the center position of the face of the user α and the center of the display screen matches the display position Dxα of the face of the user α on the display panel 102.

演算回路57は、空間2の利用者αの目の位置と、既に確認した空間2の表示装置のシステム情報より、受信した画像信号の特性を判定する(S112)。即ち、演算回路57は、記憶回路58に記憶された空間2の利用者αの顔の中心位置情報Ixαと、受信画像のフレーム周期Δtとに基づいて、利用者αの顔の位置の時間変化量ΔIxαを計算する。前回の受信画像における空間2の利用者αの顔の位置をIxα0とし、今回の受信画像における空間2の利用者αの顔の位置をIxα1とする。位置の時間に対する変化量を示す時間変化量ΔIxαは、
ΔIxα=(Ixα1−Ixα0)/Δt (1)式
と表される。
The arithmetic circuit 57 determines the characteristics of the received image signal from the position of the eyes of the user α in the space 2 and the system information of the display device in the space 2 that has already been confirmed (S112). That is, the arithmetic circuit 57 changes the time position of the face of the user α based on the center position information Ixα of the face of the user α stored in the storage circuit 58 and the frame period Δt of the received image. The quantity ΔIxα is calculated. The position of the face of the user α in the space 2 in the previous received image is Ixα0, and the position of the face of the user α in the space 2 in the current received image is Ixα1. The time change amount ΔIxα indicating the change amount of the position with respect to time is
ΔIxα = (Ixα1-Ixα0) / Δt (1)

システム制御回路50は、記憶回路58に記憶された空間1の利用者βの位置情報Zβを確認する(S113)。システム制御回路50は、演算回路57が(1)式により算出した時間変化量ΔIxαを確認する(S114)。空間2の利用者αの顔の位置が変化している場合、演算回路57は表示パネル102の画面上にて、空間2の利用者αの顔の表示位置Dxαを算出する(S115)。S114で空間2の利用者αの顔の位置が変化していない場合、S116に移行する。   The system control circuit 50 confirms the position information Zβ of the user β in the space 1 stored in the storage circuit 58 (S113). The system control circuit 50 checks the time change amount ΔIxα calculated by the arithmetic circuit 57 using the equation (1) (S114). When the position of the face of the user α in the space 2 has changed, the arithmetic circuit 57 calculates the display position Dxα of the face of the user α in the space 2 on the screen of the display panel 102 (S115). If the position of the face of the user α in the space 2 has not changed in S114, the process proceeds to S116.

本実施形態では、相手側の利用者の顔の位置が動いた場合でも、利用者同士の視線を合致させるとともに、顔や背景が滑らかに動くように制御することで、違和感のない表示制御を行う。演算回路57は(1)式の時間変化量ΔIxαに応じて、利用者αの表示位置Dxαを決定する。図1(B)の上面図では、相手側表示装置から送られてきた利用者αの画像を表示装置101の画面にそのまま表示した場合を例示し、空間1の利用者βの注視位置とカメラ11とのなす視線振れ角θβを示している。空間1の利用者βは、空間2の利用者αの顔の表示位置Dxαを注視するので、視線振れ角θβは、
tan(θβ)≒Dxα/Zβ (2)式
の関係式を満たす。tan(θβ)は視線振れ角θβの正接関数を表す。
In this embodiment, even when the position of the face of the other user moves, the user's line of sight is matched and control is performed so that the face and background move smoothly. Do. The arithmetic circuit 57 determines the display position Dxα of the user α according to the time change amount ΔIxα in the equation (1). In the top view of FIG. 1B, the case where the image of the user α sent from the partner display device is displayed as it is on the screen of the display device 101 is illustrated, and the gaze position of the user β in the space 1 and the camera 11 shows the line-of-sight angle θβ formed with the angle 11. Since the user β in the space 1 gazes at the display position Dxα of the face of the user α in the space 2, the line-of-sight deflection angle θβ is
tan (θβ) ≈Dxα / Zβ The relational expression (2) is satisfied. tan (θβ) represents a tangent function of the line-of-sight angle θβ.

また、利用者βの注視位置とカメラ11とのなす角度θβは、視線が合致していると認識できる角度の限界θβth内に収まるように制御される。本実施形態では、限界角度θβthは2[°]に設定している。
ここで、前回の受信画像における利用者αの顔の、表示パネル102上での表示位置をDxα0とし、観察者の位置を基準として表示位置Dxα0とカメラ11とのなす角度をθβ0とする。さらに、今回の受信画像における利用者αの顔の、表示パネル102上での表示位置をDxα1とし、観察者の位置を基準として表示位置Dxα1とカメラ11とのなす角度をθβ1とする。時間変化量をΔθβとすると、視線振れ角は、
θβ1 = θβ0 + Δθβ < θβth (3)式
を満足する。
Further, the angle θβ formed between the gaze position of the user β and the camera 11 is controlled so as to be within an angle limit θβth where the line of sight can be recognized as matching. In the present embodiment, the limit angle θβth is set to 2 [°].
Here, the display position on the display panel 102 of the face of the user α in the previous received image is Dxα0, and the angle formed by the display position Dxα0 and the camera 11 with respect to the position of the observer is θβ0. Furthermore, the display position of the face of the user α in the current received image on the display panel 102 is Dxα1, and the angle between the display position Dxα1 and the camera 11 with respect to the position of the observer is θβ1. When the amount of time change is Δθβ, the line-of-sight deflection angle is
θβ1 = θβ0 + Δθβ <θβth The expression (3) is satisfied.

図5は顔画像の表示位置の制御を説明する図である。横軸は、空間2で撮影された利用者αの顔の位置の時間変化量ΔIxα(単位:mm)を示し、縦軸は、空間1の利用者βに対する、表示装置101に表示される利用者αの顔の位置とカメラ11とのなす角度の制御量Δθβ(単位:degree)を示す。
図5(A)は、前回における利用者αの顔の位置DXα0とカメラ11とのなす角度θβ0が零の場合の制御例を示す。すなわち、前回の受信画像ではカメラ11の光軸上に空間2の利用者αの顔画像が位置する場合の制御例を示している。
本実施形態では、利用者αの顔の位置の時間変化量ΔIxαが所定の閾値以下の場合(例えば、制御量Δθβ≦1[°]の範囲)、時間変化量ΔIxαに対して線形に変換するように制御量Δθβが設定される。また、時間変化量ΔIxαが所定の閾値よりも大きい場合には、受信画像をそのまま表示せずに、表示位置が大きく変化しないように補正してから画像表示が行われる。このときの角度制御量Δθβは、視線が合致していると認識できる角度の限界値以内(θβth以下)に入るように設定される。
FIG. 5 is a diagram for explaining the control of the display position of the face image. The horizontal axis indicates the time change ΔIxα (unit: mm) of the position of the face of the user α taken in the space 2, and the vertical axis is the usage displayed on the display device 101 for the user β in the space 1. A control amount Δθβ (unit: degree) of an angle between the face position of the person α and the camera 11 is shown.
FIG. 5A shows a control example in the case where the angle θβ0 formed by the previous position αα0 of the user α and the camera 11 is zero. That is, the control example when the face image of the user α in the space 2 is located on the optical axis of the camera 11 in the previous received image is shown.
In the present embodiment, when the time change amount ΔIxα of the face position of the user α is equal to or less than a predetermined threshold (for example, a range of control amount Δθβ ≦ 1 [°]), the time change amount ΔIxα is linearly converted. Thus, the control amount Δθβ is set. When the time change amount ΔIxα is larger than the predetermined threshold value, the received image is not displayed as it is, and the image display is performed after correcting the display position so as not to change greatly. The angle control amount Δθβ at this time is set so as to be within the limit value of the angle at which the line of sight can be recognized as matching (θβth or less).

以上のように、空間2で撮影された利用者αの顔の位置の時間変化量ΔIxαに対して、空間1の利用者βが視認する表示装置101の画面に表示される利用者αの顔の位置とカメラ11とのなす角度の制御量Δθβが決定される。角度制御量Δθβは、表示の変化量が大きくなり過ぎないように、所定値以下になるように演算回路57が決定する。角度制御量Δθβが決定されると、演算回路57は上式(2)および(3)を用いて、空間2の利用者αの、表示パネル102上での顔の表示位置Dxα1を算出(S115)し、顔の表示位置を決定する(S116)。その後、図4(A)のメインルーチンに戻る(S117)。
図5(A)では、前回の受信画像にてカメラ11の光軸上に空間2の利用者αの顔画像が位置する場合の制御例を示した。図5(B)では、前回の受信画像にて利用者αの顔画像がカメラ11の光軸上に位置しない場合の制御例を示す。利用者αの顔の表示位置DXα0とカメラ11とのなす角度θβ0が、例えば1[°]の場合を例示する。
As described above, the face of the user α displayed on the screen of the display device 101 visually recognized by the user β in the space 1 with respect to the time change amount ΔIxα of the position of the user α photographed in the space 2. And the control amount Δθβ of the angle formed by the position of the camera 11 is determined. The arithmetic circuit 57 determines the angle control amount Δθβ to be equal to or less than a predetermined value so that the display change amount does not become too large. When the angle control amount Δθβ is determined, the arithmetic circuit 57 calculates the face display position Dxα1 on the display panel 102 of the user α in the space 2 using the above equations (2) and (3) (S115). The face display position is determined (S116). Thereafter, the process returns to the main routine of FIG. 4A (S117).
FIG. 5A shows an example of control when the face image of the user α in the space 2 is positioned on the optical axis of the camera 11 in the previous received image. FIG. 5B shows a control example when the face image of the user α is not located on the optical axis of the camera 11 in the previous received image. The case where the angle θβ0 formed by the display position DXα0 of the face of the user α and the camera 11 is, for example, 1 [°] is illustrated.

図5(B)にて、利用者αの顔の表示位置DXα0とカメラ11とのなす角度θβ0が所定値以上の場合、表示位置が大きく変化しないように補正してから画像が表示される。顔の位置の時間変化量ΔIxαが小さい場合でも受信画像をそのまま表示せずに、表示位置が補正される。このときの角度制御量Δθβは、視線が合致していると認識できる角度の限界値以内(θβth以下)に入るように設定される。   In FIG. 5B, when the angle θβ0 between the display position DXα0 of the face of the user α and the camera 11 is equal to or larger than a predetermined value, the image is displayed after correcting so that the display position does not change greatly. Even when the amount of time change ΔIxα of the face position is small, the display position is corrected without displaying the received image as it is. The angle control amount Δθβ at this time is set so as to be within the limit value of the angle at which the line of sight can be recognized as matching (θβth or less).

本実施形態では、演算回路57が受信画像から、空間2の利用者αの顔の位置Ixαを取得し、表示パネル102上での利用者αの顔の表示位置Dxαを決定する例を示した。一方、顔の動きを事前に予測することにより、画像を遅延無く滑らかに表示可能である。図6は顔の追尾の説明図であり、横軸に時間を示し、縦軸に顔画像の動きに対応する角度を示す。演算回路57は顔の位置の時間的変化(図中の実線領域)を監視し、将来的な顔の位置を外挿することで、顔画像の動きを予測(図中の点線領域)し、顔画像の表示位置を決定する。これにより、画像を遅延無く滑らかに表示可能となる。
本実施形態では、対話を行う相手側の利用者が顔の位置を動かした場合、顔画像の位置を撮像部の配置された画面中央部に固定しようとして背景だけが動いてしまうことがないので、違和感なく利用者同士の視線を合致させる効果が得られる。
In the present embodiment, an example is shown in which the arithmetic circuit 57 acquires the face position Ixα of the user α in the space 2 from the received image and determines the display position Dxα of the user α face on the display panel 102. . On the other hand, by predicting the movement of the face in advance, the image can be displayed smoothly without delay. FIG. 6 is an explanatory diagram of face tracking, where the horizontal axis indicates time and the vertical axis indicates an angle corresponding to the movement of the face image. The arithmetic circuit 57 monitors temporal changes in the position of the face (solid line area in the figure) and extrapolates the future face position to predict the movement of the face image (dotted line area in the figure). The display position of the face image is determined. Thereby, an image can be displayed smoothly without delay.
In the present embodiment, when the other user who performs the conversation moves the position of the face, only the background does not move in an attempt to fix the position of the face image to the center of the screen where the imaging unit is arranged. Thus, the effect of matching the lines of sight of the users can be obtained without a sense of incongruity.

なお本実施形態では、表示装置101を観察する利用者βの観察距離Zβを、利用者βの目の間隔に基づいて算出する例を説明した。これに限らず、表示パネル102の大きさによって概ね観察距離は決まるため、表示パネル102の大きさに従った観察距離Zβを自動的に設定しても構わない。   In the present embodiment, the example in which the observation distance Zβ of the user β who observes the display device 101 is calculated based on the interval between the eyes of the user β has been described. However, the viewing distance is generally determined by the size of the display panel 102, and therefore the viewing distance Zβ according to the size of the display panel 102 may be automatically set.

[変形実施形態]
次に本発明の変形実施形態を説明する。
図7(A)は、空間2でのテレビ会議システムに使用する表示装置201の正面図である。表示装置201の表示画面には空間1の利用者βが映し出されている。また、図7(B)は表示装置201の上面図である。空間2での表示装置201を観察する利用者αとの位置関係を示している。表示装置201は空間1で使用する表示装置101と同様の構成である。
図7(A)に示すように、表示パネル202の画面に表示される、空間1の画像の一部には非表示領域203が設定されている。図7(B)に示すように、利用者αがカメラ211の撮影光軸から離れた位置Xαにて表示パネル202を注視する場合、表示パネル202の表示画面に非表示領域203が設定される。非表示領域203の設定目的は、観察者に対して観察位置をカメラ211の撮影光軸寄りに誘導することである。表示パネル202に非表示領域203を設定するか否かの判定処理は、以下のように行われる。
[Modified Embodiment]
Next, a modified embodiment of the present invention will be described.
FIG. 7A is a front view of the display device 201 used in the video conference system in the space 2. A user β in the space 1 is displayed on the display screen of the display device 201. FIG. 7B is a top view of the display device 201. The positional relationship with the user α who observes the display device 201 in the space 2 is shown. The display device 201 has the same configuration as the display device 101 used in the space 1.
As shown in FIG. 7A, a non-display area 203 is set in a part of the image of the space 1 displayed on the screen of the display panel 202. As shown in FIG. 7B, when the user α gazes at the display panel 202 at a position Xα away from the photographing optical axis of the camera 211, a non-display area 203 is set on the display screen of the display panel 202. . The purpose of setting the non-display area 203 is to guide the observation position closer to the photographing optical axis of the camera 211 with respect to the observer. The process for determining whether or not to set the non-display area 203 on the display panel 202 is performed as follows.

システム制御回路50は、表示パネル202の背面に配設されたカメラ211で利用者αを撮影する。次に演算回路57は、カメラ211で撮影された画像から空間2での利用者αの顔認識処理を実行する。このとき、演算回路57は利用者αの顔領域の目の位置を検出し、カメラ211の撮影光軸に対する利用者αの顔の中心位置の変位量Xαを算出する。実空間上でのカメラ211の撮影光軸に対する、利用者αの顔の中心位置の変位量Xαは、カメラ211の撮影倍率から換算される。この変位量Xαが所定値(判定基準値)以上である場合、演算回路57は利用者αをカメラ211の撮影光軸寄りに誘導するために、表示パネル202の非表示領域203を設定する。システム制御回路50は表示処理回路52を介して表示パネル202の画面上に、空間1の利用者βの画像を非表示領域203とともに表示させる。図7(A)の表示画面を見た利用者αは、非表示領域203のない画面が表示される観察位置へと移動する。
変形実施形態によれば、利用者の顔画像の位置と撮像部との相対位置を検出して利用者をカメラ211の撮影光軸寄りに誘導することで、利用者同士の視線を合致させる効果を奏する。
The system control circuit 50 photographs the user α with the camera 211 provided on the back surface of the display panel 202. Next, the arithmetic circuit 57 executes a face recognition process for the user α in the space 2 from the image captured by the camera 211. At this time, the arithmetic circuit 57 detects the position of the eye in the face area of the user α, and calculates the displacement amount Xα of the center position of the user α with respect to the photographing optical axis of the camera 211. The displacement amount Xα of the center position of the face of the user α relative to the imaging optical axis of the camera 211 in real space is converted from the imaging magnification of the camera 211. When the displacement amount Xα is equal to or larger than a predetermined value (determination reference value), the arithmetic circuit 57 sets the non-display area 203 of the display panel 202 in order to guide the user α closer to the photographing optical axis of the camera 211. The system control circuit 50 displays the image of the user β in the space 1 together with the non-display area 203 on the screen of the display panel 202 via the display processing circuit 52. The user α who has seen the display screen in FIG. 7A moves to an observation position where a screen without the non-display area 203 is displayed.
According to the modified embodiment, the relative position between the face image of the user and the imaging unit is detected, and the user is guided closer to the photographing optical axis of the camera 211, so that the lines of sight of the users are matched. Play.

11,211 カメラ
101,201 表示装置
102,202 表示パネル
121〜124 マイク
131〜132 スピーカ
11, 211 Camera 101, 201 Display device 102, 202 Display panel 121-124 Microphone 131-132 Speaker

Claims (4)

表示部と該表示部の背面に配置された撮像部を備える表示装置であって、
画像信号および当該画像信号に係る画像における被写体の顔の位置の情報の入力および前記撮像部による撮像信号の出力を行う入出力手段と、
前記入出力手段により得られた前記被写体の顔の位置の情報を取得し、該顔の位置の時間変化量に応じて顔画像の表示位置を決定する演算手段と、
前記演算手段が決定した前記顔画像の表示位置に前記顔画像を表示させる制御を行う表示制御手段と、を備え、
前記演算手段は、
前記撮像部による前記撮像信号に基づいて前記表示部の観察距離の情報と観察者の位置の情報とを取得し
前記観察距離の情報と前記観察者の位置の情報とに基づいて、前記観察者の位置を基準とした前記顔画像の表示位置と前記撮像部との角度の時間変化量を決定することで前記顔画像の表示位置を決定する際、
前記被写体の顔の位置の時間変化量が増加するにしたがって、前記顔画像の表示位置と前記撮像部との角度の時間変化量が増加し、且つ、前記顔画像の表示位置と前記撮像部との角度の時間変化量が、閾値以下となるように前記画像の表示位置を算出し、
前記閾値は、視線が合致していると認識できる角度であることを特徴とする表示装置。
A display device comprising a display unit and an imaging unit disposed on the back of the display unit,
Input / output means for inputting information of the position of the face of the subject in the image signal and the image related to the image signal and outputting the imaging signal by the imaging unit;
Acquires information on the position of the face of the subject obtained by the input means, and calculating means for determining the display position of the face image according to the time variation of the position of the face,
Display control means for performing control to display the face image at the display position of the face image determined by the calculation means,
The computing means is
Based on the imaging signal by the imaging unit, obtain information on the observation distance of the display unit and information on the position of the observer ,
Based on the information on the observation distance and the information on the position of the observer, the time change amount of the angle between the display position of the face image and the imaging unit based on the position of the observer is determined. When determining the display position of the face image,
As the time change amount of the face position of the subject increases, the time change amount of the angle between the display position of the face image and the imaging unit increases, and the display position of the face image and the imaging unit The display position of the image is calculated so that the time change amount of the angle is equal to or less than a threshold value ,
The display device according to claim 1, wherein the threshold is an angle at which the line of sight can be recognized as matching .
前記演算手段は、前記顔の位置の時間変化量を予測して前記顔画像の表示位置を決定することを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the calculation unit determines a display position of the face image by predicting a temporal change amount of the face position. 前記演算手段は、前記撮像部により撮像された顔画像の位置と前記撮像部との相対位置を検出して前記表示部の表示画面における画像の非表示領域を決定し、
前記表示制御手段は、前記顔画像および前記演算手段が決定した前記非表示領域を前記表示部に表示させる制御を行うことを特徴とする請求項1又は2に記載の表示装置。
The calculation means detects a relative position between the position of the face image captured by the imaging unit and the imaging unit, determines a non-display area of the image on the display screen of the display unit,
Said display control means display device according to claim 1 or 2, characterized in that the control for displaying the facial image and the computing means decides the non-display area on the display unit.
表示部と該表示部の背面に配置された撮像部を備える表示装置にて実行される制御方法であって、
入出力手段により画像信号および当該画像信号に係る画像における被写体の顔の位置の情報の入力および前記撮像部による撮像信号の出力を行う入出力ステップと、
前記入出力手段により得られた前記被写体の顔の位置の情報を演算手段が取得し、該顔の位置の時間変化量に応じて顔画像の表示位置を決定する演算ステップと、
前記演算手段が決定した前記顔画像の表示位置に前記顔画像を表示させる制御を表示制御手段が行う表示制御ステップと、を有し、
前記演算ステップにて前記演算手段は、
前記撮像部による前記撮像信号に基づいて前記表示部の観察距離の情報と観察者の位置の情報とを取得し
前記観察距離の情報と前記観察者の位置の情報とに基づいて、前記観察者の位置を基準とした前記顔画像の表示位置と前記撮像部との角度の時間変化量を決定することで前記顔画像の表示位置を決定する際、
前記被写体の顔の位置の時間変化量が増加するにしたがって、前記顔画像の表示位置と前記撮像部との角度の時間変化量が増加し、且つ、前記顔画像の表示位置と前記撮像部との角度の時間変化量が、閾値以下となるように前記画像の表示位置を算出し、
前記閾値は、視線が合致していると認識できる角度であることを特徴とする表示装置の制御方法。
A control method executed in a display device including a display unit and an imaging unit disposed on the back of the display unit,
An input / output step for inputting an image signal and information on the position of the face of the subject in the image related to the image signal by the input / output means, and outputting an imaging signal by the imaging unit;
A calculating step of determining the display position of the face image obtained information on the position of the face of the subject acquired computing means is, according to the time variation of the position of the face by said input means,
A display control step in which display control means performs control to display the face image at the display position of the face image determined by the calculation means, and
In the calculation step, the calculation means includes:
Based on the imaging signal by the imaging unit, obtain information on the observation distance of the display unit and information on the position of the observer ,
Based on the information on the observation distance and the information on the position of the observer, the time change amount of the angle between the display position of the face image and the imaging unit based on the position of the observer is determined. When determining the display position of the face image,
As the time change amount of the face position of the subject increases, the time change amount of the angle between the display position of the face image and the imaging unit increases, and the display position of the face image and the imaging unit The display position of the image is calculated so that the time change amount of the angle is equal to or less than a threshold value ,
The method for controlling a display device, wherein the threshold value is an angle at which the line of sight can be recognized as matching .
JP2013251364A 2013-12-04 2013-12-04 Display device including imaging unit and control method thereof Expired - Fee Related JP6478454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013251364A JP6478454B2 (en) 2013-12-04 2013-12-04 Display device including imaging unit and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013251364A JP6478454B2 (en) 2013-12-04 2013-12-04 Display device including imaging unit and control method thereof

Publications (2)

Publication Number Publication Date
JP2015109557A JP2015109557A (en) 2015-06-11
JP6478454B2 true JP6478454B2 (en) 2019-03-06

Family

ID=53439619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013251364A Expired - Fee Related JP6478454B2 (en) 2013-12-04 2013-12-04 Display device including imaging unit and control method thereof

Country Status (1)

Country Link
JP (1) JP6478454B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2947113B2 (en) * 1995-03-09 1999-09-13 日本電気株式会社 User interface device for image communication terminal
JPH08251562A (en) * 1995-03-14 1996-09-27 Matsushita Electric Ind Co Ltd Video conversation system
JP2003309828A (en) * 2002-04-17 2003-10-31 Sumitomo Electric Ind Ltd Method for correcting display position of monitor image, terminal, mount tool, and two-way interactive system
JP2007208819A (en) * 2006-02-03 2007-08-16 Funai Electric Co Ltd Imaging and display device
JP2008139599A (en) * 2006-12-01 2008-06-19 Toshiba Corp Small-sized terminal device

Also Published As

Publication number Publication date
JP2015109557A (en) 2015-06-11

Similar Documents

Publication Publication Date Title
CN110493528B (en) Image pickup apparatus and control method thereof
JP4899805B2 (en) Video phone equipment
US10609273B2 (en) Image pickup device and method of tracking subject thereof
JP4781440B2 (en) Image capturing apparatus, control method and control program for image capturing apparatus
US9541761B2 (en) Imaging apparatus and imaging method
CN108028884B (en) Image pickup system and image pickup control method
JP6138453B2 (en) Equipment with videophone function, program, and control method of equipment with videophone function
JP2019047357A (en) Display unit with imaging apparatus
JPWO2012099175A1 (en) Auto focus system
JP2019023767A (en) Information processing apparatus
US20100123790A1 (en) Autofocus system
JP6259544B2 (en) Method and apparatus for displaying framing information
CN113225474A (en) Voice input device, control method thereof, and storage medium
JP2014049797A (en) Display device with camera
EP3211879A1 (en) Method and device for automatically capturing photograph, electronic device
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
CN113395438B (en) Image correction method and related device for eyeball tracking technology
CN113170075B (en) Information processing device, information processing method, and program
JP6478454B2 (en) Display device including imaging unit and control method thereof
JP2010085530A (en) Autofocus system
CN114339022B (en) Camera shooting parameter determining method and neural network model training method
JP2018133722A (en) Display device, control method of the same, and control program
JP2007208819A (en) Imaging and display device
JP7009066B2 (en) Display device, its control method, and control program
WO2012099174A1 (en) Autofocus system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190205

R151 Written notification of patent or utility model registration

Ref document number: 6478454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees