JP6157077B2 - Display device with camera - Google Patents

Display device with camera Download PDF

Info

Publication number
JP6157077B2
JP6157077B2 JP2012188695A JP2012188695A JP6157077B2 JP 6157077 B2 JP6157077 B2 JP 6157077B2 JP 2012188695 A JP2012188695 A JP 2012188695A JP 2012188695 A JP2012188695 A JP 2012188695A JP 6157077 B2 JP6157077 B2 JP 6157077B2
Authority
JP
Japan
Prior art keywords
user
camera
image
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012188695A
Other languages
Japanese (ja)
Other versions
JP2014049797A (en
Inventor
赤田 弘司
弘司 赤田
千冬 富田
千冬 富田
長野 明彦
明彦 長野
須田 康夫
康夫 須田
孝之 坪井
孝之 坪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012188695A priority Critical patent/JP6157077B2/en
Publication of JP2014049797A publication Critical patent/JP2014049797A/en
Application granted granted Critical
Publication of JP6157077B2 publication Critical patent/JP6157077B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、テレビ電話やテレビ会議に好適に用いられるカメラ付き表示装置に関するものである。   The present invention relates to a camera-equipped display device suitably used for a videophone or a video conference.

表示装置を見ている利用者と、表示装置に表示されている相手の画像の視線とを合致させることが、テレビ電話やテレビ会議において自然な感覚での対話を実現するため重要な要素である。従来、テレビ電話システムやテレビ会議システムにおいて表示装置の表示面方向から使用者を撮影し、使用者間の視線を合致させる技術があった。さらに、特許文献1に示されるように、複数の端末間で画像データを通信するテレビ電話システムにおいて、表示画面を注視しつつ位置を変える使用者Aをほぼ正面から撮像し、撮像された使用者の画像が表示画面のほぼ中央を占めるように通信相手への画像として加工する技術が知られている。この技術によれば、通信相手から見て使用者Aと視線がよく合致し、会話に違和感を与えることがない。   Matching the user who is viewing the display device with the line of sight of the other person's image displayed on the display device is an important element for realizing a natural sense of dialogue in videophones and video conferences. . Conventionally, in a videophone system or a video conference system, there has been a technique for photographing a user from the display surface direction of a display device and matching the line of sight between the users. Furthermore, as shown in Patent Document 1, in a videophone system that communicates image data between a plurality of terminals, a user A who changes the position while gazing at a display screen is imaged from the front and the imaged user is captured. There is known a technique of processing as an image to a communication partner so that the image of the image occupies almost the center of the display screen. According to this technology, the user A and the line of sight are in good agreement when viewed from the communication partner, and the conversation does not give a sense of incongruity.

特開2009−71573号公報JP 2009-71573 A

テレビ電話やテレビ会議においては、カメラの撮影範囲を大きく取って表示装置に対向する使用者の顔の位置の自由度をできるだけ大きくすることが、良好な使い勝手を提供することに結び付く。すなわち、使用者が表示装置に正対している場合だけでなく、やや斜めから表示装置を見ている場合にもカメラの撮影範囲に収まることが重要である。   In videophones and videoconferences, increasing the shooting range of the camera and increasing the degree of freedom of the face position of the user facing the display device as much as possible leads to providing good usability. That is, not only when the user is facing the display device but also when the display device is viewed from a slight angle, it is important that the camera is within the shooting range.

一方で、使用者の背景にある種々の物を写り込ませたくないという使用者側の意識があることや、広角レンズの撮影範囲の周辺においては、例え歪曲収差が完全に補正されているレンズであっても所謂広角歪(ボリューム歪)によって使用者が歪んで写ってしまうことから、カメラの撮影画角は狭くしたいという要求がある。   On the other hand, there is a user's consciousness that it does not want to capture various objects in the background of the user, and in the vicinity of the shooting range of the wide-angle lens, for example, a lens in which distortion is completely corrected Even so, since the user is distorted due to so-called wide-angle distortion (volume distortion), there is a demand for reducing the shooting angle of view of the camera.

想定される表示装置から使用者までの距離において、十分に広く実用的な撮影範囲を設定し、しかも、撮影画角を狭くするということは、表示面からカメラを後方に離すということに他ならない。このことについてカメラの撮像面の大きさを固定して考えれば、より焦点距離が長いレンズを備えたカメラを表示面の後方に(画面方向に)離間して配置するということになる。   Setting a sufficiently wide and practical shooting range at the expected distance from the display device to the user and narrowing the shooting angle of view is nothing more than moving the camera backward from the display surface. . If the size of the imaging surface of the camera is fixed with respect to this, a camera provided with a lens having a longer focal distance is arranged behind the display surface (in the screen direction) and spaced apart.

図17はこの配置に関する説明図である。図17(a)はディスプレイ装置(表示装置)の表示面に近接させて広画角のカメラを配置した時の使用者とカメラの撮影範囲との関係を示す俯瞰図、図17(b)は狭い画角のカメラを使用した時の使用者とカメラの撮影範囲との関係を示す俯瞰図である。両図において、ディスプレイ装置と使用者との距離は同一となっている。   FIG. 17 is an explanatory diagram regarding this arrangement. FIG. 17A is an overhead view showing the relationship between the user and the shooting range of the camera when a wide-angle camera is placed close to the display surface of the display device (display device), and FIG. It is an overhead view which shows the relationship between the user when using the camera of a narrow angle of view, and the imaging range of a camera. In both figures, the distance between the display device and the user is the same.

図17(a)において、201はパッシブマトリクス方式を採用して透過光の割合を増やした有機ELディスプレイ装置、202はカメラ、225はカメラ202の光軸、203はカメラ202の撮影範囲である。204は使用者の頭部、205は使用者204の目の位置におけるカメラ202の撮影範囲、206は背景の撮影範囲である。また、図17(b)において、211はカメラ、226はカメラ211の光軸、212はカメラ211の撮影範囲、213は使用者の目の位置におけるカメラ211の撮影範囲、214は背景の撮影範囲である。カメラ211の焦点距離はカメラ202の焦点距離よりも長く、カメラ211の撮影画角θ211はカメラ202の撮影画角θ202よりも小さい。 In FIG. 17A, 201 is an organic EL display device in which the ratio of transmitted light is increased by adopting a passive matrix system, 202 is a camera, 225 is an optical axis of the camera 202, and 203 is an imaging range of the camera 202. Reference numeral 204 denotes a user's head, 205 denotes a shooting range of the camera 202 at the position of the eyes of the user 204, and 206 denotes a background shooting range. In FIG. 17B, 211 is a camera, 226 is an optical axis of the camera 211, 212 is a shooting range of the camera 211, 213 is a shooting range of the camera 211 at the position of the user's eyes, and 214 is a background shooting range. It is. The focal length of the camera 211 is longer than the focal length of the camera 202, and the shooting angle of view θ 211 of the camera 211 is smaller than the shooting angle of view θ 202 of the camera 202.

使用者の目の位置における撮影範囲205と213を同一の長さに設定するとすれば、撮影画角の狭いカメラ211は撮影画角の広いカメラ202よりも使用者から遠ざける必要があり、ディスプレイ装置201の表示面から後方に離れることとなる。このとき、カメラ202による背景の撮影範囲206よりも、カメラ211による背景の撮影範囲214は狭くなり、図17(b)の状態の方が背景の単純化が図れている。   If the shooting ranges 205 and 213 at the user's eye position are set to the same length, the camera 211 having a narrow shooting angle of view needs to be further away from the user than the camera 202 having a wide shooting angle of view. It will be separated from the display surface 201. At this time, the background photographing range 214 by the camera 211 is narrower than the background photographing range 206 by the camera 202, and the background in FIG. 17B is simplified.

さらに、撮影画角が広くなるほど広角歪が発生し、画面の短部においては使用者の頭部が不自然に引き伸ばされて撮像されてしまう現象がある。図18はその説明図であって、図18において、221はカメラの撮影レンズ、222a〜222eは使用者の頭部、223a〜223eは使用者の頭部222a〜222eにそれぞれ対応し、撮像面215に投影された光学像である。使用者の頭部222a〜222eの大きさは一定であるにも関わらず、光学像223a〜223eの大きさは一定ではなく、光軸224から離れる程に光学像の寸法は大きくなって、横に引き伸ばされた画像となってしまう。この現象は撮影レンズ221の歪曲収差に起因するものではなく、平面上の格子を相似形の格子像として形成できる良好に収差補正された撮影レンズであっても、被写体に奥行きがあることが原因してこの現象は発生してしまう。こういった広角歪を抑制するには、撮影画角を狭くするしかない。このことを図17の状態に当てはめて考えると、狭い撮影画角θ211を有するカメラ211を使用した状態の方が広角歪の無い良好な光学像を得ることができ、より望ましいということになる。 Further, as the shooting angle of view becomes wider, wide-angle distortion occurs, and there is a phenomenon that the user's head is unnaturally stretched and imaged in a short portion of the screen. FIG. 18 is an explanatory diagram thereof, in FIG. 18, reference numeral 221 denotes a photographing lens of the camera, 222a to 222e correspond to the user's head, 223a to 223e correspond to the user's heads 222a to 222e, respectively. 215 is an optical image projected onto 215. Although the size of the heads 222a to 222e of the user is constant, the size of the optical images 223a to 223e is not constant, and the size of the optical image increases as the distance from the optical axis 224 increases. The image will be stretched. This phenomenon is not caused by the distortion of the taking lens 221, but the subject is deep even in a well-corrected aberration-correcting taking lens capable of forming a planar lattice as a similar lattice image. And this phenomenon will occur. The only way to suppress such wide-angle distortion is to narrow the shooting angle of view. When this is applied to the state of FIG. 17, it is more desirable to use a camera 211 having a narrow shooting angle of view θ 211 because a good optical image without wide-angle distortion can be obtained. .

しかしながら、このようにカメラをディスプレイ装置の表示面から離して配置して背景の単純化や広角歪の抑制を行った時には、視線の合致度が低下してしまうという大きな問題が発生する。   However, when the camera is arranged away from the display surface of the display device and the background is simplified and the wide-angle distortion is suppressed, there is a serious problem that the line-of-sight matching degree is lowered.

図19はその説明図である。230は通信相手の頭部の画像である。図19(a)に示すごとく、特開2009−71573号公報に開示されているように通信相手の画像をカメラ202の位置するディスプレイ装置201の中央部に表示することによって、視線227のように使用者が通信相手を見ると、同時にその背後にあるカメラをも見ることにもなって、カメラ202からは使用者の視線がカメラに向いた画像を取得することができる。ところが、図19(b)に示すようにカメラ211がディスプレイ装置201の表示面から後方に離れていると、たとえ通信相手の画像をディスプレイ装置201の中央部に表示したとしても使用者の視線がカメラに向いた画像を取得することは出来ない。228は使用者の視線であり、視線228は使用者の頭部204の目の中央位置から通信相手の頭部の画像230を結んでいる。カメラ211は通信相手の頭部の画像230の背後にあるが近接してはおらず、離れて位置している。したがって、視線228の延長線上にカメラ211が位置していないので、カメラ211が取得する使用者204の画像は使用者が視線をカメラ211に向けているものとはならない。この結果、こういったカメラ付きディスプレイ装置をテレビ電話システムやテレビ会議システムに使用すると視線の合致度が低下して臨場感が損なわれ、十分な意思疎通が図れなくなってしまうという問題がある。   FIG. 19 is an explanatory diagram thereof. 230 is an image of the head of the communication partner. As shown in FIG. 19A, the image of the communication partner is displayed at the center of the display device 201 where the camera 202 is located as disclosed in Japanese Patent Application Laid-Open No. 2009-71573, so that the line of sight 227 is obtained. When the user looks at the communication partner, the camera behind the communication partner is also seen, and an image with the user's line of sight toward the camera can be acquired from the camera 202. However, as shown in FIG. 19B, when the camera 211 is away from the display surface of the display device 201, even if the communication partner image is displayed in the center of the display device 201, the user's line of sight is displayed. It is not possible to acquire an image that is suitable for the camera. Reference numeral 228 denotes a user's line of sight, and the line of sight 228 connects the image 230 of the communication partner's head from the center position of the eyes of the user's head 204. The camera 211 is behind the image 230 of the head of the communication partner, but is not close to it and is located away. Therefore, since the camera 211 is not located on the extension line of the line of sight 228, the image of the user 204 acquired by the camera 211 is not that the user has his line of sight toward the camera 211. As a result, when such a camera-equipped display device is used in a videophone system or a video conference system, there is a problem that the degree of coincidence of the line of sight is lowered, the sense of reality is impaired, and sufficient communication cannot be achieved.

(発明の目的)
本発明の目的は、カメラを表示手段の画面方向に離して配置した際にも、十分な視線の合致度を得ることができるカメラ付き表示装置を提供することである。
(Object of invention)
An object of the present invention is to provide a display device with a camera that can obtain a sufficient degree of coincidence of line of sight even when the camera is arranged in the screen direction of the display means.

上記目的を達成するために、本発明のカメラ付き表示装置は、画像データを相互に通信する画像通信システムに供されるカメラ付き表示装置であって、
通信相手からの画像を表示する表示手段と、
前記表示手段を観察する使用者を前記表示手段の画面方向から撮像するカメラと、
前記表示手段の表示面における前記通信相手の顔画像の表示位置のシフト量を、前記カメラの取得画像における前記使用者の顔画像の位置に基づいて算出する表示位置算出手段とを有し、
前記表示手段は、前記使用者のカメラ位置と前記使用者の両目の中央位置とを結ぶ直線上に位置するように前記算出されたシフト量ずらして表示することを特徴とするものである。
In order to achieve the above object, a camera-equipped display device of the present invention is a camera-equipped display device used in an image communication system for communicating image data with each other,
Display means for displaying an image from a communication partner;
A camera that images the user observing the display means from the screen direction of the display means;
Display position calculation means for calculating the shift amount of the display position of the face image of the communication partner on the display surface of the display means based on the position of the face image of the user in the acquired image of the camera;
The display means displays the image by shifting the calculated shift amount so as to be positioned on a straight line connecting the camera position of the user and the center position of both eyes of the user .

本発明によれば、カメラを表示手段の画面方向に離して配置した際にも、十分な視線の合致度を得ることができる。   According to the present invention, it is possible to obtain a sufficient degree of line-of-sight matching even when the camera is arranged in the screen direction of the display means.

本発明の実施例1であるカメラ付きディスプレイ装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the display apparatus with a camera which is Example 1 of this invention. 実施例1における処理を表すフローチャートである。3 is a flowchart illustrating processing in the first embodiment. 実施例1における送信処理を表すフローチャートである。3 is a flowchart illustrating a transmission process according to the first embodiment. 実施例1における受信処理を表すフローチャートである。3 is a flowchart illustrating a reception process in the first embodiment. 使用者Bのトリミング前後のカメラ画像を示す図である。It is a figure which shows the camera image before and behind the trimming of the user B. 使用者Aのトリミング前後のカメラ画像を示す図である。It is a figure which shows the camera image before and behind the trimming of the user A. 実施例1でのカメラ画像の表示位置の算出方法を説明するための俯瞰図である。FIG. 5 is an overhead view for explaining a method for calculating a display position of a camera image in the first embodiment. 使用者Bがディスプレイ装置に正対した状態を使用者Bの正面側から示す図である。It is a figure which shows the state where the user B faced the display apparatus from the front side of the user B. 使用者Bがディスプレイ装置に正対した状態を使用者Bの背面側から示す図である。It is a figure which shows the state where the user B faced the display apparatus from the back side of the user B. 使用者Bがディスプレイ装置に対して横にずれた状態を使用者Bの正面側から示す図である。It is a figure which shows the state which the user B shifted | deviated to the display apparatus from the front side of the user B. 使用者Bがディスプレイ装置に対して横にずれた状態を使用者Bの背面側から示す図である。It is a figure which shows the state which the user B shifted | deviated sideways with respect to the display apparatus from the back side of the user B. 図9Aに使用者Aを加えた状態を使用者Bの正面側から示す図である。It is a figure which shows the state which added the user A to FIG. 9A from the front side of the user B. 図9Bに使用者Aを加えた状態を使用者Bの背面側から示す図である。It is a figure which shows the state which added the user A to FIG. 9B from the back side of the user B. 図9Aの使用者Bの顔画像を算出したシフト量ずらした状態を使用者Bの正面側から示す図である。It is a figure which shows the state which shifted the shift amount which calculated the face image of the user B of FIG. 9A from the front side of the user B. 図9Bの使用者Bの顔画像を算出したシフト量ずらした状態を使用者Bの背面側から示す図である。It is a figure which shows the state which shifted the shift amount which computed the face image of the user B of FIG. 9B from the back side of the user B. 実施例1による視線合致の様子を使用者Bの正面側から示す図である。It is a figure which shows the mode of the eyes | visual_axis matching by Example 1 from the user's B front side. 実施例1による視線合致の様子を使用者Bの背面側から示す図である。It is a figure which shows the mode of the eyes | visual_axis matching by Example 1 from the back side of the user B. FIG. 使用者AとBがともに横にずれたときの実施例1による視線合致の様子を使用者Bの正面側から示す図である。It is a figure which shows the mode of the eyes | visual_axis matching by Example 1 when the user A and B have shifted | deviated from both sides from the front side of the user B. FIG. 使用者AとBがともに横にずれたときの実施例1による視線合致の様子を使用者Bの背面側から示す図である。It is a figure which shows the mode of a line-of-sight match by Example 1 when the users A and B have shifted | deviated from both sides from the back side of the user B. 本発明の実施例2における複数のカメラの設置状態を示す図である。It is a figure which shows the installation state of the some camera in Example 2 of this invention. 同じく実施例2における複数のカメラの設置状態を示す図である。Similarly, it is a figure showing the installation state of a plurality of cameras in Example 2. FIG. 実施例2でのカメラ画像の表示位置の算出方法を説明するための俯瞰図である。FIG. 10 is an overhead view for explaining a method for calculating a display position of a camera image in the second embodiment. 使用者AとBがともに横にずれたときの実施例2による視線合致の様子を使用者Bの正面側から示す図である。It is a figure which shows the mode of the eyes | visual_axis matching by Example 2 when the user A and B have shifted | deviated from both sides from the user B front side. 使用者AとBがともに横にずれたときの実施例2による視線合致の様子を使用者Bの背面側から示す図である。It is a figure which shows the mode of the eyes | visual_axis matching by Example 2 when the user A and B have shifted | deviated from both sides from the back side of the user B. カメラをディスプレイ装置の表示面に近接して、および離して配置した状態の説明図である。It is explanatory drawing of the state which has arrange | positioned the camera close | similar to and spaced apart from the display surface of a display apparatus. 広角歪の説明図である。It is explanatory drawing of wide angle distortion. 使用者の視線がカメラに向く場合と外れる場合を示す俯瞰図である。It is an overhead view which shows the case where a user's eyes | visual_axis looks at a camera, and the case where it remove | deviates.

本発明を実施するための形態は、以下の実施例1および2に記載される通りである。   The mode for carrying out the invention is as described in Examples 1 and 2 below.

まず、本発明の実施例1であるカメラ付ディスプレイ装置のハードウェア構成例について説明する。図1に示されるように、画像データを相互に通信する画像通信システムに供される表示装置としてのディスプレイ装置101(104)は、表示手段であるところの表示器132と、この表示器132の表示面に対向する利用者を撮影するためのカメラ102(105)を有する。図1はこれらのカメラ102の取得画像の処理、表示器132に対する表示制御処理、あるいはデータ送受信処理を実行するための情報処理機能を備えたディスプレイ装置の具体的ハードウェア構成例についての説明図である。カメラ102(105)は、表示器132を観察する使用者を表示器132の画面方向の奥から撮像する。   First, a hardware configuration example of a camera-equipped display device that is Embodiment 1 of the present invention will be described. As shown in FIG. 1, a display device 101 (104) serving as a display device provided in an image communication system that communicates image data with each other includes a display 132 that is a display means, A camera 102 (105) is provided for photographing a user facing the display surface. FIG. 1 is an explanatory diagram of a specific hardware configuration example of a display apparatus having an information processing function for executing processing of an acquired image of the camera 102, display control processing for the display 132, or data transmission / reception processing. is there. The camera 102 (105) images the user observing the display 132 from the back of the display 132 in the screen direction.

CPU(Central Processing Unit)156は、各種アプリケーションプログラムの実行制御を行う。例えば、利用者の顔検出処理、利用者位置情報に基づく取得画像の切り出し処理、ディストーション補正、表示器132に対する表示制御処理、データ送受信処理制御を実行する制御部として機能するプロセッサである。メモリ157は、CPU156が実行するプログラムや固定データを格納するROM(Read−Only−Memory)、およびCPU156の処理において実行されるプログラムやプログラム処理において適宜変化するパラメータの格納エリア、ワーク領域として使用されるRAM(Random Access Memory)等によって構成される。   A CPU (Central Processing Unit) 156 controls execution of various application programs. For example, the processor functions as a control unit that executes user face detection processing, cut-out processing of an acquired image based on user position information, distortion correction, display control processing for the display device 132, and data transmission / reception processing control. The memory 157 is used as a ROM (Read-Only-Memory) for storing a program executed by the CPU 156 and fixed data, a storage area for a program executed in the processing of the CPU 156 and a parameter that changes as appropriate in the program processing, and a work area. RAM (Random Access Memory) or the like.

HDD158はプログラム格納領域として利用可能であり、また、送受信画像データの格納領域として利用可能なハードディスクを持つ記憶部である。   The HDD 158 can be used as a program storage area, and is a storage unit having a hard disk that can be used as a transmission / reception image data storage area.

コーデック151は、ネットワークを介して送受信する画像データのエンコード(符号化)処理、デコード(復号)処理を実行する。画像データは、情報量が多いため、圧縮し、データ量を削減して送信する。   The codec 151 performs encoding (encoding) processing and decoding (decoding) processing of image data transmitted / received via a network. Since the image data has a large amount of information, it is compressed and transmitted with the data amount reduced.

ネットワークインターフェース152は、インターネット、LAN等の各種通信ネットワークとのインターフェースとして機能する。入力インターフェース153は、マウス137、キーボード136等の入力機器とのインターフェースとして機能する。使用者は例えばキーボード136からのデータ入力により、種々のモード設定を実行する。   The network interface 152 functions as an interface with various communication networks such as the Internet and a LAN. The input interface 153 functions as an interface with input devices such as a mouse 137 and a keyboard 136. The user executes various mode settings by inputting data from the keyboard 136, for example.

AVインターフェース154、ディスプレイインターフェース155は、カメラ102、105、マイク134、スピーカ135等のAVデータ入出力機器からのデータ入出力を行う。PCIバス159を介して制御情報、データが各構成要素間において転送される。これらのデータ転送制御、その他各種プログラム制御はCPU156によって実行される。   The AV interface 154 and the display interface 155 perform data input / output from AV data input / output devices such as the cameras 102 and 105, the microphone 134, and the speaker 135. Control information and data are transferred between the components via the PCI bus 159. These data transfer control and other various program controls are executed by the CPU 156.

次に、テレビ電話や、テレビ会議における本ディスプレイ装置の動作について説明する。特に、ここには、ディスプレイ装置の表示面とカメラが近接していない場合の動作を含む。図2から図4はCPU156による処理を表すフローチャートである。   Next, the operation of the display device in a video phone or video conference will be described. In particular, this includes the operation when the display surface of the display device and the camera are not close to each other. 2 to 4 are flowcharts showing processing by the CPU 156.

全体フローとして図2に示したように、本テレビ電話システムにおいては、まず、ステップS101においてテレビ電話が使用者の操作によって起動したかどうかを調べる。起動していれば、ステップS102に移行して送信処理を行い、続くステップS103で受信処理を行った後、再びステップS101に戻り、テレビ電話が起動中であるかをチェックする。ここで、起動中であれば、送信処理と受信処理を繰り返す。また、起動中でなければ、ステップS101を繰り返して使用者の操作による起動を待機する。なお、以下の説明では画像データに絞って処理の流れを説明するが、画像データに加えて音声データについても公知の手法により送受信し、画像と音によるコミュニケーションを図ることは言うまでもない。   As shown in FIG. 2 as an overall flow, in this videophone system, first, in step S101, it is checked whether or not the videophone is activated by a user's operation. If activated, the process proceeds to step S102 to perform transmission processing, and after performing reception processing in step S103, the process returns to step S101 again to check whether the videophone is activated. Here, if it is activated, the transmission process and the reception process are repeated. If not activated, step S101 is repeated to wait for activation by the user's operation. In the following description, the flow of processing will be described focusing on image data, but it goes without saying that audio data as well as image data is transmitted and received by a known method to communicate with images and sounds.

図3は送信処理の詳細を表すフローチャートである。図13Aおよび図13Bを用いて後述するようにディスプレイ装置101に使用者Bが対向している状態を想定して説明を進める。最初のステップS201では表示器の背後に設置されたカメラ102から画像を取得する。このカメラ画像には、図5(a)に示すように使用者Bが写っている。図5において、160はカメラ画像、161は使用者Bの画像である。   FIG. 3 is a flowchart showing details of the transmission process. As will be described later with reference to FIGS. 13A and 13B, the description will be made assuming that the user B faces the display apparatus 101. In the first step S201, an image is acquired from the camera 102 installed behind the display. In this camera image, user B is shown as shown in FIG. In FIG. 5, 160 is a camera image, and 161 is an image of the user B.

ステップS202では、カメラ画像160のデータを解析して写っている人物の顔の検出を行う。   In step S202, the data of the camera image 160 is analyzed to detect a person's face shown in the image.

ステップS203では、顔が検出されたかどうかを判定し、顔が検出されていれば次のステップS204に移行し、検出されていなければ前回の両目の中央位置座標を保持したままステップS205に移行する。   In step S203, it is determined whether or not a face has been detected. If a face has been detected, the process proceeds to the next step S204. If not, the process proceeds to step S205 while retaining the center position coordinates of the previous eyes. .

ステップS204では、検出した顔の特徴情報を用いて両目の中央位置座標を新たに算出する。   In step S204, the center position coordinates of both eyes are newly calculated using the detected face feature information.

ステップS205では、先のステップS204で算出した両目の中央位置の座標を基にカメラ画像160から一部をトリミングする。図5(a)に示した162はこのトリミング範囲であり、使用者Bの両目の中央位置がトリミング範囲162の中央やや上方になるように設定してある。この位置は相手側のディスプレイ装置104における表示器とカメラとの位置関係と同一になるように決定される。図5(b)はトリミング後の画像の状態を表し、163はカメラ画像、164は使用者Bの画像である。   In step S205, a part of the camera image 160 is trimmed based on the coordinates of the center position of both eyes calculated in the previous step S204. The trimming range 162 shown in FIG. 5A is set so that the center position of both eyes of the user B is slightly above the center of the trimming range 162. This position is determined so as to be the same as the positional relationship between the display device and the camera in the display device 104 on the other side. FIG. 5B shows a state of an image after trimming, where 163 is a camera image and 164 is an image of the user B.

なお、表示器とカメラとの位置関係の情報は、テレビ電話システムを起動する際に相互に通信される。   Information on the positional relationship between the display and the camera is communicated with each other when the videophone system is activated.

続くステップS206では、トリミング範囲162について光学系の歪曲収差や広角歪を除去するために演算上でディストーション補正を施す。   In the subsequent step S206, distortion correction is performed on the trimming range 162 in order to remove distortion and wide-angle distortion of the optical system.

ステップS207では、ネットワークを介した画像データの送信に際して、データ量を削減するために符号化を行う。   In step S207, encoding is performed to reduce the amount of data when transmitting image data via the network.

ステップS208では、トリミングおよびディストーション補正が終了した画像データ(163)をテレビ電話の相手側に送信して送信のサブルーチンを終了する。   In step S208, the image data (163) having undergone trimming and distortion correction is transmitted to the other party of the videophone, and the transmission subroutine is terminated.

図4は受信処理の詳細を表すフローチャートである。図13Aおよび図13Bを用いて後述するように第一のディスプレイ装置101に使用者Bが対向し、さらに、第二のディスプレイ装置104に使用者Aが対向している状態を想定して説明を進める。   FIG. 4 is a flowchart showing details of the reception process. As will be described later with reference to FIGS. 13A and 13B, the description will be made assuming that the user B faces the first display device 101 and further the user A faces the second display device 104. Proceed.

第二のディスプレイ装置104側でも使用者Aの画像がカメラ105により取得されている。図6(a)はカメラ105による画像を示し、165がカメラ画像、166が使用者Aの画像、167がトリミング範囲である。トリミング後の画像は図6(b)に示すように、カメラ画像168の中央に使用者の画像169が位置し、中央やや上方に使用者Aの目が位置するようになっている。   An image of the user A is acquired by the camera 105 also on the second display device 104 side. FIG. 6A shows an image by the camera 105, where 165 is a camera image, 166 is an image of the user A, and 167 is a trimming range. As shown in FIG. 6B, the trimmed image has the user image 169 positioned at the center of the camera image 168 and the user A's eyes positioned slightly above the center.

ステップS301では通信相手側の画像としてこの画像データ(168)を受信する。   In step S301, this image data (168) is received as an image on the communication partner side.

ステップS302では、ステップS301で受信した画像データに対して復号処理を施す。   In step S302, a decoding process is performed on the image data received in step S301.

ステップS303では、図2のステップS102、および図3のステップS201とS202で検出した顔の位置に基づいて、受信したカメラ画像163の表示位置を算出する。このステップS303を実行するCPU156が表示位置算出手段を構成する。   In step S303, the display position of the received camera image 163 is calculated based on the face position detected in step S102 of FIG. 2 and steps S201 and S202 of FIG. The CPU 156 that executes step S303 constitutes a display position calculation unit.

図7は、カメラ画像168の表示位置の算出方法を説明するための図であって、使用者B、表示器、およびカメラの俯瞰図である。カメラ画像168の表示位置は上下方向、および左右方向の両方向について調節することが必要であるが、何れの方向においても算出方法は同一であるので、ここでは表示器の左右方向を例にとって説明を進める。   FIG. 7 is a diagram for explaining a method of calculating the display position of the camera image 168, and is an overhead view of the user B, the display device, and the camera. The display position of the camera image 168 needs to be adjusted in both the vertical direction and the horizontal direction. However, since the calculation method is the same in any direction, the description here will be made taking the horizontal direction of the display as an example. Proceed.

図7において、301はディスプレイ装置101の表示器、311は表示器301の背後に設置されたカメラ、326はカメラ311に具えられた撮影レンズの光軸、304は使用者Bの頭部、328は使用者Bの視線である。カメラ311は光軸326を中心として領域312で示した画角θの範囲を撮像する。また、使用者Bの視線328が、図7に示したようにカメラ311に向かっていれば、カメラ311で捉えた使用者Bの画像は視線328をカメラ311に向けていることになる。   In FIG. 7, 301 is a display device of the display apparatus 101, 311 is a camera installed behind the display device 301, 326 is an optical axis of a photographing lens provided in the camera 311, 304 is a head of the user B, 328 Is the line of sight of user B. The camera 311 images the range of the angle of view θ indicated by the region 312 around the optical axis 326. If the user's B line of sight 328 faces the camera 311 as shown in FIG. 7, the image of the user B captured by the camera 311 points the line of sight 328 toward the camera 311.

このように使用者Bの視線328がカメラ311に向かうようにするためには、表示器301上において330で示す位置に相手側の顔画像が、すなわち使用者Aの顔画像が表示されていれば良い。使用者Bが自然に使用者Aの画像に視線328を合致させることで、使用者Bの視線328がカメラ311に向かうこととなる。使用者Bは必ずしもカメラ311に正対しているわけではないので、使用者Aの顔画像330の最適な位置は、使用者Bの頭部304の位置によって決定されることになる。   In this way, in order for the user B's line of sight 328 to face the camera 311, the face image of the other party, that is, the face image of the user A is displayed at the position indicated by 330 on the display 301. It ’s fine. The user B naturally matches the line of sight 328 with the image of the user A, so that the line of sight 328 of the user B is directed to the camera 311. Since the user B does not necessarily face the camera 311, the optimum position of the user A's face image 330 is determined by the position of the head 304 of the user B.

使用者Aの顔画像330の位置は次のように求めることができる。想定顔距離上の撮影画面寸法をWk、カメラ画像上での画面寸法をWg(図5)、カメラ画像上での顔のシフト量をSg(図5)とすると、顔のシフト量Skは、
Sk=Wk×Sg/Wg ・・・(1)
となる。さらに、想定顔距離をDk、表示面とカメラとの距離をDcとすると、表示画像のシフト量Shは、
Sh=Sk×Dc/(Dk+Dc)=(Wk×Sg/Wg)×Dc/(Dk+Dc) ・・・(2)
と表せる。
The position of the face image 330 of the user A can be obtained as follows. If the shooting screen size on the assumed face distance is Wk, the screen size on the camera image is Wg (FIG. 5), and the face shift amount on the camera image is Sg (FIG. 5), the face shift amount Sk is
Sk = Wk × Sg / Wg (1)
It becomes. Further, assuming that the assumed face distance is Dk and the distance between the display surface and the camera is Dc, the shift amount Sh of the display image is
Sh = Sk × Dc / (Dk + Dc) = (Wk × Sg / Wg) × Dc / (Dk + Dc) (2)
It can be expressed.

なお、Wk/(Dk+Dc)をカメラの画角θで表すと、
Wk/(Dk+Dc)=2×tan(θ/2) ・・・(3)
である。
When Wk / (Dk + Dc) is represented by the angle of view θ of the camera,
Wk / (Dk + Dc) = 2 × tan (θ / 2) (3)
It is.

したがって、表示画像のシフト量Shは、
Sh=2×(Sg/Wg)×Dc×tan(θ/2) ・・・(4)
と表すことができる。
Therefore, the shift amount Sh of the display image is
Sh = 2 × (Sg / Wg) × Dc × tan (θ / 2) (4)
It can be expressed as.

式(4)から分かるように、ディスプレイ装置の設計上の値として設定されるカメラの画角θ、表示面とカメラとの距離Dc、および、図3のステップS204で算出される両目の中央位置の情報としてのカメラ画像上での画面寸法Wgとカメラ画像上での顔のシフト量Sgで、横方向についての使用者Aの顔画像330の最適な位置が決定される。縦方向についても同様の方法で算出し、それらを合成した位置に顔画像330を表示すれば、上下左右方向ともに使用者Bの視線がカメラ311に向かうこととなる。   As can be seen from the equation (4), the angle of view θ of the camera set as a design value of the display device, the distance Dc between the display surface and the camera, and the center position of both eyes calculated in step S204 in FIG. The optimal position of the face image 330 of the user A in the horizontal direction is determined by the screen size Wg on the camera image and the face shift amount Sg on the camera image as the information of the above. If the vertical direction is calculated by the same method and the face image 330 is displayed at a position where they are combined, the user B's line of sight is directed toward the camera 311 in both the vertical and horizontal directions.

なお、頻繁に使用者Aの顔画像330の位置が移動することを避けるために、図4で示したステップS304において、使用する表示位置情報に時間的なヒステリシスを設けたり、移動平均処理を加えることが有効である。   In order to avoid frequent movement of the position of the face image 330 of the user A, temporal hysteresis is added to the display position information to be used or moving average processing is added in step S304 shown in FIG. It is effective.

次に、テレビ電話やテレビ会議における視線合致の様子を詳述する。図8A〜図13Bはこのための説明図である。図8A〜図13BのうちAが付されている図は第一のディスプレイ装置を背面から、第二のディスプレイ装置を正面から見た状態を表し、Bが付されている図は第一のディスプレイ装置を正面から、第二のディスプレイ装置を背面から見た状態を表している。   Next, the state of line-of-sight matching in a videophone or videoconference will be described in detail. 8A to 13B are explanatory diagrams for this purpose. 8A to 13B, A is the first display device viewed from the back and the second display device is viewed from the front, and B is the first display. The state which looked at the apparatus from the front and the 2nd display apparatus from the back is represented.

図8A〜図13Bにおいて、101は第一のディスプレイ装置、102は第一のディスプレイ装置101の表示面に隣接してその背後に位置し、表示面を透過した光に基づいて撮像を行う、第一のディスプレイ装置101の一部であるところの第一のカメラ、103、103’は使用者Bである。104は第二のディスプレイ装置、105は第二のディスプレイ装置104の表示面に隣接してその背後に位置し、表示面を透過した光に基づいて撮像を行う、第二のディスプレイ装置104の一部であるところの第二のカメラ、106、106’、106’’は第二のディスプレイ装置104上に表示された使用者Bの画像、107、107’は使用者A、108、108’、108’’、108’’’は第一のディスプレイ装置101上に表示された使用者Aの画像である。   8A to 13B, 101 is a first display device, 102 is located adjacent to and behind the display surface of the first display device 101, and performs imaging based on light transmitted through the display surface. A first camera 103 and 103 ′ which is a part of one display device 101 is a user B. Reference numeral 104 denotes a second display device. Reference numeral 105 denotes a second display device 104 which is located adjacent to and behind the display surface of the second display device 104 and performs imaging based on light transmitted through the display surface. The second camera 106, 106 ′, 106 ″ is the image of the user B displayed on the second display device 104, and 107, 107 ′ is the user A, 108, 108 ′, Reference numerals 108 ″ and 108 ′ ″ denote images of the user A displayed on the first display device 101.

第一のカメラ102と第二のカメラ105はそれぞれディスプレイ装置101、104の表示面の中央部やや上方に配置されている。これは表示面に通信相手の顔の画像を表示したときに、目近傍の背後にカメラが位置するようにするためである。   The first camera 102 and the second camera 105 are disposed slightly above the center of the display surface of the display devices 101 and 104, respectively. This is so that the camera is positioned behind the eyes when an image of the face of the communication partner is displayed on the display surface.

第一のディスプレイ装置101と第二のディスプレイ装置104はネットワークを介して互いに接続され、第一のカメラ102で取得した画像は第二のディスプレイ装置104上に表示され、第二のカメラ105で取得した画像は第一のディスプレイ装置101上に表示される。   The first display device 101 and the second display device 104 are connected to each other via a network, and an image acquired by the first camera 102 is displayed on the second display device 104 and acquired by the second camera 105. The obtained image is displayed on the first display device 101.

では、最初に、一人の使用者がディスプレイ装置に正対している場合から説明する。図8Aと図8Bは、使用者B103が一人で第一のディスプレイ装置101の表示面を正面から見ている状態を示している。使用者B103は第一のカメラ102に正対するために、第一のカメラ102が取得する画像上において使用者B103は視線110を第一のカメラ102に向けている。この結果、第二のディスプレイ装置104に表示される使用者Bの画像106は図に示す如く正面に視線110を向けたものとなる。   First, the case where one user is directly facing the display device will be described. 8A and 8B show a state in which the user B103 alone is viewing the display surface of the first display device 101 from the front. Since the user B 103 faces the first camera 102, the user B 103 points the line of sight 110 toward the first camera 102 on the image acquired by the first camera 102. As a result, the image 106 of the user B displayed on the second display device 104 has the line of sight 110 facing the front as shown in the figure.

次に一人の使用者がディスプレイ装置の正面から横に逸れてディスプレイ装置の表示面のほぼ中央部を見ている場合を考える。図9Aと図9Bは、使用者B103’が一人で第一のディスプレイ装置101の表示面を斜め前方から見ている状態を示している。図において103’は使用者B、106’は第二のディスプレイ装置104上に表示された使用者Bの画像である。使用者B103’は第一のカメラ102を斜めに見ているために、第一のカメラ102が取得する画像上において使用者B103’は視線111を第一のカメラ102に向けている。この結果、第二のディスプレイ装置104に表示される使用者Bの画像106’は図に示す如く表示面の周辺部にあって正面に視線を向けたものとなる。   Next, consider a case where a single user deviates from the front of the display device and looks at the center of the display surface of the display device. FIG. 9A and FIG. 9B show a state where the user B 103 ′ alone is viewing the display surface of the first display device 101 obliquely from the front. In the figure, 103 ′ is an image of the user B and 106 ′ is an image of the user B displayed on the second display device 104. Since the user B 103 ′ is viewing the first camera 102 at an angle, the user B 103 ′ points the line of sight 111 toward the first camera 102 on the image acquired by the first camera 102. As a result, the image 106 ′ of the user B displayed on the second display device 104 is in the periphery of the display surface and has a line of sight on the front as shown in the figure.

ここでさらに、使用者Bの通信相手となる使用者Aを加えて、テレビ電話によるコミュニケーションを考える。図10Aと図10Bは、使用者Bが第一のディスプレイ装置101の正面から横に逸れて第一のディスプレイ装置101の表示面の中央を見ている状態と、通信相手となる使用者Aが第二のディスプレイ装置104に正対して第二のディスプレイ装置104の表示面の中央を見ている状態を示している。図において、107は使用者A、108は第一のディスプレイ装置101に表示された使用者A107の画像である。   Here, a user A who is a communication partner of the user B is added and communication by videophone is considered. FIG. 10A and FIG. 10B show a state where the user B deviates from the front of the first display device 101 and looks at the center of the display surface of the first display device 101, and the user A who is a communication partner A state is shown in which the center of the display surface of the second display device 104 is viewed facing the second display device 104. In the figure, 107 is an image of the user A 107 and 108 is an image of the user A 107 displayed on the first display device 101.

コミュニケーションをとるために使用者A107は第二のディスプレイ装置104に表示されている使用者B103’の画像106’を見るので、その視線112は矢印のようになる。この結果、第二のカメラ105が捉えた使用者A107の画像上では、使用者A107は視線112を第二のカメラ105の方向に向けていない。つまり、第一のディスプレイ装置101に表示される使用者Aの画像108は視線を正面に向けずに横に逸らしていることになる。使用者Bがこの使用者Aの画像108を見ても自分には視線を向けておらず、臨場感を得ることはできない。一方で、使用者Aが使用者Bの画像106’を見たときには、こちらは正面を見ている画像となっているため、自分に視線が向いていると感じて十分な臨場感を得ることが出来る。   In order to communicate, the user A 107 looks at the image 106 ′ of the user B 103 ′ displayed on the second display device 104, so that the line of sight 112 becomes an arrow. As a result, on the image of the user A 107 captured by the second camera 105, the user A 107 does not point the line of sight 112 toward the second camera 105. That is, the image 108 of the user A displayed on the first display device 101 is deflected sideways without directing the line of sight to the front. Even if the user B looks at the image 108 of the user A, the user B is not looking at him and cannot get a sense of reality. On the other hand, when the user A sees the image 106 ′ of the user B, since this is an image looking at the front, the user can feel that his / her line of sight is facing and obtain a sufficient presence. I can do it.

このような使用者間の視線が互いに一致しない状況は、画像の位置をずらして表示することによって解消することが可能である。図11Aと図11Bはこの説明図であって、図9Aと図9Bに示した状態から画像の表示位置を変えた状態を示している。図において、破線で示した画像106’は表示位置を変更する前の使用者Bの画像、106’’は図7を用いて説明したようにカメラと表示器の間隔を考慮して表示位置を変更した使用者Bの画像である。画像106’’は、使用者B103’の目の位置が第二のカメラ105におよそ重なる位置に表示されている。第一のカメラ102の撮影画角を表示領域よりもあらかじめ広く設定しておき、その画像から使用者Bを中心に置く領域をトリミングすることによって、使用者B103’の目の位置が第二のカメラ105におよそ重なる位置に表示することができる。   Such a situation where the lines of sight between the users do not match each other can be solved by shifting the position of the image and displaying it. 11A and 11B are explanatory diagrams showing a state in which the display position of the image is changed from the state shown in FIGS. 9A and 9B. In the figure, an image 106 ′ indicated by a broken line is an image of the user B before changing the display position, and 106 ″ indicates the display position in consideration of the distance between the camera and the display as described with reference to FIG. It is the image of the user B who changed. The image 106 ″ is displayed at a position where the eye of the user B 103 ′ approximately overlaps the second camera 105. The shooting angle of view of the first camera 102 is set to be wider than the display area in advance, and an area centered on the user B is trimmed from the image, whereby the eye position of the user B 103 ′ is set to the second position. It can be displayed at a position approximately overlapping the camera 105.

このように使用者B103’の目の位置が第二のカメラ105におよそ重なる位置に表示されていれば、図12Aと図12Bに示すように、使用者A107がコミュニケーションをとるために第二のディスプレイ装置104に表示されている使用者B103’の画像106’’を見ると、その視線113は矢印のごとく第二のカメラ105に向かうことになる。先に、図11Aと図11Bを用いて説明したように使用者B103’の画像106’’は正面を見ている画像となっているため、使用者A107は自分に視線が向いていると感じて十分な臨場感を得ることが出来る。   Thus, if the position of the eyes of the user B103 ′ is displayed at a position that substantially overlaps the second camera 105, as shown in FIGS. 12A and 12B, the user A107 can communicate with the second camera 107 to communicate with the second camera 105. When viewing the image 106 ″ of the user B 103 ′ displayed on the display device 104, the line of sight 113 is directed to the second camera 105 as indicated by an arrow. As described above with reference to FIGS. 11A and 11B, the image 106 ″ of the user B 103 ′ is an image looking at the front, so that the user A 107 feels that his / her line of sight is facing himself / herself. Can get a sense of realism.

第二のカメラ105が使用者A107を捉えた画像上では、使用者A107は視線113を第二のカメラ105の方向に向けているために、第一のディスプレイ装置101に表示される使用者A107の画像108’は視線113を正面に向けたものとなる。この結果、使用者Bが使用者Aの画像108’を見ると自分に視線を向けていると感じ、使用者Bも十分な臨場感を得ることができることとなる。   On the image in which the second camera 105 captures the user A 107, the user A 107 directs the line of sight 113 toward the second camera 105, and thus the user A 107 displayed on the first display device 101. The image 108 ′ has the line of sight 113 facing the front. As a result, when the user B looks at the image 108 ′ of the user A, the user B feels that he / she is looking at himself / herself, and the user B can also obtain a sufficient presence.

以上、図11Aと図11B、および図12Aと図12Bを用いて、第二のディスプレイ装置104に表示する画像の位置をずらすことが視線の合致度を高めることを説明した。第一のディスプレイ装置101に表示する画像についても同様に表示位置をずらすことによって、どちら側の使用者がディスプレイ装置の正面から横に逸れても視線の合致状態を常に保つことができるようになる。図13Aと図13Bはこの状態の説明図であって、107’は第二のディスプレイ装置104の正面から横に逸れて第二のディスプレイ装置104の表示面を見ている使用者A、破線で示した108’’は表示位置を変更する前の使用者Aの画像、108’’’は図7を用いて説明したようにカメラと表示器の間隔を考慮して表示位置を変更した後の使用者Aの画像、114は使用者Bの視線、115は使用者Aの視線である。   As described above, it has been described using FIG. 11A and FIG. 11B and FIGS. 12A and 12B that shifting the position of the image displayed on the second display device 104 increases the degree of line-of-sight matching. Similarly, by shifting the display position of the image displayed on the first display device 101, it becomes possible to always maintain the line-of-sight match even if the user on either side deviates from the front of the display device. . FIG. 13A and FIG. 13B are explanatory diagrams of this state, and 107 ′ is a user A who is deviating from the front of the second display device 104 and looking at the display surface of the second display device 104. 108 ″ shown is an image of the user A before changing the display position, and 108 ′ ″ is the image after changing the display position in consideration of the distance between the camera and the display as described with reference to FIG. The image of the user A, 114 is the line of sight of the user B, and 115 is the line of sight of the user A.

まず、使用者Bの画像106’’の目の位置を第二のカメラ105におよそ重なる位置に表示するところから説明を始める。コミュニケーションをとるために使用者Aが第二のディスプレイ装置104に表示されている使用者Bの画像106’’を見ると、その視線115は矢印のごとく第二のカメラ105を向くことになる。したがって、使用者Aの画像108’’は正面を見ている画像となる。   First, the description starts from displaying the position of the eye of the image 106 ″ of the user B at a position approximately overlapping the second camera 105. When the user A views the image 106 ″ of the user B displayed on the second display device 104 for communication, the line of sight 115 faces the second camera 105 as indicated by an arrow. Therefore, the image 108 ″ of the user A is an image looking at the front.

第二のカメラ105の撮影画角を表示領域よりもあらかじめ広く設定しておき、その画像から使用者A107’を中心に置く領域をトリミングすることによって、使用者Aの目の位置を第一のカメラ102におよそ重なる位置に表示することが可能である。この処理を用いて画像108’’’を、使用者Aの目の位置が第二のカメラ102におよそ重なる位置に表示する。   The shooting angle of view of the second camera 105 is set wider than the display area in advance, and an area centered on the user A 107 ′ is trimmed from the image, whereby the position of the eye of the user A is set to the first position. It is possible to display at a position approximately overlapping the camera 102. Using this processing, the image 108 ″ ″ is displayed at a position where the eye position of the user A substantially overlaps the second camera 102.

さらに、コミュニケーションをとるために使用者Bが第一のディスプレイ装置101に表示されている使用者Aの画像108’’’を見ると、その視線114は矢印のようになる。このとき使用者Aの画像108’’’は正面を見ている画像となっているため、使用者Bは自分に視線が向いていると感じて十分な臨場感を得ることが出来る。   Further, when the user B views the image 108 ″ ″ of the user A displayed on the first display device 101 for communication, the line of sight 114 becomes an arrow. At this time, since the image 108 ″ ″ of the user A is an image looking at the front, the user B can feel that his / her line of sight is facing himself and can obtain a sufficient sense of reality.

第一のカメラ102が捉えた使用者Bの画像上では、使用者Bは視線114を第一のカメラ102側に向けているので、第二のディスプレイ装置104に表示される使用者Bの画像106’’もまた視線を正面に向けていることになる。この結果、使用者Aがこの使用者Bの画像106’’を見ると自分に視線を向けていると感じ、第二のディスプレイ装置104の正面から横に逸れて第二のディスプレイ装置104の表示面を見ている使用者Aについても十分な臨場感を得ることができることとなる。したがって、テレビ電話で会話する双方が視線の合致による臨場感を得ることができる。   On the image of the user B captured by the first camera 102, the user B is pointing the line of sight 114 toward the first camera 102, so that the image of the user B displayed on the second display device 104 is displayed. 106 ″ is also looking forward. As a result, when the user A sees the image 106 ″ of the user B, he / she feels that he / she is looking at himself / herself and deviates from the front of the second display device 104 to display the second display device 104. The user A who is looking at the surface can also obtain a sufficient presence. Therefore, both parties having a videophone conversation can get a sense of realism by matching their line of sight.

本発明の実施例2は、相手側の画像を表示器の中央部以外の表示する際にも視線を合致させることができるようにカメラが複数備えられたディスプレイ装置となっている。   The second embodiment of the present invention is a display device provided with a plurality of cameras so that the line of sight can be matched even when the other party's image is displayed in a region other than the central portion of the display.

図14Aと図14Bは、複数のカメラの設置状態を示す説明図である。図において、301は第一のディスプレイ装置、302は第一のディスプレイ装置301に設置された第一のカメラ群、304は第二のディスプレイ装置、305は第二のディスプレイ装置304に設置された第二のカメラ群である。第一のカメラ群302、および第二のカメラ群305はそれぞれ10個のカメラで構成されている。   FIG. 14A and FIG. 14B are explanatory views showing an installation state of a plurality of cameras. In the figure, 301 is a first display device, 302 is a first camera group installed on the first display device 301, 304 is a second display device, and 305 is a second display device 304 installed on the second display device 304. It is the second camera group. Each of the first camera group 302 and the second camera group 305 includes 10 cameras.

テレビ電話の相手側の画像を表示する情報表示ウィンドウが置かれた位置に最も近いカメラを選択し、その画像を相手側に送信する。   The camera closest to the position where the information display window for displaying the image of the other party of the videophone call is selected, and the image is transmitted to the other party.

図15は、カメラ画像の表示位置の算出方法を説明するための図であって、使用者B、表示器、およびカメラを上方から見た説明図である。カメラ画像の表示位置は上下方向、および左右方向の両方向について調節することが必要であるが、何れの方向においても算出方法は同一であるので、ここでは表示器の左右方向を例にとって説明を進める。   FIG. 15 is a diagram for explaining a method for calculating the display position of the camera image, and is an explanatory diagram of the user B, the display device, and the camera as viewed from above. The display position of the camera image needs to be adjusted in both the vertical direction and the horizontal direction. However, since the calculation method is the same in any direction, the description will be given here taking the horizontal direction of the display as an example. .

図15において、401はディスプレイ装置301の表示器、411は表示器301の背後に設置されたカメラ、426はカメラ411に具えられた撮影レンズの光軸、404は使用者Bの頭部、428は使用者Bの視線である。カメラ411は光軸426を中心として領域412で示した画角θの範囲を撮像する。また、使用者Bの視線428が、図15に示したようにカメラ411に向かっていれば、カメラ411で捉えた使用者Bの画像は視線をカメラ411に向けていることになる。   In FIG. 15, 401 is a display unit of the display device 301, 411 is a camera installed behind the display unit 301, 426 is an optical axis of a photographing lens provided in the camera 411, 404 is a head of the user B, 428 Is the line of sight of user B. The camera 411 images the range of the angle of view θ indicated by a region 412 with the optical axis 426 as the center. Further, when the user B's line of sight 428 faces the camera 411 as illustrated in FIG. 15, the image of the user B captured by the camera 411 has the line of sight toward the camera 411.

このように使用者Bの視線428がカメラ411に向かうようにするためには、表示器401上において430で示す位置に相手側の顔が、すなわち使用者Aの顔が表示されていれば良い。   In this way, in order for the user B's line of sight 428 to face the camera 411, it is only necessary that the other party's face, that is, the face of the user A is displayed on the display 401 at the position indicated by 430. .

カメラ305a(図16B)の撮影画角を表示領域よりもあらかじめ広く設定しておき、その画像から使用者A307’を中心に置く領域をトリミングすることによって、使用者A307’の目の位置がカメラ302aにおよそ重なる位置に表示することができる。   By setting the shooting angle of view of the camera 305a (FIG. 16B) wider than the display area in advance and trimming the area centered on the user A307 ′ from the image, the eye position of the user A307 ′ can be changed to the camera. It can be displayed at a position approximately overlapping with 302a.

このような使用者Bの頭部とカメラとの位置関係は、図7に示したカメラが中央にある場合と同じであるので、表示画像のシフト量Shは式(4)で表すことができる。   Since the positional relationship between the user B's head and the camera is the same as that in the case where the camera shown in FIG. 7 is in the center, the shift amount Sh of the display image can be expressed by Expression (4). .

さらに、他方のディスプレイ装置に表示する画像についても同様にカメラの撮影画角を表示領域よりもあらかじめ広く設定しておき、その画像から使用者を中心に置く領域をトリミングすることによって、どちらの使用者がディスプレイ装置の正面から横に逸れてディスプレイ装置の表示面を見ていても視線の合致状態を保つことができるようになる。   In addition, for the image displayed on the other display device, the camera's shooting angle of view is set wider than the display area in advance, and the area centered on the user is trimmed from that image. Even if a person deviates from the front of the display device and looks at the display surface of the display device, the line-of-sight state can be maintained.

図16Aと図16Bは、使用者B303’が第一のディスプレイ装置301の表示面の周辺部を見ている状態を、使用者A307’が第二のディスプレイ装置304の表示面の周辺部を見ている状態を示している。第一のディスプレイ装置301には、情報表示ウィンドウ351、352、353が表示され、第二のディスプレイ装置305には情報表示ウィンドウ354、355が表示されている。このうち、情報表示ウィンドウ351と354にはテレビ電話の相手側の画像が縮小されて表示されている。   16A and 16B show a state where the user B 303 ′ is looking at the periphery of the display surface of the first display device 301, and the user A 307 ′ is looking at the periphery of the display surface of the second display device 304. It shows the state. Information display windows 351, 352, and 353 are displayed on the first display device 301, and information display windows 354 and 355 are displayed on the second display device 305. Among these, the information display windows 351 and 354 are displayed by reducing the image of the other party of the videophone.

情報表示ウィンドウ351が第一のカメラ群302のうちの一つのカメラ302aに重なる位置に表示されているため、視線314で示すように使用者B303’は情報表示ウィンドウ351の中の使用者Aの画像308’’’を見ると同時にカメラ302aの方向を見ており、カメラ302aが取得する画像上では使用者B303’は視線314をカメラ302aに向けている。この結果、第二のディスプレイ装置304に表示される使用者Bの画像306’’は図16Aに示す如く正面に視線314を向けたものとなる。   Since the information display window 351 is displayed at a position overlapping one camera 302 a in the first camera group 302, the user B 303 ′ is the user A of the user A in the information display window 351 as indicated by the line of sight 314. At the same time as viewing the image 308 ′ ″, the user is looking in the direction of the camera 302a. On the image acquired by the camera 302a, the user B303 ′ points the line of sight 314 toward the camera 302a. As a result, the image 306 ″ of the user B displayed on the second display device 304 has the line of sight 314 facing the front as shown in FIG. 16A.

同様に、情報表示ウィンドウ354が第二のカメラ群305のうちの一つのカメラ305aに重なる位置に表示されているため、視線315で示すように使用者A307’は情報表示ウィンドウ354の中の使用者Bの画像306’’を見ると同時にカメラ305aの方向を見ており、カメラ305aが取得する画像上では使用者A307’は視線315をカメラに向けている。この結果、第一のディスプレイ装置301に表示される使用者Aの画像308’’’は図16Bに示す如く正面に視線315を向けたものとなる。   Similarly, since the information display window 354 is displayed at a position overlapping with one camera 305 a in the second camera group 305, the user A 307 ′ uses the information display window 354 in the information display window 354 as indicated by the line of sight 315. At the same time as viewing the image 306 ″ of the person B, the direction of the camera 305a is viewed. On the image acquired by the camera 305a, the user A307 ′ points the line of sight 315 toward the camera. As a result, the image 308 ″ ″ of the user A displayed on the first display device 301 has the line of sight 315 facing the front as shown in FIG. 16B.

実施例1および2では表示器の背後にカメラを配置したが、表示器の周囲にカメラを配置し、ビューインターポレーション技術を用いて、複数のカメラからの映像から、実際のカメラのない視点から見える映像を生成しても良い。この場合には、表示器の画面方向は、使用者から見てカメラが表示面より奥にある配置だけではなく、使用者側に飛び出している配置も可能である。   In the first and second embodiments, the camera is arranged behind the display. However, the camera is arranged around the display, and a viewpoint without an actual camera is obtained from images from a plurality of cameras using view interpolation technology. You may generate a video that can be seen from. In this case, the screen direction of the display device is not limited to an arrangement in which the camera is behind the display surface as viewed from the user, but an arrangement in which the camera protrudes to the user side is also possible.

101 第一のディスプレイ装置
102 第一のカメラ
103、103’ 使用者B
104 第二のディスプレイ装置
105 第二のカメラ
107、107’ 使用者A
156 CPU
Sg 使用者の顔画像のシフト量
Sh 表示位置のシフト量
101 First display device 102 First camera 103, 103 ′ User B
104 Second display device 105 Second camera 107, 107 ′ User A
156 CPU
Sg User face image shift amount Sh Display position shift amount

Claims (5)

画像データを相互に通信する画像通信システムに供されるカメラ付き表示装置であって、
通信相手からの画像を表示する表示手段と、
前記表示手段を観察する使用者を前記表示手段の画面方向から撮像するカメラと、
前記表示手段の表示面における前記通信相手の顔画像の表示位置のシフト量を、前記カメラの取得画像における前記使用者の顔画像の位置に基づいて算出する表示位置算出手段とを有し、
前記表示手段は、前記使用者のカメラ位置と前記使用者の両目の中央位置とを結ぶ直線上に位置するように前記算出されたシフト量ずらして表示することを特徴とするカメラ付き表示装置。
A display device with a camera used in an image communication system for communicating image data with each other,
Display means for displaying an image from a communication partner;
A camera that images the user observing the display means from the screen direction of the display means;
Display position calculation means for calculating the shift amount of the display position of the face image of the communication partner on the display surface of the display means based on the position of the face image of the user in the acquired image of the camera;
The display device with a camera , wherein the display means displays the image by shifting the calculated shift amount so as to be positioned on a straight line connecting the camera position of the user and the center position of both eyes of the user .
前記通信相手の顔画像の表示位置のシフト量Shは、前記使用者のカメラの光軸から前記使用者の顔画像の両目の中央位置までの前記使用者のカメラの光軸と直交する方向の距離Sk、前記使用者の顔から前記使用者の表示手段の表示面までの前記使用者のカメラの光軸方向の距離Dk、前記使用者のカメラから前記使用者の表示手段の表示面までの前記使用者のカメラの光軸方向の距離Dcに基いて算出させる請求項1に記載のカメラ付き表示装置。 The shift amount Sh of the display position of the communication partner of the face image is, the direction of which is perpendicular to the optical axis of the user of the camera from the optical axis of the user of the camera to the center position of the eyes of the face image of the user distance Sk, said from the face of the user of the user of the camera to the display surface of the display means of the user the direction of the optical axis of the distance Dk, from the user of the camera to the display surface of the display means of the user The display device with a camera according to claim 1, wherein the display device is calculated based on a distance Dc in an optical axis direction of the user 's camera. 前記使用者の顔画像の位置は、前記カメラの取得画像の中央にずらしたときのシフト量で表すことを特徴とする請求項1または2に記載のカメラ付き表示装置。   The display device with a camera according to claim 1, wherein the position of the user's face image is represented by a shift amount when the face image is shifted to the center of the acquired image of the camera. 前記使用者の顔画像をトリミングにより画像の中央にずらした状態のカメラ画像を送信する送信手段を有することを特徴とする請求項1ないし3のいずれか1項に記載のカメラ付き表示装置。   4. The display device with a camera according to claim 1, further comprising: a transmission unit configured to transmit a camera image in a state where the face image of the user is shifted to the center of the image by trimming. 5. 前記カメラは複数備えられ、
前記表示位置算出手段は、前記表示手段の表示面における前記通信相手の顔画像の表示位置のシフト量を、前記カメラのうちの選択されたカメラの取得画像における前記使用者の顔画像の位置に基づいて算出することを特徴とする請求項1ないし4のいずれか1項に記載のカメラ付き表示装置。
A plurality of the cameras are provided,
The display position calculating means shifts the shift amount of the display position of the face image of the communication partner on the display surface of the display means to the position of the face image of the user in the acquired image of the selected camera among the cameras. The camera-equipped display device according to claim 1, wherein the display device is calculated based on the calculation result.
JP2012188695A 2012-08-29 2012-08-29 Display device with camera Expired - Fee Related JP6157077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012188695A JP6157077B2 (en) 2012-08-29 2012-08-29 Display device with camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012188695A JP6157077B2 (en) 2012-08-29 2012-08-29 Display device with camera

Publications (2)

Publication Number Publication Date
JP2014049797A JP2014049797A (en) 2014-03-17
JP6157077B2 true JP6157077B2 (en) 2017-07-05

Family

ID=50609088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012188695A Expired - Fee Related JP6157077B2 (en) 2012-08-29 2012-08-29 Display device with camera

Country Status (1)

Country Link
JP (1) JP6157077B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6392061B2 (en) 2014-10-01 2018-09-19 東京エレクトロン株式会社 Electronic device, manufacturing method thereof, and manufacturing apparatus thereof
JP6608208B2 (en) * 2015-07-24 2019-11-20 国立大学法人静岡大学 Image display device
US9794516B1 (en) * 2016-11-16 2017-10-17 Raja Singh Tuli Telepresence system
CN114979454B (en) * 2021-02-24 2024-02-20 广州视创显示科技有限公司 Method, device, equipment and storage medium for adjusting display image of all-in-one machine
CN113395479B (en) * 2021-06-16 2022-06-24 随锐科技集团股份有限公司 Video conference picture processing method and system
WO2024089889A1 (en) * 2022-10-28 2024-05-02 三菱電機株式会社 Remote communication system and remote communication method
JP7519486B1 (en) 2023-02-28 2024-07-19 レノボ・シンガポール・プライベート・リミテッド Information processing device and presentation support method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141317A (en) * 1992-10-28 1994-05-20 Nippon Telegr & Teleph Corp <Ntt> Video conference system
JPH06303601A (en) * 1993-04-13 1994-10-28 Seiko Epson Corp Picture communication equipment
JPH11266443A (en) * 1998-03-17 1999-09-28 Toshiba Corp Picture and sound transmission-reception equipment
JP4539015B2 (en) * 2002-12-11 2010-09-08 ソニー株式会社 Image communication apparatus, image communication method, and computer program
JP2006100980A (en) * 2004-09-28 2006-04-13 Nec Access Technica Ltd Portable telephone terminal with tv telephone function and on/off-control method of its video image and voice
JP2007208819A (en) * 2006-02-03 2007-08-16 Funai Electric Co Ltd Imaging and display device
JP2008294815A (en) * 2007-05-25 2008-12-04 Oki Electric Ind Co Ltd Information terminal

Also Published As

Publication number Publication date
JP2014049797A (en) 2014-03-17

Similar Documents

Publication Publication Date Title
JP6157077B2 (en) Display device with camera
US8994780B2 (en) Video conferencing enhanced with 3-D perspective control
CN109952759B (en) Improved method and system for video conferencing with HMD
US11455032B2 (en) Immersive displays
CN105247881B (en) Information processing apparatus, display control method, and program
US11218669B1 (en) System and method for extracting and transplanting live video avatar images
WO2003098942A1 (en) Information processing apparatus, information processing system, and dialogist displaying method
JP2003506927A (en) Method and apparatus for allowing video conferencing participants to appear in front of an opponent user with focus on the camera
JP6946684B2 (en) Electronic information board systems, image processing equipment, and programs
CN108702482A (en) Information processing equipment, information processing system, information processing method and program
EP2953351A1 (en) Method and apparatus for eye-line augmentation during a video conference
EP4075794A1 (en) Region of interest based adjustment of camera parameters in a teleconferencing environment
JP2011097447A (en) Communication system
JP2011242458A (en) Display device and display method
JP2012213013A (en) Tv conference system
EP3599763B1 (en) Method and apparatus for controlling image display
JP2005142765A (en) Apparatus and method for imaging
CN117158000A (en) Discrete binaural spatialization of sound sources on two audio channels
CN113632458A (en) System, algorithm and design for wide angle camera perspective experience
KR20150113795A (en) Apparatus and Method for Controlling Eye-contact Function
JP4586447B2 (en) Image processing apparatus and method, and program
US11979545B2 (en) Information processing apparatus and information processing method
JP5485102B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
US12015758B1 (en) Holographic video sessions
US20240295919A1 (en) Method and system for hosting a metaverse virtual conference

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R151 Written notification of patent or utility model registration

Ref document number: 6157077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees