JP5478357B2 - Display device and display method - Google Patents

Display device and display method Download PDF

Info

Publication number
JP5478357B2
JP5478357B2 JP2010112303A JP2010112303A JP5478357B2 JP 5478357 B2 JP5478357 B2 JP 5478357B2 JP 2010112303 A JP2010112303 A JP 2010112303A JP 2010112303 A JP2010112303 A JP 2010112303A JP 5478357 B2 JP5478357 B2 JP 5478357B2
Authority
JP
Japan
Prior art keywords
display
face
image
dimensional
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010112303A
Other languages
Japanese (ja)
Other versions
JP2011242458A (en
Inventor
和之 磯
英明 高田
宗和 伊達
康子 安藤
宣彦 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010112303A priority Critical patent/JP5478357B2/en
Publication of JP2011242458A publication Critical patent/JP2011242458A/en
Application granted granted Critical
Publication of JP5478357B2 publication Critical patent/JP5478357B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えば、表示対象を立体的に表示する表示装置および表示方法に関するものである。   The present invention relates to, for example, a display device and a display method for displaying a display target in three dimensions.

例えば、遠隔地にいるユーザをカメラで撮影した画像を受信して、現在地のディスプレイに表示することによって、ディスプレイに映る遠隔地のユーザを見ながら会議をすることができるテレビ会議のシステムがある(例えば、文献1参照)。
このシステムでは、互いに相手側のカメラで撮影された相手側の画像を自分側のディスプレイに表示することによって、相手側のユーザのしぐさや表情等を認識しながら会話をすることができ、現実に会っている状態に近い環境で会議をすることができる。
For example, there is a video conference system in which an image obtained by photographing a user in a remote location with a camera is received and displayed on a display at the current location, so that a conference can be held while viewing the remote user on the display (see FIG. For example, see Document 1.)
In this system, the other party's images taken with the other party's camera can be displayed on their own display so that the user can talk while recognizing the gesture and facial expression of the other party's user. You can have a meeting in an environment close to that you are meeting.

特開平9−107534号公報Japanese Patent Laid-Open No. 9-107534 特許3587106号公報Japanese Patent No. 3587106

Jouppi,N.:First Steps Towards Mutually-Immersive Mobile Telepresence. in Proc. CSCW2002,pp.354−363.Jouppi, N .; : First Steps Towers Mutually-Immersive Mobile Telepresence. in Proc. CSCW2002, pp. 354-363.

しかしながら、このディスプレイが2次元の画像を表示するディスプレイであって、相手側のユーザがカメラ目線で話している状態を撮影し、この画像を自分側のディスプレイに表示している場合、自分側のディスプレイに映し出される相手側のユーザが、自分側にいる全てのユーザを見ているように感じられるという問題がある。   However, if this display is a display that displays a two-dimensional image and the other user is talking from the camera's point of view and this image is displayed on the local display, There is a problem that it seems that the other party's user shown on the display looks at all the users on the other side.

例えば、遠隔地側にいるユーザLと、現在地側にいるユーザMとユーザNが、テレビ会議のシステムを利用して会議をしている場合を例に説明する。この相手側のユーザLがカメラに向かって話しをしている場合、ユーザLはカメラ目線となり、現在地側のディスプレイに表示されるユーザLが、ユーザMを見ているのかあるいはユーザNを見ているのかわからない映像が表示される。このため、ディスプレイを見ているユーザM、Nは、どちらもユーザLに見られているように誤解してしまう場合がある。   For example, a case where a user L at a remote location side, a user M and a user N at a current location side have a conference using a video conference system will be described as an example. When the other user L is talking to the camera, the user L is looking at the camera, and the user L displayed on the current location display is looking at the user M or looking at the user N. An image that you do not know is displayed. For this reason, the users M and N who are viewing the display may misunderstand that both are viewed by the user L.

一方、この相手側のユーザLがカメラとは違う方向に向かって話しをしている場合、ユーザLはカメラ目線とはならないため、現在地側のディスプレイに表示されるユーザLは、ユーザMおよびユーザNの両方とも違う方向を向いて話しているように表示される。よって、ディスプレイを見ているユーザM、Nは、どちらもユーザLに見られていないように感じてしまう。   On the other hand, when the user L on the other side is talking in a direction different from the camera, the user L is not looking at the camera, so the user L displayed on the display at the current location is the user M and the user L Both N are displayed as if they are talking in different directions. Therefore, the users M and N looking at the display feel that neither of them is seen by the user L.

このように、一般的な2次元の画像を表示するディスプレイでは、映し出される相手側のユーザの見え方が同一であるため、相手方のユーザが誰に向かって話しているのかを現在地側のユーザが正しく理解することができない問題があった。   In this way, in the display that displays a general two-dimensional image, the appearance of the other user on the other side is the same, so the user on the current location side can tell who the other user is talking to. There was a problem that could not be understood correctly.

上述の課題を鑑み、本発明は、ディスプレイを見るユーザの位置に応じて表示対象の見え方を変更することができる表示装置および表示方法を提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide a display device and a display method capable of changing the appearance of a display target in accordance with the position of a user viewing the display.

上述の課題を鑑み、本発明に係る表示装置は、表示対象を撮影するカメラに対する前記表示対象の顔の向きを示す方位情報と、前記カメラが表示対象を撮影して得られる3次元顔モデルデータとを入力する入力部と、対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部と、前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換し、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成し、観測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくずれ量で前記第1表示画像前記第2表示画像とを相対的にずらす補正して、前記第1表示素子および前記第2表示素子に表示させる表示制御部と、を備える In view of the above-described problems, the display device according to the present invention includes azimuth information indicating the orientation of the face of the display target with respect to the camera that captures the display target, and three-dimensional face model data obtained by the camera shooting the display target. an input unit for inputting bets, comprises a first display element and the second display device is disposed to face a display unit for stereoscopically displaying the display object, the 3-dimensional face model on the basis of the orientation information Data is converted into a three-dimensional face model of the front face when the display object is viewed from the front direction, and the first display image and the second display displayed by the first display element from the three-dimensional face model of the front face. generating a second display image element is displayed, observation person and the first display image shift amount based on the orientation information as seen from a position between the frontal faces of the person that is the display object are the relative and said second display image And a correction of shifting, and a display control unit for displaying on the first display element and the second display element.

また、上述の表示装置は、記表示制御部が、前記正面顔の3次元顔モデルに対して、前記方位情報が示す前記表示対象の顔の奥行きに比例した輝度の分配を行うことにより、前記第1表示画像と前記第2表示画像を生成する。 Further, the above-described display device, the front Symbol display control unit, for the three-dimensional face model of the frontal face, by performing distribution of brightness proportional to the depth of the face of the display object where the orientation information indicates, that generates the second display image and the first display image.

また、上述の表示装置は、前記表示対象を撮影して画像データを出力するカメラと、前記表示対象と前記カメラとの距離を測定して距離情報を出力する距離センサと、前記画像データに基づき前記3次元顔モデルデータを生成する3次元顔モデル生成部と、前記距離情報に基づき前記方位情報を生成する方位情報生成部と、をさらに備える Further, the display device described above is based on the camera that captures the display target and outputs image data, the distance sensor that measures the distance between the display target and the camera and outputs distance information, and the image data . further comprising a three-dimensional face model generator for generating the 3-dimensional face model data, and orientation information generation unit that generates the azimuth information on the basis of said distance information.

上述の課題を鑑み、本発明に係る表示方法は、第1地点に置かれた第1表示装置のカメラによって撮影された表示対象を示す情報に基づき前記第1地点とは異なる第2地点に置かれた第2表示装置に前記表示対象を立体的に表示する表示方法において、前記第1表示装置が、前記カメラによって前記表示対象を撮影して当該表示対象である人物の顔を表わす画像データを得るステップと、前記表示対象と前記カメラとの距離を測定して距離情報を得るステップと、前記画像データに基づき3次元顔モデルデータを生成するステップと、前記距離情報に基づき、前記表示対象を撮影するカメラに対する前記表示対象の顔の向きを示す方位情報を生成するステップと、前記3次元顔モデルデータと前記方位情報を前記第2表示装置に送信するステップと、前記第2表示装置が、前記3次元顔モデルデータと前記方位情報を受信するステップと、前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換するステップと、対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部が表示する表示画像として、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成するステップと、観測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくズレ量で前記第1表示画像前記第2表示画像とを相対的にずらす補正して、前記第1表示素子および前記第2表示素子に表示させるステップと、を備える In view of the above-described problems, the display method according to the present invention is placed at a second point different from the first point based on information indicating a display target photographed by the camera of the first display device placed at the first point. In the display method for stereoscopically displaying the display object on the second display device, the first display device captures image data representing the face of the person who is the display object by photographing the display object with the camera. Obtaining a distance information by measuring a distance between the display object and the camera , generating three-dimensional face model data based on the image data , and obtaining the display object based on the distance information. that will be sending and generating orientation information indicating the orientation of the face of the display object relative to the camera for photographing, the three-dimensional face model data and the azimuth information to the second display device And-up, when the second display device, viewed and receiving said azimuth information and the 3-dimensional face model data, the display target the 3-dimensional face model data on the basis of the orientation information from the front A display image displayed by a display unit that includes a step of converting into a three-dimensional face model of the front face and a first display element and a second display element that are arranged to face each other and that displays the display target in a three-dimensional manner a step of generating a second display image in which the first display image and the second display device the first display element from the 3-dimensional face model of the front face is displayed is displayed, viewed from a position where there are observation's The first display element is corrected by relatively shifting the first display image and the second display image by a shift amount based on the orientation information so as to be a face in front of the person who is the display target. And the second display element And a step of displaying on.

本発明によれば、ディスプレイを見るユーザの位置に応じて表示対象の見え方を変更することができる。   ADVANTAGE OF THE INVENTION According to this invention, the appearance of a display target can be changed according to the position of the user who views a display.

本発明の実施形態にかかる表示システムの一例を示す図である。It is a figure which shows an example of the display system concerning embodiment of this invention. 本発明の実施形態にかかる3次元表示装置の一例について示す概略図である。It is the schematic shown about an example of the three-dimensional display apparatus concerning embodiment of this invention. 本発明の実施形態にかかる3次元表示装置と表示対象との位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the three-dimensional display apparatus concerning embodiment of this invention, and a display target. 本発明の実施形態にかかる立体表示物の表示方法について説明するための図である。It is a figure for demonstrating the display method of the three-dimensional display thing concerning embodiment of this invention. 本発明の実施形態にかかる立体表示物の表示方法について説明するための他の図である。It is another figure for demonstrating the display method of the three-dimensional display thing concerning embodiment of this invention. 本発明の実施形態にかかる表示システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the display system concerning embodiment of this invention. 本発明の実施形態にかかる3次元表示装置の表示方法の一例について説明するための図である。It is a figure for demonstrating an example of the display method of the three-dimensional display apparatus concerning embodiment of this invention. 本発明の実施形態にかかる3次元表示装置と表示対象および観測者の関係を説明するための図である。It is a figure for demonstrating the relationship between the three-dimensional display apparatus concerning embodiment of this invention, a display target, and an observer. 本発明の実施形態にかかる表示方法の一例を示すためのフローチャートである。It is a flowchart for showing an example of the display method concerning embodiment of this invention.

以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本発明の第1実施形態に係る遠隔表示システムの概要を説明するための図である。
図1に示すように、本発明の第1実施形態に係る遠隔表示システムは、ネットワークNWを介して接続される3次元表示装置100と2次元表示装置200とを含む。
この3次元表示装置100は、例えば、第1地点に存在する会議室等に置かれており、ユーザA,Bを撮影した映像をネットワークNWを介して2次元表示装置200に送信する。
また、2次元表示装置200は、第1地点と異なる第2地点に存在する会議室等に置かれており、ユーザCを撮影した映像をネットワークNWを介して3次元表示装置100に送信する。
3次元表示装置100は、受信した映像を、立体的に表示する。一方、2次元表示装置200は、受信した映像を、平面的に表示する。
ここでは、第1地点を現在地、第2地点を遠隔地として、第2地点にいるユーザCを撮影した映像を第1地点の3次元表示装置100に立体的に表示する例を用いて、以下説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining an overview of a remote display system according to the first embodiment of the present invention.
As shown in FIG. 1, the remote display system according to the first embodiment of the present invention includes a 3D display device 100 and a 2D display device 200 connected via a network NW.
The 3D display device 100 is placed, for example, in a conference room or the like that exists at a first location, and transmits video images of the users A and B to the 2D display device 200 via the network NW.
In addition, the 2D display device 200 is placed in a conference room or the like that exists at a second point different from the first point, and transmits a video image of the user C to the 3D display device 100 via the network NW.
The three-dimensional display device 100 displays the received video in a three-dimensional manner. On the other hand, the two-dimensional display device 200 displays the received video in a planar manner.
Here, using the example in which the first point is the current location and the second point is a remote location, and the image of the user C at the second point is stereoscopically displayed on the three-dimensional display device 100 at the first point, explain.

次に、図2を参照して、3次元表示装置100の一例について説明する。
3次元表示装置100は、図2に示す通り、二層積層表示ディスプレイ11と、カメラ12と、マイク13と、スピーカー14を備える。二層積層表示ディスプレイ11は、前面表示素子16と、後面表示素子17と、バックライト18を含む。
この二層積層表示ディスプレイ11は、例えば、DFD(Depth−Fused 3−D)錯視現象を利用して映像を立体的に表示するディスプレイである。この3次元表示装置100は、2次元表示装置200に搭載されているカメラが撮影した画像を示す情報を受信し、当該情報に基づき、前面表示素子16と後面表示素子17の輝度の割合を調整して、立体表示物を表示する。
なお、DFD錯視現象を利用した表示の仕組みについては後述する。
Next, an example of the three-dimensional display device 100 will be described with reference to FIG.
As shown in FIG. 2, the three-dimensional display device 100 includes a two-layer stacked display 11, a camera 12, a microphone 13, and a speaker 14. The two-layer stacked display 11 includes a front display element 16, a rear display element 17, and a backlight 18.
The two-layer stacked display 11 is a display that displays an image three-dimensionally using, for example, a DFD (Depth-Fused 3-D) illusion. The three-dimensional display device 100 receives information indicating an image taken by a camera mounted on the two-dimensional display device 200, and adjusts the luminance ratio of the front display element 16 and the rear display element 17 based on the information. Then, a three-dimensional display object is displayed.
The display mechanism using the DFD illusion phenomenon will be described later.

次に、図3を参照して、2次元表示装置200の一例について説明する。
図3(A)に示す通り、2次元表示装置200は、2次元画像表示ディスプレイ21と、カメラ22と、距離センサ23と、コールドミラー24を備える。
2次元画像表示ディスプレイ21は、一般的に使用されている平面画像を表示する装置であって、例えば、液晶表示装置等が利用可能である。
カメラ22は、例えば、2次元画像表示ディスプレイ21を見るユーザの顔を概ね正面から撮影できる位置に取り付けられている。
距離センサ23は、例えば測定エリア内に存在する測定対象との距離を測定する距離画像センサ等であって、カメラ22の上部であって、2次元画像表示ディスプレイ21の表示画面から測定対象であるユーザの顔までの距離を測定できる位置に取り付けられている。なお、距離センサ23の前面には、2次元画像表示ディスプレイ21の表示画面の面方向と45度で交わる角度でコールドミラー24が取り付けられている。この距離画像センサは、例えば、TOF( Time−of−Flight )法を利用した距離測定を行うものである。具体的にいうと、赤外線などの光源を使って、光源から光に基づく対象物からの反射光を計測し、センサに届くまでの光の飛行時間(遅れ時間)と光の速度(3×108m/s)から、測定対象物までの距離を得て、実空間上におけるセンサと測定対象物との距離を画像として取得するものである。
この距離センサ23は、撮影対象であるユーザの顔の凹凸に応じて、各部分に対応する距離を計測することができる。例えば、距離センサ23は、ユーザの鼻との距離、ユーザの目との距離、ユーザの口との距離等を計測することができる。なお、カメラ22と距離センサ23との相対的な位置関係に応じて、距離センサ23が検出する対象物との距離は、カメラ22が撮影する画面内における画像領域と予め対応付けられている。よって、距離センサ23が測定する距離情報は、2次元画像表示ディスプレイ21の表示画面に対するユーザの顔の向きを示すことができる。
Next, an example of the two-dimensional display device 200 will be described with reference to FIG.
As shown in FIG. 3A, the two-dimensional display device 200 includes a two-dimensional image display 21, a camera 22, a distance sensor 23, and a cold mirror 24.
The two-dimensional image display 21 is a device that displays a commonly used planar image, and for example, a liquid crystal display device can be used.
For example, the camera 22 is attached at a position where the face of the user who views the two-dimensional image display 21 can be photographed from the front.
The distance sensor 23 is, for example, a distance image sensor that measures a distance from a measurement target existing in the measurement area, and is an upper part of the camera 22 and is a measurement target from the display screen of the two-dimensional image display display 21. It is attached at a position where the distance to the user's face can be measured. A cold mirror 24 is attached to the front surface of the distance sensor 23 at an angle that intersects the surface direction of the display screen of the two-dimensional image display 21 at 45 degrees. This distance image sensor performs distance measurement using, for example, the TOF (Time-of-Flight) method. Specifically, using a light source such as infrared rays, the reflected light from the object based on the light from the light source is measured, and the flight time (delay time) of light and the speed of light (3 × 108 m) until reaching the sensor. / S), the distance to the measurement object is obtained, and the distance between the sensor and the measurement object in real space is acquired as an image.
This distance sensor 23 can measure the distance corresponding to each part according to the unevenness of the face of the user who is the subject of photographing. For example, the distance sensor 23 can measure the distance to the user's nose, the distance to the user's eyes, the distance to the user's mouth, and the like. In addition, according to the relative positional relationship between the camera 22 and the distance sensor 23, the distance from the object detected by the distance sensor 23 is associated in advance with an image area in the screen captured by the camera 22. Therefore, the distance information measured by the distance sensor 23 can indicate the orientation of the user's face with respect to the display screen of the two-dimensional image display display 21.

このユーザの顔の向きについて、図3(A)に示す2次元画像表示ディスプレイ21を、上面から見た状態を、図3(B)に示す。
図3(B)に示す通り、ユーザは、2次元画像表示ディスプレイ21において水平方向(X)に対して真ん中を正面から見ている。この場合、ユーザの顔の向きを示す方位角(傾き角)は0度である。なお、この例に限られず、2次元画像表示ディスプレイ21の表示画面の面方向に対して顔の正面が対向している状態を、顔の傾き角が0度の状態であるとする。これは、人間の鼻は、顔の中央に位置し、両目とも概ね等距離に位置している。このため、人間の鼻の位置に対して、両目との距離が同一と判断できる範囲内である場合、顔の傾き角が0度の状態である。
FIG. 3B shows a state in which the two-dimensional image display 21 shown in FIG. 3A is viewed from the top with respect to the orientation of the user's face.
As shown in FIG. 3B, the user is looking at the center from the front in the horizontal direction (X) on the two-dimensional image display 21. In this case, the azimuth (inclination angle) indicating the orientation of the user's face is 0 degrees. Note that the present invention is not limited to this example, and the state in which the front of the face is opposed to the surface direction of the display screen of the two-dimensional image display 21 is a state in which the face inclination angle is 0 degree. This is because the human nose is located at the center of the face and the eyes are approximately equidistant. For this reason, when the distance to both eyes is within the range where it can be determined that the distance to both eyes is equal to the position of the human nose, the face inclination angle is 0 degree.

一方、図3(C)に示す通り、ユーザは、2次元画像表示ディスプレイ21の表示画面の面方向に対して、ユーザの右方向に顔を向けている。ここで、ユーザの顔の向きは、方位角αだけユーザの右方向に回転しているため、ユーザの顔の傾き角は+αである。このように、顔の向きがカメラ22に対して正面を向いておらず方位角αだけ右側を向いている場合、ユーザの顔の各部分間での距離が変化する。つまり、ユーザの鼻の位置に対して両目の距離が同一でなく、右目と鼻の距離が、左目と鼻の距離に比べて長くなり、距離センサ23の測定対象であるユーザの顔から検出される距離が、鼻を中心にして非対称となる。この非対称となる割合に応じて、顔の傾き角を算出することができる。
また、ユーザの顔の向きが、方位角αだけユーザの左方向に回転している場合、ユーザの顔の傾き角は−αである。この場合も、距離センサ15の測定対象であるユーザの顔から検出される距離が非対称となる割合に応じて、顔の傾き角を算出することができる。
なお、上述の通り、距離センサ23が計測する距離情報に基づく顔の傾き角を算出する処理は、以下に説明する顔傾き情報生成部によって実行される処理である。
On the other hand, as shown in FIG. 3C, the user faces his / her right direction with respect to the surface direction of the display screen of the two-dimensional image display 21. Here, since the orientation of the user's face is rotated to the right of the user by the azimuth angle α, the inclination angle of the user's face is + α. In this way, when the face is not facing the front with respect to the camera 22 and is directed to the right by the azimuth angle α, the distance between the parts of the user's face changes. That is, the distance between both eyes is not the same as the position of the user's nose, and the distance between the right eye and the nose is longer than the distance between the left eye and the nose, and is detected from the user's face that is the measurement target of the distance sensor 23. Distance becomes asymmetric about the nose. The tilt angle of the face can be calculated according to the ratio of the asymmetry.
Further, when the orientation of the user's face is rotated leftward by the azimuth angle α, the tilt angle of the user's face is −α. Also in this case, the tilt angle of the face can be calculated according to the ratio at which the distance detected from the face of the user that is the measurement target of the distance sensor 15 is asymmetric.
As described above, the process of calculating the face inclination angle based on the distance information measured by the distance sensor 23 is a process executed by the face inclination information generation unit described below.

次に、図4、5を参照して、このDFD錯視現象を利用した表示の仕組みについて説明する。
図4は、二層積層表示ディスプレイ11の一例の概略構成を示す概略図である。図4に示す通り、前面表示素子16および後面表示素子17は、例えば透過型の液晶パネルであって、それぞれ複数の画素を有する。この二層積層表示ディスプレイ11は、2枚(前面表示素子16と後面表示素子17)の透過型表示素子を平行に積層した透過型パネルに対して、バックライト18の光を後面表示素子17の後ろから透過させる。なお、ユーザは前面表示素子16の方から二層積層表示ディスプレイ11を見ることにより、表示される映像を立体的に見ることができる。
この前面表示素子16と後面表示素子17は、例えば、透過型の液晶ディスプレイで構成することができるが、透過型であれば表示素子(有機EL(Electro−Luminescence)、無機EL、液晶表示素子)であれば、どのようなものであってもよく、その利用可能である。
Next, a display mechanism using the DFD illusion phenomenon will be described with reference to FIGS.
FIG. 4 is a schematic diagram illustrating a schematic configuration of an example of the two-layer stacked display display 11. As shown in FIG. 4, the front display element 16 and the rear display element 17 are, for example, transmissive liquid crystal panels, each having a plurality of pixels. The two-layer stacked display 11 is configured to transmit light from the backlight 18 to the transmissive panel in which two transmissive display elements (front display element 16 and rear display element 17) are stacked in parallel. Permeate from behind. Note that the user can view the displayed image in three dimensions by viewing the two-layer stacked display 11 from the front display element 16.
The front display element 16 and the rear display element 17 can be constituted by, for example, a transmissive liquid crystal display. If the transmissive type is used, a display element (organic EL (Electro-Luminescence), inorganic EL, liquid crystal display element) is used. As long as it is anything, it can be used.

図5は、二層積層表示ディスプレイ11に表示される立体表示物(3次元立体像)を説明するための図である。図5に示す通り、前面表示素子16の透過型前面表示面16Aと、後面表示素子17の透過型後面表示面17Aは、面間隔Lをあけて平行に配置されている。この前面表示素子16の透過型前面表示面16Aが表示する画像を前面表示画像16Bと、後面表示素子17の透過型後面表示面17Aが表示する画像を後面表示画像17Bという。
この前面表示画像16Bと後面表示画像17Bが、それぞれ前面表示素子16と後面表示素子17に表示されると、前面表示画像16Bと後面表示画像17Bの間に立体表示物(即ち、観察者によって知覚される立体表示物)Oが形成される。なお、観察視点(通常、観察者の両眼の中央の点)Pは、図示の通りとする。
FIG. 5 is a diagram for explaining a stereoscopic display object (three-dimensional stereoscopic image) displayed on the two-layer laminated display 11. As shown in FIG. 5, the transmissive front display surface 16 </ b> A of the front display element 16 and the transmissive rear display surface 17 </ b> A of the rear display element 17 are arranged in parallel with a surface interval L therebetween. An image displayed on the transmissive front display surface 16A of the front display element 16 is referred to as a front display image 16B, and an image displayed on the transmissive rear display surface 17A of the rear display element 17 is referred to as a rear display image 17B.
When the front display image 16B and the rear display image 17B are displayed on the front display element 16 and the rear display element 17, respectively, a three-dimensional display object (that is, perceived by an observer) between the front display image 16B and the rear display image 17B. 3D display object) O is formed. Note that the observation viewpoint (usually, the center point between the eyes of the observer) P is as illustrated.

この透過型前面表示面16Aおよび透過型後面表示面17Aに対して、立体表示物Oを観察視点Pの方向から射影した2次元像を、それぞれ前面表示画像16Bの絵柄および後面表示画像17Bの絵柄としている。また、それぞれの2次元の輝度は、立体表示物Oの表示位置(奥行き位置:Z)に応じて輝度分配される。なお、前面及び後面の表示面が、透過型表示面の場合には、立体表示物Oの表示位置(奥行き位置:Z)に応じた輝度分配とは、立体表示物Oの表示位置(奥行き位置:Z)に応じて透過度を分配し、観察者から見た輝度を変化させることを意味する。   A two-dimensional image obtained by projecting the three-dimensional display object O from the direction of the observation viewpoint P onto the transmissive front display surface 16A and the transmissive rear display surface 17A is a pattern of the front display image 16B and a pattern of the rear display image 17B, respectively. It is said. Each two-dimensional luminance is distributed according to the display position (depth position: Z) of the stereoscopic display object O. When the front and rear display surfaces are transmissive display surfaces, the luminance distribution according to the display position (depth position: Z) of the stereoscopic display object O is the display position (depth position) of the stereoscopic display object O. : Distributes the transmittance according to Z), and means to change the luminance seen by the observer.

すなわち、表示したい立体表示物Oの奥行き位置に応じて前面表示素子16と後面表示素子17間の像の輝度の割合を変化させることにより、その奥行き位置が連続的に変化するため、見る者は立体表示物Oを知覚することができる。
例えば、前面表示素子16に近い位置に立体表示物19を表示したい場合には、前面表示素子16の輝度の割合を高くし、後面表示素子17の輝度の割合を低くする。一方、後面表示素子17に近い位置に立体表示物Oを表示したい場合には、前面表示素子16の輝度の割合を低くし、後面表示素子17の輝度の割合を高くする。なお、前面表示素子16と後面表示素子17の中間付近に立体表示物Oを表示したい場合には、前面表示素子16の輝度の割合と、後面表示素子17の輝度の割合とを等しくする。
これにより、前面表示素子16側から二層積層表示ディスプレイ11を見た者は、立体表示物Oの奥行きを認識することができる。
That is, since the depth position changes continuously by changing the ratio of the luminance of the image between the front display element 16 and the rear display element 17 according to the depth position of the stereoscopic display object O to be displayed, the viewer can The stereoscopic display object O can be perceived.
For example, when it is desired to display the stereoscopic display 19 at a position close to the front display element 16, the luminance ratio of the front display element 16 is increased and the luminance ratio of the rear display element 17 is decreased. On the other hand, when the stereoscopic display object O is to be displayed at a position close to the rear display element 17, the luminance ratio of the front display element 16 is decreased and the luminance ratio of the rear display element 17 is increased. In addition, when it is desired to display the three-dimensional display object O in the vicinity of the middle between the front display element 16 and the rear display element 17, the luminance ratio of the front display element 16 and the luminance ratio of the rear display element 17 are made equal.
Thereby, the person who saw the two-layer laminated display 11 from the front display element 16 side can recognize the depth of the three-dimensional display object O.

なお、このDFD錯視現象を利用して立体表示物を表示する3次元表示装置については、以下の文献に記載されており、3次元表示装置100による立体表示物の表示は、これら文献に記載されている技術を利用することで実現することができる。
<参考文献>
(1)“奥行き融合型メガネなし3Dディスプレイ” 高田英明 P1〜8
(2)特開2008−42745号公報
Note that a three-dimensional display device that displays a three-dimensional display object using the DFD illusion phenomenon is described in the following documents, and the display of the three-dimensional display object by the three-dimensional display device 100 is described in these documents. It can be realized by using existing technology.
<References>
(1) “3D display without depth fusion glasses” Hideaki Takada P1-8
(2) JP 2008-42745 A

次に、図6を参照して、本実施形態に係る3次元表示装置100と2次元表示装置200の構成の一例について説明する。なお、本実施形態において、遠隔地側にある2次元表示装置200が第2地点にいるユーザCを撮影した映像を、第1地点の現在地側にある3次元表示装置100に表示する例を説明する。   Next, an example of the configuration of the three-dimensional display device 100 and the two-dimensional display device 200 according to the present embodiment will be described with reference to FIG. In the present embodiment, an example will be described in which the two-dimensional display device 200 on the remote location side displays the video image of the user C at the second location on the 3D display device 100 on the current location side of the first location. To do.

図6に示す通り、遠隔地側の2次元表示装置200は、上述の構成に加え、顔形状生成部203と、テクスチャ情報取得部204と、顔傾き情報生成部205と、3次元顔モデル生成部206と、通信部207と、マイク208とを備える。   As shown in FIG. 6, in addition to the above-described configuration, the two-dimensional display device 200 on the remote site side includes a face shape generation unit 203, a texture information acquisition unit 204, a face inclination information generation unit 205, and a three-dimensional face model generation. Unit 206, communication unit 207, and microphone 208.

カメラ22は、例えば、2次元表示装置200の前で2次元画像表示ディスプレイ21の表示画面を見ながら第1地点のユーザA、Bと対話をしているユーザCを撮影する。このカメラ22は、撮影対象であるユーザCを撮影した映像(遠隔側の参加者の顔の映像)を示す顔画像データを、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する。なお、顔画像データとは、本実施形態においては、ユーザCの顔を含む映像であるが、本発明はこれに限られず、少なくとも一人の人間の顔を含む画像データであればよい。   For example, the camera 22 photographs the user C who is interacting with the users A and B at the first point while viewing the display screen of the two-dimensional image display 21 in front of the two-dimensional display device 200. The camera 22 outputs face image data indicating an image (image of the face of a remote participant) of the user C, who is an image capturing target, to the face shape generation unit 203 and the texture information acquisition unit 204, respectively. In this embodiment, the face image data is an image including the face of the user C. However, the present invention is not limited to this, and may be image data including at least one human face.

距離センサ23は、撮像対象の位置情報を測定するセンサであって、例えば、距離センサ23とユーザCの顔付近の奥行き方向Zの距離を測定する。例えば、図1に示す通り、ユーザCが2次元表示装置200と対面している場合、ユーザCの顔付近との奥行き方向の距離は、顔奥行き距離情報R1で示される。なお、この顔奥行き距離R1には、上述の通り、顔付近に存在する顔に含まれる部分(鼻や目、口、輪郭、髪の毛、頭等)とのそれぞれの距離が含まれている。
よって、この距離センサ23は、撮影対象であるユーザCに対する奥行き方向Zの距離を測定し、ユーザCの顔付近との奥行き方向Zの距離として顔奥行き距離情報R1を測定し、この顔奥行き距離情報R1を含む距離情報を、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する。
The distance sensor 23 is a sensor that measures position information of an imaging target, and measures, for example, the distance in the depth direction Z between the distance sensor 23 and the face of the user C. For example, as shown in FIG. 1, when the user C faces the two-dimensional display device 200, the distance in the depth direction from the vicinity of the face of the user C is indicated by the face depth distance information R1. As described above, the face depth distance R1 includes the distances to parts (nose, eyes, mouth, contour, hair, head, etc.) included in the face near the face.
Therefore, the distance sensor 23 measures the distance in the depth direction Z with respect to the user C to be imaged, measures the face depth distance information R1 as the distance in the depth direction Z from the vicinity of the face of the user C, and this face depth distance. The distance information including the information R1 is output to the face shape generation unit 203 and the texture information acquisition unit 204, respectively.

顔形状生成部203は、距離センサ23から入力する距離情報に基づき、ユーザCの3次元的な顔の形状を示す顔形状情報を生成する。例えば、距離センサ23の測定エリア内に存在する測定対象物のうち、最も近くに存在する測定対象物と距離センサ23との距離情報に基づき、この顔形状生成部203は、測定対象物の凹凸形状を示す情報を取得する。なお、顔形状生成部203は、取得した情報が示す測定対象物の凹凸形状が示す特徴に基づき、人の顔らしい特徴を示す凹凸形状を示す測定対象物を人の顔であると判断するものであってもよい。顔形状生成部203は、取得した測定対象物の凹凸形状を示す情報に基づき、人の顔の形状を示す顔形状情報を生成する。   The face shape generation unit 203 generates face shape information indicating the three-dimensional face shape of the user C based on the distance information input from the distance sensor 23. For example, based on the distance information between the closest measurement object and the distance sensor 23 among the measurement objects existing in the measurement area of the distance sensor 23, the face shape generation unit 203 performs unevenness of the measurement object. Acquire information indicating the shape. Note that the face shape generation unit 203 determines that the measurement object having the uneven shape indicating the characteristic of the human face is a human face based on the feature indicated by the uneven shape of the measurement object indicated by the acquired information. It may be. The face shape generation unit 203 generates face shape information indicating the shape of a human face based on the acquired information indicating the uneven shape of the measurement object.

テクスチャ情報取得部204は、カメラ22から入力する顔画像データに基づき、人物の顔の画像についてのテクスチャ情報(膚の色や目や髪の色などを示す情報)を取得し、3次元顔モデル生成部206に出力する。このテクスチャ情報取得部204は、例えば、顔画像データに対して顔検出処理を行い、顔の画像を検出する。テクスチャ情報取得部204は、検出された顔の画像に対応する画像データを解析して、テクスチャ情報を取得する。このテクスチャ情報は、顔の表面の視覚的な色や明るさの均質さや、触覚的な比力の強弱を感じる部分的は変化を表現する情報であって、例えば、実空間の水平方向Xと垂直方向Yと奥行き方向Zに応じたテクスチャ座標で示される情報である。
なお、この顔の検出方法としては、例えば、予め決められた人物の顔を示すパターン情報と比較してパターン情報と近似する画像領域を顔の画像として検出するパターン認識等が利用可能である。
The texture information acquisition unit 204 acquires texture information (information indicating skin color, eye color, hair color, and the like) about the human face image based on the face image data input from the camera 22 and obtains a three-dimensional face model. The data is output to the generation unit 206. For example, the texture information acquisition unit 204 performs face detection processing on face image data and detects a face image. The texture information acquisition unit 204 analyzes the image data corresponding to the detected face image, and acquires texture information. This texture information is information that expresses a partial change that feels the visual color and brightness uniformity of the face surface and the strength of tactile specific force. This is information indicated by texture coordinates corresponding to the vertical direction Y and the depth direction Z.
As the face detection method, for example, pattern recognition that detects an image region that approximates pattern information as compared with pattern information indicating a predetermined person's face as a face image can be used.

顔傾き情報生成部205と、距離センサ23から入力する距離情報に基づき、2次元画像表示ディスプレイ21の表示画面、あるいは、カメラ22の撮像面に対して、人物の顔が向いている方位角を示す顔傾き情報を算出する。この顔傾き情報生成部205は、上述の通り、測定対象である顔の各部分から検出される部分間の距離が非対称となる割合に応じて、ユーザの顔の向きを示す方位角を検出して、顔傾き情報を算出する。
なお、顔傾き情報生成部205は、顔形成部203による解析によって得られた顔画像データに含まれる人物の顔を示す情報を入力する構成であってもよい。この顔傾き情報生成部205は、この顔を示す情報に基づき、当該人物の顔が存在する実空間上の位置を推測して、当該実空間上の位置に対応する部分から測定される距離情報に基づき、各人物の顔が向いている方位角を示す顔傾き情報を算出する。
Based on the distance information input from the face inclination information generation unit 205 and the distance sensor 23, the azimuth angle at which the face of the person faces the display screen of the two-dimensional image display display 21 or the imaging surface of the camera 22 is determined. The face inclination information shown is calculated. As described above, the face inclination information generation unit 205 detects the azimuth indicating the orientation of the user's face according to the ratio of the distance between the parts detected from each part of the face to be measured being asymmetric. Then, the face tilt information is calculated.
Note that the face inclination information generation unit 205 may be configured to input information indicating the face of a person included in the face image data obtained by the analysis by the face forming unit 203. The face inclination information generation unit 205 estimates the position in the real space where the face of the person exists based on the information indicating the face, and distance information measured from the part corresponding to the position in the real space Based on, face inclination information indicating the azimuth angle of each person's face is calculated.

3次元顔モデル生成部206は、テクスチャ情報取得部204から入力するテクスチャ情報と、顔形状生成部203から入力する顔形状情報に基づき、3次元顔モデルデータを生成する。この3次元顔モデルデータは、顔形状情報が示す3次元的な顔のモデル(顔の凹凸形状を示す)に、テクスチャ情報が示すテクスチャ(膚の色や目や髪の色など)を貼りつけたデータである。   The three-dimensional face model generation unit 206 generates three-dimensional face model data based on the texture information input from the texture information acquisition unit 204 and the face shape information input from the face shape generation unit 203. This 3D face model data pastes the texture (skin color, eyes, hair color, etc.) indicated by the texture information on the 3D face model (showing the uneven shape of the face) indicated by the face shape information. Data.

通信部207は、3次元顔モデル生成部206から入力する3次元顔モデルデータと、顔傾き情報生成部205から入力する顔傾き情報とを対応付けて映像情報として、3次元表示装置100に送信する。この通信部207は、マイク208が取得する音声を示す音声情報を入力し、この映像情報に対応づけて、3次元表示装置100に送信する。   The communication unit 207 associates the 3D face model data input from the 3D face model generation unit 206 with the face inclination information input from the face inclination information generation unit 205 and transmits the image information to the 3D display device 100 as video information. To do. The communication unit 207 inputs audio information indicating the audio acquired by the microphone 208 and transmits the audio information to the 3D display device 100 in association with the video information.

3次元表示装置100は、上述の構成に加え、通信部101と、表示制御部103と、パネル駆動部104と、バックライト駆動部105を備える。
通信部101は、ネットワークNWを介して2次元表示装置200と接続され、2次元表示装置200から送信される音声情報および映像情報を受信する。
スピーカー14は、通信部101が受信した音声情報を入力し、当該音声情報に基づく音声を発生させる。
The three-dimensional display device 100 includes a communication unit 101, a display control unit 103, a panel drive unit 104, and a backlight drive unit 105 in addition to the above-described configuration.
The communication unit 101 is connected to the 2D display device 200 via the network NW and receives audio information and video information transmitted from the 2D display device 200.
The speaker 14 inputs the audio information received by the communication unit 101 and generates audio based on the audio information.

表示制御部103は、通信部101が受信した映像情報を入力し、当該映像情報に基づく映像を二層積層表示ディスプレイ11に表示させる。この表示制御部103は、映像情報に含まれる映像信号を輝度信号あるいは顔傾き角情報に基づき、二層積層表示ディスプレイ11の前面表示素子16に映像情報に基づく映像を出力させるための前面表示素子駆動信号と、二層積層表示ディスプレイ11の後面表示素子17に映像情報に基づく映像を出力させるための後面表示素子駆動信号を、パネル駆動部104に出力する。また、表示制御部103は、映像情報に含まれる輝度信号に基づきバックライト18の輝度を制御するバックライト駆動信号を、バックライト駆動部105に出力する。   The display control unit 103 inputs the video information received by the communication unit 101 and causes the two-layer stacked display display 11 to display a video based on the video information. The display control unit 103 is a front display element for causing the front display element 16 of the two-layer stacked display 11 to output a video based on the video information based on the luminance signal or the face tilt angle information on the video signal included in the video information. The driving signal and a rear display element driving signal for causing the rear display element 17 of the two-layer stacked display display 11 to output an image based on the video information are output to the panel driving unit 104. Further, the display control unit 103 outputs a backlight drive signal for controlling the luminance of the backlight 18 based on the luminance signal included in the video information to the backlight driving unit 105.

パネル駆動部104は、入力する前面表示素子駆動信号および後面表示素子駆動信号に基づき、前面表示素子16および後面表示素子17を駆動させる。
バックライト駆動部105は、入力するバックライト駆動信号に基づき、バックライト18を駆動する。
二層積層表示ディスプレイ11は、上述の通り、DFD錯視現象を利用して、前面表示素子16と後面表示素子17の奥行き方向の融合と、輝度の割合による連続的な奥行きの表現に基づき、3次元映像を表示する。
The panel driving unit 104 drives the front display element 16 and the rear display element 17 based on the input front display element drive signal and rear display element drive signal.
The backlight drive unit 105 drives the backlight 18 based on the input backlight drive signal.
As described above, the two-layer stacked display 11 uses the DFD illusion phenomenon, based on the fusion of the front display element 16 and the rear display element 17 in the depth direction and the continuous depth expression based on the luminance ratio. Display a 3D image.

表示制御部103の処理について、図7を参照して説明する。
例えば、ユーザCの顔が方位角+αに対応する向きで2次元表示装置200のカメラ22と向き合っている場合、ユーザの顔の傾き角が+αであることを示す顔傾き情報を、表示制御部103が入力する。
なお、表示制御部103に入力する映像情報の3次元顔モデルデータは、図示の通り、カメラ22が撮影するように人物の右側を向いているモデルデータである。
つまり、表示制御部103は、ユーザの顔の傾き角+αを示す顔傾き情報と、図示の通り人物の右側を向いているユーザCの顔を示す3次元顔モデルデータとを含む映像情報を入力する。
The processing of the display control unit 103 will be described with reference to FIG.
For example, when the face of the user C faces the camera 22 of the two-dimensional display device 200 in an orientation corresponding to the azimuth angle + α, face tilt information indicating that the tilt angle of the user's face is + α is displayed on the display control unit. 103 is input.
Note that the three-dimensional face model data of the video information input to the display control unit 103 is model data facing the right side of the person so as to be photographed by the camera 22 as illustrated.
That is, the display control unit 103 inputs video information including face inclination information indicating the inclination angle + α of the user's face and three-dimensional face model data indicating the face of the user C facing the right side of the person as illustrated. To do.

この表示制御部103は、顔傾き情報に基づき、3次元顔モデルデータを補正して、正面方向から見たときの正面顔の3次元モデルデータを生成する。例えば、表示制御部103は、人物の右側を向いているモデルデータを、正面を向いているモデルデータに変換する。   The display control unit 103 corrects the three-dimensional face model data based on the face tilt information, and generates three-dimensional model data of the front face when viewed from the front direction. For example, the display control unit 103 converts model data facing the right side of a person into model data facing the front.

この表示制御部103は、正面を向いているモデルデータを、その奥行きに比例して輝度の分配を行うことで、前面画像データおよび後面画像データを生成する。具体的にいうと、表示制御部103は、距離センサ23によって検出される距離に応じて輝度値を決定し、前面画像データにおいては、検出される距離がより近い画像部分に対して輝度を高くし、検出される距離がより遠い画像部分に対して輝度を低くする。このため、より遠い画像部分は輝度値を0とすることで画像が表示されなくなる。一方、表示制御部103は、前面画像データに対してはこれと逆に、検出される距離がより近い画像部分に対して輝度を低くし、検出される距離がより遠い画像部分に対して輝度を高くする。   The display control unit 103 generates front image data and rear image data by distributing luminance in proportion to the depth of the model data facing the front. Specifically, the display control unit 103 determines a luminance value according to the distance detected by the distance sensor 23, and in the front image data, the luminance is increased with respect to an image portion where the detected distance is closer. Then, the luminance is lowered for the image portion where the detected distance is farther. For this reason, an image is not displayed in the farther image portion by setting the luminance value to 0. On the other hand, for the front image data, the display control unit 103, on the contrary, lowers the luminance for the image portion where the detected distance is closer, and the luminance for the image portion where the detected distance is farther. To increase.

この表示制御部103は、顔傾き情報に基づき、前面画像データおよび後面画像データを補正する。表示制御部103は、顔傾き情報が示す顔の向いている方位角(顔傾き角)に応じて、前面画像データと後面画像データの重なっている角度をずらす補正を行う。
例えば、表示制御部103は、顔傾き情報が示す方位角に基づき、遠隔側の2次元表示装置200のカメラ22によって撮影されるユーザの向きを判断する。図1に示すように、遠隔地側のユーザCの顔が、2次元表示装置200の2次元画像表示ディスプレイ21に表示されている画面内において、現在地側のユーザBの方を向いているとする。この場合、表示制御部103は、前面画像データおよび後面画像データを、ユーザBがいる位置から二層積層表示ディスプレイ11を見ると表示対象であるユーザCの正面の顔となるように補正する。
The display control unit 103 corrects the front image data and the rear image data based on the face tilt information. The display control unit 103 performs correction to shift the overlapping angle of the front image data and the rear image data according to the azimuth angle (face inclination angle) of the face indicated by the face inclination information.
For example, the display control unit 103 determines the orientation of the user photographed by the camera 22 of the remote two-dimensional display device 200 based on the azimuth angle indicated by the face tilt information. As shown in FIG. 1, the face of the user C on the remote site side is facing the user B on the current location side in the screen displayed on the two-dimensional image display 21 of the two-dimensional display device 200. To do. In this case, the display control unit 103 corrects the front image data and the rear image data so as to be a face in front of the user C as a display target when the two-layer stacked display 11 is viewed from the position where the user B is present.

この補正について、図8を参照して具体的に説明する。図8は、遠隔側の2次元表示装置200の2次元画像表示ディスプレイ21とユーザCとの関係と、現在地側の3次元表示装置100の二層積層表示ディスプレイ11とユーザA、Bとの関係を、上から見た状態で示す図である。
図8に示す通り、遠隔地側のユーザCの顔が、2次元表示装置200の2次元画像表示ディスプレイ21およびカメラ22に対して、方位角αだけユーザの右方向に回転している。このため、表示制御部103は、顔傾き情報に基づき、遠隔側の2次元表示装置200のカメラ22によって撮影されるユーザの向きが方位角+αであることを判断する。
This correction will be specifically described with reference to FIG. FIG. 8 shows the relationship between the two-dimensional image display 21 of the two-dimensional display device 200 on the remote side and the user C, and the relationship between the two-layer stacked display 11 of the three-dimensional display device 100 on the current location side and the users A and B. It is a figure which shows this in the state seen from the top.
As shown in FIG. 8, the face of the user C on the remote site side is rotated to the right of the user by the azimuth angle α with respect to the two-dimensional image display display 21 and the camera 22 of the two-dimensional display device 200. Therefore, the display control unit 103 determines, based on the face tilt information, that the orientation of the user photographed by the camera 22 of the remote two-dimensional display device 200 is the azimuth angle + α.

この表示制御部103は、顔傾き情報が示す方位角+αだけ前面表示画像と後面表示画像を相対的にずらす補正をする。つまり、図示の通り、表示制御部103は、前面表示画像と後面表示画像がその画像内容が一致するように重なり合う直線上に、ユーザBが位置すると推定される位置が重なるように補正する。言い換えると、正面顔の3次元モデルデータが示す正面顔の一部である前面表示画像FDと、その他の部分である後面表示画像RDにおいて、例えばそれぞれの鼻の頂点に対応する部分を鼻部分N1、N2とする。この後面表示画像RDの鼻部分N2と、ユーザBがいるであろうと推定される位置とを結ぶ直線上に、前面表示画像FDの鼻部分N1が位置するように、表示制御部103が、前面表示画像FDと後面表示画像RDの表示位置を相対的に補正する。
なお、表示制御部103は、以下の式に従って、補正するずれ量dを算出することにより、上述のような補正を実現することができる。
The display control unit 103 performs correction to relatively shift the front display image and the rear display image by the azimuth angle + α indicated by the face tilt information. In other words, as shown in the figure, the display control unit 103 corrects the front display image and the rear display image so that the position where the user B is estimated is overlapped on the overlapping line so that the image contents match. In other words, in the front display image FD that is a part of the front face indicated by the three-dimensional model data of the front face and the rear display image RD that is the other part, for example, a portion corresponding to the apex of each nose is the nose portion N1. , N2. The display control unit 103 controls the front display image 103 so that the nose portion N1 of the front display image FD is positioned on a straight line connecting the nose portion N2 of the rear display image RD and the position where the user B is estimated to be present. The display positions of the display image FD and the rear display image RD are relatively corrected.
Note that the display control unit 103 can realize the correction as described above by calculating the correction amount d to be corrected according to the following equation.


d = L・tan(α) ・・・式(1)

ただし、dは補正するずれ量、αはユーザの顔の傾き角をそれぞれ示す。また、Lは前面表示素子16と後面表示素子17との距離を示し、前面表示素子16と後面表示素子17とを積層した状態の厚さに等しい。

d = L · tan (α) (1)

Here, d represents the amount of deviation to be corrected, and α represents the inclination angle of the user's face. L represents the distance between the front display element 16 and the rear display element 17 and is equal to the thickness of the state in which the front display element 16 and the rear display element 17 are stacked.

つまり、表示制御部103は、顔傾き情報が示す方位角に応じて算出されるすれ量dだけ、前面表示画像FDと後面表示画像LDを相対的にずらす補正をする。
これにより、ユーザBが二層積層表示ディスプレイ11を見ると、ユーザCと視線が一致しているように認識することができ、ユーザAが二層積層表示ディスプレイ11を見ると、ユーザCの顔がユーザBの方に傾いているように認識することができる。
That is, the display control unit 103 performs correction to relatively shift the front display image FD and the rear display image LD by the amount of slip d calculated according to the azimuth angle indicated by the face tilt information.
Accordingly, when the user B looks at the two-layer stacked display display 11, it can be recognized that the line of sight is the same as the user C. When the user A looks at the two-layer stacked display display 11, Can be recognized as being inclined toward the user B.

次に、図9を参照して、本実施形態に係る表示方法の一例について説明する。図9は、本実施形態に係る表示方法の一例について説明するためのフローチャートである。ここでは、遠隔地側の2次元表示装置200によって撮影された画像データを、現在地側の3次元表示装置100に表示するための表示方法を例に説明する。   Next, an example of the display method according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart for explaining an example of the display method according to the present embodiment. Here, a display method for displaying image data captured by the two-dimensional display device 200 on the remote location side on the three-dimensional display device 100 on the current location side will be described as an example.

まず、遠隔地側の2次元表示装置200の処理について説明する。
この遠隔地側の2次元表示装置200のカメラ22が、2次元画像表示ディスプレイ21の表示画面の前にいるユーザCを撮影する。このカメラ22は、撮影対象であるユーザCを撮影した映像を示す顔画像データを取得し、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する(ステップST1)。
次いで、テクスチャ情報取得部204が、カメラ22から入力する顔画像データに基づき、人物の顔の画像についてのテクスチャ情報を取得し、3次元顔モデル生成部206に出力する(ステップST2)。
First, processing of the two-dimensional display device 200 on the remote site side will be described.
The camera 22 of the two-dimensional display device 200 on the remote side photographs the user C in front of the display screen of the two-dimensional image display display 21. The camera 22 acquires face image data indicating a video image of the user C, who is the imaging target, and outputs it to the face shape generation unit 203 and the texture information acquisition unit 204 (step ST1).
Next, the texture information acquisition unit 204 acquires texture information about a human face image based on the face image data input from the camera 22, and outputs the texture information to the three-dimensional face model generation unit 206 (step ST2).

一方、カメラ22がユーザCを撮影したタイミングと同じタイミングで、距離センサ23が、撮像対象の位置情報を測定する(ステップST3)。この距離センサ23は、ユーザCの顔付近との奥行き方向Zの距離として顔奥行き距離情報R1を測定し、この顔奥行き距離情報R1を含む距離情報を、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する。   On the other hand, the distance sensor 23 measures the position information of the imaging target at the same timing when the camera 22 captures the user C (step ST3). The distance sensor 23 measures the face depth distance information R1 as the distance in the depth direction Z from the vicinity of the face of the user C, and the distance information including the face depth distance information R1 is obtained from the face shape generation unit 203 and the texture information acquisition unit. 204, respectively.

次いで、顔形状生成部203が、カメラ22から入力する顔画像データと、距離センサ23から入力する距離情報に基づき、ユーザCの3次元的な顔の形状を示す顔形状情報を生成し、3次元顔モデル生成部206に出力する(ステップST4)。   Next, the face shape generation unit 203 generates face shape information indicating the three-dimensional face shape of the user C based on the face image data input from the camera 22 and the distance information input from the distance sensor 23. The result is output to the three-dimensional face model generation unit 206 (step ST4).

そして、3次元顔モデル生成部206が、テクスチャ情報取得部204から入力するテクスチャ情報と、顔形状生成部203から入力する顔形状情報に基づき、3次元顔モデルデータを生成する(ステップST5)。   Then, the 3D face model generation unit 206 generates 3D face model data based on the texture information input from the texture information acquisition unit 204 and the face shape information input from the face shape generation unit 203 (step ST5).

次いで、顔傾き情報生成部205は、距離センサ23から入力する距離情報に基づき、2次元画像表示ディスプレイ21の表示画面に対して、人物の顔が向いている方位角を示す顔傾き情報を算出する。この顔傾き情報生成部205は、例えば、測定対象である顔の各部分から検出される距離が非対称となる割合に応じて、ユーザの顔の向きを示す方位角+αを検出して、この方位角+αを示す顔傾き情報を算出する(ステップST6)。   Next, the face inclination information generation unit 205 calculates face inclination information indicating the azimuth angle of the person's face with respect to the display screen of the two-dimensional image display 21 based on the distance information input from the distance sensor 23. To do. The face inclination information generation unit 205 detects, for example, an azimuth angle + α indicating the orientation of the user's face according to a ratio at which the distance detected from each part of the face to be measured is asymmetric, Face tilt information indicating the angle + α is calculated (step ST6).

そして、通信部207が、3次元顔モデル生成部206から入力する3次元顔モデルデータと、顔傾き情報生成部205から入力する顔傾き情報とを対応付けて映像情報として、3次元表示装置100に送信する。この通信部207は、マイク208が取得する音声を示す音声情報を入力し、この映像情報に対応づけて、3次元表示装置100に送信する。   Then, the communication unit 207 associates the 3D face model data input from the 3D face model generation unit 206 with the face tilt information input from the face tilt information generation unit 205 as video information and associates the 3D face model data with the 3D face model generation unit 206. Send to. The communication unit 207 inputs audio information indicating the audio acquired by the microphone 208 and transmits the audio information to the 3D display device 100 in association with the video information.

次いで、3次元表示装置100の処理に移行する。
この3次元表示装置100の通信部101は、ネットワークNWを介して、2次元表示装置200から送信される音声情報および映像情報を受信し、表示制御部103に出力する。
Next, the process proceeds to the processing of the three-dimensional display device 100.
The communication unit 101 of the 3D display device 100 receives audio information and video information transmitted from the 2D display device 200 via the network NW, and outputs them to the display control unit 103.

この表示制御部103は、顔傾き情報に基づき、映像情報である3次元顔モデルデータを補正して、正面方向から見たときの正面顔の3次元モデルデータを生成する。そして、表示制御部103は、正面顔の3次元モデルデータを、モデルデータが示す奥行きに比例した輝度の分配を行い、前面表示画像データと後面表示画像データを生成する(ステップST7)。   The display control unit 103 corrects the 3D face model data, which is video information, based on the face tilt information, and generates 3D model data of the front face when viewed from the front direction. Then, the display control unit 103 distributes the luminance proportional to the depth indicated by the model data for the three-dimensional model data of the front face, and generates front display image data and rear display image data (step ST7).

次いで、表示制御部103は、顔傾き情報に基づき、遠隔側の2次元表示装置200のカメラ22によって撮影されるユーザCの顔の向きが、方位角+αであることを判断する。
具体的にいうと、表示制御部103は、顔傾き情報に基づき、顔の向きを示す方位角が0度であるか否かを判断し、0度でない場合、以下のような補正をすることを判断する。一方、顔の向きを示す方位角が0度である、以下のような補正はしないと判断する。
Next, the display control unit 103 determines that the orientation of the face of the user C taken by the camera 22 of the remote two-dimensional display device 200 is the azimuth angle + α based on the face tilt information.
Specifically, the display control unit 103 determines whether or not the azimuth angle indicating the face direction is 0 degrees based on the face tilt information. If not, the display controller 103 performs the following correction. Judging. On the other hand, it is determined that the following correction is not performed in which the azimuth angle indicating the face direction is 0 degrees.

ここで、表示制御部103は、顔傾き情報が示す方位角+αが0度でないため、方位角+αだけ前面表示画像と後面表示画像を相対的にずらす補正を行い、補正された前面表示画像データと補正された後面表示画像データを、それぞれ前面表示素子16と後面表示素子17に出力する(ステップST8)。   Here, since the azimuth angle + α indicated by the face tilt information is not 0 degrees, the display control unit 103 performs correction to relatively shift the front display image and the rear display image by the azimuth angle + α, and the corrected front display image data The corrected rear display image data is output to the front display element 16 and the rear display element 17, respectively (step ST8).

そして、前面表示素子16は、入力する補正された前面表示画像データに基づき補正された表示位置に前面表示画像を表示する(ステップST9)。後面表示素子17は、入力する補正された後面表示画像データに基づき補正された表示位置に後面表示画像を表示する(ステップST10)。   Then, the front display element 16 displays the front display image at the display position corrected based on the input corrected front display image data (step ST9). The rear display element 17 displays the rear display image at the display position corrected based on the corrected rear display image data to be input (step ST10).

このように、表示制御部103は、顔傾き情報が示す顔の向いている角度(方位角)に応じて、前面画像データと後面画像データの重なっている角度をずらす補正を行う。
これにより、正面顔の3次元モデルデータが示す正面顔の一部である前面表示画像FDと、その他の部分である後面表示画像RDにおいて、例えばそれぞれの鼻の頂点に対応する鼻部分N1、N2が、ユーザBがいるであろうと推定される位置と直線で結ばれる位置に表示される。
よって、この直線上に位置するユーザBは、ユーザCが自分の方をみているように認識することができ、ユーザAは、ユーザCの顔がユーザBの方をみているように認識することができる。
As described above, the display control unit 103 performs correction to shift the overlapping angle of the front image data and the rear image data according to the angle (azimuth angle) of the face indicated by the face inclination information.
Accordingly, in the front display image FD that is a part of the front face indicated by the three-dimensional model data of the front face and the rear display image RD that is the other part, for example, the nose portions N1 and N2 corresponding to the vertices of the nose, respectively. Is displayed at a position that is connected with a position estimated to be the user B by a straight line.
Therefore, the user B located on this straight line can recognize that the user C is looking at him / her, and the user A is recognized as if the face of the user C is looking at the user B. Can do.

また、上述の通り、本実施形態に係る3次元表示装置は、二層積層表示ディスプレイ11の指向性と、前面表示素子16と後面表示素子17の映像のずれによる方向の制御を用いることにより、細かな方向を表現することができる。
また、テレビ会議のシステムにおいて本実施形態に係る3次元表示装置が利用されることで、ディスプレイの中に映像として表示されている会議参加者の顔の向きを、直感的に映像を見ている人に理解させ、会話している相手を正しく理解させることができる。
Further, as described above, the three-dimensional display device according to the present embodiment uses the directivity of the two-layer stacked display display 11 and the control of the direction due to the image shift between the front display element 16 and the rear display element 17. A fine direction can be expressed.
In addition, by using the three-dimensional display device according to the present embodiment in the video conference system, the user can intuitively view the direction of the face of the conference participant displayed as the video on the display. You can make people understand and understand who you are talking to correctly.

なお、本発明は上記構成に限られず、例えば、以下のような構成であってもよい。
例えば、前面表示画面と後面表示画面のずれ量dが予め決められた閾値よりも大きくなる場合、立体的に表示された立体表示物の前面表示画面と後面表示画面の一体性が失われ、まとまりのある立体表示物に見えない。よって、この閾値を予め設定しておき、表示制御部103が算出したずれ量dが閾値以上となる場合、二層積層表示ディスプレイ11を回転可能に支持する回転台を動作させる構成であってもよい。このように、回転台を回転させる処理も併せて利用することで、広範囲に視線を向けることができ、テレビ会議に参加するユーザが多くなり、顔の向きが広範囲に及ぶ場合であって対応することができる。
また、本発明は上記構成に限られず、遠隔地側にある表示装置は、2次元表示装置200に限られず、3次元表示装置100と同様の構成を有する3次元表示装置あってもよい。
In addition, this invention is not restricted to the said structure, For example, the following structures may be sufficient.
For example, when the shift amount d between the front display screen and the rear display screen is larger than a predetermined threshold value, the unity of the front display screen and the rear display screen of the stereoscopic display object displayed in a three-dimensional manner is lost. It cannot be seen as a three-dimensional display object. Therefore, even if the threshold value is set in advance and the shift amount d calculated by the display control unit 103 is equal to or larger than the threshold value, the turntable that supports the two-layer stacked display 11 so as to rotate is operated. Good. In this way, by using the process of rotating the turntable, it is possible to turn the line of sight over a wide range, and the number of users participating in the video conference increases, and the face orientation covers a wide range. be able to.
The present invention is not limited to the above-described configuration, and the display device on the remote location side is not limited to the two-dimensional display device 200 and may be a three-dimensional display device having the same configuration as the three-dimensional display device 100.

なお、上述した実施形態において、3次元表示装置100と3次元表示装置200による機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、符号化処理、及び復号化処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   In the embodiment described above, a program for realizing the functions of the three-dimensional display device 100 and the three-dimensional display device 200 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is stored in a computer system. The encoding process and the decoding process may be performed by reading and executing the program. Here, the “computer system” may include an OS and hardware such as peripheral devices. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

100・・・現在地側の3次元表示装置、11・・・二層積層表示ディスプレイ、16・・・前面表示素子、17・・・後面表示素子、18・・・バックライト、14・・・スピーカー、101・・・通信部、103・・・表示制御部、104・・・パネル駆動部、105・・・バックライト駆動部、200・・・遠隔地側の2次元表示装置、22・・・カメラ、23・・・距離センサ、203・・・顔形状生成部、204・・・テクスチャ情報取得部、205・・・顔傾き情報生成部、206・・・3次元顔モデル生成部、207・・・通信部、208・・・マイク   DESCRIPTION OF SYMBOLS 100 ... Three-dimensional display apparatus of the present location side, 11 ... Two-layer laminated display, 16 ... Front display element, 17 ... Rear display element, 18 ... Backlight, 14 ... Speaker DESCRIPTION OF SYMBOLS 101 ... Communication part 103 ... Display control part 104 ... Panel drive part 105 ... Backlight drive part 200 ... Two-dimensional display apparatus of a remote place, 22 ... Camera 23 ... Distance sensor 203 ... Face shape generation unit 204 ... Texture information acquisition unit 205 ... Face tilt information generation unit 206 ... Three-dimensional face model generation unit 207 ..Communication unit, 208 ... Microphone

Claims (4)

表示対象を撮影するカメラに対する前記表示対象の顔の向きを示す方位情報と、前記カメラが表示対象を撮影して得られる3次元顔モデルデータとを入力する入力部と、
対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部と、
前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換し、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成し、観測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくずれ量で前記第1表示画像前記第2表示画像とを相対的にずらす補正して、前記第1表示素子および前記第2表示素子に表示させる表示制御部と、
を備えることを特徴とする表示装置。
An input unit for inputting azimuth information indicating the orientation of the face of the display target with respect to the camera that captures the display target, and three-dimensional face model data obtained by the camera capturing the display target ;
A display unit that includes a first display element and a second display element that are arranged to face each other, and that displays the display object in three dimensions;
Based on the orientation information, the 3D face model data is converted into a 3D face model of the front face when the display object is viewed from the front direction, and the first display element displays the 3D face model of the front face. second generating and displaying an image, observation have the azimuth information so that viewed from the position am with the face in front of a person which is the display target, wherein the first display image second display device displays the and relatively shifting correction and said second display image and the first display image in displacement amount based, a display control unit for displaying on the first display element and the second display element,
A display device comprising:
記表示制御部が、
前記正面顔の3次元顔モデルに対して、前記方位情報が示す前記表示対象の顔の奥行きに比例した輝度の分配を行うことにより、前記第1表示画像と前記第2表示画像を生成することを特徴とする請求項1に記載の表示装置。
Before Symbol display control unit,
Against 3-dimensional face model of the frontal face, by performing distribution of brightness proportional to the depth of the face of the display object where the orientation information indicates, that generates the second display image and the first display image the display device according to claim 1, wherein the this.
前記表示対象を撮影して画像データを出力するカメラと、
前記表示対象と前記カメラとの距離を測定して距離情報を出力する距離センサと、
前記画像データに基づき前記3次元顔モデルデータを生成する3次元顔モデル生成部と、
前記距離情報に基づき前記方位情報を生成する方位情報生成部と、
をさらに備えることを特徴とする請求項1あるいは2に記載の表示装置。
A camera for photographing the display object and outputting image data;
A distance sensor that measures the distance between the display object and the camera and outputs distance information;
A three-dimensional face model generation unit that generates the three-dimensional face model data based on the image data ;
And azimuth information generating unit that generates the azimuth information on the basis of said distance information,
The display device according to claim 1, further comprising:
第1地点に置かれた第1表示装置のカメラによって撮影された表示対象を示す情報に基づき前記第1地点とは異なる第2地点に置かれた第2表示装置に前記表示対象を立体的に表示する表示方法において、
前記第1表示装置が、
前記カメラによって前記表示対象を撮影して当該表示対象である人物の顔を表わす画像データを得るステップと、
前記表示対象と前記カメラとの距離を測定して距離情報を得るステップと、
前記画像データに基づき3次元顔モデルデータを生成するステップと、
前記距離情報に基づき、前記表示対象を撮影するカメラに対する前記表示対象の顔の向きを示す方位情報を生成するステップと、
前記3次元顔モデルデータと前記方位情報を前記第2表示装置に送信するステップと、
前記第2表示装置が、
前記3次元顔モデルデータと前記方位情報を受信するステップと、
前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換するステップと、
対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部が表示する表示画像として、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成するステップと、
測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくズレ量で前記第1表示画像前記第2表示画像とを相対的にずらす補正して、前記第1表示素子および前記第2表示素子に表示させるステップと、
を備えることを特徴とする表示方法。
The display target is three-dimensionally displayed on a second display device placed at a second point different from the first point based on information indicating the display subject photographed by the camera of the first display device placed at the first point. In the display method to display,
The first display device is
Photographing the display object with the camera to obtain image data representing the face of the person who is the display object;
Measuring the distance between the display object and the camera to obtain distance information;
Generating three-dimensional face model data based on the image data;
Generating azimuth information indicating the orientation of the face of the display target with respect to the camera that captures the display target based on the distance information;
And transmitting said azimuth information and the 3-dimensional face model data to the second display device,
The second display device
Receiving and the azimuth information and the 3-dimensional face model data,
Converting the three-dimensional face model data into a three-dimensional face model of a front face when the display object is viewed from the front direction based on the orientation information;
As a display image displayed by a display unit that includes a first display element and a second display element that are arranged to face each other and displays the display target in a three-dimensional manner, the first display from the three-dimensional face model of the front face Generating a first display image displayed by the element and a second display image displayed by the second display element ;
The observation sees from the position am with the display is the object relatively shifting correction and said second display image and the first display image in shift amount based on the orientation information so as to face the front of the person And displaying on the first display element and the second display element;
A display method comprising:
JP2010112303A 2010-05-14 2010-05-14 Display device and display method Expired - Fee Related JP5478357B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010112303A JP5478357B2 (en) 2010-05-14 2010-05-14 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010112303A JP5478357B2 (en) 2010-05-14 2010-05-14 Display device and display method

Publications (2)

Publication Number Publication Date
JP2011242458A JP2011242458A (en) 2011-12-01
JP5478357B2 true JP5478357B2 (en) 2014-04-23

Family

ID=45409206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010112303A Expired - Fee Related JP5478357B2 (en) 2010-05-14 2010-05-14 Display device and display method

Country Status (1)

Country Link
JP (1) JP5478357B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104007811B (en) * 2013-02-27 2017-05-31 纬创资通股份有限公司 Electronic device and image adjusting method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027477A (en) * 2015-07-24 2017-02-02 株式会社オプティム Three-dimensional output server, three-dimensional output method, and program for three-dimensional output server
JPWO2017094543A1 (en) * 2015-12-02 2018-09-20 セイコーエプソン株式会社 Information processing apparatus, information processing system, information processing apparatus control method, and parameter setting method
JP6788845B2 (en) * 2017-06-23 2020-11-25 パナソニックIpマネジメント株式会社 Remote communication methods, remote communication systems and autonomous mobile devices
CN109947236A (en) * 2017-12-21 2019-06-28 艾力普提实验室公司 The method and apparatus of content on the display of controlling electronic devices
JP2020009295A (en) * 2018-07-11 2020-01-16 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2023181634A1 (en) * 2022-03-24 2023-09-28 ソニーグループ株式会社 Information processing device, information processing method, and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4589277B2 (en) * 2006-08-09 2010-12-01 日本電信電話株式会社 3D display method
JP2009089324A (en) * 2007-10-03 2009-04-23 Nippon Telegr & Teleph Corp <Ntt> Video conference system and program, and recoding medium
JP5071041B2 (en) * 2007-10-23 2012-11-14 セイコーエプソン株式会社 Display device and electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104007811B (en) * 2013-02-27 2017-05-31 纬创资通股份有限公司 Electronic device and image adjusting method

Also Published As

Publication number Publication date
JP2011242458A (en) 2011-12-01

Similar Documents

Publication Publication Date Title
US10325400B2 (en) Virtual viewpoint for a participant in an online communication
US20200344500A1 (en) Three-dimensional telepresence system
JP5478357B2 (en) Display device and display method
JP6285941B2 (en) Controlled 3D communication endpoint
US10171792B2 (en) Device and method for three-dimensional video communication
US8743187B2 (en) Three-dimensional (3D) imaging based on MotionParallax
JP2014511049A (en) 3D display with motion parallax
JP5237234B2 (en) Video communication system and video communication method
WO2017094543A1 (en) Information processing device, information processing system, method for controlling information processing device, and method for setting parameter
JP2011090400A (en) Image display device, method, and program
Gotsch et al. TeleHuman2: A Cylindrical Light Field Teleconferencing System for Life-size 3D Human Telepresence.
JPH10327431A (en) Image generating method in virtual space, its device and image pickup device
JP4619216B2 (en) Stereoscopic image display apparatus and stereoscopic image display method
US20100123716A1 (en) Interactive 3D image Display method and Related 3D Display Apparatus
JP2011113206A (en) System and method for video image communication
TWI486052B (en) Three-dimensional image processing device and three-dimensional image processing method
JP2842735B2 (en) Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof
US20200252585A1 (en) Systems, Algorithms, and Designs for See-through Experiences With Wide-Angle Cameras
JP6200316B2 (en) Image generation method, image generation apparatus, and image generation program
JP5485102B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
WO2017163649A1 (en) Image processing device
JP5520774B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
JP6179282B2 (en) 3D image display apparatus and 3D image display method
WO2012169220A1 (en) 3d image display device and 3d image display method
JP2012244433A (en) Image presentation apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121004

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R150 Certificate of patent or registration of utility model

Ref document number: 5478357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees