JP5478357B2 - Display device and display method - Google Patents
Display device and display method Download PDFInfo
- Publication number
- JP5478357B2 JP5478357B2 JP2010112303A JP2010112303A JP5478357B2 JP 5478357 B2 JP5478357 B2 JP 5478357B2 JP 2010112303 A JP2010112303 A JP 2010112303A JP 2010112303 A JP2010112303 A JP 2010112303A JP 5478357 B2 JP5478357 B2 JP 5478357B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- face
- image
- dimensional
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、例えば、表示対象を立体的に表示する表示装置および表示方法に関するものである。 The present invention relates to, for example, a display device and a display method for displaying a display target in three dimensions.
例えば、遠隔地にいるユーザをカメラで撮影した画像を受信して、現在地のディスプレイに表示することによって、ディスプレイに映る遠隔地のユーザを見ながら会議をすることができるテレビ会議のシステムがある(例えば、文献1参照)。
このシステムでは、互いに相手側のカメラで撮影された相手側の画像を自分側のディスプレイに表示することによって、相手側のユーザのしぐさや表情等を認識しながら会話をすることができ、現実に会っている状態に近い環境で会議をすることができる。
For example, there is a video conference system in which an image obtained by photographing a user in a remote location with a camera is received and displayed on a display at the current location, so that a conference can be held while viewing the remote user on the display (see FIG. For example, see
In this system, the other party's images taken with the other party's camera can be displayed on their own display so that the user can talk while recognizing the gesture and facial expression of the other party's user. You can have a meeting in an environment close to that you are meeting.
しかしながら、このディスプレイが2次元の画像を表示するディスプレイであって、相手側のユーザがカメラ目線で話している状態を撮影し、この画像を自分側のディスプレイに表示している場合、自分側のディスプレイに映し出される相手側のユーザが、自分側にいる全てのユーザを見ているように感じられるという問題がある。 However, if this display is a display that displays a two-dimensional image and the other user is talking from the camera's point of view and this image is displayed on the local display, There is a problem that it seems that the other party's user shown on the display looks at all the users on the other side.
例えば、遠隔地側にいるユーザLと、現在地側にいるユーザMとユーザNが、テレビ会議のシステムを利用して会議をしている場合を例に説明する。この相手側のユーザLがカメラに向かって話しをしている場合、ユーザLはカメラ目線となり、現在地側のディスプレイに表示されるユーザLが、ユーザMを見ているのかあるいはユーザNを見ているのかわからない映像が表示される。このため、ディスプレイを見ているユーザM、Nは、どちらもユーザLに見られているように誤解してしまう場合がある。 For example, a case where a user L at a remote location side, a user M and a user N at a current location side have a conference using a video conference system will be described as an example. When the other user L is talking to the camera, the user L is looking at the camera, and the user L displayed on the current location display is looking at the user M or looking at the user N. An image that you do not know is displayed. For this reason, the users M and N who are viewing the display may misunderstand that both are viewed by the user L.
一方、この相手側のユーザLがカメラとは違う方向に向かって話しをしている場合、ユーザLはカメラ目線とはならないため、現在地側のディスプレイに表示されるユーザLは、ユーザMおよびユーザNの両方とも違う方向を向いて話しているように表示される。よって、ディスプレイを見ているユーザM、Nは、どちらもユーザLに見られていないように感じてしまう。 On the other hand, when the user L on the other side is talking in a direction different from the camera, the user L is not looking at the camera, so the user L displayed on the display at the current location is the user M and the user L Both N are displayed as if they are talking in different directions. Therefore, the users M and N looking at the display feel that neither of them is seen by the user L.
このように、一般的な2次元の画像を表示するディスプレイでは、映し出される相手側のユーザの見え方が同一であるため、相手方のユーザが誰に向かって話しているのかを現在地側のユーザが正しく理解することができない問題があった。 In this way, in the display that displays a general two-dimensional image, the appearance of the other user on the other side is the same, so the user on the current location side can tell who the other user is talking to. There was a problem that could not be understood correctly.
上述の課題を鑑み、本発明は、ディスプレイを見るユーザの位置に応じて表示対象の見え方を変更することができる表示装置および表示方法を提供することを目的とする。 In view of the above-described problems, an object of the present invention is to provide a display device and a display method capable of changing the appearance of a display target in accordance with the position of a user viewing the display.
上述の課題を鑑み、本発明に係る表示装置は、表示対象を撮影するカメラに対する前記表示対象の顔の向きを示す方位情報と、前記カメラが表示対象を撮影して得られる3次元顔モデルデータとを入力する入力部と、対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部と、前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換し、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成し、観測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくずれ量で前記第1表示画像と前記第2表示画像とを相対的にずらす補正をして、前記第1表示素子および前記第2表示素子に表示させる表示制御部と、を備える。 In view of the above-described problems, the display device according to the present invention includes azimuth information indicating the orientation of the face of the display target with respect to the camera that captures the display target, and three-dimensional face model data obtained by the camera shooting the display target. an input unit for inputting bets, comprises a first display element and the second display device is disposed to face a display unit for stereoscopically displaying the display object, the 3-dimensional face model on the basis of the orientation information Data is converted into a three-dimensional face model of the front face when the display object is viewed from the front direction, and the first display image and the second display displayed by the first display element from the three-dimensional face model of the front face. generating a second display image element is displayed, observation person and the first display image shift amount based on the orientation information as seen from a position between the frontal faces of the person that is the display object are the relative and said second display image And a correction of shifting, and a display control unit for displaying on the first display element and the second display element.
また、上述の表示装置は、前記表示制御部が、前記正面顔の3次元顔モデルに対して、前記方位情報が示す前記表示対象の顔の奥行きに比例した輝度の分配を行うことにより、前記第1表示画像と前記第2表示画像を生成する。 Further, the above-described display device, the front Symbol display control unit, for the three-dimensional face model of the frontal face, by performing distribution of brightness proportional to the depth of the face of the display object where the orientation information indicates, that generates the second display image and the first display image.
また、上述の表示装置は、前記表示対象を撮影して画像データを出力するカメラと、前記表示対象と前記カメラとの距離を測定して距離情報を出力する距離センサと、前記画像データに基づき前記3次元顔モデルデータを生成する3次元顔モデル生成部と、前記距離情報に基づき前記方位情報を生成する方位情報生成部と、をさらに備える。 Further, the display device described above is based on the camera that captures the display target and outputs image data, the distance sensor that measures the distance between the display target and the camera and outputs distance information, and the image data . further comprising a three-dimensional face model generator for generating the 3-dimensional face model data, and orientation information generation unit that generates the azimuth information on the basis of said distance information.
上述の課題を鑑み、本発明に係る表示方法は、第1地点に置かれた第1表示装置のカメラによって撮影された表示対象を示す情報に基づき前記第1地点とは異なる第2地点に置かれた第2表示装置に前記表示対象を立体的に表示する表示方法において、前記第1表示装置が、前記カメラによって前記表示対象を撮影して当該表示対象である人物の顔を表わす画像データを得るステップと、前記表示対象と前記カメラとの距離を測定して距離情報を得るステップと、前記画像データに基づき3次元顔モデルデータを生成するステップと、前記距離情報に基づき、前記表示対象を撮影するカメラに対する前記表示対象の顔の向きを示す方位情報を生成するステップと、前記3次元顔モデルデータと前記方位情報とを前記第2表示装置に送信するステップと、前記第2表示装置が、前記3次元顔モデルデータと前記方位情報とを受信するステップと、前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換するステップと、対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部が表示する表示画像として、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成するステップと、観測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくズレ量で前記第1表示画像と前記第2表示画像とを相対的にずらす補正をして、前記第1表示素子および前記第2表示素子に表示させるステップと、を備える。 In view of the above-described problems, the display method according to the present invention is placed at a second point different from the first point based on information indicating a display target photographed by the camera of the first display device placed at the first point. In the display method for stereoscopically displaying the display object on the second display device, the first display device captures image data representing the face of the person who is the display object by photographing the display object with the camera. Obtaining a distance information by measuring a distance between the display object and the camera , generating three-dimensional face model data based on the image data , and obtaining the display object based on the distance information. that will be sending and generating orientation information indicating the orientation of the face of the display object relative to the camera for photographing, the three-dimensional face model data and the azimuth information to the second display device And-up, when the second display device, viewed and receiving said azimuth information and the 3-dimensional face model data, the display target the 3-dimensional face model data on the basis of the orientation information from the front A display image displayed by a display unit that includes a step of converting into a three-dimensional face model of the front face and a first display element and a second display element that are arranged to face each other and that displays the display target in a three-dimensional manner a step of generating a second display image in which the first display image and the second display device the first display element from the 3-dimensional face model of the front face is displayed is displayed, viewed from a position where there are observation's The first display element is corrected by relatively shifting the first display image and the second display image by a shift amount based on the orientation information so as to be a face in front of the person who is the display target. And the second display element And a step of displaying on.
本発明によれば、ディスプレイを見るユーザの位置に応じて表示対象の見え方を変更することができる。 ADVANTAGE OF THE INVENTION According to this invention, the appearance of a display target can be changed according to the position of the user who views a display.
以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本発明の第1実施形態に係る遠隔表示システムの概要を説明するための図である。
図1に示すように、本発明の第1実施形態に係る遠隔表示システムは、ネットワークNWを介して接続される3次元表示装置100と2次元表示装置200とを含む。
この3次元表示装置100は、例えば、第1地点に存在する会議室等に置かれており、ユーザA,Bを撮影した映像をネットワークNWを介して2次元表示装置200に送信する。
また、2次元表示装置200は、第1地点と異なる第2地点に存在する会議室等に置かれており、ユーザCを撮影した映像をネットワークNWを介して3次元表示装置100に送信する。
3次元表示装置100は、受信した映像を、立体的に表示する。一方、2次元表示装置200は、受信した映像を、平面的に表示する。
ここでは、第1地点を現在地、第2地点を遠隔地として、第2地点にいるユーザCを撮影した映像を第1地点の3次元表示装置100に立体的に表示する例を用いて、以下説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining an overview of a remote display system according to the first embodiment of the present invention.
As shown in FIG. 1, the remote display system according to the first embodiment of the present invention includes a
The
In addition, the
The three-
Here, using the example in which the first point is the current location and the second point is a remote location, and the image of the user C at the second point is stereoscopically displayed on the three-
次に、図2を参照して、3次元表示装置100の一例について説明する。
3次元表示装置100は、図2に示す通り、二層積層表示ディスプレイ11と、カメラ12と、マイク13と、スピーカー14を備える。二層積層表示ディスプレイ11は、前面表示素子16と、後面表示素子17と、バックライト18を含む。
この二層積層表示ディスプレイ11は、例えば、DFD(Depth−Fused 3−D)錯視現象を利用して映像を立体的に表示するディスプレイである。この3次元表示装置100は、2次元表示装置200に搭載されているカメラが撮影した画像を示す情報を受信し、当該情報に基づき、前面表示素子16と後面表示素子17の輝度の割合を調整して、立体表示物を表示する。
なお、DFD錯視現象を利用した表示の仕組みについては後述する。
Next, an example of the three-
As shown in FIG. 2, the three-
The two-layer stacked
The display mechanism using the DFD illusion phenomenon will be described later.
次に、図3を参照して、2次元表示装置200の一例について説明する。
図3(A)に示す通り、2次元表示装置200は、2次元画像表示ディスプレイ21と、カメラ22と、距離センサ23と、コールドミラー24を備える。
2次元画像表示ディスプレイ21は、一般的に使用されている平面画像を表示する装置であって、例えば、液晶表示装置等が利用可能である。
カメラ22は、例えば、2次元画像表示ディスプレイ21を見るユーザの顔を概ね正面から撮影できる位置に取り付けられている。
距離センサ23は、例えば測定エリア内に存在する測定対象との距離を測定する距離画像センサ等であって、カメラ22の上部であって、2次元画像表示ディスプレイ21の表示画面から測定対象であるユーザの顔までの距離を測定できる位置に取り付けられている。なお、距離センサ23の前面には、2次元画像表示ディスプレイ21の表示画面の面方向と45度で交わる角度でコールドミラー24が取り付けられている。この距離画像センサは、例えば、TOF( Time−of−Flight )法を利用した距離測定を行うものである。具体的にいうと、赤外線などの光源を使って、光源から光に基づく対象物からの反射光を計測し、センサに届くまでの光の飛行時間(遅れ時間)と光の速度(3×108m/s)から、測定対象物までの距離を得て、実空間上におけるセンサと測定対象物との距離を画像として取得するものである。
この距離センサ23は、撮影対象であるユーザの顔の凹凸に応じて、各部分に対応する距離を計測することができる。例えば、距離センサ23は、ユーザの鼻との距離、ユーザの目との距離、ユーザの口との距離等を計測することができる。なお、カメラ22と距離センサ23との相対的な位置関係に応じて、距離センサ23が検出する対象物との距離は、カメラ22が撮影する画面内における画像領域と予め対応付けられている。よって、距離センサ23が測定する距離情報は、2次元画像表示ディスプレイ21の表示画面に対するユーザの顔の向きを示すことができる。
Next, an example of the two-
As shown in FIG. 3A, the two-
The two-
For example, the
The
This
このユーザの顔の向きについて、図3(A)に示す2次元画像表示ディスプレイ21を、上面から見た状態を、図3(B)に示す。
図3(B)に示す通り、ユーザは、2次元画像表示ディスプレイ21において水平方向(X)に対して真ん中を正面から見ている。この場合、ユーザの顔の向きを示す方位角(傾き角)は0度である。なお、この例に限られず、2次元画像表示ディスプレイ21の表示画面の面方向に対して顔の正面が対向している状態を、顔の傾き角が0度の状態であるとする。これは、人間の鼻は、顔の中央に位置し、両目とも概ね等距離に位置している。このため、人間の鼻の位置に対して、両目との距離が同一と判断できる範囲内である場合、顔の傾き角が0度の状態である。
FIG. 3B shows a state in which the two-
As shown in FIG. 3B, the user is looking at the center from the front in the horizontal direction (X) on the two-
一方、図3(C)に示す通り、ユーザは、2次元画像表示ディスプレイ21の表示画面の面方向に対して、ユーザの右方向に顔を向けている。ここで、ユーザの顔の向きは、方位角αだけユーザの右方向に回転しているため、ユーザの顔の傾き角は+αである。このように、顔の向きがカメラ22に対して正面を向いておらず方位角αだけ右側を向いている場合、ユーザの顔の各部分間での距離が変化する。つまり、ユーザの鼻の位置に対して両目の距離が同一でなく、右目と鼻の距離が、左目と鼻の距離に比べて長くなり、距離センサ23の測定対象であるユーザの顔から検出される距離が、鼻を中心にして非対称となる。この非対称となる割合に応じて、顔の傾き角を算出することができる。
また、ユーザの顔の向きが、方位角αだけユーザの左方向に回転している場合、ユーザの顔の傾き角は−αである。この場合も、距離センサ15の測定対象であるユーザの顔から検出される距離が非対称となる割合に応じて、顔の傾き角を算出することができる。
なお、上述の通り、距離センサ23が計測する距離情報に基づく顔の傾き角を算出する処理は、以下に説明する顔傾き情報生成部によって実行される処理である。
On the other hand, as shown in FIG. 3C, the user faces his / her right direction with respect to the surface direction of the display screen of the two-
Further, when the orientation of the user's face is rotated leftward by the azimuth angle α, the tilt angle of the user's face is −α. Also in this case, the tilt angle of the face can be calculated according to the ratio at which the distance detected from the face of the user that is the measurement target of the distance sensor 15 is asymmetric.
As described above, the process of calculating the face inclination angle based on the distance information measured by the
次に、図4、5を参照して、このDFD錯視現象を利用した表示の仕組みについて説明する。
図4は、二層積層表示ディスプレイ11の一例の概略構成を示す概略図である。図4に示す通り、前面表示素子16および後面表示素子17は、例えば透過型の液晶パネルであって、それぞれ複数の画素を有する。この二層積層表示ディスプレイ11は、2枚(前面表示素子16と後面表示素子17)の透過型表示素子を平行に積層した透過型パネルに対して、バックライト18の光を後面表示素子17の後ろから透過させる。なお、ユーザは前面表示素子16の方から二層積層表示ディスプレイ11を見ることにより、表示される映像を立体的に見ることができる。
この前面表示素子16と後面表示素子17は、例えば、透過型の液晶ディスプレイで構成することができるが、透過型であれば表示素子(有機EL(Electro−Luminescence)、無機EL、液晶表示素子)であれば、どのようなものであってもよく、その利用可能である。
Next, a display mechanism using the DFD illusion phenomenon will be described with reference to FIGS.
FIG. 4 is a schematic diagram illustrating a schematic configuration of an example of the two-layer stacked
The
図5は、二層積層表示ディスプレイ11に表示される立体表示物(3次元立体像)を説明するための図である。図5に示す通り、前面表示素子16の透過型前面表示面16Aと、後面表示素子17の透過型後面表示面17Aは、面間隔Lをあけて平行に配置されている。この前面表示素子16の透過型前面表示面16Aが表示する画像を前面表示画像16Bと、後面表示素子17の透過型後面表示面17Aが表示する画像を後面表示画像17Bという。
この前面表示画像16Bと後面表示画像17Bが、それぞれ前面表示素子16と後面表示素子17に表示されると、前面表示画像16Bと後面表示画像17Bの間に立体表示物(即ち、観察者によって知覚される立体表示物)Oが形成される。なお、観察視点(通常、観察者の両眼の中央の点)Pは、図示の通りとする。
FIG. 5 is a diagram for explaining a stereoscopic display object (three-dimensional stereoscopic image) displayed on the two-layer
When the
この透過型前面表示面16Aおよび透過型後面表示面17Aに対して、立体表示物Oを観察視点Pの方向から射影した2次元像を、それぞれ前面表示画像16Bの絵柄および後面表示画像17Bの絵柄としている。また、それぞれの2次元の輝度は、立体表示物Oの表示位置(奥行き位置:Z)に応じて輝度分配される。なお、前面及び後面の表示面が、透過型表示面の場合には、立体表示物Oの表示位置(奥行き位置:Z)に応じた輝度分配とは、立体表示物Oの表示位置(奥行き位置:Z)に応じて透過度を分配し、観察者から見た輝度を変化させることを意味する。
A two-dimensional image obtained by projecting the three-dimensional display object O from the direction of the observation viewpoint P onto the transmissive
すなわち、表示したい立体表示物Oの奥行き位置に応じて前面表示素子16と後面表示素子17間の像の輝度の割合を変化させることにより、その奥行き位置が連続的に変化するため、見る者は立体表示物Oを知覚することができる。
例えば、前面表示素子16に近い位置に立体表示物19を表示したい場合には、前面表示素子16の輝度の割合を高くし、後面表示素子17の輝度の割合を低くする。一方、後面表示素子17に近い位置に立体表示物Oを表示したい場合には、前面表示素子16の輝度の割合を低くし、後面表示素子17の輝度の割合を高くする。なお、前面表示素子16と後面表示素子17の中間付近に立体表示物Oを表示したい場合には、前面表示素子16の輝度の割合と、後面表示素子17の輝度の割合とを等しくする。
これにより、前面表示素子16側から二層積層表示ディスプレイ11を見た者は、立体表示物Oの奥行きを認識することができる。
That is, since the depth position changes continuously by changing the ratio of the luminance of the image between the
For example, when it is desired to display the stereoscopic display 19 at a position close to the
Thereby, the person who saw the two-layer
なお、このDFD錯視現象を利用して立体表示物を表示する3次元表示装置については、以下の文献に記載されており、3次元表示装置100による立体表示物の表示は、これら文献に記載されている技術を利用することで実現することができる。
<参考文献>
(1)“奥行き融合型メガネなし3Dディスプレイ” 高田英明 P1〜8
(2)特開2008−42745号公報
Note that a three-dimensional display device that displays a three-dimensional display object using the DFD illusion phenomenon is described in the following documents, and the display of the three-dimensional display object by the three-
<References>
(1) “3D display without depth fusion glasses” Hideaki Takada P1-8
(2) JP 2008-42745 A
次に、図6を参照して、本実施形態に係る3次元表示装置100と2次元表示装置200の構成の一例について説明する。なお、本実施形態において、遠隔地側にある2次元表示装置200が第2地点にいるユーザCを撮影した映像を、第1地点の現在地側にある3次元表示装置100に表示する例を説明する。
Next, an example of the configuration of the three-
図6に示す通り、遠隔地側の2次元表示装置200は、上述の構成に加え、顔形状生成部203と、テクスチャ情報取得部204と、顔傾き情報生成部205と、3次元顔モデル生成部206と、通信部207と、マイク208とを備える。
As shown in FIG. 6, in addition to the above-described configuration, the two-
カメラ22は、例えば、2次元表示装置200の前で2次元画像表示ディスプレイ21の表示画面を見ながら第1地点のユーザA、Bと対話をしているユーザCを撮影する。このカメラ22は、撮影対象であるユーザCを撮影した映像(遠隔側の参加者の顔の映像)を示す顔画像データを、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する。なお、顔画像データとは、本実施形態においては、ユーザCの顔を含む映像であるが、本発明はこれに限られず、少なくとも一人の人間の顔を含む画像データであればよい。
For example, the
距離センサ23は、撮像対象の位置情報を測定するセンサであって、例えば、距離センサ23とユーザCの顔付近の奥行き方向Zの距離を測定する。例えば、図1に示す通り、ユーザCが2次元表示装置200と対面している場合、ユーザCの顔付近との奥行き方向の距離は、顔奥行き距離情報R1で示される。なお、この顔奥行き距離R1には、上述の通り、顔付近に存在する顔に含まれる部分(鼻や目、口、輪郭、髪の毛、頭等)とのそれぞれの距離が含まれている。
よって、この距離センサ23は、撮影対象であるユーザCに対する奥行き方向Zの距離を測定し、ユーザCの顔付近との奥行き方向Zの距離として顔奥行き距離情報R1を測定し、この顔奥行き距離情報R1を含む距離情報を、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する。
The
Therefore, the
顔形状生成部203は、距離センサ23から入力する距離情報に基づき、ユーザCの3次元的な顔の形状を示す顔形状情報を生成する。例えば、距離センサ23の測定エリア内に存在する測定対象物のうち、最も近くに存在する測定対象物と距離センサ23との距離情報に基づき、この顔形状生成部203は、測定対象物の凹凸形状を示す情報を取得する。なお、顔形状生成部203は、取得した情報が示す測定対象物の凹凸形状が示す特徴に基づき、人の顔らしい特徴を示す凹凸形状を示す測定対象物を人の顔であると判断するものであってもよい。顔形状生成部203は、取得した測定対象物の凹凸形状を示す情報に基づき、人の顔の形状を示す顔形状情報を生成する。
The face
テクスチャ情報取得部204は、カメラ22から入力する顔画像データに基づき、人物の顔の画像についてのテクスチャ情報(膚の色や目や髪の色などを示す情報)を取得し、3次元顔モデル生成部206に出力する。このテクスチャ情報取得部204は、例えば、顔画像データに対して顔検出処理を行い、顔の画像を検出する。テクスチャ情報取得部204は、検出された顔の画像に対応する画像データを解析して、テクスチャ情報を取得する。このテクスチャ情報は、顔の表面の視覚的な色や明るさの均質さや、触覚的な比力の強弱を感じる部分的は変化を表現する情報であって、例えば、実空間の水平方向Xと垂直方向Yと奥行き方向Zに応じたテクスチャ座標で示される情報である。
なお、この顔の検出方法としては、例えば、予め決められた人物の顔を示すパターン情報と比較してパターン情報と近似する画像領域を顔の画像として検出するパターン認識等が利用可能である。
The texture
As the face detection method, for example, pattern recognition that detects an image region that approximates pattern information as compared with pattern information indicating a predetermined person's face as a face image can be used.
顔傾き情報生成部205と、距離センサ23から入力する距離情報に基づき、2次元画像表示ディスプレイ21の表示画面、あるいは、カメラ22の撮像面に対して、人物の顔が向いている方位角を示す顔傾き情報を算出する。この顔傾き情報生成部205は、上述の通り、測定対象である顔の各部分から検出される部分間の距離が非対称となる割合に応じて、ユーザの顔の向きを示す方位角を検出して、顔傾き情報を算出する。
なお、顔傾き情報生成部205は、顔形成部203による解析によって得られた顔画像データに含まれる人物の顔を示す情報を入力する構成であってもよい。この顔傾き情報生成部205は、この顔を示す情報に基づき、当該人物の顔が存在する実空間上の位置を推測して、当該実空間上の位置に対応する部分から測定される距離情報に基づき、各人物の顔が向いている方位角を示す顔傾き情報を算出する。
Based on the distance information input from the face inclination information generation unit 205 and the
Note that the face inclination information generation unit 205 may be configured to input information indicating the face of a person included in the face image data obtained by the analysis by the
3次元顔モデル生成部206は、テクスチャ情報取得部204から入力するテクスチャ情報と、顔形状生成部203から入力する顔形状情報に基づき、3次元顔モデルデータを生成する。この3次元顔モデルデータは、顔形状情報が示す3次元的な顔のモデル(顔の凹凸形状を示す)に、テクスチャ情報が示すテクスチャ(膚の色や目や髪の色など)を貼りつけたデータである。
The three-dimensional face
通信部207は、3次元顔モデル生成部206から入力する3次元顔モデルデータと、顔傾き情報生成部205から入力する顔傾き情報とを対応付けて映像情報として、3次元表示装置100に送信する。この通信部207は、マイク208が取得する音声を示す音声情報を入力し、この映像情報に対応づけて、3次元表示装置100に送信する。
The
3次元表示装置100は、上述の構成に加え、通信部101と、表示制御部103と、パネル駆動部104と、バックライト駆動部105を備える。
通信部101は、ネットワークNWを介して2次元表示装置200と接続され、2次元表示装置200から送信される音声情報および映像情報を受信する。
スピーカー14は、通信部101が受信した音声情報を入力し、当該音声情報に基づく音声を発生させる。
The three-
The
The
表示制御部103は、通信部101が受信した映像情報を入力し、当該映像情報に基づく映像を二層積層表示ディスプレイ11に表示させる。この表示制御部103は、映像情報に含まれる映像信号を輝度信号あるいは顔傾き角情報に基づき、二層積層表示ディスプレイ11の前面表示素子16に映像情報に基づく映像を出力させるための前面表示素子駆動信号と、二層積層表示ディスプレイ11の後面表示素子17に映像情報に基づく映像を出力させるための後面表示素子駆動信号を、パネル駆動部104に出力する。また、表示制御部103は、映像情報に含まれる輝度信号に基づきバックライト18の輝度を制御するバックライト駆動信号を、バックライト駆動部105に出力する。
The
パネル駆動部104は、入力する前面表示素子駆動信号および後面表示素子駆動信号に基づき、前面表示素子16および後面表示素子17を駆動させる。
バックライト駆動部105は、入力するバックライト駆動信号に基づき、バックライト18を駆動する。
二層積層表示ディスプレイ11は、上述の通り、DFD錯視現象を利用して、前面表示素子16と後面表示素子17の奥行き方向の融合と、輝度の割合による連続的な奥行きの表現に基づき、3次元映像を表示する。
The
The
As described above, the two-layer stacked
表示制御部103の処理について、図7を参照して説明する。
例えば、ユーザCの顔が方位角+αに対応する向きで2次元表示装置200のカメラ22と向き合っている場合、ユーザの顔の傾き角が+αであることを示す顔傾き情報を、表示制御部103が入力する。
なお、表示制御部103に入力する映像情報の3次元顔モデルデータは、図示の通り、カメラ22が撮影するように人物の右側を向いているモデルデータである。
つまり、表示制御部103は、ユーザの顔の傾き角+αを示す顔傾き情報と、図示の通り人物の右側を向いているユーザCの顔を示す3次元顔モデルデータとを含む映像情報を入力する。
The processing of the
For example, when the face of the user C faces the
Note that the three-dimensional face model data of the video information input to the
That is, the
この表示制御部103は、顔傾き情報に基づき、3次元顔モデルデータを補正して、正面方向から見たときの正面顔の3次元モデルデータを生成する。例えば、表示制御部103は、人物の右側を向いているモデルデータを、正面を向いているモデルデータに変換する。
The
この表示制御部103は、正面を向いているモデルデータを、その奥行きに比例して輝度の分配を行うことで、前面画像データおよび後面画像データを生成する。具体的にいうと、表示制御部103は、距離センサ23によって検出される距離に応じて輝度値を決定し、前面画像データにおいては、検出される距離がより近い画像部分に対して輝度を高くし、検出される距離がより遠い画像部分に対して輝度を低くする。このため、より遠い画像部分は輝度値を0とすることで画像が表示されなくなる。一方、表示制御部103は、前面画像データに対してはこれと逆に、検出される距離がより近い画像部分に対して輝度を低くし、検出される距離がより遠い画像部分に対して輝度を高くする。
The
この表示制御部103は、顔傾き情報に基づき、前面画像データおよび後面画像データを補正する。表示制御部103は、顔傾き情報が示す顔の向いている方位角(顔傾き角)に応じて、前面画像データと後面画像データの重なっている角度をずらす補正を行う。
例えば、表示制御部103は、顔傾き情報が示す方位角に基づき、遠隔側の2次元表示装置200のカメラ22によって撮影されるユーザの向きを判断する。図1に示すように、遠隔地側のユーザCの顔が、2次元表示装置200の2次元画像表示ディスプレイ21に表示されている画面内において、現在地側のユーザBの方を向いているとする。この場合、表示制御部103は、前面画像データおよび後面画像データを、ユーザBがいる位置から二層積層表示ディスプレイ11を見ると表示対象であるユーザCの正面の顔となるように補正する。
The
For example, the
この補正について、図8を参照して具体的に説明する。図8は、遠隔側の2次元表示装置200の2次元画像表示ディスプレイ21とユーザCとの関係と、現在地側の3次元表示装置100の二層積層表示ディスプレイ11とユーザA、Bとの関係を、上から見た状態で示す図である。
図8に示す通り、遠隔地側のユーザCの顔が、2次元表示装置200の2次元画像表示ディスプレイ21およびカメラ22に対して、方位角αだけユーザの右方向に回転している。このため、表示制御部103は、顔傾き情報に基づき、遠隔側の2次元表示装置200のカメラ22によって撮影されるユーザの向きが方位角+αであることを判断する。
This correction will be specifically described with reference to FIG. FIG. 8 shows the relationship between the two-
As shown in FIG. 8, the face of the user C on the remote site side is rotated to the right of the user by the azimuth angle α with respect to the two-dimensional
この表示制御部103は、顔傾き情報が示す方位角+αだけ前面表示画像と後面表示画像を相対的にずらす補正をする。つまり、図示の通り、表示制御部103は、前面表示画像と後面表示画像がその画像内容が一致するように重なり合う直線上に、ユーザBが位置すると推定される位置が重なるように補正する。言い換えると、正面顔の3次元モデルデータが示す正面顔の一部である前面表示画像FDと、その他の部分である後面表示画像RDにおいて、例えばそれぞれの鼻の頂点に対応する部分を鼻部分N1、N2とする。この後面表示画像RDの鼻部分N2と、ユーザBがいるであろうと推定される位置とを結ぶ直線上に、前面表示画像FDの鼻部分N1が位置するように、表示制御部103が、前面表示画像FDと後面表示画像RDの表示位置を相対的に補正する。
なお、表示制御部103は、以下の式に従って、補正するずれ量dを算出することにより、上述のような補正を実現することができる。
The
Note that the
d = L・tan(α) ・・・式(1)
ただし、dは補正するずれ量、αはユーザの顔の傾き角をそれぞれ示す。また、Lは前面表示素子16と後面表示素子17との距離を示し、前面表示素子16と後面表示素子17とを積層した状態の厚さに等しい。
d = L · tan (α) (1)
Here, d represents the amount of deviation to be corrected, and α represents the inclination angle of the user's face. L represents the distance between the
つまり、表示制御部103は、顔傾き情報が示す方位角に応じて算出されるすれ量dだけ、前面表示画像FDと後面表示画像LDを相対的にずらす補正をする。
これにより、ユーザBが二層積層表示ディスプレイ11を見ると、ユーザCと視線が一致しているように認識することができ、ユーザAが二層積層表示ディスプレイ11を見ると、ユーザCの顔がユーザBの方に傾いているように認識することができる。
That is, the
Accordingly, when the user B looks at the two-layer stacked
次に、図9を参照して、本実施形態に係る表示方法の一例について説明する。図9は、本実施形態に係る表示方法の一例について説明するためのフローチャートである。ここでは、遠隔地側の2次元表示装置200によって撮影された画像データを、現在地側の3次元表示装置100に表示するための表示方法を例に説明する。
Next, an example of the display method according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart for explaining an example of the display method according to the present embodiment. Here, a display method for displaying image data captured by the two-
まず、遠隔地側の2次元表示装置200の処理について説明する。
この遠隔地側の2次元表示装置200のカメラ22が、2次元画像表示ディスプレイ21の表示画面の前にいるユーザCを撮影する。このカメラ22は、撮影対象であるユーザCを撮影した映像を示す顔画像データを取得し、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する(ステップST1)。
次いで、テクスチャ情報取得部204が、カメラ22から入力する顔画像データに基づき、人物の顔の画像についてのテクスチャ情報を取得し、3次元顔モデル生成部206に出力する(ステップST2)。
First, processing of the two-
The
Next, the texture
一方、カメラ22がユーザCを撮影したタイミングと同じタイミングで、距離センサ23が、撮像対象の位置情報を測定する(ステップST3)。この距離センサ23は、ユーザCの顔付近との奥行き方向Zの距離として顔奥行き距離情報R1を測定し、この顔奥行き距離情報R1を含む距離情報を、顔形状生成部203とテクスチャ情報取得部204に、それぞれ出力する。
On the other hand, the
次いで、顔形状生成部203が、カメラ22から入力する顔画像データと、距離センサ23から入力する距離情報に基づき、ユーザCの3次元的な顔の形状を示す顔形状情報を生成し、3次元顔モデル生成部206に出力する(ステップST4)。
Next, the face
そして、3次元顔モデル生成部206が、テクスチャ情報取得部204から入力するテクスチャ情報と、顔形状生成部203から入力する顔形状情報に基づき、3次元顔モデルデータを生成する(ステップST5)。
Then, the 3D face
次いで、顔傾き情報生成部205は、距離センサ23から入力する距離情報に基づき、2次元画像表示ディスプレイ21の表示画面に対して、人物の顔が向いている方位角を示す顔傾き情報を算出する。この顔傾き情報生成部205は、例えば、測定対象である顔の各部分から検出される距離が非対称となる割合に応じて、ユーザの顔の向きを示す方位角+αを検出して、この方位角+αを示す顔傾き情報を算出する(ステップST6)。
Next, the face inclination information generation unit 205 calculates face inclination information indicating the azimuth angle of the person's face with respect to the display screen of the two-
そして、通信部207が、3次元顔モデル生成部206から入力する3次元顔モデルデータと、顔傾き情報生成部205から入力する顔傾き情報とを対応付けて映像情報として、3次元表示装置100に送信する。この通信部207は、マイク208が取得する音声を示す音声情報を入力し、この映像情報に対応づけて、3次元表示装置100に送信する。
Then, the
次いで、3次元表示装置100の処理に移行する。
この3次元表示装置100の通信部101は、ネットワークNWを介して、2次元表示装置200から送信される音声情報および映像情報を受信し、表示制御部103に出力する。
Next, the process proceeds to the processing of the three-
The
この表示制御部103は、顔傾き情報に基づき、映像情報である3次元顔モデルデータを補正して、正面方向から見たときの正面顔の3次元モデルデータを生成する。そして、表示制御部103は、正面顔の3次元モデルデータを、モデルデータが示す奥行きに比例した輝度の分配を行い、前面表示画像データと後面表示画像データを生成する(ステップST7)。
The
次いで、表示制御部103は、顔傾き情報に基づき、遠隔側の2次元表示装置200のカメラ22によって撮影されるユーザCの顔の向きが、方位角+αであることを判断する。
具体的にいうと、表示制御部103は、顔傾き情報に基づき、顔の向きを示す方位角が0度であるか否かを判断し、0度でない場合、以下のような補正をすることを判断する。一方、顔の向きを示す方位角が0度である、以下のような補正はしないと判断する。
Next, the
Specifically, the
ここで、表示制御部103は、顔傾き情報が示す方位角+αが0度でないため、方位角+αだけ前面表示画像と後面表示画像を相対的にずらす補正を行い、補正された前面表示画像データと補正された後面表示画像データを、それぞれ前面表示素子16と後面表示素子17に出力する(ステップST8)。
Here, since the azimuth angle + α indicated by the face tilt information is not 0 degrees, the
そして、前面表示素子16は、入力する補正された前面表示画像データに基づき補正された表示位置に前面表示画像を表示する(ステップST9)。後面表示素子17は、入力する補正された後面表示画像データに基づき補正された表示位置に後面表示画像を表示する(ステップST10)。
Then, the
このように、表示制御部103は、顔傾き情報が示す顔の向いている角度(方位角)に応じて、前面画像データと後面画像データの重なっている角度をずらす補正を行う。
これにより、正面顔の3次元モデルデータが示す正面顔の一部である前面表示画像FDと、その他の部分である後面表示画像RDにおいて、例えばそれぞれの鼻の頂点に対応する鼻部分N1、N2が、ユーザBがいるであろうと推定される位置と直線で結ばれる位置に表示される。
よって、この直線上に位置するユーザBは、ユーザCが自分の方をみているように認識することができ、ユーザAは、ユーザCの顔がユーザBの方をみているように認識することができる。
As described above, the
Accordingly, in the front display image FD that is a part of the front face indicated by the three-dimensional model data of the front face and the rear display image RD that is the other part, for example, the nose portions N1 and N2 corresponding to the vertices of the nose, respectively. Is displayed at a position that is connected with a position estimated to be the user B by a straight line.
Therefore, the user B located on this straight line can recognize that the user C is looking at him / her, and the user A is recognized as if the face of the user C is looking at the user B. Can do.
また、上述の通り、本実施形態に係る3次元表示装置は、二層積層表示ディスプレイ11の指向性と、前面表示素子16と後面表示素子17の映像のずれによる方向の制御を用いることにより、細かな方向を表現することができる。
また、テレビ会議のシステムにおいて本実施形態に係る3次元表示装置が利用されることで、ディスプレイの中に映像として表示されている会議参加者の顔の向きを、直感的に映像を見ている人に理解させ、会話している相手を正しく理解させることができる。
Further, as described above, the three-dimensional display device according to the present embodiment uses the directivity of the two-layer stacked
In addition, by using the three-dimensional display device according to the present embodiment in the video conference system, the user can intuitively view the direction of the face of the conference participant displayed as the video on the display. You can make people understand and understand who you are talking to correctly.
なお、本発明は上記構成に限られず、例えば、以下のような構成であってもよい。
例えば、前面表示画面と後面表示画面のずれ量dが予め決められた閾値よりも大きくなる場合、立体的に表示された立体表示物の前面表示画面と後面表示画面の一体性が失われ、まとまりのある立体表示物に見えない。よって、この閾値を予め設定しておき、表示制御部103が算出したずれ量dが閾値以上となる場合、二層積層表示ディスプレイ11を回転可能に支持する回転台を動作させる構成であってもよい。このように、回転台を回転させる処理も併せて利用することで、広範囲に視線を向けることができ、テレビ会議に参加するユーザが多くなり、顔の向きが広範囲に及ぶ場合であって対応することができる。
また、本発明は上記構成に限られず、遠隔地側にある表示装置は、2次元表示装置200に限られず、3次元表示装置100と同様の構成を有する3次元表示装置あってもよい。
In addition, this invention is not restricted to the said structure, For example, the following structures may be sufficient.
For example, when the shift amount d between the front display screen and the rear display screen is larger than a predetermined threshold value, the unity of the front display screen and the rear display screen of the stereoscopic display object displayed in a three-dimensional manner is lost. It cannot be seen as a three-dimensional display object. Therefore, even if the threshold value is set in advance and the shift amount d calculated by the
The present invention is not limited to the above-described configuration, and the display device on the remote location side is not limited to the two-
なお、上述した実施形態において、3次元表示装置100と3次元表示装置200による機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、符号化処理、及び復号化処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
In the embodiment described above, a program for realizing the functions of the three-
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
100・・・現在地側の3次元表示装置、11・・・二層積層表示ディスプレイ、16・・・前面表示素子、17・・・後面表示素子、18・・・バックライト、14・・・スピーカー、101・・・通信部、103・・・表示制御部、104・・・パネル駆動部、105・・・バックライト駆動部、200・・・遠隔地側の2次元表示装置、22・・・カメラ、23・・・距離センサ、203・・・顔形状生成部、204・・・テクスチャ情報取得部、205・・・顔傾き情報生成部、206・・・3次元顔モデル生成部、207・・・通信部、208・・・マイク
DESCRIPTION OF
Claims (4)
対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部と、
前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換し、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成し、観測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくずれ量で前記第1表示画像と前記第2表示画像とを相対的にずらす補正をして、前記第1表示素子および前記第2表示素子に表示させる表示制御部と、
を備えることを特徴とする表示装置。 An input unit for inputting azimuth information indicating the orientation of the face of the display target with respect to the camera that captures the display target, and three-dimensional face model data obtained by the camera capturing the display target ;
A display unit that includes a first display element and a second display element that are arranged to face each other, and that displays the display object in three dimensions;
Based on the orientation information, the 3D face model data is converted into a 3D face model of the front face when the display object is viewed from the front direction, and the first display element displays the 3D face model of the front face. second generating and displaying an image, observation have the azimuth information so that viewed from the position am with the face in front of a person which is the display target, wherein the first display image second display device displays the and relatively shifting correction and said second display image and the first display image in displacement amount based, a display control unit for displaying on the first display element and the second display element,
A display device comprising:
前記正面顔の3次元顔モデルに対して、前記方位情報が示す前記表示対象の顔の奥行きに比例した輝度の分配を行うことにより、前記第1表示画像と前記第2表示画像を生成することを特徴とする請求項1に記載の表示装置。 Before Symbol display control unit,
Against 3-dimensional face model of the frontal face, by performing distribution of brightness proportional to the depth of the face of the display object where the orientation information indicates, that generates the second display image and the first display image the display device according to claim 1, wherein the this.
前記表示対象と前記カメラとの距離を測定して距離情報を出力する距離センサと、
前記画像データに基づき前記3次元顔モデルデータを生成する3次元顔モデル生成部と、
前記距離情報に基づき前記方位情報を生成する方位情報生成部と、
をさらに備えることを特徴とする請求項1あるいは2に記載の表示装置。 A camera for photographing the display object and outputting image data;
A distance sensor that measures the distance between the display object and the camera and outputs distance information;
A three-dimensional face model generation unit that generates the three-dimensional face model data based on the image data ;
And azimuth information generating unit that generates the azimuth information on the basis of said distance information,
The display device according to claim 1, further comprising:
前記第1表示装置が、
前記カメラによって前記表示対象を撮影して当該表示対象である人物の顔を表わす画像データを得るステップと、
前記表示対象と前記カメラとの距離を測定して距離情報を得るステップと、
前記画像データに基づき3次元顔モデルデータを生成するステップと、
前記距離情報に基づき、前記表示対象を撮影するカメラに対する前記表示対象の顔の向きを示す方位情報を生成するステップと、
前記3次元顔モデルデータと前記方位情報とを前記第2表示装置に送信するステップと、
前記第2表示装置が、
前記3次元顔モデルデータと前記方位情報とを受信するステップと、
前記方位情報に基づき前記3次元顔モデルデータを前記表示対象を正面方向から見たときの正面顔の3次元顔モデルに変換するステップと、
対向して配置されている第1表示素子と第2表示素子を備え、前記表示対象を立体的に表示する表示部が表示する表示画像として、前記正面顔の3次元顔モデルから前記第1表示素子が表示する第1表示画像と前記第2表示素子が表示する第2表示画像とを生成するステップと、
観測者がいる位置から見ると前記表示対象である人物の正面の顔となるように前記方位情報に基づくズレ量で前記第1表示画像と前記第2表示画像とを相対的にずらす補正をして、前記第1表示素子および前記第2表示素子に表示させるステップと、
を備えることを特徴とする表示方法。 The display target is three-dimensionally displayed on a second display device placed at a second point different from the first point based on information indicating the display subject photographed by the camera of the first display device placed at the first point. In the display method to display,
The first display device is
Photographing the display object with the camera to obtain image data representing the face of the person who is the display object;
Measuring the distance between the display object and the camera to obtain distance information;
Generating three-dimensional face model data based on the image data;
Generating azimuth information indicating the orientation of the face of the display target with respect to the camera that captures the display target based on the distance information;
And transmitting said azimuth information and the 3-dimensional face model data to the second display device,
The second display device
Receiving and the azimuth information and the 3-dimensional face model data,
Converting the three-dimensional face model data into a three-dimensional face model of a front face when the display object is viewed from the front direction based on the orientation information;
As a display image displayed by a display unit that includes a first display element and a second display element that are arranged to face each other and displays the display target in a three-dimensional manner, the first display from the three-dimensional face model of the front face Generating a first display image displayed by the element and a second display image displayed by the second display element ;
The observation sees from the position am with the display is the object relatively shifting correction and said second display image and the first display image in shift amount based on the orientation information so as to face the front of the person And displaying on the first display element and the second display element;
A display method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010112303A JP5478357B2 (en) | 2010-05-14 | 2010-05-14 | Display device and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010112303A JP5478357B2 (en) | 2010-05-14 | 2010-05-14 | Display device and display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011242458A JP2011242458A (en) | 2011-12-01 |
JP5478357B2 true JP5478357B2 (en) | 2014-04-23 |
Family
ID=45409206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010112303A Expired - Fee Related JP5478357B2 (en) | 2010-05-14 | 2010-05-14 | Display device and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5478357B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104007811B (en) * | 2013-02-27 | 2017-05-31 | 纬创资通股份有限公司 | Electronic device and image adjusting method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017027477A (en) * | 2015-07-24 | 2017-02-02 | 株式会社オプティム | Three-dimensional output server, three-dimensional output method, and program for three-dimensional output server |
JPWO2017094543A1 (en) * | 2015-12-02 | 2018-09-20 | セイコーエプソン株式会社 | Information processing apparatus, information processing system, information processing apparatus control method, and parameter setting method |
JP6788845B2 (en) * | 2017-06-23 | 2020-11-25 | パナソニックIpマネジメント株式会社 | Remote communication methods, remote communication systems and autonomous mobile devices |
CN109947236A (en) * | 2017-12-21 | 2019-06-28 | 艾力普提实验室公司 | The method and apparatus of content on the display of controlling electronic devices |
JP2020009295A (en) * | 2018-07-11 | 2020-01-16 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2023181634A1 (en) * | 2022-03-24 | 2023-09-28 | ソニーグループ株式会社 | Information processing device, information processing method, and recording medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4589277B2 (en) * | 2006-08-09 | 2010-12-01 | 日本電信電話株式会社 | 3D display method |
JP2009089324A (en) * | 2007-10-03 | 2009-04-23 | Nippon Telegr & Teleph Corp <Ntt> | Video conference system and program, and recoding medium |
JP5071041B2 (en) * | 2007-10-23 | 2012-11-14 | セイコーエプソン株式会社 | Display device and electronic device |
-
2010
- 2010-05-14 JP JP2010112303A patent/JP5478357B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104007811B (en) * | 2013-02-27 | 2017-05-31 | 纬创资通股份有限公司 | Electronic device and image adjusting method |
Also Published As
Publication number | Publication date |
---|---|
JP2011242458A (en) | 2011-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10325400B2 (en) | Virtual viewpoint for a participant in an online communication | |
US20200344500A1 (en) | Three-dimensional telepresence system | |
JP5478357B2 (en) | Display device and display method | |
JP6285941B2 (en) | Controlled 3D communication endpoint | |
US10171792B2 (en) | Device and method for three-dimensional video communication | |
US8743187B2 (en) | Three-dimensional (3D) imaging based on MotionParallax | |
JP2014511049A (en) | 3D display with motion parallax | |
JP5237234B2 (en) | Video communication system and video communication method | |
WO2017094543A1 (en) | Information processing device, information processing system, method for controlling information processing device, and method for setting parameter | |
JP2011090400A (en) | Image display device, method, and program | |
Gotsch et al. | TeleHuman2: A Cylindrical Light Field Teleconferencing System for Life-size 3D Human Telepresence. | |
JPH10327431A (en) | Image generating method in virtual space, its device and image pickup device | |
JP4619216B2 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
US20100123716A1 (en) | Interactive 3D image Display method and Related 3D Display Apparatus | |
JP2011113206A (en) | System and method for video image communication | |
TWI486052B (en) | Three-dimensional image processing device and three-dimensional image processing method | |
JP2842735B2 (en) | Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof | |
US20200252585A1 (en) | Systems, Algorithms, and Designs for See-through Experiences With Wide-Angle Cameras | |
JP6200316B2 (en) | Image generation method, image generation apparatus, and image generation program | |
JP5485102B2 (en) | COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM | |
WO2017163649A1 (en) | Image processing device | |
JP5520774B2 (en) | COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM | |
JP6179282B2 (en) | 3D image display apparatus and 3D image display method | |
WO2012169220A1 (en) | 3d image display device and 3d image display method | |
JP2012244433A (en) | Image presentation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121004 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130605 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5478357 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |