JP4595313B2 - Imaging display apparatus and method, and image transmission / reception system - Google Patents

Imaging display apparatus and method, and image transmission / reception system Download PDF

Info

Publication number
JP4595313B2
JP4595313B2 JP2003385549A JP2003385549A JP4595313B2 JP 4595313 B2 JP4595313 B2 JP 4595313B2 JP 2003385549 A JP2003385549 A JP 2003385549A JP 2003385549 A JP2003385549 A JP 2003385549A JP 4595313 B2 JP4595313 B2 JP 4595313B2
Authority
JP
Japan
Prior art keywords
image
display
cameras
imaging
pixel position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003385549A
Other languages
Japanese (ja)
Other versions
JP2005149127A (en
Inventor
祐介 阪井
偉国 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003385549A priority Critical patent/JP4595313B2/en
Publication of JP2005149127A publication Critical patent/JP2005149127A/en
Application granted granted Critical
Publication of JP4595313B2 publication Critical patent/JP4595313B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、例えばテレビ会議システム或いはテレビ電話システム等に適用され、ネットワークを介して画像を双方向で送受信する画像送受信システム、並びに送受信する画像を撮像して、窓ガラスと同様な空間接続効果を得るためにこれを再構成する撮像表示装置及び方法に関する。   The present invention is applied to, for example, a video conference system or a video phone system, and an image transmission / reception system for bidirectionally transmitting / receiving an image via a network, and an image to be transmitted / received are captured, and a spatial connection effect similar to that of a window glass The present invention relates to an imaging display device and method for reconfiguring this to obtain.

テレビ電話システムやテレビ会議システム等に代表されるように、複数のユーザが互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムが提案されている。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の端末装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。   As represented by a videophone system, a video conference system, and the like, a system has been proposed in which a plurality of users can remotely interact with each other while viewing a display image of the other party from a location apart from each other. In such a system, a display image of the other party is displayed on the display, and a user who visually recognizes the display is imaged as a subject to be photographed, and the obtained image signal is transmitted through a network such as a public line or a dedicated line. By transmitting to the terminal device, it is possible to give both users a sense of reality.

従来におけるテレビ会議システムでは、ディスプレイの中心付近に写し出される相手の表示像を視認するユーザを、ディスプレイ上部にあるカメラにより撮像するため、ユーザが下を向いた状態の画像が相手側のディスプレイ上に表示されることになる。このため、実際にディスプレイを視認するユーザ間において視線が不一致の状態で対話がなされることになり、互いに違和感を与えてしまうという問題がある。   In a conventional video conference system, a user who visually recognizes the display image of the other party displayed near the center of the display is captured by the camera at the top of the display, so that the image of the user facing down is displayed on the other party's display. Will be displayed. For this reason, there is a problem in that the users who actually view the display are interacted with each other in a state where their lines of sight are inconsistent, giving a sense of discomfort to each other.

理想的には、相手の表示像が写し出されるディスプレイの中心付近にカメラを設置すれば、双方のユーザの視線を一致させた状態で対話を実現することができる。しかしながら、かかるディスプレイの中心付近にカメラを設置することは物理的に困難である。   Ideally, if a camera is installed in the vicinity of the center of the display where the display image of the other party is projected, it is possible to realize a conversation in a state where the line of sight of both users is matched. However, it is physically difficult to install a camera near the center of such a display.

このような視線不一致に関する問題点を解決すべく、例えばハーフミラーを用いてカメラの向きと表示画面を合わせるテレビ電話装置(例えば、特許文献1参照。)、光透過状態と光散乱状態を制御できるスクリーンとプロジェクタを用いて時系列で表示と撮像を行う画像表示/制御装置(例えば、特許文献2参照。)、ホログラムスクリーンとプロジェクタを用いることにより、表示と撮像の双方を同時に実現できる撮像機能付き表示装置(例えば、特許文献3参照。)が提案されている。   In order to solve such a problem related to the line-of-sight mismatch, for example, a videophone device (for example, refer to Patent Document 1) that uses a half mirror to match the camera direction and the display screen, the light transmission state and the light scattering state can be controlled. An image display / control device that performs display and imaging in time series using a screen and a projector (see, for example, Patent Document 2), with an imaging function that can realize both display and imaging simultaneously by using a hologram screen and a projector. A display device (see, for example, Patent Document 3) has been proposed.

また、視線と顔の位置に応じて相手側のカメラの光軸を制御することにより、表示画面と視線を一致させる双方向通信システム、端末装置及び制御方法が提案されている(例えば、特許文献4参照。)。   In addition, a bidirectional communication system, a terminal device, and a control method have been proposed that match the line of sight with the display screen by controlling the optical axis of the camera on the other side according to the line of sight and the position of the face (for example, Patent Documents). 4).

また、ディスプレイの両側に配置された複数のカメラにより撮影された入力画像に基づいて被写体の3次元情報を抽出し、抽出した3次元情報と受信者の視点位置に関する情報に応じて被写体の出力画像を再構成し、これを相手側のディスプレイへ表示させる画像処理装置が提案されている(例えば、特許文献5参照。)。この画像処理装置では、一直線上に配置された複数のカメラ映像から生成されたエピポーラ平面画像を用いて画面中心の仮想視点カメラ映像を合成することにより、利用者の視線を一致させて臨場感の高いコミュニケーションを実現することができる。   Also, three-dimensional information of the subject is extracted based on input images taken by a plurality of cameras arranged on both sides of the display, and an output image of the subject is determined according to the extracted three-dimensional information and information on the viewpoint position of the receiver. Has been proposed (see Patent Document 5, for example). In this image processing apparatus, by synthesizing a virtual viewpoint camera image centered on the screen using an epipolar plane image generated from a plurality of camera images arranged on a straight line, the user's line of sight is made coincident and a sense of presence is realized. High communication can be realized.

また、観察者の視点位置に合わせた画像を入力された画像群より切り替えて表示し、観察者の視点位置に応じた画像を表示する画像処理方法及びその装置(例えば、特許文献6参照。)も提案されている。この画像処理方法等においても、対応点の探索を容易化すべく、同様にエピポーラ平面画像を用いることができる。
また、TV会議で互いの視線を一致させるべく、画面の左右に設置された2台のカメラで撮影した画像に基づいて3次元位置情報を生成する画像通信装置(例えば、特許文献7参照。)も提案されている。
In addition, an image processing method and apparatus for displaying an image according to the viewpoint position of the observer by switching and displaying an image according to the viewpoint position of the observer from the input image group (see, for example, Patent Document 6). Has also been proposed. In this image processing method or the like, an epipolar plane image can be similarly used to facilitate the search for corresponding points.
In addition, in order to match each other's line of sight in a video conference, an image communication apparatus that generates three-dimensional position information based on images taken by two cameras installed on the left and right of the screen (see, for example, Patent Document 7). Has also been proposed.

ところで、上述したテレビ会議システムでは、撮影現場に配設されたカメラにより撮像したカメラ視野内の画像を、異なる地点に設置された表示装置に伝送して表示させるシステムである。このため、当該表示装置に対するユーザの視認方向が変化する場合においても、表示される画像の内容は同一であるため、あたかも絵画を見ているような印象を与えてしまうという問題点もあった。   By the way, the above-described video conference system is a system in which an image in the camera field of view captured by a camera arranged at a shooting site is transmitted and displayed on a display device installed at a different point. For this reason, even when the viewing direction of the user with respect to the display device changes, the content of the displayed image is the same, so that there is a problem of giving an impression as if viewing a painting.

このため、ネットワークを介して離れた2つの空間に窓状撮像表示装置をそれぞれ設置することにより、それらの空間が窓を通じて1つにつながっているかのように感じさせるシステムが特に近年において提案されている(例えば、特許文献8参照。)。   For this reason, in recent years, a system has been proposed in which a window-like image display device is installed in two spaces separated via a network, and the space is felt as if they are connected together through a window. (For example, refer to Patent Document 8).

一般に窓ガラスを通して反対側にある物を視認する場合には、例えば図16に示すように窓ガラス面の位置(x、y)に角度(θ°、φ°)で入射した光は、そのパネルの同じ位置から角度(180°−θ、180°−φ°)で出射するようになっている。即ち、窓ガラスと同様な空間接続効果を得るためには、入射される光につき、角度(θ°、φ°)毎に輝度レベルを識別し、これら識別した輝度レベルを入射角(θ°、φ°)と関連付けて表示側に伝送する。そして表示側パネルの上記(x、y)に対応する位置から入射角(θ°、φ°)と180°位相のずれた光を識別した輝度レベルで出射する。   In general, when viewing an object on the opposite side through a window glass, for example, as shown in FIG. 16, light incident at an angle (θ °, φ °) on a position (x, y) on the window glass surface is Are emitted at angles (180 ° -θ, 180 ° -φ °) from the same position. That is, in order to obtain a spatial connection effect similar to that of a window glass, a luminance level is identified for each incident angle (θ °, φ °), and the identified luminance level is determined as an incident angle (θ °, (φ °) and transmit to the display side. Then, light that is 180 ° out of phase with the incident angle (θ °, φ °) is emitted from the position corresponding to the above (x, y) on the display side panel at the identified luminance level.

上記特許文献8において提案されている窓状撮像表示装置では、例えば図17に示すように、撮像表示パネルを2枚背中合わせにして配置する。この図17において、上側のパネルについては、撮像素子が形成されている部分を示し、下側のパネルについては表示素子が形成されている部分を示している。ちなみに、この撮像素子、表示素子共に同じ大きさの半球型の突出面表面に形成されている。   In the window-shaped imaging display device proposed in Patent Document 8, two imaging display panels are arranged back to back as shown in FIG. 17, for example. In FIG. 17, the upper panel shows a portion where an image sensor is formed, and the lower panel shows a portion where a display element is formed. Incidentally, both the image sensor and the display element are formed on the surface of a hemispherical protruding surface having the same size.

ここで入射光が図中矢印で示されるように右上方から左下方に向かって入ると、撮像表示パネルの半球型突出面上の右方向の対応する撮像素子に入射する。入射光の入射位置は、半球型突出面に番号(アドレス)を付しておくことにより特定することができ、入射角度はその突出面上の撮像素子の位置によって検出することができる。   Here, when incident light enters from the upper right to the lower left as indicated by the arrows in the figure, it enters the corresponding image sensor in the right direction on the hemispherical protruding surface of the image display panel. The incident position of incident light can be specified by assigning a number (address) to the hemispherical protruding surface, and the incident angle can be detected by the position of the image sensor on the protruding surface.

同図においては、k行j列にマトリックス配列された撮像素子群を構成する半球型突出面のa行目の(b−1),(b),(b+1)列目の突出面Ca1〜Cayが表示パネルT1(上側)に形成されている。また、k行j列マトリックス配列された表示素子群を構成する半球型突出面のa行目の(j−b+2)、(j−b+1)、(j−b)列目の突出面La1〜Layが表示パネルT2(下側)に形成されている。各表示パネルT1,T2は、互いに別々の場所W1、W2に設けられるようにしてもよい。   In the figure, the protrusion surfaces Ca1 to Cay of the (b-1), (b), and (b + 1) columns of the a-th row of the hemispherical protrusion surfaces constituting the imaging element group arranged in a matrix of k rows and j columns. Is formed on the display panel T1 (upper side). Further, the protrusion surfaces La1 to Ray of the (j−b + 2), (j−b + 1), and (j−b) columns of the a-th row of the hemispherical protrusion surfaces constituting the display element group arranged in the k-row and j-column matrix. Is formed on the display panel T2 (lower side). The display panels T1 and T2 may be provided at different locations W1 and W2.

図18は、半球型突出面に形成された表示素子群を詳細に示したものである。この図18(a)に示すように、半球型突出面上には撮像素子と表示素子の双方を搭載した撮像素子と表示素子の集成体として構成されている。また、これら撮像素子・表示素子集成体は、半球型突出面にLCD等で表示素子を形成し、その上を光透過性の層で覆い、さらにその上を仮想の表示素子と重ならないようにCCD等で撮像素子を形成し、隣接する撮像素子と表示素子を一対の素子として扱うようにしたものである。   FIG. 18 shows in detail the display element group formed on the hemispherical protruding surface. As shown in FIG. 18 (a), the hemispherical projecting surface is configured as an assembly of an image sensor and a display element on which both the image sensor and the display element are mounted. In addition, these image pickup element / display element assemblies are formed so that a display element is formed with an LCD or the like on a hemispherical projecting surface, and is covered with a light-transmitting layer, and further, it is not overlapped with a virtual display element. An image sensor is formed by a CCD or the like, and an adjacent image sensor and display element are handled as a pair of elements.

この表示素子を通過した光は、図18(b)に示すように直進するため、どのアドレスにある表示素子から出射された光であるかを識別することにより、その出射方向が特定されることになる。また図18(c)は、かかるLCD表示素子の駆動回路を示しており、レジスタRG1に駆動する表示素子の位置データをセットし、またレジスタRG2に走査データをセットする。   Since the light that has passed through the display element travels straight as shown in FIG. 18B, the emission direction can be specified by identifying the address at which the display element is emitted. become. FIG. 18C shows a driving circuit for such an LCD display element, in which position data of the display element to be driven is set in the register RG1, and scanning data is set in the register RG2.

また、上述した素子集成体を撮像表示パネル上に配列する例として、例えば図19に示すように、撮像素子集成体C11〜Ckjと表示素子集成体L11〜Lkjとを別々に形成する2素子タイプと、撮像素子と表示素子を1つの集成体として形成させた撮像表示素子D11〜Dkjからなる1素子タイプに大別されるが、何れのタイプを採用する場合においても、同タイプの各撮像表示パネルをネットワークを介して2つの異なる地点に設置することにより、光の入射される撮像素子のアドレスを識別することにより入射角を判別し、さらに入射される光につき輝度レベルを識別してこれを互いに送受信することができる。また表示素子から出射させる光の輝度レベル、出射各を相手側から受信した輝度レベル、入射角に合わせることにより、理想的な空間接続効果を得ることができ、これらをテレビ電話、テレビ会議システムへ応用することもできる。 As an example of arranging the above-described element assemblies on the imaging display panel, for example, as shown in FIG. 19, imaging element assemblies C 11 to C kj and display element assemblies L 11 to L kj are separately formed. The two-element type, and the one-element type composed of the imaging display elements D 11 to D kj in which the imaging element and the display element are formed as one assembly, but when any type is adopted, By installing each image display panel of the same type at two different points via a network, the incident angle is determined by identifying the address of the image sensor on which the light is incident, and the luminance level for the incident light Can be identified and sent to and received from each other. In addition, by matching the brightness level of light emitted from the display element, the brightness level received from the other party, and the incident angle, an ideal spatial connection effect can be obtained, and these can be used for videophones and videoconferencing systems. It can also be applied.

特開昭61−65683号公報Japanese Patent Laid-Open No. 61-65683 特開平4−11485号公報JP-A-4-11485 特開平9−168141号公報JP-A-9-168141 特開2000−83228号公報JP 2000-83228 A 特開2001−52177号公報JP 2001-52177 A 特開平7−296139号公報JP 7-296139 A 特開平7−99644号公報JP-A-7-99644 特開2002−300602号公報JP 2002-300602 A

しかしながら、上記特許文献8記載の窓状撮像表示装置では、撮像表示パネル上に表示素子と同数の撮像素子を配置する必要があるため、信号配線が複雑化し、また製造の難易度が向上するという問題点があった。また、表示素子から撮像素子に至るまでの光漏洩が生じる結果、上述した空間接続効果を高効率に得ることができないという問題点もあった。   However, in the window-shaped imaging display device described in Patent Document 8, since it is necessary to arrange the same number of imaging elements as display elements on the imaging display panel, the signal wiring becomes complicated and the manufacturing difficulty level is improved. There was a problem. Further, as a result of light leakage from the display element to the image pickup element, there is a problem that the above-described spatial connection effect cannot be obtained with high efficiency.

そこで、本発明は上述した問題点に鑑みて案出されたものであり、窓ガラスと同様な空間接続効果を得るための画像送受信システム、撮像表示装置及び方法において、特に撮像素子を省略することで装置構成の簡素化を図ることにより、製造の容易化を期待することができる撮像表示装置及び方法、画像送受信システムを提供することを目的とする。   Therefore, the present invention has been devised in view of the above-described problems, and in particular, an image sensor is omitted in an image transmission / reception system, an imaging display apparatus, and a method for obtaining a spatial connection effect similar to that of a window glass. Therefore, it is an object of the present invention to provide an imaging display device and method, and an image transmission / reception system that can be expected to facilitate manufacture by simplifying the device configuration.

本発明は、上述した問題点を解決するために、表示部の周囲に配設された少なくとも3台のカメラにより撮影対象を互いに異なる視点から撮像し、少なくとも上記各カメラにより撮像した各画像の法線方向を一方向に合わせることにより補正し、補正した各画像間において撮影対象と関連させつつ画素位置毎に対応付けを行い、仮想的に設置される仮想カメラにおける光学中心の各カメラに対する相対的な位置関係を示す相対位置情報を生成し、互いに対応付けした画素位置並びにその輝度成分から上記生成した相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求め、求めた画素位置並びにその輝度成分により構成される仮想視点画像をネットワークを介して送信し、ネットワークを介して他の電子機器において生成された仮想視点画像を受信し、受信した仮想視点画像を構成する各画素位置に応じて表示部における出射方向を指定し、仮想視点画像を構成する各画素位置における輝度成分に応じた光を、上記表示部から上記指定した出射方向へ出射することにより、表示部に撮像素子を形成させることなく空間接続効果を得る。   In order to solve the above-described problems, the present invention captures a subject to be photographed from different viewpoints by at least three cameras arranged around the display unit, and at least a method of each image captured by each of the cameras. Correction is performed by matching the line direction to one direction, and the corrected images are associated with each other while being associated with the object to be imaged, and relative to each camera at the optical center in the virtual camera that is virtually installed Relative position information indicating a specific positional relationship, and according to the relative position information generated from the pixel positions associated with each other and their luminance components, the pixel positions constituting the virtual viewpoint image to be generated by the virtual camera and the A luminance component is obtained, and a virtual viewpoint image composed of the obtained pixel position and the luminance component is transmitted via the network. Each of the pixels constituting the virtual viewpoint image by receiving the virtual viewpoint image generated in the other electronic device via the network, specifying the emission direction in the display unit according to each pixel position constituting the received virtual viewpoint image By emitting light in accordance with the luminance component at the position from the display unit in the designated emission direction, a spatial connection effect is obtained without forming an image sensor on the display unit.

即ち本発明を適用した撮像表示装置は、半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示手段と、上記表示手段の周囲に配設された少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像手段と、仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を他の電子機器へ送信し、又は当該他の電子機器により生成された仮想視点画像を受信する送受信手段と、上記送受信手段により受信された仮想視点画像を構成する各画素位置に応じて、上記表示手段において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示手段を制御する表示処理手段とを備え、上記画像補正手段は、上記情報生成手段により生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する。 That is, the imaging display device to which the present invention is applied has a two-dimensional array of protrusions in which a plurality of display elements are formed on a hemispherical protrusion surface, and selects an address assigned to the display element formed in each protrusion. The imaging object is different from each other by display means for displaying an image by emitting light according to a luminance component at a pixel position in a designated emission direction and at least four cameras arranged around the display means. Imaging means for imaging from a viewpoint, information generation means for generating relative position information indicating the relative positional relationship of the optical center of the virtual camera virtually installed with respect to each of the cameras, and images captured by at least each of the cameras Between the image correcting means for aligning the normal direction of each image in one direction and each image corrected by the image correcting means, the pixels are associated with the photographing object. A virtual viewpoint image to be generated by the virtual camera according to the generated relative position information from a matching unit that associates each position and a pixel position and a luminance component associated with each other by the matching unit. An image generation means for obtaining a pixel position and its luminance component to be configured, and a virtual viewpoint image constituted by the pixel position and its luminance component obtained by the image generation means are transmitted to another electronic device, or the other electronic A transmission / reception means for receiving a virtual viewpoint image generated by the device, and a display element for each protrusion two-dimensionally arranged in the display means according to each pixel position constituting the virtual viewpoint image received by the transmission / reception means. The display means is controlled so that emitted light corresponding to the luminance component at the pixel position is emitted by each display element. Display processing means, and the image correction means selects two sets of three cameras from the four cameras based on the relative position information generated by the information generation means, and selects the selected set. Every time, a projection transformation matrix for projecting the normal direction of each image captured by the three cameras onto a virtually set virtual plane is obtained, and the normal of each image is obtained based on the obtained projection transformation matrix. the combined direction in the normal direction of the virtual plane, when combined normal direction is different for each set, the commonly captured by one camera is not selected by the projective transformation matrix of each other pair so that a normal line in the same direction as that of the projected image on the basis of, corrects each normal line direction of the projected image based on the captured by the other three cameras the projective transformation matrix.

また、本発明を適用した撮像表示装置は、少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像手段と、半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示手段と、仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、上記画像生成手段により求められた仮想視点画像を構成する各画素位置に応じて、上記表示手段において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示手段を制御する表示処理手段とを備え、上記画像補正手段は、上記情報生成手段により生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する。 In addition, an imaging display device to which the present invention is applied has an imaging means for imaging a subject to be photographed from different viewpoints by at least four cameras, and a protruding portion in which a plurality of display elements are formed on a hemispherical protruding surface. Display means for displaying an image by selecting an address assigned to a display element formed in each protruding portion and emitting light according to a luminance component at a pixel position in a designated emission direction; Information generating means for generating relative position information indicating the relative positional relationship of the optical center with respect to each of the cameras in a virtual camera that is installed, and at least one normal direction of each image captured by each of the cameras Matching is performed for each pixel position between the image correction unit matched to the image and each image corrected by the image correction unit, in association with the shooting target. The pixel position and the luminance of the virtual viewpoint image to be generated by the virtual camera according to the generated relative position information from the pixel position and the luminance component associated with each other by the matching means and the matching means According to the image generation means for obtaining the component and each pixel position constituting the virtual viewpoint image obtained by the image generation means, the address of the display element is selected for each of the two-dimensionally arranged protrusions in the display means, Display processing means for controlling the display means so that emitted light corresponding to the luminance component of the pixel position is emitted by each display element, and the image correction means includes relative position information generated by the information generation means. based on, among four cameras, three cameras select two sets, for each set selected, the normal direction of the image captured by the three cameras The virtually determined projective transformation matrix for projective to set virtual plane, the normal direction of each image based on the projection transformation matrix determined in accordance with the normal direction of the virtual plane, for each set When the combined normal directions are different, the normal direction of the image captured by one camera not selected in common with each other and projected based on the projective transformation matrix is the same as the normal direction. The normal directions of the images captured by the other three cameras and projected based on the projective transformation matrix are corrected.

即ち、本発明を適用した撮像表示方法は、半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示部の周囲に配設された少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像ステップと、仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する生成ステップと、少なくとも上記各カメラにより撮像した各画像の法線方向を一方向に合わせることにより補正する画像補正ステップと、上記画像補正ステップにより補正した各画像間において上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、上記マッチングステップにより互いに対応付けした画素位置並びにその輝度成分から、上記情報生成ステップにより生成した相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップと、上記画像生成ステップにより求めた画素位置並びにその輝度成分により構成される仮想視点画像をネットワークを介して送信する送信ステップと、上記ネットワークを介して他の電子機器において生成された仮想視点画像を受信する受信ステップと、上記受信ステップにより受信した仮想視点画像を構成する各画素位置に応じて、上記表示部において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示部を制御する表示処理ステップとを有し、上記画像補正ステップでは、上記情報生成ステップにより生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する。 That is, in the imaging display method to which the present invention is applied, the projections having a plurality of display elements formed on the hemispherical projection surface are two-dimensionally arranged, and addresses assigned to the display elements formed in the projections are selected. Then, the imaging object is imaged from different viewpoints by at least four cameras arranged around the display unit that displays an image by emitting light according to the luminance component at the pixel position in the designated emission direction. An imaging step, a generation step for generating relative position information indicating a relative positional relationship of the optical center with respect to each of the cameras in a virtually installed virtual camera, and a normal direction of each image captured by at least each of the cameras The image correction step for correcting the image by aligning the image in one direction and the image to be imaged between the images corrected by the image correction step. The virtual camera should be generated according to the relative position information generated by the information generation step from the matching step for performing the association for each pixel position, the pixel position associated with each other by the matching step and the luminance component thereof. An image generation step for obtaining a pixel position and a luminance component thereof constituting a virtual viewpoint image, and a transmission step for transmitting a virtual viewpoint image constituted by the pixel position and the luminance component obtained by the image generation step via a network; A reception step of receiving a virtual viewpoint image generated in another electronic device via the network, and a two-dimensional array in the display unit according to each pixel position constituting the virtual viewpoint image received by the reception step. Select the address of the display element for each protruding part, and Display processing step for controlling the display unit so that emitted light corresponding to the luminance component of the display component is emitted by each display element. In the image correction step, the relative position information generated by the information generation step is added to the relative position information. Based on this, two sets of three cameras are selected from the four cameras, and a virtual plane in which the normal direction of each image captured by the three cameras is virtually set for each selected set calculated projective transformation matrix for projective to, when it the normal direction of the image based on the projection transformation matrix determined tailored to the normal direction of the virtual plane, the normal direction to suit each set is different from Imaged by the other three cameras so as to be in the same direction as the normal direction of the image captured by one camera not selected in common with each other and projected based on the projective transformation matrix. Based on the projective transformation matrix Each normal direction of the projected image is corrected.

また、本発明を適用した画像送受信システムは、各撮像表示装置により撮像した画像をネットワークを介して双方向で送受信する画像送受信システムであって、上記撮像表示装置は、半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示手段と、上記表示手段の周囲に配設された少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像手段と、仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を上記ネットワークを介して相手側の撮像表示装置へ送信し、又は相手側の撮像表示装置により生成された仮想視点画像を上記ネットワークを介して受信する送受信手段と、上記送受信手段により受信された仮想視点画像を構成する各画素位置に応じて、上記表示手段において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示手段を制御する表示処理手段とを有し、上記画像補正手段は、上記情報生成手段により生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する。 An image transmission / reception system to which the present invention is applied is an image transmission / reception system that bidirectionally transmits / receives an image captured by each imaging display device, and the imaging display device includes a plurality of hemispherical protrusion surfaces. The protrusions on which the display elements are formed are two-dimensionally arranged, and an address assigned to the display element formed on each protrusion is selected, and light corresponding to the luminance component at the pixel position is emitted in the designated emission direction. Display means for displaying an image, image pickup means for picking up a photographing object from different viewpoints by at least four cameras arranged around the display means, and optics in a virtual camera virtually installed Information generating means for generating relative position information indicating a relative positional relationship with respect to each camera at the center, and at least each image captured by each camera An image correcting unit that matches the normal direction of the image to one direction, a matching unit that associates each image position corrected by the image correcting unit for each pixel position while being associated with the photographing object, and the matching unit Image generation means for obtaining a pixel position and its luminance component constituting a virtual viewpoint image to be generated by the virtual camera according to the generated relative position information from the pixel position and its luminance component associated with each other by The virtual viewpoint image composed of the pixel position obtained by the image generation means and the luminance component thereof is transmitted to the partner imaging display device via the network, or the virtual viewpoint image generated by the partner imaging display device is generated. Transmission / reception means for receiving viewpoint images via the network, and virtual viewpoint images received by the transmission / reception means According to each pixel position to be configured, an address of the display element is selected for each of the two-dimensionally arranged protrusions in the display unit, and emitted light corresponding to the luminance component of the pixel position is emitted by each display element. Display processing means for controlling the display means, and the image correction means includes two sets of three cameras among the four cameras based on the relative position information generated by the information generation means. For each selected group, a projection transformation matrix for projecting the normal direction of each image captured by the three cameras onto a virtually set virtual plane is obtained, and based on the obtained projection transformation matrix When the normal direction of each image is matched with the normal direction of the virtual plane and the normal direction is different for each group, the camera is not selected in common with each other. Imaged and based on the projective transformation matrix Each normal direction of the image captured by the other three cameras and projected based on the projection transformation matrix is corrected so as to be in the same direction as the normal direction of the projected image.

本発明を適用した撮像表示装置及び方法、画像送受信システムは、撮像素子を省略することで装置構成の簡素化を図ることにより、製造の容易化を期待しつつ、窓ガラスと同様な空間接続効果を効率よく得ることができる。   The imaging display device and method, and the image transmission / reception system to which the present invention is applied have a spatial connection effect similar to that of a window glass, while simplifying the configuration of the device by omitting an imaging element, and expecting easy manufacturing. Can be obtained efficiently.

以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

本発明を適用した画像送受信システム1は、例えば図1に示すように、互いに異なるA,B地点に設置された各撮像表示装置2a,2bにより撮像した画像をネットワーク50を介して双方向で送受信することにより、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。   An image transmission / reception system 1 to which the present invention is applied, for example, as shown in FIG. 1, bi-directionally transmits and receives images captured by the imaging display devices 2 a and 2 b installed at different points A and B via a network 50. By doing so, it is a system for performing a remote dialogue while visually recognizing the display image of the other party from a location distant from each other.

A地点に設置される撮像表示装置2aは、撮影対象としてのユーザaを互いに異なる視点から撮像する8台のカメラ11a〜カメラ18aからなる撮像カメラ群10aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、撮像カメラ群10aより撮像された各画像Pa1〜Pa8に基づいて仮想視点画像Imaを生成する撮像信号処理部6aと、撮像信号処理部6aにおいて生成された仮想視点画像Imaを相手側の撮像表示装置2bへ送信し、又は当該撮像表示装置2bにより生成された仮想視点画像Imbを受信する送受信部7aと、送受信部7aにより受信された仮想視点画像Imbを構成する各画素位置に応じてディスプレイ5aにおける出力方向を指定する表示信号処理部8aとを備えている。   The imaging display device 2a installed at the point A includes an imaging camera group 10a including eight cameras 11a to 18a that capture the user a as a subject to be photographed from different viewpoints, and a user b captured at the point B side. An image signal processing unit 6a for generating a virtual viewpoint image Ima based on the images Pa1 to Pa8 captured by the imaging camera group 10a, and an imaging signal processing unit. The virtual viewpoint image Ima generated in 6a is transmitted to the partner imaging display device 2b, or the virtual viewpoint image Imb generated by the imaging display device 2b is received by the transmission / reception unit 7a and the transmission / reception unit 7a. A display signal processing unit 8a for designating an output direction in the display 5a according to each pixel position constituting the virtual viewpoint image Imb. To have.

B地点に設置される撮像表示装置2bは、撮影対象としてのユーザbを互いに異なる視点から撮像する8台のカメラ11b〜カメラ18bからなる撮像カメラ群10bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、撮像カメラ群10bより撮像された各画像Pb1〜Pb8に基づいて仮想視点画像Imbを生成する撮像信号処理部6bと、撮像信号処理部6bにおいて生成された仮想視点画像Imbを相手側の撮像表示装置2aへ送信し、又は当該撮像表示装置2aにより生成された仮想視点画像Imaを受信する送受信部7bと、送受信部7bにより受信された仮想視点画像Imaを構成する各画素位置に応じてディスプレイ5bにおける出力方向を指定する表示信号処理部8bとを備えている。   The imaging display device 2b installed at the point B includes an imaging camera group 10b including eight cameras 11b to 18b that capture the user b as an imaging target from different viewpoints, and a user a captured at the point A side. An image signal processing unit 6b that generates a virtual viewpoint image Imb based on the images Pb1 to Pb8 captured by the imaging camera group 10b, The virtual viewpoint image Imb generated in 6b is transmitted to the partner imaging display device 2a, or received by the transmission / reception unit 7b, which receives the virtual viewpoint image Ima generated by the imaging display device 2a. A display signal processing unit 8b for designating an output direction in the display 5b according to each pixel position constituting the virtual viewpoint image Ima. To have.

撮像カメラ群10aを構成するカメラ11a〜18aは、入射される被写体像を電気信号に変換した撮像信号に基づいてそれぞれ画像Pa1〜Pa8を生成する。また、撮像カメラ群10bを構成するカメラ11b〜18bは、入射される被写体像を電気信号に変換した撮像信号に基づいてそれぞれ画像Pb1〜Pb8を生成する。   The cameras 11a to 18a constituting the imaging camera group 10a generate images Pa1 to Pa8 based on imaging signals obtained by converting incident subject images into electrical signals, respectively. The cameras 11b to 18b constituting the imaging camera group 10b generate images Pb1 to Pb8 based on imaging signals obtained by converting incident subject images into electrical signals, respectively.

撮像カメラ群10a,10bは、図2に示すようにディスプレイ5a,5bの周囲に配設される。カメラ11a,bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左上側面に設置され、カメラ12a,12bは上側面に、カメラ13a,13bは右上側面に、カメラ14a,14bは左側面に、カメラ15a,15bは右側面に、カメラ16a,16bは左下側面に、カメラ17a,17bは下側面に、更にカメラ18,18bは右下側面に設置される。これら撮像カメラ群10a,10bは、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに撮像カメラ群10を構成するカメラ11〜18は少なくとも3台であればいかなる台数で構成してもよい。   The imaging camera groups 10a and 10b are arranged around the displays 5a and 5b as shown in FIG. The cameras 11a and 11b are respectively installed on the upper left side of the displays 5a and 5b when viewed from the users a and b, the cameras 12a and 12b are on the upper side, the cameras 13a and 13b are on the upper right side, and the cameras 14a and 14b are on the left side. The cameras 15a and 15b are installed on the right side, the cameras 16a and 16b on the lower left side, the cameras 17a and 17b on the lower side, and the cameras 18 and 18b on the lower right side. These imaging camera groups 10a and 10b are installed with the shooting direction and the shooting angle of view fixed, but these may be freely changed based on information input from the users a and b. Good. Incidentally, the number of cameras 11 to 18 constituting the imaging camera group 10 may be any number as long as it is at least three.

なお、上記仮想視点画像Ima,Imbは、図2に示す撮像カメラ群10a,10bとの位置関係において、ディスプレイ5a,5bの斜線で示される表示画面上の各位置において仮想的に設置された仮想カメラにより撮像される画像に相当する。即ち、仮想カメラの設置位置は、この表示画面上であれば任意に設定することができる。仮想視点画像Ima,Imbの生成方法については後において詳細に説明する。   Note that the virtual viewpoint images Ima and Imb are virtually installed at respective positions on the display screen indicated by the oblique lines of the displays 5a and 5b in the positional relationship with the imaging camera groups 10a and 10b shown in FIG. It corresponds to an image captured by a camera. That is, the installation position of the virtual camera can be arbitrarily set as long as it is on this display screen. A method for generating the virtual viewpoint images Ima and Imb will be described in detail later.

ディスプレイ5a,5bは、それぞれネットワーク50を介して相手側地点から供給される仮想視点画像Ima,Imbに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Ima,Imbに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。   The displays 5a and 5b display images based on the virtual viewpoint images Ima and Imb supplied from the counterpart point via the network 50, for example, via a liquid crystal display surface. The liquid crystal display surfaces of the displays 5a and 5b are composed of a large number of liquid crystal display elements and the like, and the liquid crystal display elements are optically modulated in accordance with output signals based on the virtual viewpoint images Ima and Imb, thereby creating an image to be displayed to the user.

撮像信号処理部6a,6bは、撮像カメラ群10a,10bにより得られた画像につき処理を施すための集積回路である。この各撮像表示装置2a,2bの詳細な構成については後述する。   The imaging signal processing units 6a and 6b are integrated circuits for processing the images obtained by the imaging camera groups 10a and 10b. The detailed configuration of each of the imaging display devices 2a and 2b will be described later.

ネットワーク50は、撮像表示装置2a,2bと電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。   The network 50 includes an Internet network connected to the imaging display devices 2a and 2b via a telephone line, ISDN (Integrated Services Digital Network) / B (broadband) -ISDN connected to a TA / modem, and the like. It is a public communication network that enables bidirectional transmission and reception of information. Incidentally, when the communication system 1 is operated in a certain narrow area, the network 7 may be configured by a LAN (Local Area Network). Further, when transmitting moving images, the network 7 is continuously transmitted from one channel having moving images including, for example, MPEG (Moving Picture Experts Group) data, based on the Internet protocol (IP). . In addition, when transmitting a still image, the image is transmitted at regular intervals from a channel different from the channel for transmitting a moving image.

なお、このネットワーク50には、端末装置51、データ蓄積装置52並びにデータ配信装置53を接続してもよい。   Note that a terminal device 51, a data storage device 52, and a data distribution device 53 may be connected to the network 50.

この端末装置51は、例えばパーソナルコンピュータ等で構成され、各撮像表示装置2a,2bから送信される画像につき所望の処理を加える。また、この端末装置51は、ネットワーク50を介して撮像表示装置2a,2bを遠隔制御する。   The terminal device 51 is constituted by a personal computer, for example, and applies desired processing to the images transmitted from the imaging display devices 2a and 2b. Further, the terminal device 51 remotely controls the imaging display devices 2 a and 2 b via the network 50.

データ蓄積装置52は、ネットワーク50を介して送信される画像を蓄積するストレージである。また、このデータ蓄積装置52は、蓄積した画像を端末装置51や撮像表示装置2の要求を受けて事後的に読み出すようにしてもよい。   The data storage device 52 is a storage that stores images transmitted via the network 50. Further, the data storage device 52 may read the stored image afterwards in response to a request from the terminal device 51 or the imaging display device 2.

データ配信装置53は、例えばインターネット情報を管理し、撮像表示装置2や端末装置51に対して、自身に格納してある所定のコンテンツ情報の配信等を行う。   The data distribution device 53 manages Internet information, for example, and distributes predetermined content information stored therein to the imaging display device 2 and the terminal device 51.

送受信部7a,7bは、上述したネットワーク50における通信規格、プロトコルに基づいて、撮像信号処理装置6a,6bから供給される仮想視点画像Ima,Imbを送信するために必要な信号処理を施して、これをネットワーク50を介して相手側の撮像表示装置2へ伝送する。また、この送受信部7a,7bは、ネットワーク50を介して相手側から送信された仮想視点画像Ima,Imbにつき、復調などの通信信号処理を施してこれを表示信号処理部8a,8bへ出力する。   The transmission / reception units 7a and 7b perform signal processing necessary for transmitting the virtual viewpoint images Ima and Imb supplied from the imaging signal processing devices 6a and 6b based on the communication standard and protocol in the network 50 described above, This is transmitted to the imaging display device 2 on the other side via the network 50. Further, the transmission / reception units 7a and 7b perform communication signal processing such as demodulation on the virtual viewpoint images Ima and Imb transmitted from the other side via the network 50, and output them to the display signal processing units 8a and 8b. .

表示信号処理部8a,8bは、送受信部7a,7bからの仮想視点画像Ima,Imbにつき、増幅、信号解凍等の処理を施す。また、この表示信号処理部8a,8bは、仮想視点画像Ima,Imbを構成する輝度レベル等を読み取り、図示しない映像インターフェースを介してディスプレイ5a,5bの液晶表示素子を光変調するように制御する。   The display signal processing units 8a and 8b perform processing such as amplification and signal decompression on the virtual viewpoint images Ima and Imb from the transmission / reception units 7a and 7b. Further, the display signal processing units 8a and 8b read the luminance levels and the like constituting the virtual viewpoint images Ima and Imb, and control so as to optically modulate the liquid crystal display elements of the displays 5a and 5b via a video interface (not shown). .

次に、ディスプレイ5a(5b)の構成について図3を用いて説明をする。   Next, the configuration of the display 5a (5b) will be described with reference to FIG.

ディスプレイ5aは、画像を表示する表示面として、図3(a)に示すような表示パネル61を採用する。この表示パネル61には、半球型の突出部62が一面に亘って形成され、更に突出部62の表面上には多数の表示素子63が形成されている。この突出部62は、X行Y列にマトリックス配列されて形成されている。   The display 5a employs a display panel 61 as shown in FIG. 3A as a display surface for displaying an image. The display panel 61 has a hemispherical projection 62 formed over the entire surface, and a large number of display elements 63 are formed on the surface of the projection 62. The protrusions 62 are formed in a matrix arrangement in X rows and Y columns.

図3(b)は、これらマトリックス配列されたX行Y列の突出部62のうち、a行に配列された突出部62の断面図を示している。(b+2)、(b+1)、b列に形成された各突出部62上の表示素子から出射光を出射する。   FIG. 3B shows a cross-sectional view of the protrusions 62 arranged in the a row among the protrusions 62 in the X rows and Y columns arranged in the matrix. Outgoing light is emitted from the display elements on the protrusions 62 formed in rows (b + 2), (b + 1), and b.

図3(c)は、これら突出部62の詳細な構成を示している。この半球状の突出部62の頂部から底部にかけて表示素子63がm段に亘って階層的に配列されている。頂部には一つの表示素子63が形成され、出射光の出射角のピッチに応じて底部に至るまでの段数mが決められている。また、各段において形成される表示素子63の数nは、1段目からm段目にかけて順次段階的に増加する数とする。なお、この突出部62では、各表示素子63に対して、いずれの配列において形成されているかを示すアドレスを割り振るようにしてもよい。   FIG. 3C shows the detailed configuration of these protrusions 62. The display elements 63 are hierarchically arranged over m stages from the top to the bottom of the hemispherical protrusion 62. One display element 63 is formed at the top, and the number m of steps until reaching the bottom is determined according to the pitch of the outgoing angle of the outgoing light. In addition, the number n of display elements 63 formed in each stage is a number that gradually increases from the first stage to the m-th stage. In this protrusion 62, an address indicating in which arrangement each display element 63 is formed may be assigned.

この表示素子63を通過した光は、図3(d)に示すように直進するため、どのアドレスにある表示素子63から出射された光であるかを識別することにより、その出射方向を容易に特定することができる。   Since the light that has passed through the display element 63 travels straight as shown in FIG. 3D, it is possible to easily determine the emission direction by identifying which address is the light emitted from the display element 63. Can be identified.

ちなみに、これら突出部62の視野角θdは、図4に示すように、カメラ11〜18の撮像角θcと同等となるように設計される。これにより、カメラ11〜18より得られた仮想視点画像を突出部62からの出射光を介して復元する際に、これを効率よく実行することができる。ちなみに、θd、θc<180°を満たすように設計される。   Incidentally, the viewing angle θd of these protrusions 62 is designed to be equivalent to the imaging angle θc of the cameras 11 to 18 as shown in FIG. Thereby, when restoring the virtual viewpoint images obtained from the cameras 11 to 18 through the light emitted from the projecting portion 62, this can be executed efficiently. Incidentally, it is designed to satisfy θd, θc <180 °.

次に、撮像信号処理部6の構成につき、撮像信号処理部6aを例にとり説明をする。   Next, the configuration of the imaging signal processing unit 6 will be described by taking the imaging signal processing unit 6a as an example.

撮像信号処理部6aは、図5に示すように、接続されたカメラ11a〜18aより画像Pa1〜Pa8が供給される補正部20と、この補正部20に接続されるマッチング部29と、さらにこのマッチング部29に接続される仮想視点画像生成部30と、各カメラ11a〜18aに対するユーザaの相対的な位置関係を示す情報を生成する情報生成部33とを備えている。   As shown in FIG. 5, the imaging signal processing unit 6a includes a correction unit 20 to which images Pa1 to Pa8 are supplied from the connected cameras 11a to 18a, a matching unit 29 connected to the correction unit 20, and A virtual viewpoint image generation unit 30 connected to the matching unit 29 and an information generation unit 33 that generates information indicating the relative positional relationship of the user a with respect to the cameras 11a to 18a are provided.

補正部20は、カメラ11a〜18aから送信される各画像Pa1〜Pa8につき幾何学的な画像補正を施すための幾何学的画像補正部41a〜48aと、これら幾何学的画像補正部幾何学的画像補正部41a〜48aにより画像補正が施された画像を正規化するための正規化処理部24とを備えている。   The correction unit 20 includes geometric image correction units 41a to 48a for performing geometric image correction on the images Pa1 to Pa8 transmitted from the cameras 11a to 18a, and these geometric image correction units geometrically. And a normalization processing unit 24 for normalizing the images subjected to the image correction by the image correction units 41a to 48a.

幾何学的画像補正部41a〜48aは、カメラキャリブレーション部26から送信される、上記カメラ11a〜18aの幾何学的な位置関係を含む制御情報に基づいて、各画像Pa1〜Pa8を補正する。このカメラ11a〜18aの幾何学的な位置関係は、上述したカメラキャリブレーション部26から送信される制御情報においてパラメータ化されていてもよい。また、各カメラ11a〜18aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を補正する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、幾何学的画像補正部41a〜48aは、各カメラ11a〜18aの撮影方向及び/又は撮影画角に応じてリアルタイムに画像補正することができる。   The geometric image correction units 41a to 48a correct the images Pa1 to Pa8 based on the control information transmitted from the camera calibration unit 26 and including the geometric positional relationship of the cameras 11a to 18a. The geometric positional relationship between the cameras 11a to 18a may be parameterized in the control information transmitted from the camera calibration unit 26 described above. Further, when imaging is performed while changing the shooting direction and / or the shooting angle of view of each of the cameras 11a to 18a, these are parameterized by the camera calibration unit 26, and these parameters are controlled when correcting the image. It may be included in the information. Accordingly, the geometric image correction units 41a to 48a can perform image correction in real time according to the shooting direction and / or the shooting angle of view of each camera 11a to 18a.

なお、このカメラキャリブレーション部26は、同様にカメラ11a〜18aの各レンズにおける色収差や歪み、光軸のずれをパラメータ化し、これらを各補正部20へ送信するようにしてもよい。   Similarly, the camera calibration unit 26 may parameterize chromatic aberration, distortion, and optical axis shift in each lens of the cameras 11 a to 18 a and transmit them to the correction units 20.

正規化処理部24は、各幾何学的画像補正部41a〜48aにおいて補正された画像がそれぞれ供給され、これらにつき幾何学的正規化処理を施す。この正規化処理部24は、各カメラにより撮像された各画像Pa1〜Pa8のうち、3台のカメラを選択し、選択した3台のカメラにより撮像された各画像の法線方向を合わせる。即ち、この正規化処理部24は、各画像Pa1〜Pa8の法線方向を仮想的に設定された仮想平面πの法線方向に合わせることによりこれを正規化した正規化画像Pm1〜Pm8を生成する。かかる場合において、正規化処理部24は、各カメラ11a〜18aにより撮像された各画像Pa1〜Pa8を上記仮想平面πへ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面πの法線方向に合わせる。   The normalization processing unit 24 is supplied with the images corrected by the respective geometric image correction units 41a to 48a, and performs geometric normalization processing on these images. The normalization processing unit 24 selects three cameras from the images Pa1 to Pa8 captured by the cameras, and matches the normal directions of the images captured by the selected three cameras. That is, the normalization processing unit 24 generates normalized images Pm1 to Pm8 that are normalized by matching the normal direction of each image Pa1 to Pa8 with the normal direction of the virtually set virtual plane π. To do. In such a case, the normalization processing unit 24 obtains a projective transformation matrix for projecting each of the images Pa1 to Pa8 captured by the cameras 11a to 18a onto the virtual plane π, and based on the obtained projective transformation matrix The normal direction of each image is matched with the normal direction of the virtual plane π.

ちなみに、カメラキャリブレーション部26は、カメラ11a〜18aとしていわゆる固定視点カメラを適用する場合には、予めカメラキャリブレーション部26により画像Pa1〜Pa8の法線方向を取得するようにしてもよい。また、各カメラ11a〜18aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を正規化する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、ユーザa,bの位置に応じて撮影方向等を順次変更しつつ撮像を行う場合においても柔軟に対応することができる。   Incidentally, when a so-called fixed viewpoint camera is applied as the cameras 11a to 18a, the camera calibration unit 26 may acquire the normal directions of the images Pa1 to Pa8 by the camera calibration unit 26 in advance. Further, when imaging is performed while changing the shooting direction and / or shooting angle of view of each camera 11a to 18a, these are parameterized by the camera calibration unit 26, and these parameters are set when normalizing the image. It may be included in the control information. Accordingly, it is possible to flexibly cope with the case where imaging is performed while sequentially changing the shooting direction according to the positions of the users a and b.

図6は、かかるカメラキャリブレーション方法につき説明するための図である。カメラ11a〜18aの全面から予め定められた距離zの位置に教示用画像パターン92を設置する。この教示用画像パターン92は、例えばチェッカパターン等のような特殊なパターンが形成されており、各チェッカのサイズは既知であるものとする。これら教示用画像パターン92に対して、カメラ11a〜18aにより互いに異なる視点から撮像を実行し、歪み補正を行った後に撮像されるチェッカパターン画像において、個々のチェッカのサイズが同一となるようにカメラ位置、撮影方向、ズーム等を調整する。   FIG. 6 is a diagram for explaining such a camera calibration method. A teaching image pattern 92 is set at a predetermined distance z from the entire surface of the cameras 11a to 18a. The teaching image pattern 92 is formed with a special pattern such as a checker pattern, for example, and the size of each checker is known. The camera 11a to 18a are used to capture images of these teaching image patterns 92 from different viewpoints, and after the distortion correction is performed, the checker pattern images are captured so that the individual checker sizes are the same. Adjust position, shooting direction, zoom, etc.

また、このカメラキャリブレーション部26において、これらのパラメータを図示しないROMやRAMへ格納しておくことにより、補正部20は、状況に応じて随時これらを参照することができ、高速な補正処理を実現することができる。またカメラキャリブレーション部26は、上記カメラ11a〜18aから画像Pa1〜Pa8が供給される度にこれらのパラメータを求めることにより、各幾何学的画像補正部41〜48において精度の高い補正処理を実現することができる。   In addition, by storing these parameters in a ROM or RAM (not shown) in the camera calibration unit 26, the correction unit 20 can refer to them at any time according to the situation, and can perform high-speed correction processing. Can be realized. The camera calibration unit 26 obtains these parameters every time the images Pa1 to Pa8 are supplied from the cameras 11a to 18a, thereby realizing a highly accurate correction process in each of the geometric image correction units 41 to 48. can do.

マッチング部29は、補正部20における正規化処理部24において生成された正規化画像Pm1〜Pm8がそれぞれ供給される。このマッチング部29は、これら正規化画像Pm1〜Pm8につき、互いに対応付けする。   The matching unit 29 is supplied with the normalized images Pm1 to Pm8 generated by the normalization processing unit 24 in the correction unit 20. The matching unit 29 associates the normalized images Pm1 to Pm8 with each other.

この対応付けは、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を正規化画像Pm1〜Pm8間で抽出して対応をとるようにする。例えば正規化画像Pm1,Pm2,Pm3を構成する画素につき対応付けを施す場合には、例えば図7に示すように、正規化画像Pm1上にある画素位置P11に対して、正規化画像Pm2上において同一の箇所に存在する画素位置P11’をその対応点として特定し、更に正規化画像Pm3上において同一の箇所に存在する画素位置P11’’をその対応点として特定する。かかる場合において、正規化画像Pm1上にある画素位置P11と、正規化画像Pm2上にある画素位置P11’とを対応付けする際に、正規化画像Pm3上の画素情報を参照する形で実行するようにしてもよい。   This association is performed by extracting pixel positions and luminance components at the same location constituting the face of the user a between the normalized images Pm1 to Pm8. For example, when associating the pixels constituting the normalized images Pm1, Pm2, and Pm3, for example, as shown in FIG. 7, with respect to the pixel position P11 on the normalized image Pm1, the normalized image Pm2 The pixel position P11 ′ existing at the same location is specified as the corresponding point, and the pixel position P11 ″ existing at the same location on the normalized image Pm3 is specified as the corresponding point. In such a case, when associating the pixel position P11 on the normalized image Pm1 with the pixel position P11 ′ on the normalized image Pm2, the pixel information on the normalized image Pm3 is referred to. You may do it.

即ち、このマッチング部29では、正規化処理部24において正規化された正規化画像Pm1,Pm2,Pm3において、撮影対象と関連させつつ、画素位置毎に対応付けを行う。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、正規化画像Pm1,Pm2,Pm3を構成する全ての画素に対して実行してもよい。   That is, the matching unit 29 associates the normalized images Pm1, Pm2, and Pm3 normalized by the normalization processing unit 24 for each pixel position while associating them with the imaging target. Incidentally, the matching unit 29 may be executed only for the part where the feature is extracted for this association, or may be executed for all the pixels constituting the normalized images Pm1, Pm2, and Pm3.

情報生成部33は、生成すべき情報をユーザaのディスプレイ5aに対する視線方向に基づいて生成してもよい。かかる場合において情報生成部30は、カメラ11a〜18aから供給される画像Pa1〜Pa8からユーザaの視線方向を取得し、これに基づいてユーザaの位置に関する情報を生成する。また情報生成部33は、図示しないキーボードやマウス等の操作部を介して入力された情報に基づき、ユーザaの位置に関する情報を生成するようにしてもよい。   The information generation unit 33 may generate information to be generated based on the line-of-sight direction of the user a with respect to the display 5a. In such a case, the information generation unit 30 acquires the viewing direction of the user a from the images Pa1 to Pa8 supplied from the cameras 11a to 18a, and generates information on the position of the user a based on the acquired direction. The information generation unit 33 may generate information related to the position of the user a based on information input via an operation unit such as a keyboard or a mouse (not shown).

仮想視点画像生成部30は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部30は、互いに対応付けされた画素位置並びにその輝度成分から、新たに生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。このとき仮想視点画像生成部30は、情報生成部33より生成された相対位置情報に応じて、仮想視点画像Imaを構成する画素位置並びにその輝度成分を求めてもよい。この相対位置情報は、仮想的に設置される仮想カメラにおける光学中心の各カメラ11〜18に対する相対的な位置関係を示すものであり、上述した情報生成部33において生成される。仮想視点画像生成部30は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを送受信部7aへ送信する。   The virtual viewpoint image generation unit 30 is input with the pixel positions and the luminance components associated with each other by the matching unit 29. Further, the virtual viewpoint image generation unit 30 obtains a pixel position and its luminance component constituting the virtual viewpoint image Ima to be newly generated from the pixel position and the luminance component associated with each other. At this time, the virtual viewpoint image generation unit 30 may obtain the pixel position constituting the virtual viewpoint image Ima and its luminance component according to the relative position information generated by the information generation unit 33. This relative position information indicates the relative positional relationship between the cameras 11 to 18 at the optical center in the virtual camera that is virtually installed, and is generated by the information generation unit 33 described above. The virtual viewpoint image generation unit 30 transmits a virtual viewpoint image Ima configured by the obtained pixel position and its luminance component to the transmission / reception unit 7a.

次に、この撮像表示装置2における具体的な動作につき説明をする。   Next, a specific operation in the imaging display device 2 will be described.

この撮像表示装置2では、以下に説明する空間接続効果を得るための処理動作を実行する。この空間接続効果とは、例えば図8に示すように、壁で仕切られた隣接する2つの場所W1と場所W2の壁面に窓67が設置されており、場所W2に載置された対象物D,E,Fを場所W1にいるユーザA,B,Cが窓67を介して視認する場合を仮定する。かかる場合において、ユーザAは、対象物Fを中心とした情景を窓67を介して視認することができ、またユーザBは、対象物D,E,Fが全て写し出される情景を窓67を介して視認することができ、さらにユーザCは、対象物Dを中心とした情景を窓67を介して視認することができる。   In the imaging display device 2, a processing operation for obtaining a spatial connection effect described below is executed. For example, as shown in FIG. 8, the space connection effect is that a window 67 is installed on the wall surfaces of two adjacent places W1 and W2 partitioned by a wall, and the object D placed at the place W2 , E, F are assumed to be viewed through the window 67 by the users A, B, C at the location W1. In such a case, the user A can visually recognize the scene centering on the object F through the window 67, and the user B can view the scene in which all the objects D, E, and F are projected through the window 67. Furthermore, the user C can visually recognize a scene centering on the object D through the window 67.

即ち、空間接続効果とは、これら窓67を介して対象物を視認する場合と同等の効果が得ることをいう。一般にこのような空間接続効果を得るためには、例えば図9(a)に示すように窓ガラス面の任意の点(x、y)に角度(θ°、φ°)で入射した光を、そのパネルの同じ位置から角度(180°−θ、180°−φ°)で出射するように制御すればよい。   That is, the space connection effect means that an effect equivalent to that obtained when the object is visually recognized through these windows 67 is obtained. In general, in order to obtain such a spatial connection effect, for example, as shown in FIG. 9 (a), light incident at an angle (θ °, φ °) at an arbitrary point (x, y) on the window glass surface, What is necessary is just to control so that it may radiate | emit with an angle (180 degrees-theta, 180 degrees -phi degrees) from the same position of the panel.

また、例えば図9(b)に示すように、入射面68が場所W1’にあり、また出射面69が場所W2’にある場合において、場所W1’と場所W2’とが互いに遠隔の地にあるときであっても理論的に同様の空間接続効果を得ることができる。即ち、入射面68における任意の点(x、y)において、入射される光につき入射角(θ°、φ°)毎に輝度レベルを識別し、これら識別した輝度レベルを入射角(θ°、φ°)と関連付けて表示側に伝送する。そして、表示側パネルの上記(x、y)に対応する点(x’、y’)から入射角(θ°、φ°)と180°位相のずれた光を、上記識別した輝度レベルで出射する。   Further, for example, as shown in FIG. 9B, when the incident surface 68 is at the location W1 ′ and the emission surface 69 is at the location W2 ′, the location W1 ′ and the location W2 ′ are in remote locations. Even at a certain time, the same spatial connection effect can be obtained theoretically. That is, at an arbitrary point (x, y) on the incident surface 68, a luminance level is identified for each incident angle (θ °, φ °) with respect to incident light, and the identified luminance level is determined as an incident angle (θ °, (φ °) and transmit to the display side. Then, light that is 180 ° out of phase with the incident angle (θ °, φ °) from the point (x ′, y ′) corresponding to (x, y) on the display side panel is emitted at the identified luminance level. To do.

従って、窓ガラスと同様な空間接続効果を有する表示面を作成するためには、入射面に撮像機能を持たせ、入射面上の全ての点において入射される光につき入射角(θ°、φ°)毎に輝度レベルを識別する必要がある。本発明を適用した撮像表示装置2では、これら入射面における撮像機能を、ディスプレイ5a,5bの周囲に配設された撮像カメラ群10a(10b)に担わせる。   Therefore, in order to create a display surface having a spatial connection effect similar to that of a window glass, the incident surface is provided with an imaging function, and incident angles (θ °, φ for incident light at all points on the incident surface). °) It is necessary to identify the brightness level every time. In the imaging display device 2 to which the present invention is applied, the imaging function on these incident surfaces is assigned to the imaging camera group 10a (10b) disposed around the displays 5a and 5b.

この撮像カメラ群10a(10b)を構成するカメラ11a〜18aは、撮影対象としてのユーザを互いに異なる視点から撮影する。その結果、カメラ11a〜18aにより生成される画像Pa1〜Pa8上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1〜Pa8がそれぞれ補正部20における正規化処理部24へ供給されると、これらは、以下に示される方法に基づいて正規化されることになる。   The cameras 11a to 18a constituting the imaging camera group 10a (10b) shoot users as shooting targets from different viewpoints. As a result, the line of sight of the user a on the images Pa1 to Pa8 generated by the cameras 11a to 18a, the face orientation, and the like are different from each other. When such images Pa1 to Pa8 are respectively supplied to the normalization processing unit 24 in the correction unit 20, they are normalized based on the method described below.

図10は、各カメラ11a〜18aのうち、選択した3台のカメラ11a,12a,13aにより撮像した画像Pa1, Pa2, Pa3につき正規化する場合を示している。   FIG. 10 shows a case where the images Pa1, Pa2, and Pa3 captured by the three selected cameras 11a, 12a, and 13a among the cameras 11a to 18a are normalized.

この図10に示されるように、各カメラ11a,12a,13aの光学中心C1,C2,C3により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行うと、これにより生成される画像Pa1,Pa2,Pa3は、各カメラ11a,12a,13aの撮像面に対して平行となる。ここで各カメラ11a,12a,13aと、M点を結ぶ直線の方向は、各カメラにより撮像された各画像Pa1,Pa2,Pa3の法線方向k1,k2,k3に一致するが、これらは互いに異なる方向を指している。これら各画像Pa1,Pa2,Pa3の法線方向k1,k2,k3が同一方向となるように幾何学的正規化を行うことにより、画像面が互いに平行な正規化画像Pm1,Pm2,Pm3を作り出す。   As shown in FIG. 10, when an image is taken from different viewpoints to the M point to be photographed from different viewpoints by the optical centers C1, C2, and C3 of the cameras 11a, 12a, and 13a, they are generated. The images Pa1, Pa2, and Pa3 are parallel to the imaging surfaces of the cameras 11a, 12a, and 13a. Here, the direction of the straight line connecting each camera 11a, 12a, 13a and the M point coincides with the normal direction k1, k2, k3 of each image Pa1, Pa2, Pa3 captured by each camera, but these are mutually Pointing in a different direction. By performing geometric normalization so that the normal directions k1, k2, and k3 of these images Pa1, Pa2, and Pa3 are in the same direction, normalized images Pm1, Pm2, and Pm3 whose image planes are parallel to each other are generated. .

この幾何学的正規化は、カメラ補正パラメータ13により予め求められた射影行列P1,P2,P3を用いて、カメラ内部パラメータA1,A2,A3、回転行列R1,R2,R3、転移行列T1,T2,T3を推定することにより実現する。その結果、補正後の画像撮像面の法線方向k1’,k2’,k3’が平行化された正規化画像Pm1,Pm2,Pm3が生成されることになる。   This geometric normalization uses camera projection parameters P1, P2, and P3 obtained in advance by the camera correction parameter 13, and uses camera internal parameters A1, A2, and A3, rotation matrices R1, R2, and R3, and transition matrices T1 and T2. , T3 is estimated. As a result, normalized images Pm1, Pm2, and Pm3 are generated in which the normal directions k1 ', k2', and k3 'of the corrected image pickup surface are parallelized.

ちなみに、この幾何学的正規化を施す場合には、光学中心C1,C2,C3により囲まれる仮想平面πを設定しておき、この仮想平面πの法線方向に対してこれら各画像Pa1,Pa2,Pa3の法線方向が同一方向となるように、射影行列P1,P2,P3を用いて正規化するようにしてもよい。   Incidentally, when performing this geometric normalization, a virtual plane π surrounded by the optical centers C1, C2, and C3 is set, and each of these images Pa1, Pa2 with respect to the normal direction of the virtual plane π. , Pa3 may be normalized using the projection matrices P1, P2, P3 so that the normal direction of Pa3 is the same.

また、これら画像の正規化については、カメラキャリブレーション部26による各カメラ11a,12a,13aの撮影方向、ズーム等のキャリブレーションに反映させるようにしてもよい。また逆にこれらのキャリブレーションを上述した幾何学的正規化に反映させるようにしてもよい。   Further, the normalization of these images may be reflected in the calibration such as the shooting direction and zoom of each camera 11a, 12a, 13a by the camera calibration unit 26. Conversely, these calibrations may be reflected in the above-described geometric normalization.

正規化処理部24において上述の如く射影変換された正規化画像Pm1,Pm2,Pm3は、マッチング部29において上述の如く撮影対象と関連させつつ、画素位置毎に対応付けされる。本発明においては、マッチング部29の前段にある正規化処理部24において予め正規化され、エピポーラ線が平行化されている。これと相俟って、本発明では、正規化画像Pm1〜Pm3のうち任意の2枚の正規化画像の対応付けを残りの1枚の正規化画像を参照しつつ実行するため、カメラ2台の場合と比較してマッチング時に参照するための情報が多くなり、画素探索のロバスト性を向上させることができる。   The normalized images Pm1, Pm2, and Pm3 that have undergone projective transformation as described above in the normalization processing unit 24 are associated with each pixel position while being associated with the imaging target in the matching unit 29 as described above. In the present invention, the normalization processing unit 24 in the previous stage of the matching unit 29 is normalized in advance and the epipolar lines are parallelized. In combination with this, in the present invention, since two normalized images among the normalized images Pm1 to Pm3 are associated with each other with reference to the remaining normalized image, two cameras are used. Compared to the above case, more information is referred to at the time of matching, and the robustness of pixel search can be improved.

図11は、マッチング部29においてこれら正規化画像Pm1,Pm2,Pm3を対応付けする場合につき示している。正規化画像Pm1とPm2につき、このマッチング部29において対応付けを行う場合において、正規化画像Pm1のエピポーララインL1上にある画素m1’の対応点については、正規化画像Pm2のエピポーララインL2上に存在することとなり、そのL2上を探索することにより、対応点としての画素m2’を検出することができる。かかる場合において、正規化画像Pm1のエピポーララインL1’に対応する、正規化画像Pm2のエピポーララインL2’を同時に探索することにより、画素m2’を検出するようにしてもよい。   FIG. 11 shows a case where the matching unit 29 associates these normalized images Pm1, Pm2, and Pm3. When matching is performed in the matching unit 29 for the normalized images Pm1 and Pm2, the corresponding point of the pixel m1 ′ on the epipolar line L1 of the normalized image Pm1 is on the epipolar line L2 of the normalized image Pm2. The pixel m2 ′ as the corresponding point can be detected by searching on L2. In such a case, the pixel m2 'may be detected by simultaneously searching for the epipolar line L2' of the normalized image Pm2 corresponding to the epipolar line L1 'of the normalized image Pm1.

同様に、正規化画像Pm1とPm3につき、このマッチング部29において対応付けを行う場合において、正規化画像Pm1のエピポーララインL1上にある画素m1’の対応点については、正規化画像Pm3のエピポーララインL3上に存在することとなり、そのL3上を探索することにより、対応点としての画素m3’を検出することができる。   Similarly, when matching is performed in the matching unit 29 for the normalized images Pm1 and Pm3, regarding the corresponding point of the pixel m1 ′ on the epipolar line L1 of the normalized image Pm1, the epipolar line of the normalized image Pm3 The pixel m3 ′ as a corresponding point can be detected by searching on the L3.

即ち、この正規化画像Pm1,Pm2,Pm3は、前段の正規化処理部24において幾何学的正規化が施されているため、各画素間の対応付けを効率よく行うことができる。これは、スキャンするエピポーララインL1上の各画素が、エピポーララインL2(L3)上の各画素に対応するため、各列に配された画素の対応付けは、Dynamic Programmingによる最短経路探索問題として解くことができるからである。このマッチング部29では、画像間の輝度差dg(x,y)と、カラー情報の差異dI(x,y)を用いることにより、以下の式(1)で示されるマッチングコスト関数MC(x,y)を求める。
MC(x,y)=dg(x,y)+α・dI(x,y)・・・・・・(1)
マッチング部29では、この求めたマッチングコスト関数MC(x,y)に基づいて、対応点を検出することになるが、かかる場合において対応付け精度を更に向上させるべく、各補正処理部20から入力される各画像に応じて、オクリュージョンコストを適切に調整するようにしてもよい。このオクリュージョンコストは、撮影対象に対するカメラ群10の距離、又は視差等を反映させたものである。
That is, since the normalized images Pm1, Pm2, and Pm3 are subjected to geometric normalization in the normalization processing unit 24 in the previous stage, it is possible to efficiently associate each pixel. This is because each pixel on the epipolar line L1 to be scanned corresponds to each pixel on the epipolar line L2 (L3), so that the correspondence between the pixels arranged in each column is solved as a shortest path search problem by Dynamic Programming. Because it can. The matching unit 29 uses the luminance difference dg (x, y) between the images and the color information difference dI (x, y) to obtain a matching cost function MC (x, y) expressed by the following equation (1). y) is determined.
MC (x, y) = dg (x, y) + α · dI (x, y) (1)
The matching unit 29 detects corresponding points based on the obtained matching cost function MC (x, y). In such a case, input is performed from each correction processing unit 20 in order to further improve the matching accuracy. The occlusion cost may be appropriately adjusted according to each image to be processed. The occlusion cost reflects the distance of the camera group 10 with respect to the object to be imaged, parallax, or the like.

即ち、本発明を適用した画像送受信システム1は、このマッチング部29において上述したマッチング処理を実現するため、各画素間の対応付けを正確に、かつスムーズに行うことが可能となる。ちなみに、このマッチング部29により互いに対応付けされた画素位置並びにその輝度成分は、それぞれ仮想視点画像生成部30へ出力される。   That is, since the image transmission / reception system 1 to which the present invention is applied realizes the matching processing described above in the matching unit 29, it is possible to accurately and smoothly perform the association between the pixels. Incidentally, the pixel positions and the luminance components associated with each other by the matching unit 29 are output to the virtual viewpoint image generation unit 30, respectively.

仮想視点画像生成部30では、互いに対応付けされた画素位置並びに、情報生成部33から送信される相対位置情報に基づき、以下に説明する方法に基づいて仮想視点画像Imaを構成する画素位置並びにその輝度レベル(濃淡値)を求める。図12は、上記マッチング部29において対応付けされた画素m1’,画素m2’,画素m3’に応じて、仮想視点画像Ima上の画素Cvを特定する場合につき説明するための図である。この図12に示される画素Cvの画素位置をPv(xv,yv)とし、また各画素m1’,m2’,m3’の画素位置をそれぞれP1(x1,y1),P2(x2,y2),P3(x3,y3)とするとき、Pv(xv,yv)は以下の(2)式により求めることができる。
Pv(xv,yv)=α×P1(x1,y1)+β×P2(x2,y2)+γ×P3(x3,y3)・・・・・・・(2)
ここで、α,β,γは、それぞれ相対位置情報であり、αは、三角形C2C3Cvの面積/三角形C1C2C3の面積とし、βは、三角形C1C2Cvの面積/三角形C1C2C3の面積とし、γは、三角形C1C2Cvの面積/三角形C1C2C3の面積とする。ちなみに、α+β+γ=1である。
In the virtual viewpoint image generation unit 30, based on the pixel positions associated with each other and the relative position information transmitted from the information generation unit 33, the pixel positions constituting the virtual viewpoint image Ima based on the method described below and the positions thereof Find the brightness level (shading value). FIG. 12 is a diagram for explaining a case where the pixel Cv on the virtual viewpoint image Ima is specified according to the pixel m1 ′, the pixel m2 ′, and the pixel m3 ′ associated in the matching unit 29. The pixel position of the pixel Cv shown in FIG. 12 is Pv (xv, yv), and the pixel positions of the pixels m1 ′, m2 ′, m3 ′ are P1 (x1, y1), P2 (x2, y2), When P3 (x3, y3) is set, Pv (xv, yv) can be obtained by the following equation (2).
Pv (xv, yv) = α × P1 (x1, y1) + β × P2 (x2, y2) + γ × P3 (x3, y3) (2)
Here, α, β, and γ are relative position information, α is the area of the triangle C2C3Cv / the area of the triangle C1C2C3, β is the area of the triangle C1C2Cv / the area of the triangle C1C2C3, and γ is the triangle C1C2Cv. Area / triangle C1C2C3 area. Incidentally, α + β + γ = 1.

ここで画素Cvを仮想カメラの光学中心に対応する画素とするとき、この式(2)に基づいて決定される画素位置Pv(xv,yv)は、仮想カメラの光学中心がカメラ11aの光学中心C1に近づくにつれてP1(x1,y1)へ近づき、カメラ12aの光学中心C2に近づくにつれてP2(x2,y2)へ近づき、更にカメラ13aの光学中心C3に近づくにつれてP3(x3,y3)へ近づくことになる。即ち、相対位置情報α,β,γを自由に決定することにより、画素Cvの画素位置Pv(xv,yv)を三角形C1C2C3の枠内において自由に設定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。   Here, when the pixel Cv is a pixel corresponding to the optical center of the virtual camera, the pixel position Pv (xv, yv) determined based on the equation (2) is such that the optical center of the virtual camera is the optical center of the camera 11a. It approaches P1 (x1, y1) as it approaches C1, approaches P2 (x2, y2) as it approaches the optical center C2 of the camera 12a, and approaches P3 (x3, y3) as it further approaches the optical center C3 of the camera 13a. become. That is, by freely determining the relative position information α, β, γ, the pixel position Pv (xv, yv) of the pixel Cv can be freely set within the frame of the triangle C1C2C3. It is possible to freely change the position of the user a displayed on the screen.

また画素Cvの輝度レベルをmv’(xv,yv)とし、また各画素m1’,m2’,m3’の輝度レベルをそれぞれQ1(x1,y1),Q2(x2,y2),Q3(x3,y3)とするとき、mv’(xv,yv)は以下の(3)式により求めることができる。
mv’(xv,yv)=α×Q1(x1,y1)+β×Q2(x2,y2)+γ×Q3(x3,y3)・・・・・・・(3)
ここで画素Cvを仮想カメラの光学中心に対応する画素とするとき、この式(3)に基づいて決定される画素Cvの輝度レベルmv’(xv,yv)は、仮想カメラの光学中心がカメラ11aの光学中心C1に近づくにつれてQ1(x1,y1)へ近づき、カメラ12aの光学中心C2に近づくにつれてQ2(x2,y2)へ近づき、更にカメラ13aの光学中心C3に近づくにつれてQ3(x3,y3)へ近づくことになる。即ち、輝度レベルmv’(xv,yv)を、仮想カメラの光学中心位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度を自在に変化させることができる。
The luminance level of the pixel Cv is mv ′ (xv, yv), and the luminance levels of the pixels m1 ′, m2 ′, and m3 ′ are respectively Q1 (x1, y1), Q2 (x2, y2), Q3 (x3, When y3), mv ′ (xv, yv) can be obtained by the following equation (3).
mv ′ (xv, yv) = α × Q1 (x1, y1) + β × Q2 (x2, y2) + γ × Q3 (x3, y3) (3)
Here, when the pixel Cv is a pixel corresponding to the optical center of the virtual camera, the luminance level mv ′ (xv, yv) of the pixel Cv determined based on the equation (3) is obtained when the optical center of the virtual camera is the camera. 11a approaches the optical center C1 of 11a, approaches Q1 (x1, y1), approaches the optical center C2 of the camera 12a, approaches Q2 (x2, y2), and further approaches the optical center C3 of the camera 13a, Q3 (x3, y3) ). That is, since the brightness level mv ′ (xv, yv) can be freely determined according to the optical center position of the virtual camera, the brightness of the pixels constituting the user a displayed on the virtual viewpoint image Ima can be freely set. Can be changed.

このように仮想視点画像生成部30は、三角形C1C2C3内に位置する画素Cvの画素位置Pv(xv,yv)並びに輝度レベルmv’(xv,yv)を求めることができる。またこの撮像表示装置2は、相対位置情報α,β,γを自由に決定することにより、画素Cvの画素位置Pv(xv,yv)を三角形C1C2C3の枠内において自由に設定することができる。また情報生成部33は、ユーザの位置に関する情報に基づいてこの相対位置情報α,β,γを決定することにより、この仮想視点画像生成部30は、識別されたユーザaの視線方向に上記画素Cvの画素位置Pv(xv,yv)を合わせ込むことができる。これにより、いわば仮想カメラの撮影方向をユーザaの視線方向に合わせ込むことと同様の処理を実現することができる。   As described above, the virtual viewpoint image generation unit 30 can obtain the pixel position Pv (xv, yv) and the luminance level mv ′ (xv, yv) of the pixel Cv located in the triangle C1C2C3. In addition, the imaging display device 2 can freely set the pixel position Pv (xv, yv) of the pixel Cv within the frame of the triangle C1C2C3 by freely determining the relative position information α, β, γ. Further, the information generation unit 33 determines the relative position information α, β, γ based on the information on the position of the user, so that the virtual viewpoint image generation unit 30 performs the above-described pixel in the direction of the line of sight of the identified user a. The pixel position Pv (xv, yv) of Cv can be adjusted. Accordingly, it is possible to realize the same processing as that of adjusting the shooting direction of the virtual camera to the line of sight of the user a.

特に、各カメラ11a〜18aは互いに撮影方向が異なるため、同一の画像を示す画像位置w1,w2,w3の輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報に基づくα,β,γに応じて画素位置Pv(xv,yv)や輝度レベルmv’(xv,yv)を線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上の絵画処理を精度よく実現することができる。   In particular, since the cameras 11a to 18a have different shooting directions, the luminance components at the image positions w1, w2, and w3 indicating the same image are different from each other. Either one of the different luminance components is set to the minimum value, and the other is set to the maximum value, and the pixel position Pv (xv, yv) or the luminance level mv ′ according to α, β, γ based on the relative position information. By linearly increasing / decreasing (xv, yv), it is possible to accurately realize the picture processing on the virtual viewpoint image Ima according to the position of the virtual camera.

また、この撮像表示装置2aでは、上記正規化処理部24において、仮想平面πの法線方向に合致させた正規化画像Pm1,Pm2,Pm3から仮想視点画像Imaを生成するため、エピポーラ線を平行化させることによる画像内挿の効率化を図ることが可能となる。また、これにより各カメラ中心のZ方向座標を0にして計算することができる。即ち、x,y方向座標のみに焦点を当てて(2),(3)式を利用して計算すれば足りるため、仮想視点画像Imaを生成する上での相対的な演算量を減らすことができ、迅速な絵画処理を実現することが可能となる。   In the imaging display device 2a, the normalization processing unit 24 generates the virtual viewpoint image Ima from the normalized images Pm1, Pm2, and Pm3 matched with the normal direction of the virtual plane π. This makes it possible to improve the efficiency of image interpolation. In addition, this makes it possible to calculate with the Z-direction coordinate of each camera center set to zero. That is, it is sufficient to focus on only the x and y direction coordinates and use the equations (2) and (3) to calculate, so that the relative amount of calculation in generating the virtual viewpoint image Ima can be reduced. It is possible to realize a rapid painting process.

図13は、この仮想視点画像生成部30において実際に3台のカメラ11a,12a,13aから取得した正規化画像Pm1,Pm2,Pm3から仮想視点画像Imaを生成する場合につき示している。各カメラ11a,12a,13aの光学中心C1,C2,C3を結ぶ線により略正三角形が形成される場合に、図13(a)に示すように、光学中心C1,C2,C3から等距離にある重心位置に仮想カメラの光学中心CLを設定したときに得られる仮想視点画像Imaは、図13(b)に示すように、各正規化画像Pm1,Pm2,Pm3の内容を略平均化したものとなる。即ち、右方向を向いているユーザaを示す正規化画像Pm1と、上方向を向いているユーザaを示す正規化画像Pm2と、左方向を向いているユーザaを示す正規化画像Pm3から、真正面を向いているユーザaを示す仮想視点画像Imaが生成されることになる。   FIG. 13 shows a case where the virtual viewpoint image generator 30 generates the virtual viewpoint image Ima from the normalized images Pm1, Pm2, and Pm3 actually acquired from the three cameras 11a, 12a, and 13a. When a substantially equilateral triangle is formed by a line connecting the optical centers C1, C2, and C3 of the cameras 11a, 12a, and 13a, as shown in FIG. 13A, the optical centers C1, C2, and C3 are equidistant from each other. The virtual viewpoint image Ima obtained when the optical center CL of the virtual camera is set at a certain center of gravity position is obtained by approximately averaging the contents of the normalized images Pm1, Pm2, and Pm3 as shown in FIG. 13 (b). It becomes. That is, from the normalized image Pm1 indicating the user a facing the right direction, the normalized image Pm2 indicating the user a facing the upward direction, and the normalized image Pm3 indicating the user a facing the left direction, A virtual viewpoint image Ima indicating the user a facing directly in front is generated.

本発明を適用した撮像表示装置2では、これら生成される仮想視点画像Imaを図2に示すように、ディスプレイ5における表示画面上の各位置において仮想的に設置された仮想カメラにより撮像される画像と見たてる。そして、上述した相対位置情報α,β,γを微調整することにより、ディスプレイ5の表示画面上において一面に亘ってあたかも仮想カメラが設置されたかの如く擬制することができる。   In the imaging display device 2 to which the present invention is applied, these generated virtual viewpoint images Ima are captured by a virtual camera virtually installed at each position on the display screen of the display 5 as shown in FIG. I see. Then, by finely adjusting the relative position information α, β, and γ described above, it is possible to make a fake as if a virtual camera was installed over the entire display screen of the display 5.

図14は、ディスプレイ5における表示画面上の任意の位置において仮想カメラを仮想的に設置する場合につき示している。例えば、図14においてカメラ11,12,13の光学中心C1,C2,C3により囲まれる領域F内に仮想カメラの光学中心を設定する場合には、カメラ11,12,13より撮像される画像Pa1,Pa2,Pa3に基づいて上述の如く仮想視点画像Imaを生成する。かかる領域F内における仮想カメラの詳細な位置は、上述した相対位置情報α,β,γを微調整することにより決定する。   FIG. 14 shows a case where a virtual camera is virtually installed at an arbitrary position on the display screen of the display 5. For example, when the optical center of the virtual camera is set in the region F surrounded by the optical centers C1, C2, and C3 of the cameras 11, 12, and 13 in FIG. 14, the image Pa1 captured by the cameras 11, 12, and 13 is set. , Pa2 and Pa3, the virtual viewpoint image Ima is generated as described above. The detailed position of the virtual camera in the region F is determined by finely adjusting the relative position information α, β, γ described above.

同様に、カメラ12,14,16の光学中心C2,C4,C6により囲まれる領域G、カメラ13,15,17の光学中心C3,C5,C7により囲まれる領域H、カメラ16,17,18の光学中心C6,C7,C8により囲まれる領域Iについても、各カメラからの画像に基づいて仮想視点画像Imaを生成する。   Similarly, the region G surrounded by the optical centers C2, C4, and C6 of the cameras 12, 14, and 16, the region H surrounded by the optical centers C3, C5, and C7 of the cameras 13, 15, and 17, and the cameras 16, 17, and 18 For the region I surrounded by the optical centers C6, C7, and C8, the virtual viewpoint image Ima is generated based on the images from the cameras.

ちなみに光学中心C2,C3,C6,C7により囲まれる領域Jを始めとして、任意の4つの光学中心により囲まれる領域内に仮想カメラの光学中心を設定する場合には、各カメラ11〜18のうち、選択した4台のカメラにより撮像した画像Paにつき正規化する。   By the way, when setting the optical center of the virtual camera in the area surrounded by any four optical centers including the area J surrounded by the optical centers C2, C3, C6, C7, The image Pa captured by the four selected cameras is normalized.

例えば図15に示すように、各カメラ12,13,16,17の光学中心C2,C3,C6,C7により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行うと、これにより生成される画像Pa2,Pa3,Pa6,Pa7は、各カメラ12,13,16,17の撮像面に対して平行となる。ここで各光学中心C2,C3,C6,C7と、M点を結ぶ直線の方向は、各カメラにより撮像された各画像Pa2,Pa3,Pa6,Pa7の法線方向k2,k3,k6,k7に一致するが、これらは互いに異なる方向を指している。   For example, as shown in FIG. 15, when the optical centers C2, C3, C6, and C7 of the cameras 12, 13, 16, and 17 are used to take images from different viewpoints with the optical axis aligned to the M point to be imaged, The generated images Pa2, Pa3, Pa6, and Pa7 are parallel to the imaging surfaces of the cameras 12, 13, 16, and 17, respectively. Here, the directions of the straight lines connecting the optical centers C2, C3, C6, C7 and the M point are the normal directions k2, k3, k6, k7 of the images Pa2, Pa3, Pa6, Pa7 captured by the cameras. Although they match, they point in different directions.

そこで、これら各画像Pa2,Pa3,Pa6,Pa7のうち任意の3つの画像(例えば、画像Pa2,Pa3,Pa7)を選択する。そして、これら各画像Pa2,Pa3,Pa7の法線方向k2,k3,k7が同一方向ka’となるように幾何学的正規化を行うことにより、画像面が互いに平行な正規化画像Pm2,Pm3,Pm7を作り出す。また、残りの領域についても選択した3つの画像(画像Pa2,Pa6,Pa7)を選択する。そして、これら各画像Pa2,Pa6,Pa7の法線方向k2,k6,k7が同一方向kb’となるように幾何学的正規化を行うことにより、画像面が互いに平行な正規化画像Pm2,Pm6,Pm7を作り出す。ちなみに、ここでの幾何学的正規化の方法は、上述と同様に射影行列Pを求め、これに基づく射影変換を施すことにより実行する。   Therefore, arbitrary three images (for example, images Pa2, Pa3, Pa7) are selected from these images Pa2, Pa3, Pa6, Pa7. Then, by performing geometric normalization so that the normal directions k2, k3, k7 of these images Pa2, Pa3, Pa7 are in the same direction ka ′, the normalized images Pm2, Pm3 whose image planes are parallel to each other are obtained. , Pm7 is created. Also, the selected three images (images Pa2, Pa6, Pa7) are selected for the remaining areas. Then, by performing geometric normalization so that the normal directions k2, k6, k7 of these images Pa2, Pa6, Pa7 are in the same direction kb ′, normalized images Pm2, Pm6 whose image planes are parallel to each other , Pm7 is created. Incidentally, the geometric normalization method here is executed by obtaining a projection matrix P in the same manner as described above, and performing projection transformation based thereon.

ここで正規化画像Pm2,Pm3,Pm7の法線方向ka’と、正規化画像Pm2,Pm6,Pm7の法線方向kb’とが異なる場合において、正規化処理部24は、これらが互いに同一方向となるように(平行となるように)補正する。この補正処理においても、射影行列Pを求めて、これに基づく射影変換を施すことにより実行する。その結果、これら4つの正規化画像Pm2,Pm3,Pm6,Pm7の法線方向k2’ ,k3’,k6’,k7’を全て平行化することができる。ちなみにかかる平行化においては、さらに簡単に、正規化画像Pm2,Pm3,Pm7につき求めた法線方向ka’を残りの画像Pa6の法線方向k6に応じて調整を図ることで実現するようにしてもよい。   Here, when the normal direction ka ′ of the normalized images Pm2, Pm3, and Pm7 is different from the normal direction kb ′ of the normalized images Pm2, Pm6, and Pm7, the normalization processing unit 24 uses the same direction as each other. It corrects so that it becomes (it becomes parallel). This correction process is also performed by obtaining the projection matrix P and performing projective transformation based thereon. As a result, the normal directions k2 ', k3', k6 ', and k7' of these four normalized images Pm2, Pm3, Pm6, and Pm7 can all be parallelized. Incidentally, the parallelization is more easily realized by adjusting the normal direction ka ′ obtained for the normalized images Pm2, Pm3, and Pm7 according to the normal direction k6 of the remaining image Pa6. Also good.

なお、このようにして正規化された各画像は、上述の如く後段のマッチング部29において互いに対応付けされることになるが、かかる場合において、選択した3台のカメラ以外のカメラにより撮像した画像を参照するようにしてもよい。   The images normalized in this way are associated with each other in the subsequent matching unit 29 as described above. In such a case, images captured by cameras other than the three selected cameras are used. May be referred to.

例えば、正規化画像Pm1,Pm2,Pm3間で互いに対応付けする場合に、それぞれに応じたカメラ11,12,13によりDepth情報を取得するようにする。そして取得したDepth情報に基づいてそれぞれ視差マップを作成する。かかる場合に、いわゆるマルチベースライン手法を用いて、各カメラ11,12,13の周囲にある残りのカメラ14〜18により取得されたDepth情報を参照することもできる。これにより、各画像間の対応付けをより多くのカメラから得られた視差マップを参照することにより実行することができ、生成する仮想視点画像Imaの画質を向上させることができる。   For example, when the normalized images Pm1, Pm2, and Pm3 are associated with each other, the depth information is acquired by the cameras 11, 12, and 13 corresponding thereto. Then, a parallax map is created based on the acquired depth information. In such a case, the depth information acquired by the remaining cameras 14 to 18 around each of the cameras 11, 12, and 13 can be referred to using a so-called multi-baseline method. Thereby, the association between the images can be executed by referring to the parallax maps obtained from more cameras, and the image quality of the generated virtual viewpoint image Ima can be improved.

また、相対位置情報α,β,γを微調整しつつ上述の処理を繰り返すことにより、表示パネル61上において一面に亘って形成されたX行Y列の突出部62に応じた数の仮想カメラを仮想的に設置することができる。そして各仮想カメラより上述の手順を経てから得られた仮想視点画像Imは、順次ネットワーク50を介して相手側の撮像表示装置2へ送信される。例えば撮像表示装置2aにおいて生成された仮想視点画像Imaは、ネットワーク50を介して相手側の撮像表示装置2bへ送信され、送受信部7bを介して表示信号処理部8bへ送信される。表示信号処理部8bでは、これら仮想視点画像Imaの輝度レベルを画素位置毎に解析する。このとき、表示信号処理部8bでは、入射角(θ°、φ°)と仮想視点画像Imaにおける画素位置とを予め関係付けてこれを記録しておくことにより、これら入射角(θ°、φ°)毎に輝度レベルを識別することができる。   Further, by repeating the above process while finely adjusting the relative position information α, β, γ, the number of virtual cameras corresponding to the projections 62 of the X rows and Y columns formed over the entire surface on the display panel 61 Can be virtually installed. Then, the virtual viewpoint image Im obtained from each virtual camera through the above-described procedure is sequentially transmitted to the imaging display device 2 on the counterpart side via the network 50. For example, the virtual viewpoint image Ima generated in the imaging display device 2a is transmitted to the partner imaging display device 2b via the network 50, and is transmitted to the display signal processing unit 8b via the transmission / reception unit 7b. The display signal processing unit 8b analyzes the luminance level of these virtual viewpoint images Ima for each pixel position. At this time, in the display signal processing unit 8b, the incident angles (θ °, φ °) and the pixel positions in the virtual viewpoint image Ima are recorded in association with each other, so that these incident angles (θ °, φ) are recorded. °) Brightness level can be identified every time.

表示信号処理部8bは、識別した輝度レベルに応じた光を突出部62上の表示素子63から、入射角(θ°、φ°)に応じた角度(180°−θ、180°−φ°)で出射させる。突出部62に形成されている表示素子63のアドレスを出射角(180°−θ、180°−φ°)に対応させておくことにより、入射角(θ°、φ°)に応じた細かい出射角ピッチで光を出射させることができ、上述の空間接続効果を得ることができる。   The display signal processing unit 8b emits light corresponding to the identified luminance level from the display element 63 on the protrusion 62 to angles (180 ° −θ, 180 ° −φ °) corresponding to the incident angles (θ °, φ °). ). By making the address of the display element 63 formed on the protrusion 62 correspond to the emission angle (180 ° −θ, 180 ° −φ °), the fine emission corresponding to the incident angle (θ °, φ °) is made. Light can be emitted at an angular pitch, and the above-described spatial connection effect can be obtained.

即ち、本発明を適用した画像送受信システム1では、窓ガラスと同様な空間接続効果を有する表示面をディスプレイ5上において生成するために、入射面に持たせる撮像機能をディスプレイ5a,5bの周囲に配設された撮像カメラ群10a(10b)に担わせることができる。即ち、これら撮像カメラ群10a(10b)により、仮想カメラをディスプレイ6上において一面に亘って設定し、各仮想カメラから得られる仮想視点画像を介して入射面上の全ての点において入射される光につき入射角(θ°、φ°)毎に輝度レベルを識別することができる。そして、相手側のディスプレイ6上に形成され、上記仮想カメラに対応した突出部62から、上記識別した輝度レベルの光を角度(180°−θ、180°−φ°)で出射させることにより、空間接続効果を得ることができる。 特に本発明を適用した画像送受信システム1では、従来技術と比較して撮像素子を省略することができるため、装置構成の簡素化を図ることができ、製造の容易化を期待することができる。   That is, in the image transmission / reception system 1 to which the present invention is applied, in order to generate a display surface on the display 5 having a spatial connection effect similar to that of the window glass, an imaging function to be provided on the incident surface is provided around the displays 5a and 5b. The arranged imaging camera group 10a (10b) can be used. That is, by these imaging camera groups 10a (10b), a virtual camera is set over the entire surface on the display 6, and light incident at all points on the incident surface via virtual viewpoint images obtained from each virtual camera. The luminance level can be identified for each incident angle (θ °, φ °). Then, light of the identified brightness level is emitted at an angle (180 ° −θ, 180 ° −φ °) from the protrusion 62 corresponding to the virtual camera formed on the display 6 on the other side, A spatial connection effect can be obtained. In particular, in the image transmission / reception system 1 to which the present invention is applied, the imaging device can be omitted as compared with the conventional technique, so that the apparatus configuration can be simplified and the manufacture can be expected to be simplified.

また本発明を適用した画像送受信システム1では、入射面に持たせる撮像機能をディスプレイ5a,5bの周囲に配設された撮像カメラ群10a(10b)に担わせることができる。これにより、表示素子63から撮像素子に至るまでの光漏洩が生じることもなくなり、上述した空間接続効果を高効率に得ることができる。   Further, in the image transmission / reception system 1 to which the present invention is applied, the imaging camera group 10a (10b) disposed around the displays 5a and 5b can be assigned the imaging function to be given to the incident surface. As a result, light leakage from the display element 63 to the imaging element does not occur, and the above-described space connection effect can be obtained with high efficiency.

なお、本発明は、上述した実施の形態に限定されるものではない。例えば、ユーザの頭部位置の座標に基づき、ユーザの左眼位置並びに右眼位置を推定し、これを相対位置情報として相対位置情報α,β,γを調整することにより、左眼用と右眼用にそれぞれ仮想視点画像を生成するようにしてもよい。これら左眼用と右眼用の仮想視点画像を立体視ディスプレイ等を介して表示することにより、ユーザに対して3次元画像を提供することも可能となる。   The present invention is not limited to the embodiment described above. For example, the left eye position and the right eye position of the user are estimated based on the coordinates of the user's head position, and the relative position information α, β, γ is adjusted as relative position information, and the left eye position and the right eye position are adjusted. A virtual viewpoint image may be generated for each eye. By displaying these left-eye and right-eye virtual viewpoint images via a stereoscopic display or the like, a three-dimensional image can be provided to the user.

また本発明は、インターネット網等のネットワーク50を介した空間接続効果を得る場合に限定されるものではなく、ネットワーク50を介さないで、撮像表示装置2を互いに接続しても、同様の効果を得ることができることは勿論である。   Further, the present invention is not limited to the case of obtaining a spatial connection effect via the network 50 such as the Internet network. Even if the imaging display devices 2 are connected to each other without the network 50, the same effect can be obtained. Of course, it can be obtained.

本発明を適用した画像送受信システムの概略を示す図である。It is a figure which shows the outline of the image transmission / reception system to which this invention is applied. 撮像カメラ群を構成するカメラの配列につき説明するための図である。It is a figure for demonstrating about the arrangement | sequence of the camera which comprises an imaging camera group. ディスプレイの構成について説明するための図である。It is a figure for demonstrating the structure of a display. 突出部の視野角θd並びにカメラの撮像角θcにつき説明するための図である。It is a figure for demonstrating about the viewing angle (theta) d of a protrusion part, and the imaging angle (theta) c of a camera. 撮像信号処理部の構成につき説明するための図である。It is a figure for demonstrating per structure of an imaging signal process part. カメラキャリブレーション方法につき説明するための図である。It is a figure for demonstrating per camera calibration method. マッチング部における画像間対応付けにつき説明するための図である。It is a figure for demonstrating per-image matching in a matching part. 空間接続効果につき説明するための図である。It is a figure for demonstrating per space connection effect. 空間接続効果を得るための制御方法につき説明するための図である。It is a figure for demonstrating about the control method for obtaining the space connection effect. 各カメラの光学中心により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行う場合につき説明するための図である。It is a figure for demonstrating the case where an optical axis is match | combined to M point of imaging | photography object from a mutually different viewpoint by the optical center of each camera. 仮想平面πを設定する場合につき説明するための図である。It is a figure for demonstrating about the case where virtual plane (pi) is set. 仮想視点画像間の画像内挿につき説明するための図である。It is a figure for demonstrating per image interpolation between virtual viewpoint images. 生成した仮想視点画像の例につき示す図である。It is a figure shown about the example of the produced | generated virtual viewpoint image. ディスプレイにおける表示画面上の任意の位置において仮想カメラを仮想的に設置する場合につき説明するための図である。It is a figure for demonstrating about the case where a virtual camera is virtually installed in the arbitrary positions on the display screen in a display. 選択した4台のカメラにより撮像した画像を正規化する場合につき説明するための図である。It is a figure for demonstrating about the case where the image imaged with the four selected cameras is normalized. 窓ガラスを通して反対側にある物を視認する場合につき説明するための図である。It is a figure for demonstrating about the case where the thing in an other side is visually recognized through a window glass. 撮像表示パネルを2枚背中合わせにして配置する構成を示す図である。It is a figure which shows the structure which arrange | positions two imaging display panels back to back. 半球型突出面に形成された表示素子群の詳細を示す図である。It is a figure which shows the detail of the display element group formed in the hemispherical protrusion surface. 素子集成体を撮像表示パネル上に配列する例を示す図である。It is a figure which shows the example which arranges an element assembly on an imaging display panel.

符号の説明Explanation of symbols

1 画像送受信システム、2 各撮像表示装置、5 ディスプレイ、6 撮像信号処理部、7 送受信部、8 表示信号処理部、10 撮像カメラ群、11〜18 カメラ   DESCRIPTION OF SYMBOLS 1 Image transmission / reception system, 2 Each imaging display apparatus, 5 Display, 6 Imaging signal processing part, 7 Transmission / reception part, 8 Display signal processing part, 10 Imaging camera group, 11-18 camera

Claims (4)

半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示手段と、
上記表示手段の周囲に配設された少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像手段と、
仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、
上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、
上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を他の電子機器へ送信し、又は当該他の電子機器により生成された仮想視点画像を受信する送受信手段と、
上記送受信手段により受信された仮想視点画像を構成する各画素位置に応じて、上記表示手段において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示手段を制御する表示処理手段とを備え、
上記画像補正手段は、上記情報生成手段により生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する撮像表示装置。
Projections having a plurality of display elements formed on a hemispherical projection surface are two-dimensionally arranged, and an address assigned to the display element formed on each projection is selected to emit light corresponding to the luminance component at the pixel position. Display means for displaying an image by exiting in a specified exit direction;
Imaging means for imaging a subject to be photographed from different viewpoints by at least four cameras disposed around the display means;
Information generating means for generating relative position information indicating a relative positional relationship of the optical center with respect to each of the cameras in a virtually installed virtual camera;
Image correcting means for aligning at least one normal direction of each image captured by each camera with one direction;
Matching means for associating each image position with each other between the images corrected by the image correction means, in association with the photographing object;
An image for obtaining a pixel position and its luminance component constituting a virtual viewpoint image to be generated by the virtual camera according to the generated relative position information from the pixel position and its luminance component associated with each other by the matching means. Generating means;
A transmission / reception means for transmitting a virtual viewpoint image composed of the pixel position obtained by the image generation means and its luminance component to another electronic device, or receiving a virtual viewpoint image generated by the other electronic device;
In accordance with each pixel position constituting the virtual viewpoint image received by the transmission / reception means, an address of the display element is selected for each of the two-dimensionally arranged protrusions on the display means, and the output corresponding to the luminance component at the pixel position is selected. Display processing means for controlling the display means so as to emit light by each display element,
The image correction means selects two sets of three cameras from the four cameras based on the relative position information generated by the information generation means, and three cameras are selected for each selected set. A projection transformation matrix for projecting the normal direction of each captured image onto a virtually set virtual plane is obtained, and the normal direction of each image is determined based on the obtained projection transformation matrix. When the normal direction for each set differs according to the direction , the method of the image captured by one camera not selected in common with each other and projected based on the projective transformation matrix An imaging display device that corrects each normal direction of an image captured by another three cameras and projected based on the projection transformation matrix so as to be in the same direction as the line direction .
少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像手段と、
半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示手段と、
仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、
上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、
上記画像生成手段により求められた仮想視点画像を構成する各画素位置に応じて、上記表示手段において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示手段を制御する表示処理手段とを備え、
上記画像補正手段は、上記情報生成手段により生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する撮像表示装置。
Imaging means for imaging a subject to be photographed from different viewpoints by at least four cameras;
Projections having a plurality of display elements formed on a hemispherical projection surface are two-dimensionally arranged, and an address assigned to the display element formed on each projection is selected to emit light corresponding to the luminance component at the pixel position. Display means for displaying an image by exiting in a specified exit direction;
Information generating means for generating relative position information indicating a relative positional relationship of the optical center with respect to each of the cameras in a virtually installed virtual camera;
Image correcting means for aligning at least one normal direction of each image captured by each camera with one direction;
Matching means for associating each image position with each other between the images corrected by the image correction means, in association with the photographing object;
An image for obtaining a pixel position and its luminance component constituting a virtual viewpoint image to be generated by the virtual camera according to the generated relative position information from the pixel position and its luminance component associated with each other by the matching means. Generating means;
In accordance with each pixel position constituting the virtual viewpoint image obtained by the image generation means, an address of the display element is selected for each projecting portion arranged two-dimensionally in the display means, and according to the luminance component of the pixel position. Display processing means for controlling the display means so that the emitted light is emitted by each display element,
The image correction means selects two sets of three cameras from the four cameras based on the relative position information generated by the information generation means, and three cameras are selected for each selected set. A projection transformation matrix for projecting the normal direction of each captured image onto a virtually set virtual plane is obtained, and the normal direction of each image is determined based on the obtained projection transformation matrix. When the normal direction for each set differs according to the direction , the method of the image captured by one camera not selected in common with each other and projected based on the projective transformation matrix An imaging display device that corrects each normal direction of an image captured by another three cameras and projected based on the projection transformation matrix so as to be in the same direction as the line direction .
半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示部の周囲に配設された少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像ステップと、
仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、
少なくとも上記各カメラにより撮像した各画像の法線方向を一方向に合わせることにより補正する画像補正ステップと、
上記画像補正ステップにより補正した各画像間において上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、
上記マッチングステップにより互いに対応付けした画素位置並びにその輝度成分から、上記情報生成ステップにより生成した相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップと、
上記画像生成ステップにより求めた画素位置並びにその輝度成分により構成される仮想視点画像をネットワークを介して送信する送信ステップと、
上記ネットワークを介して他の電子機器において生成された仮想視点画像を受信する受信ステップと、
上記受信ステップにより受信した仮想視点画像を構成する各画素位置に応じて、上記表示部において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示部を制御する表示処理ステップとを有し、
上記画像補正ステップでは、上記情報生成ステップにより生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する撮像表示方法。
Projections having a plurality of display elements formed on a hemispherical projection surface are two-dimensionally arranged, and an address assigned to the display element formed on each projection is selected to emit light corresponding to the luminance component at the pixel position. An imaging step of imaging a subject to be photographed from different viewpoints by at least four cameras disposed around a display unit that displays an image by emitting in a designated emission direction;
An information generation step of generating relative position information indicating a relative positional relationship of the optical center with respect to each of the cameras in a virtually installed virtual camera;
An image correction step for correcting by aligning the normal direction of each image captured by each camera at least in one direction;
A matching step for associating each image position with each other between the images corrected by the image correction step, in association with the shooting target;
According to the relative position information generated by the information generation step, the pixel position and the luminance component constituting the virtual viewpoint image to be generated by the virtual camera are determined from the pixel position and the luminance component associated with each other by the matching step. A desired image generation step;
A transmission step of transmitting a virtual viewpoint image constituted by the pixel position obtained by the image generation step and its luminance component via a network;
A receiving step of receiving a virtual viewpoint image generated in another electronic device via the network;
In accordance with each pixel position constituting the virtual viewpoint image received in the reception step, an address of the display element is selected for each protrusion two-dimensionally arranged in the display unit, and emitted light corresponding to the luminance component of the pixel position A display processing step for controlling the display unit so that each display element emits
In the image correction step, two sets of three cameras are selected from the four cameras based on the relative position information generated in the information generation step, and three cameras are selected for each selected group. A projection transformation matrix for projecting the normal direction of each captured image onto a virtually set virtual plane is obtained, and the normal direction of each image is determined based on the obtained projection transformation matrix. When the normal direction for each set differs according to the direction , the method of the image captured by one camera not selected in common with each other and projected based on the projective transformation matrix An imaging display method for correcting each normal direction of an image captured by another three cameras and projected based on the projection transformation matrix so as to be in the same direction as the line direction .
各撮像表示装置により撮像した画像をネットワークを介して双方向で送受信する画像送受信システムにおいて、
上記撮像表示装置は、
半球型突出面に複数の表示素子が形成された突出部が二次元配列され、各突出部に形成された表示素子に割り当てられたアドレスを選択して、画素位置における輝度成分に応じた光を指定された出射方向へ出射することにより画像を表示する表示手段と、
上記表示手段の周囲に配設された少なくとも4台のカメラにより撮影対象を互いに異なる視点から撮像する撮像手段と、
仮想的に設置される仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
少なくとも上記各カメラにより撮像された各画像の法線方向を一方向に合わせる画像補正手段と、
上記画像補正手段により補正された各画像間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、上記仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、
上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を上記ネットワークを介して相手側の撮像表示装置へ送信し、又は相手側の撮像表示装置により生成された仮想視点画像を上記ネットワークを介して受信する送受信手段と、
上記送受信手段により受信された仮想視点画像を構成する各画素位置に応じて、上記表示手段において二次元配列された突出部毎に表示素子のアドレスを選択し、画素位置の輝度成分に応じた出射光を各表示素子により出射するように、上記表示手段を制御する表示処理手段とを有し、
上記画像補正手段は、上記情報生成手段により生成された相対位置情報に基づいて、4台のカメラの中から、3台のカメラを2組選択し、選択した組毎に、3台のカメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて各画像の法線方向を上記仮想平面の法線方向に合わせて、各組毎に合わせた法線方向が異なるときは、互いの組で共通して選択していない1台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の法線方向と同一方向となるように、他の3台のカメラにより撮像され上記射影変換行列に基づいて射影された画像の各法線方向を補正する画像送受信システム。
In an image transmission / reception system that bi-directionally transmits / receives an image captured by each imaging display device via a network,
The imaging display device
Projections having a plurality of display elements formed on a hemispherical projection surface are two-dimensionally arranged, and an address assigned to the display element formed on each projection is selected to emit light corresponding to the luminance component at the pixel position. Display means for displaying an image by exiting in a specified exit direction;
Imaging means for imaging a subject to be photographed from different viewpoints by at least four cameras disposed around the display means;
Information generating means for generating relative position information indicating a relative positional relationship of the optical center with respect to each of the cameras in a virtually installed virtual camera;
Image correcting means for aligning at least one normal direction of each image captured by each camera with one direction;
Matching means for associating each image position with each other between the images corrected by the image correction means, in association with the photographing object;
An image for obtaining a pixel position and its luminance component constituting a virtual viewpoint image to be generated by the virtual camera according to the generated relative position information from the pixel position and its luminance component associated with each other by the matching means. Generating means;
A virtual viewpoint image composed of the pixel position obtained by the image generation means and its luminance component is transmitted to the other imaging display device via the network, or a virtual viewpoint generated by the other imaging display device A transmission / reception means for receiving an image via the network;
In accordance with each pixel position constituting the virtual viewpoint image received by the transmission / reception means, an address of the display element is selected for each of the two-dimensionally arranged protrusions on the display means, and the output corresponding to the luminance component at the pixel position is selected. Display processing means for controlling the display means so as to emit light by each display element,
The image correction means selects two sets of three cameras from the four cameras based on the relative position information generated by the information generation means, and three cameras are selected for each selected set. A projection transformation matrix for projecting the normal direction of each captured image onto a virtually set virtual plane is obtained, and the normal direction of each image is determined based on the obtained projection transformation matrix. When the normal direction for each set differs according to the direction , the method of the image captured by one camera not selected in common with each other and projected based on the projective transformation matrix An image transmission / reception system that corrects each normal direction of an image captured by another three cameras and projected on the basis of the projection transformation matrix so as to be in the same direction as the line direction .
JP2003385549A 2003-11-14 2003-11-14 Imaging display apparatus and method, and image transmission / reception system Expired - Fee Related JP4595313B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003385549A JP4595313B2 (en) 2003-11-14 2003-11-14 Imaging display apparatus and method, and image transmission / reception system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003385549A JP4595313B2 (en) 2003-11-14 2003-11-14 Imaging display apparatus and method, and image transmission / reception system

Publications (2)

Publication Number Publication Date
JP2005149127A JP2005149127A (en) 2005-06-09
JP4595313B2 true JP4595313B2 (en) 2010-12-08

Family

ID=34693573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003385549A Expired - Fee Related JP4595313B2 (en) 2003-11-14 2003-11-14 Imaging display apparatus and method, and image transmission / reception system

Country Status (1)

Country Link
JP (1) JP4595313B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250452A (en) * 2009-04-14 2010-11-04 Tokyo Univ Of Science Arbitrary viewpoint image synthesizing device
JP5388032B2 (en) * 2009-05-11 2014-01-15 独立行政法人情報通信研究機構 Remote communication system, control device, control method and program
JP5182229B2 (en) * 2009-06-02 2013-04-17 ソニー株式会社 Image processing apparatus, image processing method, and program
CN102598652B (en) 2009-10-30 2015-08-12 佳能株式会社 Messaging device and method
JP2011165068A (en) * 2010-02-12 2011-08-25 Nec System Technologies Ltd Image generation device, image display system, image generation method, and program
JP4939639B2 (en) * 2010-09-28 2012-05-30 シャープ株式会社 Image processing apparatus, image processing method, program, and recording medium
WO2013105443A1 (en) 2012-01-13 2013-07-18 ソニー株式会社 Information processing device and information processing method, as well as computer program
JP6196017B2 (en) 2012-01-13 2017-09-13 サターン ライセンシング エルエルシーSaturn Licensing LLC Information processing apparatus, information processing method, and computer program
JP5957893B2 (en) 2012-01-13 2016-07-27 ソニー株式会社 Information processing apparatus, information processing method, and computer program
US10911727B2 (en) * 2017-06-16 2021-02-02 Apple Inc. Image sensor with optical communication capabilities

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749944A (en) * 1993-08-04 1995-02-21 Canon Inc Method and device for image processing
JPH08147497A (en) * 1994-11-25 1996-06-07 Canon Inc Picture processing method and device therefor
JPH09114979A (en) * 1995-10-18 1997-05-02 Nippon Telegr & Teleph Corp <Ntt> Camera system
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image
JP2000307949A (en) * 1999-02-19 2000-11-02 Mr System Kenkyusho:Kk Image interpolating method, image processing method, image displaying method, image processor, image display device and computer program storage medium
JP2001034788A (en) * 1999-07-26 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> Method and device for synthesizing and displaying image and recording medium recording image synthesis and display program
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
JP2001067473A (en) * 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> Method and device for image generation
JP2002300602A (en) * 2001-04-02 2002-10-11 Sony Corp Window-type image pickup/display device and two-way communication method using the same
JP2003163929A (en) * 2002-08-23 2003-06-06 Mitsubishi Electric Corp Image monitor

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749944A (en) * 1993-08-04 1995-02-21 Canon Inc Method and device for image processing
JPH08147497A (en) * 1994-11-25 1996-06-07 Canon Inc Picture processing method and device therefor
JPH09114979A (en) * 1995-10-18 1997-05-02 Nippon Telegr & Teleph Corp <Ntt> Camera system
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image
JP2000307949A (en) * 1999-02-19 2000-11-02 Mr System Kenkyusho:Kk Image interpolating method, image processing method, image displaying method, image processor, image display device and computer program storage medium
JP2001034788A (en) * 1999-07-26 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> Method and device for synthesizing and displaying image and recording medium recording image synthesis and display program
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
JP2001067473A (en) * 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> Method and device for image generation
JP2002300602A (en) * 2001-04-02 2002-10-11 Sony Corp Window-type image pickup/display device and two-way communication method using the same
JP2003163929A (en) * 2002-08-23 2003-06-06 Mitsubishi Electric Corp Image monitor

Also Published As

Publication number Publication date
JP2005149127A (en) 2005-06-09

Similar Documents

Publication Publication Date Title
US10750210B2 (en) Three-dimensional telepresence system
JP4069855B2 (en) Image processing apparatus and method
JP5238429B2 (en) Stereoscopic image capturing apparatus and stereoscopic image capturing system
CN101431617B (en) Method and system for combining videos for display in real-time
US20110025830A1 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
CN101636747A (en) Two dimensional/three dimensional digital information obtains and display device
JP2006114023A (en) Image processing device and method
CN102160388A (en) Three-dimensional display device and method as well as program
JP4461739B2 (en) Imaging device
WO2011014421A2 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
TWI788739B (en) 3D display device, 3D image display method
JP4595313B2 (en) Imaging display apparatus and method, and image transmission / reception system
JP4576740B2 (en) Window-shaped imaging display device and bidirectional communication method using the same
KR101801100B1 (en) Video providing apparatus and method for supporting production of immersive contents
KR101158678B1 (en) Stereoscopic image system and stereoscopic image processing method
CN107155102A (en) 3D automatic focusing display method and system thereof
JP4523538B2 (en) 3D image display device
JP4211097B2 (en) Receiver, position recognition apparatus thereof, position recognition method thereof, and virtual image stereoscopic composition apparatus
JP2005142765A (en) Apparatus and method for imaging
CN116781874A (en) Display method, display system, and recording medium having program recorded thereon
JP3081377B2 (en) 3D video phone
JP2011082935A (en) Image processor
KR100489213B1 (en) View finder system for stereo picture
WO2024014415A1 (en) Imaging method, learning method, learning data generation method, and data structure
JP2005078313A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees