JP2010250452A - Arbitrary viewpoint image synthesizing device - Google Patents
Arbitrary viewpoint image synthesizing device Download PDFInfo
- Publication number
- JP2010250452A JP2010250452A JP2009097580A JP2009097580A JP2010250452A JP 2010250452 A JP2010250452 A JP 2010250452A JP 2009097580 A JP2009097580 A JP 2009097580A JP 2009097580 A JP2009097580 A JP 2009097580A JP 2010250452 A JP2010250452 A JP 2010250452A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- distance
- unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002194 synthesizing effect Effects 0.000 title abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 26
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 26
- 239000000203 mixture Substances 0.000 claims description 62
- 238000006243 chemical reaction Methods 0.000 claims description 29
- 238000011156 evaluation Methods 0.000 claims description 18
- 230000001788 irregular Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 abstract description 7
- 239000002131 composite material Substances 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 51
- 239000011159 matrix material Substances 0.000 description 20
- 230000014509 gene expression Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000004397 blinking Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
- H04N7/144—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、例えばテレビ会議システムまたはテレビ電話システムに適用可能な任意視点画像合成装置に関するものであり、表示装置の周囲に配置した複数のカメラからの被写体画像を、利用者の視点位置に応じた画像に合成する任意視点画像合成装置に関するものである。 The present invention relates to an arbitrary viewpoint image composition device applicable to, for example, a video conference system or a video phone system, and subject images from a plurality of cameras arranged around a display device according to a user's viewpoint position. The present invention relates to an arbitrary viewpoint image composition device that composes an image.
テレビ会議システムやテレビ電話システム等のテレビ対話システムにおいて動画像より得られる非言語情報は、身振り、姿勢等、様々なものがある。その中でも、視線は、発言に対する自信や相手に対する信頼の有無を示したり、相手に発言を促したりと互いの気持ちや雰囲気の伝達に大きく寄与する情報である。そのためテレビ対話システムでは、端末の利用者同士が実空間と同じように視線を正確に得られることが重要となる。 Non-linguistic information obtained from a moving image in a video dialogue system such as a video conference system or a video phone system includes a variety of gestures and postures. Among them, the line of sight is information that greatly contributes to the transmission of each other's feelings and atmosphere, such as showing confidence in the speech and the presence or absence of trust in the partner, or prompting the partner to speak. For this reason, it is important in the television dialogue system that the users of the terminals can obtain the line of sight accurately as in the real space.
しかし、現状のテレビ対話システムではこれを実現することは容易ではない。1対1の対話において互いが正面を向き合った時に視線を一致させるためには、利用者を撮影するカメラをディスプレイ中央部に配置することが必要である。この場合、正面方向を向いた画像を得ることができるが、カメラがディスプレイの画像を遮るために実用的な配置とは言えない。そのため、カメラをディスプレイ周辺部に配置することになるが、この場合、カメラの撮影方向と利用者の視線方向にズレが生じるため、正面を向いていない画像を得ることになる。この視線がズレた画像をシステムで利用した場合、対話する相手と視線を合わせることができないという問題が生じる。特にこの問題は大型ディスプレイ利用時に顕著に表れる。 However, it is not easy to realize this with the current television dialogue system. In order to match the line of sight when the front faces each other in a one-on-one dialogue, it is necessary to arrange a camera for photographing the user in the center of the display. In this case, an image facing the front direction can be obtained, but it cannot be said to be a practical arrangement because the camera blocks the image on the display. For this reason, the camera is arranged at the periphery of the display. In this case, an image that is not facing the front is obtained because of a deviation between the shooting direction of the camera and the viewing direction of the user. When an image in which the line of sight is shifted is used in the system, there arises a problem that the line of sight cannot be matched with the other party to talk with. This problem is particularly noticeable when using large displays.
前述のように視線はコミュニケーションにとって重要な情報であるため、視線の不一致は動画像を利用して対話を行う利点を大きく損なってしまう。これまで、ハードウェア及びアルゴリズムの観点から視線が一致しない問題の解決が試みられている。従来より、ハーフミラーを用いたシステムが数多く知られているが、装置がかさばる、箱を覗き込む感じ(画像が奥に見える)、カメラが奥にあり真正面にいる必要がある、等の課題があり、主流になっていない。 As described above, since the line of sight is important information for communication, the mismatch of the line of sight greatly impairs the advantage of performing dialogue using moving images. Up to now, attempts have been made to solve the problem that the line of sight does not match from the viewpoint of hardware and algorithm. Many systems using half-mirrors have been known in the past. However, there are problems such as the device being bulky, the feeling of looking into the box (the image can be seen in the back), and the camera must be in the back and in front of you. Yes, not mainstream.
このような問題を解決するために、ディスプレイ中央視点の画像を周囲のカメラから合成することで、視線一致を実現する方法が知られている(例えば、後述の特許文献1、2参照)。
In order to solve such a problem, a method of realizing line-of-sight matching by synthesizing an image of a display center viewpoint from surrounding cameras is known (for example, see
特許文献1のネットワーク会議画像処理装置においては、2台のビデオカメラ、ディスプレイ装置、画像処理部、画像合成部、視点検出部、画像表示処理部、画像作成部、表示制御部及び伝送路を有し、他のネットワーク会議画像処理装置との間で画像情報、視点情報及び画像制御情報を伝送し、この情報によって会議者の視点の位置変化に対応して伝送する画像の撮影位置及び撮影範囲を変化させ、会議者の視点の移動に対応して、その視線を一致させることができる。 The network conference image processing apparatus disclosed in Patent Document 1 includes two video cameras, a display device, an image processing unit, an image composition unit, a viewpoint detection unit, an image display processing unit, an image creation unit, a display control unit, and a transmission path. Then, image information, viewpoint information, and image control information are transmitted to and from other network conference image processing apparatuses, and the shooting position and shooting range of the image to be transmitted corresponding to the change in the position of the viewpoint of the conference party are determined based on this information. The line of sight can be matched in accordance with the movement of the viewpoint of the conference person.
また、特許文献2の画像処理装置および画像処理方法においては、ディスプレイの両側に複数のカメラを配置した撮影部で撮影された入力画像より、被写体の3次元情報を抽出し、その3次元情報と受信者の自由な視点位置の情報より再構成・表示部で被写体の出力画像を表示する。これにより利用者の視線一致を可能にし、受信者の自由な視点位置での送信者の画像を生成することができる。
Further, in the image processing apparatus and the image processing method disclosed in
また、予め撮影した視線の一致した目の画像を対話者の顔に貼り付けるような簡易的な方法も知られている(例えば、後述の特許文献3参照)。特許文献3の撮像機能付携帯電話機とその制御方法及び制御プログラムにおいては、カメラに対して視線が一致した画像を記憶部に予め記憶しておき、カメラが撮影する通話中の通話者の画像に、予め記憶されている視線が一致した画像を、貼り付けて視線が補正された画像を作成し、視線が補正された画像を相手通話者に送信することができる。 A simple method is also known in which an image of eyes that have been photographed in advance and that matches the line of sight is pasted on the face of the conversation person (for example, see Patent Document 3 described later). In the mobile phone with an imaging function and the control method and control program of Patent Document 3, an image whose line of sight coincides with the camera is stored in advance in the storage unit, and the image of the caller during a call captured by the camera is stored. Then, it is possible to create an image in which the line of sight is corrected by pasting an image in which the line of sight stored in advance is matched, and to transmit the image in which the line of sight is corrected to the other party.
しかしながら、特許文献1〜2の画像処理装置では、特徴点ベースで3次元位置を推定し、空間モデルにマッピングするため、2次元画像としての画質が劣化し、自然なコミュニケーションの妨げになる、という課題があった。特に、顔または目の画質の劣化や不自然さは、視線一致等の自然なコミュニケーションに悪影響を及ぼす、という課題があった。また、ディスプレイに表示した目の位置に撮影方向と視線方向を一致させた仮想カメラを正確に設置できず、不自然な視線となる、という課題もあった。
However, in the image processing apparatuses of
また、特許文献3は、予め撮影した正面の目を貼り付けるため、目だけは正面を見ている感じはあるものの、顔全体として見た場合、不自然な画像になる、という課題があった。特に、正面の目は予め撮影した静止画のため、動画像にした場合、目の部分だけ動きが無いという不自然な画像になり、動画像には適用できない、という課題もあった。 In addition, Patent Document 3 has a problem that, since the front eyes photographed in advance are pasted, there is a feeling that only the eyes are looking at the front, but when the whole face is viewed, an unnatural image is formed. . In particular, since the front eye is a still image taken in advance, there is a problem that when it is converted into a moving image, it becomes an unnatural image in which only the eye portion does not move and cannot be applied to a moving image.
本発明は、このような事情に鑑みてなされたもので、撮影方向の異なる複数のカメラの画像を合成処理して、撮影方向と視線方向を一致させた画像を生成する任意視点画像合成装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an arbitrary viewpoint image synthesis device that generates an image in which a shooting direction and a line-of-sight direction are matched by combining images of a plurality of cameras having different shooting directions. The purpose is to provide.
本発明は、表示装置の表示部周囲の上部、右側面部、左側面部の少なくとも3箇所に設置され、被写体の画像を撮影するカメラと、前記カメラにより撮影された各画像に基づいて、被写体の視線方向にある仮想カメラから撮影された画像を合成する画像合成処理部と、を備え、
前記画像合成処理部は、前記カメラのカメラキャリブレーションによるカメラパラメータを用いてカメラ座標系から仮想カメラ座標系に変換する座標変換部と、前記座標変換部で変換した画像に対し被写体の距離モデルを推定する距離推定部と、前記被写体の距離モデルより仮想カメラ視点の画像を合成する画像合成部とを備えることを特徴とする任意視点画像合成装置である。
The present invention provides a camera that captures an image of a subject that is installed at at least three locations around the display unit of the display device, the right side surface, and the left side surface, and the line of sight of the subject based on each image captured by the camera. An image composition processing unit for compositing images taken from a virtual camera in a direction,
The image composition processing unit converts a camera coordinate system from a camera coordinate system to a virtual camera coordinate system using camera parameters obtained by camera calibration of the camera, and sets a distance model of a subject with respect to the image converted by the coordinate conversion unit. An arbitrary viewpoint image synthesizing apparatus comprising: a distance estimating unit for estimating; and an image synthesizing unit for synthesizing a virtual camera viewpoint image from the distance model of the subject.
ここで、前記距離推定部は、前記座標変換部で変換した画像に対し、2枚1組ずつブロックマッチングによる評価を行い、仮想平面距離を距離推定を行う範囲で変化させ、全ての距離において評価を行い、評価値がもっとも小さな距離を注目画素の距離値として求めて、被写体の距離モデルを推定することを特徴とする。 Here, the distance estimation unit performs evaluation by block matching for each pair of images converted by the coordinate conversion unit, changes the virtual plane distance within a range in which distance estimation is performed, and evaluates at all distances. The distance model having the smallest evaluation value is obtained as the distance value of the target pixel, and the distance model of the subject is estimated.
また、前記距離推定部は、前記ブロックマッチングによる評価を変則形ブロックで行うことを特徴とする。 The distance estimation unit may perform the evaluation by the block matching using an irregular block.
また、前記画像合成部は、前記座標変換部で変換した画像から前記被写体の距離モデルに対応する画素の色を抽出して貼り付けることを特徴とする。 The image composition unit may extract and paste a color of a pixel corresponding to the distance model of the subject from the image converted by the coordinate conversion unit.
また、前記画像合成部は、前記距離値より仮想カメラの画素に対応する周囲のカメラの画素を1対1の関係で求めることを特徴とする。 In addition, the image composition unit obtains pixels of surrounding cameras corresponding to the pixels of the virtual camera from the distance value in a one-to-one relationship.
本発明によれば、上記構成とすることにより、正面画像を高画質化でき、視線一致感が向上するという効果が得られる。また、特に目の周辺領域の画質を向上させることにより、一層、視線一致感を向上することが可能となり、テレビ対話システムに適用可能な任意視点画像合成装置を実現することができる。 According to the present invention, with the above-described configuration, it is possible to obtain an effect that the front image can be improved in image quality and the line-of-sight matching feeling is improved. In particular, by improving the image quality of the peripheral region of the eyes, it is possible to further improve the line-of-sight matching feeling, and it is possible to realize an arbitrary viewpoint image composition device applicable to a television conversation system.
また、本発明によれば、前記距離推定部において、前記カメラから取得した画像を変則形ブロックでブロックマッチングを行うため、オクルージョン影響を減らすことができ、正面画像の合成結果を高画質化することができる。すなわち、視線一致感が向上するという効果が得られる。 Further, according to the present invention, the distance estimation unit performs block matching on the image acquired from the camera with an irregular block, so that the influence of occlusion can be reduced and the synthesis result of the front image can be improved in image quality. Can do. That is, the effect of improving the line-of-sight match is obtained.
以下に、本発明の実施形態について、図面を参照して詳細に説明する。 Embodiments of the present invention will be described below in detail with reference to the drawings.
図1は、本発明の第1の実施形態に係る、任意視点画像合成システム1の全体構成を示す機能ブロック図である。図1に示す任意視点画像合成システム1は、画像を表示する表示装置5と、被写体6の撮影画像をもとに被写体6の視線方向と撮影方向を一致させる画像を合成する任意視点画像合成装置10とから構成される。任意視点画像合成装置10は、被写体6を撮影するカメラ2A,2B,2Cと、撮影された画像から仮想カメラ視点の画像を合成する画像合成処理部3と、合成画像を出力する画像出力部4とから基本的に構成されている。
FIG. 1 is a functional block diagram showing the overall configuration of an arbitrary viewpoint image synthesis system 1 according to the first embodiment of the present invention. An arbitrary viewpoint image composition system 1 shown in FIG. 1 includes a
図1に示すように、カメラ2Aは表示装置5の中央上部に、カメラ2Bは表示装置5の側面左下部に、カメラ2Cは表示装置5の側面右下部に装着されている。このように表示装置5の表示部分の周囲3箇所に配置されたカメラ2A,2B,2Cにより、被写体6を同時に撮影する。
As shown in FIG. 1, the
図2に任意視点画像合成システム1の処理手順のフローチャートを示す。
まず、カメラ2A,2B,2Cにより被写体6を撮影し画像を取得する(ステップS21:以降ステップを省略する)。次に画像合成処理部3により、撮影した3つの画像から、撮影方向と視線方向を一致させた仮想カメラの視点の画像を合成する(S22)。合成した画像を画像出力部4から表示装置5へ出力し(S23)、表示装置5に仮想カメラ視点の画像を表示する(S24)。
FIG. 2 shows a flowchart of the processing procedure of the arbitrary viewpoint image synthesis system 1.
First, the
次に、画像合成処理部3の詳細構成を図3に示す。
画像合成処理部3は、カメラ2A,2B,2Cにより撮影された画像をカメラ座標系から仮想カメラ座標系に変換する座標変換部21,22,23と、仮想カメラ座標系に変換した画像に対し被写体の距離画像(距離モデル)を推定する距離推定部24と、推定した距離モデルより仮想カメラ視点の画像を合成する画像合成部25と、座標変換に用いるカメラのパラメータを記憶するカメラパラメータ記憶部26とから基本的に構成されている。
Next, a detailed configuration of the image composition processing unit 3 is shown in FIG.
The image composition processing unit 3 includes coordinate
さらに、画像合成処理部3の各部の詳細な処理関係を図4に示す。
カメラパラメータ記憶部26に記憶したパラメータに基づいて、座標変換部21,22,23では、各カメラ2A,2B,2Cからの画像I1,I2,I3から座標変換した結果の画像I1conv,I2conv,I3convを、距離推定部24、及び画像合成部25へ渡す。距離推定部24では、3枚の画像I1conv,I2conv,I3convに対し、2枚1組ずつブロックマッチングによる評価を行う。ここでは、仮想平面距離zを距離推定を行う範囲で変化させ、全ての距離において評価を行う。このとき評価値がもっとも小さな距離を注目画素(i,j)での距離値d(i,j)とする。この操作を全ての画素に対して行うことで、被写体の距離画像を推定できる(この処理の詳しい説明は後述する)。
Furthermore, the detailed processing relationship of each part of the image composition processing unit 3 is shown in FIG.
Based on the parameters stored in the camera
次に画像合成部25では、作成した被写体の距離画像に対し、座標変換画像I1conv,I2conv,I3convから対応する画素の色を抽出して貼り付ける。被写体6の距離情報が得られている場合、幾何学計算で仮想カメラの画素に対応する周囲のカメラの画素を1対1の関係で求めることができる。この操作を仮想カメラの全ての画素に対して行うことで仮想カメラ視点の画像を合成できる(この処理の詳しい説明は後述する)。
Next, the
図5に画像合成処理部3のフローチャートを示す。
図5において、座標変換部21,22,23は、カメラ2A、カメラ2B、カメラ2Cから画像I1,I2,I3を取得し(S51)、カメラ2A、カメラ2B、カメラ2Cから取得したカメラ座標系の画像I1,I2,I3を仮想カメラ座標系の画像I1conv,I2conv,I3convに変換し、距離推定部24と画像合成部25に送る(S52)。
FIG. 5 shows a flowchart of the image composition processing unit 3.
In FIG. 5, the coordinate
次に、距離推定部24は、仮想カメラ座標系に変換した画像I1conv,I2conv,I3convに対し、仮想平面距離zを距離推定を行う範囲で変化させ、全ての距離において2枚1組ずつブロックマッチングし、評価値がもっとも小さな距離を注目画素の距離値として距離画像dを推定する(S53)。
Next, the
最後に、画像合成部25が、作成した被写体の距離画像dに対応する画素の色を画像I1,I2,I3から抽出して距離画像dに貼り付け、仮想カメラ視点の画像を合成する(S54)。
Finally, the
図6にS53の距離推定部24で行う距離推定の手法のより詳細なフローチャートを示す。
距離推定の手法では、画像I1conv,I2conv,I3convの仮想平面距離zを距離推定を行う範囲で変更し(S61)、2枚1組ずつでブロックマッチングを行う(S62)。次に距離画像推定のための評価値ISUMALL(i,j)について計算を行う(S63)。評価値ISUMALL(i,j)の詳細については後述する。仮想平面距離zを、距離推定を行う全ての範囲で変化させたかを確認する(S64)。全ての範囲で変化させていない場合、S61に戻る。全ての範囲で完了した場合、距離画像推定を行い、距離画像dを出力する(S65)。距離画像dの詳細については後述する。
FIG. 6 shows a more detailed flowchart of the distance estimation method performed by the
In the distance estimation method, the virtual plane distance z of the images I 1 conv , I 2 conv , and I 3 conv is changed within the range in which distance estimation is performed (S61), and block matching is performed for each pair of two sheets (S62). Next, the evaluation value I SUMALL (i, j) for distance image estimation is calculated (S63). Details of the evaluation value I SUMALL (i, j) will be described later. It is confirmed whether or not the virtual plane distance z has been changed in all ranges in which distance estimation is performed (S64). If the change has not been made in the entire range, the process returns to S61. When the process is completed for all ranges, distance image estimation is performed and a distance image d is output (S65). Details of the distance image d will be described later.
以下、任意視点画像合成装置10に係る処理の詳細について述べる。
The details of the processing related to the arbitrary viewpoint
[カメラキャリブレーションの説明]
まず初めに、カメラキャリブレーションについて説明する。これは画像合成処理部3の座標変換部21,22,23とカメラパラメータ記憶部26に関するものである。
同一のシーンを同じ型番のカメラを用いて撮影したとしても、その取得画像はレンズ歪みや画像中心のずれなど各カメラの個体差の影響を受けるため、同一の画像を取得することはできない。そのため常に同一の条件で画像処理を行うためには個体差の補正を行わなければならない。また三角測量の原理に基づくステレオマッチングなど複数のカメラから取得した画像を用いて処理を行う場合、カメラの個体差の補正だけでなく空間的な位置関係を把握する必要がある。カメラキャリブレーションとは、このカメラ固有の個体差を示す内部変数とカメラの空間的位置を示す外部変数を求めるプロセスのことである。これにはいくつかの手法があり、形が既知のパターンを置きそれを観察する手法と、形が未知の世界を観察する手法に分類される。前者の代表的な手法として、本発明ではZhangの手法を用いた。まずカメラモデルおよびカメラパラメータについて説明を行い、単眼カメラキャリブレーションの手法であるZhangの手法について述べる。次にその手法の本任意視点画像合成装置10で用いる多眼撮像装置におけるキャリブレーションへの適用について述べる。
[Explanation of camera calibration]
First, camera calibration will be described. This relates to the coordinate
Even if the same scene is shot using cameras of the same model number, the acquired image is affected by individual differences of each camera such as lens distortion and image center shift, and therefore the same image cannot be acquired. Therefore, in order to always perform image processing under the same conditions, individual differences must be corrected. In addition, when processing is performed using images acquired from a plurality of cameras such as stereo matching based on the principle of triangulation, it is necessary to grasp not only correction of individual differences of cameras but also a spatial positional relationship. The camera calibration is a process for obtaining an internal variable indicating an individual difference inherent to the camera and an external variable indicating the spatial position of the camera. There are several methods, which can be classified into a method of placing a pattern with a known shape and observing it, and a method of observing a world with an unknown shape. As the former representative technique, the Zhang technique is used in the present invention. First, the camera model and camera parameters will be described, and then the Zhang method, which is a monocular camera calibration method, will be described. Next, application of the method to calibration in the multi-view imaging apparatus used in the arbitrary viewpoint
[カメラモデルとカメラパラメータ:カメラモデルと座標系の説明]
我々は、物体に反射した光が目のレンズを通り網膜に届くことで被写体を見ている。カメラにおいても網膜の役目をCCDやCMOSセンサが行っている点を除き同様に考えることができる。この機構を簡単なモデルで表したものが図7に示すピンホールカメラモデルである。ピンホールカメラは画像平面31とピンホール32により構成され、ピンホール32とはピンホール平面33の中央部に設けられた微小な穴である。ピンホール平面33とは、ピンホール32を通る光以外は全て遮断する仮想平面のことである。
[Camera model and camera parameters: description of camera model and coordinate system]
We see the subject as the light reflected by the object passes through the eye lens and reaches the retina. The camera can be considered similarly except that the CCD or CMOS sensor performs the role of the retina. A simple model of this mechanism is the pinhole camera model shown in FIG. The pinhole camera is composed of an
画像平面31は網膜やCMOSセンサに対応するものである。ここでfはカメラの焦点距離、zはカメラ(ピンホール32)と被写体34の距離、yは被写体34の大きさ、yscreenは画像平面31における被写体34の投影像35の大きさをそれぞれ示す。このピンホールカメラモデルにおいては画像平面31に至る光はすべてピンホール32を通過し、画像平面31と交差した位置で像を結ぶことになる。この様な射影を中心射影と呼ぶ。また、このとき図7より、次の(1)式を得る。
The
これは像が上下逆転して画像平面31に表示されることを示す。しかし、これでは直感的に射影を扱いにくい。そこで図7の画像平面31とピンホール平面33を入れ替えた図8のモデルがよく用いられる。このようにカメラを中心として定義した座標系をカメラ座標系と呼ぶ。このとき画像座標系は画像中心を原点とし、x軸とy軸はそれぞれカメラの素子の配置軸にあわせる。3次元空間のカメラ座標系は点Cを原点に、光軸をZ軸とし、X軸、Y軸は右手系になるよう配置する。このときピンホール32は射影中心Cとなり、被写体34からの光線は全てこの射影中心Cに向かう。そこで図8において、次の(2)式が成り立ち、像が反転せずに画像平面に表示されることがわかる。
This indicates that the image is displayed upside down on the
このとき画像座標系m(xscreen,yscreen)と3次元空間のカメラ座標系M(X,Y,Z)との関係は(3)式として表される。 At this time, the relationship between the image coordinate system m (x screen , y screen ) and the camera coordinate system M (X, Y, Z) in the three-dimensional space is expressed as equation (3).
[カメラモデルとカメラパラメータ:外部パラメータの説明]
(3)式を線形表現すると(4)式として表すことができる。
[Camera model and camera parameters: description of external parameters]
When the expression (3) is expressed linearly, it can be expressed as an expression (4).
ここで、sはスカラーである。m、Mは同次座標表現であり、それぞれ次の(5)式、(6)式を意味する。 Here, s is a scalar. m and M are homogeneous coordinate expressions, and mean the following expressions (5) and (6), respectively.
また、ここでPは、中心射影の射影行列であり、次の(7)式で表される。 Here, P is a projection matrix for central projection, and is expressed by the following equation (7).
図7及び図8においては、3次元空間内の点をカメラ座標系で記述していたが、実際は世界座標系を用いることが多い。図9に世界座標系とカメラ座標系の関係を示す。座標軸の添字wは世界座標系を、cはカメラ座標系を表している。図9に示すように、世界座標系をカメラ座標系に変換するには世界座標系を回転させたのち平行移動させることになる。回転は3行3列の回転行列Rとして次の(8)式で、平行移動は3行1列の並進ベクトルtとして次の(9)式で表される。 7 and 8, the points in the three-dimensional space are described in the camera coordinate system, but in reality, the world coordinate system is often used. FIG. 9 shows the relationship between the world coordinate system and the camera coordinate system. The suffix w of the coordinate axis represents the world coordinate system, and c represents the camera coordinate system. As shown in FIG. 9, in order to convert the world coordinate system to the camera coordinate system, the world coordinate system is rotated and then translated. The rotation is expressed by the following equation (8) as a rotation matrix R of 3 rows and 3 columns, and the translation is expressed by the following equation (9) as a translation vector t of 3 rows and 1 column.
ここでθX,θY,θZは、次の(10)、(11)、(12)の各式に示す通りであり、それぞれの座標軸まわりの回転を表す。回転の方向は右手系とする。なお、回転行列Rから各座標軸まわりの回転を求めることもできる。 Here, θ X , θ Y , and θ Z are as shown in the following equations (10), (11), and (12), and represent rotations about the respective coordinate axes. The direction of rotation is the right-handed system. Note that rotation about each coordinate axis can also be obtained from the rotation matrix R.
ここで(8)式、(9)式を用いてカメラ座標系における点MCとそれに対応する世界座標系における座標MWとの幾何学的関係は次の(13)式で表される。 Where (8), the geometric relationship between the coordinates M W in the world coordinate system and the corresponding point M C in the camera coordinate system using equation (9) can be expressed by the following equation (13).
このR、tをあわせて、カメラの外部パラメータと呼ぶ。 R and t are collectively referred to as an external parameter of the camera.
[カメラモデルとカメラパラメータ:内部パラメータの説明]
以上は、理想的なカメラモデルの定義とカメラ座標系について説明したが、実際のカメラはこの単純なモデルで表すことはできない。図10(a)のように実際にカメラ2において、レンズ41を取り付けた場合、センサ42の中心を通る光軸Z1とレンズの光軸Z0とが一致するとは限らない。これは、センサ42を接着材43により取り付けるときに傾いてしまう場合があるからである。また、センサ42の画素が正方でない場合は画像の両座標軸のスケールが異なる場合がある。さらに図10(b)に示すように、実際の画像の両座標軸が必ず直交するとは限らない。このため、画像に歪み43が生じる場合もある。
[Camera model and camera parameters: description of internal parameters]
The above describes the definition of the ideal camera model and the camera coordinate system, but an actual camera cannot be represented by this simple model. When the lens 41 is actually attached to the
ここで図11に示すように新たなパラメータとして、光軸とセンサ面が交わる座標と画像中心座標とのずれ量を示すu0,v0、実際の画像の両座標軸がなす角度を示すθ、両座標軸の単位長を示すku,kvを導入する。このとき座標系c−xyは画像中心cを原点とし、x軸とy軸は同じスケールを持つ。座標系o−uvは画像座標系である。ここで座標系o−uvと座標系c−xyの座標をそれぞれm=[u,v]T,ms=[x,y]Tとすると次の(14)式が成り立つ。 Here, as shown in FIG. 11, as new parameters, u 0 and v 0 indicating the shift amount between the coordinates at which the optical axis and the sensor surface intersect with the image center coordinates, θ indicating the angle formed by the two coordinate axes of the actual image, Introducing k u and k v indicating the unit length of both coordinate axes. At this time, the coordinate system c-xy has the image center c as the origin, and the x axis and the y axis have the same scale. The coordinate system o-uv is an image coordinate system. Here, when the coordinates of the coordinate system o-uv and the coordinate system c-xy are m = [u, v] T and m s = [x, y] T , the following equation (14) is established.
ここで、Hは、次の(15)式である。 Here, H is the following equation (15).
(4)式、(14)式より、(16)式が成り立つ。 Equation (16) is established from Equation (4) and Equation (14).
ここで、PMは、次の(17)式である。 Here, P M is the following equation (17).
ここで、fkuとfkvをそれぞれαuとαvで置き換えると、(17)式は次の(18)式のように表わされる。 Here, when fk u and fk v are replaced with α u and α v , respectively, equation (17) is expressed as the following equation (18).
ここでA、PNは以下の(19)式、(20)式で表わされる行列である。 Here, A and PN are matrices represented by the following equations (19) and (20).
この行列Aはカメラの内部の変数によって構成されており、カメラの内部パラメータと呼ばれる。 This matrix A is composed of internal variables of the camera and is called an internal parameter of the camera.
[単眼カメラキャリブレーション:既知パターンによる校正法の説明]
既知パターンによる校正は、3次元形状が既知の物体を観察し、その2次元への投影像と比較を行うことでカメラの内部パラメータと外部パラメータを推定する方法である。以下にその原理を説明する。
[Monocular camera calibration: Explanation of calibration method using known pattern]
Calibration using a known pattern is a method of estimating internal and external parameters of a camera by observing an object having a known three-dimensional shape and comparing it with a projection image onto the two-dimensional shape. The principle will be described below.
(4)式、(15)式、(18)式より、カメラの画像座標系の点mと世界座標系の点Mとの幾何学的対応関係は以下の(21)式で表わされる。 From the equations (4), (15), and (18), the geometrical correspondence between the point m in the image coordinate system of the camera and the point M in the world coordinate system is expressed by the following equation (21).
ここで、Pは、次の(22)式である。 Here, P is the following equation (22).
ここで射影行列Pは3×4の行列で、内部変数と外部変数合わせて11の変数から成り立っている。(21)式を展開すると、1つの世界座標の点とその画像座標への投影点から以下の(23)式が求まる。 Here, the projection matrix P is a 3 × 4 matrix, and is composed of 11 variables including internal variables and external variables. When the expression (21) is expanded, the following expression (23) is obtained from one world coordinate point and the projected point on the image coordinate.
ここで(23)式を変形すると次の(24)式として表わされる。 Here, when the equation (23) is modified, it is expressed as the following equation (24).
ここで1枚の画像からn個の対応点を取得した場合、(24)式を連立することで次の(25)式を得る。 Here, when n corresponding points are acquired from one image, the following equation (25) is obtained by simultaneous equations (24).
Bは2n×12の行列であり、n≧6であれば射影行列Pの11の変数の解をBTBの最小の固有値に対する固有ベクトルとして求めることができる。(21)式に(8)式、(9)式、(19)式を代入することで次の(26)式を得る。 B is a 2n × 12 matrix. If n ≧ 6, the solution of 11 variables of the projection matrix P can be obtained as an eigenvector for the minimum eigenvalue of B T B. By substituting the equations (8), (9), and (19) into the equation (21), the following equation (26) is obtained.
ここで物体は常にカメラの前面にあることから次の(27)式を得る。 Here, since the object is always in front of the camera, the following equation (27) is obtained.
以上の式を計算することで次の(28)式を得る。 The following equation (28) is obtained by calculating the above equation.
以上のようにして既知の3次元点を6点以上取得することで、各カメラパラメータを推定することができる。これらカメラパラメータは、カメラパラメータ記憶部26に記憶される。
Each camera parameter can be estimated by acquiring 6 or more known three-dimensional points as described above. These camera parameters are stored in the camera
[単眼カメラキャリブレーション:Zhangのカメラキャリブレーション法の説明]
Zhangのカメラキャリブレーションは、図12に示すような平面パターン51を多方向から撮影し得られた画像中の特徴点を元にカメラパラメータを推定する方法である。カメラと平面パターン51のみ用意すれば推定が行えるため、3次元形状を用いた手法に比べ、より簡易な装置でキャリブレーションを行うことができる。以下にその原理を説明する。
[Monocular Camera Calibration: Explanation of Zhang's Camera Calibration Method]
Zhang's camera calibration is a method for estimating camera parameters based on feature points in an image obtained by photographing a
三次元空間上の点M(X,Y,Z)と画像平面上の点m(x,y)の関係は、前述の(4)式として表される。このときキャリブレーション用のチェッカーパターンがある平面51をz=0と置くと次の(29)式を得る。
The relationship between the point M (X, Y, Z) on the three-dimensional space and the point m (x, y) on the image plane is expressed as the above-described equation (4). At this time, if the
これよりチェッカーパターン上の点と画像上の点との対応は次の(30)式に示す3×3の行列で表すことができる。この行列をホモグラフィ行列と呼ぶ。 Accordingly, the correspondence between the points on the checker pattern and the points on the image can be represented by a 3 × 3 matrix expressed by the following equation (30). This matrix is called a homography matrix.
ここで、(30)式を次の(31)式の形で表わす。 Here, the expression (30) is expressed in the form of the following expression (31).
このとき、回転行列Rの性質より、r1とr2が互いに直交する単位ベクトルであることを利用すると以下の(32)式、(33)式の制約条件を得る。 At this time, by utilizing the fact that r 1 and r 2 are unit vectors orthogonal to each other due to the nature of the rotation matrix R, the following constraint conditions of Equations (32) and (33) are obtained.
ここでA−T=(AT)−1である。 Here, A −T = (A T ) −1 .
1つのホモグラフィ行列より2式を得ることができるので、ホモグラフィ行列を3つ以上得ることでH=[h1 h2 h3]に含まれる6つの未知数を求められる。以下に計算手法を示す。まず、A−TA−1は対称性を持ち、次の(34)式で表される。 Since two equations can be obtained from one homography matrix, six unknowns included in H = [h1 h2 h3] can be obtained by obtaining three or more homography matrices. The calculation method is shown below. First, A- TA- 1 has symmetry and is represented by the following equation (34).
このとき、Bの要素を並べたベクトルを次の(35)式で定義する。 At this time, a vector in which the elements of B are arranged is defined by the following equation (35).
これより、次の(36)式が成り立つ。 Thus, the following equation (36) is established.
これにより、(32)式と(33)式は、次の(37)式として表せる。 Thereby, the expression (32) and the expression (33) can be expressed as the following expression (37).
ここで、n枚の画像を得ていた場合、n個の上記の式を縦に連結させることで(38)式を得る。 Here, when n images are obtained, the equation (38) is obtained by vertically connecting the n equations described above.
Vは2n×6の行列である。これより、bはVTVの最小固有値に対応する固有ベクトルとして求められる。bを求めることでBが求まれば、B=λA−TA−1からカメラの内部パラメータは(39)式で求められる。 V is a 2n × 6 matrix. Thus, b is obtained as an eigenvector corresponding to the minimum eigenvalue of V T V. If B is Motomare by obtaining b, internal parameters of the camera from B = .lambda.A -T A -1 can be obtained by the equation (39).
また、これよりAが求まれば、外部パラメータに関しても(30)式より、次の(40)式として求められる。 If A is obtained from this, the external parameter is also obtained from the equation (30) as the following equation (40).
図13の環境で撮影される理想的な画像をCGで作成し、Zhangの手法によりカメラキャリブレーションを行った。カメラ2−1からチェッカーパターン平面51までの距離を1700mmとした。この時の撮影環境の各パラメータの一例を図14に示す。この環境でチェッカーパターンの角度を変えながら13枚の画像を取得する。例として図15(a)にカメラに対してチェッカーパターンを正対させたものを、図15(b)〜(f)に角度を少しずつ変えたものを示す。図15において(x,y,z)はそれぞれの軸まわりにチェッカーパターンを何度回転させたかを示す。
An ideal image photographed in the environment of FIG. 13 was created by CG, and camera calibration was performed by the Zhang method. The distance from the camera 2-1 to the
図15に示すような回転方向を変化させた画像13枚を用いて、Zhangの手法によるカメラキャリブレーションを行った。パラメータの推定にはOpenGLのライブラリを用いており、出力される計算結果はチェッカーパターンの左上を原点とした世界座標に対するカメラの外部パラメータである。これにより推定した内部パラメータ、外部パラメータを図16に示す。なお、外部パラメータは、図15(a)の画像に対し計算されている。解像度1024×768画素の理想カメラにおいて画像中心(u0,v0)は(511.5,383.5)であるため、内部パラメータにおいて画像中心が良好に計算されていることが確認できる。また外部パラメータにおいて回転がほとんど無く、チェッカーパターンとカメラとの距離がおよそ1700mmで互いに正対していることも確認できる。 Camera calibration by the Zhang method was performed using 13 images with the rotation direction changed as shown in FIG. The OpenGL library is used for parameter estimation, and the output calculation result is an external parameter of the camera with respect to world coordinates with the upper left of the checker pattern as the origin. FIG. 16 shows the internal parameters and external parameters estimated by this. The external parameters are calculated for the image shown in FIG. Since the image center (u 0 , v 0 ) is (511.5, 383.5) in an ideal camera with a resolution of 1024 × 768 pixels, it can be confirmed that the image center is well calculated in the internal parameters. It can also be confirmed that there is almost no rotation in the external parameters, and the distance between the checker pattern and the camera is approximately 1700 mm and they are facing each other.
[多眼カメラキャリブレーションの説明]
2眼以上のカメラの位置関係を求める場合、全てのカメラにおいて世界座標系を共通にしなければならず、そのために外部パラメータ推定を同時に行う必要がある。ここで図13の構成に2台のカメラ2−2,2−3を追加した、図17のような3眼カメラシステムを考える。このシステムにおいてチェッカーパターン51の角度を変えた複数のシーンを3眼(カメラ2−1,2−2,2−3)から同時に撮影し、その画像群を用いてカメラキャリブレーションを行う。左カメラ2−3から撮影した画像例を図18(a),(c),(e)に、右カメラ2−2から撮影した画像例を図18(b),(d),(f)に示す。(x,y,z)はそれぞれの軸まわりにチェッカーパターン51を何度回転させたかを示し、同じ回転角の画像は、左右カメラ2−2,2−3から同時に取得している。このように撮影を行った場合、図18に示すように、左右カメラ2−2,2−3共に、チェッカーパターン51の画像が各カメラの画像中心からずれた位置に表示されていることがわかる。このようにして、撮影した画像群に対して前述のカメラキャリブレーションを行い推定したカメラパラメータを、図19に示す。図19より、左右カメラ共に図18の単眼キャリブレーション結果と比べ画像中心のずれが生じていることが確認できる。
[Explanation of multi-eye camera calibration]
When obtaining the positional relationship of two or more cameras, the global coordinate system must be made common to all the cameras, and therefore, external parameter estimation must be performed simultaneously. Here, consider a trinocular camera system as shown in FIG. 17 in which two cameras 2-2 and 2-3 are added to the configuration of FIG. In this system, a plurality of scenes in which the angle of the
ここで図20に示すように、中央カメラ2−1及び左右カメラ2−2,2−3のカメラパラメータが求まっている。このとき図21のように世界座標系を中央カメラ2−1のカメラ座標系に設定しなおすことで、左右カメラ2−2,2−3の外部パラメータ[R’left|t’left]、[R’right|t’rightt]は(41)式、(42)式として求めることができる。 Here, as shown in FIG. 20, the camera parameters of the central camera 2-1 and the left and right cameras 2-2 and 2-3 are obtained. This time by the world coordinate system as shown in FIG. 21 again set in the camera coordinate system of the center camera 2-1, the external parameters of the right and left cameras 2-2,2-3 [R 'left | t' left], [ R ′ right | t ′ right t] can be obtained as equations (41) and (42).
この外部パラメータは世界座標系、つまり実空間における中央カメラ2−1と左右カメラ2−2,2−3間の絶対的な位置関係を表す。図22にこの新たな外部パラメータの計算結果を示す。理論上、左カメラの場合tleft=[−600,0,0]、右カメラの場合tright=[600,0,0]となるが、計算結果は大きく異なっている。これは前述したようにカメラパラメータの計算が内部パラメータ、外部パラメータの順で行われるため、内部パラメータに推定誤差がある場合、外部パラメータ推定時にその誤差の影響が現れることが原因である。よってこの手法では複数のカメラ間の位置関係を正しく求めることができない。 This external parameter represents the absolute positional relationship between the central camera 2-1 and the left and right cameras 2-2 and 2-3 in the world coordinate system, that is, real space. FIG. 22 shows the calculation result of this new external parameter. Theoretically, t left = [− 600, 0, 0] in the case of the left camera and t right = [600, 0, 0] in the case of the right camera, but the calculation results are greatly different. This is because, as described above, the camera parameters are calculated in the order of the internal parameters and the external parameters. Therefore, if there is an estimation error in the internal parameters, the influence of the error appears when the external parameters are estimated. Therefore, this method cannot correctly determine the positional relationship between a plurality of cameras.
[内部パラメータを拘束したカメラキャリブレーション法の説明]
前述の単眼キャリブレーションをそのまま適用したカメラキャリブレーション法では、内部パラメータの推定誤差が外部パラメータの推定に影響を及ぼすことを示した。そこで本節では、内部パラメータに拘束をかけてキャリブレーションを行うことで、外部パラメータの推定誤差を軽減する手法について説明する。本システムに用いるような高精度なカメラとレンズにおいては、内部パラメータの光軸中心(u0,v0)は画像の中心位置にあり、画像歪みは無いと近似することができる。このときカメラにより得られる画像サイズをWIDTH×HEIGHTとすると、画像中心を示す(u0,v0)、画像歪みを示すθを(43)式のように固定できる。
[Explanation of camera calibration method constraining internal parameters]
In the camera calibration method applying the above monocular calibration as it is, it was shown that the estimation error of the internal parameter affects the estimation of the external parameter. Therefore, in this section, a method for reducing the estimation error of external parameters by performing calibration with constraints on internal parameters will be described. In a highly accurate camera and lens used in the present system, the optical axis center (u 0 , v 0 ) of the internal parameter is at the center position of the image, and it can be approximated that there is no image distortion. If the image size obtained by the camera at this time is WIDTH × HEIGHT, (u 0 , v 0 ) indicating the image center and θ indicating image distortion can be fixed as shown in equation (43).
これより(19)式は、次の(44)式として書き換えられる。 Thus, equation (19) can be rewritten as the following equation (44).
さらに内部パラメータの推定精度を高めるため、各カメラごとにチェッカーパターンが中央に映る位置で、個別に画像群の取得を行う。このとき、3眼から同時に撮影するのは外部パラメータを求めるための1シーンだけとする。前述の単眼カメラキャリブレーションをそのまま適用した場合と、本節の内部パラメータ拘束方式を適用した場合の画像群の違いを図23に示す。図23(a)は単眼カメラキャリブレーションを適用した場合であり、図23(b)は内部パラメータ拘束方式を適用した場合である。太枠の画像が外部パラメータ算出対象の画像である。図23(b)の内部パラメータ拘束方式においては、各カメラごとのキャリブレーションの画像61に加えて、3眼同時撮影の画像62を加えている。
In order to further improve the estimation accuracy of the internal parameters, an image group is individually acquired at a position where the checker pattern appears in the center for each camera. At this time, it is assumed that only one scene for obtaining an external parameter is photographed simultaneously from three eyes. FIG. 23 shows a difference between image groups when the above-described monocular camera calibration is applied as it is and when the internal parameter constraint method of this section is applied. FIG. 23A shows a case where the monocular camera calibration is applied, and FIG. 23B shows a case where the internal parameter constraint method is applied. A thick frame image is an external parameter calculation target image. In the internal parameter constraint method of FIG. 23B, in addition to the
内部パラメータ拘束を用いて3眼カメラシステムに対してカメラキャリブレーションを行った。カメラ配置は図17と共通である。この推定結果を図24に示す。さらに(41)式、(42)式を用いて中央カメラのカメラ座標系を世界座標系としたときの左カメラ2−2と右カメラ2−3のカメラパラメータ(外部パラメータ[R|t])を図25に示す。これよりカメラ位置が2mm程度の誤差で推定できており、この手法が多眼カメラシステムのカメラキャリブレーションに有効である。 Camera calibration was performed on the trinocular camera system using internal parameter constraints. The camera arrangement is the same as in FIG. The estimation result is shown in FIG. Furthermore, the camera parameters (external parameters [R | t]) of the left camera 2-2 and the right camera 2-3 when the camera coordinate system of the central camera is set to the world coordinate system using the expressions (41) and (42). Is shown in FIG. Accordingly, the camera position can be estimated with an error of about 2 mm, and this method is effective for camera calibration of the multi-camera system.
以上、座標系とカメラパラメータについて説明し、単眼カメラのキャリブレーションの手法、特にZhangのキャリブレーション手法について詳しく説明した。さらにZhangの手法の多眼カメラシステムへの適用について説明した。また、CG画像を用いたカメラキャリブレーションのシミュレーションを行うことで、提案する手法が2mm程度の誤差でカメラ位置を推定できた。 The coordinate system and the camera parameters have been described above, and the monocular camera calibration method, particularly the Zhang calibration method, has been described in detail. Furthermore, the application of the Zhang method to a multi-lens camera system has been described. In addition, by performing a camera calibration simulation using a CG image, the proposed method was able to estimate the camera position with an error of about 2 mm.
[多眼カメラを用いた中心視点画像合成手法の説明]
ここで、視線一致可能な顔領域画像合成のための、多眼カメラを用いた中心視点画像合成の手法について述べる。まず試作したシステムについて述べ、次に射影変換を用いた被写体の距離推定について述べる。さらに推定した距離情報を元に、ディスプレイの中央位置からの視点の画像を合成する手法について述べる。
[Explanation of central viewpoint image synthesis using multi-view camera]
Here, a method of synthesizing a central viewpoint image using a multi-lens camera for synthesizing a face area image capable of matching the line of sight will be described. First, the prototype system is described, and then subject distance estimation using projective transformation is described. Furthermore, a method for synthesizing the viewpoint image from the center position of the display based on the estimated distance information will be described.
[中心視点画像の合成:射影変換を用いたカメラ視点の変換]
本システムは、図26(a)に示すようにキャリブレーション時に4眼(カメラ2A,2B,2C,2D)、図26(b)に示すようにシステム利用時に3眼(カメラ2A,2B,2C)を用いるシステムである。本節ではカメラ視点の変換について説明するため、まず図27(a)に示すようなキャリブレーション時に2眼(カメラ2C,2D)のカメラ配置のシステム、図27(b)に示すようなカメラ視点変換時に1眼(カメラ2−1)のカメラ配置のシステムを考える。はじめに図27(a)のシステムに対し多眼カメラキャリブレーションを行う。このとき得られるカメラパラメータは(41)式のようなカメラ2Dを世界座標系の原点とした場合のパラメータであり、カメラ2Dの回転行列R’0と並進ベクトルt’0は(45)式、(46)式、カメラ2Cの回転行列R’1と並進ベクトルt’1は(47)式、(48)式のように表される。
[Composition of Central Viewpoint Image: Camera Viewpoint Conversion Using Projective Transformation]
This system has four eyes (
このとき(47)式、(48)式はそれぞれカメラ2Dに対してカメラ2Cがどれだけ回転、並進しているかを示す値になる。図27(b)において、カメラ2Dを仮想カメラ2−0として、カメラ2Cをカメラ2−1として1眼のカメラ視点変換を考えることができる。
At this time, the equations (47) and (48) are values indicating how much the
ここで図28のようにカメラ2−0の位置に仮想カメラを配置し、その仮想カメラ(カメラ2−0)に対して平行な仮想平面を距離zだけ離した位置に配置した場合を考える。世界座標系の原点を仮想カメラ2−0の光軸(Z)と仮想平面が交わる点に変更すると、新たな世界座標系に対する仮想カメラ座標系とカメラ1座標系の並進ベクトルtim,t1はそれぞれ次の(49)式、(50)式として表すことができる。 Consider a case where a virtual camera is arranged at the position of the camera 2-0 as shown in FIG. 28 and a virtual plane parallel to the virtual camera (camera 2-0) is arranged at a position separated by a distance z. When the origin of the world coordinate system is changed to a point where the optical axis (Z) of the virtual camera 2-0 intersects the virtual plane, the translation vectors t im and t 1 of the virtual camera coordinate system and the camera 1 coordinate system with respect to the new world coordinate system. Can be expressed as the following equations (49) and (50), respectively.
また、このとき世界座標系に対する仮想カメラ座標系とカメラ1座標系の回転行列Rim、R1はそれぞれ次の(51)式、(52)式として表すことができる。 At this time, the rotation matrices R im and R 1 of the virtual camera coordinate system and the camera 1 coordinate system with respect to the world coordinate system can be expressed as the following equations (51) and (52), respectively.
また、仮想カメラはカメラ2−0をそのまま置き換えて表すため、仮想カメラの内部パラメータAimは次の(53)式で表される。 Further, since the virtual camera is represented by replacing the camera 2-0 as it is, the internal parameter A im of the virtual camera is represented by the following equation (53).
次に仮想平面に対する射影変換を考える。この射影変換における変換行列の対応関係を図29に示す。 Next, projective transformation for a virtual plane is considered. FIG. 29 shows the correspondence of the transformation matrix in this projective transformation.
各カメラの画像座標系mim、m1と世界座標系Mとの関係は、それぞれ次の(54)式、(55)式として表される。 The relationship between the image coordinate systems m im and m 1 of each camera and the world coordinate system M is expressed as the following equations (54) and (55), respectively.
このとき仮想平面は世界座標においてZ=0で表されるため、仮想平面上の点Mに対して(55)式は以下の(56)式に変形できる。 At this time, since the virtual plane is represented by Z = 0 in the world coordinates, the equation (55) can be transformed into the following equation (56) with respect to the point M on the virtual plane.
ここでH1(z)は世界座標系の平面とカメラ1の画像座標系の対応を示す3×3のホモグラフィ行列であり、zの関数である。同様に(54)式を変形させることで次の(57)式を得る。 Here, H 1 (z) is a 3 × 3 homography matrix indicating the correspondence between the plane of the world coordinate system and the image coordinate system of the camera 1, and is a function of z. Similarly, the following equation (57) is obtained by transforming the equation (54).
次に(56)式を変形し、次の(58)式を得る。 Next, the equation (56) is modified to obtain the following equation (58).
これを(57)式に代入することで、次の(59)式を得る。 By substituting this into the equation (57), the following equation (59) is obtained.
(59)式は仮想カメラの画像座標上の点mimとカメラ2−1の画像座標上の点m1の対応関係を示す。そのため(59)式を用いることで、カメラ2−1により撮影した画像を仮想カメラ視点で撮影した画像に変換することができる。ただし、このとき、正しく変換されるのは、先に仮定した仮定平面の距離zに被写体が存在している部分だけであり、それ以外の部分は誤って変換される。例えば図30のように球体を被写体とし、仮想平面を球体を通過するようにzを変化させた場合、図30に示す太線部分のみ正しく変換される。すなわち、図30(a)は仮想平面がzの位置に在る場合、図30(b)は仮想平面がz+αにある場合、図30(c)は仮想平面がz+2αにある場合をそれぞれ示し、被写体である球体のどの部分が正しく変換されるかを太線で示している。 Equation (59) shows the correspondence between the point m im on the image coordinates of the virtual camera and the point m 1 on the image coordinates of the camera 2-1. Therefore, by using the equation (59), an image captured by the camera 2-1 can be converted into an image captured from the virtual camera viewpoint. However, at this time, only the portion where the subject is present at the distance z of the assumed plane assumed earlier is correctly converted, and the other portions are erroneously converted. For example, when a sphere is a subject as shown in FIG. 30 and z is changed so as to pass through the sphere on the virtual plane, only the thick line portion shown in FIG. 30 is correctly converted. 30A shows a case where the virtual plane is at the position z, FIG. 30B shows a case where the virtual plane is at z + α, FIG. 30C shows a case where the virtual plane is at z + 2α, Thick lines indicate which part of the sphere that is the subject is correctly converted.
[被写体モデル作成の説明]
(56)式でディスプレイ中央に設置した仮想カメラと周囲に設置したカメラ2−1との対応関係を示したが、これはディスプレイ5の周囲に設置した他の全てのカメラに対しても同様に適用できる。ここで図31に示す本TV対話システムについて考える。図1と同様に図31のシステムにおいて、カメラ2−1(図1ではカメラ2A)は表示装置5の中央上部に、カメラ2−2(図1ではカメラ2B)は表示装置5の側面右下部に、カメラ2−3(図1ではカメラ2C)は表示装置5の側面左下部に装着されている。図31では、表示装置5の後ろ側から見た図であるので、カメラが左右入れ替わっている。カメラ2−2、カメラ2−3の画像座標系をm2,m3、射影変換行列をH2(z),H3(z)とすると次の(60)式、(61)式を得る。
[Description of subject model creation]
Although the correspondence relationship between the virtual camera installed in the center of the display and the camera 2-1 installed in the periphery is shown by the equation (56), this applies to all other cameras installed around the
座標変換部21,22,23は、(59)式、(60)式、(61)式をそれぞれカメラ2−1、カメラ2−2、カメラ2−3から取得した画像I1,I2,I3に適用することで、それぞれの画像を仮想カメラであるカメラ2−0の視点に変換した画像I1conv,I2conv,I3convを得る。
The coordinate
次に、距離推定部24は、変換で得られた3枚の画像I1conv,I2conv,I3convに対し、2枚1組ずつブロックマッチングによる評価を行う。図32に示すようにマッチングに用いるブロック形状には様々なパターンが考えられるが、本節では長方形マッチングを例として説明する。注目画素を(i,j)とした場合、評価値として次の(62)式に示す変換画像の画素値の絶対値差分和ISUMαβを用いる。
Next, the
ここで、α、βは対応するカメラ番号、mは水平ブロックサイズ、nは垂直ブロックサイズ、Iαconv(i’,j’),Iβconv(i’,j’)はそれぞれ評価に用いる2枚の変換画像の位置(i’,j’)における画素値を示す。この(62)式を3枚による3通りの組み合わせ全てに対して行った結果を評価値ISUMALLとし、次の(63)式に示す。 Here, α and β are corresponding camera numbers, m is a horizontal block size, n is a vertical block size, and I αconv (i ′, j ′) and I βconv (i ′, j ′) are two images used for evaluation, respectively. The pixel value at the position (i ′, j ′) of the converted image is shown. The result obtained by performing this equation (62) for all three combinations of three sheets is taken as an evaluation value I SUMALL, and is shown in the following equation (63).
ここでWαβはそれぞれの組の絶対値差分和に対する重み付けを示し、0から1の範囲で最適となるよう手動で調整する。次に仮想平面距離zを、距離推定を行う範囲で変化させ、全ての距離において(63)式で評価を行う。それぞれの距離における評価値をISUMALL(i,j;z)と表し、ISUMALLの値がもっとも小さな距離を注目画素の距離値d(i,j)とすると、以下の(64)式として表すことができる。この操作を全ての画素に対して行うことで、被写体の距離画像を推定できる。 Here, W αβ represents a weight for each set of absolute value difference sums, and is manually adjusted so as to be optimal in the range of 0 to 1. Next, the virtual plane distance z is changed within the range in which the distance is estimated, and the evaluation is performed using the equation (63) at all distances. The evaluation value at each distance is expressed as ISUMALL (i, j; z), and the distance with the smallest ISUMALL value is the distance value d (i, j) of the pixel of interest. be able to. By performing this operation on all the pixels, the distance image of the subject can be estimated.
[画素値の決定の説明]
画像合成部25は、作成した被写体の距離画像に対し、周囲のカメラから対応する画素の色を貼り付ける。被写体の距離情報が得られている場合、(56)式、(57)式、(58)式に示すように幾何学計算で仮想カメラの画素に対応する周囲のカメラの画素を1対1の関係で求めることができる。距離値zに対し算出された仮想カメラの注目画素の画素値をIim(i,j,z)、その注目画素に対応する周囲のカメラの画素値をIαconv(i,j,z)(α=1,2,3)とした場合、貼り付ける色の計算方法を(65)式に示す。
[Description of determination of pixel value]
The
ここでUα(α=1,2,3)はそれぞれの画素値に対する重み付けを示し、U1+U2+U3=1の範囲で最適になるように手動で調節する。この操作を仮想カメラの全ての画素に対して行うことで仮想カメラ視点の画像を合成できる。 Here, U α (α = 1, 2, 3) represents a weight for each pixel value, and is manually adjusted so as to be optimal in the range of U 1 + U 2 + U 3 = 1. By performing this operation on all the pixels of the virtual camera, it is possible to synthesize the virtual camera viewpoint image.
以上、取得したカメラキャリブレーションデータを用いた視点位置の変換方法と、変換結果を利用した被写体の距離モデル作成方法について説明した。さらにその距離モデルに周囲のカメラの色を貼り付けることでディスプレイの中央視点からの画像を合成する手法について説明した。ここではカメラが3台の例を記したが、3台以上のカメラを用いた場合でも本手法を適用できる。例えばカメラが4台の場合は、3台のカメラが2組あると考えて本手法を適用し、出力される2枚の合成画像を統合すれば良い。つまり、カメラ2A,2B,2C,2Dが配置されている場合、例えば(2A,2B,2C)と(2B,2C,2D)の3台のカメラ2組を考えて、各組の合成画像を2枚生成し、さらにこの2枚を統合する。画像の統合には単純平均、加重平均などを用いることができる。つまり、少なくとも3台のカメラがあれば本手法を用いて任意視点画像を合成でき、3台以上のカメラを用いることでさらに正面画像を高画質化できる。
The viewpoint position conversion method using the acquired camera calibration data and the subject distance model creation method using the conversion result have been described above. Furthermore, the method of combining images from the central viewpoint of the display by pasting the color of the surrounding camera to the distance model was explained. Here, an example in which there are three cameras has been described, but this method can be applied even when three or more cameras are used. For example, when there are four cameras, this method is applied assuming that there are two sets of three cameras, and two output composite images may be integrated. That is, when the
[顔領域画像合成の最適なパラメータの説明]
次に、CGを用いて周囲のカメラの画像を作成し、それを基に中央視点画像合成シミュレーションを行い、カメラ数、カメラ配置、マッチング時のブロック形状を変化させた場合の、最適なパラメータについて説明する。
[Explanation of optimal parameters for face area image composition]
Next, create an image of the surrounding camera using CG, perform the central viewpoint image synthesis simulation based on it, and optimize the parameters when the number of cameras, camera arrangement, and block shape at the time of matching are changed explain.
[カメラ配置による合成精度への影響]
図33に示すように、表示装置5の周囲のカメラ配置位置として2A,2B,2C,2D,2Eの5箇所を考える。図33(a)はカメラの配置位置を示し、(b)はカメラの配置座標を示す。被写体6は、表示装置5の向こう側に位置しており、図33は表示装置5の裏側から見ている図である。カメラ2A、2B、2Dは表示部中心(仮想カメラ位置)に対して上部に、カメラ2C、2Eは表示部中心(仮想カメラ位置)に対して下部に配置される。また、カメラ2B、2Cは表示部中心に対して右部に、カメラ2D,2Eは表示部中心に対して左部に配置される。このとき全てのカメラは点(0,0,1700)に光軸が向くよう配置される。被写体6のCG顔モデルは点(0,0,1700)に中心が来るように配置される。中央の仮想カメラを含む6つのカメラ視点画像をCGにより作成する。このときのカメラ設定を図34に示す。このうち複数のカメラ配置を選択し、仮想カメラ視点の画像(以下中央視点画像)の合成を行う。
[Influence on composition accuracy by camera placement]
As shown in FIG. 33, five
なお、カメラキャリブレーションにより取得した各カメラパラメータを計算に用いる。CGチェッカーパターンによるキャリブレーションを行っており、このときのカメラパラメータを図35に示す。図35において、仮想カメラを「0」としている。またシミュレーションにおけるその他の合成条件を図36に示す。 In addition, each camera parameter acquired by camera calibration is used for calculation. Calibration using a CG checker pattern is performed, and camera parameters at this time are shown in FIG. In FIG. 35, the virtual camera is set to “0”. Further, other synthesis conditions in the simulation are shown in FIG.
この合成画像は、どのカメラ2台を用いても顔表面形状の距離推定が顔の丸みがわかる程度に良好に生成された。またどのカメラ2台を用いても中央視点画像が合成できた。しかし、目近傍においては合成誤りが多く発生した。これは片方のカメラもしくは両方のカメラから見えない領域であるオクルージョン領域で距離推定を誤っているためと考えられる。また、鼻領域に注目すると全ての組み合わせにおいて鼻領域の合成誤りが多く発生した。これもまたオクルージョン領域の影響であり、どの2台を選択してもこのオクルージョンの影響を避けられない。 This composite image was generated satisfactorily to such an extent that the distance estimation of the face surface shape was able to show the roundness of the face regardless of which two cameras were used. In addition, the central viewpoint image could be synthesized using any two cameras. However, many composition errors occurred near the eyes. This is considered to be because the distance estimation is wrong in the occlusion area which is an area invisible from one camera or both cameras. In addition, when focusing on the nose region, many combinations of nose regions occurred in all combinations. This is also an influence of the occlusion area, and the influence of this occlusion cannot be avoided even if any two are selected.
そこで、最もオクルージョンの影響の少ないカメラ2C,2Eを基本に、カメラ2Aカメラまたはカメラ2Bを追加した3台のカメラを用いて中央視点画像合成を行った。その結果、3台のカメラを用いた方が目近傍の距離を精度よく推定できた。また、どちらも2台のカメラを用いるより良好な結果が得られているが、カメラ2B,2C,2Eを用いた方がよりオクルージョンを回避できた。しかし、鼻領域はカメラ2A,2C,2Eを用いた方が良好に合成された。これは、カメラを表示部中心(仮想カメラ位置)に対して上部と下部に少なくとも1台ずつ配置し、かつ表示部中心に対して少なくとも1台ずつ配置するということである。
Therefore, based on the
[ブロック形状による合成精度への影響]
次に3台のカメラを用いた場合において、ブロック形状を変化させて中央視点画像合成を行った。3台の組み合わせは(2A,2C,2E)、(2B,2C,2E)の2通りについて、ブロック形状は図32(a)に示す長方形、(b)に示すひし形、(c)に示す変則形の3種類について評価を行った。
[Influence on composition accuracy by block shape]
Next, when three cameras were used, the central viewpoint image was synthesized by changing the block shape. The combinations of the three units are (2A, 2C, 2E) and (2B, 2C, 2E), the block shape is the rectangle shown in FIG. 32 (a), the rhombus shown in (b), and the irregularity shown in (c). Three types of shapes were evaluated.
その結果、長方形マッチングと比較して処理量が半分になっているにもかかわらず、同程度の合成結果が得られた。
次に変則形マッチングによる距離推定を行った結果、どちらもオクルージョンの影響がほぼ見られない目領域画像を合成できた。鼻領域はACEカメラを用いた場合の方が合成結果が良かった。
As a result, although the processing amount was halved compared with the rectangular matching, the same synthesis result was obtained.
Next, as a result of distance estimation by irregular shape matching, it was possible to synthesize eye region images in which the influence of occlusion was hardly seen. As for the nose region, the synthesized result was better when the ACE camera was used.
以上の結果より本システムでは、カメラ配置に2A、2C、2Eの3箇所、マッチングには変則形ブロックマッチングを用いた。すなわち、カメラ配置、カメラ数、マッチング時のブロック形状の影響などを調べた結果、ディスプレイ上部、右下部、左下部の3箇所にカメラを配置した場合、目領域合成時のオクルージョン影響を減らすことが出来る。また、長方形ブロックでマッチングを行った場合よりも変則形ブロックでブロックマッチングを行った場合に合成結果が良かった。 From the above results, in this system, three locations of 2A, 2C, and 2E are used for camera arrangement, and irregular block matching is used for matching. That is, as a result of investigating the effects of the camera arrangement, the number of cameras, the block shape at the time of matching, etc., if the cameras are arranged in three places, the upper part of the display, the lower right part, and the lower left part, the occlusion influence at the time of eye region synthesis can be reduced. I can do it. Also, the synthesis result was better when the block matching was performed with the irregular block than when the matching was performed with the rectangular block.
[実画像を用いた顔領域画像合成の説明]
図37に示すカメラ配置で被写体6を撮影し、顔領域画像合成を行った。被写体6はディスプレイ5から1700mmの位置に座っており、各カメラは被写体の上半身を捉えるように配置されている。まず全てのカメラに対してカメラキャリブレーションを行った。その結果を図38に示す。なお、世界座標系の原点はカメラ2−0となっている。キャリブレーションの結果、カメラ2−2とカメラ2−3のx方向の間隔はおよそ1300mm、カメラ2−1とカメラ2−0のy方向の間隔はおよそ400mmであることがわかる。この推定結果はおおよその実測値と一致する。キャリブレーション後、比較用のカメラ2−0を含む4台のカメラで視線をディスプレイ中央に向けた(以降正面視線と呼ぶ)被写体を撮影した。
[Description of face area image composition using real images]
The subject 6 was photographed with the camera arrangement shown in FIG. The
被験者2名をUserA,UserBとし、カメラ2−0を除いた3枚の画像を用いて中央視点画像合成を行った。図39に各被験者に対する合成条件を示す。図39は、被験者別に調整を行ったパラメータであり、距離推定範囲のみが異なり、他の合成条件は共通である。その結果、顔領域の距離推定が良好に行われていることが確認できた。また、2名の被験者に対して正面視線の中央視点画像が目領域、鼻領域、口領域ともに良好に合成できた。 Two subjects were User A and User B, and a central viewpoint image was synthesized using three images excluding the camera 2-0. FIG. 39 shows the synthesis conditions for each subject. FIG. 39 shows parameters adjusted for each subject, only the distance estimation range is different, and other synthesis conditions are common. As a result, it was confirmed that the distance estimation of the face area was performed well. In addition, the central viewpoint image of the frontal line of sight for the two subjects could be satisfactorily synthesized for the eye area, the nose area, and the mouth area.
[視線方向変化画像の説明]
現実には対話中、人の視線は絶えず変化するためそれにも対応出来なければならない。そこで視線方向の変化による合成画像への影響を確認するため、視線方向を上下左右に変化させた画像を用いて中央視点画像合成を行った。
[Description of gaze direction change image]
In reality, during the conversation, people's gaze constantly changes, so it must be able to cope with it. Therefore, in order to confirm the effect on the composite image due to the change in the line-of-sight direction, the central viewpoint image was synthesized using an image in which the line-of-sight direction was changed vertically and horizontally.
このときの合成条件は図39と同一である。その結果、各視線方向の中央視点画像が良好に合成できた。また、視線方向を変化させても距離推定時のマッチングを誤ることなく、距離が良好に推定できた。また、眼球の運動による肌や眉毛の位置変化も良好に合成できた。 The synthesis conditions at this time are the same as in FIG. As a result, the central viewpoint images in each line-of-sight direction were successfully synthesized. In addition, even when the line-of-sight direction was changed, the distance could be estimated satisfactorily without making a mistake in matching during distance estimation. In addition, changes in the position of the skin and eyebrows due to eye movement were also successfully synthesized.
[仮想カメラ位置変化画像]
実際の利用環境では、必ずしもユーザーがディスプレイ中央正面位置にいるとは限らない。例えば体を傾けたりした場合、頭の位置が変化すれば対話相手の見え方は変わるはずである。そこで実空間に近い視覚効果を得るために、利用者の頭の位置に応じてディスプレイ上の任意の位置に仮想カメラを設置できることが望ましい。そこで、仮想カメラ位置を変化させながら中央視点以外における画像合成を行った。ここでは、被写体は先と同様の位置のままとし、仮想カメラ位置のみを動かす状況を考える。仮想カメラ位置はカメラ2−0のパラメータを基に計算することで任意の位置で求めることができる。
[Virtual camera position change image]
In an actual usage environment, the user is not always in the center front position of the display. For example, when the body is tilted, if the head position changes, the appearance of the conversation partner should change. Therefore, in order to obtain a visual effect close to real space, it is desirable that a virtual camera can be installed at an arbitrary position on the display in accordance with the position of the user's head. Therefore, image synthesis was performed at a position other than the central viewpoint while changing the virtual camera position. Here, let us consider a situation in which the subject remains in the same position as before and only the virtual camera position is moved. The virtual camera position can be obtained at an arbitrary position by calculating based on the parameters of the camera 2-0.
画像は正面視線方向画像を用い、仮想カメラ位置を(−600,0,0)から(600,0,0)までx方向に300mm刻みで変化させた。なお、カメラの光軸は常に点(0,0,1450)に向くものとする。このときの合成条件は図39と同一である。その結果、仮想カメラ位置変化による視覚効果が得られた。特に同条件でディスプレイ中央位置から合成した場合と比較すると、カメラ位置の変化により視線方向が変化していくことを確認できた。また、鼻上部領域で段差のような領域が見られたが、これは推定幅を現条件の3mmから小さくすることで軽減できると考えられる。 As the image, a front view direction image was used, and the virtual camera position was changed from (−600, 0, 0) to (600, 0, 0) in 300 mm increments in the x direction. Note that the optical axis of the camera is always directed to the point (0, 0, 1450). The synthesis conditions at this time are the same as in FIG. As a result, the visual effect by the virtual camera position change was obtained. In particular, it was confirmed that the line-of-sight direction changed due to the change in the camera position, compared with the case where the image was synthesized from the center position of the display under the same conditions. Moreover, although the area | region like a level | step difference was seen in the nose upper area | region, it is thought that this can be reduced by making an estimated width | variety small from 3 mm of present conditions.
[動画像を用いた顔領域画像合成]
構築したシステムのカメラ2−1、カメラ2−2、カメラ2−3の3眼を同期させて30fpsで瞬きの動画を撮影し、各フレーム毎に中央視点画像合成を行った。
[Face region image composition using moving images]
A blinking video was taken at 30 fps by synchronizing the three eyes of the camera 2-1, camera 2-2, and camera 2-3 of the constructed system, and a central viewpoint image was synthesized for each frame.
その結果、瞬き動作時においても合成が良好に行われていることが確認できた。本手法は、目を抽出するなどの処理を行わず、距離推定に基づく任意視点画像合成を行っているため、被写体が目を開いていても閉じていてもその距離推定範囲に収まっていれば原理的に合成結果に影響は与えないはずである。このことから本手法は被写体の動作に対して頑健であると言える。 As a result, it was confirmed that the synthesis was performed well even during the blinking operation. Since this method uses arbitrary viewpoint image composition based on distance estimation without processing such as eye extraction, so long as the subject is within the distance estimation range regardless of whether the eyes are open or closed In principle, it should not affect the synthesis results. From this, it can be said that this method is robust against the movement of the subject.
以上、TV対話システムを用いてディスプレイ中央視点画像の合成を行った。まずカメラシステムのキャリブレーションデータを示し、正面視線方向の取得画像に対する処理結果を示した。その結果、本手法が中央視点画像合成を行えることを確認した。また、視線方向を上下左右に変化させた画像に対し処理を行い、視線方向にかかわらず中央視点画像が合成出来ることを確認した。さらに仮想カメラのパラメータを書き換えることでカメラ位置を動かしたような視覚効果を得られることも確認した。最後に瞬き動作を撮影した連続画像に対して処理を行い、瞬きのような目を閉じる動作にも対応できることを確認した。 As described above, the display central viewpoint image is synthesized using the TV dialogue system. First, the calibration data of the camera system is shown, and the processing result for the acquired image in the front line-of-sight direction is shown. As a result, we confirmed that this method can synthesize the central viewpoint image. In addition, processing was performed on an image whose line-of-sight direction was changed vertically and horizontally, and it was confirmed that a central viewpoint image can be synthesized regardless of the line-of-sight direction. It was also confirmed that the visual effect of moving the camera position can be obtained by rewriting the parameters of the virtual camera. Finally, we performed processing on the continuous images that captured the blinking action, and confirmed that it was possible to cope with the action of closing the eyes like blinking.
以上、説明したように、本発明の任意視点画像合成装置によれば、表示装置と、前記表示装置の表示部周囲の上部、右下部、左下部の少なくとも3箇所に設置した撮像装置と、画像合成処理部とを備えたため、正面画像を高画質化でき、視線一致感が向上するという効果が得られる。 As described above, according to the arbitrary viewpoint image composition device of the present invention, the display device, the imaging devices installed in at least three locations around the display unit of the display device, the lower right portion, and the lower left portion, and the image Since the image processing apparatus includes the synthesis processing unit, the front image can be improved in image quality, and the effect of improving the line-of-sight match can be obtained.
また、本発明によれば、前記画像合成処理部において、前記撮像装置のカメラキャリブレーションデータを用いて視点位置の変換を行う座標変換部と、前記座標変換部で変換した被写体距離モデルを作成する距離推定部と、前記被写体距離モデルに前記撮像装置で取得した色を貼り付けることで画像を合成する画像合成部とを備えたため、正面画像を高画質化でき、視線一致感が向上するという効果が得られる。また、特に目の周辺領域の画質を向上させることにより、一層、視線一致感を向上することが可能となり、テレビ対話システムに適用可能な任意視点画像合成装置を実現することができる。 According to the invention, in the image composition processing unit, a coordinate conversion unit that converts a viewpoint position using camera calibration data of the imaging apparatus, and a subject distance model converted by the coordinate conversion unit are created. Since it has a distance estimation unit and an image synthesis unit that synthesizes an image by pasting the color acquired by the imaging device to the subject distance model, the front image can be improved in image quality, and the line-of-sight matching feeling is improved. Is obtained. In particular, by improving the image quality of the peripheral region of the eyes, it is possible to further improve the line-of-sight matching feeling, and it is possible to realize an arbitrary viewpoint image composition device applicable to a television conversation system.
また、本発明によれば、前記距離推定部において、前記撮像装置から取得した画像を変則形ブロックでブロックマッチングを行うブロックマッチング部を備えたため、オクルージョンの影響を減らすことができ、正面画像の合成結果を高画質化することができる。すなわち、視線一致感が向上するという効果が得られる。 In addition, according to the present invention, the distance estimation unit includes a block matching unit that performs block matching on the image acquired from the imaging device with an irregular block, thereby reducing the influence of occlusion and combining front images. The image quality can be improved. That is, the effect of improving the line-of-sight match is obtained.
本発明は、上記実施例の構成に限るものではない。本発明の他の実施例について図面を参照して詳細に説明する。図40は本実施例の全体構成を示すブロック図である。図1と同一部分には共通の符号を付してある。このシステム101の構成は図1のシステム1と同じ構成であるが、任意視点画像合成装置110のカメラ2B,2Cの配置が異なる。カメラ2Aを表示装置5の中心上に、カメラ2Bを表示装置5の側面左下端に、カメラ2Cを表示装置5の右下端の3箇所に設置する。こうして、3箇所のカメラ2A,2B,2Cをつないだ三角形の面積が最大となり、図1の構成に比較して、より広い範囲で中央視点画像を求めやすいという利点がある。
The present invention is not limited to the configuration of the above embodiment. Another embodiment of the present invention will be described in detail with reference to the drawings. FIG. 40 is a block diagram showing the overall configuration of this embodiment. The same parts as those in FIG. 1 are denoted by common reference numerals. The configuration of the
また、本発明のさらに他の実施例について図面を参照して詳細に説明する。図41は本実施例の構成例を示す機能ブロック図である。本実施例のシステム201の任意視点画像合成装置210の構成が、図1の任意視点画像合成装置10と異なり、画像出力部4の代わりに、画像送信部4500と画像受信部4502を備えている。任意視点画像合成装置210では、撮像装置で撮影した画像を画像合成処理部3で合成し、合成した画像は画像送信部4500を介して外部のネットワーク4501と接続され、他の任意視点画像合成装置210などに繋がっており、他の任意視点画像合成装置210などから画像受信部4502を介して伝送された画像を表示装置5に表示する。こうして、このシステム201は、ネットワーク4501を介して遠隔地にいる利用者同士が視線を一致させてコミュニケーションをとることができ、テレビ会議を行うのに適している。
Still another embodiment of the present invention will be described in detail with reference to the drawings. FIG. 41 is a functional block diagram showing a configuration example of this embodiment. The configuration of the arbitrary viewpoint image composition device 210 of the
1 任意視点画像システム
2A,2B,2C,2D,2E カメラ
3 画像合成処理部
4 画像出力部
5 表示装置
6 被写体
10 任意視点画像合成装置
21,22,23 座標変換部
24 距離推定部
25 画像合成部
26 カメラパラメータ記憶部
31 画像平面
32 ピンホール
33 ピンホール平面
34 被写体
35 投影像
41 レンズ
42 センサ
43 接着材
51 チェッカーパターン平面
101 システム
110 任意視点画像合成装置
201 システム
210 任意視点画像合成装置
4500 画像送信部
4501 ネットワーク
4502 画像受信部
I1,I2,I3 撮影画像
I1conv,I2conv,I3conv 座標変換画像
DESCRIPTION OF SYMBOLS 1 Arbitrary
Claims (5)
前記カメラにより撮影された各画像に基づいて、被写体の視線方向にある仮想カメラから撮影された画像を合成する画像合成処理部と、
を備え、
前記画像合成処理部は、
前記カメラのカメラキャリブレーションによるカメラパラメータを用いてカメラ座標系から仮想カメラ座標系に変換する座標変換部と、
前記座標変換部で変換した画像に対し被写体の距離モデルを推定する距離推定部と、
前記被写体の距離モデルより仮想カメラ視点の画像を合成する画像合成部と
を備えることを特徴とする任意視点画像合成装置。 A camera that shoots an image of a subject, installed at at least three locations on an upper part, a right side part, and a left side part around the display unit of the display device;
An image composition processing unit configured to synthesize an image photographed from a virtual camera in the line-of-sight direction of the subject based on each image photographed by the camera;
With
The image composition processing unit
A coordinate conversion unit for converting from a camera coordinate system to a virtual camera coordinate system using camera parameters obtained by camera calibration of the camera;
A distance estimation unit that estimates a distance model of a subject with respect to the image converted by the coordinate conversion unit;
An arbitrary viewpoint image composition apparatus comprising: an image composition unit that composes an image of a virtual camera viewpoint from the distance model of the subject.
前記座標変換部で変換した画像に対し、2枚1組ずつブロックマッチングによる評価を行い、仮想平面距離を距離推定を行う範囲で変化させ、全ての距離において評価を行い、評価値がもっとも小さな距離を注目画素の距離値として求めて、被写体の距離モデルを推定することを特徴とする請求項1に記載の任意視点画像合成装置。 The distance estimation unit
The image converted by the coordinate conversion unit is evaluated by block matching for each set of two images, the virtual plane distance is changed within the range of distance estimation, the evaluation is performed at all distances, and the evaluation value is the smallest distance The arbitrary viewpoint image composition apparatus according to claim 1, wherein the distance model of the subject is estimated by obtaining the distance value of the target pixel.
前記ブロックマッチングによる評価を変則形ブロックで行うことを特徴とする請求項2に記載の任意視点画像合成装置。 The distance estimation unit
The arbitrary viewpoint image synthesis apparatus according to claim 2, wherein the evaluation by the block matching is performed by an irregular block.
前記座標変換部で変換した画像から前記被写体の距離モデルに対応する画素の色を抽出して貼り付けることを特徴とする請求項1乃至3のいずれかに記載の任意視点画像合成装置。 The image composition unit
4. The arbitrary viewpoint image composition apparatus according to claim 1, wherein a color of a pixel corresponding to the distance model of the subject is extracted and pasted from the image converted by the coordinate conversion unit.
前記距離値より仮想カメラの画素に対応する周囲のカメラの画素を1対1の関係で求めることを特徴とする請求項4に記載の任意視点画像合成装置。 The image composition unit
5. The arbitrary viewpoint image composition apparatus according to claim 4, wherein pixels of surrounding cameras corresponding to the pixels of the virtual camera are obtained in a one-to-one relationship from the distance value.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009097580A JP2010250452A (en) | 2009-04-14 | 2009-04-14 | Arbitrary viewpoint image synthesizing device |
PCT/JP2010/056557 WO2010119852A1 (en) | 2009-04-14 | 2010-04-13 | Arbitrary viewpoint image synthesizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009097580A JP2010250452A (en) | 2009-04-14 | 2009-04-14 | Arbitrary viewpoint image synthesizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010250452A true JP2010250452A (en) | 2010-11-04 |
Family
ID=42982514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009097580A Pending JP2010250452A (en) | 2009-04-14 | 2009-04-14 | Arbitrary viewpoint image synthesizing device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2010250452A (en) |
WO (1) | WO2010119852A1 (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198712A (en) * | 2011-03-18 | 2012-10-18 | Ricoh Co Ltd | Image processing system, image processing method and image processing program |
WO2012169174A1 (en) * | 2011-06-08 | 2012-12-13 | パナソニック株式会社 | Image processing device and image processing method |
JP2013015324A (en) * | 2011-06-30 | 2013-01-24 | Toshiba Corp | Image display device, image display method and program |
JP2013235562A (en) * | 2012-05-04 | 2013-11-21 | Commonwealth Scientific & Industrial Research Organization | System and method for eye position on video |
JP2014010804A (en) * | 2012-07-03 | 2014-01-20 | Nippon Telegr & Teleph Corp <Ntt> | Image processing device, image processing method and image processing program |
WO2014076868A1 (en) * | 2012-11-19 | 2014-05-22 | パナソニック株式会社 | Image processing device and image processing method |
JP2015532483A (en) * | 2012-10-04 | 2015-11-09 | エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc | Method and apparatus for changing the viewpoint of a video image |
JP2017017581A (en) * | 2015-07-02 | 2017-01-19 | 沖電気工業株式会社 | Virtual viewpoint image generation device and program |
WO2017085857A1 (en) * | 2015-11-20 | 2017-05-26 | 三菱電機株式会社 | Driving assistance device, driving assistance system, driving assistance method, and driving assistance program |
WO2018168255A1 (en) * | 2017-03-14 | 2018-09-20 | 日本電気株式会社 | Camera parameter estimation device, camera parameter estimation unit, and computer-readable recording medium |
JP2018190402A (en) * | 2017-05-01 | 2018-11-29 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method, and program |
US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
KR20190010646A (en) * | 2016-05-25 | 2019-01-30 | 캐논 가부시끼가이샤 | Control device, control method and storage medium |
US10277832B2 (en) | 2014-06-20 | 2019-04-30 | Panasonic Intellectual Property Management Co., Ltd. | Image processing method and image processing system |
US10789765B2 (en) | 2016-04-22 | 2020-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional reconstruction method |
JPWO2020217360A1 (en) * | 2019-04-24 | 2020-10-29 | ||
US11100706B2 (en) | 2017-01-19 | 2021-08-24 | Panasonic Intellectual Property Corporation Of America | Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and generation method for generating three-dimensional model |
US11210846B2 (en) | 2018-05-02 | 2021-12-28 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional model processing method and three-dimensional model processing apparatus |
JP2022514429A (en) * | 2019-11-19 | 2022-02-10 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Calibration method for image acquisition equipment, equipment, systems, equipment and storage media |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5956808B2 (en) | 2011-05-09 | 2016-07-27 | キヤノン株式会社 | Image processing apparatus and method |
WO2013079607A1 (en) | 2011-11-30 | 2013-06-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking |
JP2020043507A (en) * | 2018-09-12 | 2020-03-19 | シャープ株式会社 | Video display device and video processing device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4595313B2 (en) * | 2003-11-14 | 2010-12-08 | ソニー株式会社 | Imaging display apparatus and method, and image transmission / reception system |
JP4737763B2 (en) * | 2006-06-14 | 2011-08-03 | Kddi株式会社 | Free viewpoint image generation method, apparatus and program using multi-viewpoint images |
JP4775903B2 (en) * | 2006-07-14 | 2011-09-21 | Kddi株式会社 | Free viewpoint image generation method, apparatus and program using multi-viewpoint images |
-
2009
- 2009-04-14 JP JP2009097580A patent/JP2010250452A/en active Pending
-
2010
- 2010-04-13 WO PCT/JP2010/056557 patent/WO2010119852A1/en active Application Filing
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012198712A (en) * | 2011-03-18 | 2012-10-18 | Ricoh Co Ltd | Image processing system, image processing method and image processing program |
JPWO2012169174A1 (en) * | 2011-06-08 | 2015-02-23 | パナソニック株式会社 | Image processing apparatus and image processing method |
WO2012169174A1 (en) * | 2011-06-08 | 2012-12-13 | パナソニック株式会社 | Image processing device and image processing method |
US9082183B2 (en) | 2011-06-08 | 2015-07-14 | Panasonic Intellectual Property Management Co., Ltd. | Image processing device and image processing method |
JP2013015324A (en) * | 2011-06-30 | 2013-01-24 | Toshiba Corp | Image display device, image display method and program |
JP2013235562A (en) * | 2012-05-04 | 2013-11-21 | Commonwealth Scientific & Industrial Research Organization | System and method for eye position on video |
KR20150030681A (en) * | 2012-05-04 | 2015-03-20 | 커먼웰쓰 사이언티픽 앤드 인더스트리얼 리서치 오가니제이션 | System and method for eye alignment in video |
KR101598069B1 (en) * | 2012-05-04 | 2016-02-26 | 커먼웰쓰 사이언티픽 앤드 인더스트리얼 리서치 오가니제이션 | System and method for eye alignment in video |
JP2014010804A (en) * | 2012-07-03 | 2014-01-20 | Nippon Telegr & Teleph Corp <Ntt> | Image processing device, image processing method and image processing program |
JP2015532483A (en) * | 2012-10-04 | 2015-11-09 | エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc | Method and apparatus for changing the viewpoint of a video image |
WO2014076868A1 (en) * | 2012-11-19 | 2014-05-22 | パナソニック株式会社 | Image processing device and image processing method |
JPWO2014076868A1 (en) * | 2012-11-19 | 2017-01-05 | パナソニックIpマネジメント株式会社 | Image processing apparatus and image processing method |
US9652881B2 (en) | 2012-11-19 | 2017-05-16 | Panasonic Intellectual Property Management Co., Ltd. | Image processing device and image processing method |
US10277832B2 (en) | 2014-06-20 | 2019-04-30 | Panasonic Intellectual Property Management Co., Ltd. | Image processing method and image processing system |
US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
JP2017017581A (en) * | 2015-07-02 | 2017-01-19 | 沖電気工業株式会社 | Virtual viewpoint image generation device and program |
JP6150950B1 (en) * | 2015-11-20 | 2017-06-21 | 三菱電機株式会社 | Driving support device, driving support system, driving support method, and driving support program |
CN108140309A (en) * | 2015-11-20 | 2018-06-08 | 三菱电机株式会社 | Drive assistance device, driving assistance system, driving assistance method and driving auxiliary program |
WO2017085857A1 (en) * | 2015-11-20 | 2017-05-26 | 三菱電機株式会社 | Driving assistance device, driving assistance system, driving assistance method, and driving assistance program |
CN108140309B (en) * | 2015-11-20 | 2020-12-08 | 三菱电机株式会社 | Driving support device, driving support system, and driving support method |
US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
US10789765B2 (en) | 2016-04-22 | 2020-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional reconstruction method |
KR20190010646A (en) * | 2016-05-25 | 2019-01-30 | 캐논 가부시끼가이샤 | Control device, control method and storage medium |
KR102121931B1 (en) | 2016-05-25 | 2020-06-11 | 캐논 가부시끼가이샤 | Control device, control method and storage medium |
US11100706B2 (en) | 2017-01-19 | 2021-08-24 | Panasonic Intellectual Property Corporation Of America | Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and generation method for generating three-dimensional model |
WO2018168255A1 (en) * | 2017-03-14 | 2018-09-20 | 日本電気株式会社 | Camera parameter estimation device, camera parameter estimation unit, and computer-readable recording medium |
US10719956B2 (en) | 2017-03-14 | 2020-07-21 | Nec Corporation | Camera parameter estimation apparatus, camera parameter estimation method, and computer-readable recording medium |
JP7052788B2 (en) | 2017-03-14 | 2022-04-12 | 日本電気株式会社 | Camera parameter estimation device, camera parameter estimation method, and program |
JPWO2018168255A1 (en) * | 2017-03-14 | 2020-01-23 | 日本電気株式会社 | Camera parameter estimation device, camera parameter estimation method, and program |
JP2018190402A (en) * | 2017-05-01 | 2018-11-29 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method, and program |
JP7002007B2 (en) | 2017-05-01 | 2022-01-20 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method and program |
US11210846B2 (en) | 2018-05-02 | 2021-12-28 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional model processing method and three-dimensional model processing apparatus |
WO2020217360A1 (en) * | 2019-04-24 | 2020-10-29 | 日本電気株式会社 | Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium |
JPWO2020217360A1 (en) * | 2019-04-24 | 2020-10-29 | ||
JP7099627B2 (en) | 2019-04-24 | 2022-07-12 | 日本電気株式会社 | Camera parameter estimation device, camera parameter estimation method, and program |
US11935266B2 (en) | 2019-04-24 | 2024-03-19 | Nec Corporation | Camera parameter estimation apparatus, camera parameter estimation method, and computer-readable recording medium |
JP2022514429A (en) * | 2019-11-19 | 2022-02-10 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Calibration method for image acquisition equipment, equipment, systems, equipment and storage media |
Also Published As
Publication number | Publication date |
---|---|
WO2010119852A1 (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2010119852A1 (en) | Arbitrary viewpoint image synthesizing device | |
Beck et al. | Immersive group-to-group telepresence | |
WO2018056155A1 (en) | Information processing device, image generation method and head-mounted display | |
TW201715880A (en) | An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
CN108885342A (en) | Wide Baseline Stereo for low latency rendering | |
JPWO2017094543A1 (en) | Information processing apparatus, information processing system, information processing apparatus control method, and parameter setting method | |
CN109919911A (en) | Moving three dimension method for reconstructing based on multi-angle of view photometric stereo | |
US9420263B2 (en) | Information processor and information processing method | |
JP2008140271A (en) | Interactive device and method thereof | |
WO2017195513A1 (en) | Information processing device, information processing system, information processing method, and program | |
CN109361912A (en) | Multilayer camera apparatus for 3 D visual image capture | |
TWI788739B (en) | 3D display device, 3D image display method | |
WO2018032841A1 (en) | Method, device and system for drawing three-dimensional image | |
WO2017141584A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
WO2018000892A1 (en) | Imaging method, apparatus and system for panoramic stereo image | |
KR20180000696A (en) | A method and apparatus for creating a pair of stereoscopic images using least one lightfield camera | |
CN113112407B (en) | Method, system, device and medium for generating field of view of television-based mirror | |
JP6768933B2 (en) | Information processing equipment, information processing system, and image processing method | |
CN110060349B (en) | Method for expanding field angle of augmented reality head-mounted display equipment | |
JP2020191624A (en) | Electronic apparatus and control method for the same | |
JP5759439B2 (en) | Video communication system and video communication method | |
CN109961395B (en) | Method, device and system for generating and displaying depth image and readable medium | |
JP2023093170A (en) | Portable terminal device, and its program | |
WO2022180630A1 (en) | Camera capture and communications system | |
JP2019133214A (en) | Image display apparatus, video display system including apparatus, image display method and program for displaying image |