JP2017215706A - Video synthesis method, video acquisition device, video synthesis system, and computer program - Google Patents
Video synthesis method, video acquisition device, video synthesis system, and computer program Download PDFInfo
- Publication number
- JP2017215706A JP2017215706A JP2016108167A JP2016108167A JP2017215706A JP 2017215706 A JP2017215706 A JP 2017215706A JP 2016108167 A JP2016108167 A JP 2016108167A JP 2016108167 A JP2016108167 A JP 2016108167A JP 2017215706 A JP2017215706 A JP 2017215706A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction processing
- signal correction
- video
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、複数視点の映像から自由視点映像を合成する映像合成技術に関する。 The present invention relates to a video synthesis technique for synthesizing a free viewpoint video from a video of a plurality of viewpoints.
バーチャルリアリティ(以下、VRと称する)が近年急速に注目を集めており、ヘッドマウントディスプレイ(HMD)をはじめとするVR視聴デバイスや、VRコンテンツの市場が開拓されつつある。VRコンテンツの多くは、ヘッドマウントディスプレイ等を装着することにより、実世界における自身の頭の動き等を計測し、バーチャルな仮想世界における視線方向と連動させることで、従来のテレビ映像では不可能であった没入感を生み出すことができる。そのため、コンピュータグラフィックス(以下、CGと称する)やアニメーションの世界への没入型の映像体験が可能となるため、映像エンタテインメント業界をはじめとする各種業界から高い注目を集めている。 In recent years, virtual reality (hereinafter referred to as VR) has attracted rapid attention, and the market for VR viewing devices such as a head-mounted display (HMD) and VR content is being developed. Many VR contents are impossible with conventional TV images by measuring the movement of the head in the real world by linking a head-mounted display, etc., and linking it with the line-of-sight direction in the virtual virtual world. It can create a immersive feeling. For this reason, an immersive video experience in the world of computer graphics (hereinafter referred to as CG) and animation is possible, and has attracted a great deal of attention from various industries including the video entertainment industry.
しかしながら、現状のほとんどのVRコンテンツは、CGか若しくは全天球映像によるものである。全天球映像は、CGに比べて写実的な表現ができるため、よりリアリティがあるものの、ユーザは全天球カメラが設置されたある1点から視線を動かすことはできるが、視点の移動をすることはできない。そのため、より没入感を高めるためには、自由視点映像の開発が必要であるといえる。 However, most current VR contents are CG or omnidirectional video. Although the omnidirectional video can be expressed more realistically than CG, it is more realistic, but the user can move the line of sight from one point where the omnidirectional camera is installed, but the viewpoint can be moved. I can't do it. Therefore, it can be said that it is necessary to develop a free viewpoint video in order to enhance the immersive feeling.
一方で、究極の映像メディアを追及する研究として、古くから自由視点映像の研究が数多くなされてきた。例えば非特許文献1では、複数のTOF(Time of Flight)カメラを利用した自由視点映像を行っているが、TOFセンサの距離データの補正方法が画像処理ベースのものであり、必ずしも正しい補正結果が得られるとは限らないという課題がある。さらに、TOFセンサが高解像度化してきており、撮影するために要求されるPC(Personal Computer)のスペックが上がってきているという現状がある。このような状況において、非特許文献1のように、並列処理ができない方法では、自由視点映像をリアルタイムに実現することは難しい。 On the other hand, as a research to pursue the ultimate video media, a lot of research on free viewpoint video has been made since ancient times. For example, in Non-Patent Document 1, free viewpoint video using a plurality of TOF (Time of Flight) cameras is performed, but the correction method of the distance data of the TOF sensor is based on image processing, and a correct correction result is not necessarily obtained. There is a problem that it is not always obtained. Furthermore, the TOF sensor has been improved in resolution, and there is a current situation that the specifications of a PC (Personal Computer) required for photographing are increasing. In such a situation, it is difficult to realize a free viewpoint video in real time by a method that cannot perform parallel processing as in Non-Patent Document 1.
非特許文献2は、クロマキーをはじめ多くの機材を利用し、高画質な自由視点映像を実現するものである。しかしながら、特許文献2では、クロマキー等撮影機材の大規模化は、自由視点映像コンテンツ作成のハードルを上げてしまうというデメリットがある。
Non-Patent
上述のように、現状のリアルタイム自由視点映像技術においては、三次元形状復元におけるアルゴリズムが画像処理ベースであるため、形状の精確性に欠けてしまい、必ずしも正しい形状の復元ができるとは限らない。また、非特許文献1では、並列処理を行うことが困難であり、リアルタイムで高い精確性の三次元形状を生成するためには、機器が大型化するという課題がある。 As described above, in the current real-time free viewpoint video technology, the algorithm for 3D shape restoration is based on image processing, so that the accuracy of the shape is lacking and the correct shape cannot always be restored. Further, in Non-Patent Document 1, it is difficult to perform parallel processing, and in order to generate a highly accurate three-dimensional shape in real time, there is a problem that the device becomes large.
上述の課題を鑑み、本発明の目的は、大型の機材を用いることなく、リアルタイムに高い精確性で、自由視点映像を合成できる映像合成技術を提供することを目的とする。 In view of the above-described problems, an object of the present invention is to provide a video synthesis technique capable of synthesizing a free viewpoint video with high accuracy in real time without using a large-sized device.
本発明の一態様は、複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、を有し、前記合成処理部の要求に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行する、映像合成方法である。 One aspect of the present invention is a signal correction processing step of performing correction processing on a three-dimensional image of a plurality of viewpoints, and a three-dimensional image of a virtual viewpoint from the three-dimensional images of the plurality of viewpoints corrected in the signal correction processing step. A synthesis processing step for performing an image synthesis process for generating an original image, and according to the request of the synthesis processing unit, the signal correction processing step is executed in parallel for each of the three-dimensional images of the plurality of viewpoints. This is a video composition method.
本発明の一態様は、上記の映像合成方法であって、前記信号補正処理ステップでは各視点の三次元画像に対して、光学系モデルに従った補正処理を行う映像合成方法である。 One aspect of the present invention is the video composition method described above, wherein the signal correction processing step performs a correction process according to an optical system model on a three-dimensional image at each viewpoint.
本発明の一態様は、上記の映像合成方法であって、前記信号補正処理ステップでは、カラー画像のレンズ歪を補正する第1の補正処理と、距離画像のレンズ歪を補正する第2の補正処理と、前記第2の補正処理によって補正された距離画像の奥行方向の歪を補正する第3の補正処理と、前記第3の補正処理によって補正された距離画像をカラーカメラ視点へと投影するマッピング処理と、を行う、映像合成方法である。 One aspect of the present invention is the video composition method described above, wherein in the signal correction processing step, a first correction process for correcting lens distortion of a color image and a second correction for correcting lens distortion of a distance image are performed. And a third correction process for correcting distortion in the depth direction of the distance image corrected by the second correction process, and a distance image corrected by the third correction process is projected onto the color camera viewpoint. And a mapping process.
本発明の一態様は、自装置の視点で取得される三次元画像に対して補正処理を行う信号補正処理部を備え、前記信号補正処理部は、自装置を含む複数の映像取得装置によって補正処理された各視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う映像合成装置の要求に応じて、他の前記映像取得装置に並列して前記補正処理を実行する、映像取得装置である。 One aspect of the present invention includes a signal correction processing unit that performs a correction process on a three-dimensional image acquired from the viewpoint of the device, and the signal correction processing unit is corrected by a plurality of video acquisition devices including the device. The correction processing is executed in parallel with the other video acquisition devices in response to a request from a video synthesis device that performs image synthesis processing to generate a virtual viewpoint three-dimensional image from the processed three-dimensional images of each viewpoint. , A video acquisition device.
本発明の一態様は、複数の視点の三次元画像に基づいて、仮想視点の三次元画像を生成する画像合成処理を行う合成処理部を備え、前記合成処理部は、各視点の三次元画像に対する補正処理を、各視点の三次元画像を取得する複数の映像取得装置に対して並列に実行させる、映像合成装置である。 One aspect of the present invention includes a synthesis processing unit that performs an image synthesis process for generating a virtual viewpoint 3D image based on a plurality of viewpoint 3D images, and the synthesis processing unit includes a 3D image of each viewpoint. Is a video synthesizing device that causes a plurality of video acquisition devices that acquire a three-dimensional image of each viewpoint to execute correction processing for the viewpoint in parallel.
本発明の一態様は、複数の視点の三次元画像に対して補正処理を行う複数の信号補正処理部と、前記信号補正処理部により補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理部と、を備え、前記複数の信号補正処理部は、前記合成処理部の要求に応じて前記補正処理を並列処理で行う、映像合成システムである。 One aspect of the present invention provides a virtual viewpoint from a plurality of signal correction processing units that perform correction processing on a three-dimensional image of a plurality of viewpoints, and a three-dimensional image of the plurality of viewpoints that are corrected by the signal correction processing unit. And a synthesis processing unit that performs an image synthesis process for generating a three-dimensional image, wherein the plurality of signal correction processing units perform the correction process in parallel processing according to a request of the synthesis processing unit. It is.
本発明の一態様は、複数の視点の三次元画像に対して補正処理を行う信号補正処理ステップと、前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、前記合成処理ステップの処理に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行するステップと、をコンピュータに実行させるためのコンピュータプログラムである。 One aspect of the present invention is a signal correction processing step of performing correction processing on a three-dimensional image of a plurality of viewpoints, and a three-dimensional image of a virtual viewpoint from the three-dimensional images of the plurality of viewpoints corrected in the signal correction processing step. A composition processing step for performing an image composition processing for generating an original image, and a step of executing the signal correction processing step in parallel for each of the three-dimensional images of the plurality of viewpoints in accordance with the processing of the composition processing step. It is a computer program for making it run.
本発明によれば、信号補正処理部と合成処理部との並列処理により、精確な形状復元による自由視点による三次元形状をリアルタイムで生成できる。 According to the present invention, a three-dimensional shape based on a free viewpoint by accurate shape restoration can be generated in real time by parallel processing of a signal correction processing unit and a synthesis processing unit.
以下、本発明の実施の形態について、図面を参照しながら説明する。図1は本発明の実施形態に係る映像合成システム1の概要の構成図である。図1に示すように、本発明の実施形態に係る映像合成システム1は、複数の視点の三次元画像を撮影するセンサ10−1〜10−4と、信号補正処理部11−1〜11−4と、合成処理部12と、ネットワークスイッチ13とから構成される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of a video composition system 1 according to an embodiment of the present invention. As shown in FIG. 1, a video composition system 1 according to an embodiment of the present invention includes sensors 10-1 to 10-4 that capture three-dimensional images from a plurality of viewpoints, and signal correction processing units 11-1 to 11-. 4, a
センサ10−1〜10−4は、異なる位置に配置されており、各視点でオブジェクト2の撮影を行う。なお、センサ10−1〜10−4の数は任意であり、センサ10−1〜10−4を特定しない場合、センサ10という。
The sensors 10-1 to 10-4 are arranged at different positions and shoot the
図2は、センサ10の構成を示すブロック図である。図2に示すように、センサ10は、カラーカメラ101と、距離センサ102とを有している。距離センサ102としては、例えばTOF(Time Of Flight)センサが用いられる。センサ10からは、カラー画像と、距離画像と、撮影時のカメラパラメータ及び奥行方向歪補正パラメータ等の各種パラメータとが出力される。
FIG. 2 is a block diagram illustrating the configuration of the
図1において、センサ10−1〜10−4は、それぞれ、信号補正処理部11−1〜11−4と接続される。信号補正処理部11−1〜11−4は、例えばPC(Personal Computer)を用いて構成される。信号補正処理部11−1〜11−4のLAN(Local Area Network)端子は、ネットワークスイッチ13に接続される。
In FIG. 1, sensors 10-1 to 10-4 are connected to signal correction processing units 11-1 to 11-4, respectively. The signal correction processing units 11-1 to 11-4 are configured using, for example, a PC (Personal Computer). LAN (Local Area Network) terminals of the signal correction processing units 11-1 to 11-4 are connected to the
図3は、信号補正処理部11−1〜11−4として用いるPCの機能ブロック図である。なお、信号補正処理部11−1〜11−4の数は任意であり、信号補正処理部11−1〜11−4を特定しない場合、信号補正処理部11という。
FIG. 3 is a functional block diagram of a PC used as the signal correction processing units 11-1 to 11-4. The number of the signal correction processing units 11-1 to 11-4 is arbitrary, and is referred to as the signal
図3に示すように、信号補正処理部11は、入力部111と、信号補正部112を有している。入力部111は、センサ10を構成するカラーカメラ101及び距離センサ102から、1フレームのカラー画像及び距離画像、撮影時のカメラパラメータ、奥行方向歪補正パラメータ等の各種パラメータを取得し、信号補正部112へ出力する。ここで取得されたカラーカメラのフレーム画像及び距離センサのフレーム画像を、以下では、それぞれカラー原画像、距離原画像と称する。信号補正部112は、センサ10からのカラー画像及び距離画像に対して、光学系モデルに従った補正処理を行う。すなわち、信号補正部112は、センサ10からのカラー画像及び距離画像に対して、カラー画像のレンズ歪補正処理と、距離画像のレンズ歪補正処理と、奥行方向歪補正処理と、補正された距離画像をカラーカメラ視点へと投影するマッピング処理を行う。
As shown in FIG. 3, the signal
図1において、合成処理部12は、例えばPCを用いて構成される。合成処理部12には、操作インターフェース機器15と映像出力機器16とが接続される。操作インターフェース機器15及び映像出力機器16としては、例えばヘッドマウントディスプレイ18(HMD)が用いられる。また、合成処理部12のLAN端子は、ネットワークスイッチ13に接続される。ネットワークスイッチ13は、信号補正処理部11−1〜11−4と合成処理部12との間で、データのやり取りを行う。
In FIG. 1, the
図4は、合成処理部12として機能するPCの機能ブロック図である。図4に示すように、合成処理部12は、送受信部121と、画像合成部122を備えている。送受信部121は、システムの起動時の現時刻のタイムコード、若しくは録画データ中の要求フレームのタイムコードを送信する。また、送受信部121は、補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータを受信する。画像合成部122は、操作インターフェース機器15により設定された仮想視点で、送受信部121を介して入力された画像から自由視点画像を合成し、この自由視点の合成画像を映像出力機器16に出力する。
FIG. 4 is a functional block diagram of a PC that functions as the
図5は、本発明の実施形態に係る映像合成システム1の全体構成をブロック図で示したものである。また、図6は本発明の実施形態に係る映像合成システム1の全体動作を示すフローチャートである。図5及び図6を用いて、本発明の実施形態に係る映像合成システム1の動作の概要を説明する。 FIG. 5 is a block diagram showing the overall configuration of the video composition system 1 according to the embodiment of the present invention. FIG. 6 is a flowchart showing the overall operation of the video composition system 1 according to the embodiment of the present invention. The outline of the operation of the video composition system 1 according to the embodiment of the present invention will be described with reference to FIGS. 5 and 6.
図5に示すように、本発明の実施形態に係る映像合成システム1は、信号補正処理部11−1〜11−4と合成処理部12とを有している。信号補正処理部11−1〜11−4と合成処理部12とは、ネットワークスイッチ13を介して接続されている。信号補正処理部11−1〜11−4は、入力部111−1〜111−4と信号補正部112−1〜112−4とを備える。合成処理部12は、送受信部121と画像合成部122を備える。
As shown in FIG. 5, the video composition system 1 according to the embodiment of the present invention includes signal correction processing units 11-1 to 11-4 and a
(ステップS101)図6にフローチャートで示すように、信号補正処理部11−1〜11−4の入力部111−1〜111−4は、合成処理部12から要求されるタイムコードに基いて、各々接続されたセンサ10−1〜10−4から、複数の視点のフレーム画像、距離画像、撮影時のカメラパラメータ、及び奥行方向歪補正パラメータをそれぞれ取得し、信号補正部112−1〜112−4へと出力する。
(Step S101) As shown in the flowchart in FIG. 6, the input units 111-1 to 111-4 of the signal correction processing units 11-1 to 11-4 are based on the time code requested from the
(ステップS102)信号補正部112−1〜112−4は、カラー原画像のレンズ歪補正処理、距離原画像のレンズ歪補正処理、奥行方向歪補正処理、及び補正された距離画像をカラーカメラの視点へマッピングする処理を行う。 (Step S <b> 102) The signal correction units 112-1 to 112-4 perform lens distortion correction processing of the color original image, lens distortion correction processing of the distance original image, depth direction distortion correction processing, and the corrected distance image of the color camera. Performs mapping to the viewpoint.
(ステップS103)信号補正部112−1〜112−4は、補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータを、ネットワークスイッチ13を介して、合成処理部12へと送信する。合成処理部12の送受信部121は、信号補正部112−1〜112−4から補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータを受信すると、これらを画像合成部122に送る。
(Step S <b> 103) The signal correction units 112-1 to 112-4 transmit the corrected color image, the corrected distance image, and the camera parameters that have been corrected to the
(ステップS104)画像合成部122は、操作インターフェース機器15を利用して、仮想視点を設定する。
(Step S <b> 104) The
(ステップS105)画像合成部122は、信号補正処理部11−1〜11−4から送られてきた補正処理された補正済みカラー画像、補正済み距離画像及びカメラパラメータから、設定された仮想視点に基いて三次元画像を合成し、映像出力機器16に対して仮想視点画像を出力する。
(Step S <b> 105) The
(ステップS106)画像合成部122は、次フレームが取得可能か否かを判定し、次フレームが取得可能なら(ステップS106:Yes)、ステップS101に処理を戻す。次フレームが取得可能でなければ(ステップS106:No)、処理は終了となる。また、終了判定があるときも、処理は終了となる。
(Step S106) The
このように、本発明の実施形態に係る映像合成システム1は、信号補正処理部11−1〜11−4は、それぞれ、各視点のカラー画像のレンズ歪補正処理、距離画像のレンズ歪補正処理、奥行方向歪補正処理、補正された距離画像をカラーカメラ視点へと投影するマッピング処理を並列的に行っている。また、これらの処理と並列して、合成処理部12は、各視点の仮想視点画像を合成する処理を行っている。これにより、精確な形状復元による自由視点映像をリアルタイムに実現することが可能となる。
As described above, in the video composition system 1 according to the embodiment of the present invention, the signal correction processing units 11-1 to 11-4 have the lens distortion correction process for the color image at each viewpoint and the lens distortion correction process for the distance image, respectively. Depth direction distortion correction processing and mapping processing for projecting the corrected distance image onto the color camera viewpoint are performed in parallel. In parallel with these processes, the
次に、本発明の実施形態に係る映像合成システム1の各部の動作について詳細に説明する。まず、信号補正処理部11−1〜11−4の入力部111の動作について説明する。
Next, the operation of each unit of the video composition system 1 according to the embodiment of the present invention will be described in detail. First, the operation of the
図7は、入力部111の具体的な処理を示すフローチャートである。
(ステップS201)入力部111は、まず、カメラパラメータと奥行方向歪補正パラメータの設定を行う。カメラパラメータの定義は一般的なものを用いて良いため、詳細な説明は割愛するが、ここでは、焦点距離fx,fy、画像中心cx,cy、レンズ歪パラメータk1,k2,k3,q1,q2、3x3の回転行列R、(1×3)の並進行列T、をカメラパラメータとする。カメラパラメータは、各カメラ、距離センサ毎に固有のものを設定することができる。カメラパラメータは事前に設定しておいても良いし、本システムの中で求めても良い。本システムの中で求める方法は、一般的な方法として、以下の文献に記載されているものを用いることができる。
FIG. 7 is a flowchart showing specific processing of the
(Step S201) The
Zhang, Zhengyou. "A flexible new technique for camera calibration." Pattern Analysis and Machine Intelligence, IEEE Transactions on 22.11 (2000): 1330-1334 Zhang, Zhengyou. "A flexible new technique for camera calibration." Pattern Analysis and Machine Intelligence, IEEE Transactions on 22.11 (2000): 1330-1334
奥行方向歪補正パラメータは2つのスカラー値α,βであり、一般的なTOF(Time of Flight)センサを距離センサとして用いる場合であれば、αは0.97から1.03程度、βは−50から50程度の値を用いれば良いが、これは距離センサ毎に個別の値を設定することができる。これはいかなる方法で推定しても構わないが、例えば以下の文献に記載されているものを用いることができる。 Depth direction distortion correction parameters are two scalar values α and β. When a general TOF (Time of Flight) sensor is used as a distance sensor, α is about 0.97 to 1.03, and β is −. A value of about 50 to 50 may be used, but an individual value can be set for each distance sensor. This may be estimated by any method, but for example, those described in the following documents can be used.
LOUIE, Ashton, 竹内広太, and 伊藤直己. "Multiple Plane View Camera Calibration for RGB-D Sensor Rectification (画像工学)." 電子情報通信学会技術研究報告= IEICE technical report: 信学技報 115.350 (2015): 81-86. LOUIE, Ashton, Hirota Takeuchi, and Naomi Ito. "Multiple Plane View Camera Calibration for RGB-D Sensor Rectification (Image Engineering)." IEICE technical report: IEICE technical report 115.350 (2015): 81-86.
(ステップS202)次に、ユーザは、リアルタイムの自由視点映像を生成するのか、HDD(Hard Disk Drive)等に録画されたデータを用いて自由視点映像を生成するのかを決定する。 (Step S202) Next, the user determines whether to generate a real-time free viewpoint video or to generate a free viewpoint video using data recorded in an HDD (Hard Disk Drive) or the like.
(ステップS203)ステップS202で、リアルタイムの自由視点映像を生成すると判定された場合、入力部111は、最初のフレームのカラー原画像及び距離原画像をセンサ10から取得する。
(Step S203) When it is determined in step S202 that a real-time free viewpoint video is to be generated, the
(ステップS204)入力部111は、カラー原画像及び距離原画像にタイムコードを付与して、処理をステップS208に進める。
(Step S204) The
(ステップS205)ステップS202で、録画されたデータを用いて自由視点映像を生成すると判定された場合、入力部111は、合成処理部12の送受信部121からタイムコードを受信する。
(Step S205) If it is determined in step S202 that a free viewpoint video is generated using the recorded data, the
(ステップS206)入力部111は、要求されるタイムコードに、最も近い時刻に相当するフレームのカラー画像及び距離画像を録画データから取得する。
(Step S206) The
(ステップS207)そして、入力部111は、カラー原画像及び距離原画像にタイムコードを付与して、処理をステップS208に進める。
(Step S207) Then, the
(ステップS208)入力部111は、タイムコードを付与したカラー原画像及び距離原画像を信号補正部112へと出力する。また、入力部111は、設定したカメラパラメータも合わせて信号補正部112へと出力する。
(Step S <b> 208) The
(ステップS209)入力部111は、送受信部121からタイムコードの要求があるか否かを判定し(ステップS209)、タイムコードの要求があれば(ステップS209:Yes)、ステップS202に処理を戻し、フレーム画像の読み込み処理を繰り返す。タイムコードの要求がなければ(ステップS209:No)、処理を終了する。
(Step S209) The
次に、信号補正処理部11−1〜11−4の信号補正部112の動作について説明する。信号補正部112は、カラー原画像のレンズ歪補正と、距離原画像のレンズ歪補正と、奥行方向歪補正と、マッピング処理を順次行うことにより、最終的に、歪補正済みカラー画像と、歪補正済み距離画像と、カメラパラメータを出力する。図8は、信号補正部の構成を示すブロック図である。図8に示すように、信号補正部112は、カラー画像レンズ歪補正部201と、距離画像レンズ歪補正部202と、奥行方向歪補正部203と、マッピング部204とを備える。
Next, the operation of the
カラー画像レンズ歪補正部201は、カラー原画像に対して、カメラパラメータのうちの焦点距離fx,fy,画像中心cx,cy,レンズ歪パラメータを用いて、一般的な画像のレンズ歪補正処理を行う。一般的な方法であるため、詳細な説明は割愛するが、ここではカラー原画像中の画素(u,v)が、レンズ歪補正により、新たに(u’,v’)へとマッピングされるものとする。
The color image lens
距離画像レンズ歪補正部202は、距離原画像に対して、レンズ歪補正処理を行う。カラー原画像に対する処理のみを距離画像に対して行ってしまうと、距離画像の画素値が精確に正しいものではなくなってしまう。これは、距離画像の各画素値が格納している値は、被写体表面上までの光路長さではなく、奥行方向のみの距離の値であることが理由である。そのため、信号補正部112においては、距離画像の画素値に誤りが生じないようなレンズ歪補正処理を距離画像レンズ歪補正部202にて行う。
The distance image lens
図9は、レンズ歪補正の説明図であり、図9(A)は、距離画像歪補正の説明図である。図9(A)において、距離画像レンズ歪補正部202では、カラー原画像と同様に、各画素(u,v)に対して、レンズ歪処理を行うことにより、(u’,v’)へと移動を行う。(u,v)は原画像上での画素の位置を示すための二次元ベクトルであり、u,vはそれぞれ水平,垂直方向の各要素を示すためのスカラー値である。そして、距離原画像中の画素(u,v)における画素値をd、距離原画像中の画素p’における画素値をd’と定義する。そして,d’の値を以下の式(1)により決定する。
FIG. 9 is an explanatory diagram of lens distortion correction, and FIG. 9A is an explanatory diagram of distance image distortion correction. In FIG. 9A, the distance image lens
図9(B)は、奥行方向歪補正の説明図である。図9(B)において、奥行方向歪補正部203は、奥行方向歪補正パラメータα,βと距離画像レンズ歪補正部202で補正された距離画像(以下,レンズ歪補正済み距離画像と称する)を用いて、距離画像の奥行方向の歪補正を行う。図9(B)では、距離画像レンズ歪補正部202での定義と同様に、画素(u’,v’)における画素値d’に対してd’’へと補正するものとし、その決定方法は以下の式(2)を用いる。
FIG. 9B is an explanatory diagram of depth direction distortion correction. In FIG. 9B, the depth direction
式(2)において、パラメータα及びパラメータβはいずれも公知技術を用いて求めることができる。パラメータα及びパラメータβを求めるための公知技術の例として、例えば以下に示す文献に開示された技術がある。 In Expression (2), both the parameter α and the parameter β can be obtained using a known technique. As an example of a known technique for obtaining the parameter α and the parameter β, there is a technique disclosed in the following literature, for example.
Lachat, E., et al. "First experiences with kinect v2 sensor for close range 3d modelling." The International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences 40.5 (2015): 93. Lachat, E., et al. "First experiences with kinect v2 sensor for close range 3d modeling." The International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences 40.5 (2015): 93.
マッピング部204は、奥行方向歪補正部203において補正された距離画像を、カラーカメラ視点へと投影し、補間処理を行うことによりカラー画像と解像度も視点も等しい距離画像を生成する。距離画像中の各画素(u’,v’)の画素の距離値d’’と、距離センサのカメラパラメータを利用して、一般的な透視投影の逆変換を行うことで、カラーカメラがなすカメラ座標空間における三次元的な点の位置を算出することができる。この三次元点を、カラーカメラのカメラパラメータを用いて,カラーカメラの画像空間へと投影することにより、(u’,v’)と対応するカラーカメラ画像座標(i,j)を得ることができる。このような投影処理により、カラーカメラのカメラ原点を原点とする距離画像を取得することができる。しかし、一般的には距離画像センサの解像度はカラーカメラの解像度に比べて低いため、投影された(i,j)どうしでの補間処理が必要になる。この補間処理については、一般的な方法を用いてかまわないが、例えば、事前に距離画像空間内でメッシュを構築し、メッシュ単位での補間処理を行う方法を採ることができる。このようにして得られるカラーカメラ視点における距離画像のことを、歪補正済み距離画像とする。そして、マッピング部204は、送受信部121へと歪補正済みカラー画像、歪補正済み距離画像、カメラパラメータを出力する。歪補正済み距離画像は既にカラーカメラの視点からの画像へと変換されているため、距離センサカメラパラメータは以後不要となるため、ここで出力するカメラパラメータには含まれない。また、上記のとおり、カラーカメラ画像についてもレンズ歪補正処理を施しているため、レンズ歪パラメータも不要となる。そのため、送受信部121へと出力するカメラパラメータとは、カラーカメラパラメータの中からレンズ歪パラメータを除いたものだけである。
The
次に、合成処理部12の送受信部121における処理について説明する。送受信部121は、画像合成部122が要求するタイムコードを各信号補正処理部11−1〜11−4に含まれる入力部111−1〜111−4へと転送する。さらに、送受信部121は、各信号補正処理部11−1〜11−4に含まれる信号補正部112−1〜112−4から出力される歪補正済みカラー画像と歪補正済み距離画像とカメラパラメータを受信し、これらを同一フレームのデータとして画像合成部122へと出力する。送受信部121は、これらの処理をネットワーク経由で行うものである。
Next, processing in the transmission /
図10は、画像合成部122の処理を示すフローチャートである。
(ステップS401)まず、画像合成部122は、背景の三次元点群データの生成を行う。背景の三次元点群データについては、事前に本システムを用いて撮影されたデータから生成しても良いし、CGなどの非実写空間の三次元モデルを用いても良い。事前に本システムを用いて撮影されたデータから背景の三次元点群データを生成する方法については、以下の装置内における点群の生成方法と同じであるため、後で説明をする。
FIG. 10 is a flowchart showing the processing of the
(Step S401) First, the
合成処理部12は、映像を出力するための映像出力機器16としてヘッドマウントディスプレイ18を備えているものとする。また、合成処理部12は、操作インターフェース機器15が接続されているものとする。操作インターフェース機器15は、ヘッドマウントディスプレイ18のヘッドトラッキング機能を利用するものとする。これにより、ユーザのリアルな視点位置と視線方向を、仮想カメラ視点位置と視線方向に反映することができるため、ユーザが自由視点映像の空間内に入り込んだような映像を提示することができるようになる。また、操作インターフェース機器15は、三次元空間中での移動が可能であれば、その他の機器を用いても構わない。操作インターフェース機器15としては、例えば、キーボードとマウス、ゲームコントローラなどを用いても良い。映像出力機器16としても、通常のディスプレイを用いても構わない。その際はユーザの頭部などにトラッキングセンサ類を装着することにより、上記と同様の効果を得ることができる。
The
(ステップS402)ユーザが仮想視点のカメラ位置と向き、映像を視聴したいタイムコードの指定を行う。仮想視点のカメラ位置と向きについては、上述したように、ヘッドマウントディスプレイ18のヘッドトラッキングにより入力するか、若しくは、ゲームコントローラ等によりユーザが適宜操作できるものとする。タイムコードに関しては、シークバーの利用や早送り機能などにより、ユーザが映像を見たい時刻を適宜変更できるものとする。
(Step S402) The user designates the camera position and orientation of the virtual viewpoint and the time code for viewing the video. As described above, the camera position and orientation of the virtual viewpoint are input by head tracking of the head mounted
(ステップS403)画像合成部122は、ユーザが指定した要求タイムコードを送受信部121へと出力し、送受信部121がこれに応じて入力部111へと要求し、返答が返ってきた歪補正済みカラー画像と、歪補正済み距離画像と、カメラパラメータを、全て受信する。
(Step S403) The
(ステップS404)画像合成部122は、被写体の三次元点群データの生成を行う。各画素(i,j)における距離値d’’と、カメラパラメータを利用して、一般的な透視投影の逆変換を行うことにより、各画素の三次元空間中の点の座標を得ることができる。そして、この各点に対して、画素(i,j)の色を付加することにより、色付きの三次元点群を得ることができる。これを全ての信号補正処理部11−1〜11−4のデータ毎に行うことにより、被写体の三次元点群データを生成することができる。なお、これらの処理は、画像中の全ての画素に対して行うこともできるが、一般的なTOF(Time of Flight)センサを距離センサとして用いる場合には、計測範囲の限界により距離の計測が行えていない領域が画像中に多数存在することが考えられる。また、背景モデルを事前に用意している場合には、シーン中の演者などの被写体のみの三次元点群データのみを表示したい場合も考えられる。このような場合に対しては,シーン中の三次元点群のうち、ユーザが事前に設定した範囲内に含まれる点群のみを残し、他を破棄する処理を加える。同様に、三次元点群のセグメンテーション手法を用いることで、一部の点群のみを残すこともできる。
(Step S404) The
(ステップS405)次に、画像合成部122は、仮想視点カメラに対して、レンダリング処理を行う。まず、画像合成部122は、背景の三次元点群データと被写体の三次元点群のデータを、共通の三次元空間内へと重畳する。そして、画像合成部122は、これら全ての点群を、仮想視点カメラのカメラパラメータを利用して、仮想視点カメラに対してレンダリング処理を行う。レンダリンググ方法については,何を用いても構わないが、ここではポイントクラウドレンダリングを行う。そのほか、メッシュを構築した後に,一般的なレンダリング方法を用いても良い。
(Step S405) Next, the
(ステップS406)画像合成部122は、レンダリング画像を映像出力機器16へと出力する。
(Step S <b> 406) The
(ステップS407)画像合成部122は、ユーザからの終了指示があるか否かを判定する。ユーザからの終了指示がなければ(ステップS407:No)、ステップS408に処理を進める。
(Step S407) The
(ステップS408)画像合成部122は、描画対象フレームの指定、及び仮想視点カメラの位置と向きを設定する(ステップS408)。そして、ステップS402に処理を戻し、上記の処理を繰り返すものとする。
(Step S408) The
なお、上述の例では、一枚の画像に対する処理について説明したが、複数の連続する画像に対して処理を繰り返すことで、動画像を処理することができる。なお、映像の全てのフレームに適用せずに、一部のフレームに対して本発明による処理を適用し、その他のフレームに対しては別の処理を適用しても構わない。 In the above-described example, processing for one image has been described. However, a moving image can be processed by repeating processing for a plurality of continuous images. Note that the processing according to the present invention may be applied to some frames without being applied to all frames of the video, and another processing may be applied to other frames.
なお、映像合成システム1の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるものであっても良い。
A program for realizing all or part of the functions of the video composition system 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed. You may perform the process of each part. Here, the “computer system” includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, or may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like without departing from the gist of the present invention.
1:映像合成システム,10:センサ,11:信号補正処理部,12:合成処理部,13:ネットワークスイッチ,15:操作インターフェース機器,16:映像出力機器,101:カラーカメラ,102:距離センサ,111:入力部,112:信号補正処理部,121:送受信部,122:画像合成部,201:カラー画像レンズ歪補正部201,202:距離画像レンズ歪補正部,203:奥行方向歪補正部,204:マッピング部
1: video composition system, 10: sensor, 11: signal correction processing unit, 12: synthesis processing unit, 13: network switch, 15: operation interface device, 16: video output device, 101: color camera, 102: distance sensor, 111: input unit, 112: signal correction processing unit, 121: transmission / reception unit, 122: image synthesis unit, 201: color image lens
Claims (7)
前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、
を有し、
前記合成処理部の要求に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行する、
映像合成方法。 A signal correction processing step for performing correction processing on a three-dimensional image of a plurality of viewpoints;
A synthesis processing step for performing an image synthesis process for generating a three-dimensional image of a virtual viewpoint from the three-dimensional images of the plurality of viewpoints corrected in the signal correction processing step;
Have
In response to a request from the synthesis processing unit, the signal correction processing step is executed in parallel for each of the three-dimensional images of the plurality of viewpoints.
Video composition method.
請求項1に記載の映像合成方法。 In the signal correction processing step, correction processing according to the optical system model is performed on the three-dimensional image of each viewpoint.
The video composition method according to claim 1.
請求項2に記載の映像合成方法。 In the signal correction processing step, a first correction process for correcting lens distortion of the color image, a second correction process for correcting lens distortion of the distance image, and the distance image corrected by the second correction process are performed. Performing a third correction process for correcting distortion in the depth direction and a mapping process for projecting the distance image corrected by the third correction process onto a color camera viewpoint;
The video composition method according to claim 2.
前記信号補正処理部は、自装置を含む複数の映像取得装置によって補正処理された各視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う映像合成装置の要求に応じて、他の前記映像取得装置に並列して前記補正処理を実行する、
映像取得装置。 A signal correction processing unit that performs correction processing on a three-dimensional image acquired from the viewpoint of the own device,
The signal correction processing unit responds to a request from a video composition device that performs image composition processing for generating a three-dimensional image of a virtual viewpoint from three-dimensional images of each viewpoint corrected by a plurality of video acquisition devices including the device itself. And executing the correction process in parallel with the other video acquisition device,
Video acquisition device.
前記合成処理部は、各視点の三次元画像に対する補正処理を、各視点の三次元画像を取得する複数の映像取得装置に対して並列に実行させる、
映像合成装置。 A synthesis processing unit that performs image synthesis processing for generating a virtual viewpoint three-dimensional image based on a plurality of viewpoint three-dimensional images,
The synthesis processing unit causes a plurality of video acquisition devices that acquire a three-dimensional image of each viewpoint to execute correction processing on the three-dimensional image of each viewpoint in parallel.
Video composition device.
前記信号補正処理部により補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理部と、
を備え、
前記複数の信号補正処理部は、前記合成処理部の要求に応じて前記補正処理を並列処理で行う、
映像合成システム。 A plurality of signal correction processing units for performing correction processing on a three-dimensional image of a plurality of viewpoints;
A synthesis processing unit that performs an image synthesis process for generating a virtual viewpoint three-dimensional image from a plurality of viewpoint three-dimensional images corrected by the signal correction processing unit;
With
The plurality of signal correction processing units perform the correction processing in parallel processing according to the request of the synthesis processing unit,
Video composition system.
前記信号補正処理ステップにおいて補正処理された複数の視点の三次元画像から、仮想視点の三次元画像を生成する画像合成処理を行う合成処理ステップと、
前記合成処理ステップの処理に応じて、前記複数の視点の三次元画像ごとに前記信号補正処理ステップを並列で実行するステップと、
をコンピュータに実行させるためのコンピュータプログラム。 A signal correction processing step for performing correction processing on a three-dimensional image of a plurality of viewpoints;
A synthesis processing step for performing an image synthesis process for generating a three-dimensional image of a virtual viewpoint from the three-dimensional images of the plurality of viewpoints corrected in the signal correction processing step;
Performing the signal correction processing step in parallel for each of the three-dimensional images of the plurality of viewpoints according to the processing of the combining processing step;
A computer program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016108167A JP2017215706A (en) | 2016-05-31 | 2016-05-31 | Video synthesis method, video acquisition device, video synthesis system, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016108167A JP2017215706A (en) | 2016-05-31 | 2016-05-31 | Video synthesis method, video acquisition device, video synthesis system, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017215706A true JP2017215706A (en) | 2017-12-07 |
Family
ID=60575668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016108167A Pending JP2017215706A (en) | 2016-05-31 | 2016-05-31 | Video synthesis method, video acquisition device, video synthesis system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017215706A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166376A1 (en) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | Image processing device, image processing method, and program |
CN113837978A (en) * | 2021-09-28 | 2021-12-24 | 北京奇艺世纪科技有限公司 | Image synthesis method, device, terminal equipment and readable storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109322A (en) * | 2007-10-30 | 2009-05-21 | National Institute Of Information & Communication Technology | Camera, camera array and camera array system |
-
2016
- 2016-05-31 JP JP2016108167A patent/JP2017215706A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109322A (en) * | 2007-10-30 | 2009-05-21 | National Institute Of Information & Communication Technology | Camera, camera array and camera array system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166376A1 (en) * | 2019-02-15 | 2020-08-20 | ソニー株式会社 | Image processing device, image processing method, and program |
CN113837978A (en) * | 2021-09-28 | 2021-12-24 | 北京奇艺世纪科技有限公司 | Image synthesis method, device, terminal equipment and readable storage medium |
CN113837978B (en) * | 2021-09-28 | 2024-04-05 | 北京奇艺世纪科技有限公司 | Image synthesis method, device, terminal equipment and readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11270460B2 (en) | Method and apparatus for determining pose of image capturing device, and storage medium | |
CN109658365B (en) | Image processing method, device, system and storage medium | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
CN108769462B (en) | Free visual angle scene roaming method and device | |
CN109906600B (en) | Simulated depth of field | |
TWI786157B (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2014203462A (en) | Apparatus and method for forming light field image | |
JP2023512272A (en) | Image processing method and apparatus | |
JP2023546739A (en) | Methods, apparatus, and systems for generating three-dimensional models of scenes | |
CN113643414A (en) | Three-dimensional image generation method and device, electronic equipment and storage medium | |
JP6555755B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR20150058733A (en) | A method using 3d geometry data for virtual reality image presentation and control in 3d space | |
JP5252703B2 (en) | 3D image display device, 3D image display method, and 3D image display program | |
JP2017215706A (en) | Video synthesis method, video acquisition device, video synthesis system, and computer program | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
CN113706692B (en) | Three-dimensional image reconstruction method, three-dimensional image reconstruction device, electronic equipment and storage medium | |
US20230005213A1 (en) | Imaging apparatus, imaging method, and program | |
Belhi et al. | An integrated framework for the interaction and 3D visualization of cultural heritage | |
JP5764097B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2020160756A (en) | Image generation device, image generation method, and program | |
JP6384961B2 (en) | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium | |
CN113298868B (en) | Model building method, device, electronic equipment, medium and program product | |
JP2004133556A (en) | Three-dimensional shape extraction method, three-dimensional shape extraction program and storage medium storing three-dimensional shape extraction program | |
JP7119853B2 (en) | Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200128 |