JP6512575B2 - Method of distributing or broadcasting three-dimensional shape information - Google Patents

Method of distributing or broadcasting three-dimensional shape information Download PDF

Info

Publication number
JP6512575B2
JP6512575B2 JP2015055384A JP2015055384A JP6512575B2 JP 6512575 B2 JP6512575 B2 JP 6512575B2 JP 2015055384 A JP2015055384 A JP 2015055384A JP 2015055384 A JP2015055384 A JP 2015055384A JP 6512575 B2 JP6512575 B2 JP 6512575B2
Authority
JP
Japan
Prior art keywords
image
depth
dimensional shape
shape information
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015055384A
Other languages
Japanese (ja)
Other versions
JP2016163342A (en
Inventor
芳隆 大吉
芳隆 大吉
Original Assignee
芳隆 大吉
芳隆 大吉
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 芳隆 大吉, 芳隆 大吉 filed Critical 芳隆 大吉
Priority to JP2015055384A priority Critical patent/JP6512575B2/en
Publication of JP2016163342A publication Critical patent/JP2016163342A/en
Application granted granted Critical
Publication of JP6512575B2 publication Critical patent/JP6512575B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、三次元形状情報の配信または放送の方法に関するものである。  The present invention relates to a method of distributing or broadcasting three-dimensional shape information.

インターネットを利用した動画配信やテレビ放送では、カメラで撮影した二次元の映像が配信または放送されている。  In video distribution and television broadcasting using the Internet, two-dimensional video captured by a camera is distributed or broadcast.

2010年頃から立体視が可能な3Dテレビが販売され、画面を左右に分割するサイドバイサイドと呼ばれる方式で左目と右目の視差を考慮した立体視用の左目用映像と右目用映像を放送する番組が一部の放送局で制作されるようになった。同様に、立体視が可能なPC用3D対応ディスプレイやプロジェクターも販売されており、インターネットを利用したサイドバイサイド方式の動画配信やストリーミング配信も行われている。  A 3D television that can be viewed stereoscopically from around 2010 is sold, and a program called left-eye and right-eye video that takes into consideration the parallax between the left and right eyes is a system called side-by-side that divides the screen horizontally It came to be produced at the department's broadcast station. Similarly, PC 3D compatible displays and projectors capable of stereoscopic viewing are also on the market, and side-by-side video distribution and streaming distribution using the Internet are also performed.

バーチャルリアリティの分野では、視聴者の頭の位置と見ている方向をセンサーなどで計測するヘッドトラッキングと呼ばれる機能が実装された低価格のヘッドマウントディスプレイが販売されるようになった。また、PCでも利用可能な家庭用ゲーム機の周辺機器として、奥行きを計測できる深度センサーも販売されている。  In the field of virtual reality, low-cost head-mounted displays have been marketed with a function called head tracking that measures the position and direction of the viewer's head with a sensor or the like. In addition, a depth sensor capable of measuring the depth is also marketed as a peripheral device of a home-use game machine that can be used by a PC.

サイドバイサイド方式で配信または放送された映像を立体視することによって撮影対象の再生像が画面から飛び出して見えたり奥行きがあるように見えたりするものの、撮影対象の三次元形状を正確に把握できる内容には至っていない。  Although the reproduced image of the object to be photographed pops out from the screen and appears to have depth by stereoscopically viewing the video delivered or broadcast by the side-by-side method, it is possible to accurately grasp the three-dimensional shape of the object to be photographed. Has not been reached.

現状では、バーチャルリアリティ向けの三次元形状を含むコンテンツを作成するには三次元コンピューターグラフィックスに関する知識が必要であり、インターネット上で行われている動画配信やストリーミング配信のように、手軽に作成できて、リアルタイム性を持った、バーチャルリアリティ向けのコンテンツを配信または放送する方法は確立されていない。  Currently, to create content that includes 3D shapes for virtual reality requires knowledge of 3D computer graphics, and it can be easily created like video distribution and streaming distribution performed on the Internet. There is no established method for delivering or broadcasting virtual reality content with real-time capabilities.

本発明は、このような問題を解決しようとするものであり、入手が容易なカメラと深度センサーで撮影するだけで撮影対象の三次元形状情報を二次元動画としてインターネット配信またはテレビ放送でき、受信した動画から撮影対象の正確な三次元形状を復元してコンピューターグラフィックスで再生したり、バーチャルリアリティ向けのコンテンツとして利用したりできるようにすることを目的とするものである。  The present invention is intended to solve such a problem, and three-dimensional shape information of an object to be photographed can be distributed as Internet or television broadcast as a two-dimensional video only by photographing with an easily available camera and a depth sensor. It is an object of the present invention to restore an accurate three-dimensional shape of an object to be shot from the moving image and reproduce it by computer graphics or use it as content for virtual reality.

撮影対象をカメラと深度センサーで撮影して得られるカラー画像と奥行き画像を含む一つの画像を作成する。その際、カラー画像と奥行き画像は重ならないように、かつ、余白のある状態で一つの画像内に配置する。  Create a single image including a color image and a depth image obtained by shooting with a camera and a depth sensor. At this time, the color image and the depth image are arranged in one image so as not to overlap and with a margin.

奥行き画像の画素として記録されている奥行き情報から三次元座標を復元するには、撮影に使用した深度センサーの画角と奥行き画像の解像度の情報が必要となる。深度センサーの画角、奥行き画像の解像度、画素の奥行き画像内での位置を表す二次元座標、画素として記録されている奥行き情報から復元される三次元座標は深度センサーからの相対位置を表す。  In order to restore three-dimensional coordinates from depth information recorded as pixels of a depth image, information of the angle of view of the depth sensor used for photographing and the resolution of the depth image is required. The angle of view of the depth sensor, the resolution of the depth image, the two-dimensional coordinates representing the position of the pixel in the depth image, and the three-dimensional coordinates restored from depth information recorded as pixels represent the relative position from the depth sensor.

撮影対象の三次元形状の点群データを作成するには、奥行き画像の各画素から復元された三次元座標の点の色を決定しなければならない。奥行き画像の各画素とカラー画像の画素との対応付けを行うには、撮影に使用したカメラの画角とカラー画像の解像度の情報が必要となる。  In order to create point cloud data of a three-dimensional shape to be photographed, it is necessary to determine the color of the point in three-dimensional coordinates restored from each pixel of the depth image. In order to associate each pixel of the depth image with a pixel of the color image, information of the angle of view of the camera used for photographing and the resolution of the color image is required.

また、作成した一つの画像からカラー画像と奥行き画像を取得する際に、一つの画像のどの部分にカラー画像と奥行き画像が配置されているかの情報が必要となる。  In addition, when acquiring a color image and a depth image from one created image, information on which part of the one image the color image and the depth image are arranged is required.

これらのカメラ、深度センサー、カラー画像、奥行き画像に関する情報を二次元コードに符号化して、一つの画像の余白に配置する。  Information on these cameras, depth sensors, color images, and depth images is encoded into a two-dimensional code and placed in the margin of one image.

このような方法で作成された、撮影対象の三次元形状の点群データを作成するために必要なカラー画像、奥行き画像、二次元コードを含む一つの画像を三次元形状情報画像と呼ぶことにする。  When one image including a color image, a depth image, and a two-dimensional code necessary to create point cloud data of a three-dimensional shape to be photographed created by such a method is called a three-dimensional shape information image Do.

撮影対象を一組のカメラと深度センサーで撮影する場合、カメラと深度センサーの死角となる部分は色情報も奥行き情報も記録できず、撮影対象全体の三次元形状を復元することはできない。そこで、撮影対象を複数組のカメラと深度センサーで撮影して死角となる部分を減らすことで、一組のカメラと深度センサーで撮影する場合に比べてより広範囲な撮影対象の部分の三次元形状を復元することができる。  When a subject to be photographed is photographed by a pair of cameras and a depth sensor, neither the color information nor the depth information can be recorded in the blind spot of the camera and the depth sensor, and the three-dimensional shape of the whole photographing target can not be restored. Therefore, three-dimensional shape of the part of the object to be photographed in a wider range compared to the case of photographing with one set of camera and depth sensor by photographing the object to be photographed with a plurality of sets of cameras and depth sensor and reducing the blind spot. Can be restored.

一組のカメラと深度センサーの場合と同様に、複数組のカメラと深度センサーで撮影して得られる複数組のカラー画像と奥行き画像を並べて一つの三次元形状情報画像を作成する。カメラ、深度センサー、カラー画像、奥行き画像の各組に対し、組を一意に識別するためのIDを割り当て、各組のIDと、カメラ、深度センサー、カラー画像、奥行き画像に関する情報とを符号化した二次元コードを作成し、三次元形状情報画像の余白に配置する。  As in the case of one set of camera and depth sensor, a plurality of sets of color images and depth images obtained by photographing with multiple sets of cameras and depth sensor are arranged to create one three-dimensional shape information image. An ID for uniquely identifying a set is assigned to each set of camera, depth sensor, color image, and depth image, and the ID of each set and information on the camera, depth sensor, color image, depth image are encoded. Create a two-dimensional code and place it in the margin of the three-dimensional shape information image.

複数の深度センサーで撮影する場合、各深度センサーからの相対位置で表された撮影対象の一部分の点群データ同士の位置関係を考慮して合成し、撮影対象のより広範囲な部分の一つの点群データを作成するために、各深度センサーがどの位置から撮影対象を撮影しているのか知る必要がある。撮影している実空間のある一点を原点とする仮想的な座標系を定義し、各深度センサーの原点からの位置と深度センサーが向いている方向を計測し、深度センサーの設置位置情報として対応する二次元コードに含める。深度センサーの設置位置を考慮することにより、奥行き画像の各画素として記録されている奥行き情報から仮想的な座標系における絶対位置を表す三次元座標を復元することができる。  When photographing with a plurality of depth sensors, combining is performed in consideration of the positional relationship between point cloud data of a part of the photographing target represented by the relative position from each depth sensor, and one point of a wider part of the photographing target In order to create group data, it is necessary to know from which position each depth sensor is shooting a shooting target. Define a virtual coordinate system with one point in the real space being taken as the origin, measure the position from the origin of each depth sensor and the direction in which the depth sensor points, and respond as the installation position information of the depth sensor Included in the two-dimensional code. By considering the installation position of the depth sensor, it is possible to restore three-dimensional coordinates representing an absolute position in a virtual coordinate system from depth information recorded as each pixel of the depth image.

動きのある撮影対象の場合、一組または複数組のカメラと深度センサーで連続して撮影して時系列の三次元形状情報画像を作成することで、各時刻における撮影対象の三次元形状の点群データを作成することができる。時系列の三次元形状情報画像から一つの動画を作成するとき、この動画を三次元形状情報動画と呼ぶことにする。  In the case of a shooting target with motion, the points of the 3D shape of the shooting target at each time by creating a time-series three-dimensional shape information image by shooting continuously with one or more sets of cameras and the depth sensor Group data can be created. When one moving image is created from time-series three-dimensional shape information images, this moving image is called a three-dimensional shape information moving image.

三次元形状情報動画を作成することで、動きのある撮影対象の時系列の三次元形状の点群データを一つの動画データファイルとして受け渡しすることができる。  By creating a three-dimensional shape information moving image, it is possible to transfer time-series three-dimensional point cloud data of a shooting target having motion as one moving image data file.

インターネットの動画配信またはテレビ放送の既存のインフラを利用して三次元形状情報動画を配信または放送することにより、動きのある撮影対象の時系列の三次元形状情報をインターネットで動画配信またはテレビで録画放送する。  By distributing or broadcasting three-dimensional shape information moving images using the Internet video distribution or television broadcasting existing infrastructure, video distribution or television recording of time-series three-dimensional shape information of a moving object to be shot is performed on the Internet To broadcast.

または、三次元形状情報動画を配信または放送する代わりに、カメラと深度センサーで連続して撮影して三次元形状情報画像を逐次作成し、インターネットのストリーミング配信またはテレビ放送の既存のインフラを利用して、動きのある撮影対象の現在の三次元形状情報をインターネットでライブ配信またはテレビで生放送する。  Alternatively, instead of distributing or broadcasting three-dimensional shape information moving pictures, three-dimensional shape information images are sequentially created by shooting continuously with a camera and a depth sensor, and using the existing streaming distribution or television broadcasting infrastructure of the Internet Live on the Internet or live on television.

動画データファイルとして受け取った、または、インターネットまたはテレビ放送から受信した三次元形状情報動画の各フレームに記録された時系列の三次元形状情報画像を取得する。  A time-series three-dimensional shape information image recorded in each frame of a three-dimensional shape information moving image received as a moving image data file or received from the Internet or a television broadcast is acquired.

三次元形状情報画像から一つまたは複数の二次元コードを抽出する。各二次元コードからカメラ、深度センサー、カラー画像、奥行き画像に関する情報を読み取り、三次元形状情報画像から一組または複数組のカラー画像と奥行き画像を取得する。  One or more two-dimensional codes are extracted from the three-dimensional shape information image. Information on a camera, a depth sensor, a color image, and a depth image is read from each two-dimensional code, and one or more sets of color images and depth images are acquired from the three-dimensional shape information image.

一組または複数組の奥行き画像と二次元コードに対し、二次元コードから読み取った深度センサーの画角、奥行き画像の解像度、奥行き画像の各画素として記録されている奥行き情報から三次元座標を復元する。  For one or more sets of depth images and two-dimensional codes, restore the three-dimensional coordinates from the depth of field angle read from the two-dimensional code, depth image resolution, and depth information recorded as pixels of depth images Do.

一組または複数組のカラー画像と奥行き画像と二次元コードに対し、二次元コードから読み取ったカメラと深度センサーの画角とカラー画像と奥行き画像の解像度から、奥行き画像の各画素とカラー画像の画素との対応付けを行い、奥行き画像から復元した各三次元座標の点の色を決定し、撮影対象の三次元形状の点群データを作成する。  From the angle of view of the camera and depth sensor read from the two-dimensional code and the resolution of the color image and depth image for one set or plural sets of color image, depth image, and two-dimensional code, Correspondence with the pixels is performed, the color of the point of each three-dimensional coordinate restored from the depth image is determined, and point cloud data of the three-dimensional shape of the imaging target is created.

複数組のカラー画像と奥行き画像と二次元コードが存在する場合、二次元コードから読み取った深度センサーの設置位置を考慮して点群データを絶対座標で作成し、カラー画像と奥行き画像と二次元コードの各組から作成した撮影対象の一部分の三次元形状の点群データを合成して、撮影対象の広範囲な部分の三次元形状の一つの点群データを作成する。  When multiple sets of color image, depth image and two-dimensional code exist, point group data is created with absolute coordinates in consideration of the installation position of the depth sensor read from the two-dimensional code, color image, depth image and two-dimensional The point cloud data of the three-dimensional shape of a part of the imaging object created from each set of codes is synthesized to create one point cloud data of the three-dimensional shape of a wide area of the imaging object.

インターネットから三次元形状情報を受信する場合、PCなどの機器を使用して作成した点群データをコンピューターグラフィックスで描画して、撮影対象の三次元形状を再生する。時系列の点群データを連続して描画することで撮影対象の動きを再現する。  When three-dimensional shape information is received from the Internet, point cloud data created using an apparatus such as a PC is drawn by computer graphics to reproduce a three-dimensional shape to be photographed. The motion of the object to be photographed is reproduced by continuously drawing time-series point cloud data.

PCなどの機器に接続されたマウスやジョイスティックなどの入力装置による視聴者の操作に従って、コンピューターグラフィックス上の撮影対象の再生像を移動、回転、拡大縮小することにより、視聴者は撮影対象の三次元形状を正確に理解することができる。  By moving, rotating and scaling the reproduced image of the object to be photographed on the computer graphics according to the operation of the viewer by the input device such as a mouse or joystick connected to a device such as a PC, the viewer The original shape can be accurately understood.

左目、右目の視差を考慮した左目用コンピューターグラフィックス画像と右目用コンピューターグラフィックス画像を描画し、PC用3D対応ディスプレイまたは3D対応プロジェクターを使用して立体視することにより、視聴者は撮影対象の三次元形状を直観的に把握することができる。  By drawing left- and right-eye computer graphics images and right-eye computer graphics images in consideration of left-eye and right-eye parallax, and viewing stereoscopically using a 3D-compatible display for PC or a 3D-compatible projector, the viewer can Three-dimensional shape can be intuitively grasped.

ヘッドマウントディスプレイやCAVE(登録商標)などのスクリーンシステムに適応した方法で撮影対象の三次元形状の点群データをコンピューターグラフィックスで描画することより、受信した三次元形状情報をバーチャルリアリティ向けのコンテンツとして利用することができる。  By drawing the point cloud data of the three-dimensional shape of the object to be photographed by computer graphics by a method adapted to a screen system such as a head mounted display or CAVE (registered trademark), the received three-dimensional shape information is a content for virtual reality It can be used as

テレビ放送から三次元形状情報を受信するには、撮影対象の三次元形状の点群データをコンピューターグラフィックスで再生する機能を実行するための機器とプログラムをテレビ受像機に実装する。  In order to receive three-dimensional shape information from a television broadcast, an apparatus and a program for executing a function of reproducing point cloud data of a three-dimensional shape to be photographed by computer graphics are implemented in a television receiver.

上述したように本発明の方法は、三次元コンピューターグラフィックスに関する知識がなくても、入手が容易なカメラと深度センサーで撮影するだけで、バーチャルリアリティのコンテンツとしても利用可能な、動きのある三次元形状の時系列の点群データの情報を含む一連の画像または動画を作成することができる。  As described above, the method of the present invention is a moving third order that can be used as virtual reality content only by photographing with an easily available camera and depth sensor without knowledge of three-dimensional computer graphics. It is possible to create a series of images or moving images including information of time-series point cloud data of the original shape.

時系列の点群データを画像または動画として扱うことにより、既存のインフラを利用してインターネット配信またはテレビ放送することができ、受信した点群データをコンピューターグラフィックスで描画する際に、移動、回転、拡大縮小などの操作をしたり、立体視したりすることで、従来の3D動画配信よりも正確な撮影対象の三次元形状を再生することができる。  By treating time-series point cloud data as images or moving pictures, Internet distribution or television broadcasting can be performed using existing infrastructure, and when drawing received point group data by computer graphics, movement, rotation By performing an operation such as enlargement or reduction or stereoscopic viewing, it is possible to reproduce a three-dimensional shape of a shooting target that is more accurate than conventional 3D moving image distribution.

また、テレビ受像機に本発明の方法を実装することで、視聴者が自由に視点を変更して放送内容を視聴できる真の3Dテレビ放送が実現可能となる。  In addition, by implementing the method of the present invention in a television receiver, it becomes possible to realize true 3D television broadcasting in which the viewer can freely change the viewpoint and view the broadcast contents.

本発明の方法の実施の一例を示した説明図Explanatory drawing showing an example of implementation of the method of the present invention 一組のカメラと深度センサーで作成した三次元形状情報画像の一例を示した図A diagram showing an example of a three-dimensional shape information image created by a pair of cameras and a depth sensor 二組のカメラと深度センサーで作成した三次元形状情報画像の一例を示した図A diagram showing an example of a three-dimensional shape information image created by two sets of cameras and a depth sensor

以下、本発明の実施の形態を図1〜図3に基づいて説明する。  Hereinafter, an embodiment of the present invention will be described based on FIGS. 1 to 3.

三次元形状情報の送信側は、図1のように、撮影対象1を本発明の方法を実装したプログラムを実行するためのPCなどの機器6に接続されたカメラ2と深度センサー3で撮影し、一組のカラー画像と奥行き画像を取得する。  As shown in FIG. 1, the transmitting side of the three-dimensional shape information captures an image of the imaging target 1 with a camera 2 and a depth sensor 3 connected to an apparatus 6 such as a PC for executing a program implementing the method of the present invention. , Get a set of color image and depth image.

奥行き画像の各画素とカラー画像の画素の対応付けを簡単にするために、カメラと深度センサーは同じ位置に設置する。図1はカメラと深度センサーが一体化された家庭用ゲーム機の周辺機器を使用した例である。  In order to simplify the correspondence between each pixel of the depth image and the pixel of the color image, the camera and the depth sensor are placed at the same position. FIG. 1 shows an example using a peripheral device of a home game machine in which a camera and a depth sensor are integrated.

一組のカメラと深度センサーを使用する場合、PCなどの機器6上で動作する本発明の方法を実装したプログラムで、図2のようにカラー画像19と奥行き画像20を含む一つの三次元形状情報画像17を作成する。  When using a pair of camera and depth sensor, a program implementing the method of the present invention operating on an apparatus 6 such as a PC, as shown in FIG. 2, one three-dimensional shape including color image 19 and depth image 20 An information image 17 is created.

撮影に使用したカメラと深度センサーの画角、カラー画像と奥行き画像の解像度、カラー画像と奥行き画像が三次元形状情報画像内のどこに配置されているかを表す二次元座標の情報を符号化した二次元コード18を三次元形状情報画像の余白に配置する。  Two encoding information of angle of view of camera and depth sensor used for shooting, resolution of color image and depth image, two-dimensional coordinate information indicating where color image and depth image are arranged in the three-dimensional shape information image The dimensional code 18 is placed in the margin of the three-dimensional shape information image.

二次元コードはQRコード(登録商標)などの既存の符号化技術を利用する。受信側が三次元形状情報画像から二次元コードを抽出する処理を簡単にするために、二次元コードは三次元形状情報画像の左上に配置するなど予め仕様を決めておく。また、三次元形状情報画像が配信または放送のためにエンコードおよびデコードされる際に、画像の全ての画素が必ずしも元通りに復元される訳ではないことを考慮し、受信側で二次元コードを正しく読み取れるように、二次元コードは実行環境に応じてある程度拡大した状態で三次元形状情報画像に含める。  The two-dimensional code utilizes existing coding technology such as QR Code (registered trademark). In order to simplify the process of extracting the two-dimensional code from the three-dimensional shape information image on the receiving side, the specification is determined in advance such that the two-dimensional code is disposed at the upper left of the three-dimensional shape information image. In addition, when a three-dimensional shape information image is encoded and decoded for distribution or broadcast, the two-dimensional code is used on the receiving side in consideration that not all pixels of the image are necessarily restored as it is. In order to read correctly, the two-dimensional code is included in the three-dimensional shape information image in a state of being expanded to some extent according to the execution environment.

カラー画像と奥行き画像の位置を表す二次元座標は、三次元形状情報画像の左上を原点とし右方向が+X軸で下方向が+Y軸、のように予め仕様を決めておくか、使用する座標系の情報を二次元コードに記録して受信側に通知する。  The coordinates of the two-dimensional coordinates representing the position of the color image and the depth image are determined in advance such that the upper left corner of the three-dimensional shape information image is the origin, the rightward direction is + X axis, and the lower direction is + Y axis. The system information is recorded in a two-dimensional code and notified to the receiver.

一組のカメラと深度センサーを使用する場合、カメラと深度センサーの死角となる部分の色情報と奥行き情報は得られないため、撮影対象の一部分の三次元形状情報しか取得できないが、複数組のカメラと深度センサーで異なる位置から撮影して、撮影対象の広範囲の部分の三次元形状情報を取得することが可能である。図1では、カメラ2と深度センサー3の組とカメラ4と深度センサー5の組の二組で撮影している。機器6を一台のPCとする場合、二組のカメラと深度センサーを一台のPCに接続して二組のカラー画像と奥行き画像を取得する。機器6を二台のPCの集合体とする場合、二台のPCはネットワーク接続などで通信可能な状態とし、各PCに一組のカメラと深度センサーを接続して一組のカラー画像と奥行き画像を取得し、各PCで取得した計二組のカラー画像と奥行き画像を一方のPCで収集して三次元形状情報画像作成の処理を行う。  When one set of camera and depth sensor is used, color information and depth information of the blind spot of the camera and depth sensor can not be obtained, so only three-dimensional shape information of a part of the object to be captured can be acquired. It is possible to acquire three-dimensional shape information of a wide area of an object to be photographed by photographing from different positions with a camera and a depth sensor. In FIG. 1, a pair of a camera 2 and a depth sensor 3 and a pair of a camera 4 and a depth sensor 5 capture images. When the device 6 is one PC, two sets of camera and depth sensor are connected to one PC to obtain two sets of color image and depth image. When the device 6 is a set of two PCs, the two PCs can communicate by network connection, etc., and each PC is connected to a set of camera and depth sensor to set a set of color image and depth Images are acquired, and a total of two sets of color images and depth images acquired by each PC are collected by one PC to perform processing of creating a three-dimensional shape information image.

複数組のカメラと深度センサーを使用する場合、複数組のカラー画像と奥行き画像と二次元コードを含む一つの三次元形状情報画像を作成する。各組に対し、組を一意に識別するためのIDを割り当てる。各組のIDと、組を構成するカメラと深度センサーの画角、カラー画像と奥行き画像の解像度と三次元形状情報画像内の二次元座標の情報を二次元コードに符号化する。  When using multiple sets of cameras and depth sensors, one three-dimensional shape information image including multiple sets of color images, depth images, and two-dimensional code is created. Each set is assigned an ID for uniquely identifying the set. The ID of each group, the angle of view of the camera and depth sensor forming the group, the resolution of the color image and the depth image, and the information of two-dimensional coordinates in the three-dimensional shape information image are encoded into a two-dimensional code.

二組のカメラと深度センサーを使用する場合、図3のように三次元形状情報画像21は一組目のカラー画像24、奥行き画像25、二次元コード22と、二組目のカラー画像26、奥行き画像27、二次元コード23を含む。  When two sets of cameras and depth sensors are used, as shown in FIG. 3, the three-dimensional shape information image 21 includes a first set of color image 24, a depth image 25, a two-dimensional code 22, and a second set of color images 26, It includes a depth image 27 and a two-dimensional code 23.

複数組のカメラと深度センサーを使用する場合、各組の情報から作成した点群データを合成して撮影対象の広範囲な部分の三次元形状の点群データを作成するために各深度センサーの設置位置情報が必要となる。撮影している実空間のある一点を原点とする仮想的な座標系を定義し、各深度センサーの位置と向きを計測して、深度センサーの設置位置情報として該当する二次元コードに符号化する。  When multiple sets of cameras and depth sensors are used, installation of each depth sensor to create point cloud data of a three-dimensional shape of a wide area of the shooting target by combining point cloud data created from each set of information Location information is required. Define a virtual coordinate system whose origin is a point in the real space being photographed, measure the position and orientation of each depth sensor, and encode it as the installation position information of the depth sensor into the corresponding two-dimensional code .

各深度センサーの設置位置を表すための仮想的な座標系は、+Y軸が上方向で座標値はメートル単位、のように予め仕様を決めておくか、使用する座標系の情報を二次元コードに記録して受信側に通知する。  The virtual coordinate system for representing the installation position of each depth sensor is specified in advance, such as the + Y axis is upward and the coordinate value is in meters, or the coordinate system information to be used is a two-dimensional code Record to and notify the receiver.

動きのある撮影対象の場合、一組または複数組のカメラと深度センサーで連続して撮影して時系列の三次元形状情報画像を作成し、一連の三次元形状情報画像から一つの三次元形状情報動画を作成する。三次元形状情報動画の各フレームに記録されている三次元形状情報画像から二次元コードを読み取る際に、二次元コードを抽出するための画像処理を毎フレームで行わなくても良いように、一連の三次元形状情報画像の二次元コードの位置は不変であると予め仕様を決めておくのが望ましい。  In the case of a moving target, a series of three-dimensional shape information images are created by photographing continuously with one or more sets of cameras and a depth sensor, and one three-dimensional shape is generated from a series of three-dimensional shape information images. Create information videos. When reading a two-dimensional code from a three-dimensional shape information image recorded in each frame of a three-dimensional shape information moving image, a series of image processing for extracting a two-dimensional code may not be performed in every frame. It is desirable to predetermine that the position of the two-dimensional code of the three-dimensional shape information image is invariant.

三次元形状情報動画は、時系列の点群データを作成するために必要な情報を含んでいるが、一連の二次元画像から作成した通常の二次元動画として取扱いできるので、既存のインフラや技術を利用できる。動画データファイルとして保存する際、インターネットの動画配信のフォーマットとして広く利用されているMPEG−4規格や、デジタルテレビ放送で利用されているMPEG−2規格を選択することができる。この動画データファイルを使用して、インターネットで動画配信またはテレビで録画放送する。  Although 3D shape information animation contains information necessary to create time-series point cloud data, it can be treated as a normal 2D animation created from a series of 2D images, so existing infrastructure and technology Can be used. When storing as a moving image data file, it is possible to select the MPEG-4 standard widely used as a format for moving picture distribution on the Internet, and the MPEG-2 standard used in digital television broadcasting. Using this video data file, video is distributed over the Internet or recorded on TV.

三次元形状情報動画を作成する代わりに、一組または複数組のカメラと深度センサーで連続して撮影して三次元形状情報画像を逐次作成し、インターネットでライブ配信またはテレビで生放送することもできる。三次元形状情報画像は点群データを作成するために必要な情報を含んでいるが、通常の二次元画像として取扱いできるので、インターネットのストリーミング配信のプロトコルとして広く利用されているRTMPプロトコルを選択することができる。  Instead of creating a 3D shape information animation, 3D shape information images can be created sequentially by shooting continuously with one or more sets of cameras and a depth sensor, and live distribution on the Internet or live broadcast on a television . Although the three-dimensional shape information image contains the information necessary to create point cloud data, it can be handled as a normal two-dimensional image, so select the RTMP protocol widely used as a streaming distribution protocol on the Internet be able to.

三次元形状情報の受信側は、図1のように、インターネット配信またはテレビ放送された三次元形状情報動画をPCなどの機器9またはテレビ受像機8で受信し、動画の各フレームに記録された時系列の三次元形状情報画像を取得する。  As shown in FIG. 1, the receiving side of the three-dimensional shape information receives the three-dimensional shape information moving image distributed by Internet or television broadcast by the device 9 such as a PC or the television receiver 8 and recorded in each frame of the moving image. Acquire a time-series three-dimensional shape information image.

以下、受信側でインターネットに接続されたPCなどの機器を使用する場合の方法を説明する。  Hereinafter, a method for using a device such as a PC connected to the Internet on the receiving side will be described.

三次元形状情報画像から画像処理の技術を使用して一つまたは複数の二次元コードを抽出する。各二次元コードからカラー画像と奥行き画像の解像度と三次元形状情報画像内の位置を読み取り、一つまたは複数のカラー画像、奥行き画像、二次元コードの組を取得する。  One or more two-dimensional codes are extracted from the three-dimensional shape information image using image processing techniques. The resolution of the color image and the depth image and the position in the three-dimensional shape information image are read from each two-dimensional code, and a set of one or more color images, a depth image, and a two-dimensional code is acquired.

複数の二次元コードが存在する場合、各二次元コードから組を一意に識別可能なIDを読み取り、IDと組を構成するカメラ、深度センサー、カラー画像、奥行き画像の関連付けを行う。  When a plurality of two-dimensional codes exist, an ID capable of uniquely identifying a set is read from each two-dimensional code, and the ID, the camera forming the set, the depth sensor, the color image, and the depth image are associated.

二次元コードから深度センサーの画角を読み取り、奥行き画像の解像度と奥行き画像の各画素として記録されている奥行き情報から三次元座標を復元する。復元された三次元座標は深度センサーからの相対座標である。  The angle of view of the depth sensor is read from the two-dimensional code, and the three-dimensional coordinates are restored from the resolution of the depth image and the depth information recorded as each pixel of the depth image. The restored three-dimensional coordinates are relative coordinates from the depth sensor.

複数の深度センサーを使用している場合は、各二次元コードから読み取った深度センサーの設置位置情報を適用して奥行き画像から絶対座標の三次元座標を復元する。  When a plurality of depth sensors are used, the installation position information of the depth sensor read from each two-dimensional code is applied to restore the three-dimensional coordinates of the absolute coordinates from the depth image.

深度センサーの画角と奥行き画像の解像度、二次元コードから読み取ったカメラの画角とカラー画像の解像度から、奥行き画像の各画素に対応するカラー画像の画素を求め、奥行き画像の各画素から復元した三次元座標の点の色を決定する。カメラと深度センサーの画角が異なる場合は、カメラと深度センサーのどちらか一方でしか撮影されていない画素が存在することになるが、そのような画素は三次元座標または色のいずれかが不明で点群データを構成する点として復元できないので、無効な画素として処理対象から外す。奥行き画像に含まれる全ての有効な画素の三次元座標と色を決定して、撮影対象の三次元形状の点群データを作成する。  The pixel of the color image corresponding to each pixel of the depth image is determined from the angle of view of the depth sensor and the resolution of the depth image, the angle of view of the camera read from the two-dimensional code and the resolution of the color image, and restored from each pixel of the depth image Determine the color of the point in the 3D coordinates. If the angle of view between the camera and the depth sensor is different, there will be pixels that are only captured by either the camera or the depth sensor, but such pixels have either unknown three-dimensional coordinates or color Since the point cloud data can not be restored as a point that forms the point group data, it is excluded from the processing target as an invalid pixel. The three-dimensional coordinates and colors of all valid pixels included in the depth image are determined to create point cloud data of a three-dimensional shape to be photographed.

点群データをコンピューターグラフィックスで描画する。コンピューターグラフィックスの処理を行う機器の能力に応じて、点群データを点のまま描画するか、隣接する複数の点からポリゴンと呼ばれる面を作成して隙間が生じないように描画する。  Draw point cloud data with computer graphics. Depending on the ability of the device that performs computer graphics processing, point cloud data may be drawn as points, or surfaces called polygons may be created from a plurality of adjacent points so that no gap occurs.

表示装置として通常のPC用ディスプレイを使用する場合でも、マウスやジョイスティックなどの入力装置を使用した視聴者の操作に合わせて点群データを移動、回転、拡大縮小した状態で描画することで、撮影対象の再生像を様々な方向から見ることができ、従来のインターネット配信による映像よりも撮影対象の三次元形状を正確に把握することができる。  Even when a normal PC display is used as a display device, shooting is performed by drawing, moving, rotating, or scaling point cloud data in accordance with the operation of the viewer using an input device such as a mouse or joystick. The reproduced image of the object can be viewed from various directions, and the three-dimensional shape of the object to be photographed can be grasped more accurately than the video delivered by the conventional Internet distribution.

表示装置としてPC用3D対応ディスプレイ10や3D対応プロジェクターを使用する場合、左目と右目の視差を考慮した左目用コンピューターグラフィックス画像と右目用コンピューターグラフィックス画像を描画して立体視を行う。立体視により、視聴者は撮影対象の三次元形状を直感的に把握することができる。  When the 3D-compatible display 10 for PC or the 3D-compatible projector is used as a display device, stereoscopic viewing is performed by drawing left- and right-eye computer graphics images in consideration of left-eye and right-eye parallax. Stereoscopic viewing allows the viewer to intuitively grasp the three-dimensional shape of the object to be photographed.

表示装置としてヘッドトラッキング機能が実装されたヘッドマウントディスプレイ11やCAVE(登録商標)などのスクリーンシステム12といったバーチャルリアリティシステムを使用する場合、三次元形状情報画像や三次元形状情報動画から点群データを取得する機能をバーチャルリアリティシステムに実装することで、撮影対象の三次元形状の点群データをバーチャルリアリティのコンテンツとして利用することができる。  When using a virtual reality system such as a head mounted display 11 with a head tracking function implemented as the display device or the screen system 12 such as CAVE (registered trademark), point cloud data is generated from a three dimensional shape information image or a three dimensional shape information animation. By implementing the acquisition function in a virtual reality system, it is possible to use point cloud data of a three-dimensional shape to be captured as virtual reality content.

以下、テレビ放送を受信するテレビ受像機を使用する場合の方法を説明する。  Hereinafter, the method in the case of using the television receiver which receives television broadcasting is demonstrated.

テレビ放送の受信および撮影対象の再生像の表示装置としてテレビ受像機を使用するには、テレビ受像機に本発明の方法を実行するための機器とプログラムを実装して、受信した三次元形状情報動画から作成した時系列の点群データをコンピューターグラフィックスで再生できるようにする必要がある。  In order to use a television receiver as a display device for receiving a television broadcast and for displaying a reproduced image of an object to be photographed, an apparatus and a program for performing the method of the present invention are implemented on the television receiver and received three-dimensional shape information It is necessary to enable computer graphics to play back time-series point cloud data created from videos.

3Dテレビの場合は、左目用コンピューターグラフィックス画像と右目用コンピューターグラフィックス画像による立体視の機能も実装される必要がある。  In the case of 3D television, it is also necessary to implement the function of stereoscopic vision with computer graphics images for the left eye and computer graphics for the right eye.

また、テレビのリモコン装置またはマウスやジョイスティックなどの入力装置を使った視聴者の操作により再生像の移動、回転、拡大縮小を行う機能が実装されることが望ましい。  In addition, it is desirable that a function of moving, rotating, and scaling a reproduced image by a viewer's operation using a remote control device of a television or an input device such as a mouse or a joystick is implemented.

1 撮影対象
2 一組目のカメラ
3 一組目の深度センサー
4 二組目のカメラ
5 二組目の深度センサー
6 カメラと深度センサーの制御、三次元形状情報画像と三次元形状情報動画の作成、インターネット配信またはテレビ放送を行うためのPCなどの機器または機器の集合体およびプログラム
7 インターネットまたはテレビ電波
8 受信した三次元形状情報動画から撮影対象の三次元形状の点群データの作成、コンピューターグラフィックスによる点群データの再生を行う機能が実装されたテレビ受像機
9 インターネット接続、受信した三次元形状情報動画から撮影対象の三次元形状の点群データの作成、コンピューターグラフィックスによる点群データの再生を行うためのPCなどの機器または機器の集合体およびプログラム
10 PC用3D対応ディスプレイ
11 ヘッドマウントディスプレイ
12 CAVE(登録商標)システム
13 テレビに表示された撮影対象の再生像
14 PC用3D対応ディスプレイに表示された撮影対象の立体視用再生像
15 ヘッドマウントディスプレイに表示された撮影対象の右目用再生像
16 CAVE(登録商標)システムにバーチャルリアリティのコンテンツとして表示された撮影対象の再生像
17 一組のカメラと深度センサーを使用して作成した三次元形状情報画像
18 カメラと深度センサーとカラー画像と奥行き画像の情報を符号化した二次元コード
19 カメラで撮影したカラー画像
20 奥行きセンサーで撮影した奥行き画像
21 二組のカメラと深度センサーを使用して作成した三次元形状情報画像
22 一組目のカメラと深度センサーとカラー画像と奥行き画像の情報を符号化した二次元コード
23 二組目のカメラと深度センサーとカラー画像と奥行き画像の情報を符号化した二次元コード
24 一組目のカメラで撮影したカラー画像
25 一組目の深度センサーで撮影した奥行き画像
26 二組目のカメラで撮影したカラー画像
27 二組目の深度センサーで撮影した奥行き画像
1 shooting target 2 first set of cameras 3 first set of depth sensors 4 second set of cameras 5 second set of depth sensors 6 control of camera and depth sensor, creation of 3D shape information image and 3D shape information animation , Equipment and devices such as PCs for Internet distribution or TV broadcasting, and programs and equipment 7 Internet or TV radio 8 Creation of 3D shape point cloud data for shooting from received 3D shape information animation, computer graphic A television receiver equipped with a function to play back point cloud data by computer 9 Internet connection, creation of point cloud data of 3D shape of shooting object from received 3D shape information animation, point cloud data by computer graphics A device or a group of devices such as a PC for performing reproduction and a program 10 PC 3D compatible display 11 Head mount display 12 CAVE (registered trademark) system 13 Reproduction image of the object to be photographed displayed on the television 14 Reproduction image for stereoscopic vision of the object to be photographed displayed on the 3D correspondence display for PC 15 Display on the head mount display Right-eye reconstructed image of the captured object 16 Reproduced image of the captured object displayed as virtual reality content on the CAVE® system 17 Three-dimensional shape information image created using a pair of cameras and a depth sensor 18 Camera and depth sensor and two-dimensional code encoding color and depth image information 19 Color image captured with camera 20 Depth image captured with depth sensor 21 3D created using two sets of camera and depth sensor Shape information image 22 First camera and depth Two-dimensional code encoding sensor and information of color image and depth image 23 Second camera and depth sensor and two-dimensional code encoding information of color image and depth image 24 color captured by first set camera Image 25 Depth image taken with the first set of depth sensors 26 Color image taken with the second set of cameras 27 Depth image taken with the second set of depth sensors

Claims (9)

カメラで撮影したカラー画像と、深度センサーで撮影した奥行き画像と、前記カメラと前記深度センサーの画角と前記カラー画像と前記奥行き画像の解像度と三次元形状情報画像内のどこに配置されているかを表す二次元座標の情報を符号化した二次元コードとから、撮影対象の三次元形状の点群データの作成に必要な情報を記録した一つの三次元形状情報画像を作成する方法。Color image taken with a camera, depth image taken with a depth sensor, angle of view of the camera and the depth sensor, color image, resolution of the depth image and where in the three-dimensional shape information image A method of creating one three-dimensional shape information image in which information necessary for creating point group data of a three-dimensional shape to be imaged is recorded from a two-dimensional code obtained by encoding information of two-dimensional coordinates representing it. 請求項1において、一組の前記カメラと前記深度センサーを使用した場合に死角となって撮影されない前記撮影対象の部分を撮影するために、複数組のカメラと深度センサーを使用して複数組のカラー画像と奥行き画像を取得し、複数組の前記カラー画像と、前記奥行き画像と、前記二次元コードとから成り、前記二次元コードには前記カメラと前記深度センサーの設置位置も記録して、一つの前記三次元形状情報画像を作成する方法。The plurality of sets of cameras and depth sensors are used to capture a portion of the object to be photographed which is not photographed as a blind spot when using the pair of cameras and the depth sensor. Acquiring a color image and a depth image, comprising a plurality of sets of the color image, the depth image, and the two-dimensional code, and recording positions of the camera and the depth sensor in the two-dimensional code ; A method of creating one three-dimensional shape information image. 前記一組または複数組のカメラと深度センサーで、動きのある撮影対象を連続して撮影して、時系列の前記一組または複数組のカラー画像と奥行き画像を取得し、請求項1または請求項2記載の方法で作成した前記動きのある撮影対象の時系列の前記三次元形状情報画像から、前記動きのある撮影対象の時系列の三次元形状の点群データの作成に必要な情報を記録した一つの三次元形状情報動画を作成する方法。  The one or more sets of cameras and the depth sensor sequentially capture a moving imaging target to obtain the one or more sets of color images and depth images in time series, Item 3. Information necessary for creation of time-series three-dimensional shape point cloud data of the motion-captured object from the time-series three-dimensional shape information image of the motion-captured object created by the method according to item 2 How to create one recorded 3D shape information animation. 請求項1記載の方法で作成した前記三次元形状情報画像から、前記一組のカラー画像と奥行き画像と二次元コードを取得し、前記二次元コードに符号化された前記情報と、前記奥行き画像の画素として記録された奥行き情報から復元した三次元座標と、前記カラー画像の画素として記録された色情報とから、前記撮影対象の三次元形状の点群データを作成する方法。  The set of color image, depth image and two-dimensional code are acquired from the three-dimensional shape information image created by the method according to claim 1, and the information encoded in the two-dimensional code and the depth image A method of creating point cloud data of the three-dimensional shape of the object to be photographed from three-dimensional coordinates restored from depth information recorded as pixels of and the color information recorded as pixels of the color image. 請求項2記載の方法で作成した前記三次元形状情報画像から、前記複数組のカラー画像と奥行き画像と二次元コードを取得し、前記カラー画像と前記奥行き画像と前記二次元コードの各組に対して請求項4記載の方法を実施して、前記撮影対象の三次元形状の点群データを作成する方法。  The plurality of sets of color image, depth image and two-dimensional code are acquired from the three-dimensional shape information image created by the method according to claim 2, and each set of color image, depth image and two-dimensional code is obtained. A method of performing the method according to claim 4 to create point cloud data of the three-dimensional shape of the object to be photographed. 請求項3記載の方法で作成した前記三次元形状情報動画の各フレームに記録された各前記三次元形状情報画像に対して、請求項4または請求項5記載の方法を実施して、前記動きのある撮影対象の時系列の点群データを作成する方法。  The method according to claim 4 or claim 5 is performed on each of the three-dimensional shape information images recorded in each frame of the three-dimensional shape information moving image created by the method according to claim 3. To create time-series point cloud data of a shooting target. 請求項3記載の方法で作成した前記三次元形状情報動画をインターネットで動画配信またはテレビで録画放送し、インターネットまたはテレビ放送から受信した前記三次元形状情報動画から請求項6記載の方法で前記時系列の点群データを作成して、前記動きのある撮影対象の時系列の三次元形状をコンピューターグラフィックスで再生する方法。  The method according to claim 6, wherein the 3D shape information moving image created by the method according to claim 3 is video distributed over the Internet or recorded and broadcasted over the television, and the 3D shape information moving image received from the Internet or television broadcast A method of creating point cloud data of a series and reproducing the three-dimensional shape of the time series of the moving object to be photographed by computer graphics. 請求項7において、前記三次元形状情報動画をインターネットで動画配信またはテレビで録画放送する代わりに、請求項1または請求項2記載の方法を連続して実施して、前記動きのある撮影対象の前記三次元形状情報画像を逐次作成し、インターネットでライブ配信またはテレビで生放送する方法。  In Claim 7, instead of recording and broadcasting the three-dimensional shape information animation on the Internet or video recording on television, the method according to Claim 1 or 2 is continuously carried out, and A method of sequentially creating the three-dimensional shape information image and live broadcasting on the Internet or live broadcasting on television. 請求項4と請求項5と請求項6の方法と、請求項7と請求項8のテレビ放送から受信した前記三次元形状情報動画から作成した前記点群データをコンピューターグラフィックスで再生する方法を実行するための機器とプログラムを実装したテレビ受像機。  A method for reproducing the point cloud data created from the three-dimensional shape information moving picture received from the television broadcast according to claim 7 and claim 8 according to claim 4 and claim 5 and claim 6 using computer graphics. A television receiver with equipment and programs to run.
JP2015055384A 2015-03-03 2015-03-03 Method of distributing or broadcasting three-dimensional shape information Active JP6512575B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015055384A JP6512575B2 (en) 2015-03-03 2015-03-03 Method of distributing or broadcasting three-dimensional shape information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015055384A JP6512575B2 (en) 2015-03-03 2015-03-03 Method of distributing or broadcasting three-dimensional shape information

Publications (2)

Publication Number Publication Date
JP2016163342A JP2016163342A (en) 2016-09-05
JP6512575B2 true JP6512575B2 (en) 2019-05-15

Family

ID=56845571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015055384A Active JP6512575B2 (en) 2015-03-03 2015-03-03 Method of distributing or broadcasting three-dimensional shape information

Country Status (1)

Country Link
JP (1) JP6512575B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220135939A (en) 2021-03-31 2022-10-07 주식회사 케이티 Transmission apparatus, receiving apparatus and method for providing 3d image by using point cloud data

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3349182A1 (en) * 2017-01-13 2018-07-18 Thomson Licensing Method, apparatus and stream for immersive video format
US20210135924A1 (en) * 2018-01-19 2021-05-06 Nec Corporation Network monitoring system and method, and non-transitory computer readable medium storing program
KR102537946B1 (en) * 2018-04-17 2023-05-31 삼성전자주식회사 Apparatus and method for processing data assoiciated with point cloud
CN110719497B (en) * 2018-07-12 2021-06-22 华为技术有限公司 Point cloud coding and decoding method and coder-decoder
CN111696144A (en) * 2019-03-11 2020-09-22 北京地平线机器人技术研发有限公司 Depth information determination method, depth information determination device and electronic equipment
JP2022096096A (en) * 2020-12-17 2022-06-29 株式会社ティーアンドエス Video distribution method and program for the same

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3231618B2 (en) * 1996-04-23 2001-11-26 日本電気株式会社 3D image encoding / decoding system
JP2003125361A (en) * 2001-10-12 2003-04-25 Sony Corp Information processing device, information processing method, information processing program, and information processing system
CN101390131B (en) * 2006-02-27 2013-03-13 皇家飞利浦电子股份有限公司 Rendering an output image
JP4483983B2 (en) * 2008-06-26 2010-06-16 ソニー株式会社 Image compression apparatus and image compression method
JP5800569B2 (en) * 2011-05-13 2015-10-28 任天堂株式会社 Information processing system, information processing method, information processing program
WO2014181220A1 (en) * 2013-05-10 2014-11-13 Koninklijke Philips N.V. Method of encoding a video data signal for use with a multi-view rendering device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220135939A (en) 2021-03-31 2022-10-07 주식회사 케이티 Transmission apparatus, receiving apparatus and method for providing 3d image by using point cloud data

Also Published As

Publication number Publication date
JP2016163342A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6512575B2 (en) Method of distributing or broadcasting three-dimensional shape information
US11528468B2 (en) System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
CN109348119B (en) Panoramic monitoring system
JP5317955B2 (en) Efficient encoding of multiple fields of view
EP3669330A1 (en) Encoding and decoding of volumetric video
EP3249921A1 (en) Method, apparatus and stream for immersive video format
JP2017532847A (en) 3D recording and playback
US20150002636A1 (en) Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
KR101538947B1 (en) The apparatus and method of hemispheric freeviewpoint image service technology
EP2650039B1 (en) System and method of imaging
CN104349155B (en) Method and equipment for displaying simulated three-dimensional image
CN109361913A (en) For providing the method and apparatus of 3-D image for head-mounted display
WO2012166593A2 (en) System and method for creating a navigable, panoramic three-dimensional virtual reality environment having ultra-wide field of view
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
KR102546358B1 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
EP3513554A1 (en) Method, apparatus and stream for immersive video format
US10037335B1 (en) Detection of 3-D videos
JP2014095808A (en) Image creation method, image display method, image creation program, image creation system, and image display device
CN103051916A (en) Apparatus and method of creating 3 dimension panorama image
KR101198557B1 (en) 3D stereoscopic image and video that is responsive to viewing angle and position
CN113382224B (en) Interactive handle display method and device based on holographic sand table
KR101960577B1 (en) Method for transmitting and receiving stereo information about a viewed space
WO2018234622A1 (en) A method for detecting events-of-interest
US10757345B2 (en) Image capture apparatus
KR20110060180A (en) Method and apparatus for producing 3d models by interactively selecting interested objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R150 Certificate of patent or registration of utility model

Ref document number: 6512575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250