JP6512575B2 - Method of distributing or broadcasting three-dimensional shape information - Google Patents
Method of distributing or broadcasting three-dimensional shape information Download PDFInfo
- Publication number
- JP6512575B2 JP6512575B2 JP2015055384A JP2015055384A JP6512575B2 JP 6512575 B2 JP6512575 B2 JP 6512575B2 JP 2015055384 A JP2015055384 A JP 2015055384A JP 2015055384 A JP2015055384 A JP 2015055384A JP 6512575 B2 JP6512575 B2 JP 6512575B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- dimensional shape
- shape information
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、三次元形状情報の配信または放送の方法に関するものである。 The present invention relates to a method of distributing or broadcasting three-dimensional shape information.
インターネットを利用した動画配信やテレビ放送では、カメラで撮影した二次元の映像が配信または放送されている。 In video distribution and television broadcasting using the Internet, two-dimensional video captured by a camera is distributed or broadcast.
2010年頃から立体視が可能な3Dテレビが販売され、画面を左右に分割するサイドバイサイドと呼ばれる方式で左目と右目の視差を考慮した立体視用の左目用映像と右目用映像を放送する番組が一部の放送局で制作されるようになった。同様に、立体視が可能なPC用3D対応ディスプレイやプロジェクターも販売されており、インターネットを利用したサイドバイサイド方式の動画配信やストリーミング配信も行われている。 A 3D television that can be viewed stereoscopically from around 2010 is sold, and a program called left-eye and right-eye video that takes into consideration the parallax between the left and right eyes is a system called side-by-side that divides the screen horizontally It came to be produced at the department's broadcast station. Similarly, PC 3D compatible displays and projectors capable of stereoscopic viewing are also on the market, and side-by-side video distribution and streaming distribution using the Internet are also performed.
バーチャルリアリティの分野では、視聴者の頭の位置と見ている方向をセンサーなどで計測するヘッドトラッキングと呼ばれる機能が実装された低価格のヘッドマウントディスプレイが販売されるようになった。また、PCでも利用可能な家庭用ゲーム機の周辺機器として、奥行きを計測できる深度センサーも販売されている。 In the field of virtual reality, low-cost head-mounted displays have been marketed with a function called head tracking that measures the position and direction of the viewer's head with a sensor or the like. In addition, a depth sensor capable of measuring the depth is also marketed as a peripheral device of a home-use game machine that can be used by a PC.
サイドバイサイド方式で配信または放送された映像を立体視することによって撮影対象の再生像が画面から飛び出して見えたり奥行きがあるように見えたりするものの、撮影対象の三次元形状を正確に把握できる内容には至っていない。 Although the reproduced image of the object to be photographed pops out from the screen and appears to have depth by stereoscopically viewing the video delivered or broadcast by the side-by-side method, it is possible to accurately grasp the three-dimensional shape of the object to be photographed. Has not been reached.
現状では、バーチャルリアリティ向けの三次元形状を含むコンテンツを作成するには三次元コンピューターグラフィックスに関する知識が必要であり、インターネット上で行われている動画配信やストリーミング配信のように、手軽に作成できて、リアルタイム性を持った、バーチャルリアリティ向けのコンテンツを配信または放送する方法は確立されていない。 Currently, to create content that includes 3D shapes for virtual reality requires knowledge of 3D computer graphics, and it can be easily created like video distribution and streaming distribution performed on the Internet. There is no established method for delivering or broadcasting virtual reality content with real-time capabilities.
本発明は、このような問題を解決しようとするものであり、入手が容易なカメラと深度センサーで撮影するだけで撮影対象の三次元形状情報を二次元動画としてインターネット配信またはテレビ放送でき、受信した動画から撮影対象の正確な三次元形状を復元してコンピューターグラフィックスで再生したり、バーチャルリアリティ向けのコンテンツとして利用したりできるようにすることを目的とするものである。 The present invention is intended to solve such a problem, and three-dimensional shape information of an object to be photographed can be distributed as Internet or television broadcast as a two-dimensional video only by photographing with an easily available camera and a depth sensor. It is an object of the present invention to restore an accurate three-dimensional shape of an object to be shot from the moving image and reproduce it by computer graphics or use it as content for virtual reality.
撮影対象をカメラと深度センサーで撮影して得られるカラー画像と奥行き画像を含む一つの画像を作成する。その際、カラー画像と奥行き画像は重ならないように、かつ、余白のある状態で一つの画像内に配置する。 Create a single image including a color image and a depth image obtained by shooting with a camera and a depth sensor. At this time, the color image and the depth image are arranged in one image so as not to overlap and with a margin.
奥行き画像の画素として記録されている奥行き情報から三次元座標を復元するには、撮影に使用した深度センサーの画角と奥行き画像の解像度の情報が必要となる。深度センサーの画角、奥行き画像の解像度、画素の奥行き画像内での位置を表す二次元座標、画素として記録されている奥行き情報から復元される三次元座標は深度センサーからの相対位置を表す。 In order to restore three-dimensional coordinates from depth information recorded as pixels of a depth image, information of the angle of view of the depth sensor used for photographing and the resolution of the depth image is required. The angle of view of the depth sensor, the resolution of the depth image, the two-dimensional coordinates representing the position of the pixel in the depth image, and the three-dimensional coordinates restored from depth information recorded as pixels represent the relative position from the depth sensor.
撮影対象の三次元形状の点群データを作成するには、奥行き画像の各画素から復元された三次元座標の点の色を決定しなければならない。奥行き画像の各画素とカラー画像の画素との対応付けを行うには、撮影に使用したカメラの画角とカラー画像の解像度の情報が必要となる。 In order to create point cloud data of a three-dimensional shape to be photographed, it is necessary to determine the color of the point in three-dimensional coordinates restored from each pixel of the depth image. In order to associate each pixel of the depth image with a pixel of the color image, information of the angle of view of the camera used for photographing and the resolution of the color image is required.
また、作成した一つの画像からカラー画像と奥行き画像を取得する際に、一つの画像のどの部分にカラー画像と奥行き画像が配置されているかの情報が必要となる。 In addition, when acquiring a color image and a depth image from one created image, information on which part of the one image the color image and the depth image are arranged is required.
これらのカメラ、深度センサー、カラー画像、奥行き画像に関する情報を二次元コードに符号化して、一つの画像の余白に配置する。 Information on these cameras, depth sensors, color images, and depth images is encoded into a two-dimensional code and placed in the margin of one image.
このような方法で作成された、撮影対象の三次元形状の点群データを作成するために必要なカラー画像、奥行き画像、二次元コードを含む一つの画像を三次元形状情報画像と呼ぶことにする。 When one image including a color image, a depth image, and a two-dimensional code necessary to create point cloud data of a three-dimensional shape to be photographed created by such a method is called a three-dimensional shape information image Do.
撮影対象を一組のカメラと深度センサーで撮影する場合、カメラと深度センサーの死角となる部分は色情報も奥行き情報も記録できず、撮影対象全体の三次元形状を復元することはできない。そこで、撮影対象を複数組のカメラと深度センサーで撮影して死角となる部分を減らすことで、一組のカメラと深度センサーで撮影する場合に比べてより広範囲な撮影対象の部分の三次元形状を復元することができる。 When a subject to be photographed is photographed by a pair of cameras and a depth sensor, neither the color information nor the depth information can be recorded in the blind spot of the camera and the depth sensor, and the three-dimensional shape of the whole photographing target can not be restored. Therefore, three-dimensional shape of the part of the object to be photographed in a wider range compared to the case of photographing with one set of camera and depth sensor by photographing the object to be photographed with a plurality of sets of cameras and depth sensor and reducing the blind spot. Can be restored.
一組のカメラと深度センサーの場合と同様に、複数組のカメラと深度センサーで撮影して得られる複数組のカラー画像と奥行き画像を並べて一つの三次元形状情報画像を作成する。カメラ、深度センサー、カラー画像、奥行き画像の各組に対し、組を一意に識別するためのIDを割り当て、各組のIDと、カメラ、深度センサー、カラー画像、奥行き画像に関する情報とを符号化した二次元コードを作成し、三次元形状情報画像の余白に配置する。 As in the case of one set of camera and depth sensor, a plurality of sets of color images and depth images obtained by photographing with multiple sets of cameras and depth sensor are arranged to create one three-dimensional shape information image. An ID for uniquely identifying a set is assigned to each set of camera, depth sensor, color image, and depth image, and the ID of each set and information on the camera, depth sensor, color image, depth image are encoded. Create a two-dimensional code and place it in the margin of the three-dimensional shape information image.
複数の深度センサーで撮影する場合、各深度センサーからの相対位置で表された撮影対象の一部分の点群データ同士の位置関係を考慮して合成し、撮影対象のより広範囲な部分の一つの点群データを作成するために、各深度センサーがどの位置から撮影対象を撮影しているのか知る必要がある。撮影している実空間のある一点を原点とする仮想的な座標系を定義し、各深度センサーの原点からの位置と深度センサーが向いている方向を計測し、深度センサーの設置位置情報として対応する二次元コードに含める。深度センサーの設置位置を考慮することにより、奥行き画像の各画素として記録されている奥行き情報から仮想的な座標系における絶対位置を表す三次元座標を復元することができる。 When photographing with a plurality of depth sensors, combining is performed in consideration of the positional relationship between point cloud data of a part of the photographing target represented by the relative position from each depth sensor, and one point of a wider part of the photographing target In order to create group data, it is necessary to know from which position each depth sensor is shooting a shooting target. Define a virtual coordinate system with one point in the real space being taken as the origin, measure the position from the origin of each depth sensor and the direction in which the depth sensor points, and respond as the installation position information of the depth sensor Included in the two-dimensional code. By considering the installation position of the depth sensor, it is possible to restore three-dimensional coordinates representing an absolute position in a virtual coordinate system from depth information recorded as each pixel of the depth image.
動きのある撮影対象の場合、一組または複数組のカメラと深度センサーで連続して撮影して時系列の三次元形状情報画像を作成することで、各時刻における撮影対象の三次元形状の点群データを作成することができる。時系列の三次元形状情報画像から一つの動画を作成するとき、この動画を三次元形状情報動画と呼ぶことにする。 In the case of a shooting target with motion, the points of the 3D shape of the shooting target at each time by creating a time-series three-dimensional shape information image by shooting continuously with one or more sets of cameras and the depth sensor Group data can be created. When one moving image is created from time-series three-dimensional shape information images, this moving image is called a three-dimensional shape information moving image.
三次元形状情報動画を作成することで、動きのある撮影対象の時系列の三次元形状の点群データを一つの動画データファイルとして受け渡しすることができる。 By creating a three-dimensional shape information moving image, it is possible to transfer time-series three-dimensional point cloud data of a shooting target having motion as one moving image data file.
インターネットの動画配信またはテレビ放送の既存のインフラを利用して三次元形状情報動画を配信または放送することにより、動きのある撮影対象の時系列の三次元形状情報をインターネットで動画配信またはテレビで録画放送する。 By distributing or broadcasting three-dimensional shape information moving images using the Internet video distribution or television broadcasting existing infrastructure, video distribution or television recording of time-series three-dimensional shape information of a moving object to be shot is performed on the Internet To broadcast.
または、三次元形状情報動画を配信または放送する代わりに、カメラと深度センサーで連続して撮影して三次元形状情報画像を逐次作成し、インターネットのストリーミング配信またはテレビ放送の既存のインフラを利用して、動きのある撮影対象の現在の三次元形状情報をインターネットでライブ配信またはテレビで生放送する。 Alternatively, instead of distributing or broadcasting three-dimensional shape information moving pictures, three-dimensional shape information images are sequentially created by shooting continuously with a camera and a depth sensor, and using the existing streaming distribution or television broadcasting infrastructure of the Internet Live on the Internet or live on television.
動画データファイルとして受け取った、または、インターネットまたはテレビ放送から受信した三次元形状情報動画の各フレームに記録された時系列の三次元形状情報画像を取得する。 A time-series three-dimensional shape information image recorded in each frame of a three-dimensional shape information moving image received as a moving image data file or received from the Internet or a television broadcast is acquired.
三次元形状情報画像から一つまたは複数の二次元コードを抽出する。各二次元コードからカメラ、深度センサー、カラー画像、奥行き画像に関する情報を読み取り、三次元形状情報画像から一組または複数組のカラー画像と奥行き画像を取得する。 One or more two-dimensional codes are extracted from the three-dimensional shape information image. Information on a camera, a depth sensor, a color image, and a depth image is read from each two-dimensional code, and one or more sets of color images and depth images are acquired from the three-dimensional shape information image.
一組または複数組の奥行き画像と二次元コードに対し、二次元コードから読み取った深度センサーの画角、奥行き画像の解像度、奥行き画像の各画素として記録されている奥行き情報から三次元座標を復元する。 For one or more sets of depth images and two-dimensional codes, restore the three-dimensional coordinates from the depth of field angle read from the two-dimensional code, depth image resolution, and depth information recorded as pixels of depth images Do.
一組または複数組のカラー画像と奥行き画像と二次元コードに対し、二次元コードから読み取ったカメラと深度センサーの画角とカラー画像と奥行き画像の解像度から、奥行き画像の各画素とカラー画像の画素との対応付けを行い、奥行き画像から復元した各三次元座標の点の色を決定し、撮影対象の三次元形状の点群データを作成する。 From the angle of view of the camera and depth sensor read from the two-dimensional code and the resolution of the color image and depth image for one set or plural sets of color image, depth image, and two-dimensional code, Correspondence with the pixels is performed, the color of the point of each three-dimensional coordinate restored from the depth image is determined, and point cloud data of the three-dimensional shape of the imaging target is created.
複数組のカラー画像と奥行き画像と二次元コードが存在する場合、二次元コードから読み取った深度センサーの設置位置を考慮して点群データを絶対座標で作成し、カラー画像と奥行き画像と二次元コードの各組から作成した撮影対象の一部分の三次元形状の点群データを合成して、撮影対象の広範囲な部分の三次元形状の一つの点群データを作成する。 When multiple sets of color image, depth image and two-dimensional code exist, point group data is created with absolute coordinates in consideration of the installation position of the depth sensor read from the two-dimensional code, color image, depth image and two-dimensional The point cloud data of the three-dimensional shape of a part of the imaging object created from each set of codes is synthesized to create one point cloud data of the three-dimensional shape of a wide area of the imaging object.
インターネットから三次元形状情報を受信する場合、PCなどの機器を使用して作成した点群データをコンピューターグラフィックスで描画して、撮影対象の三次元形状を再生する。時系列の点群データを連続して描画することで撮影対象の動きを再現する。 When three-dimensional shape information is received from the Internet, point cloud data created using an apparatus such as a PC is drawn by computer graphics to reproduce a three-dimensional shape to be photographed. The motion of the object to be photographed is reproduced by continuously drawing time-series point cloud data.
PCなどの機器に接続されたマウスやジョイスティックなどの入力装置による視聴者の操作に従って、コンピューターグラフィックス上の撮影対象の再生像を移動、回転、拡大縮小することにより、視聴者は撮影対象の三次元形状を正確に理解することができる。 By moving, rotating and scaling the reproduced image of the object to be photographed on the computer graphics according to the operation of the viewer by the input device such as a mouse or joystick connected to a device such as a PC, the viewer The original shape can be accurately understood.
左目、右目の視差を考慮した左目用コンピューターグラフィックス画像と右目用コンピューターグラフィックス画像を描画し、PC用3D対応ディスプレイまたは3D対応プロジェクターを使用して立体視することにより、視聴者は撮影対象の三次元形状を直観的に把握することができる。 By drawing left- and right-eye computer graphics images and right-eye computer graphics images in consideration of left-eye and right-eye parallax, and viewing stereoscopically using a 3D-compatible display for PC or a 3D-compatible projector, the viewer can Three-dimensional shape can be intuitively grasped.
ヘッドマウントディスプレイやCAVE(登録商標)などのスクリーンシステムに適応した方法で撮影対象の三次元形状の点群データをコンピューターグラフィックスで描画することより、受信した三次元形状情報をバーチャルリアリティ向けのコンテンツとして利用することができる。 By drawing the point cloud data of the three-dimensional shape of the object to be photographed by computer graphics by a method adapted to a screen system such as a head mounted display or CAVE (registered trademark), the received three-dimensional shape information is a content for virtual reality It can be used as
テレビ放送から三次元形状情報を受信するには、撮影対象の三次元形状の点群データをコンピューターグラフィックスで再生する機能を実行するための機器とプログラムをテレビ受像機に実装する。 In order to receive three-dimensional shape information from a television broadcast, an apparatus and a program for executing a function of reproducing point cloud data of a three-dimensional shape to be photographed by computer graphics are implemented in a television receiver.
上述したように本発明の方法は、三次元コンピューターグラフィックスに関する知識がなくても、入手が容易なカメラと深度センサーで撮影するだけで、バーチャルリアリティのコンテンツとしても利用可能な、動きのある三次元形状の時系列の点群データの情報を含む一連の画像または動画を作成することができる。 As described above, the method of the present invention is a moving third order that can be used as virtual reality content only by photographing with an easily available camera and depth sensor without knowledge of three-dimensional computer graphics. It is possible to create a series of images or moving images including information of time-series point cloud data of the original shape.
時系列の点群データを画像または動画として扱うことにより、既存のインフラを利用してインターネット配信またはテレビ放送することができ、受信した点群データをコンピューターグラフィックスで描画する際に、移動、回転、拡大縮小などの操作をしたり、立体視したりすることで、従来の3D動画配信よりも正確な撮影対象の三次元形状を再生することができる。 By treating time-series point cloud data as images or moving pictures, Internet distribution or television broadcasting can be performed using existing infrastructure, and when drawing received point group data by computer graphics, movement, rotation By performing an operation such as enlargement or reduction or stereoscopic viewing, it is possible to reproduce a three-dimensional shape of a shooting target that is more accurate than conventional 3D moving image distribution.
また、テレビ受像機に本発明の方法を実装することで、視聴者が自由に視点を変更して放送内容を視聴できる真の3Dテレビ放送が実現可能となる。 In addition, by implementing the method of the present invention in a television receiver, it becomes possible to realize true 3D television broadcasting in which the viewer can freely change the viewpoint and view the broadcast contents.
以下、本発明の実施の形態を図1〜図3に基づいて説明する。 Hereinafter, an embodiment of the present invention will be described based on FIGS. 1 to 3.
三次元形状情報の送信側は、図1のように、撮影対象1を本発明の方法を実装したプログラムを実行するためのPCなどの機器6に接続されたカメラ2と深度センサー3で撮影し、一組のカラー画像と奥行き画像を取得する。 As shown in FIG. 1, the transmitting side of the three-dimensional shape information captures an image of the
奥行き画像の各画素とカラー画像の画素の対応付けを簡単にするために、カメラと深度センサーは同じ位置に設置する。図1はカメラと深度センサーが一体化された家庭用ゲーム機の周辺機器を使用した例である。 In order to simplify the correspondence between each pixel of the depth image and the pixel of the color image, the camera and the depth sensor are placed at the same position. FIG. 1 shows an example using a peripheral device of a home game machine in which a camera and a depth sensor are integrated.
一組のカメラと深度センサーを使用する場合、PCなどの機器6上で動作する本発明の方法を実装したプログラムで、図2のようにカラー画像19と奥行き画像20を含む一つの三次元形状情報画像17を作成する。 When using a pair of camera and depth sensor, a program implementing the method of the present invention operating on an
撮影に使用したカメラと深度センサーの画角、カラー画像と奥行き画像の解像度、カラー画像と奥行き画像が三次元形状情報画像内のどこに配置されているかを表す二次元座標の情報を符号化した二次元コード18を三次元形状情報画像の余白に配置する。 Two encoding information of angle of view of camera and depth sensor used for shooting, resolution of color image and depth image, two-dimensional coordinate information indicating where color image and depth image are arranged in the three-dimensional shape information image The dimensional code 18 is placed in the margin of the three-dimensional shape information image.
二次元コードはQRコード(登録商標)などの既存の符号化技術を利用する。受信側が三次元形状情報画像から二次元コードを抽出する処理を簡単にするために、二次元コードは三次元形状情報画像の左上に配置するなど予め仕様を決めておく。また、三次元形状情報画像が配信または放送のためにエンコードおよびデコードされる際に、画像の全ての画素が必ずしも元通りに復元される訳ではないことを考慮し、受信側で二次元コードを正しく読み取れるように、二次元コードは実行環境に応じてある程度拡大した状態で三次元形状情報画像に含める。 The two-dimensional code utilizes existing coding technology such as QR Code (registered trademark). In order to simplify the process of extracting the two-dimensional code from the three-dimensional shape information image on the receiving side, the specification is determined in advance such that the two-dimensional code is disposed at the upper left of the three-dimensional shape information image. In addition, when a three-dimensional shape information image is encoded and decoded for distribution or broadcast, the two-dimensional code is used on the receiving side in consideration that not all pixels of the image are necessarily restored as it is. In order to read correctly, the two-dimensional code is included in the three-dimensional shape information image in a state of being expanded to some extent according to the execution environment.
カラー画像と奥行き画像の位置を表す二次元座標は、三次元形状情報画像の左上を原点とし右方向が+X軸で下方向が+Y軸、のように予め仕様を決めておくか、使用する座標系の情報を二次元コードに記録して受信側に通知する。 The coordinates of the two-dimensional coordinates representing the position of the color image and the depth image are determined in advance such that the upper left corner of the three-dimensional shape information image is the origin, the rightward direction is + X axis, and the lower direction is + Y axis. The system information is recorded in a two-dimensional code and notified to the receiver.
一組のカメラと深度センサーを使用する場合、カメラと深度センサーの死角となる部分の色情報と奥行き情報は得られないため、撮影対象の一部分の三次元形状情報しか取得できないが、複数組のカメラと深度センサーで異なる位置から撮影して、撮影対象の広範囲の部分の三次元形状情報を取得することが可能である。図1では、カメラ2と深度センサー3の組とカメラ4と深度センサー5の組の二組で撮影している。機器6を一台のPCとする場合、二組のカメラと深度センサーを一台のPCに接続して二組のカラー画像と奥行き画像を取得する。機器6を二台のPCの集合体とする場合、二台のPCはネットワーク接続などで通信可能な状態とし、各PCに一組のカメラと深度センサーを接続して一組のカラー画像と奥行き画像を取得し、各PCで取得した計二組のカラー画像と奥行き画像を一方のPCで収集して三次元形状情報画像作成の処理を行う。 When one set of camera and depth sensor is used, color information and depth information of the blind spot of the camera and depth sensor can not be obtained, so only three-dimensional shape information of a part of the object to be captured can be acquired. It is possible to acquire three-dimensional shape information of a wide area of an object to be photographed by photographing from different positions with a camera and a depth sensor. In FIG. 1, a pair of a
複数組のカメラと深度センサーを使用する場合、複数組のカラー画像と奥行き画像と二次元コードを含む一つの三次元形状情報画像を作成する。各組に対し、組を一意に識別するためのIDを割り当てる。各組のIDと、組を構成するカメラと深度センサーの画角、カラー画像と奥行き画像の解像度と三次元形状情報画像内の二次元座標の情報を二次元コードに符号化する。 When using multiple sets of cameras and depth sensors, one three-dimensional shape information image including multiple sets of color images, depth images, and two-dimensional code is created. Each set is assigned an ID for uniquely identifying the set. The ID of each group, the angle of view of the camera and depth sensor forming the group, the resolution of the color image and the depth image, and the information of two-dimensional coordinates in the three-dimensional shape information image are encoded into a two-dimensional code.
二組のカメラと深度センサーを使用する場合、図3のように三次元形状情報画像21は一組目のカラー画像24、奥行き画像25、二次元コード22と、二組目のカラー画像26、奥行き画像27、二次元コード23を含む。 When two sets of cameras and depth sensors are used, as shown in FIG. 3, the three-dimensional shape information image 21 includes a first set of color image 24, a
複数組のカメラと深度センサーを使用する場合、各組の情報から作成した点群データを合成して撮影対象の広範囲な部分の三次元形状の点群データを作成するために各深度センサーの設置位置情報が必要となる。撮影している実空間のある一点を原点とする仮想的な座標系を定義し、各深度センサーの位置と向きを計測して、深度センサーの設置位置情報として該当する二次元コードに符号化する。 When multiple sets of cameras and depth sensors are used, installation of each depth sensor to create point cloud data of a three-dimensional shape of a wide area of the shooting target by combining point cloud data created from each set of information Location information is required. Define a virtual coordinate system whose origin is a point in the real space being photographed, measure the position and orientation of each depth sensor, and encode it as the installation position information of the depth sensor into the corresponding two-dimensional code .
各深度センサーの設置位置を表すための仮想的な座標系は、+Y軸が上方向で座標値はメートル単位、のように予め仕様を決めておくか、使用する座標系の情報を二次元コードに記録して受信側に通知する。 The virtual coordinate system for representing the installation position of each depth sensor is specified in advance, such as the + Y axis is upward and the coordinate value is in meters, or the coordinate system information to be used is a two-dimensional code Record to and notify the receiver.
動きのある撮影対象の場合、一組または複数組のカメラと深度センサーで連続して撮影して時系列の三次元形状情報画像を作成し、一連の三次元形状情報画像から一つの三次元形状情報動画を作成する。三次元形状情報動画の各フレームに記録されている三次元形状情報画像から二次元コードを読み取る際に、二次元コードを抽出するための画像処理を毎フレームで行わなくても良いように、一連の三次元形状情報画像の二次元コードの位置は不変であると予め仕様を決めておくのが望ましい。 In the case of a moving target, a series of three-dimensional shape information images are created by photographing continuously with one or more sets of cameras and a depth sensor, and one three-dimensional shape is generated from a series of three-dimensional shape information images. Create information videos. When reading a two-dimensional code from a three-dimensional shape information image recorded in each frame of a three-dimensional shape information moving image, a series of image processing for extracting a two-dimensional code may not be performed in every frame. It is desirable to predetermine that the position of the two-dimensional code of the three-dimensional shape information image is invariant.
三次元形状情報動画は、時系列の点群データを作成するために必要な情報を含んでいるが、一連の二次元画像から作成した通常の二次元動画として取扱いできるので、既存のインフラや技術を利用できる。動画データファイルとして保存する際、インターネットの動画配信のフォーマットとして広く利用されているMPEG−4規格や、デジタルテレビ放送で利用されているMPEG−2規格を選択することができる。この動画データファイルを使用して、インターネットで動画配信またはテレビで録画放送する。 Although 3D shape information animation contains information necessary to create time-series point cloud data, it can be treated as a normal 2D animation created from a series of 2D images, so existing infrastructure and technology Can be used. When storing as a moving image data file, it is possible to select the MPEG-4 standard widely used as a format for moving picture distribution on the Internet, and the MPEG-2 standard used in digital television broadcasting. Using this video data file, video is distributed over the Internet or recorded on TV.
三次元形状情報動画を作成する代わりに、一組または複数組のカメラと深度センサーで連続して撮影して三次元形状情報画像を逐次作成し、インターネットでライブ配信またはテレビで生放送することもできる。三次元形状情報画像は点群データを作成するために必要な情報を含んでいるが、通常の二次元画像として取扱いできるので、インターネットのストリーミング配信のプロトコルとして広く利用されているRTMPプロトコルを選択することができる。 Instead of creating a 3D shape information animation, 3D shape information images can be created sequentially by shooting continuously with one or more sets of cameras and a depth sensor, and live distribution on the Internet or live broadcast on a television . Although the three-dimensional shape information image contains the information necessary to create point cloud data, it can be handled as a normal two-dimensional image, so select the RTMP protocol widely used as a streaming distribution protocol on the Internet be able to.
三次元形状情報の受信側は、図1のように、インターネット配信またはテレビ放送された三次元形状情報動画をPCなどの機器9またはテレビ受像機8で受信し、動画の各フレームに記録された時系列の三次元形状情報画像を取得する。 As shown in FIG. 1, the receiving side of the three-dimensional shape information receives the three-dimensional shape information moving image distributed by Internet or television broadcast by the
以下、受信側でインターネットに接続されたPCなどの機器を使用する場合の方法を説明する。 Hereinafter, a method for using a device such as a PC connected to the Internet on the receiving side will be described.
三次元形状情報画像から画像処理の技術を使用して一つまたは複数の二次元コードを抽出する。各二次元コードからカラー画像と奥行き画像の解像度と三次元形状情報画像内の位置を読み取り、一つまたは複数のカラー画像、奥行き画像、二次元コードの組を取得する。 One or more two-dimensional codes are extracted from the three-dimensional shape information image using image processing techniques. The resolution of the color image and the depth image and the position in the three-dimensional shape information image are read from each two-dimensional code, and a set of one or more color images, a depth image, and a two-dimensional code is acquired.
複数の二次元コードが存在する場合、各二次元コードから組を一意に識別可能なIDを読み取り、IDと組を構成するカメラ、深度センサー、カラー画像、奥行き画像の関連付けを行う。 When a plurality of two-dimensional codes exist, an ID capable of uniquely identifying a set is read from each two-dimensional code, and the ID, the camera forming the set, the depth sensor, the color image, and the depth image are associated.
二次元コードから深度センサーの画角を読み取り、奥行き画像の解像度と奥行き画像の各画素として記録されている奥行き情報から三次元座標を復元する。復元された三次元座標は深度センサーからの相対座標である。 The angle of view of the depth sensor is read from the two-dimensional code, and the three-dimensional coordinates are restored from the resolution of the depth image and the depth information recorded as each pixel of the depth image. The restored three-dimensional coordinates are relative coordinates from the depth sensor.
複数の深度センサーを使用している場合は、各二次元コードから読み取った深度センサーの設置位置情報を適用して奥行き画像から絶対座標の三次元座標を復元する。 When a plurality of depth sensors are used, the installation position information of the depth sensor read from each two-dimensional code is applied to restore the three-dimensional coordinates of the absolute coordinates from the depth image.
深度センサーの画角と奥行き画像の解像度、二次元コードから読み取ったカメラの画角とカラー画像の解像度から、奥行き画像の各画素に対応するカラー画像の画素を求め、奥行き画像の各画素から復元した三次元座標の点の色を決定する。カメラと深度センサーの画角が異なる場合は、カメラと深度センサーのどちらか一方でしか撮影されていない画素が存在することになるが、そのような画素は三次元座標または色のいずれかが不明で点群データを構成する点として復元できないので、無効な画素として処理対象から外す。奥行き画像に含まれる全ての有効な画素の三次元座標と色を決定して、撮影対象の三次元形状の点群データを作成する。 The pixel of the color image corresponding to each pixel of the depth image is determined from the angle of view of the depth sensor and the resolution of the depth image, the angle of view of the camera read from the two-dimensional code and the resolution of the color image, and restored from each pixel of the depth image Determine the color of the point in the 3D coordinates. If the angle of view between the camera and the depth sensor is different, there will be pixels that are only captured by either the camera or the depth sensor, but such pixels have either unknown three-dimensional coordinates or color Since the point cloud data can not be restored as a point that forms the point group data, it is excluded from the processing target as an invalid pixel. The three-dimensional coordinates and colors of all valid pixels included in the depth image are determined to create point cloud data of a three-dimensional shape to be photographed.
点群データをコンピューターグラフィックスで描画する。コンピューターグラフィックスの処理を行う機器の能力に応じて、点群データを点のまま描画するか、隣接する複数の点からポリゴンと呼ばれる面を作成して隙間が生じないように描画する。 Draw point cloud data with computer graphics. Depending on the ability of the device that performs computer graphics processing, point cloud data may be drawn as points, or surfaces called polygons may be created from a plurality of adjacent points so that no gap occurs.
表示装置として通常のPC用ディスプレイを使用する場合でも、マウスやジョイスティックなどの入力装置を使用した視聴者の操作に合わせて点群データを移動、回転、拡大縮小した状態で描画することで、撮影対象の再生像を様々な方向から見ることができ、従来のインターネット配信による映像よりも撮影対象の三次元形状を正確に把握することができる。 Even when a normal PC display is used as a display device, shooting is performed by drawing, moving, rotating, or scaling point cloud data in accordance with the operation of the viewer using an input device such as a mouse or joystick. The reproduced image of the object can be viewed from various directions, and the three-dimensional shape of the object to be photographed can be grasped more accurately than the video delivered by the conventional Internet distribution.
表示装置としてPC用3D対応ディスプレイ10や3D対応プロジェクターを使用する場合、左目と右目の視差を考慮した左目用コンピューターグラフィックス画像と右目用コンピューターグラフィックス画像を描画して立体視を行う。立体視により、視聴者は撮影対象の三次元形状を直感的に把握することができる。 When the 3D-compatible display 10 for PC or the 3D-compatible projector is used as a display device, stereoscopic viewing is performed by drawing left- and right-eye computer graphics images in consideration of left-eye and right-eye parallax. Stereoscopic viewing allows the viewer to intuitively grasp the three-dimensional shape of the object to be photographed.
表示装置としてヘッドトラッキング機能が実装されたヘッドマウントディスプレイ11やCAVE(登録商標)などのスクリーンシステム12といったバーチャルリアリティシステムを使用する場合、三次元形状情報画像や三次元形状情報動画から点群データを取得する機能をバーチャルリアリティシステムに実装することで、撮影対象の三次元形状の点群データをバーチャルリアリティのコンテンツとして利用することができる。 When using a virtual reality system such as a head mounted display 11 with a head tracking function implemented as the display device or the screen system 12 such as CAVE (registered trademark), point cloud data is generated from a three dimensional shape information image or a three dimensional shape information animation. By implementing the acquisition function in a virtual reality system, it is possible to use point cloud data of a three-dimensional shape to be captured as virtual reality content.
以下、テレビ放送を受信するテレビ受像機を使用する場合の方法を説明する。 Hereinafter, the method in the case of using the television receiver which receives television broadcasting is demonstrated.
テレビ放送の受信および撮影対象の再生像の表示装置としてテレビ受像機を使用するには、テレビ受像機に本発明の方法を実行するための機器とプログラムを実装して、受信した三次元形状情報動画から作成した時系列の点群データをコンピューターグラフィックスで再生できるようにする必要がある。 In order to use a television receiver as a display device for receiving a television broadcast and for displaying a reproduced image of an object to be photographed, an apparatus and a program for performing the method of the present invention are implemented on the television receiver and received three-dimensional shape information It is necessary to enable computer graphics to play back time-series point cloud data created from videos.
3Dテレビの場合は、左目用コンピューターグラフィックス画像と右目用コンピューターグラフィックス画像による立体視の機能も実装される必要がある。 In the case of 3D television, it is also necessary to implement the function of stereoscopic vision with computer graphics images for the left eye and computer graphics for the right eye.
また、テレビのリモコン装置またはマウスやジョイスティックなどの入力装置を使った視聴者の操作により再生像の移動、回転、拡大縮小を行う機能が実装されることが望ましい。 In addition, it is desirable that a function of moving, rotating, and scaling a reproduced image by a viewer's operation using a remote control device of a television or an input device such as a mouse or a joystick is implemented.
1 撮影対象
2 一組目のカメラ
3 一組目の深度センサー
4 二組目のカメラ
5 二組目の深度センサー
6 カメラと深度センサーの制御、三次元形状情報画像と三次元形状情報動画の作成、インターネット配信またはテレビ放送を行うためのPCなどの機器または機器の集合体およびプログラム
7 インターネットまたはテレビ電波
8 受信した三次元形状情報動画から撮影対象の三次元形状の点群データの作成、コンピューターグラフィックスによる点群データの再生を行う機能が実装されたテレビ受像機
9 インターネット接続、受信した三次元形状情報動画から撮影対象の三次元形状の点群データの作成、コンピューターグラフィックスによる点群データの再生を行うためのPCなどの機器または機器の集合体およびプログラム
10 PC用3D対応ディスプレイ
11 ヘッドマウントディスプレイ
12 CAVE(登録商標)システム
13 テレビに表示された撮影対象の再生像
14 PC用3D対応ディスプレイに表示された撮影対象の立体視用再生像
15 ヘッドマウントディスプレイに表示された撮影対象の右目用再生像
16 CAVE(登録商標)システムにバーチャルリアリティのコンテンツとして表示された撮影対象の再生像
17 一組のカメラと深度センサーを使用して作成した三次元形状情報画像
18 カメラと深度センサーとカラー画像と奥行き画像の情報を符号化した二次元コード
19 カメラで撮影したカラー画像
20 奥行きセンサーで撮影した奥行き画像
21 二組のカメラと深度センサーを使用して作成した三次元形状情報画像
22 一組目のカメラと深度センサーとカラー画像と奥行き画像の情報を符号化した二次元コード
23 二組目のカメラと深度センサーとカラー画像と奥行き画像の情報を符号化した二次元コード
24 一組目のカメラで撮影したカラー画像
25 一組目の深度センサーで撮影した奥行き画像
26 二組目のカメラで撮影したカラー画像
27 二組目の深度センサーで撮影した奥行き画像1 shooting target 2 first set of cameras 3 first set of depth sensors 4 second set of cameras 5 second set of depth sensors 6 control of camera and depth sensor, creation of 3D shape information image and 3D shape information animation , Equipment and devices such as PCs for Internet distribution or TV broadcasting, and programs and equipment 7 Internet or TV radio 8 Creation of 3D shape point cloud data for shooting from received 3D shape information animation, computer graphic A television receiver equipped with a function to play back point cloud data by computer 9 Internet connection, creation of point cloud data of 3D shape of shooting object from received 3D shape information animation, point cloud data by computer graphics A device or a group of devices such as a PC for performing reproduction and a program 10 PC 3D compatible display 11 Head mount display 12 CAVE (registered trademark) system 13 Reproduction image of the object to be photographed displayed on the television 14 Reproduction image for stereoscopic vision of the object to be photographed displayed on the 3D correspondence display for PC 15 Display on the head mount display Right-eye reconstructed image of the captured object 16 Reproduced image of the captured object displayed as virtual reality content on the CAVE® system 17 Three-dimensional shape information image created using a pair of cameras and a depth sensor 18 Camera and depth sensor and two-dimensional code encoding color and depth image information 19 Color image captured with camera 20 Depth image captured with depth sensor 21 3D created using two sets of camera and depth sensor Shape information image 22 First camera and depth Two-dimensional code encoding sensor and information of color image and depth image 23 Second camera and depth sensor and two-dimensional code encoding information of color image and depth image 24 color captured by first set camera Image 25 Depth image taken with the first set of depth sensors 26 Color image taken with the second set of cameras 27 Depth image taken with the second set of depth sensors
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015055384A JP6512575B2 (en) | 2015-03-03 | 2015-03-03 | Method of distributing or broadcasting three-dimensional shape information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015055384A JP6512575B2 (en) | 2015-03-03 | 2015-03-03 | Method of distributing or broadcasting three-dimensional shape information |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016163342A JP2016163342A (en) | 2016-09-05 |
JP6512575B2 true JP6512575B2 (en) | 2019-05-15 |
Family
ID=56845571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015055384A Active JP6512575B2 (en) | 2015-03-03 | 2015-03-03 | Method of distributing or broadcasting three-dimensional shape information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6512575B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220135939A (en) | 2021-03-31 | 2022-10-07 | 주식회사 케이티 | Transmission apparatus, receiving apparatus and method for providing 3d image by using point cloud data |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3349182A1 (en) * | 2017-01-13 | 2018-07-18 | Thomson Licensing | Method, apparatus and stream for immersive video format |
US20210135924A1 (en) * | 2018-01-19 | 2021-05-06 | Nec Corporation | Network monitoring system and method, and non-transitory computer readable medium storing program |
KR102537946B1 (en) * | 2018-04-17 | 2023-05-31 | 삼성전자주식회사 | Apparatus and method for processing data assoiciated with point cloud |
CN110719497B (en) * | 2018-07-12 | 2021-06-22 | 华为技术有限公司 | Point cloud coding and decoding method and coder-decoder |
CN111696144A (en) * | 2019-03-11 | 2020-09-22 | 北京地平线机器人技术研发有限公司 | Depth information determination method, depth information determination device and electronic equipment |
JP2022096096A (en) * | 2020-12-17 | 2022-06-29 | 株式会社ティーアンドエス | Video distribution method and program for the same |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3231618B2 (en) * | 1996-04-23 | 2001-11-26 | 日本電気株式会社 | 3D image encoding / decoding system |
JP2003125361A (en) * | 2001-10-12 | 2003-04-25 | Sony Corp | Information processing device, information processing method, information processing program, and information processing system |
CN101390131B (en) * | 2006-02-27 | 2013-03-13 | 皇家飞利浦电子股份有限公司 | Rendering an output image |
JP4483983B2 (en) * | 2008-06-26 | 2010-06-16 | ソニー株式会社 | Image compression apparatus and image compression method |
JP5800569B2 (en) * | 2011-05-13 | 2015-10-28 | 任天堂株式会社 | Information processing system, information processing method, information processing program |
WO2014181220A1 (en) * | 2013-05-10 | 2014-11-13 | Koninklijke Philips N.V. | Method of encoding a video data signal for use with a multi-view rendering device |
-
2015
- 2015-03-03 JP JP2015055384A patent/JP6512575B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220135939A (en) | 2021-03-31 | 2022-10-07 | 주식회사 케이티 | Transmission apparatus, receiving apparatus and method for providing 3d image by using point cloud data |
Also Published As
Publication number | Publication date |
---|---|
JP2016163342A (en) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6512575B2 (en) | Method of distributing or broadcasting three-dimensional shape information | |
US11528468B2 (en) | System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view | |
CN109348119B (en) | Panoramic monitoring system | |
JP5317955B2 (en) | Efficient encoding of multiple fields of view | |
EP3669330A1 (en) | Encoding and decoding of volumetric video | |
EP3249921A1 (en) | Method, apparatus and stream for immersive video format | |
JP2017532847A (en) | 3D recording and playback | |
US20150002636A1 (en) | Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras | |
KR101538947B1 (en) | The apparatus and method of hemispheric freeviewpoint image service technology | |
EP2650039B1 (en) | System and method of imaging | |
CN104349155B (en) | Method and equipment for displaying simulated three-dimensional image | |
CN109361913A (en) | For providing the method and apparatus of 3-D image for head-mounted display | |
WO2012166593A2 (en) | System and method for creating a navigable, panoramic three-dimensional virtual reality environment having ultra-wide field of view | |
Schmeing et al. | Depth image based rendering: A faithful approach for the disocclusion problem | |
KR102546358B1 (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
EP3513554A1 (en) | Method, apparatus and stream for immersive video format | |
US10037335B1 (en) | Detection of 3-D videos | |
JP2014095808A (en) | Image creation method, image display method, image creation program, image creation system, and image display device | |
CN103051916A (en) | Apparatus and method of creating 3 dimension panorama image | |
KR101198557B1 (en) | 3D stereoscopic image and video that is responsive to viewing angle and position | |
CN113382224B (en) | Interactive handle display method and device based on holographic sand table | |
KR101960577B1 (en) | Method for transmitting and receiving stereo information about a viewed space | |
WO2018234622A1 (en) | A method for detecting events-of-interest | |
US10757345B2 (en) | Image capture apparatus | |
KR20110060180A (en) | Method and apparatus for producing 3d models by interactively selecting interested objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6512575 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |