JPWO2020166612A1 - 三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、及び三次元データ逆多重化装置 - Google Patents

三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、及び三次元データ逆多重化装置 Download PDF

Info

Publication number
JPWO2020166612A1
JPWO2020166612A1 JP2020572277A JP2020572277A JPWO2020166612A1 JP WO2020166612 A1 JPWO2020166612 A1 JP WO2020166612A1 JP 2020572277 A JP2020572277 A JP 2020572277A JP 2020572277 A JP2020572277 A JP 2020572277A JP WO2020166612 A1 JPWO2020166612 A1 JP WO2020166612A1
Authority
JP
Japan
Prior art keywords
data
information
unit
point cloud
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020572277A
Other languages
English (en)
Other versions
JPWO2020166612A5 (ja
Inventor
賀敬 井口
敏康 杉尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2020166612A1 publication Critical patent/JPWO2020166612A1/ja
Publication of JPWO2020166612A5 publication Critical patent/JPWO2020166612A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

三次元データ符号化方法は、点群データを含む複数種類のデータを多重化することで所定のファイル構成の出力信号を生成し(S7311)、前記ファイル構成におけるメタデータに出力信号に含まれる複数のデータの各々の種別を示す情報を格納する(S7312)。例えば、前記情報は、(1)データに適用された符号化方式、(2)データの構成、(3)データを生成したセンサの種類、又は(4)データフォーマットを示してもよい。

Description

本開示は、三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、及び三次元データ逆多重化装置に関する。
自動車或いはロボットが自律的に動作するためのコンピュータビジョン、マップ情報、監視、インフラ点検、又は、映像配信など、幅広い分野において、今後、三次元データを活用した装置又はサービスの普及が見込まれる。三次元データは、レンジファインダなどの距離センサ、ステレオカメラ、又は複数の単眼カメラの組み合わせなど様々な方法で取得される。
三次元データの表現方法の1つとして、三次元空間内の点群によって三次元構造の形状を表すポイントクラウドと呼ばれる表現方法がある。ポイントクラウドでは、点群の位置と色とが格納される。ポイントクラウドは三次元データの表現方法として主流になると予想されるが、点群はデータ量が非常に大きい。よって、三次元データの蓄積又は伝送においては二次元の動画像(一例として、MPEGで規格化されたMPEG−4 AVC又はHEVCなどがある)と同様に、符号化によるデータ量の圧縮が必須となる。
また、ポイントクラウドの圧縮については、ポイントクラウド関連の処理を行う公開のライブラリ(Point Cloud Library)などによって一部サポートされている。
また、三次元の地図データを用いて、車両周辺に位置する施設を検索し、表示する技術が知られている(例えば、特許文献1参照)。
国際公開第2014/020663号
また、点群(ポイントクラウド)データを多重化して送信する手法が求められている。
本開示は、適切に点群データを多重化して送信できる三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、又は三次元データ逆多重化装置を提供することを目的とする。
本開示の一態様に係る三次元データ多重化方法は、点群データを含む複数種類のデータを多重化することで所定のファイル構成の出力信号を生成し、前記ファイル構成におけるメタデータに前記出力信号に含まれる複数のデータの各々の種別を示す情報を格納する。
本開示の一態様に係る三次元データ逆多重化方法は、点群データを含む複数種類のデータが多重化された所定のファイル構成の出力信号から、前記ファイル構成におけるメタデータに格納されている、前記出力信号に含まれる複数のデータの各々の種別を示す情報を取得し、前記情報を用いて、前記出力信号から前記複数のデータを取得する。
本開示は、適切に点群データを多重化して送信できる三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、又は三次元データ逆多重化装置を提供できる。
図1は、実施の形態に係る三次元データ符号化復号システムの構成を示す図である。 図2は、実施の形態に係る点群データの構成例を示す図である。 図3は、実施の形態に係る点群データ情報が記述されたデータファイルの構成例を示す図である。 図4は、実施の形態に係る点群データの種類を示す図である。 図5は、実施の形態に係る第1の符号化部の構成を示す図である。 図6は、実施の形態に係る第1の符号化部のブロック図である。 図7は、実施の形態に係る第1の復号部の構成を示す図である。 図8は、実施の形態に係る第1の復号部のブロック図である。 図9は、実施の形態に係る第2の符号化部の構成を示す図である。 図10は、実施の形態に係る第2の符号化部のブロック図である。 図11は、実施の形態に係る第2の復号部の構成を示す図である。 図12は、実施の形態に係る第2の復号部のブロック図である。 図13は、実施の形態に係るPCC符号化データに関わるプロトコルスタックを示す図である。 図14は、実施の形態に係る点群データ生成装置の構成例を示す図である。 図15は、実施の形態に係る点群データ生成装置の構成例を示す図である。 図16は、実施の形態に係る点群データ生成装置の構成例を示す図である。 図17は、実施の形態に係る点群データ符号化システムの構成例を示す図である。 図18は、実施の形態に係る三次元データ多重化装置の構成例を示す図である。 図19は、実施の形態に係る三次元データ多重化装置の具体例を示す図である。 図20は、実施の形態に係る各種センサのセンサ範囲を示す図である。 図21は、実施の形態に係る三次元データ多重化装置の別の構成例を示す図である。 図22は、実施の形態に係る複数の情報をファイルフォーマットに格納するためのプロトコルを示す図である。 図23は、実施の形態に係る入力データの構成例を示す図である。 図24は、実施の形態に係るNALユニットの構成例を示す図である。 図25は、実施の形態に係るISOBMFFの構成例を示す図である。 図26は、実施の形態に係るmoov及びmdatの構成例を示す図である。 図27は、実施の形態に係る構成情報の構成例を示す図である。 図28は、実施の形態に係る構成情報のシンタックス例を示す図である。 図29は、実施の形態に係るmdatの構成例を示す図である。 図30は、実施の形態に係るアプリケーション処理の例を示すフローチャートである。 図31は、実施の形態に係る各種センサのセンサ範囲を示す図である。 図32は、実施の形態に係る自動運転システムの構成例を示す図である。 図33は、実施の形態に係る三次元データ多重化処理のフローチャートである。 図34は、実施の形態に係る三次元データ逆多重化処理のフローチャートである。
本開示の一態様に係る三次元データ多重化方法は、点群データを含む複数種類のデータを多重化することで所定のファイル構成の出力信号を生成し、前記ファイル構成におけるメタデータに前記出力信号に含まれる複数のデータの各々の種別を示す情報を格納する。
これによれば、当該三次元データ多重化方法は、ファイル構成におけるメタデータに出力信号に含まれる複数のデータの各々の種別を示す情報を格納する。これにより、当該出力信号を受信する三次元データ逆多重化装置において、容易に各データの種別を判定できる。このように、当該三次元データ多重化方法は、適切に点群データを多重化して送信できる。
例えば、前記情報は、(1)データに適用された符号化方式、(2)データの構成、(3)データを生成したセンサの種類、又は(4)データフォーマットを示してもよい。
例えば、前記メタデータは、前記出力信号に含まれる前記複数のデータの時刻を同期させるための同期情報を含んでもよい。
これによれば、当該出力信号を受信する三次元データ逆多重化装置において、複数のデータを同期させることができる。
例えば、前記同期情報は、前記複数のデータ間におけるタイムスタンプの差分を示してもよい。
これによれば、出力信号のデータ量を削減できる。
本開示の一態様に係る三次元データ逆多重化方法は、点群データを含む複数種類のデータが多重化された所定のファイル構成の出力信号から、前記ファイル構成におけるメタデータに格納されている、前記出力信号に含まれる複数のデータの各々の種別を示す情報を取得し、前記情報を用いて、前記出力信号から前記複数のデータを取得する。
これによれば、当該三次元データ逆多重化方法は、容易に各データの種別を判定できる。
例えば、前記情報は、(1)データに適用された符号化方式、(2)データの構成、(3)データを生成したセンサの種類、又は(4)データフォーマットを示してもよい。
例えば、前記メタデータは、前記出力信号に含まれる前記複数のデータの時刻を同期させるための同期情報を含んでもよい。
これによれば、当該三次元データ逆多重化方法は、複数のデータを同期させることができる。
例えば、前記同期情報は、前記複数のデータ間におけるタイムスタンプの差分を示してもよい。
これによれば、出力信号のデータ量を削減できる。
また、本開示の一態様に係る三次元データ多重化装置は、プロセッサと、メモリとを備え、前記プロセッサは、前記メモリを用いて、点群データを含む複数種類のデータを多重化することで所定のファイル構成の出力信号を生成し、前記ファイル構成におけるメタデータに前記出力信号に含まれる複数のデータの各々の種別を示す情報を格納する。
これによれば、当該三次元データ多重化装置は、ファイル構成におけるメタデータに出力信号に含まれる複数のデータの各々の種別を示す情報を格納する。これにより、当該出力信号を受信する三次元データ逆多重化装置において、容易に各データの種別を判定できる。このように、当該三次元データ多重化装置は、適切に点群データを多重化して送信できる。
また、本開示の一態様に係る三次元データ逆多重化装置は、プロセッサと、メモリとを備え、前記プロセッサは、前記メモリを用いて、点群データを含む複数種類のデータが多重化された所定のファイル構成の出力信号から、前記ファイル構成におけるメタデータに格納されている、前記出力信号に含まれる複数のデータの各々の種別を示す情報を取得し、前記情報を用いて、前記出力信号から前記複数のデータを取得する。
これによれば、当該三次元データ逆多重化装置は、容易に各データの種別を判定できる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
まず、本実施の形態に係る三次元データ(点群データ)符号化復号システムの構成を説明する。図1は、本実施の形態に係る三次元データ符号化復号システムの構成例を示す図である。図1に示すように、三次元データ符号化復号システムは、三次元データ符号化システム4601と、三次元データ復号システム4602と、センサ端末4603と、外部接続部4604とを含む。
三次元データ符号化システム4601は、三次元データである点群データを符号化することで符号化データ又は多重化データを生成する。なお、三次元データ符号化システム4601は、単一の装置により実現される三次元データ符号化装置であってもよいし、複数の装置により実現されるシステムであってもよい。また、三次元データ符号化装置は、三次元データ符号化システム4601に含まれる複数の処理部のうち一部を含んでもよい。
三次元データ符号化システム4601は、点群データ生成システム4611と、提示部4612と、符号化部4613と、多重化部4614と、入出力部4615と、制御部4616とを含む。点群データ生成システム4611は、センサ情報取得部4617と、点群データ生成部4618とを含む。
センサ情報取得部4617は、センサ端末4603からセンサ情報を取得し、センサ情報を点群データ生成部4618に出力する。点群データ生成部4618は、センサ情報から点群データを生成し、点群データを符号化部4613へ出力する。
提示部4612は、センサ情報又は点群データをユーザに提示する。例えば、提示部4612は、センサ情報又は点群データに基づく情報又は画像を表示する。
符号化部4613は、点群データを符号化(圧縮)し、得られた符号化データと、符号化過程において得られた制御情報と、その他の付加情報とを多重化部4614へ出力する。付加情報は、例えば、センサ情報を含む。
多重化部4614は、符号化部4613から入力された符号化データと、制御情報と、付加情報とを多重することで多重化データを生成する。多重化データのフォーマットは、例えば蓄積のためのファイルフォーマット、又は伝送のためのパケットフォーマットである。
入出力部4615(例えば、通信部又はインタフェース)は、多重化データを外部へ出力する。または、多重化データは、内部メモリ等の蓄積部に蓄積される。制御部4616(またはアプリ実行部)は、各処理部を制御する。つまり、制御部4616は、符号化及び多重化等の制御を行う。
なお、センサ情報が符号化部4613又は多重化部4614へ入力されてもよい。また、入出力部4615は、点群データ又は符号化データをそのまま外部へ出力してもよい。
三次元データ符号化システム4601から出力された伝送信号(多重化データ)は、外部接続部4604を介して、三次元データ復号システム4602に入力される。
三次元データ復号システム4602は、符号化データ又は多重化データを復号することで三次元データである点群データを生成する。なお、三次元データ復号システム4602は、単一の装置により実現される三次元データ復号装置であってもよいし、複数の装置により実現されるシステムであってもよい。また、三次元データ復号装置は、三次元データ復号システム4602に含まれる複数の処理部のうち一部を含んでもよい。
三次元データ復号システム4602は、センサ情報取得部4621と、入出力部4622と、逆多重化部4623と、復号部4624と、提示部4625と、ユーザインタフェース4626と、制御部4627とを含む。
センサ情報取得部4621は、センサ端末4603からセンサ情報を取得する。
入出力部4622は、伝送信号を取得し、伝送信号から多重化データ(ファイルフォーマット又はパケット)を復号し、多重化データを逆多重化部4623へ出力する。
逆多重化部4623は、多重化データから符号化データ、制御情報及び付加情報を取得し、符号化データ、制御情報及び付加情報を復号部4624へ出力する。
復号部4624は、符号化データを復号することで点群データを再構成する。
提示部4625は、点群データをユーザに提示する。例えば、提示部4625は、点群データに基づく情報又は画像を表示する。ユーザインタフェース4626は、ユーザの操作に基づく指示を取得する。制御部4627(またはアプリ実行部)は、各処理部を制御する。つまり、制御部4627は、逆多重化、復号及び提示等の制御を行う。
なお、入出力部4622は、点群データ又は符号化データをそのまま外部から取得してもよい。また、提示部4625は、センサ情報などの付加情報を取得し、付加情報に基づいた情報を提示してもよい。また、提示部4625は、ユーザインタフェース4626で取得されたユーザの指示に基づき、提示を行ってもよい。
センサ端末4603は、センサで得られた情報であるセンサ情報を生成する。センサ端末4603は、センサ又はカメラを搭載した端末であり、例えば、自動車などの移動体、飛行機などの飛行物体、携帯端末、又はカメラなどがある。
センサ端末4603で取得可能なセンサ情報は、例えば、(1)LIDAR、ミリ波レーダ、又は赤外線センサから得られる、センサ端末4603と対象物との距離(位置情報)、色、又は対象物の反射率、(2)複数の単眼カメラ画像又はステレオカメラ画像から得られるカメラと対象物との距離(位置情報)、色又は対象物の反射率等である。また、センサ情報は、センサの姿勢、向き、ジャイロ(角速度)、位置(GPS情報又は高度)、速度、加速度、又はセンサ情報の取得時刻等を含んでもよい。また、センサ情報は、気温、気圧、湿度、又は磁気等を含んでもよい。
外部接続部4604は、集積回路(LSI又はIC)、外部蓄積部、インターネットを介したクラウドサーバとの通信、又は、放送等により実現される。
次に、点群データについて説明する。図2は、点群データの構成を示す図である。図3は、点群データの情報が記述されたデータファイルの構成例を示す図である。
点群データは、複数の点のデータを含む。各点のデータは、位置情報(三次元座標)、及びその位置情報に対する属性情報とを含む。この点が複数集まったものを点群と呼ぶ。例えば、点群は対象物(オブジェクト)の三次元形状を示す。
三次元座標等の位置情報(Position)をジオメトリ(geometry)と呼ぶこともある。また、各点のデータは、複数の属性種別の属性情報(attribute)を含んでもよい。属性種別は、例えば色又は反射率などである。
1つの位置情報に対して1つの属性情報が対応付けられてもよいし、1つの位置情報に対して複数の異なる属性種別を持つ属性情報が対応付けられてもよい。また、1つの位置情報に対して同じ属性種別の属性情報が複数対応付けられてもよい。
図3に示すデータファイルの構成例は、位置情報と属性情報とが1対1に対応する場合の例であり、点群データを構成するN個の点の位置情報と属性情報とを示している。
位置情報は、例えば、x、y、zの3軸の情報である。属性情報は、例えば、RGBの色情報である。代表的なデータファイルとしてplyファイルなどがある。
次に、点群データの種類について説明する。図4は、点群データの種類を示す図である。図4に示すように、点群データには、静的オブジェクトと、動的オブジェクトとがある。
静的オブジェクトは、任意の時間(ある時刻)の三次元点群データである。動的オブジェクトは、時間的に変化する三次元点群データである。以降、ある時刻の三次元点群データをPCCフレーム、又はフレームと呼ぶ。
オブジェクトは、通常の映像データのように、ある程度領域が制限されている点群であってもよいし、地図情報のように領域が制限されていない大規模点群であってもよい。
また、様々な密度の点群データがあり、疎な点群データと、密な点群データとが存在してもよい。
以下、各処理部の詳細について説明する。センサ情報は、LIDAR或いはレンジファインダなどの距離センサ、ステレオカメラ、又は、複数の単眼カメラの組合せなど様々な方法で取得される。点群データ生成部4618は、センサ情報取得部4617で得られたセンサ情報に基づき点群データを生成する。点群データ生成部4618は、点群データとして、位置情報を生成し、位置情報に、当該位置情報に対する属性情報を付加する。
点群データ生成部4618は、位置情報の生成又は属性情報の付加の際に、点群データを加工してもよい。例えば、点群データ生成部4618は、位置が重複する点群を削除することでデータ量を減らしてもよい。また、点群データ生成部4618は、位置情報を変換(位置シフト、回転又は正規化など)してもよいし、属性情報をレンダリングしてもよい。
なお、図1では、点群データ生成システム4611は、三次元データ符号化システム4601に含まれるが、三次元データ符号化システム4601の外部に独立して設けられてもよい。
符号化部4613は、点群データを予め規定された符号化方法に基づき符号化することで符号化データを生成する。符号化方法には大きく以下の2種類がある。一つ目は、位置情報を用いた符号化方法であり、この符号化方法を、以降、第1の符号化方法と記載する。二つ目は、ビデオコーデックを用いた符号化方法であり、この符号化方法を、以降、第2の符号化方法と記載する。
復号部4624は、符号化データを予め規定された符号化方法に基づき復号することで点群データを復号する。
多重化部4614は、符号化データを、既存の多重化方式を用いて多重化することで多重化データを生成する。生成された多重化データは、伝送又は蓄積される。多重化部4614は、PCC符号化データの他に、映像、音声、字幕、アプリケーション、ファイルなどの他のメディア、又は基準時刻情報を多重化する。また、多重化部4614は、さらに、センサ情報又は点群データに関連する属性情報を多重してもよい。
多重化方式又はファイルフォーマットとしては、ISOBMFF、ISOBMFFベースの伝送方式であるMPEG−DASH、MMT、MPEG−2 TS Systems、RMPなどがある。
逆多重化部4623は、多重化データからPCC符号化データ、その他のメディア、及び時刻情報などを抽出する。
入出力部4615は、多重化データを、放送又は通信など、伝送する媒体又は蓄積する媒体にあわせた方法を用いて伝送する。入出力部4615は、インターネット経由で他のデバイスと通信してもよいし、クラウドサーバなどの蓄積部と通信してもよい。
通信プロトコルとしては、http、ftp、TCP、UDP又はIPなどが用いられる。PULL型の通信方式が用いられてもよいし、PUSH型の通信方式が用いられてもよい。
有線伝送及び無線伝送のいずれが用いられてもよい。有線伝送としては、Ethernet(登録商標)、USB、RS−232C、HDMI(登録商標)、又は同軸ケーブルなどが用いられる。無線伝送としては、3GPPのIEEEで規定される3G/4G/5G、無線LAN、Wi−Fi(登録商標)、Bluetooth(登録商標)又はミリ波などが用いられる。
また、放送方式としては、例えばDVB−T2、DVB−S2、DVB−C2、ATSC3.0、又はISDB−S3などが用いられる。
図5は、第1の符号化方法の符号化を行う符号化部4613の例である第1の符号化部4630の構成を示す図である。図6は、第1の符号化部4630のブロック図である。第1の符号化部4630は、点群データを第1の符号化方法で符号化することで符号化データ(符号化ストリーム)を生成する。この第1の符号化部4630は、位置情報符号化部4631と、属性情報符号化部4632と、付加情報符号化部4633と、多重化部4634とを含む。
第1の符号化部4630は、三次元構造を意識して符号化を行うという特徴を有する。また、第1の符号化部4630は、属性情報符号化部4632が、位置情報符号化部4631から得られる情報を用いて符号を行うという特徴を有する。第1の符号化方法は、GPCC(Geometry based PCC)とも呼ばれる。
点群データは、PLYファイルのようなPCC点群データ、又は、センサ情報から生成されたPCC点群データであり、位置情報(Position)、属性情報(Attribute)、及びその他の付加情報(MetaData)を含む。位置情報は位置情報符号化部4631に入力され、属性情報は属性情報符号化部4632に入力され、付加情報は付加情報符号化部4633に入力される。
位置情報符号化部4631は、位置情報を符号化することで符号化データである符号化位置情報(Compressed Geometry)を生成する。例えば、位置情報符号化部4631は、8分木等のN分木構造を用いて位置情報を符号化する。具体的には、8分木では、対象空間が8個のノード(サブ空間)に分割され、各ノードに点群が含まれるか否かを示す8ビットの情報(オキュパンシー符号)が生成される。また、点群が含まれるノードは、さらに、8個のノードに分割され、当該8個のノードの各々に点群が含まれるか否かを示す8ビットの情報が生成される。この処理が、予め定められた階層又はノードに含まれる点群の数の閾値以下になるまで繰り返される。
属性情報符号化部4632は、位置情報符号化部4631で生成された構成情報を用いて符号化することで符号化データである符号化属性情報(Compressed Attribute)を生成する。例えば、属性情報符号化部4632は、位置情報符号化部4631で生成された8分木構造に基づき、処理対象の対象点(対象ノード)の符号化において参照する参照点(参照ノード)を決定する。例えば、属性情報符号化部4632は、周辺ノード又は隣接ノードのうち、8分木における親ノードが対象ノードと同一のノードを参照する。なお、参照関係の決定方法はこれに限らない。
また、属性情報の符号化処理は、量子化処理、予測処理、及び算術符号化処理のうち少なくとも一つを含んでもよい。この場合、参照とは、属性情報の予測値の算出に参照ノードを用いること、又は、符号化のパラメータの決定に参照ノードの状態(例えば、参照ノードに点群が含まれる否かを示す占有情報)を用いること、である。例えば、符号化のパラメータとは、量子化処理における量子化パラメータ、又は算術符号化におけるコンテキスト等である。
付加情報符号化部4633は、付加情報のうち、圧縮可能なデータを符号化することで符号化データである符号化付加情報(Compressed MetaData)を生成する。
多重化部4634は、符号化位置情報、符号化属性情報、符号化付加情報及びその他の付加情報を多重化することで符号化データである符号化ストリーム(Compressed Stream)を生成する。生成された符号化ストリームは、図示しないシステムレイヤの処理部へ出力される。
次に、第1の符号化方法の復号を行う復号部4624の例である第1の復号部4640について説明する。図7は、第1の復号部4640の構成を示す図である。図8は、第1の復号部4640のブロック図である。第1の復号部4640は、第1の符号化方法で符号化された符号化データ(符号化ストリーム)を、第1の符号化方法で復号することで点群データを生成する。この第1の復号部4640は、逆多重化部4641と、位置情報復号部4642と、属性情報復号部4643と、付加情報復号部4644とを含む。
図示しないシステムレイヤの処理部から符号化データである符号化ストリーム(Compressed Stream)が第1の復号部4640に入力される。
逆多重化部4641は、符号化データから、符号化位置情報(Compressed Geometry)、符号化属性情報(Compressed Attribute)、符号化付加情報(Compressed MetaData)、及び、その他の付加情報を分離する。
位置情報復号部4642は、符号化位置情報を復号することで位置情報を生成する。例えば、位置情報復号部4642は、8分木等のN分木構造で表される符号化位置情報から三次元座標で表される点群の位置情報を復元する。
属性情報復号部4643は、位置情報復号部4642で生成された構成情報に基づき、符号化属性情報を復号する。例えば、属性情報復号部4643は、位置情報復号部4642で得られた8分木構造に基づき、処理対象の対象点(対象ノード)の復号において参照する参照点(参照ノード)を決定する。例えば、属性情報復号部4643は、周辺ノード又は隣接ノードのうち、8分木における親ノードが対象ノードと同一のノードを参照する。なお、参照関係の決定方法はこれに限らない。
また、属性情報の復号処理は、逆量子化処理、予測処理、及び算術復号処理のうち少なくとも一つを含んでもよい。この場合、参照とは、属性情報の予測値の算出に参照ノードを用いること、又は、復号のパラメータの決定に参照ノードの状態(例えば、参照ノードに点群が含まれる否かを示す占有情報)を用いること、である。例えば、復号のパラメータとは、逆量子化処理における量子化パラメータ、又は算術復号におけるコンテキスト等である。
付加情報復号部4644は、符号化付加情報を復号することで付加情報を生成する。また、第1の復号部4640は、位置情報及び属性情報の復号処理に必要な付加情報を復号時に使用し、アプリケーションに必要な付加情報を外部に出力する。
次に、第2の符号化方法の符号化を行う符号化部4613の例である第2の符号化部4650について説明する。図9は、第2の符号化部4650の構成を示す図である。図10は、第2の符号化部4650のブロック図である。
第2の符号化部4650は、点群データを第2の符号化方法で符号化することで符号化データ(符号化ストリーム)を生成する。この第2の符号化部4650は、付加情報生成部4651と、位置画像生成部4652と、属性画像生成部4653と、映像符号化部4654と、付加情報符号化部4655と、多重化部4656とを含む。
第2の符号化部4650は、三次元構造を二次元画像に投影することで位置画像及び属性画像を生成し、生成した位置画像及び属性画像を既存の映像符号化方式を用いて符号化するという特徴を有する。第2の符号化方法は、VPCC(Video based PCC)とも呼ばれる。
点群データは、PLYファイルのようなPCC点群データ、又は、センサ情報から生成されたPCC点群データであり、位置情報(Position)、属性情報(Attribute)、及びその他の付加情報MetaData)を含む。
付加情報生成部4651は、三次元構造を二次元画像に投影することで、複数の二次元画像のマップ情報を生成する。
位置画像生成部4652は、位置情報と、付加情報生成部4651で生成されたマップ情報とに基づき、位置画像(Geometry Image)を生成する。この位置画像は、例えば、画素値として距離(Depth)が示される距離画像である。なお、この距離画像は、一つの視点から複数の点群を見た画像(一つの二次元平面に複数の点群を投影した画像)であってもよいし、複数の視点から複数の点群を見た複数の画像であってもよいし、これらの複数の画像を統合した一つの画像であってもよい。
属性画像生成部4653は、属性情報と、付加情報生成部4651で生成されたマップ情報とに基づき、属性画像を生成する。この属性画像は、例えば、画素値として属性情報(例えば色(RGB))が示される画像である。なお、この画像は、一つの視点から複数の点群を見た画像(一つの二次元平面に複数の点群を投影した画像)であってもよいし、複数の視点から複数の点群を見た複数の画像であってもよいし、これらの複数の画像を統合した一つの画像であってもよい。
映像符号化部4654は、位置画像及び属性画像を、映像符号化方式を用いて符号化することで、符号化データである符号化位置画像(Compressed Geometry Image)及び符号化属性画像(Compressed Attribute Image)を生成する。なお、映像符号化方式として、公知の任意の符号化方法が用いられてよい。例えば、映像符号化方式は、AVC又はHEVC等である。
付加情報符号化部4655は、点群データに含まれる付加情報、及びマップ情報等を符号化することで符号化付加情報(Compressed MetaData)を生成する。
多重化部4656は、符号化位置画像、符号化属性画像、符号化付加情報、及び、その他の付加情報を多重化することで符号化データである符号化ストリーム(Compressed Stream)を生成する。生成された符号化ストリームは、図示しないシステムレイヤの処理部へ出力される。
次に、第2の符号化方法の復号を行う復号部4624の例である第2の復号部4660について説明する。図11は、第2の復号部4660の構成を示す図である。図12は、第2の復号部4660のブロック図である。第2の復号部4660は、第2の符号化方法で符号化された符号化データ(符号化ストリーム)を、第2の符号化方法で復号することで点群データを生成する。この第2の復号部4660は、逆多重化部4661と、映像復号部4662と、付加情報復号部4663と、位置情報生成部4664と、属性情報生成部4665とを含む。
図示しないシステムレイヤの処理部から符号化データである符号化ストリーム(Compressed Stream)が第2の復号部4660に入力される。
逆多重化部4661は、符号化データから、符号化位置画像(Compressed Geometry Image)、符号化属性画像(Compressed Attribute Image)、符号化付加情報(Compressed MetaData)、及び、その他の付加情報を分離する。
映像復号部4662は、符号化位置画像及び符号化属性画像を、映像符号化方式を用いて復号することで、位置画像及び属性画像を生成する。なお、映像符号化方式として、公知の任意の符号化方式が用いられてよい。例えば、映像符号化方式は、AVC又はHEVC等である。
付加情報復号部4663は、符号化付加情報を復号することで、マップ情報等を含む付加情報を生成する。
位置情報生成部4664は、位置画像とマップ情報とを用いて位置情報を生成する。属性情報生成部4665は、属性画像とマップ情報とを用いて属性情報を生成する。
第2の復号部4660は、復号に必要な付加情報を復号時に使用し、アプリケーションに必要な付加情報を外部に出力する。
以下、PCC符号化方式について説明する。図13は、PCC符号化データに関わるプロトコルスタックを示す図である。図13には、PCC符号化データに、映像(例えばHEVC)或いは音声などの他のメディアのデータ、又はセンサ情報を多重し、伝送又は蓄積する例を示す。
多重化方式及びファイルフォーマットは、様々な符号化データを多重し、伝送又は蓄積するための機能を有している。符号化データを伝送又は蓄積するために、符号化データを多重化方式のフォーマットに変換する。例えば、HEVCでは、NALユニットと呼ばれるデータ構造に符号化データを格納し、NALユニットをISOBMFFに格納する技術が規定されている。
PCCにおいても同様の構成が想定される。センサ情報は、点群データとともに、PCC符号化される場合もあれば、別の符号化方法をもちいて符号化される場合、符号化されずに直接多重レイヤに格納される場合があり、それらを組み合わせることもできる。別の符号化方法とは、具体的には、別の三次元符号化方法、又は、点群データを二次元或いは一次元データに変換したデータを符号化する符号化方法である。
以下、センサ信号(センサ情報とも呼ぶ)から点群データを生成する構成の例を説明する。図14〜図16は、それぞれセンサ信号から点群データを生成する点群データ生成装置の構成例を示す図である。
図14に示す点群データ生成装置は、1つのセンシングデバイス7301から得られるセンサ信号から点群データを生成する。図14に示す点群データ生成装置は、センシングデバイス7301と、センサ情報入力部7302と、点群データ生成部7303とを備える。センサ情報入力部7302は、センシングデバイス7301で得られたセンサ信号を取得する。点群データ生成部7303は、センサ情報入力部7302が取得したセンサ信号から点群データを生成する。生成された点群データは、例えば、後段の点群データを符号化部(図示せず)に出力される。
図15に示すように、2以上のセンシングデバイスから得られるセンサ信号に基づき点群データが生成されてもよい。図15に示す点群データ生成装置は、センシングデバイス7301A及び7301Bと、センサ情報入力部7302A及び7302Bと、点群データ生成部7303Aとを備える。センサ情報入力部7302Aは、センシングデバイス7301Aで得られた第1のセンサ信号を取得する。センサ情報入力部7302Bは、センシングデバイス7301Bで得られた第2のセンサ信号を取得する。点群データ生成部7303Aは、センサ情報入力部7302A及び7302Bが取得した2つのセンサ信号から点群データを生成する。生成された点群データは、例えば、後段の点群データを符号化部(図示せず)に出力される。
図16に示す点群データ生成装置は、センシングデバイス7301Cと、センサ情報入力部7302Cと、点群データ生成部7303Cとを備える。センシングデバイス7301Cは、2以上のセンシング方法を用いてセンシングされた2つの情報を所定の方法でマージしたセンサ信号を生成する。センシングデバイス7301Cは、センシング部7304A及び7304Bと、マージ部7305とを備える。
センシング部7304Aは、第1のセンシング方法により第1のセンサ信号を生成する。センシング部7304Bは、第2のセンシング方法により第2のセンサ信号を生成する。マージ部7305は、第1のセンサ信号と第2のセンサ信号とをマージし、生成したセンサ信号をセンサ情報入力部7302Cに出力する。
なお、マージ部7305は、所定の条件に基づき第1のセンサ信号と第2のセンサ信号との一方を選択し、選択したセンサ信号を出力してもよい。また、マージ部7305は、2つのセンサ信号をマージする場合は、マージに使用する重み係数を変化させてもよい。
例えば、マージ部7305は、いずれのセンサ信号を選択するかの判定を、取得したセンサ信号に基づき行ってもよいし、別のセンサ信号に基づき行ってもよい。
例えば、第1のセンシング方法と第2のセンシング方法とは、センサのパラメータが異なってもよいし、センシングの周波数又は機構が異なってもよい。また、センタ信号は、センシング方法又はセンシングの際のパラメータなどを示す情報を含んでもよい。
マージ部7305は、複数のセンシング方法を切り替える場合には、どのセンシング方法を用いたかを示す情報、又は切り替えの判定基準のデータをセンサ信号に含めてもよい。マージ部7305は、センサ信号をマージする場合には、マージしたセンシング方法を識別するための情報、マージの判定基準のデータ、又はマージ係数をセンサ信号に含めてもよい。
また、センシングデバイス7301Cは、複数のセンサ信号を出力してもよい。また、センシングデバイス7301Cは、複数のセンサ信号として、第1のセンサ信号の絶対値と、第1のセンサ信号と第2のセンサ信号との差分値とを出力してもよい。
また、センサ信号は、第1のセンシング方法と第2のセンシング方法との関係を示す情報を含んでもよい。例えば、センサ信号は、第1のセンシング方法と第2のセンシング方法との基準位置情報の絶対値、又は相対値を含んでもよいし、センサ信号の取得時間、基準時刻情報、又はセンサの角度を示す情報を含んでもよい。これらの情報がセンサ信号に含まれることで、後段の処理においてこれらの情報に基づき2つのセンサ信号の関係の補正又は合成が可能となる。
センサ情報入力部7302Cは、センシングデバイス7301Cで得られたセンサ信号を取得する。点群データ生成部7303Cは、センサ情報入力部7302Cが取得したセンサ信号から点群データを生成する。生成された点群データは、例えば、後段の点群データを符号化部(図示せず)に出力される。
このように、点群データ生成装置は、上記の様々なセンサ信号のうち、いずれか一つ又は2以上のセンサ信号に基づき点群データを生成する。なお、点群データ生成装置は、点群データの生成過程において点の位置情報又は属性情報を補正してもよい。
なお、点群データ生成装置は、図14〜図16のいずれかに示す構成でもよいし、これらのうちの複数を組み合わせた構成であってもよい。また、点群データ生成装置は、固定的な方法を用いてもよいし、例えば、センシングの目的又はユースケースに応じて、用いる方法を適応的に変化させてもよい。
次に、本実施の形態に係る点群データ符号化システムの構成例を説明する。図17は、本実施の形態に係る点群データ符号化システムの構成例を示す図である。図17に示す点群データ符号化システムは、第1のデバイス7310と、第2のデバイス7320とを含む。
第1のデバイス7310は、センシング部7311と出力I/F(インタフェース)7312とを含む。第2のデバイス7320は、センシング部7321と、出力I/F7322と、入力I/F7323と、処理部7324とを含む。処理部7324は、点群データ生成部7325と、符号化部7326とを含む。
センシング部7311又は7321は、CPUなどで構成される処理部7324と同一のハードウェア又はデバイスに含まれてもよいし、異なるハードウェア又はデバイスに含まれてもよい。
センシング部7321は、処理部7324と同一のデバイス(第2のデバイス7320)に含まれる。この場合、センシング部7321の出力信号(RAWデータと呼ぶ)はそのまま点群データ生成部7325に入力される。
センシング部7311は、処理部7324と異なるデバイス(第1のデバイス7310)に含まれる。この場合、センシング部7311から出力されるRAWデータは、出力I/F7312において入出力フォーマット(外部出力フォーマット)に変換され、フォーマット化された信号が第2のデバイス7320へ入力される。第2のデバイス7320に含まれる入力I/F7323は、フォーマット化された信号をRAWデータに変換し、得られたRAWデータを点群データ生成部7325へ出力する。出力I/F7312及び入力I/F7323は、例えば、図1に示す多重化部4614及び入出力部4615の機能を有する。
また、処理部7324と同一デバイスに含まれるセンシング部7321からの出力信号(RAWデータ)を出力I/F7322で入出力フォーマットに変換し、入力I/F7323においてフォーマット化された信号をRAWデータに変換し、得られたRAWデータが点群データ生成部7325へ入力されてもよい。
また、複数のセンサ信号が入力される場合において、例えば、他のデバイスから入力されるセンサ信号と同一デバイスから入力されるセンサ信号とが混在する場合は、これらのセンサ信号が同一のフォーマットに変換されてもよい。また、変換の際、それぞれの信号には信号を特定できる識別子が付与されてもよい。例えば、UDP(User Datagram Protocol)を用いて送信が行われる場合、各信号は、IP(Internet Protocol)又はUDPの送信元アドレス又は送信元ポート番号で識別されてもよい。これにより、点群データ生成部7325へ入力されるフォーマットを統一できるので、信号の制御が容易となる。
点群データ生成部7325は、入力されたRAWデータを用いて点群データを生成する。符号化部7326は、生成された点群データを符号化する。
次に、本実施の形態に係る三次元データ多重化装置(三次元データ多重化システム)の構成例を説明する。図18は、本実施の形態に係る三次元データ多重化装置の構成例を示す図である。三次元データ多重化装置は、様々なセンサ信号を符号化及び多重化することで出力信号を生成し、生成された出力信号を蓄積又は伝送する。
図18に示すように三次元データ多重化装置は、センシング部7331A、7331B及び7331Cと、センサ情報入力部7332A、7332B及び7332Cと、点群データ生成部7333A及び7333Bと、符号化部7334A及び7334Bと、同期部7335と、多重化部7336とを備える。ここでは3つのセンシング部が用いられる例を示すが、センシング部の数はこれに限定されない。また、各センシング部からセンサ信号の処理方法についても下記の処理方法の任意の組み合わせを用いることができる。
センサ情報入力部7332Aは、センシング部7331Aでセンシングにより生成された第1のセンサ信号を取得する。センサ情報入力部7332Bは、センシング部7331Bでセンシングにより生成された第2のセンサ信号を取得する。センサ情報入力部7332Cは、センシング部7331Cでセンシングにより生成された第3のセンサ信号を取得する。
点群データ生成部7333Aは、第1のセンサ信号から第1の点群データを生成する。点群データ生成部7333Bは、第2のセンサ信号から第2の点群データを生成する。このとき、センシング部7331Aとセンシング部7331Bとで用いられるセンシング方法の違い(例えば、方向、範囲、取得可能な属性、周波数、分解能等、方法、又は手段)により、生成される点群データにおける点の数、点の範囲、属性情報が異なる場合がある。
符号化部7334Aは、第1の点群データを符号化することで第1の符号化データを生成する。符号化部7334Bは、第2の点群データを符号化することで第2の符号化データを生成する。例えば、符号化部7334Aと符号化部7334Bとは、互いに異なる符号化方法を適用する。例えば、符号化部7334Aは第1の符号化方式を用い、符号化部7334Bは第1の符号化方式と異なる第2の符号化方式を用いてもよい。なお、符号化部7334Aと符号化部7334Bとは、同一の符号化方式を用いてもよい。
符号化部7334A及び7334Bは、点群データにおける点の位置情報又は属性情報をエントロピー符号化などを用いて圧縮してもよい。また、符号化部7334A及び7334Bは、センサ信号、センサの位置情報或いは角度情報、又は時刻情報などをメタデータとして格納してもよい。
符号化部7334A及び7334Bは、点群データに適した符号化方式を用いる。例えば、第1の符号化方式は、地図情報又は静止コンテンツで高い符号化率を期待できる符号化方式であり、第2の符号化方式は、AR又はVRのようなコンテンツで高い符号化率を期待できる符号化方式である。この場合、符号化部7334A及び7334Bは、コンテンツに適した符号化方式を用いてもよい。
あるいは、例えば、第1の符号化方式は、ビームLiDARのようなセンシング部でセンシングされた情報に基づく点群に対して高い符号化率を期待できる符号化方式であり、第2の符号化方式は、FLASH LiDARのようなセンシング部でセンシングされた情報に基づく点群に対して高い符号化率を期待できる符号化方式である。この場合、符号化部7334A及び7334Bは、センシング部に適した符号化方式を用いてもよい。
また、符号化部7334A及び7334Bは、符号化方式を変更するのではなく、同一の符号化方式においてコンテンツ又はセンシング部に適した符号化ツール又は符号化に関わるパラメータを用いてもよい。
生成された第1の符号化データ及び第2の符号化データは、多重化部7336に入力される。例えば、センシング部7331Cでセンシングされた第3のセンサ信号は、符号化の必要がないデータである。この場合、点群データの生成及び符号化は行われず、第3のセンサ信号がそのまま多重化部7336に入力される。なお、低遅延な伝送を目的として符号化が行われなくてもよい。
同期部7335は、複数のセンシング部を同期させるための機能を持つ。例えば、同期部7335は、同期に関わる情報として、センシングの時刻情報、タイムスタンプ情報、及び角度情報などを用いる。これらの同期に関わる情報は、共通の情報である同期信号として出力信号に多重化されてもよい。または、これらの同期に関わる情報は、各センサ信号に含まれてもよい。
多重化部7336は、1以上の符号化データ、メタデータ、センサ信号のRAWデータ、及び同期信号を多重化することで出力信号を生成する。また、多重化部7336は、それぞれのデータを識別するための情報、及び各データの対応関係を示す情報を出力信号に格納する。
図19は、三次元データ多重化装置の具体例を示す図である。図19に示すように、センシング部7331AとしてビームLiDARが用いられ、センシング部7331BとしてFLASH LiDARが用いられる。LiDARの特性に応じて、点群の範囲及び距離、並びに解像度などが異なる。図20は、ビームLiDAR及びFLASH LiDARのセンサ範囲の例を示す図である。例えば、ビームLiDARは、車両(センサ)の周囲の全方向を検知し、FLASH LiDARは、車両の一方向(例えば前方)の範囲を検知する。
点群データ生成部7333Aは、ビームLiDARから取得されるビーム照射角に対する距離情報及び反射率情報に基づき第1の点群データを生成する。点群データ生成部7333Bは、FLASH LiDARから得られる二次元の距離情報及び反射率に基づき第2の点群データを生成する。なお、点群データ生成部7333A及び7333Bは、さらにカメラで取得される二次元の色情報などを併用し、色情報と反射率との両方を持つ点群データを生成してもよい。
また、センシング部7331Cとして、3軸ジャイロセンサ、3軸加速度センサ又はGPSなどの位置情報センサである車載センサが用いられる。これらのセンサ情報は、車全体の状態を表すセンサ情報であり、第1のセンサ信号及び第2のセンサ信号に関連する共通の情報ということもできる。これらの共通のセンサ情報は、符号化されて多重化されてもよいし、符号されずに多重化されてもよい。また、これらの情報は、点群データに共通の付加情報として第1のセンサ信号や第2のセンサ信号に格納され符号化されてもよい。または、共通のセンサ情報は、第1のセンサ信号と第2のセンサ信号との一方のセンサ信号に格納されてもよい。この場合、共通のセンサ情報がいずれのセンサ信号に格納されているかを示す情報が、例えばその他のセンサ信号又は同期信号に示されてもよい。
また、センサを取得する時刻に関する情報として、例えばNTP(Network Time Protocol)又はPTP(Precision Time Protocol)などの基準時刻情報に基づいたタイムスタンプが、ビームLiDARに基づく第1の点群データと、FLASH LiDARに基づく第2の点群データとに付与される。それぞれセンサのタイムスタンプは、共通の基準時刻に同期するものであり、符号化部7334A及び7334Bで符号化される。
また、共通の基準時刻を示す基準時刻情報は、同期信号として多重化されてもよい。基準時刻情報は多重されなくてもよい。三次元データ逆多重化装置(三次元データ復号装置)は、複数のセンサ信号の符号化データからそれぞれのタイムスタンプを取得する。タイムスタンプは共通の基準時刻に同期しているため、三次元データ逆多重化装置は、複数のセンサ信号の復号データを、それぞれのタイムスタンプに基づき動作させることで、複数のセンサ間の同期をとることができる。
なお、ビームLiDAR及びFLASH LiDAR毎にそれぞれ対応する時刻情報が設定されてもよい。また、ビームLiDAR及びFLASH LiDAR毎にそれぞれ3軸センサが設けられてもよい。その場合、それぞれのNTPとしてインターネット時刻などの共通の時刻が用いられる。また、それぞれの3軸センサが、予めキャリブレーションされ、予め同期された複数の3軸センサが用いられる。
図21は、三次元データ多重化装置の別の構成例を示す図である。図21に示すように三次元データ多重化装置は、センシング部7341A、7341B及び7341Cと、入出力部7342A、7342B及び7342Cと、点群データ生成部7343と、符号化部7344A及び7344Bと、同期部7345と、多重化部7346とを備える。
入出力部7342Aは、センシング部7341Aでセンシングにより生成された第1のセンサ信号を取得する。入出力部7342Bは、センシング部7341Bでセンシングにより生成された第2のセンサ信号を取得する。入出力部7342Cは、センシング部7341Cでセンシングにより生成された第3のセンサ信号を取得する。なお、入出力部7342A、7342B及び7342Cは、取得したセンサ信号を蓄積するメモリを有してもよい。
点群データ生成部7343は、第1のセンサ信号から第1の点群データを生成する。符号化部7344Aは、第1の点群データを符号化することで第1の符号化データを生成する。符号化部7344Bは、第2のセンサ情報を符号化することで第2の符号化データを生成する。
同期部7345は、複数のセンシング部を同期させるための機能を持つ。多重化部7346は、1以上の符号化データ、メタデータ、センサ信号のRAWデータ、及び同期信号を多重化することで出力信号を生成する。
このように、図21に示す構成では、センシング部7341Bで得られるセンサ信号(RAWデータ)から点群データは生成されず、センサ信号はRAWデータのまま符号化される。例えば、第2のセンサ信号が、FLASH LiDAR、又はカメラなどCMOSセンサで得られる二次元の情報である場合、符号化部7344Bは、AVC又はHEVCなどの動画像コーデックを用いて第2のセンサ信号を符号化する。これにより、符号化効率の高い符号化を実現できる。また、既存コーデックを活用することでコストの安いシステム構築が可能となる。
このように、三次元データ多重化装置は、センシング部に応じて、点群データを変換後に符号化する手段と、点群データに変換せずにRAWデータのまま符号化する手段とを併用し、それぞれの符号化データを多重化する。
次に、多重化により所定のファイルフォーマットの出力信号を生成する手法の例を説明する。以下では、所定のファイルフォーマットがISOBMFF(ISO based media file format)である場合の例を説明する。なお、ファイルフォーマットはISOBMFFに限定されず、他のファイルフォーマットが用いられてもよい。
ISOBMFFは、ISO/IEC14496−12に規定されるファイルフォーマット規格である。ISOBMFFは、ビデオ、オーディオ、及びテキストなど様々なメディアのデータを多重して格納できるフォーマットを規定しており、メディアに依存しない規格である。
ISOBMFFへのメディア毎の格納方法は別途規定されている。例えば、AVCビデオ及びHEVCビデオの格納方法は、ISO/IEC14496−15に規定される。
一方で、複数のセンサ情報(センサ信号)から取得されたデータの符号化データをISOBMFFに格納する方法が必要である。図22は、複数のセンサ情報を、様々な符号化方法でそれぞれ符号化し、ISOBMFFへ格納するプロトコルを示す図である。
Data1〜Data5は、それぞれ様々な種類のセンサから取得されたセンサデータ(センサ信号)であり、例えばRAWデータ等である。Data1とData2は3D点群フォーマットに変換され、3D点群フォーマット用の符号化方法Codec1又はCodec2を用いて符号化される。また、Data3とData4は画像などの2Dデータのフォーマットに変換され、2Dデータフォーマット用の符号化方法Codec3又はCodec4を用いて符号化される。
それぞれの符号化データは、所定の方法でNALユニットに変換されてISOBMFFに格納される。なお、NALユニットは、3DFormat及び2DFormatで共通の形式であってもよいし、異なる形式であってもよい。また、異なる符号化方法のNALユニットは共通の形式であってもよいし、異なる形式であってもよい。なお、センサデータのフォーマットは、ここにあげる3D及び2Dフォーマット以外にも、1Dのフォーマット、又はその他のフォーマットであってもよい。
Data5は、センサから取得されたセンサデータを符号化せずに直接ISOBMFFに格納する場合である。
これらのデータの任意の組み合わせのデータを統合的に格納するフォーマットを提供することにより、複数のセンサを扱うシステムのデータの管理が容易となり、様々な機能を実現することが可能となる。
次に、ISOBMFFの構成を説明する。三次元データ多重化装置は、複数のセンサデータをISOBMFFへ格納する。図23は、多重化対象の入力データの構成例を示す図である。図24は、NALユニットの構成例を示す図である。図25は、ISOBMFFの構成例を示す図である。図26は、moov及びmdatの構成例を示す図である。
入力データに含まれる符号化データは、主に符号化データ(Data)とメタデータ(Meta)に大別される。メタデータとしては、符号化データ毎のヘッダで示されるメタデータと、パラメータセットとして独立のNALユニットに格納されるメタデータとがある。また、メタデータが符号化データに含まれる場合もある。三次元データ多重化装置は、これらの複数の異なるコーデック毎のNALユニット及びRAWデータを一つのISOBMFFへ格納する。
ISOBMFFはボックス構造で構成される。ISOBMFFのボックスとして、主にメタデータを格納する「moov」及び「meta」と、データを格納する「mdat」とがある。
符号化データ及びRAWデータはISOBMFFにおける「mdat」にサンプル単位で格納される。また、入力データにおけるメタデータは、符号化データ毎に、ISOMBFFにおける「moov」の「trak」に所定のフォーマットで格納される。符号化データ内に含まれるメタデータ及び同期情報も「moov」内に格納される。
「mdat」からデータを取得するための情報(ファイル先頭からのデータのアドレス情報(オフセット情報)及びデータのサイズなど)は、符号化データ毎のメタデータに格納される。また、「ftyp」には後続のデータのファイルタイプ等が示される。
なお、フォーマットおよびボックス名は、ここに挙げたもの以外でもよく、同じ機能を有するものであればよい。
また、リアルタイム通信などのユースケースにおいては、「moov」及び「mdat」のようなボックスを分割した単位が時間的に分けて送信されてもよい。また、分割した単位のデータがインターリーブされてもよい。
三次元データ多重化装置は、構成情報を示すボックス(以下単に構成情報と記す)を定義し、ファイルに含まれる複数のデータの識別情報を構成情報に格納する。また、三次元データ多重化装置は、それぞれのデータのメタデータにアクセス可能な識別情報を構成情報に格納する。
図27は、構成情報の構成例を示す図である。図28は、構成情報のシンタックス例を示す図である。
構成情報は、ISOBMFFファイルを構成するコンテンツ及びコンポーネントの情報、コンポーネントの元データを取得した際のセンサ情報、フォーマット情報、並びに、符号化方法などを示す。
図27に示すように、構成情報は、全体構成情報と、符号化データ毎の構成情報とを含む。複数の構成情報は、同一のデータ構造又はボックスであってもよいし、異なるデータ構造又はボックスであってもよい。
mp4ボックスにおけるtypeには、構成情報ボックスであることが、例えば「msuc」などの4CCで示される。全体構成情報(data())には、符号化方式の異なる複数のデータの構成が示される。data()は、num_of_data、data_type及びdata_configurationを含む。
num_of_dataは、ファイルを構成する符号化データ及びRAWデータの数を示す。data_typeは、データ毎の識別情報を示す。つまり、data_typeは、複数のデータの種別を示す。
具体的には、data_typeは、データが点群データであるか、センサ信号(例えばRAWデータ)であるかを示す。また、data_typeは、データが符号化されているか否かを示してもよい。また、data_typeは、符号化データの符号化に用いられた符号化方法(符号化方式)を示してもよい。符号化方法とは、例えば、GPPC又はVPPC等である。また、符号化方法は、図22に示すCodec1〜4等であってもよい。また、data_typeは、構成情報を識別するための情報を示してもよい。
また、data_typeは、点群データの元データの種別を示してもよい。元データの種別とは、元データがセンサ信号である場合の、センサ信号を生成したセンサの種類(例えば2Dセンサか3Dセンサかなど)等である。また、data_typeは、センサ信号のデータフォーマット(例えば1D情報か2D情報か3D情報かなど)を示す情報を含んでもよい。
例えば、data_type=0はPCC Codec1を示し、data_type=1はPCC Codec2を示し、data_type=2はVideo Codec3を示し、data_type=4は、3D軸センサ RAWデータを示す。data_configurationは、データ毎の構成情報を示す。
data_configuration()は、符号化データ毎の構成情報であり、num_of_componentと、component_typeと、component_idとを含む。
num_of_componentは、符号化データ内のコンポーネントの数を示す。component_typeは、コンポーネントのタイプを示す。例えばPCC符号化の場合は、component_typeは、コンポーネントが、ジオメトリであるか属性であるかメタデータであるかを示す。
component_idは、コンポーネントを他のメタデータ及びデータと紐付けるための一意の識別子を示す。
なお、符号化の方法は、ビデオコーデック及びPCCコーデック以外にも、オーディオ、テキスト、アプリケーション、又は360度画像などに用いられる符号化方法であってもよい。また、データは、メッシュ又はCADなどの加工されたデータであってもよい。また、符号化の方法は、同一のコーデックであってもよいし、プロファイル、レベル又はツールの異なる符号化方法であってもよく、いかなる符号化方法であっても統合的に扱うことが可能である。
このように、三次元データ逆多重化装置において復号した点群データをアプリケーションで活用するために必要なデータを一つのファイルに多重することで、アプリケーションで取り扱うファイル管理及び同期管理を容易化できる。
図29は、データボックス「mdat」の構成例を示す図である。データボックスの最小単位であるサンプルに、それぞれの符号化データ又はRAWデータが個別に格納される。
また、ファイルに含まれる符号化データ毎のタイムスタンプなどの同期情報は、共通の基準時刻などの全体同期情報に基づき設定される。また、同期情報は、それぞれ同期がとれている情報とする。
また、例えば、複数の符号化データのタイムスタンプにおける基準時刻、時間分解能及び時間間隔を揃え、同期情報を複数の符号化データで共通化してもよい。その場合、同期情報は、符号化データ毎の同期情報と共通の同期情報のいずれか1以上に格納すればよい。その場合、メタデータは、共通の時刻情報が格納されている場所を示す情報、及び同期情報が共通であることを示す情報の少なくとも一方を含む。
また、符号化データ間で同期がとれている場合には、三次元データ多重化装置は、同期がとれている複数の符号化データを一つのサンプルとして格納してもよい。一方、複数の符号化データで、基準時刻、時間分解能及び時間間隔の少なくとも一つが揃っていない場合は、三次元データ多重化装置は、別途符号化データ間のタイムスタンプの差分を示す差分情報を導出し、導出した差分情報を出力信号に格納してもよい。また、三次元データ多重化装置は、同期がとれているか否かを示すフラグを出力信号に格納してもよい。
三次元データ逆多重化装置は、それぞれの符号化データの同期情報と全体同期情報とを用いて、それぞれのサンプルを、メタデータに示されるタイムスタンプに示される時刻に処理することにより、符号化データ間の同期をとる。
以下、アプリケーション処理の例を説明する。図30は、アプリケーション処理の例を示すフローチャートである。アプリ操作が開始されると、三次元データ逆多重化装置は、点群データ及び複数の符号化データを含むISOBMFFファイルを取得する(S7301)。例えば、三次元データ逆多重化装置は、ISOBMFFファイルを、通信により取得してもよいし、蓄積しているデータから読み込んでもよい。
次に、三次元データ逆多重化装置は、ISOBMFFファイルにおける全体構成情報を解析し、アプリケーションに使用するデータを特定する(S7302)。例えば、三次元データ逆多重化装置は、処理に用いるデータを取得し、処理に用いないデータは取得しない。
次に、三次元データ逆多重化装置は、アプリケーションに使用する1以上のデータを抽出し、当該データの構成情報を解析する(S7303)。
データの種別が符号化データである場合(S7304で符号化データ)、三次元データ逆多重化装置は、ISOBMFFを符号化ストリームに変換し、タイムスタンプを抽出する(S7305)。また、三次元データ逆多重化装置は、データ間の同期がそろっているか否かを、例えば、データ間の同期がそろっているか否かを示すフラグを参照して判定し、揃っていなければ同期処理を行ってもよい。
次に、三次元データ逆多重化装置は、タイムスタンプ及びその他の指示に従い、所定の方法でデータを復号し、復号したデータを処理する(S7306)。
一方、データの種別が符号化データである場合(S7304でRAWデータ)、三次元データ逆多重化装置は、データ及びタイムスタンプを抽出する(S7307)。また、三次元データ逆多重化装置は、データ間の同期がそろっているか否かを、例えば、データ間の同期がそろっているか否かを示すフラグを参照して判定し、揃っていなければ同期処理を行ってもよい。次に、三次元データ逆多重化装置は、タイムスタンプ及びその他の指示に従い、データを処理する(S7308)。
例えば、ビームLiDAR、FLASH LiDAR、及びカメラで取得されたセンサ信号が、それぞれ異なる符号化方式で符号化及び多重化されている場合の例を説明する。図31は、ビームLiDAR、FLASH LiDAR及びカメラのセンサ範囲の例を示す図である。例えば、ビームLiDARは、車両(センサ)の周囲の全方向を検知し、FLASH LiDAR及びカメラは、車両の一方向(例えば前方)の範囲を検知する。
LiDAR点群を統合的に扱うアプリケーションの場合、三次元データ逆多重化装置は、全体構成情報を参照して、ビームLiDARとFLASH LiDARの符号化データを抽出して復号する。また、三次元データ逆多重化装置は、カメラ映像は抽出しない。
三次元データ逆多重化装置は、LiDARとFLASH LiDARのタイムスタンプに従い、同一のタイムスタンプの時刻のそれぞれの符号化データを同時に処理する。
例えば、三次元データ逆多重化装置は、処理したデータを提示装置で提示したり、ビームLiDARとFLASH LiDARの点群データを合成したり、レンダリングなどの処理を行ってもよい。
また、データ間でキャリブレーションをするアプリケーションの場合には、三次元データ逆多重化装置は、センサ位置情報を抽出してアプリケーションで用いてもよい。
例えば、三次元データ逆多重化装置は、アプリケーションにおいて、ビームLiDAR情報を使用するか、FLASH LiDARを使用するかを選択し、選択結果に応じて処理を切り替えてもよい。
このように、アプリケーションの処理に応じて適応的にデータの取得及び符号処理を変えることができるので、処理量及び消費電力を削減できる。
以下、自動運転におけるユースケースについて説明する。図32は、自動運転システムの構成例を示す図である。この自動運転システムは、クラウドサーバ7350と、車載装置又はモバイル装置等のエッジ7360とを含む。クラウドサーバ7350は、逆多重化部7351と、復号部7352A、7352B及び7355と、点群データ合成部7353と、大規模データ蓄積部7354と、比較部7356と、符号化部7357とを備える。エッジ7360は、センサ7361A及び7361Bと、点群データ生成部7362A及び7362Bと、同期部7363と、符号化部7364A及び7364Bと、多重化部7365と、更新データ蓄積部7366と、逆多重化部7367と、復号部7368と、フィルタ7369と、自己位置推定部7370と、運転制御部7371とを備える。
このシステムでは、エッジ7360は、クラウドサーバ7350に蓄積されている大規模点群地図データである大規模データをダウンロードする。エッジ7360は、大規模データとエッジ7360で得られたセンサ情報とをマッチングすることで、エッジ7360(車両又は端末)の自己位置推定処理を行う。また、エッジ7360は、取得したセンサ情報をクラウドサーバ7350へアップロードし、大規模データを最新の地図データに更新する。
また、システム内における点群データを扱う様々なアプリケーションにおいて、符号化方法の異なる点群データが扱われる。
クラウドサーバ7350は、大規模データを符号化及び多重化する。具体的には、符号化部7357は、大規模点群を符号化するために適した第3の符号化方法を用いて符号化を行う。また、符号化部7357は、符号化データを多重化する。大規模データ蓄積部7354は、符号化部7357で符号化及び多重化されたデータを蓄積する。
エッジ7360は、センシングを行う。具体的には、点群データ生成部7362Aは、センサ7361Aで取得されるセンシング情報を用いて、第1の点群データ(位置情報(ジオメトリ)及び属性情報)を生成する。点群データ生成部7362Bは、センサ7361Bで取得されるセンシング情報を用いて、第2の点群データ(位置情報及び属性情報)を生成する。生成された第1の点群データ及び第2の点群データは、自動運転の自己位置推定或いは車両制御、又は地図更新に用いられる。それぞれの処理において、第1の点群データ及び第2の点群データのうちの一部の情報が用いられてもよい。
エッジ7360は、自己位置推定を行う。具体的には、エッジ7360は、大規模データをクラウドサーバ7350からダウンロードする。逆多重化部7367は、ファイルフォーマットの大規模データを逆多重化することで符号化データを取得する。復号部7368は、取得された符号化データを復号することで大規模点群地図データである大規模データを取得する。
自己位置推定部7370は、取得された大規模データと、点群データ生成部7362A及び7362Bで生成された第1の点群データ及び第2の点群データとをマッチングすることで、車両の地図における自己位置を推定する。また、運転制御部7371は、当該マッチング結果又は自己位置推定結果を運転制御に用いる。
なお、自己位置推定部7370及び運転制御部7371は、大規模データのうち、位置情報などの特定の情報を抽出し、抽出した情報を用いて処理を行ってもよい。また、フィルタ7369は、第1の点群データ及び第2の点群データに補正又は間引き等の処理を行う。自己位置推定部7370及び運転制御部7371は、当該処理が行われた後の第1の点群データ及び第2の点群データを用いてもよい。また、自己位置推定部7370及び運転制御部7371は、センサ7361A及び7361Bで得られたセンサ信号を用いてもよい。
同期部7363は、複数のセンサ信号又は複数の点群データのデータ間の時間同期及び位置補正を行う。また、同期部7363は、自己位置推定処理によって生成された、大規模データとセンサデータとの位置補正情報に基づき、センサ信号又は点群データの位置情報を大規模データに合わせるように補正してもよい。
なお、同期及び位置補正はエッジ7360でなく、クラウドサーバ7350で行われてもよい。この場合、エッジ7360は、同期情報及び位置情報を多重化してクラウドサーバ7350へ送信してもよい。
エッジ7360は.センサ信号又は点群データを符号化及び多重化する。具体的には、センサ信号又は点群データは、それぞれの信号を符号化するために適した第1の符号化方法又は第2の符号化方法を用いて符号化される。例えば、符号化部7364Aは、第1の符号化方法を用いて第1の点群データを符号化することで第1の符号化データを生成する。符号化部7364Bは、第2の符号化方法を用いて第2の点群データを符号化することで第2の符号化データを生成する。
多重化部7365は、第1の符号化データ、第2の符号化データ、及び同期情報などを多重化することで多重化信号を生成する。更新データ蓄積部7366は、生成された多重化信号を蓄積する。また、更新データ蓄積部7366は、多重化信号をクラウドサーバ7350へアップロードする。
クラウドサーバ7350は、点群データを合成する。具体的には、逆多重化部7351は、クラウドサーバ7350にアップロードされた多重化信号を逆多重化することで第1の符号化データ及び第2の符号化データを取得する。復号部7352Aは、第1の符号化データを復号することで第1の点群データ(又はセンサ信号)を取得する。復号部7352Bは、第2の符号化データを復号することで第2の点群データ(又はセンサ信号)を取得する。
点群データ合成部7353は、第1の点群データと第2の点群データとを所定の方法で合成する。多重化信号に同期情報及び位置補正情報が多重化されている場合には、点群データ合成部7353は、それらの情報を用いて合成を行ってもよい。
復号部7355は、大規模データ蓄積部7354に蓄積されている大規模データを逆多重化及び復号する。比較部7356は、エッジ7360で得られたセンサ信号に基づき生成された点群データとクラウドサーバ7350が有する大規模データとを比較し、更新が必要な点群データを判断する。比較部7356は、大規模データのうち、更新が必要と判断された点群データを、エッジ7360から得られた点群データに更新する。
符号化部7357は、更新された大規模データを符号化及び多重化し、得られたデータを大規模データ蓄積部7354に蓄積する。
以上のように、使用する用途又はアプリケーションに応じて、取り扱う信号が異なり、多重化する信号又は符号化方法が異なる場合がある。このような場合であっても、本実施の形態を用いて様々な符号化方式のデータを多重化することで、柔軟な復号及びアプリケーション処理が可能となる。また、信号の符号化方式が異なる場合であっても、逆多重化、復号、データ変換、符号化、多重の処理により適した符号化方式を変換することで、様々なアプリケーションやシステムを構築し、柔軟なサービスの提供が可能となる。
以上のように、本実施の形態に係る三次元データ多重化装置は、図33に示す処理を行う。三次元データ多重化装置は、点群データを含む複数種類のデータを多重化することで所定のファイル構成(例えばISOBMFF)の出力信号を生成する(S7311)。次に、三次元データ多重化装置は、ファイル構成におけるメタデータ(制御情報)に出力信号に含まれる複数のデータの各々の種別を示す情報(例えばdata_type)を格納する(S7312)。
これによれば、三次元データ多重化装置は、ファイル構成におけるメタデータに出力信号に含まれる複数のデータの各々の種別を示す情報を格納する。これにより、当該出力信号を受信する三次元データ逆多重化装置において、容易に各データの種別を判定できる。このように、当該三次元データ多重化方法は、適切に点群データを多重化して送信できる。
例えば、複数のデータの各々の種別を示す情報は、(1)データに適用された符号化方式、(2)データの構成、(3)データを生成したセンサの種類、又は(4)データフォーマットを示す。
例えば、ファイル構成におけるメタデータは、出力信号に含まれる複数のデータの時刻を同期させるための同期情報を含む。これによれば、当該出力信号を受信する三次元データ逆多重化装置において、複数のデータを同期させることができる。
例えば、同期情報は、複数のデータ間におけるタイムスタンプの差分を示す。これによれば、出力信号のデータ量を削減できる。
例えば、三次元データ多重化装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
また、本実施の形態に係る三次元データ逆多重化装置は、図34に示す処理を行う。三次元データ逆多重化装置は、点群データを含む複数種類のデータが多重化された所定のファイル構成(例えばISOBMFF)の出力信号から、ファイル構成におけるメタデータに格納されている、出力信号に含まれる複数のデータの各々の種別を示す情報(例えばdata_type)を取得する(S7321)。三次元データ逆多重化装置は、複数のデータの各々の種別を示す情報を用いて、出力信号から複数のデータを取得する(S7322)。例えば、三次元データ逆多重化装置は、複数のデータの各々の種別を示す情報を用いて、出力信号から必要なデータを選択的に取得する。これによれば、三次元データ逆多重化装置は、容易に各データの種別を判定できる。
例えば、複数のデータの各々の種別を示す情報は、(1)データに適用された符号化方式、(2)データの構成、(3)データを生成したセンサの種類、又は(4)データフォーマットを示す。
例えば、ファイル構成におけるメタデータは、出力信号に含まれる複数のデータの時刻を同期させるための同期情報を含む。例えば、三次元データ逆多重化装置は、同期情報を用いて複数のデータを同期させる。
例えば、同期情報は、複数のデータ間におけるタイムスタンプの差分を示す。例えば、同期情報は、複数のデータのいずれかのタイムスタンプを示す情報を含み、三次元データ逆多重化装置は、複数のデータのいずれかのタイムスタンプに、同期情報で示される差分を加えることで、複数のデータのうちの他のデータのタイムスタンプを復元する。これにより、出力信号のデータ量を削減できる。
例えば、三次元データ逆多重化装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
以上、本開示の実施の形態に係る三次元データ多重化装置、三次元データ逆多重化装置、三次元データ符号化装置及び三次元データ復号装置等について説明したが、本開示は、この実施の形態に限定されるものではない。
また、上記実施の形態に係る三次元データ多重化装置、三次元データ逆多重化装置、三次元データ符号化装置及び三次元データ復号装置等に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、本開示は、三次元データ多重化装置、三次元データ逆多重化装置、三次元データ符号化装置及び三次元データ復号装置等により実行される三次元データ多重化方法、三次元データ逆多重化方法、三次元データ符号化方法又は三次元データ復号方法等として実現されてもよい。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
以上、一つまたは複数の態様に係る三次元データ多重化装置、三次元データ逆多重化装置、三次元データ符号化装置及び三次元データ復号装置等について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、三次元データ多重化装置、三次元データ逆多重化装置、三次元データ符号化装置及び三次元データ復号装置に適用できる。
4601 三次元データ符号化システム
4602 三次元データ復号システム
4603 センサ端末
4604 外部接続部
4611 点群データ生成システム
4612 提示部
4613 符号化部
4614 多重化部
4615 入出力部
4616 制御部
4617 センサ情報取得部
4618 点群データ生成部
4621 センサ情報取得部
4622 入出力部
4623 逆多重化部
4624 復号部
4625 提示部
4626 ユーザインタフェース
4627 制御部
4630 第1の符号化部
4631 位置情報符号化部
4632 属性情報符号化部
4633 付加情報符号化部
4634 多重化部
4640 第1の復号部
4641 逆多重化部
4642 位置情報復号部
4643 属性情報復号部
4644 付加情報復号部
4650 第2の符号化部
4651 付加情報生成部
4652 位置画像生成部
4653 属性画像生成部
4654 映像符号化部
4655 付加情報符号化部
4656 多重化部
4660 第2の復号部
4661 逆多重化部
4662 映像復号部
4663 付加情報復号部
4664 位置情報生成部
4665 属性情報生成部
7301、7301A、7301B、7301C センシングデバイス
7302、7302A、7302B、7302C センサ情報入力部
7303、7303A、7303C 点群データ生成部
7304A、7304B センシング部
7305 マージ部
7310 第1のデバイス
7311、7321 センシング部
7312、7322 出力I/F
7320 第2のデバイス
7323 入力I/F
7324 処理部
7325 点群データ生成部
7326 符号化部
7331A、7331B、7331C センシング部
7332A、7332B、7332C センサ情報入力部
7333A、7333B 点群データ生成部
7334A、7334B 符号化部
7335 同期部
7336 多重化部
7341A、7341B、7341C センシング部
7342A、7342B、7342C 入出力部
7343 点群データ生成部
7344A、7344B 符号化部
7345 同期部
7346 多重化部
7350 クラウドサーバ
7351 逆多重化部
7352A、7352B 復号部
7353 点群データ合成部
7354 大規模データ蓄積部
7355 復号部
7356 比較部
7357 符号化部
7360 エッジ
7361A、7361B センサ
7362A、7362B 点群データ生成部
7363 同期部
7364A、7364B 符号化部
7365 多重化部
7366 更新データ蓄積部
7367 逆多重化部
7368 復号部
7369 フィルタ
7370 自己位置推定部
7371 運転制御部

Claims (10)

  1. 点群データを含む複数種類のデータを多重化することで所定のファイル構成の出力信号を生成し、
    前記ファイル構成におけるメタデータに前記出力信号に含まれる複数のデータの各々の種別を示す情報を格納する
    三次元データ多重化方法。
  2. 前記情報は、(1)データに適用された符号化方式、(2)データの構成、(3)データを生成したセンサの種類、又は(4)データフォーマットを示す
    請求項1記載の三次元データ多重化方法。
  3. 前記メタデータは、前記出力信号に含まれる前記複数のデータの時刻を同期させるための同期情報を含む
    請求項1又は2記載の三次元データ多重化方法。
  4. 前記同期情報は、前記複数のデータ間におけるタイムスタンプの差分を示す
    請求項3記載の三次元データ多重化方法。
  5. 点群データを含む複数種類のデータが多重化された所定のファイル構成の出力信号から、前記ファイル構成におけるメタデータに格納されている、前記出力信号に含まれる複数のデータの各々の種別を示す情報を取得し、
    前記情報を用いて、前記出力信号から前記複数のデータを取得する
    三次元データ逆多重化方法。
  6. 前記情報は、(1)データに適用された符号化方式、(2)データの構成、(3)データを生成したセンサの種類、又は(4)データフォーマットを示す
    請求項5記載の三次元データ逆多重化方法。
  7. 前記メタデータは、前記出力信号に含まれる前記複数のデータの時刻を同期させるための同期情報を含む
    請求項5又は6記載の三次元データ逆多重化方法。
  8. 前記同期情報は、前記複数のデータ間におけるタイムスタンプの差分を示す
    請求項7記載の三次元データ逆多重化方法。
  9. プロセッサと、
    メモリとを備え、
    前記プロセッサは、前記メモリを用いて、
    点群データを含む複数種類のデータを多重化することで所定のファイル構成の出力信号を生成し、
    前記ファイル構成におけるメタデータに前記出力信号に含まれる複数のデータの各々の種別を示す情報を格納する
    三次元データ多重化装置。
  10. プロセッサと、
    メモリとを備え、
    前記プロセッサは、前記メモリを用いて、
    点群データを含む複数種類のデータが多重化された所定のファイル構成の出力信号から、前記ファイル構成におけるメタデータに格納されている、前記出力信号に含まれる複数のデータの各々の種別を示す情報を取得し、
    前記情報を用いて、前記出力信号から前記複数のデータを取得する
    三次元データ逆多重化装置。
JP2020572277A 2019-02-12 2020-02-12 三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、及び三次元データ逆多重化装置 Pending JPWO2020166612A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962804453P 2019-02-12 2019-02-12
US62/804,453 2019-02-12
PCT/JP2020/005363 WO2020166612A1 (ja) 2019-02-12 2020-02-12 三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、及び三次元データ逆多重化装置

Publications (2)

Publication Number Publication Date
JPWO2020166612A1 true JPWO2020166612A1 (ja) 2021-12-16
JPWO2020166612A5 JPWO2020166612A5 (ja) 2023-02-17

Family

ID=72043853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572277A Pending JPWO2020166612A1 (ja) 2019-02-12 2020-02-12 三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、及び三次元データ逆多重化装置

Country Status (4)

Country Link
US (1) US20210358175A1 (ja)
JP (1) JPWO2020166612A1 (ja)
CN (1) CN113396595A (ja)
WO (1) WO2020166612A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114374675B (zh) 2020-10-14 2023-02-28 腾讯科技(深圳)有限公司 媒体文件的封装方法、媒体文件的解封装方法及相关设备
WO2023194762A1 (ja) * 2022-04-08 2023-10-12 日産自動車株式会社 情報処理方法及び情報処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4524582B2 (ja) * 2004-06-11 2010-08-18 ソニー株式会社 データ処理装置およびデータ処理方法、プログラムおよびプログラム記録媒体、並びにデータ記録媒体
US10992185B2 (en) * 2012-07-06 2021-04-27 Energous Corporation Systems and methods of using electromagnetic waves to wirelessly deliver power to game controllers
JP2015173312A (ja) * 2014-03-11 2015-10-01 ソニー株式会社 画像符号化装置および方法、並びに画像復号装置および方法
US9996976B2 (en) * 2014-05-05 2018-06-12 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
CA2948903C (en) * 2014-05-13 2020-09-22 Pcp Vr Inc. Method, system and apparatus for generation and playback of virtual reality multimedia
EP3021257A1 (en) * 2014-11-14 2016-05-18 Soundisplay Limited A sensor utilising overlapping signals and method thereof
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
CN108243629B (zh) * 2015-11-11 2020-09-08 索尼公司 图像处理设备和图像处理方法
US10535161B2 (en) * 2017-11-09 2020-01-14 Samsung Electronics Co., Ltd. Point cloud compression using non-orthogonal projection

Also Published As

Publication number Publication date
WO2020166612A1 (ja) 2020-08-20
CN113396595A (zh) 2021-09-14
US20210358175A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US11423581B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US11470352B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US20240107064A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US11750840B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US11936919B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US11750844B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US20220046280A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US20210358175A1 (en) Three-dimensional data multiplexing method, three-dimensional data demultiplexing method, three-dimensional data multiplexing device, and three-dimensional data demultiplexing device
US20240040149A1 (en) Three-dimensional data storage method, three-dimensional data acquisition method, three-dimensional data storage device, and three-dimensional data acquisition device
US20210112111A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US20230030392A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528