JP2016524373A - マルチビューレンダリング装置とともに使用するためのビデオデータ信号の符号化方法 - Google Patents

マルチビューレンダリング装置とともに使用するためのビデオデータ信号の符号化方法 Download PDF

Info

Publication number
JP2016524373A
JP2016524373A JP2016512452A JP2016512452A JP2016524373A JP 2016524373 A JP2016524373 A JP 2016524373A JP 2016512452 A JP2016512452 A JP 2016512452A JP 2016512452 A JP2016512452 A JP 2016512452A JP 2016524373 A JP2016524373 A JP 2016524373A
Authority
JP
Japan
Prior art keywords
image
metadata
sub
depth
data signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016512452A
Other languages
English (en)
Other versions
JP2016524373A5 (ja
JP6266761B2 (ja
Inventor
フィリップ ステフェン ニュートン
フィリップ ステフェン ニュートン
ハーン ウィーベ デ
ハーン ウィーベ デ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2016524373A publication Critical patent/JP2016524373A/ja
Publication of JP2016524373A5 publication Critical patent/JP2016524373A5/ja
Application granted granted Critical
Publication of JP6266761B2 publication Critical patent/JP6266761B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本発明は、マルチビューレンダリング装置で用いるためのビデオデータ信号を符号化する方法、ビデオデータ信号を復号する方法、ビデオデータ信号、ビデオデータ信号のエンコーダ、ビデオデータ信号のデコーダ、ビデオデータ信号を符号化するための命令を有するコンピュータプログラム製品、及び、ビデオデータ信号を復号化するための命令を有するコンピュータプログラム製品に関する。上記符号化方法は、第1の視点と関連付けられたシーンの第1のイメージ10、第1のイメージと関連付けられたデプスマップ20、デプスマップ処理又はマルチビューレンダリング装置による他の視点のための1又は複数のビューのレンダリングに用いるためのメタデータ30を供給401し、ビデオデータ信号を生成404する。ビデオデータ信号は、サブイメージに分配されたビデオフレームを有し、前記サブイメージは、第1のイメージに基づくサブイメージと、デプスマップに基づくデプスサブイメージと、デプスサブイメージの色成分において符号化されるメタデータとを有する。

Description

本発明は、マルチビューレンダリング装置で用いるためのビデオデータ信号を符号化する方法、ビデオデータ信号を復号する方法、ビデオデータ信号、ビデオデータ信号のエンコーダ、ビデオデータ信号のデコーダ、ビデオデータ信号を符号化するための命令を有するコンピュータプログラム製品、及び、ビデオデータ信号を復号化するための命令を有するコンピュータプログラム製品に関する。
ここ20年で、三次元ディスプレイ技術が成熟されている。三次元(3D)ディスプレイ装置は、視聴者の目の各々に、視聴されるシーンの異なるビューを供給することによって、視聴体験に三次元(デプス)を加える。
結果として、我々は、現在、三次元イメージ/ビデオ信号を視聴するための様々な方法を有する。ユーザが左目及び右目に異なるイメージを与えられるメガネベースの三次元ディスプレイシステムを有することもあれば、視聴者の裸眼にシーンの三次元ビューを供給するオートステレオスコピック三次元ディスプレイシステムを有することもある。
メガネベースのシステムでは、アクティブ/パッシブなメガネが、視聴者の目の各々に対して、スクリーン上に表示されるような異なるイメージを分離するためのフィルタを供給する。メガネなしのシステム、又は、オートステレオスコピックシステムでは、装置は、概ね、バリア又はレンチキュラーの形式などで、レフトイメージを左目に指向するとともにライトイメージを右目に指向するための光指向手段を用いるマルチビューディスプレイである。
ステレオスコピックマルチビューディスプレイ装置で用いるためのコンテンツを供給するために、様々な入力フォーマットが、特に、装置インタフェースに関し、セットトップボックス、ブルーレイプレイヤなどのコンテンツ配信装置と、テレビなどのディスプレイ/レンダリング装置との間で、これまで設計されてきた。
これまで、HDMI、DVI、又は、ディスプレイポートなどの装置インタフェースを介したビデオデータの送信のために、様々なフォーマットが定義されてきた。ステレオスコピックイメージレンダリング及びオートステレオスコピックディスプレイの導入に関し、ステレオスコピックイメージレンダリングにおいて使用するためのコンテンツを供給するための更なるニーズがある。上記フォーマットの1つが、国際公開第2006/137000号明細書に開示されており、当該明細書は、どのようにして、イメージ及びデプス情報、並びに、オプションでオクルージョンイメージ及びオクルージョンデプスが、HDMIなどの既存の装置インタフェースを介して、マトリクス形式で送信され得るのかを記述しているフォーマットに関する。このアプローチの裏にある一般的な概念は、新しいオートステレオスコピックディスプレイ装置にコンテンツを配信するために、既存の標準化された装置インタフェースを再利用することである。
より近年では、HDMI装置インタフェースフォーマットが、以下のリンク(http://www.hdmi.org/manufacturer/specification.aspx)を用いてHDMIのウェブサイトからダウンロード利用可能である「High-Definition Multimedia Interface Specification Version 1.4a Extraction of 3D Signaling Portion」に開示されるようなステレオスコピックイメージ生成において用いるためのビデオデータを扱うためにも適合されている。
本発明者は、HDMIのような既存のオーディオ/ビデオインタフェースフォーマットが、イメージ及びデプス情報を必要とするイメージベースのレンダリングのためのフォーマットに対して限られたサポートしか有さないことを発見した。例えば、HDMI1.4bでは、レフトイメージ及び関連付けられたデプスマップを送信するための基本的なサポートしかない。従って、更なる改善の余地があろう。
本発明者は、例えば、ステレオイメージ及び関連付けられたデプス情報の送信のためのサポートも供給する更なるフォーマットを加えることが好適であろうことに気付いた。さらに、後でより詳細に説明されるが、ソース装置からシンク装置に補助的な情報(SEIなど)を送信するために、より精巧なサポートを供給することも有用であろう。
本発明の第1の態様によれば、請求項1に従ったマルチビューレンダリング装置で用いるためのビデオデータ信号を符号化するための方法が供給される。
オプションで、ビデオ信号は、例えば、左視点及び右視点などの各視点を具備する各イメージ(第1のイメージ及び第2のイメージと称される)に基づく、2つ(又は、それ以上)のサブイメージを有していてもよい。これらのサブイメージの1つ又は両方は、デプスサブイメージをそれぞれ有していてもよい。メタデータは、各デプスサブイメージの1つ又は両方において符号化され得る。オプションで、請求項は、メタデータが色成分において符号化されることを規定しているが、メタデータは、2以上の色成分において符号化されてもよい。
好ましくは、ビデオデータ信号の送信に後方互換性のある態様で、デプスマップからの情報は、1又は2の他のサブイメージの輝度値において符号化され、メタデータからの情報は、1又は2の他のサブイメージの色度値において符号化される。
好ましくは、ビデオデータ信号を有する情報は、実質的に未圧縮の二次元データアレイを有する。
好ましくは、上記方法は、1又は複数のビットシリアルデータラインを用いるインタフェースを介して、ビデオデータ信号をマルチビューレンダリング装置に送信するステップを更に有する。
好ましくは、メタデータは、全てのフィールド、全てのフレーム、全てのピクチャグループ、及び/又は、全てのシーンのためのビデオデータ信号に挿入される。
好ましくは、メタデータは、チェックサムを備え、メタデータは、デコーダ側におけるデプスマップ処理又はビューレンダリングのいずれかによって用いられる。メタデータにおけるエラーの影響度は、甚大であり得る。RGBピクセルなどの未圧縮のイメージデータを送信するデータインタフェースでは、ピクセル値におけるエラーは、行き過ぎた知覚できるエラーにはつながらない。しかしながら、メタデータにおけるエラーは、レンダリングされるビューにおいて、フレームが、間違ったデプス情報に基づいて、及び/又は、間違ったレンダリング設定を用いて計算されることにつながる。この影響は、極めて甚大であり、結果として、かかるエラーの検出が、要求され、冗長性及び/又はエラー訂正符号の使用が望ましい。
好ましくは、メタデータは、復号化側において処理されるメタデータを扱うためのより効果的な制御プロセスの作成を促進するために、供給されるメタデータが新しいかどうかを示す鮮度情報を有する。
好ましくは、メタデータは、メタデータが前のフレームから変更されたかどうかを示す情報を有する。このことは、リフレッシュ/更新される必要がない、(送信されたとしても)変更しない設定において、制御プロセスがより効果的となることを可能にする。
好ましくは、上記方法は、ステレオデプス情報によるステレオビデオデータの符号化及び送信を扱うステップを更に有する。
本発明の第2の態様によれば、ビデオデータ信号が供給され、当該ビデオデータ信号50は、請求項10において規定されるようなマルチビューレンダリング装置で使用される。
本発明の第3の態様によれば、非一時的な形式で、請求項10又は11に記載のビデオデータ信号を有するデータ媒体が供給される。このデータ媒体は、ハードディスクドライブ又はソリッドステートドライブなどのストレージ装置の形式であってもよいし、あるいは、光ディスクの形式のデータ媒体であってもよい。
本発明の第4の態様によれば、請求項13に従ったマルチビューレンダリング装置で用いるためのビデオデータ信号を復号化するための方法が供給される。
本発明の第5の態様によれば、請求項15に従ったマルチビューレンダリング装置で用いるためのビデオデータ信号を復号化するためのデコーダが供給される。
本発明の第6の態様によれば、プロセッサシステムに、請求項1乃至9のいずれか1項に記載の方法を実行させるための命令を有するコンピュータプログラム製品が供給される。
本発明の第7の態様によれば、プロセッサシステムに、請求項13又は14に記載の方法を実行させるための命令を有するコンピュータプログラム製品が供給される。
本発明の第8の態様によれば、請求項22に従ったマルチビューレンダリング装置で用いるためのビデオデータ信号のエンコーダが供給される。
本発明のこれらの態様及び他の態様が、以下に説明される実施形態を参照して、明らか且つ明確になるであろう。
図1は、HDMI上の2D+デプスフォーマットの送信を概略的に表している。 図2は、HDMI上のステレオ+デプスフォーマットの送信を概略的に表している。 図3は、3Dレンダリングチェインにおける、本発明に従ったエンコーダ、及び、本発明に従ったデコーダのブロック図である。 図4は、本発明に従った復号化方法のフローチャートを示している。 図5Aは、本発明に従った符号化方法のフローチャートを示している。 図5Bは、本発明に従った代替的な符号化方法のフローチャートを示している。 図5Cは、本発明に従った他の代替的な符号化方法のフローチャートを示している。 異なる図面において同一の参照番号を有する項目は、同一の構造的特徴及び同一の機能、又は、同一の信号を有することに留意すべきである。かかる項目の機能及び/又は構造が説明されている場合、詳細な説明において、それらの繰り返しの説明は必要でない。
本発明者は、マルチビュー3Dプレゼンテーションのために意図された、ビデオ及び関連付けられたデプス情報が、利用可能なビデオフレームをビデオ及びデプスのためのサブイメージに分配することによって、HDMI、DVI、及び/又は、ディスプレイポートなどの標準的な相互接続/装置インタフェースフォーマットを用いるオートステレオスコピックディスプレイに送信されることができることを発見した。
装置インタフェース上で典型的に用いられるイメージ情報は、R,G,B情報の少なくとも8ビット、即ち、ピクセル毎に24ビットのサンプルを運ぶことができるように設計されており、ピクセルに関連付けられたデプスは、一般的に、ピクセル毎に完全な24ビットを必要としないため、サブイメージにおける送信帯域幅は、最適に使用されない。
このため、本発明者は、デプス情報がこれらのサブイメージの輝度サンプルにおいて符号化されるような態様で、サブイメージにおいてデプス情報を送信することを望み、結果、ビュー生成プロセスを向上及び/又はガイドするように意図されたメタデータは、デプスサブイメージの色度サンプルにおいて格納され得る。(つまり、イメージ情報において、デプスサブイメージが格納される。)
本発明は、HDMI(又は、同様の)装置インタフェースからビデオ及びデプス入力信号を受信するオートステレオスコピックディスプレイに適用される。また、本発明は、HDMI、DVI、ディスプレイポート、又は、他の装置インタフェースを具備するとともに、3Dフォーマットに基づくビデオ及びデプスのためのサポートを供給する、メディアプレーヤ、セットトップボックス、ハンドヘルド/モバイル装置、タブレット、PCなどに適用される。
HDMIは、コンテンツソース(メディアプレーヤ、セットトップボックス、及び、他のコンテンツソース)からシンク装置(ディスプレイ、TV、AVレシーバ)に、ビデオ及びオーディオを送信するために用いられる優れた装置インタフェースフォーマットである。HDMI標準は、本来、最大でフルHD解像度(1920×1080、及び、2048×1080)のビデオ解像度をサポートするように規定されているが、3840×2160、及び、4096×2160などの(4Kとしても知られている)2160p解像度には限られたサポートを既に有し、将来における標準改正では、4Kフォーマットへのより広いサポートを有することが期待されている。
最新の利用可能なHDMI仕様書は、バージョン1.4bである。特に、バージョン1.4aは、2ビューステレオの形式で、即ち、レフトイメージ及びライトイメージのステレオ組を用いて、ステレオスコピックビデオコンテンツの送信をサポートしている。さらに、2D+デプス、又は、イメージ+デプスとしても知られている、レフトイメージ及び関連付けられたデプスを送信するオプションがある。
ビデオ及びオーディオに加えて、HDMIは、いわゆるインフォフレーム(InfoFrame)と呼ばれる手段により、限られた量の標準化された制御及び構成データを送信することができる。特に、パーソナルコンピュータによって主に使用される、DVI及びディスプレイポートなどの代替的なビデオ(装置)インタフェースがある。
マルチビュー三次元(3D)イメージレンダリングに関し、装置は、好ましくは、デプス情報及びメタデータと関連付けられた1又は複数のビューを受信する。ビデオ及びデプスのための様々な圧縮フォーマットが、とりわけ、ITU−T(VCEG)、及び、ISO/IEC(MPEG)によって、現在開発中である。これらの圧縮フォーマットは、復号化プロセスにおいては必要とされないが、復号化されたイメージの最も良好なプレゼンテーションに有用となり得る補足強化情報(SEI:supplemental enhancement information)の包含をサポートする。
しかしながら、従来のビデオに関する状況に反して、特に、オートステレオスコピックディスプレイ装置に関し、イメージベースのレンダリングの一部が、様々なプロプライエタリディスプレイ装置の実装をサポート可能にするために、オートステレオスコピックディスプレイ装置によって行なわれることが予想される。従来の2Dビデオにおける状況に反する結果として、レンダリングに関するメタデータをオートステレオスコピックディスプレイ装置に送信するためのより大きなニーズがある。特に、オートステレオスコピックディスプレイ装置におけるレンダリングプロセスを改善するために、圧縮されたストリームにおけるSEI要素として、情報を含むことが予想される。
本発明は、対応するデプス及び補助情報(メタデータ)を有するフルHDビデオビューまでを送信するため、2160pのビデオサンプルを利用することによって、上記問題を解決する。この目的を達成するために、2160pビデオフレームは、(4つのサブイメージに)4分割され、その各々は、レフトビュービデオフレーム(L)、ライトビュービデオフレーム(R)、L用デプス、及び、R用デプスの4つのコンポーネントの1つを含んでいる。デプスサブイメージでは、輝度コンポーネントのみが、デプスのために使用される。色度コンポーネントは、補助情報のために使用される。
要するに、従来のソリューションは、典型的に、イメージベースレンダリングのために貧弱なサポートを供給しており、即ち、より具体的には、より進化した/精巧なデプスマップのための不十分なサポートや、ビューレンダリングプロセスを向上/改善するためのメタデータ供給における全般的な不足があるように見受けられる。
本発明は、例えば、(ブロードキャスト受信器/デコーダ及び携帯装置を含む)スタンドアローンのメディアプレーヤとディスプレイ装置、即ち、装置インタフェースとの間で、ビデオ、デプス、及び、メタデータを送信するための相互接続フォーマットに関する。かかる相互接続フォーマットの一例は、HDMIである。他の例は、DVI及びディスプレイポートである。また、本発明は、例えば、ツイストペア(LVDS:Low voltage differential signaling)上のサブコンポーネント間など、装置内のビデオ相互接続に関する。
ソースコンテンツに依存して、相互接続フォーマットは、関連付けられたデプス又は相違マップ(2D+デプス)を具備するシングルビュービデオコンポーネント、又は、1又は2の追加的なデプスコンポーネント(ステレオ+デプス)を具備する2つのビデオビューのいずれかを含んでいてもよい。
当該技術分野における当業者にとっては明らかであるように、デプスは、概ね、差異に反比例するが、ディスプレイ装置における差異に対するデプスの実際のマッピングは、ディスプレイによって生成され得る差異の総量、ゼロ差異に対する特定のデプス値の割り当ての選択、許容されるクロス差異の量など、様々な設計上の選択に依存する。しかしながら、入力データを備えるデプスデータが、デプス依存態様において、イメージを曲げるために使用される。従って、差異データは、ここでは、質的に、デプスデータとして解釈される。
上述のように、2D+デプスに関し、既に、HDMI1.4b(及び1.4a、これらは、www.hdmi.orgから部分的にダウンロード利用可能である)におけるプログレッシブビデオのために規定されたオプションのフォーマットがある。ステレオ+デプスは、毎秒送信可能なピクセル数における制限のため、HDMI1.4bでは送信されない。このため、より高い速度が必要であり、これは、以下、HDMI2.0として称される、HDMIの将来の改訂において利用可能となることが期待されている。
2D+デプスがインタフェースを介して送信される場合、テクスチャ及びデプスが、(L又はRの)同一のビューに属する。ステレオの場合、2つのテクスチャビューは、左目ビュー(L)及び右目ビュー(R)と固定の関係を持つ。この場合、2つのデプスビューは、2つのテクスチャビューと固定された関係を持つ。ステレオにおいて、2つのデプスビューの一方が、符号化ビットストリームには存在しない場合、HDMIフォーマットにおける関連するデプスは、全てゼロに設定され、適切なシグナリングが、補助情報(メタデータ)に含まれる。上述のように、このメタデータは、デプスピクセルの色成分において含まれる。
オプションの2D+デプスフォーマットが、HDMI1.4a規格の付録Hにおいて既に規定されている。シンク装置は、EDID情報において、HDMI VSDBを介してそのフォーマットのためのサポートを示すことができる。2D+デプス(又は、「L+デプス」)に関し、3D_Structure_ALL_4ビットは、1に設定されるべきである。これについては、「High-Definition Multimedia Interface Specification Version 1.4a Extraction of 3D Signaling Portion」の表H−7を参照されたい。ソースからシンクへのシグナリングは、表H−2に従って、3D_Structureフィールドを0100(L+デプス)に設定することによって、HDMIベンダ特有のインフォフレームを通じてなされるべきである。このオプションは、好ましくは、VICコード16(1080p60)又は31(1080p50)を有する、プログレッシブビデオに関してのみ利用可能である。
HDMIは、このフォーマットをL+デプスとして称しているが、2Dビデオコンポーネントは、メタデータに含まれる情報に依存して、レフトビュー又はライトビューのいずれかに関連付けられ得ることに留意すべきである。HDMI1.4bにおいて規定されているように、メタデータは、ビデオ+デプス及び補助情報を送信するために使用される特定のフォーマットをシグナリングするために、デプスピクセルの色成分において含まれるべきである。
HDMI2.0は、HDMI1.4bより高いピクセルクロック周波数をサポートし、歳だい60Hzのフレームレートにおける、2160pフォーマット(3840×2160、及び、4096×2160解像度)のためのサポートを含む。2D+デプスフォーマット及びステレオ+デプスフォーマットは、HDMI2.0インタフェース上でデータを伝達するために、2160pプログレッシブフレームにおいて圧縮されてもよい。
2160pフォーマットは、HDMIによって規定されるRGB又はYCピクセル符号化モードのいずれかと結合されてもよい。より高いフレームレートに関しては、YC4:2:0ピクセル符号化モードのみが、利用可能なオプションである。
以下のフレーム圧縮構成(モード)は、どのようにして、HDMI2160pフォーマットがビデオ+デプスA〜Dを送信するために使用されるのかを示す例である。
A.プログレッシブ 2D+デプス
B.インタレースド 2D+デプス
C.プログレッシブ ステレオ+デプス
D.インタレースド ステレオ+デプス
何れのモードにおいても、各アクティブラインは、アクティブラインをともに満たす、関連付けられたデプスピクセルと等しい数が続く、シングルラインのビデオ(テクスチャ)ピクセルを含む。モードは、第1のアクティブラインの第1のデプスピクセルから始まる、デプスピクセルの色成分において符号化されたメタデータにおいて示される。
4つのモードの各々のためのアクティブなHDMIフレーム内でのテクスチャ及びデプスサブイメージの圧縮が、図1及び図2に示されている。
テクスチャサブイメージは、2つの2160pHDMIビデオフォーマットの一方、即ち、1920ピクセル又は2048ピクセルにおけるアクティブラインの水平解像度の半分の水平解像度を持つ。
プログレッシブモードでは、テクスチャサブイメージは、1080ラインの垂直解像度を持つ、即ち、2160pHDMIビデオフォーマットの垂直解像度の半分である。
インタレースドモードでは、テクスチャサブイメージは、540ラインの垂直解像度を持つ、即ち、2160pHDMIビデオフォーマットの垂直解像度の4分の1である。
YC4:2:2ピクセル符号化の場合におけるサンプリング位置は、好ましくは、AVC規格書(ISO/IEC 14496-10:2012 - Information technology - Coding of audio-visual objects - Part 10: Advanced Video Codingの6.2項参照)に従っている。デプスサブイメージは、1920又は2048ピクセルの水平解像度を持つ、即ち、2つの2160pHDMIビデオフォーマットの一方におけるアクティブラインの水平解像度の半分である。
プログレッシブモードでは、デプスサブイメージは、1080ラインの垂直解像度を持つ、即ち、2160pHDMIビデオフォーマットの垂直解像度の半分である。
インタレースドモードでは、デプスサブイメージは、540ラインの垂直解像度を持つ、即ち、2160pHDMIビデオフォーマットの4分の1である。
デプスサブイメージは、メタデータによって示される意味を含む、0から255までの範囲のデプス値を含む。
YCピクセル符号化の場合、デプス値は、Yコンポーネントに格納されるべきである。Cコンポーネントは、メタデータを含む場合を除いて、0に設定されるべきである。シンク装置は、デプスのためのYコンポーネント値にのみ依存すべきである。
RGB4:4:4ピクセル符号化の場合、デプス値は、Rコンポーネントにおいて格納されるべきである。Gコンポーネント及びBコンポーネントは、メタデータを含む場合を除いて、Rコンポーネントと同じ値に設定されるべきである。シンク装置は、デプスのためのRコンポーネント値にのみ依存すべきである。
あるいは、RGB4:4:4ピクセル符号化の場合、デプス値は、Gコンポーネントにおいて格納されるべきである。Rコンポーネント及びBコンポーネントは、メタデータを含む場合を除いて、ゼロ値に設定されるべきである。シンク装置は、デプスのためのGコンポーネント値にのみ依存すべきである。
コンポーネント毎に8ビットより多くのビットが使用される場合(フレームレート及びHDMI TMDSクロックが許容する場合)、デプス値は、Yコンポーネントの最上位ビットにおいて格納されるべきである。
メタデータチャネルは、フレーム及びメタデータのフォーマット指標を含む。このチャネルは、各フレームにおける第1のデプスラインの第1のデプスピクセルから始まり、
るデプスピクセルに含まれるバイトのシーケンスを有し、データを伝達するために必要とされるラインと同じ数の次のラインからデプスピクセルが続く。メタデータチャネルバイトは、YCピクセル符号化モードの1つでは、デプスサブイメージのCコンポーネントに格納され、RGB4:4:4ピクセル符号化モードでは、G及びBコンポーネントに格納される。コンポーネント毎に8ビットより多くのビットが利用可能である場合(フレームレート及びHDMI TMDSクロックが許容する場合)、メタデータチャネルバイトは、コンポーネントの8個の最上位ビットに格納される。
様々なピクセル符号化モードにおけるコンポーネントに対するメタデータバイトのマッピングが、以下の表1に示される。
Figure 2016524373
表1:コンポーネントに対するメタデータバイトのマッピング
メタデータは、メタデータのコンテンツに変更があろうとなかろうと、毎フレームに含まれる。これによる利点は、フレームに関する情報が送信された場合に、レンダリングを開始できるようにする、一フレーム当たりのメタデータへのアクセスが可能になることである。このため、メタデータは、メタデータに変更があってもなくても、例えば、毎フレーム、毎フィールド、ピクチャのグループ毎、及び/又は、毎シーンに、繰り返し挿入されてもよい。
メタデータチャネルは、表2に示されるように、一連のパケットとして構成されていてもよい。
Figure 2016524373
表2:メタデータチャネル構文
次に、メタデータチャネルパケット構文が、表3において、提案され得る。
Figure 2016524373
表3:メタデータチャネルパケット構文
メタデータチャネルは、64バイトのメタデータチャネルパケットのシーケンスを含む。シーケンスに含まれるパケット数は、送信されるメタデータの量に依存する。ロバスト性を改善するため、メタデータは、3回送信される。最後のメタデータチャネルパケットの後のメタデータチャネルの全てのバイトは、0に設定される。このため、ここでは、メタデータに変更がないが、メタデータは、繰り返し挿入されてもよい。
各64バイトパケットは、4バイトのヘッダで始まり、次に、56バイトのペイロード、及び、4バイトの誤り検出符号(EDC:error detection code)を有する。実際のメタデータは、ペイロードフィールドに含まれる。
packet_idは、表4に従って、パケットのコンテンツを識別する。
Figure 2016524373
表4:packet_id
特に、packet_idは、より効率的な態様でメタデータを扱うため、装置がビデオストリームを受信できるようにする。特に、packet_id 0xF3は、このデータが前回のフレームにおいて正しく受信された場合、現在のメタデータが無視されてもよいことを示す。
特に、レンダリングに用いるためのメタデータは、ある時点において正確なフレームであってもよく、幾つかの他のフレームのために固定されてもよい。この情報は、より効率的なメタデータ制御操作の実装において、特に有用であり得る。
packet_subcodeは、packet_idの最下位ビットが1に設定される場合(即ち、packet_idが、0xF1又は0F3に設定される場合)、以下の表に従って、現在のフレームのフレーム圧縮構成を示す。他の全ての場合において、packet_subcodeは、将来の使用のために予約され、0に設定されている。
Figure 2016524373
表4:packet_subcode
packet_metadata_typeは、どのタイプのメタデータが、当該パケットのペイロードに含まれているのかを識別する。メタデータタイプは、ITU−T又はISO/IECによって標準化されるように、符号化ビットストリーム、例えば、AVC又はHEVCビットストリームに含まれる補足強化情報(SEI)から生じる補助情報の種類を表す。メタデータタイプは、ソース装置によって生成されたメタデータのタイプに関するものであってもよい。
packet_countは、同一のpacket_metadata_typeを有するパケットの後のパケット数を示す。
なお、最後のパケットが、packet_count value=0を含むことに留意すべきである。
packet_payload()は、メタデータチャネルに含まれる56バイトの総パケットペイロードバイトストリームを伝達する。
1フレームに関する総パケットペイロードバイトストリームは、連続的なパケットストリームに含まれ、例えば、表5(2タイプのメタデータの場合)に表されるようなデータシーケンスを含む。
Figure 2016524373
表5:packet_payload_byte_streamデータシーケンス
stuffing_byteは、0x00に設定される。1又は複数のスタッフィングバイトが、同じタイプから(必要であれば)端に向かってパケットペイロードを埋めるため、最後のメタデータバイトに続くバイトストリームに含まれる。パケットペイロードバイトストリームにおけるバイト数が56バイトの倍数でない間、While文における関係式はTRUEである。
reserved_metadata_bytes()は、将来において定義され得る追加的なメタデータを表している。かかる追加的なデータは、(メタデータチャネルパケットを有するメタデータを配置する必要があれば)metadata_typeの値を増加させ、スタッフィングバイトの可能な包含とともに、含まれるべきである。
packet_edcは、パケットの最初の60バイトから計算される誤り検出符号を含む4バイトのフィールドである。このEDCは、IEEE 802.3及びITU−T V.42において定義されるような標準的なCRC−32多項式を用いる。初期値及び最後のXOR値は、共に0である。
メタデータの性質
ビデオデータ信号を介して送信されるメタデータは、デプスマップ処理における使用、又は、マルチビューレンダリング装置による他の視点のための1又は複数のビューをレンダリングするためのものである。かかるメタデータは、コンテンツに依存する。メタデータは、実際のビデオデータに従って供給される。このため、メタデータは、例えば、フィールド毎、フレーム毎、ピクチャグループ毎、及び/又は、シーン毎に、実際のビデオデータに従って変化し得る。かかるメタデータは、本質的に動的であり、例えば、イメージ又はデプスデータがビデオデータの2次元マトリクスのセクションに存在することのみを示すヘッダのように静的ではない。オプションで、メタデータは、イメージベースレンダリングのための好適なレンダリング方向の符号化のためのメタデータ、イメージ情報とデプス情報との間の関係を示すメタデータ、ターゲットディスプレイに対するデプスマップ又は差異マップの再マッピングに用いるためのメタデータ、のうちの少なくとも1つを有する。かかるメタデータの様々な例が提案されている。
イメージベースレンダリングにおいて使用されるメタデータは、例えば、国際公開第2011/039679号に開示されるようなメタデータであってもよい。当該公報は、イメージベースレンダリングのための信号における好適なレンダリング方向の符号化に関する。この文書は、第1の視点から見られるシーンの第1のイメージを供給するステップと、レンダリング視点から見られるようなシーンの少なくとも1つのレンダリングされたイメージの生成を可能にするためのデプスマップなどのレンダリング情報を供給するステップと、第1の視点に関するレンダリング視点の好適な向きを定義する好適な方向指標を供給するステップと、第1のイメージ、レンダリング情報、及び、好適な方向指標を表している符号化されたデータを有するビデオデータ信号を生成するステップと、を有する、ビデオデータ信号の符号化方法を開示している。
好適なレンダリング方向情報は、コンテンツ依存であるメタデータであるが、更に、装置製造者が、最高のディスプレイ装置を作ることを可能にするために、オートステレオスコピックディスプレイ装置が、典型的に、ディスプレイ装置自体である場合、実際のビューレンダリングを実行する装置によって使用される必要のあるメタデータでもある。
あるいは、メタデータは、国際公開第2010/070545号に開示されるように、イメージ情報とデプス情報との間の関係を示していてもよい。再び、ストリームにおいて符号化された情報は、実際のコンテンツに依存し、レンダリングを更に改善するために、オートステレオスコピックディスプレイ装置によって使用され得る。例えば、ステレオ+デプスコンテンツの場合、デプス情報がステレオスコピックコンテンツから抽出されたかどうか、及び/又は、デプス情報が人間援助型オーサリングに基づくものかどうかを知ることは有用であろう。後者の場合、ステレオスコピックコンテンツの差分推定に基づき低解像度のデプスマップをより高解像度のデプスマップと結合するよりも、例えば、クロスバイラテラルアップスケーリングフィルタを用いたイメージ援助型アップスケーリングを通じて、低解像度のデプスマップの解像度を増加させることが、より好適であろう。
または、例えば、国際公開第2010/041176号に開示されるように、供給されるメタデータは、ターゲットディスプレイに対するデプスマップ又は差異マップの再マッピングにおいて使用するためのメタデータであってもよい。この国際公開は、様々なターゲットディスプレイのために、コンテンツを再ターゲットするための視差変換の使用に関する。
かかるデプス/差異の再マッピングは、コンテンツ依存するだけでなく、データ処理がディスプレイ装置に依存する処理である。結果として、この視差変換データは、好ましくは、コンテンツ自体とともに圧縮されたフォーマットにおいて供給されるデータである。例えば、視差変換は、ストレージ装置、又は、データ媒体から読み出される、あるいは、有線/無線ネットワークから受信される、圧縮されたコンテンツに埋め込まれていてもよい。また、それは、メタデータとして追加され、ビューレンダリングのための装置に送信される。
図3によれば、図3は、本発明に従ったエンコーダ、及び、3Dレンダリングチェインにおける本発明に従ったデコーダのブロック図を示している。
図の左上には、エンコーダ310が見られる。エンコーダ310は、マルチビューレンダリング装置で使用するためのビデオデータ信号50のエンコーダである。当該エンコーダ310は、第1の視点に関連付けられたシーンの第1のイメージ10を取得するように構成された第1の取得ユニット301と、第1のイメージ10と関連付けられたデプスマップ20を取得するように構成された第2の取得ユニット302と、デプスマップ処理又はマルチビューレンダリング装置による他の視点のための1又は複数のビューのレンダリングに使用するためのメタデータ30を取得するように構成された第3の取得ユニット303と、を有する。エンコーダ310は、ビデオデータ信号50を生成するように構成された生成器304を更に有し、当該ビデオデータ信号50は、第1のイメージ10に基づく1又は2のサブイメージと、デプスマップ20に基づく1又は2の他のサブイメージと、1又は2の他のサブイメージにおいて符号化されたメタデータ30と、を有する。
本願を通じて、エンコーダによるデータの取得は、外部ソースからデータを受信する、エンコーダ装置によってデータを取得する、又は、エンコーダ装置によってデータを生成する、のいずれかを含むものと考えられる。
好ましくは、デプスマップ20からの情報は、1又は2の他のサブイメージの輝度値において符号化され、メタデータ30からの情報は、1又は2の他のサブイメージの色度値において符号化される。
より好ましくは、ビデオデータ信号に含まれる情報は、各サブイメージが配置された、実質的に未圧縮のデータの2次元アレイを有する。
一旦、ビデオデータ信号50が符号化されると、ビデオデータ信号50は、代替的に、ハードディスク、光学ディスク、又は、ソリッドステートメモリなどの不揮発性メモリストレージであり得る、ストレージ媒体71にビデオデータ信号50を格納可能なハンドラ70によって操作される。しかしながら、実際には、データは、有線ネットワーク72又は無線ネットワーク73又はそれらの組み合わせ(図示省略)を介して、ハンドラ70によって送信される可能性が高い。
次いで、ビデオデータ信号は、ビデオデータ信号50を復号化するためのデコーダ350に到着する。当該デコーダは、ビデオデータ信号50を受信するように構成された受信器351を有する。このとき、ビデオデータ信号は、第1の視点と関連付けられたシーンの第1のイメージ10と、第1のイメージ10と関連付けられたデプスマップ20と、デプスマップ処理又は複数のビューのレンダリングにおいて使用するためのメタデータ30とを有する。ビデオデータ信号は、次に、デマルチプレクサ352へ渡される。当該デマルチプレクサは、個々のコンポーネントへのアクセスを得るために、ビデオデータ信号50を逆多重化(分離)するように構成されている。
さらに、デコーダ350は、メタデータ30に従ってデプスマップ20を処理するように構成されたデプスマッププロセッサ353、又は、レンダリングユニット354一方を少なくとも含む。当該レンダリングユニットは、1又は複数のビューあるいはその両方をレンダリングするように構成されている。それらのうちの少なくとも1つが、本発明において、メタデータの操作に利点を供給することができるように、存在すべきである。
さらに、オプションで、デコーダ350は、マルチビューステレオスコピックディスプレイユニット356を含む。このディスプレイユニットは、バリアベース又はレンチキュラーベースのマルチビューディスプレイ装置であってもよく、あるいは、レンダリングに追加的なビューが必要なマルチビューディスプレイ装置の形式であってもよい。
デマルチプレクサ352を用いてデータを逆多重化した後、メタデータは、メタデータの更なる操作のための制御プロセッサ355へ渡される。図4へ移ると、図4は、本発明に従った符号化方法のフローチャートを示している。当該フローチャートは、マルチビューレンダリング装置で使用するためのビデオデータ信号50を符号化するための処理を示しており、当該方法は、第1の視点と関連付けられたシーンの第1のイメージ10を供給するステップ401と、第1のイメージ10と関連付けられたデプスマップ20を供給するステップ402と、デプスマップ処理又はマルチビューレンダリング装置による他の視点のための1又は複数のビューのレンダリングにおいて使用するためのメタデータ30を供給するステップ403と、を有する。さらに、上記方法は、ビデオデータ信号50を生成するステップ404を有し、当該ビデオデータ信号50は、第1のイメージ10に基づく1又は2のサブイメージと、デプスマップ20に基づく1又は2の他のサブイメージと、1又は2の他のサブイメージにおいて符号化されたメタデータ30とを有する。
上述されるように、好ましくは、デプスマップ20からの情報は、1又は2の他のサブイメージの輝度値において符号化され、メタデータ30からの情報は、1又は2の他のサブイメージの色度値において符号化される。
さらに好ましくは、ビデオデータ信号に含まれる情報は、各サブイメージが配置された実質的に未圧縮のデータの2次元アレイを有する。
図5に移ると、図5は、本発明に従った復号化方法のフローチャートを示している。当該フローチャートは、ビデオデータ信号50を復号化するための処理を概略的に示しており、当該方法は、ビデオデータ信号50を受信するためのステップ501を有する。ビデオデータ信号は、図3を参照して上述したように、第1の視点と関連付けられたシーンの第1のイメージ10と、第1のイメージ10と関連付けられたデプスマップ20と、デプスマップ処理又は複数のビューのレンダリングにおいて使用するためのメタデータ30とを有している。
また、上記方法は、個別のコンポーネントへのアクセスを得るために、ビデオデータ信号50を逆多重化(分離)するためのステップ502を有する。逆多重化後、メタデータは、どのように更なる処理が進められるべきかを決定するために、調査される。メタデータ30に従ってデプスマップを処理する必要がある場合、当該処理は、ステップ503に続く、即ち、メタデータ30に従ったデプスマップ20のデプスマップ処理503に続く。
あるいは、デプスマップ処理が必要でない場合、上記処理は、メタデータ30に従って、他の視点のための1又は複数のビューをレンダリングするステップ504に続く。最後に、オプションで、新たにレンダリングされたビューが、マルチビューステレオスコピックディスプレイ装置を用いて、レンダリングされたビューを実際にディスプレイするステップ505において使用される。
特に、図5B及び図5Cは、本発明に従った復号化方法の他の実施形態を供給している。ここで、図5Bは、デプス処理のために供給されるメタデータがない実施形態、即ち、メタデータがレンダリング処理を制御するためだけに使用されるシナリオを示している。メタデータに基づくデプス処理がないため、対応するステップは、フローチャートから除去されている。
同様に、図5Cは、レンダリング処理のために供給されるメタデータがないが、デプス処理ステップのために供給されるメタデータが常に存在する実施形態を示している。このシナリオでは、メタデータ30に従ったビューレンダリングに関するステップ504は、メタデータ30を使用しないビューレンダリングステップであるステップ504´に置き換えられている。
当然のことながら、本発明は、コンピュータプログラム、特に、本発明を実施するために適合された、媒体に記録されたコンピュータプログラムにも拡張される。当該プログラムは、ソースコード、オブジェクトコード、部分的にコンパイルされた形式などの中間的なソースコード及びオブジェクトコードの形式、あるいは、本発明に従った方法の実施において適切に使用される任意の他の形式であってもよい。また、当然のことながら、上記プログラムは、多くの異なるアーキテクチュアル設計を有していてもよい。例えば、本発明に従った方法又はシステムの機能を実装するプログラムコードは、1又は複数のサブルーチンに分割されてもよい。
これらのサブルーチン上に機能を分布させる多くの様々な態様が、当業者にとって明らかであろう。当該サブルーチンは、自己含有型のプログラムを形成するように1つの実行可能なファイルに一緒に格納されてもよい。かかる実行可能なファイルは、例えば、プロセッサ命令及び/又はインタープリタ命令(例えば、Java(登録商標)インタープリタ命令)などの、コンピュータ実行可能な命令を有していてもよい。主なプログラムは、上記サブルーチンの少なくとも1つに対する少なくとも1つの呼び出しを含む。また、上記サブルーチンは、互いを呼び出す機能を有していてもよい。コンピュータプログラム製品に関する実施形態は、上記方法の少なくとも1つの処理ステップの各々に対応するコンピュータ実行可能な命令を有する。これらの命令は、サブルーチンに分割されてもよく、及び/又は、静的又は動的にリンクされた1又は複数のファイルに格納されてもよい。
コンピュータプログラム製品に関する他の実施形態は、システム及び/又は製品などの少なくとも1つの手段の各々に対応するコンピュータ実行可能な命令を有する。これらの命令は、サブルーチンに分割されてもよく、及び/又は、静的又は動的にリンクされた1又は複数のファイルに格納されてもよい。
コンピュータプログラムの媒体は、プログラムを運ぶことが可能な任意のエンティティ又は装置であってもよい。例えば、上記媒体は、CD−ROMなどのROMなどのストレージ媒体、あるいは、フロッピーディスク又はハードディスクなどの磁気記録媒体を含んでいてもよい。さらに、上記媒体は、電気ケーブル、光ケーブル、無線、又は、他の手段により伝達可能な、電気信号又は光信号などの送信可能な媒体であってもよい。上記プログラムが上記信号により実現される場合、上記媒体は、かかるケーブル又は他の装置又は他の手段によって構成され得る。あるいは、上記媒体は、プログラムが埋め込まれた集積回路であってもよく、当該集積回路は、関連する方法を実行、又は、実行に際し使用されるように、適合している。
上記実施形態は、本発明を限定しようとするものではなく、当該技術分野における当業者は、添付の請求項の範囲から逸脱することなく、多くの代替的な実施形態を設計可能であることに留意すべきである。請求項中、括弧内の任意の参照符号は、請求項を限定するものとして解釈されるべきではない。「有する」なる動詞及びその活用形の使用は、請求項に記載されたもの以外の要素又はステップの存在を除外しない。要素の単数形は、かかる要素が複数存在することを除外しない。本発明は、幾つかの別個の要素を有するハードウェアにより実装されてもよいし、適切にプログラムされたコンピュータにより実装されてもよい。幾つかの手段を列挙している装置請求項では、これらのうち幾つかは、全く同一のハードウェアによって実現されてもよい。特定の特徴が相互に異なる従属請求項において言及されているという単なる事実は、これらの特徴の組み合わせが好適に用いられないということを示すものではない。

Claims (22)

  1. マルチビューレンダリング装置において用いるためのビデオデータ信号の符号化方法であって、
    第1の視点と関連付けられたシーンの第1のイメージを供給するステップと、
    前記第1のイメージと関連付けられたデプスマップを供給するステップと、
    デプスマップ処理、又は、前記マルチビューレンダリング装置による他の視点のための1又は複数のビューのレンダリングにおいて用いられる、メタデータを供給するステップと、
    サブイメージにおいて分配されるビデオフレームを有する前記ビデオデータ信号を生成するステップと、
    を有し、
    前記サブイメージは、
    前記第1のイメージに基づく第1のサブイメージと、
    前記デプスマップに基づく第1のデプスサブイメージと、
    前記第1のデプスサブイメージの色成分において符号化される前記メタデータと、
    を有する、方法。
  2. 前記ビデオデータ信号は、輝度値及び色度値で構成され、前記デプスマップは、前記第1のデプスサブイメージの輝度値で符号化され、前記メタデータは、前記第1のデプスサブイメージの色度値で符号化される、あるいは、前記ビデオデータ信号は、R,G,B成分で構成され、前記デプスマップは、前記第1のデプスサブイメージの前記R,G,B成分のうちの第1の成分で符号化され、前記メタデータは、前記第1のデプスサブイメージの前記R,G,B成分のうちの他の成分で符号化される、請求項1記載の符号化方法。
  3. 前記ビデオデータ信号に含まれる前記ビデオフレームは、各サブイメージに配置されたデータの実質的に未圧縮の二次元アレイを有する、請求項1又は2に記載の符号化方法。
  4. 前記ビデオデータ信号を、1又は複数のビットシリアルデータラインを用いるインタフェースを介して、前記マルチビューレンダリング装置に送信するステップを更に有する、請求項1乃至3のいずれか1項に記載の符号化方法。
  5. 前記メタデータは、全てのフィールドのための、全てのフレームのための、全ての画像のグループのための、及び/又は、全てのシーンのための、前記ビデオデータ信号に挿入される、請求項1乃至4のいずれか1項に記載の符号化方法。
  6. 前記メタデータは、チェックサムを備える、請求項1乃至5のいずれか1項に記載の符号化方法。
  7. 前記メタデータは、前記メタデータにおいて変更があったか否かに関わらず、繰り返し挿入される、請求項1乃至6のいずれか1項に記載の符号化方法。
  8. 前記メタデータは、前記メタデータが前のフレームから変更されたかどうかを示す情報を有する、請求項1乃至7のいずれか1項に記載の符号化方法。
  9. 第2の視点と関連付けられたシーンの第2のイメージを供給するステップと、
    前記第2のイメージと関連付けられた第2のデプスマップを供給するステップと、
    前記ビデオデータ信号を生成するステップと、
    を有し、
    前記ビデオデータ信号は、
    前記第2のイメージに基づく第2のサブイメージと、
    前記第2のデプスマップに基づく第2のデプスサブイメージと、
    を含む、請求項1乃至8のいずれか1項に記載の符号化方法。
  10. マルチビューレンダリング装置において用いられるビデオデータ信号であって、
    第1の視点と関連付けられたシーンの第1のイメージと、
    前記第1のイメージと関連付けられたデプスマップと、
    デプスマップ処理、又は、前記マルチビューレンダリング装置による他の視点のための1又は複数のビューのレンダリングにおいて用いられる、メタデータと、
    を有し、
    前記ビデオデータ信号は、サブイメージにおいて分配されるビデオフレームを有し、
    前記サブイメージは、
    前記第1のイメージに基づく第1のサブイメージと、
    前記デプスマップに基づく第1のデプスサブイメージと、
    前記第1のデプスサブイメージの色成分において符号化される前記メタデータと、
    を有する、ビデオデータ信号。
  11. 請求項2乃至9のいずれか1項に記載の方法に従って生成される、請求項10記載のビデオデータ信号。
  12. 非一時的な形式で、請求項10又は11に記載のビデオデータ信号を有する、データ媒体。
  13. ビデオデータ信号の復号化方法であって、
    第1の視点と関連付けられたシーンの第1のイメージと、前記第1のイメージと関連付けられたデプスマップと、デプスマップ処理、又は、前記マルチビューレンダリングにおいて用いられるメタデータと、を有する前記ビデオデータ信号を受信するステップであって、前記ビデオデータ信号は、サブイメージにおいて分配されるビデオフレームを有し、前記サブイメージは、前記第1のイメージに基づく第1のサブイメージと、前記デプスマップに基づく第1のデプスサブイメージと、前記第1のデプスサブイメージにおいて符号化される前記メタデータと、を有するステップと、
    個別の成分へのアクセスを得るとともに、前記第1のデプスサブイメージの色成分から前記メタデータを抽出するために、前記ビデオデータ信号を分離するステップと、
    前記メタデータに基づいて前記デプスマップをデプスマップ処理するステップと、前記メタデータに基づいて他の視点のための1又は複数のビューをレンダリングするステップと、の少なくとも1つを実行するステップと、
    を有する、復号化方法。
  14. 請求項2乃至9のいずれか1項に記載の方法を用いて生成されるビデオデータ信号のいずれかを復号化するためのステップを更に有する、請求項13記載の復号化方法。
  15. ビデオデータ信号を復号化するためのデコーダであって、
    第1の視点と関連付けられたシーンの第1のイメージと、前記第1のイメージと関連付けられたデプスマップと、デプスマップ処理、又は、前記マルチビューレンダリングにおいて用いられるメタデータと、を有する前記ビデオデータ信号を受信する受信器であって、前記ビデオデータ信号は、サブイメージにおいて分配されるビデオフレームを有し、前記サブイメージは、前記第1のイメージに基づく第1のサブイメージと、前記デプスマップに基づく第1のデプスサブイメージと、前記第1のデプスサブイメージにおいて符号化される前記メタデータと、を有する前記受信器と、
    個別の成分へのアクセスを得るとともに、前記第1のデプスサブイメージの色成分から前記メタデータを抽出するために、前記ビデオデータ信号を分離するデマルチプレクサと、
    前記メタデータに基づいて前記デプスマップをデプスマップ処理するデプスマッププロセッサと、前記メタデータに基づいて他の視点のための1又は複数のビューをレンダリングするレンダリングユニットと、の少なくとも1つと、
    を有する、デコーダ。
  16. レンダリングされた1又は複数のビューを表示するマルチビューステレオスコピックディスプレイユニットを更に有する、請求項15記載のデコーダ。
  17. 請求項2乃至9のいずれか1項に記載の方法を用いて生成されたビデオデータ信号のいずれかを復号する、請求項15又は16に記載のデコーダ。
  18. 前記デコーダは、前記メタデータの処理を扱うための制御プロセッサを有し、前記制御プロセスは、前記メタデータを更に処理するかどうかを決定するために、前記メタデータが前のフレームから変更されたかどうかを示す情報を使用する、請求項15又は16に記載のデコーダ。
  19. プロセッサシステムに、請求項1乃至9のいずれか1項に記載の方法を実行させるための命令を有する、コンピュータプログラム製品。
  20. プロセッサシステムに、請求項13又は14に記載の方法を実行させるための命令を有する、コンピュータプログラム製品。
  21. マルチビューレンダリング装置において用いられるビデオデータ信号のエンコーダであって、
    第1の視点と関連付けられたシーンの第1のイメージを取得するための取得ユニットと、
    前記第1のイメージと関連付けられたデプスマップを取得するための取得ユニットと、
    デプスマップ処理、又は、前記マルチビューレンダリング装置による他の視点のための1又は複数のビューのレンダリングにおいて用いられる、メタデータを取得するための取得ユニットと、
    サブイメージにおいて分配されるビデオフレームを有する前記ビデオデータ信号を生成するためのジェネレータと、
    を有し、
    前記サブイメージは、
    前記第1のイメージに基づく第1のサブイメージと、
    前記デプスマップに基づく第1のデプスサブイメージと、
    前記第1のデプスサブイメージの色成分において符号化される前記メタデータと、
    を有する、エンコーダ。
  22. 請求項2乃至9のいずれか1項に記載の方法を用いて生成される信号を符号化する、請求項21記載のエンコーダ。
JP2016512452A 2013-05-10 2014-04-30 マルチビューレンダリング装置とともに使用するためのビデオデータ信号の符号化方法 Active JP6266761B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361821754P 2013-05-10 2013-05-10
US61/821,754 2013-05-10
PCT/IB2014/061094 WO2014181220A1 (en) 2013-05-10 2014-04-30 Method of encoding a video data signal for use with a multi-view rendering device

Publications (3)

Publication Number Publication Date
JP2016524373A true JP2016524373A (ja) 2016-08-12
JP2016524373A5 JP2016524373A5 (ja) 2017-09-07
JP6266761B2 JP6266761B2 (ja) 2018-01-24

Family

ID=50829228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016512452A Active JP6266761B2 (ja) 2013-05-10 2014-04-30 マルチビューレンダリング装置とともに使用するためのビデオデータ信号の符号化方法

Country Status (8)

Country Link
US (2) US9826212B2 (ja)
EP (1) EP2995082B1 (ja)
JP (1) JP6266761B2 (ja)
CN (1) CN105165008B (ja)
BR (1) BR112015026131A2 (ja)
RU (1) RU2667605C2 (ja)
TW (1) TWI644559B (ja)
WO (1) WO2014181220A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016163342A (ja) * 2015-03-03 2016-09-05 芳隆 大吉 三次元形状情報の配信または放送の方法
WO2018147123A1 (ja) * 2017-02-13 2018-08-16 ソニー株式会社 画像処理装置および画像処理方法
WO2019193698A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
US10991144B2 (en) 2016-07-29 2021-04-27 Sony Corporation Image processing apparatus and image processing method
JP2022510193A (ja) * 2018-11-28 2022-01-26 カイ インコーポレイテッド 映像を処理する方法、映像を再生する方法及びその装置

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
IN2014CN02708A (ja) * 2011-09-28 2015-08-07 Pelican Imaging Corp
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US10090949B2 (en) * 2013-07-22 2018-10-02 Samsung Electronics Co., Ltd. Transmitting apparatus and receiving apparatus, and signal processing method thereof
US9912994B2 (en) * 2014-07-03 2018-03-06 Mobiledirect, Inc. Interactive distributed multimedia system
CN107113457B (zh) * 2014-12-29 2020-12-04 索尼公司 发送装置、发送方法、接收装置和接收方法
WO2016171508A1 (ko) * 2015-04-23 2016-10-27 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
US20180213216A1 (en) * 2015-06-16 2018-07-26 Lg Electronics Inc. Media data transmission device, media data reception device, media data transmission method, and media data rececption method
TWI574547B (zh) * 2015-11-18 2017-03-11 緯創資通股份有限公司 立體影像的無線傳輸系統、方法及其裝置
EP3429210A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing Methods, devices and stream for encoding and decoding volumetric video
US10929987B2 (en) 2017-08-16 2021-02-23 Nvidia Corporation Learning rigidity of dynamic scenes for three-dimensional scene flow estimation
KR102600011B1 (ko) * 2017-09-15 2023-11-09 인터디지털 브이씨 홀딩스 인코포레이티드 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들
EP3474562A1 (en) * 2017-10-20 2019-04-24 Thomson Licensing Method, apparatus and stream for volumetric video format
CN109803135A (zh) * 2017-11-16 2019-05-24 科通环宇(北京)科技有限公司 一种基于sdi系统的视频图像传输方法及数据帧结构
CN109803134A (zh) * 2017-11-16 2019-05-24 科通环宇(北京)科技有限公司 一种基于hdmi系统的视频图像传输方法及数据帧结构
US10720124B2 (en) * 2018-01-15 2020-07-21 Microsoft Technology Licensing, Llc Variable pixel rate display interfaces
CN111837392A (zh) * 2018-01-19 2020-10-27 交互数字Vc控股公司 处理点云
EP3547704A1 (en) 2018-03-30 2019-10-02 Thomson Licensing Method, apparatus and stream for volumetric video format
KR20210025527A (ko) * 2018-07-06 2021-03-09 소니 주식회사 정보 처리 장치 및 정보 처리 방법, 그리고 프로그램
EP3629584A1 (en) * 2018-09-25 2020-04-01 Koninklijke Philips N.V. Apparatus and method for generating and rendering a video stream
FR3086831A1 (fr) * 2018-10-01 2020-04-03 Orange Codage et decodage d'une video omnidirectionnelle
CN111669567B (zh) * 2019-03-07 2024-03-29 阿里巴巴集团控股有限公司 多角度自由视角视频数据生成方法及装置、介质、服务器
FR3093884A1 (fr) * 2019-03-15 2020-09-18 Orange Procédés et dispositifs de codage et de décodage d'une séquence vidéo multi-vues
CN110012310B (zh) 2019-03-28 2020-09-25 北京大学深圳研究生院 一种基于自由视点的编解码方法及装置
JP7247327B2 (ja) * 2019-04-01 2023-03-28 グーグル エルエルシー ダイナミックデプス画像を撮影して編集するための手法
EP3959469A4 (en) * 2019-04-22 2022-12-28 LEIA Inc. TIME MULTIPLEXING BACKLIGHT, MULTI-VIEW DISPLAY DEVICE, AND METHOD
FR3096538A1 (fr) * 2019-06-27 2020-11-27 Orange Procédé et dispositif de traitement de données de vidéo multi-vues
FI4005202T3 (fi) * 2019-07-22 2023-12-28 Interdigital Vc Holdings Inc Menetelmä ja laite volumetrisen videosisällön toimittamiseksi
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
KR102538645B1 (ko) 2019-10-07 2023-05-31 보스턴 폴라리메트릭스, 인크. 편광을 사용한 센서 시스템 및 이미징 시스템의 증강 시스템 및 방법
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
US11490097B2 (en) * 2019-12-27 2022-11-01 Alibaba Group Holding Limited Method and apparatus for signaling subpicture partitioning information
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090015662A1 (en) * 2007-07-13 2009-01-15 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
US20100158351A1 (en) * 2005-06-23 2010-06-24 Koninklijke Philips Electronics, N.V. Combined exchange of image and related data
WO2012147010A1 (en) * 2011-04-28 2012-11-01 Koninklijke Philips Electronics N.V. Method and apparatus for generating an image coding signal

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2378790C1 (ru) * 2005-09-27 2010-01-10 Квэлкомм Инкорпорейтед Методики масштабируемости на основе информации содержимого
EP2191402A4 (en) * 2007-08-20 2014-05-21 Nokia Corp SEGMENTED METADATA AND INDEXES FOR MULTIMEDIA FLOW DATA
WO2010041176A1 (en) 2008-10-10 2010-04-15 Koninklijke Philips Electronics N.V. A method of processing parallax information comprised in a signal
TWI542190B (zh) * 2008-11-04 2016-07-11 皇家飛利浦電子股份有限公司 編碼三維影像信號的方法及系統、經編碼之三維影像信號、解碼三維影像信號的方法及系統
EP2320667A1 (en) 2009-10-20 2011-05-11 Koninklijke Philips Electronics N.V. Combining 3D video auxiliary data
EP2197217A1 (en) 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
EP2385705A4 (en) * 2008-12-30 2011-12-21 Huawei Device Co Ltd METHOD AND DEVICE FOR GENERATING STEREOSCOPIC PANORAMIC VIDEO FLOW AND METHOD AND DEVICE FOR VISIOCONFERENCE
KR20110011000A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 생성 방법 및 그 장치, 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 수신 방법 및 그 장치
US9167226B2 (en) 2009-10-02 2015-10-20 Koninklijke Philips N.V. Selecting viewpoints for generating additional views in 3D video
US20110211634A1 (en) 2010-02-22 2011-09-01 Richard Edwin Goedeken Method and apparatus for offset metadata insertion in multi-view coded view
IN2014CN02708A (ja) * 2011-09-28 2015-08-07 Pelican Imaging Corp
TWI521940B (zh) * 2012-06-14 2016-02-11 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
US9299195B2 (en) * 2014-03-25 2016-03-29 Cisco Technology, Inc. Scanning and tracking dynamic objects with depth cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100158351A1 (en) * 2005-06-23 2010-06-24 Koninklijke Philips Electronics, N.V. Combined exchange of image and related data
US20090015662A1 (en) * 2007-07-13 2009-01-15 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
WO2012147010A1 (en) * 2011-04-28 2012-11-01 Koninklijke Philips Electronics N.V. Method and apparatus for generating an image coding signal

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016163342A (ja) * 2015-03-03 2016-09-05 芳隆 大吉 三次元形状情報の配信または放送の方法
US10991144B2 (en) 2016-07-29 2021-04-27 Sony Corporation Image processing apparatus and image processing method
WO2018147123A1 (ja) * 2017-02-13 2018-08-16 ソニー株式会社 画像処理装置および画像処理方法
DE112018000795T5 (de) 2017-02-13 2019-12-12 Sony Corporation Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren
JPWO2018147123A1 (ja) * 2017-02-13 2019-12-12 ソニー株式会社 画像処理装置および画像処理方法
US11184602B2 (en) 2017-02-13 2021-11-23 Sony Corporation Image processing apparatus and image processing method
JP7040466B2 (ja) 2017-02-13 2022-03-23 ソニーグループ株式会社 画像処理装置および画像処理方法
WO2019193698A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
JP2022510193A (ja) * 2018-11-28 2022-01-26 カイ インコーポレイテッド 映像を処理する方法、映像を再生する方法及びその装置

Also Published As

Publication number Publication date
US10080010B2 (en) 2018-09-18
RU2667605C2 (ru) 2018-09-21
TW201501509A (zh) 2015-01-01
CN105165008A (zh) 2015-12-16
BR112015026131A2 (pt) 2017-07-25
EP2995082A1 (en) 2016-03-16
EP2995082B1 (en) 2016-11-30
TWI644559B (zh) 2018-12-11
RU2015152815A3 (ja) 2018-03-27
JP6266761B2 (ja) 2018-01-24
CN105165008B (zh) 2017-11-21
US20160088281A1 (en) 2016-03-24
WO2014181220A1 (en) 2014-11-13
US20180035095A1 (en) 2018-02-01
RU2015152815A (ru) 2017-06-16
US9826212B2 (en) 2017-11-21

Similar Documents

Publication Publication Date Title
JP6266761B2 (ja) マルチビューレンダリング装置とともに使用するためのビデオデータ信号の符号化方法
JP5407957B2 (ja) 立体画像データ送信装置および立体画像データ受信装置
JP5407968B2 (ja) 立体画像データ送信装置および立体画像データ受信装置
JP5446913B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
JP5531972B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20110141238A1 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving data receiving method
US9596446B2 (en) Method of encoding a video data signal for use with a multi-view stereoscopic display device
US20140078248A1 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
US20130141534A1 (en) Image processing device and method
JP2011166757A (ja) 送信装置、送信方法および受信装置
WO2012057048A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170725

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

R150 Certificate of patent or registration of utility model

Ref document number: 6266761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250