JP5858254B2 - 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置 - Google Patents

2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置 Download PDF

Info

Publication number
JP5858254B2
JP5858254B2 JP2014113801A JP2014113801A JP5858254B2 JP 5858254 B2 JP5858254 B2 JP 5858254B2 JP 2014113801 A JP2014113801 A JP 2014113801A JP 2014113801 A JP2014113801 A JP 2014113801A JP 5858254 B2 JP5858254 B2 JP 5858254B2
Authority
JP
Japan
Prior art keywords
pixel
image frame
pixels
subset
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014113801A
Other languages
English (en)
Other versions
JP2014239436A (ja
Inventor
ウシコフ ダニエル
ウシコフ ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/911,389 external-priority patent/US9483836B2/en
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2014239436A publication Critical patent/JP2014239436A/ja
Application granted granted Critical
Publication of JP5858254B2 publication Critical patent/JP5858254B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

〔関連出願への相互参照/引用による組み込み〕
本出願は、これにより本明細書にその全内容が引用により組み込まれる2012年3月28日に出願の米国特許出願番号第13/432,065号明細書を参照する。
本出願は、これにより本明細書にその全内容が引用により組み込まれる2011年2月28日に出願の米国特許出願番号第13/036,656号明細書を参照する。
本発明の開示の様々な実施形態は、コンテンツ変換に関する。より具体的には、本発明の開示の様々な実施形態は、2次元(2D)コンテンツの3次元(3D)コンテンツへのリアルタイム変換の方法及び装置に関する。
消費者電子デバイスの製造業者は、処理能力を犠牲にすることなく利用可能な制限されたメモリスペースを利用しようとする時に効率関連の問題に対処する必要がある。特に、リアルタイムでの2次元コンテンツの3次元コンテンツへの変換中に、消費者電子デバイスは、高処理能力及び大量メモリスペースを要求する。従って、効率的な2D対3Dコンテンツ変換システムに対する必要性が存在する。
米国特許出願番号第13/432,065号明細書 米国特許出願番号第13/036,656号明細書
従来の慣例的な手法の更に別の制限及び欠点は、図面の参照と共に本出願の残りに示すような本発明の開示の一部の態様とのそのようなシステムの比較を通して当業者に明らかになるであろう。
2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置は、実質的に図面の少なくとも1つに示され、及び/又はそれに関連して記述され、より完全に特許請求の範囲に示している。
本発明の開示のこれら及び他の特徴及び利点は、同じ参照番号が全体を通して同じ部分を示す添付の図面と共に本発明の開示の以下の詳細説明の精査から認めることができる。
本発明の開示の実施形態によるリアルタイム2D対3D変換のためのネットワーク環境を示すブロック図である。 本発明の開示の実施形態によるコンピュータデバイスを示すブロック図である。 本発明の開示の実施形態による画像フレームを示す図である。 本発明の開示の実施形態による画像フレーム内の1列のピクセルを示す例示的な図である。 本発明の開示の実施形態による画像フレーム内の1列のピクセルを示す例示的な図である。 本発明の開示の実施形態による画像フレーム内の1列のピクセルを示す例示的な図である。 本発明の開示の実施形態によるコンピュータデバイスでのリアルタイム2D対3D変換を与えるための例示的な段階を示す流れ図である。 本発明の開示の別の実施形態によるコンピュータデバイスでのリアルタイム2D対3D変換を与えるための例示的な段階を示す流れ図である。
2次元コンテンツの3次元コンテンツへのリアルタイム変換を与える方法及び/又は装置において様々な実施を見出すことができる。
本発明の開示の例示的な態様は、映像処理のためのコンピュータデバイスを含むことができる。実施形態において、コンピュータデバイスは、画像フレーム内のピクセルの部分集合の平均垂直速度及び/又は平均水平速度を決定することができる。奥行の値は、ピクセルの部分集合の各ピクセルに対して、ピクセルの部分集合のそのピクセルに関連付けられた計算された動きベクトル、平均垂直速度、及び平均水平速度に基づいて決定することができる。
動きベクトルアルゴリズムは、画像フレーム内の均質な(homogenous)エリア内のピクセルに対する動きベクトルを計算することができない。均質なエリア内のこのようなピクセルに対応する動きベクトルは、更に別の計算のために考慮することができる。実施形態において、画像フレームに対応する動きベクトルは、入力として与えることができる。1つ又はそれよりも多くのピクセルに対応する動きベクトルは、未知である場合があり、又は所定の入力では定義できない場合がある。未知の動きベクトル及び/又は定義されていない動きベクトルを有するこのようなピクセルは、動きベクトルを事前に決定することができず、従って、奥行の計算に対するピクセルの部分集合に含まれない。
実施形態において、奥行の値は、ピクセルの部分集合の各ピクセルに対して、ピクセルの部分集合のそのピクセルに関連付けられた計算された動きベクトル、画像フレームの平均垂直ピクセル速度、及び画像フレームの平均水平ピクセル速度に基づいて決定することができる。平均垂直ピクセル速度及び平均水平ピクセル速度は、画像フレーム内の予め決定された動きベクトルを有するピクセルに基づいて計算することができる。コンピュータデバイスは、画像フレームのピクセルに関連付けられた奥行の値に基づいて画像フレームに対する立体画像対を発生させることができる。立体画像対は、画像フレーム内の各ピクセルが特定の値だけ左にシフトされる左画像と、画像フレーム内の各ピクセルが特定の値だけ右にシフトされる右画像とを含むことができる。特定の値は、画像フレーム内の各ピクセルに関連付けられた奥行の値に比例することができる。実施形態において、ピクセルの部分集合は、画像フレーム内のピクセルの1つ又はそれよりも多くの列に属する場合がある。
実施形態において、画像フレームは、2次元(2D)画像フレームとすることができる。実施形態において、画像フレームは、低減されたピクセル解像度を有する2次元(2D)画像フレームとすることができる。実施形態において、コンピュータデバイスは、外部デバイス及び/又はローカルメモリの一方又は両方から画像フレームを受信することができる。コンピュータデバイスは、テレビジョン、スマートフォン、タブレット、ラップトップ、及び/又はデスクトップコンピュータのうちの1つ又はそれよりも多くを含むことができる。外部デバイスは、ビデオプレーヤ、セットトップボックス、パーソナルビデオレコーダ、ビデオカメラ、及び/又はクラウドサーバのうちの1つ又はそれよりも多くを含むことができる。
図1は、本発明の開示の実施形態によるリアルタイム2D対3D変換のためのネットワーク環境を示すブロック図である。図1に関しては、ネットワーク環境100が示されている。ネットワーク環境100は、コンピュータデバイス102、ビデオプレーヤ104a、セットトップボックス104b、パーソナルビデオレコーダ104c、クラウドサーバ104d、ビデオカメラ104eのような1つ又はそれよりも多くの外部デバイス104、及び通信ネットワーク106を含むことができる。しかし、本発明の開示はこれに制限されず、本発明の開示の範囲を制限することなく他の外部デバイスを利用することができる。
コンピュータデバイス102は、外部デバイス(104aのような)と直接に又は通信ネットワーク106を通じて通信することができる適切な論理、回路、インタフェース、及び/又はコードを含むことができる。実施形態において、コンピュータデバイス102は、外部デバイス(104aのような)に/から命令及び指令を送信及び/又は受信することができる。コンピュータデバイス102はまた、3次元(3D)コンテンツを再生することができる。コンピュータデバイス102の例は、以下に限定されるものではないが、テレビジョン、スマートフォン、タブレット、ラップトップ、及び/又はデスクトップコンピュータを含むことができる。しかし、本発明の開示はこれに制限されず、本発明の開示の範囲を制限することなく他のコンピュータデバイスを利用することができる。
外部デバイス(104aのような)は、コンピュータデバイス102と直接に又は通信ネットワーク106を通じて通信することができる適切な論理、回路、インタフェース、及び/又はコードを含むことができる。実施形態において、外部デバイス(104aのような)は、コンピュータデバイス102に/から命令及び指令を送信及び/又は受信することができる。別の実施形態において、外部デバイス(104aのような)は、コンピュータデバイス102が要求する場合があるメディアコンテンツを提供することができる。
通信ネットワーク106は、ネットワーク環境100においてコンピュータデバイス102及び外部デバイス(104aのような)がそれを通じて互いに通信することができる媒体を含むことができる。通信ネットワーク106は、以下に限定されるものではないが、無線フィデリティ(Wi−Fi)、無線ユニバーサルシリアルバス(WUSB)、ローカルエリアネットワーク(LAN)、ZigBee、送信制御プロトコル及びインターネットプロトコル(TCP/IP)、イーサネット(登録商標)、ケーブルネットワーク、衛星ネットワーク、デジタルリビングネットワークアライアンス(DLNA)ホームネットワーク、及び/又はBluetooth(登録商標)通信プロトコルを含む1つ又はそれよりも多くの通信プロトコルによって有効にすることができる。ネットワーク環境100における様々な構成要素は、TCP/IP、ユーザデータグラムプロトコル(UDP)、ZigBee、赤外線(IR)、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n通信プロトコルのような様々な有線及び無線通信プロトコルに従って通信ネットワーク106に接続することができる。
作動において、コンピュータデバイス102及び外部デバイス(104aのような)は、電源を入れることができ、コンピュータデバイス102と外部デバイス(104aのような)の間の接続は、通信ネットワーク106を通じて起動することができる。コンピュータデバイス102は、コンピュータデバイス102によって通信することができる要求に基づいて、外部デバイス(104aのような)からメディアコンテンツを受信することができる。メディアコンテンツは、2Dコンテンツを構成することができる1つ又はそれよりも多くの画像フレームを含むことができる。コンピュータデバイス102は、受信した1つ又はそれよりも多くの画像フレーム内のピクセルの全てに対して動きベクトルを計算することができる。コンピュータデバイス102は、1つ又はそれよりも多くのアルゴリズムに基づいて動きベクトルを計算することができる。コンピュータデバイス102は、計算された動きベクトルに基づいて、1つ又はそれよりも多くのピクセルに関連付けられた奥行を決定することができる。
更に、コンピュータデバイス102は、計算された奥行マップに基づいて画像フレームに対応する立体画像対を発生させることができる。立体画像対は、左画像及び右画像を含む。立体画像対は、外部デバイス(104aのような)によって通信された2D画像フレームに対応する3Dコンテンツを形成する。
実施形態において、3Dコンテンツは、コンピュータデバイス102に関連付けられた表示画面に表示することができる。実施形態において、コンピュータデバイス102(スマートフォンのような)によって発生された3Dコンテンツは、表示のためにいずれかの表示デバイス(モニタのような)に通信することができる。
実施形態において、2Dコンテンツは、ビデオプレーヤ104aの取外し可能ディスクに格納された映画、セットトップボックス104bによって通信された生TV番組、パーソナルビデオレコーダ104cによって記録されたメディアコンテンツ、クラウドサーバ104dに格納されたメディアコンテンツ、及び/又はビデオカメラ104eによって通信されたビデオ映像などのうちの1つ又はそれよりも多くとすることができる。
図2は、本発明の開示の実施形態によるコンピュータデバイスのブロック図である。図2は、図1からの要素に関連して説明する。図2に関しては、コンピュータデバイス102が示されている。コンピュータデバイス102は、以下に限定されるものではないが、プロセッサ202、送受信機204、メモリ206、通信インタフェース208、及び入力−出力(I/O)デバイス210を含むことができる。メモリ206は、以下に限定されるものではないが、カメラアプリケーション212、オペレーティングシステム214、動きベクトル推定器216、奥行推定器218、画像データ220、推定データ222、立体画像発生器224、及び雑多な情報226を含むことができる。
プロセッサ202は、メモリ206、送受信機204、及びI/Oデバイス210と通信可能に結合することができる。送受信機204は、通信インタフェース208を通じて通信ネットワーク106と通信可能に結合することができる。
プロセッサ202は、メモリ206に格納された1組の命令を実行することができる適切な論理、回路、インタフェース、及び/又はコードを含むことができる。プロセッサ202は、当業技術で公知の1つ又はそれよりも多くのプロセッサ技術に基づいて実施することができる。プロセッサ202の例は、X86ベースのプロセッサ、RISCプロセッサ、ASICプロセッサ、CISCプロセッサ、又はいずれかの他のプロセッサとすることができる。
メモリ206は、受信した命令の組を格納することができる適切な論理、回路、インタフェース、及び/又はコードを含むことができる。メモリ206は、以下に限定されるものではないが、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、ハードディスクドライブ(HDD)、ストレージサーバ、及び/又はセキュアデジタル(SD)カードに基づいて実施することができる。
送受信機204は、通信インタフェース208を通じて外部デバイス(104aのような)と通信することができる適切な論理、回路、インタフェース、及び/又はコードを含むことができる。実施形態において、送受信機204は、外部デバイス(104aのような)と直接に通信することができる。送受信機204は、通信ネットワーク106との有線又は無線通信をサポートするための公知の技術を実装することができる。
I/Oデバイス210は、ユーザ入力を受信して3Dコンテンツを表示するためにプロセッサ202に作動可能に結合することができる適切な論理、回路、インタフェース、及び/又はコードを含むことができる。入力デバイスの例は、以下に限定されるものではないが、タッチパッド、トラックパッド、センサ、カメラ、及び/又はマイクロフォンを含むことができる。出力デバイスの例は、以下に限定されるものではないが、液晶ディスプレイ(LCD)及び/又は発光ダイオード(LED)ディスプレイを含むことができる。しかし、本発明の開示はこれに制限されず、本発明の開示の範囲を制限することなく他のI/Oデバイス210を利用することができる。
作動において、外部デバイス(104aのような)は、2Dコンテンツをコンピュータデバイス102に通信することができる。プロセッサ202は、外部デバイス(104aのような)によって通信された2Dコンテンツを受信することができる。実施形態において、プロセッサ202は、メモリ206から2Dコンテンツを受信することができる。カメラアプリケーション212は、コンピュータデバイス102の様々な機能及び作動を実行するためにプロセッサ202によって実行されることが好ましいプログラム命令を含むことができる。オペレーティングシステム214は、コンピュータデバイス102の低レベル機能を制御及び調整することができる。動きベクトル推定器216は、動きベクトル推定手順を制御及び調整することができる。これは、画像フレーム内の各ピクセルに対応する動きベクトルを決定する段階又は画像フレームに対応する動きベクトル情報を受信する段階を含むことができる。実施形態において、動きベクトル推定器216は、画像フレームに対する平均動きベクトルを決定し、所定数のその後の画像フレームに対して同じ平均動きベクトルを使用することができる。
奥行推定器218は、画像フレーム内の各ピクセルに関連付けられた奥行の値を決定するための奥行推定手順を制御及び調整することができる。画像データ220は、1つ又はそれよりも多くの画像フレームを含むことができる。推定データ222は、奥行推定手順を実行するためのあらゆるタイプの情報又はデータを含むことができる。立体画像発生器226は、画像フレームに対応する立体画像対を発生させるための立体画像発生手順を制御及び調整することができる。立体画像発生手順は、立体画像を発生させるために奥行推定手順の結果を利用することができる。雑多な情報226は、コンピュータデバイス102の作動に対する他の適切な情報を含むことができる。本発明の開示を良く理解するために、図3に例を示している。
図3は、本発明の開示の実施形態による画像フレームを示している。図3は、図2及び図1からの要素に関連して説明する。図3に関しては、画像フレーム302が示されている。画像フレーム302は、それぞれ対応する矢印D1、D2、及び/又はD3などによって示された方向に動く物体306a、物体306b、物体306cなど(以下、まとめて物体306と呼ぶ)と、背景304とを含むことができる。ピクセルの部分集合(308a、308b、308cのような)は、画像フレーム302において1列のピクセルに対応する。物体306aは、矢印D1に示すようにX方向に沿って動く。物体306aは、X方向に沿ってのみ速度を有する。物体306bは、矢印D2に示すようにX−Y平面に沿って対角線上を動く。物体306bは、X方向及びY方向の両方に沿った速度を有する。物体306cは、矢印D3に示すようにY方向に沿って動く。物体306cは、Y方向に沿ってのみ速度を有する。プロセッサ202は、画像フレーム302における複数のピクセルに対する動きベクトルを計算することができる。更に、プロセッサ202は、複数のピクセル内の各ピクセルに関連付けられた奥行の値を決定することができる。
実施形態において、プロセッサ202は、画像フレーム302からのピクセルの部分集合(308a、308b、及び308cなどのような)を同時に処理することにより、各段階において識別を実行することができる。ピクセルの部分集合(308aのような)は、画像フレーム302の1つ又はそれよりも多くの列に属する場合がある。
実施形態において、プロセッサは、X方向における画像フレームの平均ピクセル速度(以下、「aver VX」と呼ぶ)及びY方向における画像フレームの平均ピクセル速度(以下、「aver VY」と呼ぶ)を計算する。プロセッサ202は、画像フレーム302内の各ピクセルの動きベクトル及び平均ピクセル速度に基づいて、画像フレーム302内の各ピクセルに対する奥行の値を計算することができる。実施形態において、プロセッサ202は、以下に記述する式(1)を使用して、画像フレーム302内の各ピクセルに対応する奥行の値を計算することができる。

奥行 = abs (VX - averVX) + abs (VY - averVY) …………(1)

ここで、VX及びVYは、画像フレーム302におけるピクセルに対するX方向及びY方向それぞれの速度であり、averVX及びaverVYは、X方向及びY方向それぞれにおける平均ピクセル速度である。実施形態において、動きベクトルアルゴリズムは、1つ又はそれよりも多くのピクセルに対応する動きベクトルを計算することができない。このような例では、これらのピクセルの動きベクトルは、平均ピクセル速度の計算に含まれない場合がある。実施形態において、奥行の値計算に使用される平均ピクセル速度は、ピクセルの部分集合(308aのような)に対する平均ピクセル速度とすることができる。ピクセルの部分集合(308aのような)は、奥行の値を計算することができるピクセルを含むことができる。
近似的に同じ速度ベクトルを有するピクセルの大多数は、「背景ピクセル」と呼ばれる。残りのピクセルは、「前景ピクセル」と呼ばれる。背景ピクセルの平均速度が上述の式(1)におけるaverVX、averVYに対して使用される場合に(平均フレーム速度の代わりに)、奥行マップの視聴者−認識品質は増加する。
実施形態において、画像フレーム302における一部のピクセルに対する動きベクトルが未知である場合がある。これは、雲のない空のようにテクスチャがないか又は弱い場合があるエリアで起こることがある。記述されるアルゴリズムは、良好なテクスチャを有するエリアからの奥行を外挿することによって均質なエリアにおける奥行を充足する人間の能力を利用することにより、この欠陥に対処することができる。
実施形態において、以前の画像フレームの平均動きベクトルは、現在の画像フレームに適用することができる。現在の画像フレームに対する奥行の値の計算は、以前の画像フレームに関連付けられた平均速度を使用して推定することができる。これは、画像フレーム302に関連付けられた奥行の値の推定に必要とされる計算及び時間を低減することができる。更に、平均動きベクトルは、例えば、映画に対しては、フレームからフレームに殆ど変化しない。平均動きベクトルは、異なるエピソード間で大幅に変わることがあるが、人間の脳は、視差に基づく奥行知覚を形成するのに映画の少なくとも3−4フレームを必要とする場合があるので、このような場合に、不正確な奥行を有する1つ又はそれよりも多くのフレームは、視聴者によって知覚されない場合がある。
画像フレーム302に対応する立体画像対を発生させることができる。立体画像フレームは、2つの画像、すなわち、左画像と右画像を含むことができる。左画像は、各ピクセルに関連付けられた奥行に比例した特定の値だけ画像フレーム302のピクセルを左にシフトすることによって生成することができる。右画像は、各ピクセルに関連付けられた奥行に比例した特定の値だけ画像フレーム302のピクセルを右にシフトすることによって生成することができる。立体画像対は、受信した2D画像フレームの3D表示を形成する。
立体画像対は、受信した2D画像フレームの3D表示を形成する。立体画像は、外部デバイス(104aのような)によって通信された2Dコンテンツから発生された3Dコンテンツに対応することができる。更に、3Dコンテンツは、コンピュータデバイス102に関連付けられた表示画面に表示することができる。本方法は、人間による立体知覚に関する経験的観察を利用している。特に、本方法は、画像フレーム302における良好なテクスチャを有するエリアに対してだけ正確な奥行マップを定義することができるという知見を利用する。更に、本方法は、新しい映画エピソードが始まる時に1つのフレームだけの平均奥行でのジャンプが視聴者によって気付かれずに進む場合があるという知見を利用する。
図4A−4Cは、本発明の開示の実施形態による画像フレーム302における1列のピクセルを示す例示的な図である。図4A−4Cは、図3からの要素に関連して説明する。図4Aは、物体306aの位置に重なった画像フレーム302内の1列のピクセルを示している。1群のピクセル404内の各ピクセルは、物体306aに対応し、かつX方向に沿ってのみ速度を有する。図4Bは、物体306bの位置に重なった画像フレーム302内の1列のピクセルを示している。1群のピクセル406の各ピクセルは、物体306bに対応し、かつX方向及びY方向に沿った速度を有する。図4Cは、物体306cの位置に重なった画像フレーム302内の1列のピクセルを示している。1群のピクセル408の各ピクセルは、物体306cに対応し、かつY方向に沿ってのみ速度を有する。1群のピクセル402内の各ピクセルは、背景に対応する。
実施形態において、画像フレーム302内の各ピクセルに対応する動きベクトルは、X及びY方向に対して別々に計算することができる。計算された動きベクトルは、画像フレームのX及びY方向における各ピクセルの速度に関する情報を提供する。実施形態において、動きベクトルアルゴリズムは、各ピクセルの動きベクトルの信頼性に関する情報を提供することができない。この問題は、ローカルテクスチャを計算し、これを動きベクトル信頼性マップとして使用することによって修正することができる。閾値よりも上の空間的勾配の絶対値を有するピクセルは、信頼できる動きベクトルを有すると考えることができる。プロセッサ202は、計算された動きベクトルに基づいて、画像フレーム302に対するX方向及びY方向における平均ピクセル速度を計算することができる。各ピクセルの奥行は、ピクセル(308aのような)の列内の各ピクセルに対応するX及びY方向における速度、及びX方向及びY方向それぞれにおける画像フレーム302の平均ピクセル速度に基づいて決定することができる。上述の式1は、ピクセル(308aのような)の列内の各ピクセルに関連付けられた奥行の値を決定するのに使用することができる。適切に定義された速度ベクトルを有するピクセルだけが、平均速度及び奥行の値に計算に関わっている。適切に定義されていない速度を有するピクセルの奥行は、ゼロに等しく割り当てられる(これらが背景ピクセルであるように)。3D映画を見ている間、人間の脳は、テクスチャを有する最も近いエリアから奥行を補間しながらこれらのピクセルに奥行を割り当てる。
実施形態において、プロセッサ202は、ピクセルの動きベクトル、背景ピクセルの平均垂直速度及び平均水平速度に基づいて、画像フレーム302内の各ピクセルの奥行マップを計算することができる。プロセッサ202は、奥行マップに基づいて画像フレーム302に対応する立体画像対を発生させることができる。立体画像フレームは、左画像及び右画像を含むことができる。左画像は、前景ピクセルを特定の値だけ左にシフトすることによって生成することができる。右画像は、前景ピクセルを特定の値だけ右にシフトすることによって生成することができる。特定の値は、前景ピクセルの各々に関連付けられた奥行の値に比例することができる。
左画像及び右画像を含む立体画像対は、画像フレーム302に対応する3Dコンテンツを形成する。3Dコンテンツの立体効果は、コンピュータデバイス102のI/Oデバイス210に表示することができる。実施形態において、コンピュータデバイス102は、3Dコンテンツをコンピュータデバイス102に関連付けられた別の表示デバイスに通信することができる。例えば、コンピュータデバイス102(例えば、スマートフォン)は、3Dコンテンツを表示デバイス(例えば、モニタ)に通信することができる。従って、コンピュータデバイス102を使用してリアルタイムの2D対3Dコンテンツ変換を実現させることができる。
実施形態において、奥行マージンを調整して画面からの視聴者の距離を適合させるために比例の係数を使用することができる。これは、対応する2D画像フレームから高品質の3Dコンテンツの発生を生じさせることができる。
実施形態において、プロセッサ202は、動きベクトル及び/又は奥行マップを計算すると同時に、所定の係数(各方向における2倍のような)によって画像フレーム302を縮小することができる。縮小されたフレームに対して計算され、かつオリジナルサイズフレームに再度適用された奥行の知覚は、オリジナルサイズの画像で直接に計算された奥行マップに比べて人間の眼に見分けがつかないことがある。しかし、本発明の開示はこれに制限されず、本発明の開示の範囲を制限することなく他の所定の係数を利用することができる。更に、プロセッサ202は、動きベクトルの計算のために画像フレーム302又は縮小された画像フレームのピクセルの発光コンポーネントを利用することができる。実施形態において、プロセッサ202は、動きベクトルの計算のために、縮小された画像フレーム内の所定の範囲のテクスチャを有するピクセルの発光コンポーネントを利用することができる。
実施形態において、プロセッサ202は、各ピクセルに関連付けられた奥行を計算するために、メモリ206にピクセルの部分集合(308aのような)を格納することができる。従って、メモリ206は、ある時点でピクセルの1つの列を格納することができるので、フルフレームメモリに対する必要性を克服することができる。従って、本明細書で開示する方法によってメモリ使用における大幅な低減を実現させることができる。更に、画像フレームのピクセル解像度を低減し、かつ列内のピクセルの数を低減することで、計算に対するメモリ要件を更に低減することができる。実施形態において、プロセッサ202は、所定の範囲のテクスチャを有する縮小された画像フレーム内のピクセルの発光コンポーネントに対して演算することができ、計算及びメモリ要件を更に低減する。
別の実施形態により、1つ又はそれよりも多くの列に対する計算をパラレルに実行することによって計算時間を短縮することができる。しかし、本発明の開示はこれに制限されず、本発明の開示の範囲を制限することなく計算時間を短縮するための他の技術を利用することができる。
上述の方法は、2D対3Dコンテンツ変換を与えるためにコンピュータデバイス102に関連付けられたチップに格納することができる。更に、本発明の開示に記述する方法は、2D対3Dコンテンツ変換を与えるために使用することができる独立型デバイスを与えるために、動きベクトル計算チップと組み合わせることができる。
図5は、本発明の開示の実施形態によるコンピュータデバイスでのリアルタイム2D対3D変換を与えるための例示的な段階を示す流れ図である。図5に関しては、方法500が示されている。方法500は、図1、図2、図3、及び図4の要素に関連して説明する。
例示的な段階は、段階502で始まる。段階504で、コンピュータデバイス102は、外部デバイス(104aのような)によって通信された2Dコンテンツを受信することができる。プロセッサ202は、外部デバイス(104aのような)によって通信された2Dコンテンツに対応する画像フレーム302を受信することができる。段階506で、プロセッサ202は、低ピクセル解像度を有する画像フレームを取得するために所定の係数だけ2Dコンテンツに対応する画像フレーム302を縮小することができる。段階508で、プロセッサ202は、低ピクセル解像度を有する画像フレーム内の閾値よりも上のテクスチャを有するピクセルに対する動きベクトルを計算することができる。段階510で、プロセッサ202は、低ピクセル解像度を有する画像フレーム内のピクセルの第1の列を選択することができる。
段階512で、プロセッサ202は、ピクセルの選択された列に対する平均ピクセル速度を計算することができる。段階514で、プロセッサ202は、ピクセルの選択された列に対する平均ピクセル速度に基づいて選択された列内の各ピクセルに対する奥行の値を決定することができる。段階516で、プロセッサ202は、選択された列が画像フレーム302の最後の列か否かを検査する。選択された列が最後の列ではない場合に、処理は、段階518に進む。段階518で、プロセッサ202は、次の列を選択して段階512に進む。選択された列が最後の列である場合に、処理は、段階520に進む。段階520で、プロセッサは、画像フレーム302に対応する立体画像対を発生させることができる。立体画像対は、画像フレーム302内の各ピクセルに関連付けられた奥行の値に基づいて発生させることができる。方法500は、段階522で終了する。
図6は、本発明の開示の別の実施形態によるコンピュータデバイスでのリアルタイム2D対3D変換を与えるための例示的な段階を示す流れ図である。図6に関しては、方法600が示されている。方法600は、図1、図2、図3、及び図4の要素に関連して説明する。
例示的な段階は、段階602で始まる。段階604で、コンピュータデバイス102は、外部デバイス(104aのような)によって通信された2Dコンテンツを受信することができる。プロセッサ202は、外部デバイス(104aのような)によって通信された2Dコンテンツに対応する画像フレーム302を受信することができる。段階606で、プロセッサ202は、低ピクセル解像度を有する画像フレームを取得するために所定の係数だけ2Dコンテンツに対応する画像フレーム302を縮小することができる。段階608で、プロセッサ202は、低ピクセル解像度を有する画像フレームにおいて、ある一定の閾値よりも上のテクスチャを有するピクセルの動きベクトルを計算することができる。段階610で、プロセッサ202は、受信した画像フレームに対する平均ピクセル速度を計算することができる。
段階612で、プロセッサ202は、低ピクセル解像度を有する画像フレームのピクセルの第1の列を選択することができる。段階614で、プロセッサ202は、選択された列内の各ピクセルに対する奥行の値を決定することができる。段階616で、プロセッサ202は、選択された列が画像フレーム302の最後の列であるか否かを検査する。選択された列が最後の列ではない場合に、処理は、段階618に進む。段階618で、プロセッサ202は、次の列を選択して段階614に進む。選択された列が最後の列である場合に、処理は、段階620に進む。段階620で、プロセッサは、画像フレーム302に対応する立体画像対を発生させることができる。立体画像対は、画像フレーム302内の各ピクセルに関連付けられた奥行の値に基づいて発生させることができる。方法600は、段階622で終了する。
本発明の開示の実施形態により、映像処理のための装置は、外部デバイス(図1の104aのような)と通信可能に結合することができるコンピュータデバイス102(図1)を含むことができる。コンピュータデバイス102は、1つ又はそれよりも多くのプロセッサ及び/又は回路を含むことができ、例えば、プロセッサ202(図2)は、画像フレーム302(図3)のピクセルの部分集合(308aのような)の平均垂直速度及び平均水平速度を決定することができる。1つ又はそれよりも多くのプロセッサ及び/又は回路は、ピクセルの部分集合(308aのような)の各ピクセルの計算された動きベクトル、ピクセルの部分集合の平均垂直速度、及びピクセルの部分集合の平均水平速度に基づいて、ピクセルの部分集合(308aのような)の各ピクセルの奥行の値を決定することができる。実施形態において、1つ又はそれよりも多くのプロセッサ及び/又は回路は、ピクセルの部分集合(308aのような)の各ピクセルの計算された動きベクトル、画像フレーム302の平均垂直ピクセル速度、及び画像フレーム302の平均水平ピクセル速度に基づいて、ピクセルの部分集合(308aのような)の各ピクセルの奥行の値を決定することができる。平均垂直ピクセル速度及び平均水平ピクセル速度は、画像フレームの予め決定された動きベクトルを有するピクセルに基づいて決定することができる。1つ又はそれよりも多くのプロセッサ及び/又は回路は、画像フレーム302内の各ピクセルの決定された奥行の値に基づいて、画像フレーム302に対する立体画像対を発生させることができる。
1つ又はそれよりも多くのプロセッサ及び/又は回路、例えば、プロセッサ202は、奥行マップに基づいて画像フレーム302の立体画像対を発生させることができる。1つ又はそれよりも多くのプロセッサ及び/又は回路、例えば、プロセッサ202は、左画像及び右画像を発生させることができる。左画像は、画像フレーム302内の各ピクセルを特定の値だけ左にシフトすることによって発生させることができ、右画像は、画像フレーム302内の各ピクセルを特定の値だけ右にシフトすることによって発生させることができる。画像フレーム302内の各ピクセルに対応する特定の値は、ピクセルに関連付けられた奥行の値に比例することができる。
1つ又はそれよりも多くのプロセッサ及び/又は回路、例えば、プロセッサ202は、外部デバイス104(図1)及び/又はローカルメモリ(図2の204のような)の一方又は両方から画像フレーム302を受信することができる。外部デバイス104は、ビデオプレーヤ104a、セットトップボックス104b、パーソナルビデオレコーダ104c、クラウドサーバ104d、及び/又はビデオカメラ104eのうちの1つ又はそれよりも多くを含むことができる。コンピュータデバイス102は、テレビジョン、スマートフォン、タブレット、ラップトップ、及び/又はデスクトップコンピュータのうちの1つ又はそれよりも多くを含むことができる。
本発明の開示の他の実施形態は、持続性コンピュータ可読媒体及び/又はストレージ媒体、及び/又は持続性機械可読媒体及び/又はストレージ媒体を提供することができ、そこには機械及び/又はコンピュータによって実行可能な少なくとも1つのコード部分を有する機械コード及び/又はコンピュータプログラムが格納されており、それによって機械及び/又はコンピュータをして映像処理のための外部デバイスと通信可能に結合されたコンピュータデバイスに含まれる段階を実行させる。これらの段階は、画像フレームのピクセルの部分集合の平均垂直速度及び/又は平均水平速度を決定する段階を含むことができる。これらの段階は、ピクセルの部分集合の各ピクセルの計算された動きベクトル、平均垂直速度、及び平均水平速度に基づいてピクセルの部分集合の各ピクセルの奥行の値を決定する段階を含むことができる。ピクセルの部分集合は、予め決定された動きベクトルを有するピクセルを含む。
従って、本発明の開示は、ハードウエア、又はハードウエアとソフトウエアの組合せで実現させることができる。本発明の開示は、少なくとも1つのコンピュータシステムにおける集中化方式で、又は異なる要素をいくつかの相互接続したコンピュータシステムにわたって分散することができる分散方式で実現させることができる。本明細書に記述した方法を実施するようなったいずれの種類のコンピュータシステム又は他の装置も適切であると考えられる。ハードウエア及びソフトウエアの組合せは、ロードされて実行された時にコンピュータシステムをそれが本明細書に記述する方法を実施するように制御することができるコンピュータプログラムを備えた汎用コンピュータシステムとすることができる。本発明の開示は、他の機能を行う集積回路の一部分を含むハードウエアに実現させることができる。
本発明の開示はまた、本明細書に記述した方法の実施を可能にする特徴の全てを含み、かつコンピュータシステムにロードされた時にこれらの方法を実施することができるコンピュータプログラム製品に具現化することができる。コンピュータプログラムは、本発明の文脈では、情報処理能力を有するシステムをして特定の機能を直接に又はa)別の言語、コード、又は表記への変換、b)異なる内容形態での複製のいずれか又は両方の後で行わせるように意図された1組の命令のいずれかの言語、コード、又は表記によるあらゆる表現を意味する。
本発明の開示を様々な実施形態に関して記述したが、本発明の開示の範囲から逸脱することなく様々な変更を行うことができ、かつ均等物で置換することができることは当業者によって理解されるであろう。これに加えて、本発明の開示の範囲から逸脱することなく、特定の状況又は内容を本発明の開示の教示に適応させるために多くの修正を行うことができる。従って、本発明の開示は、開示した特定の実施形態に制限されず、むしろ、本発明の開示は、添付の特許請求の範囲に該当する全ての実施形態を含むことになるように意図している。
100 ネットワーク環境
102 コンピュータデバイス
104d クラウドサーバ
104e ビデオカメラ
106 通信ネットワーク

Claims (19)

  1. 映像処理の方法であって、
    コンピュータデバイスにおいて、
    画像フレーム内のピクセルの部分集合の各ピクセルに対して、該ピクセルの部分集合の各ピクセルの計算された動きベクトルと、前記ピクセルの部分集合の平均垂直ピクセル速度及び平均水平ピクセル速度とに基づいて奥行の値を決定する段階、
    を含み、
    前記ピクセルの部分集合は、前記画像フレーム内のピクセルの1つの列である、
    ことを特徴とする方法。
  2. 映像処理の方法であって、
    コンピュータデバイスにおいて、
    画像フレーム内のピクセルの部分集合の平均垂直速度及び/又は平均水平速度を決定する段階と、
    前記ピクセルの部分集合の各ピクセルに対して、該ピクセルの部分集合の該各ピクセルの計算された動きベクトル、前記平均垂直速度、及び前記平均水平速度に基づいて奥行の値を決定する段階と、
    を含み、
    前記ピクセルの部分集合は、前記画像フレーム内のピクセルの1つの列である、
    ことを特徴とする方法。
  3. 前記画像フレーム内の前記各ピクセルに対して前記決定された奥行の値に基づいて該画像フレームに対する立体画像対を発生させる段階を含むことを特徴とする請求項2に記載の方法。
  4. 前記発生された立体画像対は、
    前記画像フレーム内の前記各ピクセルが特定の値だけ左にシフトされた左画像と、
    前記画像フレーム内の前記各ピクセルが前記特定の値だけ右にシフトされた右画像と、
    を含み、
    前記特定の値は、前記画像フレーム内の前記各ピクセルに関連付けられた前記決定された奥行の値に比例する、
    ことを特徴とする請求項3に記載の方法。
  5. 前記ピクセルの部分集合の前記各ピクセルの前記計算された動きベクトルは、X及び/又はY方向の該各ピクセルの速度を含むことを特徴とする請求項2に記載の方法。
  6. 前記画像フレームは、2次元(2D)画像フレームであることを特徴とする請求項2に記載の方法。
  7. 前記画像フレームは、低減されたピクセル解像度を有する2次元(2D)画像フレームであることを特徴とする請求項2に記載の方法。
  8. 前記画像フレームを外部デバイス及び/又はローカルメモリの一方又は両方から受信する段階を含むことを特徴とする請求項2に記載の方法。
  9. 前記コンピュータデバイスは、テレビジョン、スマートフォン、タブレット、ラップトップ、及び/又はデスクトップコンピュータのうちの1つ又はそれよりも多くを含むことを特徴とする請求項2に記載の方法。
  10. 前記外部デバイスは、ビデオプレーヤ、セットトップボックス、パーソナルビデオレコーダ、ビデオカメラ、及び/又はクラウドサーバのうちの1つ又はそれよりも多くを含むことを特徴とする請求項に記載の方法。
  11. 映像処理のためのコンピュータデバイスであって、
    画像フレーム内のピクセルの部分集合の平均垂直速度及び/又は平均水平速度を決定し、かつ
    前記ピクセルの部分集合の各ピクセルに対して、該ピクセルの部分集合の該各ピクセルの計算された動きベクトル、前記平均垂直速度、及び前記平均水平速度に基づいて奥行の値を決定する、
    ように作動可能である1つ又はそれよりも多くのプロセッサ及び/又は回路、
    を含み、
    前記ピクセルの部分集合は、前記画像フレーム内のピクセルの1つの列である、
    ことを特徴とするコンピュータデバイス。
  12. 前記1つ又はそれよりも多くのプロセッサ及び/又は回路は、前記画像フレーム内の前記各ピクセルに対して前記決定された奥行の値に基づいて該画像フレームに対する立体画像対を発生させるように作動可能であることを特徴とする請求項11に記載のコンピュータデバイス。
  13. 前記1つ又はそれよりも多くのプロセッサ及び/又は回路は、左画像及び右画像を発生させることに基づいて前記立体画像を発生させるように作動可能であり、
    前記左画像は、前記画像フレーム内の前記各ピクセルを特定の値だけ左にシフトすることによって発生され、
    前記右画像は、前記画像フレーム内の前記各ピクセルを前記特定の値だけ右にシフトすることによって発生され、
    前記特定の値は、前記画像フレームの前記各ピクセルの前記決定された奥行の値に比例する、
    ことを特徴とする請求項12に記載のコンピュータデバイス。
  14. 前記1つ又はそれよりも多くのプロセッサ及び/又は回路は、深度マップを計算するように作動可能であり、
    上限奥行の値が、前記ピクセルの部分集合に対する奥行の値の範囲に基づいている、
    ことを特徴とする請求項11に記載のコンピュータデバイス。
  15. 前記ピクセルの部分集合は、前記画像フレーム内の1つ又はそれよりも多くの列のピクセルを含むことを特徴とする請求項11に記載のコンピュータデバイス。
  16. 前記ピクセルの部分集合の前記各ピクセルの前記計算された動きベクトルは、X及び/又はY方向の該各ピクセルの速度を含むことを特徴とする請求項11に記載のコンピュータデバイス。
  17. 前記1つ又はそれよりも多くのプロセッサ及び/又は回路は、前記画像フレームを外部デバイス及び/又はローカルメモリの一方又は両方から受信するように作動可能であることを特徴とする請求項11に記載のコンピュータデバイス。
  18. 前記外部デバイスは、ビデオプレーヤ、セットトップボックス、パーソナルビデオレコーダ、ビデオカメラ、及び/又はクラウドサーバのうちの1つ又はそれよりも多くを含むことを特徴とする請求項17に記載のコンピュータデバイス。
  19. テレビジョン、スマートフォン、タブレット、ラップトップ、及び/又はデスクトップコンピュータのうちの1つ又はそれよりも多くを含むことを特徴とする請求項11に記載のコンピュータデバイス。
JP2014113801A 2013-06-06 2014-06-02 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置 Active JP5858254B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/911,389 2013-06-06
US13/911,389 US9483836B2 (en) 2011-02-28 2013-06-06 Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content

Publications (2)

Publication Number Publication Date
JP2014239436A JP2014239436A (ja) 2014-12-18
JP5858254B2 true JP5858254B2 (ja) 2016-02-10

Family

ID=52144931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014113801A Active JP5858254B2 (ja) 2013-06-06 2014-06-02 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置

Country Status (2)

Country Link
JP (1) JP5858254B2 (ja)
CN (1) CN104243950B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111647807B (zh) * 2020-05-18 2022-03-04 樟树市兴隆高新材料有限公司 一种高合金模具钢及其制备工艺
CN115786816B (zh) * 2022-12-14 2024-03-01 河钢股份有限公司 一种可控共晶碳化物高强高韧冷作模具钢及其制备方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104615421A (zh) * 2014-12-30 2015-05-13 广州酷狗计算机科技有限公司 虚拟礼物展示方法和装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2001359119A (ja) * 2000-06-15 2001-12-26 Toshiba Corp 立体映像生成方法
JP3938122B2 (ja) * 2002-09-20 2007-06-27 日本電信電話株式会社 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
JP2006014121A (ja) * 2004-06-29 2006-01-12 Sanyo Electric Co Ltd 画像符号化方法、画像符号化装置および撮像装置
WO2011030399A1 (ja) * 2009-09-08 2011-03-17 株式会社 東芝 画像処理方法及び装置
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
KR20120049997A (ko) * 2010-11-10 2012-05-18 삼성전자주식회사 영상 변환 장치 및 이를 이용하는 디스플레이 장치와 그 방법들
US9171372B2 (en) * 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
EP2629531A4 (en) * 2011-08-18 2015-01-21 Beijing Goland Tech Co Ltd METHOD FOR CONVERTING 2D IMAGES IN 3D BASED ON MOTION IMAGE INFORMATION
CN102724531B (zh) * 2012-06-05 2015-08-12 上海易维视科技有限公司 一种二维视频转三维视频的方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111647807B (zh) * 2020-05-18 2022-03-04 樟树市兴隆高新材料有限公司 一种高合金模具钢及其制备工艺
CN115786816B (zh) * 2022-12-14 2024-03-01 河钢股份有限公司 一种可控共晶碳化物高强高韧冷作模具钢及其制备方法

Also Published As

Publication number Publication date
CN104243950A (zh) 2014-12-24
CN104243950B (zh) 2016-08-24
JP2014239436A (ja) 2014-12-18

Similar Documents

Publication Publication Date Title
EP3707674B1 (en) Method and apparatus for performing depth estimation of object
US9483836B2 (en) Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
WO2020143191A1 (en) Image frame prediction method, image frame prediction apparatus and head display apparatus
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
JP5561781B2 (ja) 2d画像データを立体画像データに変換する方法およびシステム
US8908011B2 (en) Three-dimensional video creating device and three-dimensional video creating method
US9153032B2 (en) Conversion method and apparatus with depth map generation
US9300940B2 (en) Method and apparatus for converting 2-dimensional image into 3-dimensional image by adjusting depth of the 3-dimensional image
JP5425897B2 (ja) 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
JP4903240B2 (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
US20150009306A1 (en) Mapping sub-portions of three-dimensional (3d) video data to be rendered on a display unit within a comfortable range of perception of a user thereof
US8730302B2 (en) Method and system for enhancing 3D effects for 3D video rendering
US10742951B2 (en) Image generation apparatus and method of generating virtual view-point image
US9973694B1 (en) Image stitching to form a three dimensional panoramic image
US20120098932A1 (en) Disparity estimation system, apparatus, and method for estimating consisten disparity from multi-viewpoint video
US11222409B2 (en) Image/video deblurring using convolutional neural networks with applications to SFM/SLAM with blurred images/videos
US11503267B2 (en) Image processing device, content processing device, content processing system, and image processing method
US8610707B2 (en) Three-dimensional imaging system and method
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US9571810B2 (en) Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing
JP5858254B2 (ja) 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置
KR102265109B1 (ko) 영상 처리 방법 및 장치
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
WO2012153378A1 (ja) 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム
Kovacs et al. 3D capturing using multi-camera rigs, real-time depth estimation and depth-based content creation for multi-view and light-field auto-stereoscopic displays

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151201

R151 Written notification of patent or utility model registration

Ref document number: 5858254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250