JPWO2012153378A1 - 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム - Google Patents

立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム Download PDF

Info

Publication number
JPWO2012153378A1
JPWO2012153378A1 JP2013513836A JP2013513836A JPWO2012153378A1 JP WO2012153378 A1 JPWO2012153378 A1 JP WO2012153378A1 JP 2013513836 A JP2013513836 A JP 2013513836A JP 2013513836 A JP2013513836 A JP 2013513836A JP WO2012153378 A1 JPWO2012153378 A1 JP WO2012153378A1
Authority
JP
Japan
Prior art keywords
image
partial
parallax
stereoscopic
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013513836A
Other languages
English (en)
Other versions
JP5765418B2 (ja
Inventor
敏郎 大櫃
敏郎 大櫃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2012153378A1 publication Critical patent/JPWO2012153378A1/ja
Application granted granted Critical
Publication of JP5765418B2 publication Critical patent/JP5765418B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

複数の部分画像を含む第1画像、及び、前記第1画像に含まれる複数の部分画像とそれぞれ対応する複数の部分画像を含む第2画像を格納する格納部と、前記第1画像に含まれる第1部分画像の存在位置である第1位置と、前記第1画像に含まれる第2部分画像の存在位置である第2位置とを抽出し、前記第1位置と前記第2位置との差分である第1差分量を算出し、前記第1差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出し、前記第3部分画像の前記第3位置に基づいて、第3画像を生成する演算部とを備える立体視画像生成装置とする。

Description

本発明は、立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラムに関する。
隣接した2つのカメラで撮影した画像の視差を利用して立体視が可能な画像を生成する立体視画像生成装置がある。立体視画像生成装置は、例えば、隣接した2つのカメラで撮影した画像のうち、一方のカメラによる画像を左眼用画像として、他方のカメラによる画像を右眼用画像として、生成して表示し、視聴者に立体的な画像を感じさせる。
同一の対象物に対して、左眼用画像における位置と、右眼用画像における位置との差を、視差という。画像内に存在する2つの対象物で、視差量が異なることにより、一方の対象物が他方の対象物に対して手前または奥に存在するように見える。視差量は、視差の大きさである。
図1は、立体視画像の例を示す図である。図1において、画像910が左眼用画像であり、画像920が右眼用画像である。ここで、左眼用画像である画像910、及び、右眼用画像である画像920には、それぞれ、物体A、物体B、物体Cが存在する。画像910及び画像920との間における、これらの物体の視差により、図1の立体視画像を見る者には、手前から、物体A、物体B、物体Cが存在するように見える。
特開平11−088910号公報 特開平08−331598号公報 特開平09−074573号公報 特開2001−016620号公報 特開平09−224267号公報 特開2010−206774号公報
立体視画像において、カメラから背面までの距離に対するカメラから手前の物体までの距離の比が1に近い場合、立体画像であっても平面的な画像になり、立体感が無くなる。また、画像内の複数のオブジェクト(物体)において、カメラからの距離に差がない場合、立体視画像であっても、立体感のない画像となる。しかし、立体視画像においては、カメラから複数のオブジェクト(物体)までの距離に差がない場合であっても、立体感を強調することが求められる。
本件開示の装置は、立体視画像の立体感を変更する立体視画像生成装置を提供することを課題とする。
開示の立体視画像生成装置は、上記課題を解決するために、以下の手段を採用する。
即ち、開示の一態様は、
複数の部分画像を含む第1画像、及び、前記第1画像に含まれる複数の部分画像とそれぞれ対応する複数の部分画像を含む第2画像を格納する格納部と、
前記第1画像に含まれる第1部分画像の存在位置である第1位置と、前記第1画像に含まれる第2部分画像の存在位置である第2位置とを抽出し、
前記第1位置と前記第2位置との差分である第1差分量を算出し、
前記第1差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出し、
前記第3部分画像の前記第3位置に基づいて、第3画像を生成する演算部と、
を備える立体視画像生成装置とする。
開示の装置によれば、立体視画像の立体感を変更する立体視画像生成装置を提供することができる。
図1は、立体視画像の例を示す図である。 図2は、立体視画像における視差を説明する図である。 図3は、立体視画像生成装置の例を示す図である。 図4は、情報処理装置のハードウェア構成例を示す図である。 図5は、立体視画像生成装置の動作フローの例(1)を示す図である。 図6は、立体視画像生成装置の動作フローの例(2)を示す図である。 図7は、ステップS105およびステップS106の処理の具体例を示す図である。 図8は、視差位相角情報の例を示す図である。 図9は、基準オブジェクトの座標と、1つの他のオブジェクトの左眼用画像における座標および右眼用画像における座標の例を示す図である。 図10は、ステップS110の処理後の、基準オブジェクトの座標と、1つの他のオブジェクトの左眼用画像における座標および右眼用画像における座標の例を示す図である。
以下、図面を参照して実施形態について説明する。実施形態の構成は例示であり、開示の実施形態の構成に限定されない。
ここでは、主として、隣接する2つのカメラで撮影された画像による立体視画像を使用して説明しているが、立体視画像は、これに限定されず、例えば、人工的に生成された2つの画像によるもの等であってもよい。また、立体視画像は、立体視動画像であってもよい。
〔実施形態1〕
(視差)
図2は、立体視画像における視差を説明する図である。図2において、例えば、同一の対象物に対して、隣接する2つのカメラで撮影された画像のうち、左眼用画像を画像10、右眼用画像を画像20とする。図2の例では、画像10及び画像20に、同一の対象物である、物体1が含まれている。ここで、点P1は、画像10において物体1の位置を代表する点とする。点P2は、画像20において、物体1の位置を代表する点とする。物体1の位置を代表する点は、例えば、物体1の中心点としてもよいし、物体1の右端かつ下端の点としてもよい。物体1の位置を代表する点は、これらに限定されない。点P1及び点P2は、それぞれ、物体1において同一位置を示す点である。点P1および点P2は、それぞれ、画像10における物体1の位置および画像20における物体1の位置ともいう。
立体視画像における視差は、同一の対象物の、左眼用画像における位置と右眼用画像における位置との差である。視差量は、視差の大きさである。
図2の画像10及び画像20において、物体1の視差量は、画像10における物体1の位置(点P1)と、画像20における物体1の位置(点P2)との差である。即ち、画像10における点P1の座標を(XL,YL)、画像20における点P2の座標を(XR,YR)とすると、物体1の視差量は、次のように表される。
Figure 2012153378
ここで、ΔXは、横方向の視差量を示し、ΔYは縦方向の視差量を示す。
例えば、右眼用画像を、この視差量分、平行移動することにより、立体視画像における物体1の視差がなくなる。
(構成)
図3は、立体視画像生成装置の例を示す図である。立体視画像生成装置100は、取得部110、演算部120、格納部130を含む。
取得部110は、外部または内部の入力装置から、画像を取得する。取得部110が取得する画像は、立体視画像の、左眼用画像、及び、右眼用画像である。取得部110が取得した画像は、格納部130に格納される。
左眼用画像及び右眼用画像は、それぞれ、対応付けられて、格納部130に格納される。各画像は、画像内の点毎に画素値を有する。画素値は、点の色などを示す情報である。画素値は、例えば、RGB表色系のR(Red)値、G(Green)値、B(Blue)値で表される。RGB表色系の代わりに、他の表色系(例えば、YUV表色系)によるパラメータ(値)が使用されてもよい。YUV表色系によるパラメータが使用された場合、輝度値として、Y(Yellow)値が使用されてもよい。
演算部120は、取得部110が取得した画像に対して、視差量の算出を行い、立体視画像を生成する。演算部120が生成した立体視画像は、格納部130に格納される。
格納部130は、取得部110が取得した画像、及び、演算部120が生成した立体視画像、演算部120が算出した視差量、生成する立体視画像に対してあらかじめ定められたオフセット量等を格納する。
表示部140は、格納部130に格納される画像等を表示する。
受信部150は、基準オブジェクトの選択等の、ユーザからの入力を受け付ける。
図4は、情報処理装置300のハードウェア構成例を示す図である。立体視画像生成装置100は、例えば、図4に示すような情報処理装置300によって、実現される。情報処理装置300は、CPU(Central Processing Unit)302、メモリ304、記憶部306、入力部308、出力部310、通信部312を含む。
情報処理装置300は、CPU302が記録部306に記憶されたプログラムをメモリ304の作業領域にロードして実行し、プログラムの実行を通じて周辺機器が制御されることによって、所定の目的に合致した機能を実現することができる。
CPU302は、記憶部306に格納されるプログラムに従って処理を行う。メモリ304は、CPU302がプログラムやデータをキャッシュしたり作業領域を展開したりする。メモリ304は、例えば、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。
記憶部306は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。記憶部306としては、ソリッドステートドライブ装置、ハードディスクドライブ装置、CD(Compact Disc)ドライブ装置、DVD(Digital Versatile Disk)ドライブ装置、+R/+RWドライブ装置、HD DVD(High-Definition Digital Versatile Disk)ドライブ装置、または、BD(Blu-ray Disk)ドライブ装置がある。また、記録媒体としては、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、+R/+RW、HD DVD、または、BDがある。CDとしては、CD−R(Recordable)、CD−RW(Rewritable)、CD−ROMがある。DVDとしては、DVD−R、DVD−RAM(Random Access Memory)がある。BDとしては、BD−R、BD−RE(Rewritable)、BD−ROMがある。
入力部308は、ユーザ等からの操作指示等を受け付ける。入力部308は、キーボード、ポインティングデバイス、ワイヤレスリモコン、マイクロフォン、複数のカメラ等の入力デバイスである。入力部308から入力された情報は、CPU302に通知される。カメラは、測距用の赤外線センサ等を備えてもよい。
出力部310は、CPU302で処理されるデータやメモリ304に記憶されるデータを出力する。出力部310は、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence)パネル、プリンタ、スピーカ等の出力デバイスである。
通信部312は、外部装置とデータの送受信を行う。通信部312は、例えば、信号線を介して、外部装置と接続される。通信部312は、例えば、LAN(Local Area Network)インタフェースボードや、無線通信のための無線通信回路である。
情報処理装置300は、記憶部306に、オペレーティングシステム、各種プログラム、各種テーブル、を記憶している。
オペレーティングシステムは、ソフトウェアとハードウェアとの仲介、メモリ空間の管理、ファイル管理、プロセスやタスクの管理等を行うソフトウェアである。オペレーティングシステムは、通信インタフェースを含む。通信インタフェースは、通信部312を介して接続される他の外部装置等とデータのやり取りを行うプログラムである。
立体視画像生成装置100を実現できる情報処理装置300は、CPU302が記憶部306に記憶されているプログラムをメモリ304にロードして実行することによって、取得部110、演算部120、受信部150としての機能を実現する。また、格納部130は、メモリ304、記憶部306等の記憶領域に設けられる。表示部140は、CPU302、出力部310等によって実現される。受信部150は、CPU302、入力部308等によって実現される。
(動作例)
立体視画像生成装置100の動作例について説明する。以下の説明では、左及び右が使用されるが、左と右との間には、優劣はなく、互いに入れ替えることができる。例えば、以下の説明では、左眼用画像および右眼用画像が使用されるが、左眼用画像と右眼用画像との間には、優劣はなく、互いに入れ替えることができる。
立体視画像生成装置100は、左眼用画像および右眼用画像を取得し、画像に含まれるオブジェクトを定める。また、立体視画像生成装置100は、基準オブジェクトを決定し、他のオブジェクトの視差量を、当該他のオブジェクトとの基準オブジェクトとの位置関係と視差位相角とに基づいて、算出する。立体視画像生成装置100は、各オブジェクトの視差量が視差量限界値を超えないように、各オブジェクトの視差量を決定する。
図5および図6は、立体視画像生成装置100の動作フローの例を示す図である。図5の「A」は、図6の「A」と接続する。図5および図6の動作フローは、例えば、立体視画像生成装置100の電源が投入されることを契機に開始される。
立体視画像生成装置100の演算部120は、視差量限界値を取得する(S101)。視差量限界値は、例えば、格納部130に格納される。視差量限界値は、左眼用画像および右眼用画像の同一物体における視差量の最大値である。視差量限界値は、ピクセル数(画素数)で設定される。視差量限界値は、表示部140の大きさ及び画素数等に依存する量である。同一物体において視差量限界値を超える視差量があると、人が同一物体と認識できないおそれがある。視差量限界値は、表示部140の大きさに依存する。例えば、視差量限界値は、表示部140における長さが人の目の間隔以下になるように設定される。したがって、同じ画素数の表示部140で比較した場合、大型の画面の表示部140ほど、視差量限界値は小さくなる。立体視画像生成装置100の演算部120は、格納部に格納される表示部140の大きさ、画素数に基づいて、視差量限界値を算出してもよい。また、立体視画像生成装置100の演算部120は、ユーザに対して、受付部150に、視差量限界値を入力させてもよい。
取得部110は、左眼用画像および右眼用画像を取得する(S102)。取得部110は、左眼用画像および右眼用画像を、立体視画像生成装置100に内蔵されるカメラから取得してもよいし、外部装置から取得してもよい。取得された左眼用画像および右眼用画像は、格納部130に格納される。左眼用画像および右眼用画像は、あらかじめ、格納部130に格納されていてもよい。
演算部120は、ステップS102で取得した左眼用画像および右眼用画像に共通して含まれるすべてのオブジェクト(物体)を抽出する(S103)。共通するオブジェクトの抽出には、例えば、パターンマッチングが使用される。演算部120は、共通する物体(オブジェクト)のそれぞれの画像(左眼用画像及び右眼用画像)における位置を、格納部130に格納する。また、演算部120は、共通するオブジェクトの画像を格納部130に格納する。左眼用画像(または右眼用画像)におけるオブジェクト(物体)は、部分画像ともいう。
パターンマッチングは、例えば、次のように実行される。演算部120が、左眼用画像の移動する画像と右眼用画像の移動する画像とをある位置で重ね合わせ、重ね合わせられた領域の画素値の差分をとる。演算部120は、重ね合わせられた領域のうち差分が0である領域の位置及びその大きさを求める。領域の位置は、例えば、各画像における領域の中心位置とすることができる。また、演算部120は、重ね合わせる位置を任意に平行移動させて、同様に、各位置で重ね合わされた領域の差分をとり、重ね合わせられた領域のうち差分が0である領域の位置及びその大きさを求める。演算部120は、差分が0である領域の大きさが最も大きいものを抽出する。演算部120は、差分が0である領域の大きさが最も大きい領域(差分が0である領域)が、共通する物体であり、その領域(差分が0である領域)の位置が移動するオブジェクトの位置であるとすることができる。この領域は、左眼用画像と右眼用画像とで、同一の形態の同一のオブジェクトであると考えられる。なお、パターンマッチングの手法として、上記に限定されず他の周知の方法が適用されうる。これらの共通する物体は、立体視画像において同一のオブジェクトとして、立体視画像を視聴するユーザに認識されるものである。
ここで、共通する物体の画像(所定画像とする)は、あらかじめ格納部130に格納されていてもよい。このとき、演算部120は、格納部130に格納される所定画像と、左眼用画像および右眼用画像とを、パターンマッチングして、共通する物体を抽出してもよい。また、一度抽出された共通する物体の画像が、所定画像として格納部130に格納されてもよい。
演算部120は、ステップS103で抽出したオブジェクトの中から、基準オブジェクトを決定する(S104)。基準オブジェクトは、例えば、右眼用画像の中心(中央)から一番近い画像とすることができる。また、演算部120は、表示部140に右眼用画像を表示し、ユーザに対し、表示部140に表示された画像から、基準オブジェクトとする範囲を選択させてもよい。ユーザは、表示部140に表示された画像から、基準オブジェクトとする範囲を選択し、受付部150により選択した範囲を入力してもよい。演算部120は、選択された範囲の画像を抽出し、基準オブジェクトとして、格納部130に格納する。これにより、演算部120は、基準オブジェクトを特定できる。また、基準オブジェクトとしての画像が、あらかじめ、格納部130に格納されていてもよい。左眼用画像と、右眼用画像とで、それぞれ、基準オブジェクトの範囲が選択されてもよい。このとき、ユーザは、左眼用画像と、右眼用画像とで、同一の対象物について、基準オブジェクトの範囲として選択する。基準オブジェクトは、所定画像の一例である。
演算部120は、ステップS104で決定した基準オブジェクトの、左眼用画像と右眼用画像との間の視差量を算出する。ここで、演算部120は、左眼用画像における基準オブジェクトの位置を求める。また、演算部120は、右眼用画像における基準オブジェクトの位置を求める。画像における基準オブジェクトの位置は、例えば、基準オブジェクトの中心の座標である。左眼用画像および右眼用画像の基準オブジェクトは、ステップS104で決定されている。
演算部120は、左眼用画像における基準オブジェクトの位置と右眼用画像における基準オブジェクトの位置との差を、算出する。この求めた差が、視差量となる。この求めた差のうち、横方向の差が視差量ΔX、縦方向の差が視差量ΔYである。演算部120は、この横方向の視差量ΔXおよび縦方向の視差量ΔYを、格納部130に格納する。
また、演算部120は、左眼用画像と右眼用画像とを重ねあわせ、ステップS104で決定した基準オブジェクトの範囲が、左眼用画像と右眼用画像とで一致するように、一方の画像(例えば、右眼用画像)を平行移動させて、視差量を求めてもよい。視差量は、当該一方の画像(例えば、右眼用画像)の平行移動した距離(X軸方向の移動量及びY軸方向の移動量)となる。このとき、演算部120は、平行移動した距離の、横方向の距離を横方向の視差量ΔX、縦方向の距離を縦方向の視差量ΔYとして、格納部130に格納する。視差量は、正負号を含む。即ち、例えば、−X方向に平行移動した場合は、視差量ΔXは、負の量になる。
さらに、演算部120は、次のように視差量を求めてもよい。演算部120は、左眼用画像と右眼用画像とを重ねあわせて表示部140に表示する。ユーザが、表示部140に表示された画像を見ながら、受付部150により一方の画像を平行移動して、ステップS102で特定した基準オブジェクトの範囲が、左眼用画像と右眼用画像とで一致するようする。視差量は、当該一方の画像(例えば、右眼用画像)の平行移動した距離となる。演算部120は、平行移動した距離の、横方向の距離を横方向の視差量ΔX、縦方向の距離を縦方向の視差量ΔYとして、格納部130に格納する。
演算部120は、左眼用画像と右眼用画像とで、基準オブジェクトの位置を合わせる(S105)。S105の処理では、演算部120は、例えば、格納部130から右眼用画像を取り出す。そして、演算部120は、右眼画像全体を、視差量分だけ平行移動した画像を、新たな右眼用画像とする。視差量として、格納部130に格納した視差量(ΔXおよびΔY)が使用される。このように、右眼用画像の画像全体を、先に求めた視差量分(ΔXおよびΔY)だけ平行移動すると、右眼用画像における基準オブジェクトの位置が、左眼用画像における基準オブジェクトの位置と同一になる。即ち、左眼用画像と右眼用画像との間の基準オブジェクトの視差が、ほぼなくなる。演算部120は、新たな右眼用画像を、格納部130に格納する。また、演算部120は、格納部130に格納される右眼用画像のオブジェクトの位置を、視差量(ΔXおよびΔY)分平行移動した位置を新たな右眼用画像のオブジェクトの位置とする。
演算部120は、左眼用画像と右眼用画像とで、すべてのオブジェクトのY座標を調整する(S106)。S106の処理では、演算部120は、すべてのオブジェクトのY座標を、左眼用画像と右眼用画像とで合わせる。同一のオブジェクトで、左眼用画像と右眼用画像とで、Y座標が異なると、同一オブジェクトとして認識されないおそれがあるからである。演算部120は、格納部130から左眼用画像および右眼用画像を取り出す。また、演算部120は、格納部130から、すべてのオブジェクトについて、左眼用画像のオブジェクトの位置と、右眼用画像のオブジェクトの位置とを取り出す。演算部120は、各オブジェクトについて、Y座標を比較する。演算部120は、同一のオブジェクトにおいて、左眼用画像と右眼用画像とでY座標が異なる場合、右眼用画像のY座標を左眼用画像のY座標にする。また、演算部120は、同一のオブジェクトにおいて、左眼用画像のY座標と右眼用画像のY座標との平均を、左眼用画像のY座標および右眼用画像のY座標としてもよい。これにより、同一のオブジェクトにおいて、右眼用画像のY座標と左眼用画像のY座標とが同一になる。演算部120は、新たな右眼用画像(および新たな左眼用画像)を、格納部130に格納する。また、演算部120は、新たな左眼用画像における各オブジェクトの位置、および、新たな右眼用画像における各オブジェクトの位置を、格納部130に格納する。以後の処理において、新たな左眼用画像および新たな右眼用画像が使用される。
図7は、ステップS105およびステップS106の処理の具体例を示す図である。図7の左眼用画像811および右眼用画像812は、ステップS105およびステップS106の処理前の左眼用画像および右眼用画像である。また、図7の左眼用画像821および右眼用画像822は、ステップS105およびステップS106の処理後の左眼用画像および右眼用画像である。ここでは、左眼用画像は固定とし、右眼用画像を移動することにより、ステップS105およびステップS106の処理が行われている。ステップS105では、右眼用画像812の基準オブジェクトの位置が、左眼用画像811の基準オブジェクトの位置と同一になるように、移動される。ステップS106では、右眼用画像のすべてのオブジェクトのY座標が、左眼用画像811の対応するオブジェクトのY座標と同一になるように、移動される。右眼用画像822において実線で描かれたオブジェクトは、移動後のオブジェクトを示す。また、右眼用画像822において点線で描かれたオブジェクトは、移動前のオブジェクトを示す。ここでは、左眼用画像は、固定としているので、左眼用画像811と左眼用画像821とは同一である。
図5に戻って、演算部120は、立体視画像における視差位相角情報を取得する(S107)。視差位相角は、左眼用画像のオブジェクトの新たな位置を算出する際に使用される量である。視差位相角は、基準オブジェクトの位置と他のオブジェクトの右眼用画像における位置との距離に依存する量である。視差位相角は、基準オブジェクトのY座標と他のオブジェクトの右眼用画像におけるY座標との差に依存する量であってもよい。視差位相角は、左眼用画像と右眼用画像とを同一画面に表したときに、基準オブジェクトの位置から、他のオブジェクトの右眼用画像における位置に伸ばした直線と、当該他のオブジェクトの左眼用画像における位置に伸ばした直線とのなす角である。以後の処理では、基準オブジェクトの位置と、他のオブジェクトの右眼用画像における位置を固定として、当該他のオブジェクトの左眼用画像の位置を算出する。
図8は、視差位相角情報の例を示す図である。図8の例は、基準オブジェクトの位置と他のオブジェクトの右眼用画像における位置との距離と、視差位相角との対応関係を示すテーブルである。当該テーブルは、例えば、格納部130に格納される。このとき、演算部120は、視差位相角情報を、格納部130から取得できる。また、視差位相角は、基準オブジェクトの位置と他のオブジェクトの右眼用画像における位置との距離の関数として与えられてもよい。
基準オブジェクトの位置と他のオブジェクトの右眼用画像における位置との距離と、視差位相角との対応関係は、ユーザによって調整されてもよい。例えば、図8のテーブルの視差位相角の値に、任意の値を掛けることにより調整されてもよい。例えば、演算部120は、ユーザに対し、当該値を入力させてもよい。ユーザは、受付部150により当該値を入力することで、視差位相角を調整できる。また、視差位相角は、他の方法によって、調整されてもよい。視差位相角が調整されることで、立体視画像における立体感が調整される。例えば、視差位相角を大きくすることで、立体視画像における立体感が強調される。即ち、視差位相角が調整されることで、立体視画像における立体感がより強調されたり、より低減されたりし得る。
演算部120は、図8のようなテーブル、ユーザによる入力、関数などによって、基準オブジェクトの位置と他のオブジェクトの右眼用画像における位置との距離と視差位相角との対応関係である視差位相角情報を取得する。
ステップS108では、演算部120は、1つのオブジェクトについて、左眼用画像の位置と右眼用画像の位置との差である、視差量を算出する(S108)。演算部120は、格納部130から、ある1つのオブジェクトについて、左眼用画像における位置の情報と、右眼用画像における位置の情報とを取り出す。ここで、ステップS106の処理により、1つのオブジェクトについて、左眼用画像におけるY座標と、右眼用画像におけるY座標とは、同一である。よって、視差量は、左眼用画像におけるX座標と右眼用画像におけるX座標との差によって算出される。
図9は、基準オブジェクトの座標と、1つの他のオブジェクトの左眼用画像における座標および右眼用画像における座標の例を示す図である。図9の例では、点A0(Xa0,Ya0)が基準オブジェクトの座標を示す。また、点BL0(Xbl0,Ybl0)が他のオブジェクトの左眼用画像における座標を示し、点BR0(Xbr0,Ybr0)が右眼用画像における座標を示す。ここで、点BL0のY座標と点BR0のY座標とは、ステップS106の処理により同一である。また、視差量は、点BL0と点BR0とのX座標の差となる。
図6に戻って、演算部120は、ステップS108で処理したオブジェクトの視差量が、ステップS101で取得した視差量限界値以下であるか否かを確認する(S109)。オブジェクトの視差量が視差量限界値を越えている場合、立体視画像を視聴するユーザが当該オブジェクトを1つのオブジェクト(物体)と認識できないおそれがある。そのため、演算部120は、オブジェクトの視差量が視差量限界値以下か否かを確認する。
オブジェクトの視差量がステップS101で取得した視差量限界値以下である場合(S109;YES)、演算部120は、左眼用画像における当該オブジェクトの新たな位置を算出する(S110)。演算部120は、左眼用画像における当該オブジェクトの新たな位置(点BL1(Xbl1,Ybl1))を、次の式に基づいて算出する。
Figure 2012153378
角度θは、ステップS107で取得した視差位相角情報に基づく視差位相角である。視差位相角は、例えば、点A0と点BR0との距離に依存する。
ここで、角度θ、点A0の座標及び点BR0の座標は、与えられる値である。点BL1のY座標(Ybl1)は、点BR0のY座標(Ybl0)と同一とする。よって、上式は点BL1のX座標(Xbl1)についての2次式となることから、点BL1のX座標(Xbl1)が求まる。当該2次式を解くと、Xbl1として2つの解が求まるが、(Xbl0-Xbr0)の符号(正号または負号)と(Xbl1-Xbr0)の符号とが同一になる解を採る。即ち、Xbl1の解として、(Xbl0-Xbr0)と(Xbl1-Xbr0)との積が、正となるXbl1が採用される。このようにして、演算部120は、点BL1(Xbl1,Ybl1)を算出する。ただし、演算部120は、点BL1と点BR1との差(視差量)が、視差量限界値を越えている場合、点BL1としてここで算出した値を採用しない。この場合、左眼用画像における当該オブジェクトの新たな位置(点BL1(Xbl1,Ybl1))は、右眼用画像における当該オブジェクトの位置(点BR0(Xbr0,Ybr0))から、点BL0の方向に視差量限界値だけ移動した位置とする。また、点A0のY座標と点BR0のY座標とが同一である場合、演算部120は、当該オブジェクトの新たな位置を、元の位置(点BR0及び点BL0)と同一とする。演算部120は、ここで算出した位置の情報を、格納部130に格納する。点BL1の位置の算出方法は、これに限定されるものではなく、点BL1の位置が基準オブジェクトと計算対象のオブジェクトとの間の距離の関数による他の算出方法であってもよい。
図10は、ステップS110の処理後の、基準オブジェクトの座標と、1つの他のオブジェクトの左眼用画像における座標および右眼用画像における座標の例を示す図である。図10の例では、点A1(Xa1,Ya1)が基準オブジェクトの座標を示す。点A1の位置は、点A0の位置と同一である。また、点BL1(Xbl1,Ybl1)が他のオブジェクトの左眼用画像における座標を示し、点BR1(Xbr1,Ybr1)が右眼用画像における座標を示す。点BR1の位置は、点BR0の位置と同一である。角度θは、視差位相角である。角度θは、点BR1−点A0−点BL1で作られる角度である。
図6に戻って、オブジェクトの視差量がステップS101で取得した視差量限界値以下でない場合(S109;NO)、演算部120は、左眼用画像における当該オブジェクトの新たな位置を算出する(S111)。ここで、左眼用画像における当該オブジェクトの新たな位置(点BL1(Xbl1,Ybl1))は、右眼用画像における当該オブジェクトの位置(点BR0(Xbr0,Ybr0))から、点BL0の方向に視差量限界値だけ移動した位置となる。演算部120は、ここで算出した位置の情報を、格納部130に格納する。
演算部120は、すべてのオブジェクトについて、新たな位置を算出したか否かを確認する(S112)。新たな位置を算出していないオブジェクトがある場合(S112;NO)、処理がステップS108に戻り、未だ新たな位置を算出していないオブジェクトについて処理をする。すべてのオブジェクトについて新たな位置を算出した場合(S112;YES)、処理がステップS113に進む。
ステップS113では、演算部120は、立体視画像を生成する(S113)。演算部120は、ステップS110またはステップS111で算出したすべてのオブジェクトの位置に基づいて、左眼用画像及び右眼用画像に各オブジェクトを配置し、1つ(1組)の立体視画像として、格納部130に格納する。また、演算部120は、生成した立体視画像を、表示部150に表示してもよい。
格納部130に格納された立体視画像は、立体視用の表示装置において、表示されうる。立体視用の表示装置は、左眼用画像を左眼に、右眼用画像を右眼に入力するような、表示装置である。
ここで、立体視画像生成装置100の処理は、終了する。ただし、引き続いて、左眼用画像および右眼用画像が入力される場合、処理がステップS102に戻って繰り返される。また、入力される画像が動画像の場合、同様に、処理がステップS102に戻って繰り返される。
(変形例)
演算部120は、上記のステップS110での点BL1の位置の算出の代わりに、次式に基づいて、点BL1の位置を算出してもよい。
Figure 2012153378
ここで、値αは、定数である。例えば、ステップS107で、ユーザに視差位相角を調整させる代わりに、値αを調整させることができる。値αを調整することで、立体視画像における立体感が調整され得る。値αを大きくすることで、視差量が大きくなるため、立体視画像における立体感をより強調することができる。距離L2の代わりに、Y座標の差(Ybr0-Ya0)が使用されてもよい。
値(Xbl0-Xbr0)は、ステップS110における当該オブジェクトの視差量である。視差量は、奥行き方向(Z方向)の位置(座標)に依存する。カメラの位置を原点として、当該オブジェクトのZ方向(カメラの光軸方向)の位置(座標)をZbとすると、視差量は、Zbの−1乗に対して線形となる。即ち、当該オブジェクトの位置がカメラから遠ざかると(Zbが大きくなると)、視差量は、所定の値に近づく。当該オブジェクトのZ方向の位置Zbは、視差量に基づいて算出されうる。また、当該オブジェクトのZ方向の位置Zbは、例えば、カメラに付属する赤外線センサ等によって求められてもよい。当該オブジェクトの点BL1の位置は、当該オブジェクトのZ方向の位置Zbを用いて、次の式に基づいて算出されてもよい。
Figure 2012153378



ここで、値βは、定数である。値βは、例えば、S105で使用した横方向の視差量ΔXとすることができる。このとき、オブジェクトと基準オブジェクトとのZ方向の位置が同じ場合、このオブジェクトの視差量は0となる。このとき、各オブジェクトは、基準オブジェクトとのZ方向の位置の差に基づいて、新たな視差量を算出される。オブジェクトと基準オブジェクトとのZ方向の位置の差が小さいほど、新たな視差量に与える影響が大きい。また、値βは、0でもよい。
また、これらの式によれば、各オブジェクトの新たな視差量を、基準オブジェクトとの距離(画像上における距離)と元の視差量とに依存した値、または、基準オブジェクトとの距離と各オブジェクトのZ方向の位置とに依存した値とすることができる。これによれば、元の画像の(奥行き方向の)前後関係に依存した新たな立体視画像を生成することができる。
(実施形態の作用効果)
立体視画像生成装置100は、左眼用画像および右眼用画像を取得し、画像に含まれるオブジェクトを定める。また、立体視画像生成装置100は、基準オブジェクトを決定し、他のオブジェクトの視差量を、当該他のオブジェクトとの基準オブジェクトとの位置関係、視差位相角等に基づいて、算出する。また、立体視画像生成装置100は、各オブジェクトの視差量が視差量限界値を超えないように、各オブジェクトの視差量を決定する。
立体視画像生成装置100によれば、基準オブジェクトと各オブジェクトとの画面上における距離に依存した立体感を有する立体視画像を生成することができる。即ち、立体視画像生成装置100によれば、カメラからの距離に差がない複数のオブジェクトによる画像であっても、立体感を強調した立体視画像を生成することができる。
〔コンピュータ読み取り可能な記録媒体〕
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような媒体内には、CPU、メモリ等のコンピュータを構成する要素を設け、そのCPUにプログラムを実行させてもよい。
また、このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えば、フレキシブルディスク、光磁気ディスク、CD−ROM、CD−R/W、DVD、DAT、8mmテープ、メモリカード等がある。
また、コンピュータ等に固定された記録媒体としてハードディスクドライブやROM等がある。
100 立体視画像生成装置
110 取得部
120 演算部
130 格納部
140 表示部
150 受信部
300 情報処理装置
302 CPU
304 メモリ
306 記憶部
308 入力部
310 出力部
312 通信部

Claims (9)

  1. 複数の部分画像を含む第1画像、及び、前記第1画像に含まれる複数の部分画像とそれぞれ対応する複数の部分画像を含む第2画像を格納する格納部と、
    前記第1画像に含まれる第1部分画像の存在位置である第1位置と、前記第1画像に含まれる第2部分画像の存在位置である第2位置とを抽出し、
    前記第1位置と前記第2位置との差分である第1差分量を算出し、
    前記第1差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出し、
    前記第3部分画像の前記第3位置に基づいて、第3画像を生成する演算部と、
    を備える立体視画像生成装置。
  2. 前記演算部は、前記第1部分画像に対応する前記第2画像に含まれる第4部分画像の存在位置である第4位置を抽出し、前記第1位置と前記第4位置との差分である第2差分量を算出し、
    前記演算部は、さらに、前記第1差分量、及び、前記第2差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出する、
    請求項1に記載の立体視画像生成装置。
  3. 前記演算部は、前記第1部分画像の奥行き方向の位置を算出し、
    前記演算部は、さらに、前記第1差分量、及び、前記奥行き方向の位置に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出する、
    請求項1に記載の立体視画像生成装置。
  4. コンピュータが、
    複数の部分画像を含む第1画像、及び、前記第1画像に含まれる複数の部分画像とそれぞれ対応する複数の部分画像を含む第2画像を格納する記憶装置から、前記第1画像に含まれる第1部分画像の存在位置である第1位置と、前記第1画像に含まれる第2部分画像の存在位置である第2位置とを抽出し、
    前記第1位置と前記第2位置との差分である第1差分量を算出し、
    前記第1差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出し、
    前記第3部分画像の前記第3位置に基づいて、第3画像を生成することを実行する、
    立体視画像生成方法。
  5. コンピュータが、さらに、
    前記第1部分画像に対応する前記第2画像に含まれる第4部分画像の存在位置である第4位置を抽出し、前記第1位置と前記第4位置との差分である第2差分量を算出し、
    前記第1差分量、及び、前記第2差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出することを実行する、
    請求項4に記載の立体視画像生成方法。
  6. コンピュータが、さらに、
    前記第1部分画像の奥行き方向の位置を算出し、
    前記第1差分量、及び、前記奥行き方向の位置に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出することを実行する、
    請求項4に記載の立体視画像生成方法。
  7. コンピュータが、
    複数の部分画像を含む第1画像、及び、前記第1画像に含まれる複数の部分画像とそれぞれ対応する複数の部分画像を含む第2画像を格納する記憶装置から、前記第1画像に含まれる第1部分画像の存在位置である第1位置と、前記第1画像に含まれる第2部分画像の存在位置である第2位置とを抽出し、
    前記第1位置と前記第2位置との差分である第1差分量を算出し、
    前記第1差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出し、
    前記第3部分画像の前記第3位置に基づいて、第3画像を生成することを実行するための立体視画像生成プログラム。
  8. コンピュータが、さらに、
    前記第1部分画像に対応する前記第2画像に含まれる第4部分画像の存在位置である第4位置を抽出し、前記第1位置と前記第4位置との差分である第2差分量を算出し、
    前記第1差分量、及び、前記第2差分量に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出することを実行するための請求項7に記載の立体視画像生成プログラム。
  9. コンピュータが、さらに、
    前記第1部分画像の奥行き方向の位置を算出し、
    前記第1差分量、及び、前記奥行き方向の位置に基づいて、前記第1部分画像に対応する前記第2画像に含まれる第3部分画像の新たな存在位置である第3位置を算出することを実行するための、
    請求項7に記載の立体視画像生成プログラム。
JP2013513836A 2011-05-06 2011-05-06 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム Expired - Fee Related JP5765418B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/060604 WO2012153378A1 (ja) 2011-05-06 2011-05-06 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2012153378A1 true JPWO2012153378A1 (ja) 2014-07-28
JP5765418B2 JP5765418B2 (ja) 2015-08-19

Family

ID=47138881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013513836A Expired - Fee Related JP5765418B2 (ja) 2011-05-06 2011-05-06 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム

Country Status (4)

Country Link
US (1) US9854223B2 (ja)
EP (1) EP2706748A4 (ja)
JP (1) JP5765418B2 (ja)
WO (1) WO2012153378A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6242104B2 (ja) * 2013-07-30 2017-12-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017108194A (ja) * 2014-04-22 2017-06-15 株式会社ニコン 画像処理装置、撮像装置及び画像処理プログラム
CN109716761B (zh) * 2016-09-23 2020-12-08 日本电信电话株式会社 图像生成装置、图像生成方法以及记录介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3157384B2 (ja) * 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
JPH08331598A (ja) 1995-03-29 1996-12-13 Sanyo Electric Co Ltd 立体映像表示装置
US5784097A (en) 1995-03-29 1998-07-21 Sanyo Electric Co., Ltd. Three-dimensional image display device
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
JP3579162B2 (ja) 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
JPH09224267A (ja) 1996-02-16 1997-08-26 Olympus Optical Co Ltd 立体映像作成装置及び立体映像表示装置並びにシステム
JPH1188910A (ja) 1997-09-02 1999-03-30 Canon Inc 3次元モデル生成装置、3次元モデル生成方法、3次元モデル生成プログラムを記録した媒体、3次元モデル再生装置、3次元モデル再生方法及び3次元モデル再生プログラムを記録した媒体
US20020113865A1 (en) 1997-09-02 2002-08-22 Kotaro Yano Image processing method and apparatus
JP4208351B2 (ja) 1999-06-30 2009-01-14 キヤノン株式会社 撮像装置、輻輳距離決定方法および記憶媒体
US6864910B1 (en) 1999-06-30 2005-03-08 Canon Kabushiki Kaisha Optical apparatus
JP2004104425A (ja) * 2002-09-09 2004-04-02 Nippon Hoso Kyokai <Nhk> 視差分布測定方法、視差分布測定装置および視差分布測定プログラム
JP4259913B2 (ja) * 2003-05-08 2009-04-30 シャープ株式会社 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
WO2004093467A1 (ja) 2003-04-17 2004-10-28 Sharp Kabushiki Kaisha 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
JP2006157432A (ja) * 2004-11-29 2006-06-15 Fuji Photo Film Co Ltd 立体画像撮影装置及び立体画像の撮影方法
JP4283785B2 (ja) * 2005-05-10 2009-06-24 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
US20070248260A1 (en) * 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
JP4901409B2 (ja) * 2006-10-04 2012-03-21 株式会社フオトクラフト社 三次元画像の作成方法および装置
JP4737573B2 (ja) 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
JP2010278878A (ja) * 2009-05-29 2010-12-09 Fujifilm Corp 立体画像表示装置及びその表示画像切替方法
JP2011081632A (ja) * 2009-10-07 2011-04-21 Nikon Corp 画像生成装置、画像生成方法、および、プログラム
JP2011081630A (ja) * 2009-10-07 2011-04-21 Nikon Corp 画像生成装置、画像生成方法、および、プログラム
US8472704B2 (en) * 2009-10-30 2013-06-25 Fujifilm Corporation Image processing apparatus and image processing method

Also Published As

Publication number Publication date
EP2706748A1 (en) 2014-03-12
WO2012153378A1 (ja) 2012-11-15
JP5765418B2 (ja) 2015-08-19
US20140063195A1 (en) 2014-03-06
US9854223B2 (en) 2017-12-26
EP2706748A4 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
EP3189495B1 (en) Method and apparatus for efficient depth image transformation
TWI543608B (zh) 相機模組的阻擋偵測方法以及具備多相機模組之電子裝置
US9338426B2 (en) Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method
US11050997B2 (en) Dynamic display system capable of generating images corresponding to positions of users
US11017587B2 (en) Image generation method and image generation device
KR20140108078A (ko) 논-스테레오스코픽 카메라를 이용하여 스테레오스코픽 이미지를 생성하는 방법과 기기 및 장치
JP2011135459A (ja) 画像処理装置および方法、並びにプログラム
JP2009251141A (ja) 立体画像表示装置
US20140098201A1 (en) Image processing apparatus and method for performing image rendering based on orientation of display
US20160180514A1 (en) Image processing method and electronic device thereof
JP5765418B2 (ja) 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム
JP2012133408A (ja) 画像処理装置およびプログラム
WO2012120880A1 (ja) 立体画像出力装置及び立体画像出力方法
JP4892105B1 (ja) 映像処理装置、映像処理方法および映像表示装置
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
US20140293019A1 (en) Apparatus and method for producing stereoscopic subtitles by analyzing three-dimensional (3d) space
TWI541761B (zh) 影像處理方法及其電子裝置
JP5644862B2 (ja) 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP5281720B1 (ja) 立体映像処理装置及び立体映像処理方法
JP5655862B2 (ja) 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
TWI825892B (zh) 立體格式影像偵測方法與使用該方法的電子裝置
JP5459231B2 (ja) 擬似立体画像生成装置、擬似立体画像生成プログラム及び擬似立体画像表示装置
JP5395884B2 (ja) 映像処理装置、映像処理方法および映像表示装置
US20130050414A1 (en) Method and system for navigating and selecting objects within a three-dimensional video image
JP2014186587A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent or registration of utility model

Ref document number: 5765418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees