JP2013192115A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2013192115A
JP2013192115A JP2012057968A JP2012057968A JP2013192115A JP 2013192115 A JP2013192115 A JP 2013192115A JP 2012057968 A JP2012057968 A JP 2012057968A JP 2012057968 A JP2012057968 A JP 2012057968A JP 2013192115 A JP2013192115 A JP 2013192115A
Authority
JP
Japan
Prior art keywords
subject
area
background
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012057968A
Other languages
English (en)
Other versions
JP2013192115A5 (ja
JP5928024B2 (ja
Inventor
Hiroshi Shimizu
博 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012057968A priority Critical patent/JP5928024B2/ja
Publication of JP2013192115A publication Critical patent/JP2013192115A/ja
Publication of JP2013192115A5 publication Critical patent/JP2013192115A5/ja
Application granted granted Critical
Publication of JP5928024B2 publication Critical patent/JP5928024B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】より正確なデプスマップを生成すること。
【解決手段】動体領域抽出部54aは、画像変形処理部53から、画像変形処理後の被写体合焦画像及び背景合焦画像のデータが供給されると、被写体合焦画像及び背景合焦画像の輝度、色差等の情報に基づいて、動体領域を抽出する。エッジ強度算出部54bは、被写体合焦画像及び背景合焦画像のエッジ強度を算出する。領域種別決定部54cは、エッジ強度算出部54bから取得した被写体合焦画像及び背景合焦画像のエッジ強度のデータに基づいて、被写体領域、背景領域、平坦領域のいずれの領域であるかを判定する。関連領域判定部55cは、動体領域及び平坦領域内の画素のデプス値を、拡張デプス値に置き換えるための、拡張元画素を特定する。デプス値拡張処理部56は、動体領域及び平坦領域内の注目画素の仮デプス値を拡張デプス値に置き換える。
【選択図】図2

Description

本発明は、撮像画像のデプスマップを生成する画像処理装置、画像処理方法及びプログラムに関する。
従来、同一の画角でフォーカス位置を変えて撮像した複数の撮像画像から、被写体の奥行きの情報を表すデプスマップを生成する画像処理装置が知られている(例えば、特許文献1参照)。デプスマップが生成される場合、被写体に合焦させた画像と背景側に焦点をずらした画像とを撮像し、エッジの強さ等に基づいて各領域の合焦の状態を比較することにより、被写体の画像領域であるか背景の画像領域であるかを判定する。そして、その判定結果に基づいて、それぞれの領域内の各画素に奥行きの情報が割り当てられる。
特開2009−232382号公報
しかしながら、移動する被写体を撮像した場合、移動により被写体が消えて背景となった領域は、被写体の画像領域であるか背景の画像領域であるかについての判定を適切に行うことが困難である。
また、模様のない壁のような平坦な被写体が写った領域についても、合焦状態を明確に区別できず、被写体の画像領域であるか背景の画像領域であるかについての判定を適切に行うことができない場合がある。
従来、このように被写体の画像領域であるか背景の画像領域であるかが明確に判定できない領域については、被写体の画像領域と背景の画像領域との中間値の奥行きを有する領域としており、この場合、正確なデプスマップとはならない。
このように、デプスマップを生成する従来の技術においては、正確なデプスマップを生成することが困難であった。
本発明は、このような状況に鑑みてなされたものであり、より正確なデプスマップを生成することを目的とする。
上記目的を達成するため、本発明の一態様の画像処理装置は、特定の被写体に合焦して撮像された被写体合焦画像のデータと、前記特定の被写体の背景側に焦点をずらして撮像された背景合焦画像のデータとを取得する画像取得手段と、前記被写体合焦画像のデータと前記背景合焦画像のデータとに基づいて、前記被写体合焦画像に含まれる領域それぞれが、前記特定の被写体に対応する奥行きを有する被写体領域と、前記背景に対応する奥行きを有する背景領域と、前記被写体領域及び前記背景領域以外の非特定領域とのいずれの領域であるかを判定する領域判定手段と、前記領域判定手段の判定結果に基づいて、前記被写体領域に前記特定の被写体に対応する奥行きを表すデプス値を設定し、前記背景領域に前記背景に対応する奥行きを表すデプス値を設定するデプス値設定手段と、前記被写体合焦画像と前記背景合焦画像とにおける前記非特定領域の画像に基づいて、前記非特定領域が前記被写体領域と前記背景領域とのいずれに関連するかを判定する関連領域判定手段と、前記関連領域判定手段の判定結果に基づいて、前記デプス値設定手段によって設定された前記被写体領域あるいは前記背景領域の前記デプス値のいずれかを基に決定された値を、前記非特定領域の奥行きを表すデプス値として設定するデプス値拡張処理手段と、を備えることを特徴とする。
本発明によれば、より正確なデプスマップを生成することが可能となる。
本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。 図1の画像処理装置の機能的構成のうち、デプスマップ生成処理を実行するための機能的構成を示す機能ブロック図である。 デプスマップ生成処理において参照される画像の具体例を示す模式図である。 図2の機能的構成を有する図1の画像処理装置1が実行するデプスマップ生成処理の流れの一例を説明するフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。
(構成)
図1は、本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラにより構成することができる。
画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、操作部17と、表示部18と、記憶部19と、通信部20と、メディアドライブ21と、を備えている。
CPU11は、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、操作部17、表示部18、記憶部19、通信部20及びメディアドライブ21が接続されている。
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11等に適宜供給される。
操作部17は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。
表示部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、USB(Universal Serial Bus)や赤外線通信等の通信インターフェースを有し、インターネット等のネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
メディアドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。メディアドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。
図2は、このような画像処理装置1の機能的構成のうち、デプスマップ生成処理を実行するための機能的構成を示す機能ブロック図である。
デプスマップ生成処理とは、被写体に合焦した撮像画像と背景側に焦点をずらした撮像画像とを撮像し、被写体の領域と背景の領域とを判定して、いずれにも判定されない領域に、被写体の領域あるいは背景の領域の奥行きの情報(デプス値)を基に決定した奥行きの情報を設定することにより、画像における各領域内の奥行きの分布を表すデプスマップを生成するまでの一連の処理をいう。
デプスマップ生成処理が実行される場合、CPU11においては、撮像制御部51と、画像取得部52と、画像変形処理部53と、領域判定部54と、拡張元領域特定部55と、デプス値拡張処理部56と、が機能する。
なお、撮像制御部51乃至デプス値拡張処理部56の機能の少なくとも一部を、CPU11以外の他の構成要素(例えば、図示しないグラフィックアクセラレータ等)に移譲させてもよい。
撮像制御部51は、操作部17のシャッタボタン等の操作を契機として、撮像部16を制御する。例えば、撮像制御部51は、シャッタボタンの途中(下限に至らない所定の位置)まで押下する操作(以下、「半押し操作」または単に「半押し」と呼ぶ)があった場合や、シャッタボタンを下限まで押下する操作(以下、「全押し操作」または単に「全押し」と呼ぶ)があった場合に、撮像部16における合焦及び露光等を制御する。
即ち、撮像制御部51は、半押し操作があった場合には、フォーカスレンズを被写体に合焦させるよう撮像部16を制御する。
また、撮像制御部51は、全押し操作があった場合には、撮像指示の情報を撮像部16に通知し、フォーカスレンズを被写体に合焦させた画像及び背景側に焦点をずらした画像を連続して撮像するよう撮像部16を制御する。
撮像部16は、撮像制御部51から撮像指示の情報を受け取るとフォーカスレンズを被写体に合焦させた撮像画像(以下、「被写体合焦画像」という)と背景側に焦点をずらした撮像画像(以下、「背景合焦画像」という)とを連続して撮像し、被写体合焦画像及び背景合焦画像のデータを画像取得部52に供給する。
画像取得部52は、撮像部16から被写体合焦画像及び背景合焦画像のデータが供給されると、記憶部19に記憶させるとともに、被写体合焦画像及び背景合焦画像のデータを画像変形処理部53に供給する。
画像変形処理部53は、画像取得部52から、被写体合焦画像及び背景合焦画像のデータが供給されると、2つの画像のずれを整合させるための画像変形処理を実行する。即ち、画像変形処理部53は、被写体合焦画像と背景合焦画像との特徴点が重なるように位置合わせを行う。さらに、画像変形処理部53は、被写体合焦画像と背景合焦画像とがより正確に重なり合うようアフィン変換等により画像の変形を行う。
画像変形処理部53により、画像変形処理が施された被写体合焦画像及び背景合焦画像のデータは、領域判定部54に供給される。
領域判定部54は、動体領域抽出部54aと、エッジ強度算出部54bと、領域種別決定部54cと、を備えている。
動体領域抽出部54aは、画像変形処理部53から、画像変形処理後の被写体合焦画像及び背景合焦画像のデータが供給されると、被写体合焦画像及び背景合焦画像の輝度及び色差等の情報に基づいて、動体領域を抽出する。
ここで、動体領域とは、被写体合焦画像の撮像タイミングから背景合焦画像の撮像タイミングまでに被写体が移動することにより、撮像された物体が異なっている領域をいう。例えば、動体領域は、被写体合焦画像においては被写体が撮像され、背景合焦画像においては背景が撮像されている領域等である。動体領域の画素は、被写体合焦画像及び背景合焦画像のうち一方では被写体の画素値(輝度及び色差の値)、他方では背景の画素値をもつため、被写体合焦画像と背景合焦画像とで画素値の差が大きい。そこで、本実施形態では、動体領域抽出部54aは、被写体合焦画像及び背景合焦画像の対応する位置の画素値の差異に基づいて、動体領域を判別することとする。即ち、被写体合焦画像と背景合焦画像の対応する位置における画素の画素値を比較し、画素値の差が設定された閾値よりも大きい場合、当該画素は動体領域の画素であると判断する。
上記の処理を全ての画素に対して繰返すことにより、動体領域が抽出される。
そして、上記の処理の結果、動体領域を特定するための情報(以下、「動体領域データ」と呼ぶ)が生成される。
動体領域抽出部54aは、動体領域データを領域種別決定部54cに供給する。
エッジ強度算出部54bは、画像変形処理部53から供給される画像変形処理後の被写体合焦画像及び背景合焦画像のエッジ強度を算出する。
エッジ強度は、画像における輝度や色差の変化の度合いを表す指標であり、エッジ強度算出部54bは、被写体合焦画像及び背景合焦画像におけるエッジ強度の分布を抽出する。本実施形態においては、処理対象となる注目画素及びその周辺画素の輝度のデータに対して、ハイパスフィルタ等のエッジを検出可能なフィルタを施すことによりエッジ強度を算出する。
エッジ強度算出部54bにより算出された被写体合焦画像及び背景合焦画像のエッジ強度を示すデータは、領域種別決定部54cに供給される。
領域種別決定部54cは、動体領域抽出部54aから供給された動体領域データと、エッジ強度算出部54bから取得した被写体合焦画像及び背景合焦画像のエッジ強度のデータとに基づいて、被写体合焦画像及び背景合焦画像に含まれる各領域の種別を決定する。
具体的には、領域種別決定部54cは、被写体合焦画像及び背景合焦画像に含まれる各領域が、動体領域、被写体の画像領域(以下、「被写体領域」と呼ぶ)、背景の画像領域(以下、「背景領域」と呼ぶ)、平坦部の画像領域(以下、「平坦領域」と呼ぶ)のいずれであるかを判定する。
ここで、合焦している物体像のエッジ強度は、合焦していない場合の物体像のエッジ強度に比べて大きくなる。したがって、被写体合焦画像の方が背景合焦画像よりもエッジ強度が大きい領域は被写体領域と判定でき、背景合焦画像の方が被写体合焦画像よりもエッジ強度が大きい領域は背景領域と判定できる。また、被写体合焦領域と背景合焦領域とでエッジ強度の差が小さく、エッジ強度の絶対値が小さい領域は平坦領域と判定できる。
そのため、本実施形態では、領域種別決定部54cは、各画素について被写体合焦画像のエッジ強度と背景合焦画像のエッジ強度とを比較して、被写体合焦画像のエッジ強度の方が大きい(例えば設定された閾値より大きい)場合は、当該画素は被写体領域であると判定する。同様に、領域種別決定部54cは、被写体合焦画像のエッジ強度と背景合焦画素のエッジ強度とを比較して、背景合焦画像のエッジ強度の方が大きい(例えば設定された閾値より大きい)場合は、当該画素は背景領域と判定する。さらに、被写体合焦画像のエッジ強度と背景合焦画素のエッジ強度との差が小さい(例えば設定された閾値以下である)場合であって、エッジ強度の絶対値が設定された閾値以下である場合には、当該画素は平坦領域であると判定する。なお、領域種別決定部54cは、動体領域データによって動体領域であることが示されている領域については、動体領域であるものと判定する。
上記の判定を全ての画素に対して繰返すことにより、全ての画素に対して被写体領域、背景領域、動体領域及び平坦領域のいずれか1つが対応付けられた情報(以下、「判定領域データ」と呼ぶ)が生成される。
領域種別決定部54cは、判定領域データを拡張元領域特定部55に供給する。
拡張元領域特定部55は、領域種別決定部54cから判定領域データを取得する。
拡張元領域特定部55は、仮デプス値設定部55aと、色距離算定部55bと、関連領域判定部55cと、を備えている。
仮デプス値設定部55aは、動体領域データ及び判定領域データに基づいて、各画素の仮のデプス値(以下、適宜「仮デプス値」と呼ぶ)によって構成した仮デプスマップを生成する。仮デプスマップでは、例えば、動体領域の画素は128、被写体領域の画素は255、背景領域の画素は0、平坦領域の画素は128の値を仮デプス値として各画素に対応付ける。ここで、動体領域と平坦領域とは、共に、被写体領域であるか背景領域であるかの判定が困難な領域であるため、仮デプス値をこれらの中間の値としている。この動体領域と平坦領域とは、被写体領域であるか背景領域であるか、即ち、デプス値の特定が共に困難な領域であることから、以下、動体領域と平坦領域とを総称して、適宜「非特定領域」と呼ぶ。
なお、仮デプスマップのデータは、RAM13に格納され、必要に応じて参照することができる。
関連領域判定部55cは、被写体合焦画像における動体領域及び平坦領域(非特定領域)内の画素を対象として、動体領域及び平坦領域以外の周辺画素から、色距離が設定された閾値以内である関連する領域の画素を検索する。ここで、色距離とは、2つの画素の画素値の色空間における距離をいう。例えば、画素値が輝度及び色差で表されている場合、2つの画素の輝度の差の2乗と色差の差の2乗とを加算することにより色距離とすることができる。
そして、関連領域判定部55cは、被写体合焦画像における動体領域及び平坦領域内の画素にデプス値を拡張する元となる画素として、検索された色距離が閾値以内の画素を特定する。
具体的には、関連領域判定部55cは、被写体合焦画像において、動体領域及び平坦領域内の注目画素の周辺に位置する動体領域及び平坦領域以外の画素であって、色距離が閾値以下の少なくとも1以上の画素(以下、「拡張元画素」と呼ぶ)を特定する。
なお、拡張元画素の特定条件として、色距離が閾値以下の画素としているのは、動体領域及び平坦領域に近い色の画素は動体領域及び平坦領域と同一物である可能性が高いため、動体領域及び平坦領域のデプス値に拡張する元となる画素として適切と考えられるためである。
デプス値拡張処理部56は、関連領域判定部55cから、拡張元画素の情報を取得し、動体領域及び平坦領域内の注目画素のデプス値を、特定された拡張元画素の仮デプス値によって算出される値(以下、適宜「拡張デプス値」と呼ぶ)に置き換える。
本実施形態では、デプス値拡張処理部56は、関連領域判定部55cから、拡張元画素の情報を取得すると、動体領域及び平坦領域内の注目画素のデプス値を、当該注目画素ついて特定された拡張元画素の仮デプス値の平均値に置き換える。
デプス値拡張処理部56によって、動体領域及び平坦領域内の全ての画素について、上記のデプス値の置き換え処理が終了すると、被写体領域または背景領域内の拡張元画素の仮デプス値に基づく拡張デプス値が動体領域に拡張されて、動体領域の仮デプス値が置き換えられることになる。
即ち、被写体領域及び背景領域では仮デプス値がデプス値となり、動体領域及び平坦領域では、拡張デプス値がデプス値となる。
デプス値拡張処理部56は、被写体領域、背景領域、動体領域及び平坦領域についてのデプス値が設定されたデプスマップのデータを記憶部19に記憶させる。
以下、デプスマップ生成処理において参照される各種画像について、図3を参照して説明する。
図3は、デプスマップ生成処理において参照される画像の具体例を示す模式図である。
なお、図3においては、説明を簡単にするため、撮像画像に被写体領域、背景領域及び動体領域が含まれ、平坦領域が含まれていない場合を例に挙げて説明する。
図3(A)は、被写体合焦画像81を示す模式図である。
図3(A)において、被写体合焦画像81は、画像処理装置1のフォーカスレンズが、被写体である人の顔92に合焦し、背景の森林91には合焦していない状態で撮像されている。
図3(B)は、背景合焦画像82を示す模式図である。
背景合焦画像82は、画像処理装置1のフォーカスレンズが、背景の森林91に合焦し、人の顔92には合焦していない状態で撮像されている。ここで、図3(B)においては、図3(A)の被写体合焦画像81の撮像時から人の顔92が右に移動している。
図3(C)は、仮デプスマップ83を示す模式図である。
動体領域抽出部54aは、図3(A)の被写体合焦画像81及び図3(B)の背景合焦画像82を参照し、画素値(例えば、輝度、色差)の差が閾値以上の画素の集合を図3(C)の動体領域A2,A4(非特定領域)として抽出する。また、領域種別決定部54cが図3(C)の背景領域A1と被写体領域A3とを決定する。そして、仮デプス値設定部55aが、動体領域、背景領域、被写体領域の各画素に仮デプス値を設定する。
例えば、図3(C)の背景領域A1にはデプス値0が、被写体領域A3にはデプス値255が、動体領域A2,A4にはデプス値128が設定される。
これにより、図3(C)に示すような仮のデプスマップとなる。
図3(D)は、デプスマップ84を示す模式図である。
関連領域判定部55cは、図3(A)の被写体合焦画像81において、動体領域A2,A4の各画素の画素値と色距離が近い当該画素の周辺の動体領域以外の画素を拡張元画素と判定する。
即ち、図3(A)に示す例では、関連領域判定部55cは、動体領域A2の画素の画素値と色距離が近い拡張元画素を、被写体領域(人の顔92の領域)であると判定する。そのため、デプス値拡張処理部56は、動体領域A2内の各画素のデプス値を、被写体領域A3内の拡張元画素のデプス値の平均値に設定する。また、関連領域判定部55cは、動体領域A4の画素の画素値と色距離が近い拡張元画素が、背景領域(背景の森林91の領域)であると判定する。そのため、デプス値拡張処理部56は、動体領域A4内の各画素のデプス値を、背景領域A1内の拡張元画素のデプス値の平均値に設定する。
その結果、仮デプスマップ83から、デプスマップ84が生成される。即ち、動体領域A2のデプス値は被写体領域A3のデプス値の平均値となり、動体領域A4のデプス値は背景領域A1のデプス値の平均値となる結果、被写体領域あるいは背景領域のデプス値が拡張され、動体領域A5となる。
従来、動体領域は、背景と被写体の中間値等のデプス値が設定されていたところ、上記の処理により、動体領域のデプス値として、より正確なデプス値が設定されることになる。
(動作)
次に、動作を説明する。
図4は、図2の機能的構成を有する図1の画像処理装置1が実行するデプスマップ生成処理の流れの一例を説明するフローチャートである。
デプスマップ生成処理は、ユーザにより操作部17に対するデプスマップ生成のための操作がなされたことを契機として開始され、次のような処理が実行される。
ステップS1において、撮像制御部51は、ユーザによるシャッタボタンの操作があったか否か判定する。
ユーザによるシャッタボタンの操作がない場合、ステップS1においてNOであると判定されて、処理はステップS1に戻る。
これに対して、ユーザによるシャッタボタンの操作がある場合、ステップS1においてYESであると判定されて、処理はステップS2に進む。
ステップS2において、撮像制御部51は、ユーザによるシャッタボタンの操作が半押しであるか否か判定する。
ユーザによるシャッタボタンの操作が半押しである場合には、ステップS2においてYESと判定されて、処理はステップS3に進む。
ユーザによるシャッタボタンの操作が半押しでない、即ち、全押しである場合には、ステップS2においてNOと判定されて、処理はステップS4に進む。
ステップS3において、撮像制御部51は、撮像部16に対し、被写体に追従して合焦させるように制御を行う。その後、処理は、ステップS1に戻る。
ステップS4において、撮像部16は、被写体に合焦させた被写体合焦画像を撮像するとともに、画像取得部52に被写体合焦画像のデータを供給する。
ステップS5において、撮像部16は、背景側に焦点をずらした背景合焦画像を撮像するとともに、画像取得部52に背景合焦画像のデータを供給する。
ステップS6において、画像変形処理部53は、画像取得部52から供給された被写体合焦画像と背景合焦画像の背景のずれを整合させるための画像変形処理を行う。
ステップS7において、動体領域抽出部54aは、被写体合焦画像と背景合焦画像の輝度及び色差等の情報に基づいて動体領域(非特定領域)を抽出する。
ステップS8において、エッジ強度算出部54bは、被写体合焦画像と背景合焦画像とのエッジ強度を画素ごとに算出する。
ステップS9において、領域種別決定部54cは、被写体合焦画像と背景合焦画像とにおける各画素のエッジ強度を比較する。
被写体合焦画像のエッジ強度が背景合焦画像のエッジ強度よりも大きい(例えば設定された閾値より大きい)場合、ステップS9においてYESと判定されて、処理はステップS10に進む。
被写体合焦画像のエッジ強度が背景合焦画像のエッジ強度よりも大きくない場合、ステップS9においてNOと判定されて、処理はステップS11に進む。
ステップS10において、領域種別決定部54cは、注目画素を被写体領域に設定する。
ステップS11において、領域種別決定部54cは、被写体合焦画像と背景合焦画像とにおける各画素のエッジ強度を比較する。
被写体合焦画像のエッジ強度が背景合焦画像のエッジ強度よりも小さい(例えば設定された閾値より小さい)場合、ステップS11においてYESと判定されて、処理はステップS12に進む。
被写体合焦画像のエッジ強度が背景合焦画像のエッジ強度よりも小さくない場合、ステップS11においてNOと判定されて、処理はステップS13に進む。
ステップS12において、領域種別決定部54cは、注目画素を背景領域に設定する。
ステップS13において、領域種別決定部54cは、被写体合焦画像と背景合焦画像のエッジ強度を画素ごとに判定する。
被写体合焦画像のエッジ強度及び背景合焦画像のエッジ強度が閾値以下である場合、ステップS13においてYESと判定されて、処理はステップS14に進む。
被写体合焦画像のエッジ強度及び背景合焦画像のエッジ強度が閾値以下でない場合、ステップS13においてNOと判定されて、処理はステップS15に進む。
ステップS14において、領域種別決定部54cは、注目画素を平坦領域(非特定領域)に設定する。
ステップS15において、関連領域判定部55cは、動体領域及び平坦領域(非特定領域)内の画素の仮デプス値に、拡張デプス値を拡張するための元となる拡張元画素を特定する。
ステップS16において、デプス値拡張処理部56は、動体領域及び平坦領域内の注目画素の仮デプス値を、当該注目画素に対応する拡張元画素のデプス値から得られる拡張デプス値に設定して、デプスマップを生成する。
ステップS17において、デプス値拡張処理部56は、生成されたデプスマップのデータを記憶部19に記憶させる。その後、デプスマップ生成処理が終了となる。
以上説明したように、本実施形態では、ユーザによる操作部17の所定の操作(シャッタボタンの全押し操作)が行われると、撮像制御部51が、撮像部16に対して、被写体合焦画像及び背景合焦画像を撮像するよう制御する。
画像取得部52は、被写体合焦画像及び背景合焦画像のデータを撮像部16から取得すると、画像変形処理部53に供給する。
画像変形処理部53は、被写体合焦画像及び背景合焦画像のデータのずれを整合させるように画像変形処理を行う。
動体領域抽出部54aは、画像変形処理部53から、画像変形処理後の被写体合焦画像及び背景合焦画像のデータが供給されると、被写体合焦画像及び背景合焦画像の輝度、色差等の情報に基づいて、動体領域を抽出する。
エッジ強度算出部54bは、被写体合焦画像及び背景合焦画像のエッジ強度を算出する。
領域種別決定部54cは、エッジ強度算出部54bから取得した被写体合焦画像及び背景合焦画像のエッジ強度のデータに基づいて、全ての画素について、被写体領域、背景領域、平坦領域のいずれの領域であるかを判定する。
関連領域判定部55cは、動体領域及び平坦領域(非特定領域)内の画素のデプス値を、動体領域及び平坦領域以外の周辺画素のデプス値から算出される拡張デプス値に置き換えるための、拡張元画素を特定する。
デプス値拡張処理部56は、動体領域及び平坦領域内の注目画素の仮デプス値を、当該注目画素について特定された拡張元画素のデプス値の平均値(拡張デプス値)に置き換える。
要するに、本実施形態では、被写体合焦画像と背景合焦画像とから動体領域、被写体領域、背景領域、平坦領域を抽出し、動体領域及び平坦領域(非特定領域)のデプス値を、周辺の被写体領域または背景領域のデプス値から算出される情報(拡張デプス値)に設定する。
これにより、従来、動体領域や平坦領域等、被写体領域であるか背景領域であるかが明確に判定できない領域のデプス値として、実際の奥行きに関わらず、信頼性のない値が格納されていたのに対し、被写体領域または背景領域のデプス値を用いて信頼性の高いデプス値を設定することができる。
したがって、本発明によれば、より正確なデプスマップを生成することが可能になる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、上記実施形態においては、背景合焦画像は、被写体の背景に合焦させて撮影した撮影画像であってよく、また、被写体の背景側に焦点をずらして撮影した撮像画像であってもよい。
また、動体領域及び平坦領域の仮デプス値を拡張元画素のデプス値から算出される拡張デプス値に置き換える場合、注目画素について特定された拡張元画素のデプス値の平均値を用いることとしたが、平均値以外であっても、最大値、最小値あるいは最頻値等の代表値で置き換えることも可能である。
また、動体領域及び平坦領域の仮デプス値を、注目画素の周辺の動体領域及び平坦領域以外の画素のデプス値から算出した値で置き換えることとしたが、注目画素の周辺ではなく、被写体領域全体あるいは動体領域全体の平均値としてもよい。
また、上述の実施形態において、関連領域判定部55cは、色距離を算出する際に、輝度及び色差によって表される色空間で表されたデータを用いることとしたが、RGB色空間等の他の色空間で表されたデータを用いることとしてもよい。
また、上述の実施形態では、本発明が適用される画像処理装置1として、デジタルカメラを例に挙げて説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
特定の被写体に合焦して撮像された被写体合焦画像のデータと、前記特定の被写体の背景側に焦点をずらして撮像された背景合焦画像のデータとを取得する画像取得手段と、
前記被写体合焦画像のデータと前記背景合焦画像のデータとに基づいて、前記被写体合焦画像に含まれる領域それぞれが、前記特定の被写体に対応する奥行きを有する被写体領域と、前記背景に対応する奥行きを有する背景領域と、前記被写体領域及び前記背景領域以外の非特定領域とのいずれの領域であるかを判定する領域判定手段と、
前記領域判定手段の判定結果に基づいて、前記被写体領域に前記特定の被写体に対応する奥行きを表すデプス値を設定し、前記背景領域に前記背景に対応する奥行きを表すデプス値を設定するデプス値設定手段と、
前記被写体合焦画像と前記背景合焦画像とにおける前記非特定領域の画像に基づいて、前記非特定領域が前記被写体領域と前記背景領域とのいずれに関連するかを判定する関連領域判定手段と、
前記関連領域判定手段の判定結果に基づいて、前記デプス値設定手段によって設定された前記被写体領域あるいは前記背景領域の前記デプス値のいずれかを基に決定された値を、前記非特定領域の奥行きを表すデプス値として設定するデプス値拡張処理手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記領域判定手段は、前記被写体合焦画像と前記背景合焦画像とで移動した移動物体の領域及び平坦な被写体が撮像されている平坦領域との少なくともいずれかを前記非特定領域として特定することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記関連領域判定手段は、前記非特定領域における画素のデータと、前記非特定領域に隣接する前記被写体領域及び前記背景領域における画素のデータとの近似度合いを比較し、前記非特定領域における画素のデータにより近い画素のデータが属する領域の前記デプス値を基に、前記非特定領域の前記デプス値を決定することを特徴とする付記1または2に記載の画像処理装置。
[付記4]
前記関連領域判定手段は、前記非特定領域における画素と、前記非特定領域に隣接する前記被写体領域及び前記背景領域における画素との色距離に基づいて、前記近似度合いを比較することを特徴とする付記3に記載の画像処理装置。
[付記5]
特定の被写体に合焦して撮像された被写体合焦画像のデータと、前記特定の被写体の背景側に焦点をずらして撮像された背景合焦画像のデータとを取得する画像取得ステップと、
前記被写体合焦画像のデータと前記背景合焦画像のデータとに基づいて、前記被写体合焦画像に含まれる領域それぞれが、前記特定の被写体に対応する奥行きを有する被写体領域と、前記背景に対応する奥行きを有する背景領域と、前記被写体領域及び前記背景領域以外の非特定領域とのいずれの領域であるかを判定する領域判定ステップと、
前記領域判定ステップにおける判定結果に基づいて、前記被写体領域に前記特定の被写体に対応する奥行きを表すデプス値を設定し、前記背景領域に前記背景に対応する奥行きを表すデプス値を設定するデプス値設定ステップと、
前記被写体合焦画像と前記背景合焦画像とにおける前記非特定領域の画像に基づいて、前記非特定領域が前記被写体領域と前記背景領域とのいずれに関連するかを判定する関連領域判定ステップと、
前記関連領域判定ステップにおける判定結果に基づいて、前記デプス値設定ステップにおいて設定された前記被写体領域あるいは前記背景領域の前記デプス値のいずれかを基に決定された値を、前記非特定領域の奥行きを表すデプス値として設定するデプス値拡張処理ステップと、
を含むことを特徴とする画像処理方法。
[付記6]
コンピュータに、
特定の被写体に合焦して撮像された被写体合焦画像のデータと、前記特定の被写体の背景側に焦点をずらして撮像された背景合焦画像のデータとを取得する画像取得機能と、
前記被写体合焦画像のデータと前記背景合焦画像のデータとに基づいて、前記被写体合焦画像に含まれる領域それぞれが、前記特定の被写体に対応する奥行きを有する被写体領域と、前記背景に対応する奥行きを有する背景領域と、前記被写体領域及び前記背景領域以外の非特定領域とのいずれの領域であるかを判定する領域判定機能と、
前記領域判定機能の判定結果に基づいて、前記被写体領域に前記特定の被写体に対応する奥行きを表すデプス値を設定し、前記背景領域に前記背景に対応する奥行きを表すデプス値を設定するデプス値設定機能と、
前記被写体合焦画像と前記背景合焦画像とにおける前記非特定領域の画像に基づいて、前記非特定領域が前記被写体領域と前記背景領域とのいずれに関連するかを判定する関連領域判定機能と、
前記関連領域判定機能の判定結果に基づいて、前記デプス値設定機能によって設定された前記被写体領域あるいは前記背景領域の前記デプス値のいずれかを基に決定された値を、前記非特定領域の奥行きを表すデプス値として設定するデプス値拡張処理機能と、
を実現させることを特徴とするプログラム。
1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・撮像部、17・・・操作部、18・・・表示部、19・・・記憶部、20・・・通信部、21・・・メディアドライブ、31・・・リムーバブルメディア、51・・・撮像制御部、52・・・画像取得部、53・・・画像変形処理部、54・・・領域判定部、54a・・・動体領域抽出部、54b・・・エッジ強度算出部、54c・・・領域種別決定部、55・・・拡張元領域特定部、55a・・・仮デプス値設定部、55b・・・色距離算定部、55c・・・関連領域判定部、56・・・デプス値拡張処理部

Claims (6)

  1. 特定の被写体に合焦して撮像された被写体合焦画像のデータと、前記特定の被写体の背景側に焦点をずらして撮像された背景合焦画像のデータとを取得する画像取得手段と、
    前記被写体合焦画像のデータと前記背景合焦画像のデータとに基づいて、前記被写体合焦画像に含まれる領域それぞれが、前記特定の被写体に対応する奥行きを有する被写体領域と、前記背景に対応する奥行きを有する背景領域と、前記被写体領域及び前記背景領域以外の非特定領域とのいずれの領域であるかを判定する領域判定手段と、
    前記領域判定手段の判定結果に基づいて、前記被写体領域に前記特定の被写体に対応する奥行きを表すデプス値を設定し、前記背景領域に前記背景に対応する奥行きを表すデプス値を設定するデプス値設定手段と、
    前記被写体合焦画像と前記背景合焦画像とにおける前記非特定領域の画像に基づいて、前記非特定領域が前記被写体領域と前記背景領域とのいずれに関連するかを判定する関連領域判定手段と、
    前記関連領域判定手段の判定結果に基づいて、前記デプス値設定手段によって設定された前記被写体領域あるいは前記背景領域の前記デプス値のいずれかを基に決定された値を、前記非特定領域の奥行きを表すデプス値として設定するデプス値拡張処理手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記領域判定手段は、前記被写体合焦画像と前記背景合焦画像とで移動した移動物体の領域及び平坦な被写体が撮像されている平坦領域との少なくともいずれかを前記非特定領域として特定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記関連領域判定手段は、前記非特定領域における画素のデータと、前記非特定領域に隣接する前記被写体領域及び前記背景領域における画素のデータとの近似度合いを比較し、前記非特定領域における画素のデータにより近い画素のデータが属する領域の前記デプス値を基に、前記非特定領域の前記デプス値を決定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記関連領域判定手段は、前記非特定領域における画素と、前記非特定領域に隣接する前記被写体領域及び前記背景領域における画素との色距離に基づいて、前記近似度合いを比較することを特徴とする請求項3に記載の画像処理装置。
  5. 特定の被写体に合焦して撮像された被写体合焦画像のデータと、前記特定の被写体の背景側に焦点をずらして撮像された背景合焦画像のデータとを取得する画像取得ステップと、
    前記被写体合焦画像のデータと前記背景合焦画像のデータとに基づいて、前記被写体合焦画像に含まれる領域それぞれが、前記特定の被写体に対応する奥行きを有する被写体領域と、前記背景に対応する奥行きを有する背景領域と、前記被写体領域及び前記背景領域以外の非特定領域とのいずれの領域であるかを判定する領域判定ステップと、
    前記領域判定ステップにおける判定結果に基づいて、前記被写体領域に前記特定の被写体に対応する奥行きを表すデプス値を設定し、前記背景領域に前記背景に対応する奥行きを表すデプス値を設定するデプス値設定ステップと、
    前記被写体合焦画像と前記背景合焦画像とにおける前記非特定領域の画像に基づいて、前記非特定領域が前記被写体領域と前記背景領域とのいずれに関連するかを判定する関連領域判定ステップと、
    前記関連領域判定ステップにおける判定結果に基づいて、前記デプス値設定ステップにおいて設定された前記被写体領域あるいは前記背景領域の前記デプス値のいずれかを基に決定された値を、前記非特定領域の奥行きを表すデプス値として設定するデプス値拡張処理ステップと、
    を含むことを特徴とする画像処理方法。
  6. コンピュータに、
    特定の被写体に合焦して撮像された被写体合焦画像のデータと、前記特定の被写体の背景側に焦点をずらして撮像された背景合焦画像のデータとを取得する画像取得機能と、
    前記被写体合焦画像のデータと前記背景合焦画像のデータとに基づいて、前記被写体合焦画像に含まれる領域それぞれが、前記特定の被写体に対応する奥行きを有する被写体領域と、前記背景に対応する奥行きを有する背景領域と、前記被写体領域及び前記背景領域以外の非特定領域とのいずれの領域であるかを判定する領域判定機能と、
    前記領域判定機能の判定結果に基づいて、前記被写体領域に前記特定の被写体に対応する奥行きを表すデプス値を設定し、前記背景領域に前記背景に対応する奥行きを表すデプス値を設定するデプス値設定機能と、
    前記被写体合焦画像と前記背景合焦画像とにおける前記非特定領域の画像に基づいて、前記非特定領域が前記被写体領域と前記背景領域とのいずれに関連するかを判定する関連領域判定機能と、
    前記関連領域判定機能の判定結果に基づいて、前記デプス値設定機能によって設定された前記被写体領域あるいは前記背景領域の前記デプス値のいずれかを基に決定された値を、前記非特定領域の奥行きを表すデプス値として設定するデプス値拡張処理機能と、
    を実現させることを特徴とするプログラム。
JP2012057968A 2012-03-14 2012-03-14 画像処理装置、画像処理方法及びプログラム Active JP5928024B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057968A JP5928024B2 (ja) 2012-03-14 2012-03-14 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057968A JP5928024B2 (ja) 2012-03-14 2012-03-14 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2013192115A true JP2013192115A (ja) 2013-09-26
JP2013192115A5 JP2013192115A5 (ja) 2015-04-16
JP5928024B2 JP5928024B2 (ja) 2016-06-01

Family

ID=49391941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057968A Active JP5928024B2 (ja) 2012-03-14 2012-03-14 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5928024B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067762A1 (ja) * 2014-10-28 2016-05-06 シャープ株式会社 画像処理装置及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200632A (ja) * 1993-12-28 1995-08-04 Toshiba Corp 情報処理装置
JPH10155139A (ja) * 1996-11-21 1998-06-09 Sony Corp 画像処理装置および画像処理方法
JP2010183174A (ja) * 2009-02-03 2010-08-19 Nikon Corp 画像処理装置、撮像装置およびプログラム
JP2011039918A (ja) * 2009-08-17 2011-02-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012004640A (ja) * 2010-06-14 2012-01-05 Nikon Corp 画像処理装置および画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200632A (ja) * 1993-12-28 1995-08-04 Toshiba Corp 情報処理装置
JPH10155139A (ja) * 1996-11-21 1998-06-09 Sony Corp 画像処理装置および画像処理方法
JP2010183174A (ja) * 2009-02-03 2010-08-19 Nikon Corp 画像処理装置、撮像装置およびプログラム
JP2011039918A (ja) * 2009-08-17 2011-02-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012004640A (ja) * 2010-06-14 2012-01-05 Nikon Corp 画像処理装置および画像処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067762A1 (ja) * 2014-10-28 2016-05-06 シャープ株式会社 画像処理装置及びプログラム
JP2016086351A (ja) * 2014-10-28 2016-05-19 シャープ株式会社 画像処理装置及びプログラム
CN106576140A (zh) * 2014-10-28 2017-04-19 夏普株式会社 图像处理装置以及程序
CN106576140B (zh) * 2014-10-28 2019-10-18 夏普株式会社 图像处理装置以及摄像装置

Also Published As

Publication number Publication date
JP5928024B2 (ja) 2016-06-01

Similar Documents

Publication Publication Date Title
JP5507014B2 (ja) 動体検出装置及び方法
JP5251215B2 (ja) デジタルカメラ
US20130016245A1 (en) Imaging apparatus
JP5804138B1 (ja) 検出装置、検出方法及びプログラム
JP2012044564A (ja) 撮像装置
JP2015012480A (ja) 画像処理装置及び画像処理方法
JP6223059B2 (ja) 撮像装置、その制御方法およびプログラム
JP2013029656A (ja) 撮像装置
JP2016032181A (ja) 画像処理装置、撮像装置および画像処理方法
JP2009111716A (ja) 撮像装置、プログラムおよびテンプレート生成方法
JP2010279054A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP6320053B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2013098935A (ja) 追尾装置及び追尾方法
JP2010154306A (ja) 撮像制御装置、撮像制御プログラム及び撮像制御方法
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6172973B2 (ja) 画像処理装置
JP5928024B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2017011451A (ja) 検出装置、検出方法及びプログラム
JP2010134309A (ja) オートフォーカス装置、オートフォーカス方法及び撮像装置
JP2008028890A (ja) 撮像装置、撮像方法及び撮像プログラム
JP2011193496A (ja) 撮像装置、撮像方法及び撮像プログラム
JP5965654B2 (ja) 追尾装置及び撮像装置、撮像装置に用いる追尾方法
JP2017098637A (ja) 画像特定装置、画像特定方法及びプログラム
JP2010016693A (ja) 電子カメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R150 Certificate of patent or registration of utility model

Ref document number: 5928024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150