JP2013074301A - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP2013074301A
JP2013074301A JP2011209395A JP2011209395A JP2013074301A JP 2013074301 A JP2013074301 A JP 2013074301A JP 2011209395 A JP2011209395 A JP 2011209395A JP 2011209395 A JP2011209395 A JP 2011209395A JP 2013074301 A JP2013074301 A JP 2013074301A
Authority
JP
Japan
Prior art keywords
image
instruction
processing
detected
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011209395A
Other languages
English (en)
Other versions
JP5899745B2 (ja
JP2013074301A5 (ja
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011209395A priority Critical patent/JP5899745B2/ja
Publication of JP2013074301A publication Critical patent/JP2013074301A/ja
Publication of JP2013074301A5 publication Critical patent/JP2013074301A5/ja
Application granted granted Critical
Publication of JP5899745B2 publication Critical patent/JP5899745B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ユーザの操作において確実かつ簡単に画像における変化を所望する領域を指定して、その所望する領域を変化させることができるようにする。
【解決手段】スルー画像から、注目点領域を推定して抽出する(ステップS105)。次に、タッチパネルから供給されるモニタ上におけるユーザのタッチ検出及びタッチ軌跡の検出処理を実行する(ステップS106)。引き続き、前記ステップS105で推定抽出された注目点領域と、前記ステップS106で検出されたタッチ入力軌跡から、スルー画像における処理対象領域(ボカシ処理又は鮮鋭化処理する対象とする領域)を判別して選択する(ステップS107)SDRAM内に保存されている撮影画像の選択領域(ステップS107で選択された領域)を対象領域とし、その他の領域にマスクを設定し、設定ボカシ処理量(ステップS109で設定されたボカシ処理量)に応じて、ボカシ処理を施す。
【選択図】図2

Description

本発明は、擦り動作等の継続的な指示に応じて画像の一部を徐々に変化させて表示する画像処理装置、画像処理方法、及び、プログラムに関する。
コンパクトカメラでは一般に、一眼レフのようなF値の小さい「明るいレンズ」を搭載しにくい。また、撮像イメージサイズが小さいので、同じ画角を得るには、実際のレンズ焦点距離を短かくする必要があり、被写界深度はどうしても深くなる。このため、前景から背景までピントが合った撮影がしやすい反面、前景や背景をぼかしたり、主要被写体だけにピントを合わせて強調する表現がしにくいなど、問題があった。
そこで、画面上でタッチ選択された背景領域に、平滑化フィルタでボケ処理を施したりする(特許文献1参照)などの技術が提案されている。
特開2008−079193号公報
しかしながら、前述したタッチ選択された背景領域にボケ処理を施す方法では、主要被写体の検出が難しく、背景のみならず主要被写体もボケ処理が施されてぼけてしまう不都合が生ずる。また、色度などで画像における領域を自動分割すると、色の賑やかな画像においては、領域が多数に分かれてしまい、領域の指定入力が難しくなるという問題が生じる。
本発明は、かかる従来の課題に鑑みなされたものであり、ユーザの操作において確実かつ簡単に画像における変化を所望する領域を指定して、その所望する領域を変化させることができるようにすることを目的とする。
前記課題を解決するために、請求項1記載の発明は、画像を記憶する記憶手段と、表示手段と、この表示手段の表示面に対して外部から指示を検出する第1の検出手段と、この第1の検出手段による検出に続いて、その指示が検出された位置を始点として継続的に指示が検出された場合、その指示された位置の軌跡を少なくとも含む指示情報を検出する第2の検出手段と、前記記憶手段から画像を読み出し、前記表示手段に表示するよう制御する第1の表示制御手段と、この第1の表示制御手段によって表示されている画像を複数の画像領域に分割し、この分割された画像領域毎に特徴量情報を取得する取得手段と、前記第1の検出手段によって検出された指示位置、前記第2の検出手段によって検出された指示情報、及び、これらの位置及び位置情報に対応している前記分割された画像領域の特徴量情報に基づいて、前記指示情報に対応する画像領域を加工する加工手段と、を備えることを特徴とする。
また、請求項2記載の発明は、請求項1記載の発明において、前記加工手段によって加工された画像を加工前の画像から徐々に変化させて表示するよう制御する第2の表示制御手段を更に備えることを特徴とする。
また、請求項3記載の発明は、請求項1記載の発明において、前記加工手段によって加工された画像を記録媒体に記録する記録制御手段を更に備えることを特徴とする。
また、請求項4記載の発明は、画像を記憶する記憶手段と、表示手段とを備える機器が有するコンピュータを、前記表示手段の表示面対して外部から指示を検出する第1の検出手段、この第1の検出手段による検出に続いて、その指示が検出された位置を始点として継続的に指示が検出された場合、その指示された位置の軌跡を少なくとも含む指示情報を検出する第2の検出手段、前記記憶手段から画像を読み出し、前記表示手段に表示するよう制御する第1の表示制御手段、この第1の表示制御手段によって表示されている画像を複数の画像領域に分割し、この分割された画像領域毎に特徴量情報を取得する取得手段、前記第1の検出手段によって検出された指示位置、前記第2の検出手段によって検出された指示情報、及び、これらの位置及び位置情報に対応している前記分割された画像領域の特徴量情報に基づいて、前記指示情報に対応する画像領域を加工する加工手段、として機能させることを特徴とする。
また、請求項5記載の発明は、表示手段の表示面対して外部から指示を検出する第1の検出ステップと、この第1の検出ステップによる検出に続いて、その指示が検出された位置を始点として継続的に指示が検出された場合、その指示された位置の軌跡を少なくとも含む指示情報を検出する第2の検出ステップと、記憶手段から画像を読み出し、前記表示手段に表示するよう制御する第1の表示制御ステップと、この第1の表示制御ステップによって表示されている画像を複数の画像領域に分割し、この分割された画像領域毎に特徴量情報を取得する取得ステップと、前記第1の検出ステップによって検出された指示位置、前記第2の検出ステップによって検出された指示情報、及び、これらの位置及び位置情報に対応している前記分割された画像領域の特徴量情報に基づいて、前記指示情報に対応する画像領域を加工する加工ステップと、を含むことを特徴とする。
本発明によれば、ユーザにおいて画像の所望領域を確実かつ簡単に指定することができ、画像の指定した領域を徐々に変化させて表示することができる。
本発明の一実施の形態を適用した電子カメラのブロック図である。 撮影時のぼかし処理の手順を示すフローチャートである。 タッチ検出および軌跡の検出処理の手順を示すフローチャートである。 注目点領域の抽出処理(1)の手順を示すフローチャートである。 第1の実施の形態におけるボカシ処理及び鮮鋭化処理の画像の例を示す図である。 図5に続く画像の例を示す図である。 注目点領域の抽出処理(2)の手順を示すフローチャートである。 階層型画像データの作成処理例を示す図である。 第2の実施の形態におけるボカシ処理された画像例、及びボカシ程度の調整例を示す説明図である。
以下、本発明の一実施の形態を図に従って説明する。
図1は、本発明の各実施の形態に共通するデジタルカメラ1の電気的構成を示す回路ブロック図である。このデジタルカメラ1は、AE(Auto Exposure)、AWB(Auto White Balance)、AF(Auto Focus)等の一般的な機能を有するものである。すなわち、レンズブロック11には、ズームレンズ111や図示しないフォーカスレンズ等の光学系、及び光学系を駆動するための駆動機構が含まれている。前記ズームレンズ111は、駆動機構に設けられているズームモーター12によって光軸方向に駆動される。
デジタルカメラ1全体を制御するCPU(Central Processing Unit)13には、バス14及びタイミング発生器(TG:Timing Generator)15を介してモータードライバ16が接続されている。モータードライバ16は、ユーザの操作に応じたCPU13の命令に従いタイミング発生器15が発生するタイミング信号に基づき、ズームモーター12を駆動する。これにより、ズームレンズ111が駆動されて、そのレンズ位置が変化する。
このとき、CPU13は、自己が発生する命令を記憶して管理している。したがって、CPU13は、自己が発生する命令を記憶して管理することにより、自己が発生する命令によりタイミング発生器15が発生するタイミング信号に応じて変化するズームレンズ111のレンズ位置を取得することができる。
また、図示は省略するが、実際には、フォーカスレンズを駆動するためのフォーカスモーター及びモータードライバや、メカシャッタやメカ絞り及びそれらを駆動するためのモーターを有する駆動機構等が設けられている。
また、デジタルカメラ1は、撮像素子としてCCD(Charge Coupled Device)18を有している。CCD18は、レンズブロック11の光軸上に配置されている。被写体は、レンズブロック11によってCCD18の受光面に結像される。CCD18は、CPU13の命令に従いタイミング発生器15が生成するタイミング信号に基づき垂直及び水平ドライバ19によって駆動され、被写体の光学像に応じたアナログの撮像信号をユニット回路20に出力する。ユニット回路20は、CCD18の出力信号に含まれるノイズを相関二重サンプリングによって除去するCDS(Correllated Double Sampling)回路や、ノイズが除去された撮像信号をデジタル信号に変換するA/D(Analog/Digital)変換器等から構成され、デジタル信号をDSP(Digital Signal Processor)21へ出力する。
DSP21は、ユニット回路20から出力されたデジタル信号に対しペデスタルクランプやオートホワイトバランス等の各種画像処理を施すことにより、輝度(Y)信号及び色差(UV)信号からなる画像データを生成する。DSP21で変換された画像データは順次SDRAM(Synchronous Dynamic Random Access Memory)22に格納されるとともに、REC(Record)スルー・モードでは1フレーム分のデータ(画像データ)が蓄積される毎にビデオ信号に変換され、液晶のモニタ4へ送られてスルー画像として画面表示される。
そして、静止画撮影モードにおいては、レリーズ釦操作をトリガとして、CPU13は、CCD18、垂直及び水平ドライバ19、ユニット回路20、及びDSP21に対してスルー画撮影モードから静止画撮影モードへの切り替えを指示し、この静止画撮影モードによる撮影処理により得られSDRAM22に一時記憶された画像データは、CPU13により圧縮され、最終的には所定のフォーマットの静止画ファイルとして外部メモリ25に記録される。この外部メモリ25に記録された静止画ファイルは、PLAY・モードにおいてユーザの選択操作に応じてCPU13に読み出されるとともに伸張され、画像データとしてSDRAM22に展開された後、画像データに基づく画像がモニタ4に表示される。
フラッシュメモリ26には、CPU13に前記各部を制御させるための各種のプログラム、例えばAE、AF、AWB制御用のプログラムや、後述するフローチャートに示す処理を実行するためのプログラム等の各種のプログラムが格納されている。
また、デジタルカメラ1は、半押し操作と全押し操作とが可能なレリーズ釦、ズーム釦、OK釦等の複数の操作キー及びスイッチを含むキー入力部27を有している。キー入力部27は、ユーザによっていずれかの操作キーが操作されると、その操作内容に応じた操作信号をCPU13へ供給する。
なお、モニタ4には、タッチパネル23が積層されている。タッチパネル23は、モニタ4上におけるユーザのタッチ位置および度合(タッチの太さ、面積、強さ)を検出し、検出した位置及び度合位置を示す信号をCPU13に供給する。
(第1の実施の形態)
次に、以上の構成にかかるデジタルカメラ1の第1の実施の形態における動作を説明する。図2は、本実施の形態における撮影時のぼかし処理の手順を示すフローチャートである。ユーザによるキー入力部27での操作により、ぼかし処理モードが設定されるとCPU13は前記プログラムに従って、このフローチャートに示す処理を実行する。
すなわち、CPU13は、撮影モードが設定されているか否かを判断し(ステップS101)、撮影モードが設定されていない場合には、その他のモード処理に移行する(ステップS102)。
撮影モードが設定されている場合には、スルー撮像、スルー表示処理を実行し、レンズブロック11を介してCCD18により所定のフレームレートで撮像したスルー画像を液晶のモニタ4に表示させる(ステップS103)。次に、タッチ操作によるぼかし撮影が設定されているか否かを判断し(ステップS104)、設定されていない場合にはステップS105〜S114の処理を行うことなく、ステップS115に進む。
タッチ操作によるぼかし撮影が設定されている場合には、液晶表示パネル3に表示されているスルー画像から、注目点領域を推定して抽出する(ステップS105)。なお、このステップS105で実行される注目点領域の推定抽出に関しては、図4に示すフローチャートに基づき後述する。次に、タッチパネル23から供給されるモニタ4上におけるユーザのタッチ検出及びタッチ軌跡の検出処理を実行する(ステップS106)。このステップS106で実行されるタッチ検出及びタッチ軌跡の検出処理に関しては、図3に示すフローチャートに基づき後述する。
引き続き、前記ステップS105で推定抽出された注目点領域と、前記ステップS106で検出されたタッチ入力軌跡から、スルー画像における処理対象領域(ボカシ処理又は鮮鋭化処理する対象とする領域)を判別して選択する(ステップS107)。つまり、前記ステップS106で検出されたタッチ入力軌跡がある領域であっても、前記ステップS105で推定抽出された注目点領域である場合には、この領域を処理対象領域とはせずに、タッチ入力軌跡がある領域であって注目点領域でない領域のみを処理対象領域として判別する。さらに、この処理対象領域に対する処理種別である機能コマンドとして、予めボカシ処理(ステップS108)と鮮鋭化処理(ステップS111)のいずれが選択設定されているかを判断する。
機能コマンドとしてボカシ処理が選択設定されている場合には(ステップS108→YES)、前記ステップS107で選択されたスルー画像における選択領域をボカシ処理の対象領域に設定し、前記ステップS106で検出したタッチの度合に応じてボカシ処理量を設定する(ステップS109)。また、ボカシ処理を実行すべきことを示すボカシ処理Flagに「1」を立てる(ステップS110)。
他方機能コマンドがボカシ処理でない場合には、機能コマンドが鮮鋭化処理であるか否かを判断する(ステップS111)。鮮鋭化処理である場合には(ステップS111→YES)、前記ステップS107で選択されたスルー画像における選択領域をボカシ処理の対象領域に設定し、前記ステップS106で検出したタッチの度合に応じて鮮鋭化処理量を設定する(ステップS112)。また、鮮鋭化処理を実行すべきことを示す鮮鋭化処理Flagに「1」を立てる(ステップS110)。さらに、機能コマンドがボカシ処理と鮮鋭化処理のいずれでもない場合には、その他のコマンド処理を実行する(ステップS114)。
そして、ステップS110、S113、S114のいずれかに続くステップS115においては、キー入力部27に設けられたレリーズ釦が半押し操作されたか否か、又はAEロックなどの撮影準備操作がなされたか否かを判断する(ステップS115)。これら操作のいずれかがなされたならば、測光処理を行うとともに、この測光処理により得られた計測露出値と予め設定されている設定撮影条件に応じてCCD18の露光条件を設定する(ステップS116)。
引き続き、レリーズ釦が全押し(または、撮影指示操作が検出)されたか否か(ステップS117)、または半押しされているレリーズ釦から手指が離されて、半押しが解除されたか否か(ステップS118)を判断する。レリーズ釦の半押しが解除された場合には、AEロックや処理フラグ(ボカシ処理Flagまたは鮮鋭化処理Flag)を解除して(ステップS119)、リターンする。
レリーズ釦が全押し(または、撮影指示操作が検出)された場合には、前記ステップS116で設定された設定露出条件などの撮影条件に応じて、CCD18を露出させて撮影処理する(ステップS120)。そして、この撮影処理により得られた撮影画像データをSDRAM22に一時的に記憶する(ステップS121)。
次に、ボカシ処理Flag=1の状態にあるか否かを判断する(ステップS122)。ボカシ処理Flag=1の状態にあるならば、前記ステップS121でSDRAM22に保存した今回の撮影画像にボカシ処理を施す(ステップS123)。具体的には、SDRAM22内に保存されている撮影画像の選択領域(ステップS107で選択された領域)を対象領域とし、その他の領域にマスクを設定し、設定ボカシ処理量(ステップS109で設定されたボカシ処理量)に応じて、ボカシ処理を施す。したがって、本実施の形態によれば、ユーザにおいて画像の所望領域を確実かつ簡単に指定することができ、画像の指定した領域を徐々に変化(ボカシ変化)させて表示することができる。
さらに、このボカシ処理を施した撮影画像である処理済み画像をモニタ4にレビュー表示する(ステップS124)。しかる後に、このボカシ処理済みの画像データを符号化して、画像メモリ媒体である外部メモリ25に保存記録し、ボカシ処理Flag=0に戻しす(ステップS125)。したがって、ユーザにおいて画像の所望領域を確実にボカシ変化させた画像を外部メモリ25に保存することができる。
また、ボカシ処理Flag=1の状態でない場合には、鮮鋭化処理Flag=1の状態にあるか否かを判断する(ステップS126)。鮮鋭化処理Flag=1の状態にあるならば、前記ステップS121でSDRAM22に保存された今回の撮影画像に鮮鋭化処理を施す(ステップS127)。具体的には、SDRAM22内に保存した撮影画像の選択領域(ステップS107で選択された領域)を対象領域とし、その他の領域にマスクを設定し、設定鮮鋭化処理量(ステップS112で設定された鮮鋭化処理量)に応じて、鮮鋭化処理を施す。
さらに、この鮮鋭化処理を施した撮影画像である処理済み画像をモニタ4にレビュー表示する(ステップS128)。しかる後に、この鮮鋭化処理済みの画像データを符号化して、画像メモリ媒体である外部メモリ25に保存記録し、鮮鋭化処理Flag=0に戻して(ステップS129)、リターンする。
また、ボカシ処理Flag=0、かつ、鮮鋭化処理Flag=0の状態にある場合には、前記ステップS121でSDRAM22に保存された今回の撮影画像に通常の信号処理(デジタル現像処理)を施す(ステップS130)。さらに、この通常の信号処理済み画像をモニタ4にレビュー表示した後(ステップS131)、この通常の信号処理済みの画像データを符号化して、画像メモリ媒体である外部メモリ25に保存記録し(ステップS132)、リターンする。
図3は、前記タッチ検出及びタッチ軌跡の検出処理(ステップS106)のサブルーチンを示すフローチャートである。すなわち、CPU13は、タッチパネル23を走査して、モニタ4上におけるユーザのタッチ位置および度合(タッチの太さ、面積、強さ)を検出する(ステップS201)。また、ユーザによるタッチが継続中であるか否かを判断する(ステップS202)。タッチが継続中であるならば、タッチ継続中Flag=1の状態にあるか否かを判断する(ステップS203)。
タッチ継続中Flag=1の状態でない場合には、タッチ継続中Flag=0であって検出されたタッチが新たなタッチであるか否かを判断する(ステップS204)。新たなタッチであるならば、タッチ検出動作を開始し(ステップS205)、検出されたタッチ点の位置と度合を開始点としてSDRAM22にメモリする(ステップS206)。また、タッチが継続中となったことを示すタッチ継続中Flagを立てて、タッチ継続中Flag=1にする(ステップS207)。
このステップS207での処理によりタッチ継続中Flag=1となると、再度このフローに従ってステップS201からの処理が実行された際に、ステップS203の判断がYESとなる。したがって、ステップS203からステップS208に進み、前記ステップS201で検出されたタッチ点の座標位置、度合を順次SDRAM22にメモリして蓄積する。
さらに、このタッチ点の座標位置の蓄積により得られる連続タッチ点から選択された複数点を折れ線(またはスプライン曲線)で連結する(ステップS209)。つまり、ステップS201で検出されるタッチ位置は、このフローチャートに従って処理が実行される毎に得られる点的な位置情報(連続タッチ点)である。したがって、これら点的な位置情報(連続タッチ点)から選択された複数点を連結することにより、点的なタッチ情報を線的なタッチ情報に変換する。
さらに、この連結されたタッチ点の軌跡を表示部であるモニタ4にプロット描画し、当該モニタ4に表示されているスルー画像に重畳表示する(ステップS210)。したがって、ユーザがモニタ4に表示されているスルー画像の所望部分を例えば手指で擦ると、当該所望部分に擦った軌跡が重畳表示されることとなる。
また、ユーザがスルー画像の所望部分を擦るのをやめてモニタ4から手指を離すと、再度ステップS201からの処理が実行された際にステップS202の判断がNOとなる。したがって、ステップS202からステップS211に進みタッチ入力が終了したか否かを判断する。このタッチ入力が終了したか否かの判断は、タッチ継続中Flag=1の状態でタッチが不継続となったか否かにより判断することができる。
タッチ入力が終了したならば、タッチ点の座標位置、度合のSDRAM22へのメモリ処理(ステップS208)と、モニタ4のスルー画像上へのタッチ点の軌跡描画処理(ステップS210)とを終了させる(ステップS212)。引き続き、最後のタッチ点の位置と度合を終了点としてSDRAM22にメモリする(ステップS213)。また、前記ステップS210でモニタ4にプロット描画されているタッチ軌跡の連結プロット線を出力した後(ステップS214)、タッチ継続中Flag=0にする(ステップS215)。
そして、前記ステップS214で出力したタッチ位置と軌跡から、機能コマンドの選択か、対象領域の指示かを判別する(ステップS216)。つまり、本実施の形態においては、以上に説明したスルー画像における対象領域の指示入力のみならず、図2のステップS208、S111、S114に示した機能コマンドの設定もモニタ4に対するタッチをタッチパネル23より検出することにより行う。したがって、タッチパネル23より検出したモニタ4に対するタッチが機能コマンドの選択であるのか、対象領域の指示であるのか判別する必要がある。
また、この判別は機能コマンドの選択であればタッチ位置は固定的であり、タッチ軌跡も短いことから、タッチ位置とタッチ軌跡とから判別することができる。したがって、ステップS216での判別処理の結果に基づき、タッチが機能コマンドの入力であるか否かを判断する(ステップS217)。機能コマンドの入力であるならば、機能コマンドの設定・変更処理を実行する(ステップS218)。
また、機能コマンドの入力でない場合には、対象領域の指示入力か否かを判断し(ステップS219)、そうである場合には対象領域の指示設定処理を実行する(ステップS210)。機能コマンドの入力と対象領域の指示入力のいずれでもない場合には、その他の入力処理を実行する(ステップS221)。
図4は、本発明の第1の実施の形態において前記ステップS105で実行される注目点領域の抽出処理のサブルーチンを示すフローチャートである。すなわち、モニタ4に表示させているスルー画像を構成するフレーム画像I(x,y)をSDRAM22に入力する(ステップS301)。次に、ガウシアン解像度ピラミッドの作成を行う(ステップS302)。このガウシアン解像度ピラミッドの作成に際しては、下記式(1)及び(2)に示すように、入力画像I(x,y)から、順次、ガウシアンフィルタ処理とダウンサンプリング処理を行って、階層型のスケール画像 I(L)の組を作成する。
I(0)=I(x,y)・・・(1)
I(L+1)=Subsampled(1/2×1/2) [I(L)*G(5×5)]・・・(2)
引き続き、ステップS303〜S306の処理で輝度の特徴量マップ(FI)を作成し、ステップS307〜S310の処理で色の特徴量マップ(F)を作成し、ステップS3011〜S314の処理で方向性の特徴量マップ(F)を作成する。まず、輝度の特徴量マップ(FI)の作成について説明すると、各注目画素c∈{2、3、4}の各スケール画像の輝度成分I(c)求める(ステップS303)。また、各注目画素の周辺s=c+δ、δ∈{3、4}の各スケール画像の輝度成分I(s)を求める(ステップS304)。さらに、下記式(3)に示すように、各スケール画像について、輝度IのCenter-Surroundのスケール間差分〔-〕(輝度コントラスト)を求める(ステップS305)。
I(c、s)=|I(c)〔-〕I(s)|・・・(3)
しかる後に、下記式(4)に示すように、輝度コントラストの特徴量マップを正規化し、c、sの全範囲にわたって結合し、輝度の特徴量マップ(FI)を作成する(ステップS306)。
FI=〔+〕c〔+〕sN(I(c,s))・・・(4)
ただし、c=2〜4、s=c+3〜c+4。
他方、色の特徴量マップ(F)は、ステップS307〜S310の処理により作成する。すなわち、各注目画素c∈{2、3、4}の各スケール画像の色成分R(c)、G(c)、B(c)、Y(c)を求める(ステップS307)。また、各注目画素の周辺s=c+δ、δ∈{3、4}の各スケール画像の色成分R(s)、G(s)、B(s)、Y(s)を求める(ステップS308)。さらに、下記式(4)(5)により各スケール画像について、色相(R/G,B/Y)のCenter-Surroundのスケール間差分〔-〕(色相コントラスト)を求める(ステップS309)。
RG(c、s)=|(R(c)-G(c))〔-〕(G(s)-R(s))|・・・(4)
BY(c、s)=|(B(c)-Y(c))〔-〕(B(s)-Y(s))|・・・(5)
また、下記式(6)により、色相コントラストの特徴量マップを正規化し、c、sの全範囲にわたって結合し、色の特徴量マップ(FC)を作成する(ステップS310)。
FC=〔+〕c〔+〕s{N(RG(c,s))+N(BY(c,s))}・・・(6)
ただし、c=2〜4、s=c+3〜c+4。
そして、方向性の特徴量マップ(F)は、ステップS3011〜S314の処理により作成する。すなわち、各注目画素c∈{2、3、4}の各スケール画像の方向性成分O(c,θ)を求める(ステップS311)。また、各注目画素の周辺s=c+δ、δ∈{3、4}の各スケール画像の方向性成分O(s,θ)を求める(S312)。下記式(7)により、各スケール画像について、方向性OのCenter-Surroundのスケール間差分〔-〕(方向性コントラスト)を求める(ステップS313)。
O(c,s,θ)=|O(c,θ)〔-〕O(s,θ)|・・・(7)
また、下記式(8)により、方向性コントラストの特徴量マップを正規化し、c、s、θの全範囲にわたって結合し、方向性の特徴量マップ(FO)を作成する(ステップS314)。
FO=Σθ〔+〕c〔+〕s{N(O(c,s,θ))・・・(8)
ただし、θ=0°,45°,90°,135°、
c=2〜4、s=c+3〜c+4
以上の処理により、輝度の特徴量マップ(FI)、色の特徴量マップ(FC)、方向性の特徴量マップ(FO)が作成されることとなる。したがって、下記式(9)に示すように、これら複数の特徴量マップを、線形和で統合して、顕著性マップ(Saliency Map)Sを求める(ステップS315)。
S=w1・N(FI)+w2・N(FC)+w3・N(FO)・・・(9)
そして、顕著性マップSの所定閾値以上の領域(S≧Sth)を、注目点領域として抽出するのである(ステップS316)。
図5(A)〜(H)及び図6(I)〜(P)は、以上に説明した第1の実施の形態における画像の例を示す図である。先ず、スルー画像又は撮影画像を元画像P101としてモニタ4に表示する(A)。この元画像P101から複数の特徴量マップ(色の特徴量マップFC(B)、特徴量マップFO(C)、特徴量マップFI(D))を生成する。そしてこれら特徴量マップFC、特徴量マップFO、特徴量マップFIを顕著性マップに統合することにより、単一の顕著性マップP107を生成する(E)。そして、図4のステップS316においても説明したように、顕著性マップの所定閾値以上の領域を、注目点領域P108として抽出する(F)。
また、元画像を平滑化フィルタで処理し、この平滑化処理された元画像のエッジ検出を検出して、エッジ画像(輪郭線)P111を得る(G)。そして、前記注目点領域P108で得られた注目点の領域近傍をエッジ画像(輪郭線)から抽出して、注目点の近傍抽出画像P113を得る(H)。
他方、図6(I)に示すように、ユーザが、タッチパネル上で「Blur(ぼかす)」と「Focus(ピント)」を選択した後、表示されている元画像にタッチすると、ぼかすP114又はぼかさない領域がタッチパネルで検出され描画される(I)。すると、タッチパネルによりタッチが検出されるとともに、検出されたタッチの位置、タッチの度合、軌跡P115が順次記憶されていく(J)。これら記憶されたタッチの位置等は折れ線又はBスプライン曲線等(P116)で結合され、タッチ指示領域が判定される(K)。
そして、前記P113で得られた注目点の近傍抽出画像から、タッチ指示領域に近い注目点領域だけが抽出され、抽出領域P118が得られる(L)。さらに、現画像において抽出領域に対応する画像部分P119が特定され(M)、当該部分(本例では右側の大輪のバラ)のみが鮮鋭化処理される。
また、前記特定された抽出領域P118に対応する画像部分(本例では右側の大輪のバラ)を覆う形状のマスクを作成する。そして、この作成したマスクを元画像において描画指示されたぼかさない領域(本例では右側の大輪のバラ、P122)を覆って保護する(N)。引き続き、ぼかさない領域をマスクした状態で、元画像をボカシ処理し(P123)、ボカシ処理された画像を得る(O)。
したがって、このボカシ処理より、「右側の大輪のバラ」を除く画像部分がボカシ処理された画像が得られ、表示される。また、前記鮮鋭化処理より、「右側の大輪のバラ」のみが鮮鋭化処理された画像が得られている。そこで、こので得られた「右側の大輪のバラ」のみが鮮鋭化処理された画像と、「右側の大輪のバラ」を除く画像部分がボカシ処理された画像とを合成処理する。これにより、タッチ指示された注目点領域以外がボカシ処理された画像(P126)が得られて表示されることとなる(P)。
(第2の実施の形態)
図7は、本発明の第2の実施の形態において、前記ステップS105で実行される注目点領域の抽出処理のサブルーチンを示すフローチャートである。すなわち、モニタ4に表示させているスルー画像を構成するフレーム画像IをSDRAM22に入力する(ステップS401)。次に、階層型のスケール画像の組(ガウシアン解像度ピラミッド)を作成する(ステップS402)。引き続き、ステップS403〜S410の処理でコントラストの特徴量マップFC(x,I)、center-surroundの色ヒストグラムの特徴量マップFh(x,I)、色の空間分布の特徴量マップFS(x,I)を求める。
まず、コントラストの特徴量マップFC(x,I)処理について説明すると、下記式(10)により、マルチ・スケールのコントラストの特徴量マップFC(x,I)を求める(ステップS403)。
FC(x,I)=ΣLΣX'||IL(x)-IL(x')||2・・・(10)
ただし、IL(x)は、ガウシアンピラミッドのL番目の階層の画像
また、center-surroundの色ヒストグラムの特徴量マップFh(x,I)を求めるには、矩形を異なるアスペクト比{0.5,0.75,1.0,1.5,2.0}に変えて、各矩形領域の色ヒストグラムR(x)と、周辺輪郭の色ヒストグラムRS(x)とを、それぞれ計算する(ステップS404)。下記式(11)により、色ヒストグラムR(x)とRS(x)のカイ2乗距離が最大となる矩形領域のヒストグラムR*(x)を求める(ステップS405)。
R*(x)=argmax{X2(R(x),RS(x))}・・・(11)
さらに、下記式(12)により、center-surroundの色ヒストグラムの特徴量マップFh(x,I)を求める(ステップS406)。
Fh(x,I)∝ΣX'{wXX'・X2(R*(x')R*S(x'))}・・・(12)
また、色の空間分布の特徴量マップFS(x,I)を求めるには、下記式(13)を用いて、色の空間分布について、水平方向の分散Vh(c)を計算する(ステップS407)。
Vh(c)=(1/|X|Cx{p(c|Ix)・|xh-Mh(c)|2}・・・(13)
また、下記式(14)を用いて、色の垂直方向の分散VV(c)を計算する(ステップS408)。
VV(c)=(1/|Y|Cy{p(c|Iy)・|yh-Nh(c)|2}・・・(14)
また、下記式(14)を用いて、色の空間的な分散V(c)を求める(ステップS409)。
V(c)=Vh(c)+VV(c)・・・(14)
そして、下記式(15)を用いて、色の空間分布の特徴量マップFS(x,I)を求める(ステップS410)。
FS(x,I)∝Σcp(c|Ix)・(1-V(c))・・・(15)
以上の処理により、コントラストの特徴量マップFC(x,I)、center-surroundの色ヒストグラムの特徴量マップFh(x,I)、色の空間分布の特徴量マップFS(x,I)が求められることとなる。したがって、下記式(16)に示すように、各特徴量マップを線形統合して、顕著性マップS(x,I)を求めて出力する(ステップS411)。
S(x,I)=w1・Fc(x,I)+w2・Fh(x,1)+w3・FS(x,1) ・・・(16)
そして、顕著性マップSの所定閾値以上の領域(S≧Sth)を、注目点領域として抽出するのである(ステップS412)。
図8は、注目点領域の推定抽出の前処理としての階層型画像データ(ガウシアン解像度ピラミッド)の作成処理の例を示す図である。この図に示すように、画像I(3)、画像I(2)、画像I(1)、画像I(0)からなる階層型画像データ(ガウシアン解像度ピラミッド)を作成する。
なお、ボカシ処理方法としは、下記(a)(b)を挙げることができる。
(a)ガウシアン分布フィルタ(Gaussian Filter)を用いるボカシ処理
ただし、上式でGσ(x)は、ガウシアン分布に従い、
つまり、点pの近傍領域(S)内にある各点qにおける画素値Iqについて、σ(空間パラメータ)により、ぼかす大きさ(点pとの空間的距離に応じた影響の度合)を調整して、任意程度のボケ画像を合成することができる。
(b)バイラテラル・フィルタ(Bilateral Filter)を用いるボカシ処理
下記式(19)に示すように、空間フィルタGσs(x)とインテンシティフィルタ(Gσs(x))とを組み合わせて、任意程度のボケ画像を合成する。
つまり、点pの近傍領域(S)内にある各点qにおける画素値Iqについて、σs(空間パラメータ)により、ぼかす大きさ(点pとの空間的距離に応じた影響の度合)をσr(強度パラメータ)により、ぼかす強度(点pの輝度Ipとの違いに応じた影響の度合をそれぞれ調整して、ぼかし処理ことができる。
図9は、以上に説明した第2の実施の形態におけるボカシ処理された画像例、及びボカシ程度の調整例を示す説明図である。スルー画像又は撮影画像を元画像として用いる(ステップP201)。タッチパネル上で「Blur(ぼかす)」と「Focus(ピント)」から、「Focus(ピント)」を選択した後、画像上の3本のバラに円曲線状に触れる(ステップP202)。これにより、3本のバラにピントが指示され、他にボカシが指示される(ステップP203)。
また、ステップP204、P206、P208に示す形態で、3本のパラの背景領域におけるボカシ程度を指示する。すなわち、タッチパネル上で「Blur(ぼかす)」を選択した後、ステップP204に示すように、背景領域に短く複数箇所でタッチする。また、ステップP206に示すように、背景領域に短いタッチと長いタッチとを混在させる。あるいは、ステップP208に示すように、背景領域に連続した長いタッチを行う。
このような場合、ボカシの程度は、P204<P206<P208とし、ステップP204が最もボカシが少なく、ステップP206が次にボカシが多く、ステップP208が最もボカシが多く指示されたものと判断する。したがって、ステップP204の場合には3本のバラの背景領域にガウシアンフィルタ、半径=1画素でボカシ処理を施す(ステップP205)。また、ステップP206の場合には3本のバラの背景領域にガウシアンフィルタ、半径=2.5画素でボカシ処理を施し(ステップP207)、ステップP208の場合には3本のバラの背景領域にガウシアンフィルタ、半径=4.5画素でボカシ処理を施す(ステップP209)。
また、タッチパネル上で「Blur(ぼかす)」と「Focus(ピント)」から、「Focus(ピント)」を選択した後、右のバラに円曲線状に触れる(ステップP210)。これにより、右のバラにピントが指示され、他にボカシが指示される(ステップP211)。
また、ステップP204、P206、P208に示す形態で、3本のパラの背景領域におけるボカシ程度を指示する。すなわち、タッチパネル上で「Blur(ぼかす)」を選択した後、ステップP204に示すように、背景領域に短く複数箇所でタッチする。また、ステップP206に示すように、背景領域に短いタッチと長いタッチとを混在させる。あるいは、ステップP208に示すように、背景領域に連続した長いタッチを行う。
このような場合、ボカシの程度は、前述のようにP204<P206<P208とし、ステップP204が最もボカシが少なく、ステップP206が次にボカシが多く、ステップP208が最もボカシが多く指示されたものと判断する。したがって、ステップP204の場合には右のバラ以外の領域にガウシアンフィルタ、半径=1画素でボカシ処理を施す(ステップP212)。また、ステップP206の場合には右のバラ以外の領域にガウシアンフィルタ、半径=2.5画素でボカシ処理を施し(ステップP213)、ステップP208の場合には右のバラ以外の領域にガウシアンフィルタ、半径=4.5画素でボカシ処理を施す(ステップP214)。
したがって、以上の処理により、タッチの形態を変化させることによりボカシの程度及び領域を設定することもできる。
なお、実施の形態に下記の構成を加えるようにしてもよい。
(1)表示画面にアイコンとして、「ボカシ処理」、「ボケ除去処理」など、撮影モードや修正モードを選択するアイコン、もしくは、処理の程度や領域の大きさ、・・・などを選択するためのアイコンやパレットなどの操作オブジェクトを表示する。そして、
・操作オブジェクトの表示に対応する領域または近くを、点状、または、じわっと、短距離でタッチされた場合は、操作オブジェクトの選択と見なし、そのオブジェクトに応じたモードや処理の切替え、選択を行う。
・操作オブジェクト領域内を線状、または所定距離以上なぞられた場合は、既選択処理の対象領域の指定入力と見なす。
・操作オブジェクト領域から離れた点がタッチされた場合も、既選択処理の対象領域の指定入力と見なす。
・操作オブジェクト領域または近くであっても、その他領域からつながる軌跡で、線状にタッチされたり、比較的長い距離こすられたりした時は、既選択処理の対象領域の指定の延長と判断して、こすられた領域を、操作オブジェクト対応領域も含めて、対象領域として指定する。
(2)指やペンでこすったりなぞったりされた領域を、「ボカシ処理」(または「ボケ除去処理」)の対象領域として指定入力すると同時に、タッチの強弱(強さ、圧力、導電率)や太さ、面積、軌跡の形状、こすった度合や程度(塗りつぶし割合、往復回数、タッチ時間)などを分析して、それらに応じて、「ボカシ処理」(または「ボケ除去処理」)の強弱、程度、領域の広さ、フィルタの係数、・・・等を加減調整して設定し、設定された強弱、程度、領域、フィルタ特性にて、「ボカシ処理」(または「ボケ除去処理」)を施す。
(3)撮影条件(焦点距離f、絞り開口F値、撮影距離L)および許容錯乱円半径d(または画像の印刷サイズ)に応じて、主被写体領域とその他領域の領域毎の被写界深度の深さ、またはボケ具合を計算して、計算された被写界深度またはボケ具合と、ユーザー操作によるぼかしの強弱加減との組合せに応じて、ぼかしフィルタの係数などを設定して、画像処理によるぼかしの強弱、程度、分布状態を自動調整する。
1 デジタルカメラ
4 モニタ
11 レンズブロック
12 ズームモーター
13 CPU
18 CCD
19 水平ドライバ
20 ユニット回路
21 DSP
22 SDRAM
23 タッチパネル
25 外部メモリ
26 フラッシュメモリ
27 キー入力部
111 ズームレンズ

Claims (5)

  1. 画像を記憶する記憶手段と、
    表示手段と、
    この表示手段の表示面に対して外部から指示を検出する第1の検出手段と、
    この第1の検出手段による検出に続いて、その指示が検出された位置を始点として継続的に指示が検出された場合、その指示された位置の軌跡を少なくとも含む指示情報を検出する第2の検出手段と、
    前記記憶手段から画像を読み出し、前記表示手段に表示するよう制御する第1の表示制御手段と、
    この第1の表示制御手段によって表示されている画像を複数の画像領域に分割し、この分割された画像領域毎に特徴量情報を取得する取得手段と、
    前記第1の検出手段によって検出された指示位置、前記第2の検出手段によって検出された指示情報、及び、これらの位置及び位置情報に対応している前記分割された画像領域の特徴量情報に基づいて、前記指示情報に対応する画像領域を加工する加工手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記加工手段によって加工された画像を加工前の画像から徐々に変化させて表示するよう制御する第2の表示制御手段を更に備えることを特徴とする請求項1記載の画像処理装置。
  3. 前記加工手段によって加工された画像を記録媒体に記録する記録制御手段を更に備えることを特徴とする請求項1記載の画像処理装置。
  4. 画像を記憶する記憶手段と、表示手段とを備える機器が有するコンピュータを、
    前記表示手段の表示面対して外部から指示を検出する第1の検出手段、
    この第1の検出手段による検出に続いて、その指示が検出された位置を始点として継続的に指示が検出された場合、その指示された位置の軌跡を少なくとも含む指示情報を検出する第2の検出手段、
    前記記憶手段から画像を読み出し、前記表示手段に表示するよう制御する第1の表示制御手段、
    この第1の表示制御手段によって表示されている画像を複数の画像領域に分割し、この分割された画像領域毎に特徴量情報を取得する取得手段、
    前記第1の検出手段によって検出された指示位置、前記第2の検出手段によって検出された指示情報、及び、これらの位置及び位置情報に対応している前記分割された画像領域の特徴量情報に基づいて、前記指示情報に対応する画像領域を加工する加工手段、
    として機能させることを特徴とするプログラム。
  5. 表示手段の表示面対して外部から指示を検出する第1の検出ステップと、
    この第1の検出ステップによる検出に続いて、その指示が検出された位置を始点として継続的に指示が検出された場合、その指示された位置の軌跡を少なくとも含む指示情報を検出する第2の検出ステップと、
    記憶手段から画像を読み出し、前記表示手段に表示するよう制御する第1の表示制御ステップと、
    この第1の表示制御ステップによって表示されている画像を複数の画像領域に分割し、この分割された画像領域毎に特徴量情報を取得する取得ステップと、
    前記第1の検出ステップによって検出された指示位置、前記第2の検出ステップによって検出された指示情報、及び、これらの位置及び位置情報に対応している前記分割された画像領域の特徴量情報に基づいて、前記指示情報に対応する画像領域を加工する加工ステップと、
    を含むことを特徴とする画像処理方法。
JP2011209395A 2011-09-26 2011-09-26 画像処理装置、画像処理方法、及び、プログラム Active JP5899745B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011209395A JP5899745B2 (ja) 2011-09-26 2011-09-26 画像処理装置、画像処理方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011209395A JP5899745B2 (ja) 2011-09-26 2011-09-26 画像処理装置、画像処理方法、及び、プログラム

Publications (3)

Publication Number Publication Date
JP2013074301A true JP2013074301A (ja) 2013-04-22
JP2013074301A5 JP2013074301A5 (ja) 2014-11-06
JP5899745B2 JP5899745B2 (ja) 2016-04-06

Family

ID=48478485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011209395A Active JP5899745B2 (ja) 2011-09-26 2011-09-26 画像処理装置、画像処理方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP5899745B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015033640A1 (ja) * 2013-09-03 2015-03-12 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP2015106820A (ja) * 2013-11-29 2015-06-08 株式会社ニコン 撮像装置、画像処理方法および画像処理プログラム
JPWO2015049899A1 (ja) * 2013-10-01 2017-03-09 オリンパス株式会社 画像表示装置および画像表示方法
JP2018110448A (ja) * 2018-03-05 2018-07-12 株式会社ニコン 撮像装置、画像処理方法および画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JPH11136547A (ja) * 1997-10-31 1999-05-21 Casio Comput Co Ltd カメラ装置および撮像画像加工方法
JP2010187125A (ja) * 2009-02-10 2010-08-26 Panasonic Corp 電子拡大鏡
JP2011151729A (ja) * 2010-01-25 2011-08-04 Sharp Corp 画像処理装置、画像撮影装置、画像表示装置、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JPH11136547A (ja) * 1997-10-31 1999-05-21 Casio Comput Co Ltd カメラ装置および撮像画像加工方法
JP2010187125A (ja) * 2009-02-10 2010-08-26 Panasonic Corp 電子拡大鏡
JP2011151729A (ja) * 2010-01-25 2011-08-04 Sharp Corp 画像処理装置、画像撮影装置、画像表示装置、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015033640A1 (ja) * 2013-09-03 2015-03-12 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP2015050713A (ja) * 2013-09-03 2015-03-16 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JPWO2015049899A1 (ja) * 2013-10-01 2017-03-09 オリンパス株式会社 画像表示装置および画像表示方法
US9699389B2 (en) 2013-10-01 2017-07-04 Olympus Corporation Image displaying apparatus and image displaying method
JP2015106820A (ja) * 2013-11-29 2015-06-08 株式会社ニコン 撮像装置、画像処理方法および画像処理プログラム
JP2018110448A (ja) * 2018-03-05 2018-07-12 株式会社ニコン 撮像装置、画像処理方法および画像処理プログラム

Also Published As

Publication number Publication date
JP5899745B2 (ja) 2016-04-06

Similar Documents

Publication Publication Date Title
US11418714B2 (en) Image processing device, method of processing image, image processing program, and imaging device
EP1839435B1 (en) Digital image acquisition system with portrait mode
JP5769768B2 (ja) 撮像装置、撮像方法およびプログラム
US20050134719A1 (en) Display device with automatic area of importance display
KR101930460B1 (ko) 촬영 장치 및 제어 방법
JP2013005091A (ja) 撮像装置および距離情報取得方法
CN110677621B (zh) 摄像头调用方法、装置、存储介质及电子设备
JP5899745B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2013126177A (ja) 表示制御装置、撮像装置および表示制御プログラム
EP2200275B1 (en) Method and apparatus of displaying portrait on a display
WO2018196854A1 (zh) 一种拍照方法、拍照装置及移动终端
WO2018235382A1 (ja) 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム
JP5720488B2 (ja) 撮像装置および距離情報取得方法
US8537266B2 (en) Apparatus for processing digital image and method of controlling the same
JP2023033355A (ja) 画像処理装置およびその制御方法
JP2007259004A (ja) デジタルカメラ、画像処理装置及び画像処理プログラム
JP2011030104A (ja) 撮像装置及びその制御方法
JP2015118274A (ja) 撮像装置、その制御方法及びプログラム
JP2013077873A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP4872801B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP4356585B2 (ja) デジタルカメラ
JP2016109958A (ja) 撮像装置及びその制御方法
US20120127101A1 (en) Display control apparatus
JP2007124387A (ja) 画像処理装置及び画像処理プログラム
JP2015092688A (ja) 画像処理方法、電子機器およびプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160222

R150 Certificate of patent or registration of utility model

Ref document number: 5899745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150