JP2016208083A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2016208083A
JP2016208083A JP2015083468A JP2015083468A JP2016208083A JP 2016208083 A JP2016208083 A JP 2016208083A JP 2015083468 A JP2015083468 A JP 2015083468A JP 2015083468 A JP2015083468 A JP 2015083468A JP 2016208083 A JP2016208083 A JP 2016208083A
Authority
JP
Japan
Prior art keywords
image
moving body
frame image
luminance
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015083468A
Other languages
English (en)
Other versions
JP6494388B2 (ja
Inventor
弘典 青景
Hironori Aokage
弘典 青景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015083468A priority Critical patent/JP6494388B2/ja
Publication of JP2016208083A publication Critical patent/JP2016208083A/ja
Application granted granted Critical
Publication of JP6494388B2 publication Critical patent/JP6494388B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】移動体画像の合成処理がなされる場合に、合成処理後の移動体画像が不自然な画像として描写されてしまうような画質劣化を低減可能となる。
【解決手段】適フレーム画像とアンダーフレーム画像から移動体画像を検出するための動きベクトル算出部(407)と、移動体画像の移動量を求める移動量算出部(411)と、移動体画像の面積を求める面積検出部(410)と、適フレーム画像とアンダーフレーム画像を合成する合成部(414)と、移動体画像の移動量と面積に基づいて、適フレーム画像の移動体画像とアンダーフレーム画像の移動体画像との合成比率を算出する移動体合成比率算出部(413)とを有することを特徴とする。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
従来の技術として、異なる露光量で撮影した複数フレームの画像を合成することにより、ハイダイナミックレンジ画像を得る画像合成処理(HDR:High Dynamic Range imaging)技術が知られている。HDR技術では、各フレーム画像のなかで適正露出となっている画像領域をつなぎ合わせるような画像合成を行うことでいわゆる白飛びや黒潰れの無い画像を得ることができる。このHDR技術による画像合成処理は、動画像撮影で得られた時系列順の複数フレーム画像を合成して1フレームの画像を生成するような処理を、それら時系列順の複数フレームごとに繰り返すことにより、動画像に対しても実現可能である。
ただし、動画像に対してHDRによる合成処理を行った場合、複数フレームから1フレームの画像が合成されるため、合成処理後の動画像のフレームレートは、撮像がなされた際のフレームレートよりも低下してしまう。このため、例えば被写体が移動している移動体である場合には、その移動体の画像の動きが滑らかに見えないという問題がある。これに対して、移動体画像を合成して、その被写体画像が移動によりぶれているような状態の画像を生成することにより、移動体画像の動きを滑らかに見せる手法が知られている。しかしながらこの手法では、例えば移動体画像の移動量が大きい場合には不自然な描写になってしまう。
このようなことから、特許文献1や特許文献2に記載されているような技術が提案されている。特許文献1には、HDRによる合成処理において、合成される画像の動きベクトルを算出し、動きベクトルがある閾値よりも大きい場合は、その画素の合成を行わないようにする技術が開示されている。特許文献2には、例えば撮影感度が低い場合や、合成画像の数が少ない場合、人物が検出された場合等の条件に当てはまるときには、HDRによる合成処理を行うか否かを決める閾値を小さくする技術が開示されている。
特開平10−243288号公報 特開2012−29014号公報
特許文献1に記載の技術では、移動量が小さい移動体画像に対して合成処理を行い、一方、移動量が大きい移動体画像に対しては合成処理を行わないようにしている。このため、移動量の大きい移動体画像が合成処理されることによる不自然な描写の発生は避けられる。しかしながら、移動量が小さいために合成処理されることになった移動体画像が、例えば目立つ画像であるような場合には、合成処理後の移動体画像が不自然な画像として描写されてしまうことがある。また、特許文献2に記載の技術では、様々な条件に応じて合成の仕方を変えるようになされているため、不自然な描写になることは非常に少なくなる。しかしながら、特許文献2の技術の場合も、合成されることになった移動体画像が、例えば目立つ画像であるような場合には、合成処理後の移動体画像が不自然な画像として描写されてしまうことがある。つまり、これらの技術では、合成処理後の移動体画像が不自然な画像として描写されてしまうような画質劣化が発生してしまう虞がある。
本発明はこのような問題点に鑑みてなされたものであり、合成処理後の移動体画像が不自然な画像として描写されてしまうような画質劣化を低減可能とする画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。
本発明の画像処理装置は、動画撮影による第1のフレーム画像と第2のフレーム画像の少なくとも二つのフレーム画像から、前記第1のフレーム画像の撮影と前記第2のフレーム画像の撮影がなされた間に被写体位置が変化した被写体画像を移動体画像として検出する移動体検出手段と、前記第1のフレーム画像と前記第2のフレーム画像から、前記第1のフレーム画像の撮影と前記第2のフレーム画像の撮影がなされた間の前記移動体画像の移動量を求める移動量検出手段と、前記移動体画像の面積を求める面積検出手段と、前記第1のフレーム画像と前記第2のフレーム画像を合成する合成手段と、前記移動体画像の前記移動量と前記面積に基づいて、前記合成手段により前記第1のフレーム画像と前記第2のフレーム画像が合成される際の、前記第1のフレーム画像の前記移動体画像と前記第2のフレーム画像の前記移動体画像との合成比率を制御する制御手段とを有することを特徴とする。
本発明によれば、移動体画像の合成処理がなされる場合に、合成処理後の移動体画像が不自然な画像として描写されてしまうような画質劣化を低減可能となる。
画像処理装置の概略構成を示す図である。 第1の実施形態のHDR処理部の構成例を示す図である。 動画像のフレーム順序を説明する図である。 現像部の構成例を示す図である。 適フレーム用とアンダーフレーム用のガンマカーブを説明する図である。 輝度合成比率と輝度の関係を説明するための図である。 動きベクトル検出を説明するための図である。 カメラの動きと背景画像の移動量の関係を説明する図である。 動きベクトルの算出例を説明するための図である。 移動体画像の動きベクトルの説明に用いる図である。 移動体画像のブロックごとの動きベクトルを説明する図である。 移動体画像を判定するため処理の説明に用いる図である。 移動被写体合成比率を適用する画像範囲を説明するための図である。 合成量と評価値を説明するための図である。 適フレーム画像の使用係数と平均輝度を説明するための図である。 第2の実施形態のHDR処理部の構成例を示す図である。 同じ面積の移動体画像を説明するための図である。 第3の実施形態のHDR処理部の構成例を示す図である。 輝度差合成比率を説明するための図である。 第4の実施形態の情報処理装置の概略構成を示す図である。 メモリの記憶エリアを説明するための図である。 第4の実施形態の画像処理の概略的なフローチャートである。 第4の実施形態の画像処理の詳細なフローチャートである。
本実施形態の画像処理装置は、一例としてデジタルカメラやデジタルビデオカメラであり、特にデジタル化された動画像信号の複数フレームの画像に対し、例えばHDRによる合成処理を行って広いダイナミックレンジの動画像を生成する。本実施形態では、移動している被写体(以下、移動体とする。)に対してHDRの合成処理がなされる場合に、動画像の見え方の滑らかさを維持した上で、HDRの合成処理による広いダイナミックレンジの動画像の生成を可能としている。具体的には、本実施形態では、動画撮影の際に、適正な露出による第1のフレーム(以下、「適フレーム」とする。)画像と、アンダー露出による第2のフレーム(以下、「アンダーフレーム」とする。)画像の、二つのフレーム画像を交互に撮像する。また、本実施形態では、それら交互に撮像された二つのフレーム画像を用いてHDRの画像合成を行う際に、後述するように、移動体画像の移動量と面積と輝度を求める。そして、本実施形態では、移動体画像の移動量と面積と輝度に基づいて、移動体画像の合成比率(以下、移動体合成比率とする。)を制御する。これにより、本実施形態では、例えば移動体画像の移動量が大きい場合や移動体画像の面積が大きい場合のように、移動体画像が特に目立つ画像であったとしても、HDRの合成処理後の移動体画像が不自然な描写になってしまう画質劣化を軽減可能としている。
<第1の実施形態>
図1は、第1の実施形態の画像処理装置の一例としてのカメラの構成例を示す図である。図1に示すカメラは、光学系1と、撮像素子2と、信号処理部3と、HDR処理部4と、調整処理部5と、符号化処理部6と、出力部7と、UI部8と、角速度センサ9と、バス10とを有している。
図1において、アイリスやレンズ等を有する光学系1を通った光は、CMOS又はCCD等で構成される撮像素子2により光電変換される。撮像素子2での光電変換により取得された画像信号は、信号処理部3へ送られる。なお、撮像素子2は、いわゆるベイヤー配列の撮像デバイスである。UI部8は、ユーザインターフェイスのためのキーやスイッチ等と、それらキー等を介したユーザからの指示に基づいてカメラの各部に対する各種設定を行うための設定情報を生成する設定情報生成部とを有している。設定情報生成部は、ユーザの指示に基づいて、例えば動画モード又は静止画モードの選択とその選択されたモードに応じてカメラの各部を制御するための設定情報や、HDRモードの設定とそのHDRモードでカメラの各部を制御するための設定情報を生成する。また、UI部8の設定情報生成部は、ISO感度の設定やシャッタースピード、露光量の設定とそれらの設定に応じて撮影を行うための各種設定情報を生成する。UI部8で生成された各種の設定情報は、バス10を介して、光学系1、撮像素子2、信号処理部3、HDR処理部4、調整処理部5、符号化処理部6、出力部7等へ送られる。
以下、動画モードとHDRモードに設定されて動画像撮影とHDRによる画像合成が行われる場合の、本実施形態のカメラにおける各処理の概要を説明する。ユーザからの指示により動画モードとHDRモードが選択された場合、UI部8は、適フレームとアンダーフレームの画像を交互に撮影してそれら両フレーム画像から1フレーム画像を合成する処理を行うための各設定情報を生成する。これら各設定情報は、前述のように光学系1や撮像素子2、信号処理部3、HDR処理部4等へ送られる。この場合の光学系1と撮像素子2では、適フレーム画像とアンダーフレーム画像が交互に撮像され、それら適フレームとアンダーフレームの画像信号が信号処理部3へ送られる。
信号処理部3は、撮像素子2から供給された適フレームとアンダーフレームの画像信号に対し、A/D変換とゲインコントロール等の各処理を行い、それら処理後の画像データをHDR処理部4へ出力する。また、角速度センサ9は、カメラの角速度を検出し、その検出した角速度値を、バス10を介してHDR処理部4へ出力する。
HDR処理部4は、信号処理部3から供給された適フレームとアンダーフレームの画像データと、角速度センサ9から供給された角速度値のデータとを用いて、後述するようなHDRの画像合成処理を実行する。そして、HDR処理部4は、その合成処理後の画像信号を、調整処理部5へ出力する。なお、HDR処理部4の構成と合成処理については後に詳しく説明する。
調整処理部5は、HDR処理部4による合成処理後の画像データに対して、輝度のゲイン調整やリサイズ等の各種調整処理を行い、その調整処理後の画像データを、符号化処理部6へ送る。符号化処理部6は、調整処理部5での調整処理後の画像データを符号化し、その符号化処理後のデータを出力部7へ送る。出力部7は、符号化処理後の画像データを例えばHDMI(高精細度マルチメディアインターフェイス)(HDMIは登録商標)などへ出力、メモリカードなどの記憶メディアへ保存、カメラのいわゆる背面液晶などの表示デバイスへ表示させる等の出力処理を行う。
図2は、図1のカメラのHDR処理部4の構成例を示す図である。図2に示すHDR処理部4は、入力端子401,402,403と、現像部404,405と、輝度合成比率算出部406と、動きベクトル算出部407と、背景分離部408と、位置合わせ部409とを有している。また、HDR処理部4は、面積算出部410と、移動量算出部411と、輝度算出部412と、移動体合成比率算出部413と、合成部414と、出力端子415とを有している。
図2において、入力端子402には信号処理部3から供給された適フレームの画像データが入力され、入力端子403には信号処理部3から供給されたアンダーフレームの画像データが入力される。入力端子402に入力された適フレームの画像データは現像部404へ送られ、入力端子403に入力されたアンダーフレームの画像データは現像部405へ送られる。また、入力端子401には図1の角速度センサ9にて検出された角速度値のデータが入力されて背景分離部408へ送られる。
現像部404は、適フレームの画像データに対する現像処理を行い、その現像処理後の適フレームの画像データを、輝度合成比率算出部406と動きベクトル算出部407へ出力する。なお、現像処理とは、撮像素子2で撮像された生の画像(RAW画像)をデベイヤー処理して輝度と色差から成る信号に変換し、それら輝度と色差の信号に対してノイズ除去や光学的な歪補正、画像の適正化などを行う処理である。現像部405は、アンダーフレームの画像データに対する現像処理を行い、その現像処理後のアンダーフレームの画像データを、輝度合成比率算出部406と動きベクトル算出部407へ出力する。現像部404,405の詳細は後述する。
輝度合成比率算出部406は、現像処理後のアンダーフレームの画像の輝度を基に、現像処理後の適フレームと現像処理後のアンダーフレームの二つのフレーム画像間における輝度合成比率を算出する。そして、輝度合成比率算出部406は、算出した輝度合成比率の情報を合成部414へ送る。輝度合成比率算出部406による輝度合成比率の算出処理の詳細は後述する。
動きベクトル算出部407は、移動体検出手段の一例であり、現像処理後の適フレームの画像を基準として、現像処理後の適フレームと現像処理後のアンダーフレームの二つのフレーム画像間で動きベクトルを算出する。すなわち、動きベクトル算出部407は、適フレーム画像の撮影とアンダーフレーム画像の撮影がなされた間に被写体位置が変化した被写体画像を移動体画像として検出するための動きベクトルを算出する。そして、動きベクトル算出部407は、その動きベクトルの情報と現像処理後の適フレームの画像データと現像処理後のアンダーフレームの画像データを、面積算出部410と移動量算出部411と輝度算出部412と背景分離部408へ送る。動きベクトル算出部407による動きベクトル算出処理の詳細は後述する。
背景分離部408は、現像処理後の適フレーム及び現像処理後のアンダーフレームの画像データと角速度値と動きベクトルとに基づいて、それら適フレーム画像とアンダーフレーム画像から背景画像と移動体画像とを分離する。そして、背景分離部408は、現像処理後の適フレーム及び現像処理後のアンダーフレームの画像データと、分離した背景画像と移動体画像に対応した動きベクトルの情報とを、位置合わせ部409へ送る。背景分離部408における背景分離処理の詳細は後述する。
位置合わせ部409は、背景画像の動きベクトルに基づいて、現像処理後のアンダーフレーム画像に対して、現像処理後の適フレーム画像の位置を合わせる位置合わせ処理を行う。そして、位置合わせ部409は、現像処理後のアンダーフレームの画像データと位置合わせ処理後の適フレームの画像データと移動体画像の動きベクトルの情報を、面積算出部410と移動量算出部411と輝度算出部412へ送る。また、位置合わせ部409は、位置合わせ処理後の適フレームの画像データと現像処理後のアンダーフレームの画像データを、合成部414へ送る。位置合わせ部409による位置合わせ処理の詳細は後述する。
面積算出部410は、面積検出手段の一例であり、現像処理後のアンダーフレームの画像データと位置合わせ処理後の適フレームの画像データと移動体画像の動きベクトルとに基づいて、移動体画像の面積を算出する。そして、面積算出部410は、移動体画像の面積の情報を、移動体合成比率算出部413へ送る。面積算出部410による面積算出処理の詳細は後述する。
移動量算出部411は、移動量検出手段の一例であり、現像処理後のアンダーフレームの画像データと位置合わせ処理後の適フレームの画像データと移動体画像の動きベクトルとに基づいて、移動体画像の移動量を算出する。すなわち、移動量算出部411は、適フレーム画像の撮影とアンダー画像の撮影がなされた間の移動体画像の移動量を求める。そして、移動量算出部411は、移動体画像の移動量の情報と現像処理後のアンダーフレームの画像データと位置合わせ処理後の適フレームの画像データとを、移動体合成比率算出部413へ送る。移動量算出部411による移動量算出処理の詳細は後述する。
輝度算出部412は、輝度検出手段の一例であり、現像処理後のアンダーフレームの画像データと、位置合わせ処理後の適フレームの画像データと、移動体画像の動きベクトルとに基づいて、移動体画像の輝度を算出する。そして、輝度算出部412は、移動体画像の輝度の情報を、移動体合成比率算出部413へ送る。輝度算出部412による輝度算出処理の詳細は後述する。
移動体合成比率算出部413は、現像処理後のアンダーフレームの画像データと位置合わせ処理後の適フレームの画像データと移動体画像の面積と移動量と輝度とに基づいて、各移動体画像に対する合成比率(移動体合成比率)を算出する。すなわち、移動体合成比率算出部413は、移動体画像の移動量と面積と輝度に基づいて、適フレーム画像の移動体画像とアンダーのフレーム画像の移動体画像との合成比率を制御する制御手段の一例である。そして、移動体合成比率算出部413は、移動体合成比率の情報を合成部414へ送る。移動体合成比率算出部413による移動体合成比率算出処理の詳細は後述する。
合成部414は、輝度合成比率と位置合わせ処理後の適フレームの画像データと現像処理後のアンダーフレームの画像データと各移動体合成比率の情報とに基づいて、位置合わせ処理後の適フレームの画像と現像処理後のアンダーフレームの画像とを合成する。そして、合成部414にて合成処理された後のフレーム画像データは、出力端子415を介して図1の調整処理部5へ送られる。合成部414による画像合成処理の詳細は後述する。
以下、HDR処理部4における合成処理について、さらに詳しく説明する。入力端子402には、適フレームの画像データが、フレームごとに順次入力される。また、入力端子403には、アンダーフレームの画像データが、フレームごとに順次入力される。すなわちこのときの撮像素子2では、図3に示すように、適フレーム351r,アンダーフレーム351u,適フレーム352r,アンダーフレーム352u,・・・のように、適フレームとアンダーフレームの撮像が交互に行われている。そして、適フレーム351r,352r,353r,354r,・・・の画像データが入力端子402に順次入力され、アンダーフレーム351u,352u,353u,354u,・・・の画像データが入力端子403に順次入力されている。なお、本実施形態では、説明を簡単にするために、適フレーム画像とアンダーフレーム画像の露光量の差を、例えばISO感度の2段分に相当する差とし、適フレームとアンダーフレームの順に撮像がなされているものとしている。もちろん、これら露光量の差等は一例である。また図3では、適フレームとアンダーフレームの組み合わせは、適フレーム351rとアンダーフレーム351u、適フレーム352rとアンダーフレーム352u、・・・のような2フレームずつの組み合わせになっているが、これ以外の組み合わせでもよい。
現像部404では適フレームの画像データに対する現像処理が行われ、現像部405ではアンダーフレームの画像データに対する現像処理が行われる。図4(a)には現像部404の構成例を示し、図4(b)には現像部405の構成例を示す。図4(a)に示す現像部404は、ホワイトバランス部4041、NR処理部4042、色補間部4043、マトリクス変換部4044、ガンマ変換部4045、色調整部4046を有している。また、図4(b)に示す現像部405は、ホワイトバランス部4051、NR処理部4052、色補間部4053、マトリクス変換部4054、ガンマ変換部4055、色調整部4056を有している。なお、これら図4(a)の現像部404と図4(b)の現像部405は、殆どの部分が同じ構成となされているため、それら同じ構成については、図4(a)の現像部404の構成例についてのみ説明する。
ホワイトバランス部4041は、いわゆるホワイトバランスを調整する処理を行う。具体的には、ホワイトバランス部4041は、白くあるべき画像のR,G,Bの各色信号の値が同じ値になるようなゲインを、R,G,Bの各色信号に各々にかけるようなホワイトバランス調整処理を行う。NR処理部4042は、入力された画像内で、被写体や背景の画像等に由来しない、センサ(撮像素子2)等に起因するノイズ等を低減するノイズリダクション処理を行う。色補間部4043は、ベイヤー配列の撮像素子2によるR,G,Bの色モザイク画像を補間することによって、全ての画素においてR,G,Bの色信号が揃ったカラー画像を生成する。色補間部4043で生成されたカラー画像は、マトリクス変換部4044にてR,G,BからY,U,Vへの変換がなされ、さらにガンマ変換部4045にて階調補正が行われて基本的なカラー画像に変換される。その後、色調整部4046は、画像の見栄えを改善するための色調整処理として、例えば、彩度強調、色相補正、エッジ強調といった画像補正を、カラー画像に対して施す。
ここで、HDRによる画像合成が行われる場合、異なる露出で撮影した画像データが使用されるため、画像データには予めゲインをかけて輝度レベルを揃えておく必要がある。ゲインの値は、いわゆる白飛びや黒潰れにならない値に設定する必要があるため、一律なゲインの値ではなく、例えば図5に示すようなガンマカーブに対応した値が用いられる。図5において、図中実線で示すガンマカーブ501は、適フレーム用のガンマカーブの一例を示し、図中点線で示すガンマカーブ502は、アンダーフレーム用のガンマカーブの一例を示している。適フレームの画像に対しては、ガンマ変換部4045が図5のガンマカーブ501によるガンマ変換処理を行い、アンダーフレームの画像に対しては、ガンマ変換部4055が図5のガンマカーブ502によるガンマ変換処理を行う。図5に示すガンマ特性をみてわかるように、アンダーフレームの画像に対しては、適フレームの画像よりも大きいゲインがかけられることになるため、現像処理後のアンダーフレームの画像はノイズが増大することが懸念される。そこで、アンダーフレーム用の現像部405のNR処理部4052は、適フレーム用の現像部404のNR処理部4042よりも強いノイズリダクション(NR)処理をかける。これにより、現像処理後の適フレーム画像と現像処理後のアンダーフレーム画像のノイズ量が揃えられる。この処理により、適フレーム画像とアンダーフレーム画像の違いによる、HDRの画像合成処理後のフレーム画像の違和感が低減されることになる。ノイズ低減の具体的な手法としては、適当なカーネルサイズにおける平滑化処理などの一般的なノイズ低減手法や、εフィルタやエッジ保存型のバイラテラルフィルタといった公知のフィルタによるノイズ低減手法など様々な手法が考えられる。それらのノイズ低減手法は公知であるためここではそれらの説明は省略する。それらノイズ低減手法の何れを用いるかについては、カメラの処理速度やメモリといったリソースとのバランスを考慮して適宜適切な手法を選択すればよい。
なお、本実施形態では、二つの現像部404,405を有する例を挙げた、各現像部404,405の構成は同じであるため、現像部を一つのみとし、現像に用いるパラメータを、適フレームとアンダーフレームの画像入力に応じて切り替えるようにしてもよい。
図2に説明を戻し、輝度合成比率算出部406は、アンダーフレーム画像の各画像領域の輝度に応じて、それぞれ画像領域ごとの輝度合成比率を算出する。なお、輝度合成比率算出部406が輝度合成比率を算出する際の各画像領域は、フレーム画像を複数分割した各画像領域であり、例えば動きベクトル検出の際の後述するブロック画像に対応した画像領域でもよいし、それとは異なる画像領域でもよい。本実施形態では、説明を簡略にするために、輝度合成比率算出部406が輝度合成比率を算出する際の各画像領域は、後述するブロック画像に対応した画像領域であるとする。
図6には、輝度合成比率算出部406が、アンダーフレームの画像領域の輝度に応じて輝度合成比率を算出する際に参照する、輝度と輝度合成比率の関係を示すグラフの一例である。本実施形態のようにHDRの合成画像が生成される場合、図6に示すように、輝度合成比率算出部406は、輝度合成閾値Y1より暗い画像領域については適フレームの画像領域を使用する。一方、輝度合成比率算出部406は、輝度合成閾値Y2より明るい画像領域についてはアンダーフレームの画像領域を使用する。また、輝度合成比率算出部406は、輝度合成閾値Y1〜Y2の明るさの画像領域については、その画像領域の輝度に応じて、適フレームの画像領域とアンダーフレームの画像領域の輝度合成比率を徐々に変化させる。すなわち、輝度合成閾値Y1〜Y2の明るさの画像領域に関しては、輝度合成比率算出部406は、画像領域の明るさが輝度合成閾値Y1に近くなるほど、適フレームの画像領域の割合が多くなる輝度合成比率を生成する。逆に、輝度合成比率算出部406は、画像領域の明るさが輝度合成閾値Y2に近くなるほど、アンダーフレームの画像領域の割合が多くなる輝度合成比率を生成する。これにより、輝度合成閾値Y1〜Y2の明るさの画像領域では、適フレームの画像領域とアンダーフレームの画像領域の合成による画像の明るさの切り替わりが滑らかになる。
図2の動きベクトル算出部407は、現像処理後の適フレームと現像処理後のアンダーフレームの画像間で、移動体画像の動きベクトルを算出する。動きベクトル算出部407は、先ず、現像処理後の適フレーム画像と現像処理後のアンダーフレーム画像を、それぞれ複数個のブロック画像に分割して、それらブロック画像ごとにエッジ検出処理を行う。エッジ検出の手法としては、例えば、入力画像にローパスフィルタをかけることで暈け量が大きい画像を作成して、入力画像から暈け量の大きい画像を減算することでエッジを検出するような手法を用いることができる。他のエッジ検出の手法としては、例えば、公知の微分フィルタやプリューウィットフィルタなどを用いてエッジを検出する手法を用いてもよい。これらのエッジ検出によれば、センサ起因のノイズではなく、被写体像のエッジのみを検出して動きベクトル検出精度の向上を図ることができる。次に、動きベクトル算出部407は、前述したように現像処理後の適フレーム画像と現像処理後のアンダーフレーム画像のなかでエッジ検出ができたブロック画像に関して動きベクトル検出処理を行う。このように、動きベクトル算出部407は、エッジ検出ができたブロック画像に対してのみ動きベクトル検出を行うことで、動きベクトル検出精度を向上させている。
以下、図7(a)と図7(b)を参照して、動きベクトル算出部407における動きベクトル検出処理の詳細を説明する。なお、図7(a)と図7(b)中のP1〜P9はそれぞれ画素値を表している。動きベクトル算出部407は、先ず、動きベクトル検出の位置基準画像を、図7(a)に示すような現像処理後の適フレーム画像内でエッジ検出されたブロック画像701とする。また、動きベクトル算出部407は、現像処理後のアンダーフレーム画像のなかでエッジ検出された複数のブロック画像を含む画像部分を、位置基準画像(ブロック画像701)に対する動きベクトル検出対象画像702とする。次に、動きベクトル算出部407は、位置基準画像であるブロック画像701のなかの各画素と、動きベクトル検出対象画像702に含まれるブロック画像のなかの各画素との間の差分の絶対値を求め、それら各画素の差分絶対値の総和を求める。動きベクトル算出部407は、位置基準画像のブロック画像701に対して差分絶対値の総和を求める処理を、動きベクトル検出対象画像702内で座標位置を一画素分ごとに順次ずらしながら設定される各ブロック画像に対して行う。そして、動きベクトル算出部407は、動きベクトル検出対象画像702のなかで、前述のように座標位置を一画素分ごとに順次ずらしながら求めた総和が、最も小さくなるブロック画像703を求める。図7(b)は、動きベクトル検出対象画像702の左上端の座標を(x0,y0)とした場合において、前述の総和が最も小さくなるブロック画像703の左上端の座標が(x1,y2)である例が示されている。すなわち、動きベクトル算出部407は、動きベクトル検出対象画像702のなかの座標(x1,y2)に対応したブロック画像703を、図7(a)の位置基準画像のブロック画像701に対応したブロック画像として検出する。そして、動きベクトル算出部407は、適フレーム画像内の位置基準画像のブロック画像701の座標と、アンダーフレーム画像内の動きベクトル検出対象画像702のなかのブロック画像703の座標とから、動きベクトルを求める。すなわち、動きベクトル算出部407は、適フレーム画像内のブロック画像701の座標に対する、アンダーフレーム画像内のブロック画像703の座標の差分で表される方向と距離を、動きベクトルとして算出する。
図2の背景分離部408は、前述のようにして動きベクトル算出部407で算出された動きベクトルの情報と、入力端子401を介して角速度センサ9から供給された角速度の情報とに基づいて、移動体画像と背景画像とを分離する。以下、図8と図9を参照しながら、背景分離部408で行われる分離処理の詳細を説明する。
図8は、カメラをカメラ位置1101aからカメラ位置1101bへパンニングしたときに、カメラの撮像素子2の撮像面上で、背景画像がどのように移動するかを模式的に表した図である。なお、撮像素子2は実際にはカメラに内蔵されているが、図8では説明を判り易くするために、カメラと撮像素子2を分けて図示している。図8に示すように、カメラを位置1101aから位置1101bへパンニングして、静止している被写体1103を撮影した場合、撮像素子2の撮像面上に結像される被写体画像は、画像位置1104から画像位置1105まで移動することになる。ここで、静止している被写体1103とはすなわち背景であり、撮像素子2の撮像面上における背景画像の移動量1106は、パンニングによるカメラの移動角度1107と光学系1の焦点距離f(mm)とから算出できる。また、移動角度1107は、角速度センサ9で検出されたカメラの角速度ω(角度/秒)と、フレームレートfps(フレーム/秒)、移動量算出のためにサンプリングするフレーム画像間にある画像数n(フレーム数)を用いて算出することができる。そして、画素ピッチpp(mm/ピクセル数)を用いて、背景画像の移動量1106をピクセル数に換算することにより、撮像素子2の撮像面上で背景画像がどのくらい移動しているかを算出することができる。背景分離部408は、撮像素子2の撮像面上における背景画像の移動量を、式(1)により算出している。
Figure 2016208083
図9は、背景分離部408が移動体画像と背景画像を分離する際に、動きベクトルをどのように用いるかを説明するための図である。図9の横軸は動きベクトルの大きさを示し、縦軸は同じ大きさを持つ動きベクトルの数量を示している。図9の横軸は、「0」を境に、動きベクトルの方向を区別している。また、式(1)により算出された背景画像の移動量(図8の移動量1106)は、図9では、移動量1201として示されている。この図9の例では、同じ大きさを持つ動きベクトルの集団として、ベクトル集団1211〜1214があり、ベクトル集団1214が式(1)で算出された背景画像の移動量1201に対応した動きベクトルの集団である。一方、ベクトル集団1211〜1213は、背景画像の移動量1201に対応したベクトル集団1214とは異なる大きさの動きベクトル集団である。すなわち、ベクトル集団1211〜1213の各動きベクトルは、背景画像の移動量1201に対応したベクトル集団1214とは異なる画像部分の動きベクトル、言い換えると、移動体画像の各動きベクトルであると考えられる。したがって、背景分離部408は、動きベクトルと背景画像の移動量との関係から、動きベクトル算出部407から供給された動きベクトルを、移動体画像に対応したグループ1202と背景画像に対応したグループ1203とに分離可能となる。
図2の位置合わせ部409は、背景分離部408により分離された背景画像に対応したグループ1203に含まれる動きベクトルを用いて、いわゆるアフィン係数を算出する。アフィン係数とは、線形変換と平行移動を組み合わせたアフィン変換に用いる行列であり、以下の式(2)で表すことができる。なお、式(2)は公知の式であるため、詳細な説明は省略する。
Figure 2016208083
式(2)において、アフィン変換による補正前画像の座標が(x,y)であり、アフィン変換による補正後画像の座標が(x´,y´)であり、この式(2)中の3×3行列がアフィン係数である。位置合わせ部409は、前述の動きベクトル算出部407が各ブロック画像から算出した動きベクトルを用いてアフィン係数を算出する。そして、位置合わせ部409は、補正前画像を現像処理後の適フレーム画像とし、現像処理後のアンダーフレーム画像に対してアフィン係数を算出して、そのアフィン係数を用いて、適フレーム画像のアフィン変換を行う。これにより、位置合わせ部409は、適フレーム画像の背景画像を、アンダーフレーム画像の背景画像に対して位置合わせすることができる。
図2の面積算出部410は、移動体に対応したグループ1202の動きベクトルと、背景画像の位置合わせがなされた後の適フレーム画像と、現像処理後のアンダーフレーム画像とを基に、移動体画像の面積を算出する。以下、図10、図11、図12(a)〜図12(d)を参照しながら、面積算出部410で行われる面積算出処理の詳細を説明する。
図10は、前述の図9に示した移動被写体に対応したグループ1202に含まれる各動きベクトル集団1211〜1213を示した図である。図10の横軸は動きベクトルの大きさを示し、縦軸は同じ大きさを持つ動きベクトルの数量を示している。ここで、例えば動きベクトル集団1211を例に挙げた場合、この動きベクトル集団1211内のそれぞれ同じ大きさの複数の動きベクトルは、或る移動体画像を構成している複数のブロック画像の各動きベクトルである可能性が高いと考えられる。一方、動きベクトル集団1211内の各動きベクトルは、それらの大きさが同じであったとしても、異なる移動体画像の動きベクトルである可能性もある。したがって、同じ大きさの複数の動きベクトルがある場合、それら各動きベクトルが、同じ移動体画像の動きベクトルであるか否かを判定する必要がある。
図11と図12(a)〜図12(d)は、或るフレーム画像上にそれぞれ異なる移動体画像が存在している場合において、それら移動体画像を構成している各ブロック画像に対応した各動きベクトルの配置例を示している。すなわち、図中の小四角形領域は、それぞれが前述のブロック画像に対応した動きベクトルのブロック(以下、MVブロック1100とする。)を表している。また、図中斜線が描かれた複数のMVブロック1100がそれぞれ纏まったエリア(以下、MVエリア1101,1102,1103とする。)は、それぞれ異なる移動体画像に対応したMVブロックが纏まったエリアであるとする。そして、これら各MVエリア1101〜1103の各MVブロックの動きベクトルは、それぞれが同じ大きさであるとする。すなわち、各MVエリア1101〜1103の各MVブロックの動きベクトルは、それぞれ同じ大きさであるため、前述の図10では例えば一つの動きベクトル集団1211に含まれているとする。
図12(a)〜図12(d)は、面積算出部410が、図11に示した各MVブロック1100の動きベクトルを、それぞれの何れかのMVエリア1101,1102,1103に分類する過程を説明するための図である。先ず、面積算出部410は、図12(b)に示すように、或るMVブロックを、何れのMVエリアに含まれるかを判定する際の対象MVブロックA1とする。次に、面積算出部410は、図12(b)に示すように、対象MVブロックA1に隣接する8方向の各MVブロックの動きベクトルが、対象MVブロックA1の動きベクトルと略々同じ(方向と大きさが略々同じ動きベクトル)であるか否かを判定する。なお、8方向とは、図12(b)中の矢印で示すように、対象MVブロックA1に対して上、下、左、右、斜め左上、斜め右上、斜め左下、斜め右下の各方向のことである。面積算出部410は、対象MVブロックA1の動きベクトルと略々同じ動きベクトルの隣接MVブロックがあった場合、その隣接MVブロックは対象MVブロックA1と同じMVエリアに含まれるMVブロックA1であると判定する。さらに、面積算出部410は、前述のように対象MVブロックA1と略々同じ動きベクトルのMVブロックであると判定された隣接MVブロックを、新たな対象MVブロックA1として設定し、図12(c)に示すように前述同様の処理を繰り返す。これにより、面積算出部410は、対象MVブロックA1と略々同じ動きベクトルの各隣接MVブロックからなるMVエリアが、同じ移動体画像に対応していると判定できる。図12(d)は、図12(a)の各MVエリア1101〜1103が、MVブロックA1とMVブロックA2とMVブロックA3の動きベクトルごとに分類された後の例を示している。そして、面積算出部410は、前述のようにしてMVブロックA1,A2,A3の動きベクトルごとに分類された各MVエリア1101,1102,1103において、それぞれMVブロックA1,A2,A3の個数を求める。また、これら各MVエリア1101,1102,1103における各MVブロックA1,A2,A3は、それぞれが前述のブロック画像に対応している。このため、面積算出部410は、各MVブロックA1,A2,A3の個数つまりブロック画像の個数N_A1,N_A2,N_A3から、各MVエリア1101〜1103に対応した移動体画像の面積を求めることができる。
図2の移動量算出部411は、移動体画像の動きベクトルと、位置合わせ処理後の適フレーム画像と、現像処理後のアンダーフレーム画像とを基に、移動体画像の移動量を算出する。以下、図12(d)に示した各MVエリア1101〜1103の各MVブロックA1〜A3の動きベクトルを例に挙げて説明する。移動量算出部411は、各MVブロックA1の動きベクトルの大きさの平均値M_A1と、各MVブロックA2の動きベクトルの大きさの平均値M_A2と、各MVブロックA3の動きベクトルの大きさの平均値M_A3を算出する。そして、移動量算出部411は、MVブロックA1の動きベクトルの大きさの平均値M_A1を、MVエリア1101に対応した移動体画像の移動量とする。同様に、移動量算出部411は、MVブロックA2の平均値M_A2をMVエリア1102に対応した移動体画像の移動量とし、MVブロックA3の平均値M_A3をMVエリア1103に対応した移動体画像の移動量とする。
図2の輝度算出部412は、移動体画像の動きベクトルと、位置合わせ処理後の適フレーム画像と、現像処理後のアンダーフレーム画像とを基に、移動体画像の輝度を算出する。以下、図12(d)に示した各MVエリア1101〜1103の各MVブロックA1〜A3に対応したブロック画像の輝度を例に挙げて説明する。輝度算出部412は、各MVブロックA1に対応したブロック画像の輝度の平均値K_A1と、各MVブロックA2に対応したブロック画像の輝度の平均値K_A2と、各MVブロックA3に対応したブロック画像の輝度の平均値K_A3を算出する。そして、輝度算出部412は、各MVブロックA1に対応した各ブロック画像の各輝度の平均値K_A1を、MVエリア1101に対応した移動体画像の輝度とする。また、輝度算出部412は、各MVブロックA2に対応した各ブロック画像の各輝度の平均値K_A2をMVエリア1102に対応した移動体画像の輝度とする。同様に、輝度算出部412は、各MVブロックA3に対応した各ブロック画像の各輝度の平均値K_A3をMVエリア1103に対応した移動体画像の輝度とする。
図2の移動体合成比率算出部413は、位置合わせ処理後の適フレーム画像と、現像処理後のアンダーフレーム画像と、移動体画像の面積と移動量と輝度の情報とに基づいて、移動体合成比率を算出する。図13は、移動体画像に対して移動体合成比率を適用する画像上の範囲を示している。図13の例の場合、移動体画像に対して移動体合成比率が適用される画像上の範囲は、図中の網掛けで示された画像範囲1301,1302,1303である。画像範囲1301は、位置合わせ処理後の適フレームの移動体画像の各ブロック画像において、動きベクトルに対応した移動前のブロック画像と移動後のブロック画像、さらにそれら移動前後の両ブロック画像を線形に繋げることで生成される領域からなる。画像範囲1302、1303についても、画像範囲1301と同様にして生成される。移動体合成比率算出部413は、これらの画像範囲1301〜1303を、移動体合成比率が適用される画像上の範囲とする。
次に、移動体合成比率算出部413は、移動体合成比率を算出するための評価値を算出する。本実施形態において、評価値は、移動体画像の移動量と面積の大きさを評価するための値となっている。前述のMVブロックA1,A2,A3を例に挙げると、移動体合成比率算出部413は、前述の個数N_A1,N_A2,N_A3と平均値M_A2,M_A3,M_A3を用いた式(3)により、それぞれの評価値E_A1,E_A2,E_A3を算出する。
E_A1=N_A1×M_A1
E_A2=N_A2×M_A2 ・・・式(3)
E_A3=N_A3×M_A3
図14は、評価値E_A1,E_A2,E_A3を一般化した評価値を「E」とした場合の、評価値Eと、位置合わせ処理後の適フレーム画像と現像処理後のアンダーフレーム画像の移動体画像における合成量Tとの関係を示す図である。図14のグラフは、横軸が評価値E、縦軸が合成量Tを示しており、第1の評価閾値として「E1」が設定され、第2の評価閾値として[E2]が設定されている。この図14のグラフによれば、評価値Eが「0」から「E1」までの範囲つまり評価値Eが第1の評価閾値以下(E1以下)の場合には合成量Tは第1の合成量である「0.5」で一定となされている。また、評価値Eが「E2」以上つまり第2の評価閾値以上の場合には、合成量Tは「0.5」より小さく「0」より大きい第2の合成量で一定となされている。一方、評価値Eが「E1」から「E2」までの範囲では評価値Eが大きくなるにつれて合成量Tは小さくなる。すなわち、図14の例においては、「E1」から「E2」までの範囲では、評価値Eが大きくなるにつれて適フレーム画像の移動体画像とアンダーフレーム画像の移動体画像における合成量Tが少なくなるように設定されている。ただし、ここで算出した合成量Tの値は、以下のような第1,第2の二通りの合成の割合パターンが考えられる。
第1の割合パターン→適フレーム画像:T、アンダーフレーム画像:1−T
第2の割合パターン→適フレーム画像:1−T、アンダーフレーム画像:T
すなわち、適フレーム画像とアンダーフレーム画像の何れを基準にするかにより、第1の割合パターンと第2の割合パターンとで合成量Tの用い方が異なる。本実施形態の場合、移動体合成比率算出部413は、適フレーム画像の移動体画像の輝度とアンダーフレーム画像の移動体画像の輝度に基づいて、適フレーム画像の移動体画像を基準とした移動体合成比率を決定する。具体的には、移動体合成比率算出部413は、適フレーム画像の移動体画像の輝度とアンダーフレーム画像の移動体画像の輝度から、適フレーム画像の使用係数qを求め、その使用係数qと各ブロック画像の合成量Tとを基に最終的な移動体合成比率を算出する。以下、例えばMVブロックA1,A2,A3に対応した合成量T_A1,T_A2,T_A3と、適フレーム画像の使用係数q_A1,q_A2,q_A3を一般化した使用係数qとを用いて説明する。
図15は、移動体画像のMVブロックA1,A2,A3に対応する各ブロック画像の平均輝度の大きさK_A1,K_A2,K_A3を一般化した平均輝度Kと、適フレーム画像の使用係数qとの関係を示すグラフである。この図15のグラフは、横軸が移動体画像の平均輝度K、縦軸が適フレーム画像の使用係数qを示し、第1の輝度閾値として「K1」、第2の輝度閾値として「K2」が設定されている。この図15のグラフによれば、平均輝度Kが「0」から「K1」の範囲つまり第1の輝度閾値以下(「K1」以下)の場合には、適フレーム画像を基準とする割合が大きくなされる。すなわち、平均輝度Kが「K1」以下の場合には適フレーム画像の使用係数qが「1」となされる。また、平均輝度Kが「K2」以上つまり第2の輝度閾値以上の場合には、アンダーフレーム画像を基準とする割合が大きくなされる。すなわち、平均輝度Kが「K2」以上の場合は適フレーム画像の使用係数qが「0」となされる。一方、平均輝度Kが「K1」から「K2」の範囲では、それら適フレーム画像とアンダーフレーム画像の割合を徐々に変化させるような割合となされる。すなわち、「K1」から「K2」の範囲では、平均輝度Kが高くなるにつれて適フレーム画像の移動体画像の割合を徐々に大きくするような使用係数qが設定される。そして、移動体合成比率算出部413は、この図15のグラフに基づいて使用係数qを求め、その使用係数と合成量Tとを用いた以下の式(4)により、最終的な適フレーム画像の移動体合成比率Dを算出する。
D=T×(1−q)+(1−T)×q ・・・式(4)
図2の合成部414は、位置合わせ処理後の適フレーム画像と、現像処理後のアンダーフレーム画像に対して、移動体画像については移動体合成比率Dに応じた合成を、一方、背景画像に対しては輝度合成比率に応じた合成を行う。すなわち、輝度合成比率を「J」とした場合、合成部414は、以下の式(5)により、各画素ごとに合成画像の算出を行う。
背景画像:アンダーフレーム画像×J+適フレーム画像×(1−J)
移動体画像:アンダーフレーム画像×(1−D)+適フレーム画像×D
・・・・式(5)
以上説明したように、本実施形態によれば、動画像に対するHDRの画像合成処理により、移動体画像が合成されてフレームレートが低下することによる動画の滑らかさの劣化を抑えることが実現出来ている。本実施形態ではさらに、移動体画像の面積と移動量と輝度とに基づいて移動体合成比率を制御することにより、不自然な描写の画像合成が行われてしまうことを防ぎ、最適な動画像HDR画像を得ることができる。特に、本実施形態では、例えば移動体画像の移動量が大きい場合や移動体画像の面積が大きい場合のように、移動体画像が目立つ画像である場合に、HDRの合成処理によって移動体画像が不自然な画像として描写されてしまうような画質劣化を低減できる。すなわち、本実施形態によれば、HDRによる画像合成処理の効果を維持しつつ、動画の滑らかさの劣化を抑えるような処理が実現でき、さらに、移動体画像が不自然に見えてしまう描写になるのを防止可能となっている。
<第2の実施形態>
次に、第2の実施形態の画像処理装置について以下に説明する。第2の実施形態の画像処理装置は、第1の実施形態と同様に、動画像撮影で交互に撮像された適フレームとアンダーフレームの移動体画像をHDR合成処理する際に、移動体画像の移動量と面積と輝度に基づいて、移動体合成比率を制御する。さらに第2の実施形態では、移動体画像の面積を、それぞれ各移動体画像間で比較し、面積が略々等しい各移動体画像についてはそれぞれ移動体合成比率を近づけるように(略々同じ比率になるように)調整し、その調整後の移動体合成比率で画像合成を行う。第2の実施形態では、面積が同等の移動体画像がそれぞれ近い移動体合成比率による画像合成がなされるため、見た目の違和感が少ないHDR合成画像を生成することが可能となる。
第2の実施形態の画像処理装置の一例であるカメラの構成は、前述した図1と同じであるため、ここでは説明を省略する。図16には、第2の実施形態におけるHDR処理部4の一構成例を示す。なお、図16に示すHDR処理部4に関しても、大部分は第1の実施形態のHDR処理部4と同じであるため、以下の説明では、第1の実施形態のHDR処理部4とは異なる部分についてのみ説明する。
図16に示す第2の実施形態のHDR処理部4において、面積算出部410にて算出された移動体画像の面積の情報は、移動体合成比率算出部413と、同一面積補正部416に送られる。同一面積補正部416は、移動体合成比率算出部413の出力である移動体合成比率と、面積算出部410の出力である移動体画像の面積とに基づいて、移動体合成比率を補正し、その補正済移動体合成比率を合成部414へ送る。
以下、同一面積補正部416で行われる移動体合成比率の補正処理について更に詳細に説明する。図17は、フレーム画像内に同じ面積を持つ移動体画像が複数存在する場合の一例を示す図である。図17において、図中の網掛けで示された画像範囲1701,1702,1703は、前述同様に動きベクトルに基づいて求められた移動体画像に対して移動体合成比率が適用される画像範囲を示している。なお、図17には、各移動体画像の動きベクトルに対応したMVブロックを表す「A4,A5,A6」も描かれている。これら画像範囲1701,1702,1703にそれぞれ対応した移動体画像の面積は、画像範囲内のMVブロック数により求められる。ここでは、画像範囲1701の移動体画像におけるMVブロックの個数をN_A4、画像範囲1702の移動体画像におけるMVブロックの個数をN_A5、画像範囲1703の移動体画像におけるMVブロックの個数をN_A5とする。図17の例では、それら各MVブロックの個数N_A4,N_A5,N_A6は、それぞれ同じ数(N_A4=N_A5=N_A6)になっているとする。
またこのとき、同一面積補正部416には、移動体合成比率算出部413がMVブロックA4,A5,A6に対応して算出した適フレームの移動体合成比率D_A4、D_A5、D_A6が供給される。同一面積補正部416は、それらMVブロックの個数N_A4,N_A5,N_A6が閾値Lよりも少なく、且つ、それらの個数が等しい(N_A4=N_A5=N_A6)場合、以下の式(6)により補正済移動体合成比率D2を算出する。すなわち、同一面積補正部416は、適フレームの移動体合成比率D_A4、D_A5、D_A6の平均合成比率を補正済移動体合成比率D2として算出する。
D2=(D_A4+D_A5+D_A6)/3 ・・・式(6)
同一面積補正部416は、以上のような処理により算出した補正済移動体合成比率D2を、合成部414へ送る。合成部414では、画像範囲1701,1702,1703に対応した各移動体画像について、補正済移動体合成比率D2を用いて、前述の第1の実施形態の場合と同様に適フレームとアンダーフレームの移動体画像の合成を行う。
以上説明した第2の実施形態によれば、第1の実施形態の場合と同様な効果を得ることができる。さらに、第2の実施形態においては、移動体画像の面積が閾値Lよりも小さく、且つその面積が略々等しい移動体画像に関しては移動体合成比率が略々同じになるように修正を行うようにしている。これにより、第2の実施形態によれば、面積が同等の移動体画像が、それぞれ近い移動体合成比率により画像合成されるため、見た目の違和感が少ないHDR合成画像を生成することが可能となる。
<第3の実施形態>
次に、第3の実施形態の画像処理装置について以下に説明する。第3の実施形態の画像処理装置は、第1の実施形態と同様に、動画像撮影で交互に撮像された適フレームとアンダーフレームの移動体画像をHDR合成処理する際に、移動体画像の移動量と面積と輝度に基づいて、移動体合成比率を制御する。さらに第3の実施形態では、動きベクトルの情報だけではなく、適フレーム画像とアンダーフレーム画像の差分値に基づいて、移動体合成比率を制御する。すなわち、第3の実施形態では、適フレーム画像とアンダーフレーム画像の移動体画像における画素単位の動きに基づいて、移動体画像に対する移動体合成比率を詳細に算出可能としている。
第3の実施形態の画像処理装置の一例であるカメラの構成は、前述した図1と同じであるため、ここでは説明を省略する。図18には、第3の実施形態におけるHDR処理部4の一構成例を示す。なお、図18に示すHDR処理部4に関しても、大部分は第1の実施形態のHDR処理部4と同じであるため、以下の説明では、第1の実施形態のHDR処理部4とは異なる部分についてのみ説明する。
図18に示すHDR処理部4において、輝度差合成比率算出部417は、輝度差検出手段の一例であり、位置合わせ部409の出力である位置合わせ処理後の適フレームの画像データと、現像処理後のアンダーフレームの画像データとが入力される。輝度差合成比率算出部417は、位置合わせ処理後の適フレームの画像データと現像処理後のアンダーフレームの画像データに基づいて、輝度差合成比率を算出する。輝度差合成比率算出部417で算出された輝度差合成比率の情報は、移動体合成比率算出部413へ送られる。移動体合成比率算出部413は、輝度差合成比率に基づいて前述の移動体合成比率Dを補正して、補正済移動体合成比率D3を算出する。
以下、第3の実施形態における輝度差合成比率算出部417と移動体合成比率算出部413についてさらに詳しく説明する。輝度差合成比率算出部417は、位置合わせ処理後の適フレーム画像と現像処理後のアンダーフレームの画像の各画素の輝度の差分絶対値Pを算出する。図19は、差分絶対値Pと、輝度差合成比率PKの関係をグラフにしたものである。図19のグラフは、横軸が差分絶対値Pを示し、縦軸が輝度差合成比率PKを示し、第1の差閾値として「P1」、第2の差閾値として「P2」が設定されている。この図19の例によれば、差分絶対値Pが0〜P1の範囲つまり第1の差閾値以下(P1以下)の場合には輝度差合成比率PKは第1の比率であるゼロ(0)パーセントとなされる。また、差分絶対値PがP2以上つまり第2の差閾値以上である場合には輝度差合成比率PKは第2の比率である100パーセントとなされる。一方、差分絶対値PがP1〜P2の範囲のときは、輝度差合成比率PKがゼロパーセントから100パーセントに徐々に増加するようになされている。すなわち、差分絶対値PがP1〜P2の範囲である場合、差分絶対値Pが大きくなるにつれてセロパーセントから100パーセントまで変化するような輝度差合成比率PKが画素単位で設定される。移動体合成比率算出部413は、図19のグラフに基づいて求めた輝度差合成比率PKと、第1の実施形態のように算出された移動体合成比率Dとを用いて、各画素について下記式(7)により補正済移動体合成比率D3を算出する。
D3=PK×D ・・・式(7)
移動体合成比率算出部413は、以上のようにして算出された補正済移動体合成比率D3を合成部414へ送る。合成部414は、補正済移動体合成比率D3を用いて、画素単位で前述の第1の実施形態の場合と同様に適フレームとアンダーフレームの移動体画像の合成を行う。
以上説明した第3の実施形態によれば、第1の実施形態の場合と同様な効果を得ることができる。さらに、第3の実施形態においては、画素単位の移動体画像の動きに基づいて、移動体合成比率を詳細に算出しているため、見た目の違和感が非常に少ない自然な合成画像を生成可能となる。
<第4の実施形態>
前述した第1、第2、第3の実施形態における画像処理装置は、パーソナルコンピュータ等の情報処理装置と、その情報処理装置にて実行されるコンピュータプログラムにより実現することも可能である。以下、第4の実施形態として、パーソナルコンピュータがプログラムを実行して前述した画像合成処理等を実現する場合について説明する。
図20は、第4の実施形態における情報処理装置の概略構成を示す図である。図20において、CPU300は、本実施形態の情報処理装置全体の制御、及び種々の処理を行う中央演算装置である。メモリ301は、いわゆるBIOSやブートプログラムを記憶しているROMと、CPU300がワークエリアとして使用するRAMとで構成されている。指示入力部303は、例えばキーボード、マウスなどのポインティングデバイス、及び、各種スイッチ等により構成されている。外部記憶装置304は、例えばハードディスク装置などであり、本実施形態の情報処理装置の各種制御を実行するオペレーティングシステム(OS)や、前述の第1〜第3の実施形態で説明した各種処理を実行するコンピュータプログラムが記憶されている。また、外部記憶装置304は、各種演算に必要な記憶領域としても使用される。記憶装置305は、例えば動画データを記憶する可搬性記憶媒体(例えばBD−ROMやDVD−ROMディスク等)をアクセスするための装置である。バス302は、コンピュータと外部インタフェースとの間で画像データのやり取りが行われるバスである。デジタルカメラ306は、動画像や静止画像を撮像するためのカメラであり、有線若しくは無線により第4の実施形態の情報処理装置と通信する。また、デジタルカメラ306は、図1の光学系1と撮像素子2と角速度センサ9を有しており、撮影した画像データと角速度センサ9が検出した角速度の情報を情報処理装置へ送信する。ディスプレイ307は、動画像や静止画像、本実施形態においてHDRによる合成処理後の画像等を表示するための表示装置である。通信回線309は、例えば、LAN、公衆回線、無線回線、放送電波で構成されている。通信インタフェース308は、通信回線309を介して画像データ等を送受信する。
図20に示した情報処理装置について更に詳細に説明する。先ず、指示入力部303を介したユーザからの電源投入指示に応じて電源が供給されると、CPU300は、メモリ301のROMに格納されているブートプログラムに従って、外部記憶装置304のOSをメモリ301(RAM)にロードする。そして、指示入力部303を介したユーザからの指示に従い、CPU300は、外部記憶装置304からアプリケーションプログラムをメモリ301にロードする。これにより、情報処理装置は、前述の各実施形態で説明した画像処理装置の各機能を実行可能となる。
図21は、そのアプリケーションプログラムがメモリ301にロードされた際の、メモリ301の記憶エリアの一例を示す図である。すなわち、このときのメモリ301には、記憶エリア2101〜2106が用意される。記憶エリア2101は、CPU300が情報処理装置全体を制御し、また、各種ソフトウェアの実行を制御するためのOS(オペレーティングシステム)が展開されるエリアである。記憶エリア2102は、CPU300がHDRの画像合成処理を実行するための映像処理ソフトウェアプログラムが展開されるエリアである。記憶エリア2103は、CPU300がカメラ306を制御して、適フレームとアンダーフレームの画像を交互に撮像させ、それらのフレーム画像を1フレームずつ入力(キャプチャ)するための画像入力ソフトウェアプログラムが展開されるエリアである。記憶エリア2104は、CPU300がディスプレイ307へ表示させる画像データを生成する処理を実行するための映像表示ソフトウェアプログラムが展開されるエリアである。記憶エリア2105は、画像データが格納される画像エリアである。記憶エリア2106は、例えば各種のパラメータ等が格納されるワーキングエリアである。
図22は、CPU300が本実施形態のアプリケーションプログラムを実行して前述した各実施形態の画像処理を行う際のフローチャートである。図22において、CPU300は、先ず、ステップS1の処理として各部の初期化を行う。ステップS1の後、CPU300は、処理をステップS2へ進める。
ステップS2では、CPU300は、アプリケーションプログラムを終了させるか否かの判定を行う。このステップS2における終了判定は、ユーザが指示入力部303を介して終了指示を入力したか否かに基づいて行われる。すなわちCPU300は、ステップS2において、指示入力部303を介してユーザから終了指示が入力されたと判定した場合にはこのフローチャートの処理を終了する。一方、CPU300は、ステップS2において、指示入力部303を介してユーザから終了指示が入力されていないと判定した場合には処理をステップS3へ進める。
ステップS3では、CPU300は、カメラ306にて撮像されたフレーム単位の画像データを、メモリ301の記憶エリア2105のうちの画像エリアに格納させる。ステップS3の後、CPU300は、処理をステップS4へ進める。ステップS4では、CPU300は、前述の実施形態で説明したようなHDRの画像合成処理等の各種画像処理を実行する。ステップS4の後、CPU300は、処理をステップS2へ戻す。
図23には、図22のステップS4の画像処理を更に詳細に示すフローチャートである。CPU300は、先ずステップS401の処理として、記憶装置305に記憶されている画像データのなかの少なくとも時間的に連続した適フレームとアンダーフレームの2フレームの画像データと、角速度等のパラメータを、メモリ301に記憶させる。ステップS401の後、CPU300は、処理をステップS402へ進める。
ステップS402では、CPU300は、メモリ301に記憶された2フレームの画像データを、前述したように、それぞれの明るさに合うように現像処理する。ステップS402の後、CPU300は、処理をステップS403へ進める。ステップS403では、CPU300は、アンダーフレームに対する輝度合成比率を算出する。ステップS403の後、CPU300は、処理をステップS404へ進める。
ステップS404では、CPU300は、適フレーム画像とアンダーフレーム画像の間の動きベクトルを算出する。ステップS404の後、CPU300は、処理をステップS405へ進める。ステップS405では、CPU300は、動きベクトルと角速度を用いて、移動体画像と背景画像を分離する。ステップS405の後、CPU300は、処理をステップS406へ進める。
ステップS406では、CPU300は、動きベクトルを用いて適フレームの背景画像をアンダーフレームの背景画像に対して位置合わせする。ステップS406の後、CPU300は、処理をステップS407へ進める。
ステップS407では、CPU300は、動きベクトルを用いて移動体画像の面積を算出する。ステップS407の後、CPU300は、処理をステップS408へ進める。ステップS408では、CPU300は、動きベクトルを用いて移動体画像の移動量を算出する。ステップS408の後、CPU300は、処理をステップS409へ進める。ステップS409では、CPU300は、動きベクトルを用いて移動体画像の輝度を算出する。ステップS409の後、CPU300は、処理をステップS410へ進める。
ステップS410では、CPU300は、移動体画像の面積と移動量と輝度とに基づいて、移動体合成比率を算出する。ステップS410の後、CPU300は、処理をステップS411へ進める。ステップS411では、CPU300は、輝度合成比率と移動体合成比率とを用いて、適フレームとアンダーフレームの画像の合成処理を行い、その合成処理後のフレーム画像データをメモリ301に格納させる。
以上説明したように、第4の実施形態によれば、パーソナルコンピュータ等の情報処理装置において、前述した第1〜第3の各実施形態と同等の画像合成処理を実現できる。なお、コンピュータプログラムは、通常はコンピュータ可読装置に格納されており、これをコンピュータが有する読み取り装置にセットし、内部のメモリ等にコピー若しくはインストールすることで実行可能である。したがって、このようなコンピュータ可読記憶媒体が本実施形態の範疇に入ることは言うまでもない。
また、上述した実施形態の1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給されてもよい。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーが、プログラムを読出して実行する。その他、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
前述した実施形態では、HDRによる画像合成処理を例に挙げたが、その他にも、例えば、フォーカス方向の合焦距離を異ならせた複数のフレーム画像の合成処理や、色味を異ならせた複数フレームの合成処理など、様々な画像合成処理にも適用可能である。
1 光学系、2 撮像素子、3 信号処理部、4 HDR処理部、5 調整処理部、6 符号化処理部、7 出力部、8 UI部、9 角速度センサ、404,405 現像部、406 輝度合成比率算出部、407 動きベクトル算出部、408 背景分離部、409 位置合わせ部、410 面積算出部、411 移動量算出部、412 輝度算出部、413 移動体合成比率算出部、414 合成部、416 同一面積補正部、417 輝度差合成比率算出部

Claims (13)

  1. 動画撮影による第1のフレーム画像と第2のフレーム画像の少なくとも二つのフレーム画像から、前記第1のフレーム画像の撮影と前記第2のフレーム画像の撮影がなされた間に被写体位置が変化した被写体画像を移動体画像として検出する移動体検出手段と、
    前記第1のフレーム画像と前記第2のフレーム画像から、前記第1のフレーム画像の撮影と前記第2のフレーム画像の撮影がなされた間の前記移動体画像の移動量を求める移動量検出手段と、
    前記移動体画像の面積を求める面積検出手段と、
    前記第1のフレーム画像と前記第2のフレーム画像を合成する合成手段と、
    前記移動体画像の前記移動量と前記面積に基づいて、前記合成手段により前記第1のフレーム画像と前記第2のフレーム画像が合成される際の、前記第1のフレーム画像の前記移動体画像と前記第2のフレーム画像の前記移動体画像との合成比率を制御する制御手段とを有する
    ことを特徴とする画像処理装置。
  2. 前記第1のフレーム画像は第1の露光量で撮影されたフレーム画像であり、前記第2のフレーム画像は前記第1の露光量より少ない露光量である第2の露光量で撮影されたフレーム画像であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記制御手段は、前記移動体画像の前記移動量と前記面積の大きさを表す評価値を求め、前記評価値が大きくなるにつれて、前記第1のフレーム画像の前記移動体画像の合成量が少なくなるように前記合成比率を制御することを特徴とする請求項2に記載の画像処理装置。
  4. 前記制御手段は、
    前記評価値が第1の評価閾値以下の場合には前記合成量を第1の合成量で一定となるように前記合成比率を制御し、
    前記評価値が前記第1の評価閾値より大きい第2の評価閾値以上の場合には前記合成量を前記第1の合成量より小さい第2の合成量で一定となるように前記合成比率を制御し、
    前記評価値が前記第1の評価閾値と前記第2の評価閾値との間の場合には前記評価値が大きくなるにつれて前記合成量を前記第1の合成量から前記第2の合成量へ少なくなるように前記合成比率を制御することを特徴とする請求項3に記載の画像処理装置。
  5. 前記第1のフレーム画像の前記移動体画像の輝度と前記第2のフレーム画像の前記移動体画像の輝度を検出する輝度検出手段を有し、
    前記制御手段は、前記輝度検出手段により検出された前記第1のフレーム画像の前記移動体画像の輝度と前記第2のフレーム画像の前記移動体画像の輝度に基づいて、前記第1のフレーム画像の前記移動体画像を基準とした前記合成比率を決定する請求項3又は4に記載の画像処理装置。
  6. 前記輝度検出手段は、前記第1のフレーム画像の前記移動体画像と前記第2のフレーム画像の前記移動体画像の平均輝度を求め、
    前記制御手段は、
    前記平均輝度が第1の輝度閾値以下である場合には前記第1のフレーム画像の前記移動体画像の割合を大きくする係数を設定し、
    前記平均輝度が前記第1の輝度閾値より高い第2の輝度閾値以上である場合には前記第2のフレーム画像の前記移動体画像の割合を大きくする前記係数を設定し、
    前記平均輝度が前記第1の輝度閾値と前記第2の輝度閾値の間である場合には前記平均輝度が低くなるにつれて前記第1のフレーム画像の前記移動体画像の割合を大きくする前記係数を設定し、
    前記係数と前記合成量とに基づいて、前記第1のフレーム画像の前記移動体画像を基準とした前記合成比率を決定する請求項5に記載の画像処理装置。
  7. 前記制御手段は、前記第1のフレーム画像の前記移動体画像と、前記第2のフレーム画像の前記移動体画像と、前記第1のフレーム画像の前記移動体画像と前記第2のフレーム画像の前記移動体画像を線形に繋げた際の領域と、からなる画像範囲を、前記合成比率による合成がなされる移動体画像の範囲とすることを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。
  8. 前記移動体検出手段は、複数の移動体画像を検出し、
    前記面積検出手段は、前記複数の移動体画像のそれぞれの面積を検出し、
    前記制御手段は、前記複数の移動体画像についてそれぞれ前記合成比率を制御するとともに、前記複数の移動体画像のうち前記面積が略々等しい各移動体画像の合成比率については略々同じ合成比率となるように制御することを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
  9. 前記制御手段は、前記面積が略々等しい各移動体画像の前記合成比率から平均合成比率を求め、前記平均合成比率を前記面積が略々等しい各移動体画像の前記合成比率とすることを特徴とする請求項8に記載の画像処理装置。
  10. 前記第1のフレーム画像の前記移動体画像と前記第2のフレーム画像の前記移動体画像の画素単位の輝度差を求める輝度差検出手段を有し、
    前記制御手段は、前記画素単位の輝度差に基づいて、前記移動体画像の画素単位で前記合成比率を制御することを特徴とする請求項2〜9のいずれか1項に記載の画像処理装置。
  11. 前記輝度差検出手段は、
    前記画素単位の輝度差が第1の差閾値以下である場合には第1の比率となる輝度差合成比率を画素単位で設定し、
    前記画素単位の輝度差が前記第1の差閾値より大きい第2の差閾値以上である場合には前記第1の比率より大きい第2の比率となる輝度差合成比率を画素単位で設定し、
    前記画素単位の輝度差が前記第1の差閾値と前記第2の差閾値の間である場合には前記画素単位の輝度差が大きくなるにつれて前記比率が前記第1の比率から前記第2の比率に変化するような輝度差合成比率を画素単位で設定し、
    前記制御手段は、前記画素単位の輝度差合成比率により、前記第1のフレーム画像の前記移動体画像を基準とした前記合成比率を画素単位で補正することを特徴とする請求項10に記載の画像処理装置。
  12. 移動体検出手段が、動画撮影による第1のフレーム画像と第2のフレーム画像の少なくとも二つのフレーム画像から、前記第1のフレーム画像の撮影と前記第2のフレーム画像の撮影がなされた間に被写体位置が変化した被写体画像を移動体画像として検出するステップと、
    移動量検出手段が、前記第1のフレーム画像と前記第2のフレーム画像から、前記第1のフレーム画像の撮影と前記第2のフレーム画像の撮影がなされた間の前記移動体画像の移動量を求めるステップと、
    面積検出手段が、前記移動体画像の面積を求めるステップと、
    合成手段が、前記第1のフレーム画像と前記第2のフレーム画像を合成するステップと、
    制御手段が、前記移動体画像の前記移動量と前記面積に基づいて、前記合成手段により前記第1のフレーム画像と前記第2のフレーム画像が合成される際の、前記第1のフレーム画像の前記移動体画像と前記第2のフレーム画像の前記移動体画像との合成比率を制御するステップと
    を含むことを特徴とする画像処理方法。
  13. コンピュータを、請求項1〜11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2015083468A 2015-04-15 2015-04-15 画像処理装置、画像処理方法、及びプログラム Expired - Fee Related JP6494388B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015083468A JP6494388B2 (ja) 2015-04-15 2015-04-15 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015083468A JP6494388B2 (ja) 2015-04-15 2015-04-15 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016208083A true JP2016208083A (ja) 2016-12-08
JP6494388B2 JP6494388B2 (ja) 2019-04-03

Family

ID=57490377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015083468A Expired - Fee Related JP6494388B2 (ja) 2015-04-15 2015-04-15 画像処理装置、画像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6494388B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387248A (zh) * 2022-01-12 2022-04-22 苏州天准科技股份有限公司 一种硅料熔化度监测方法、存储介质、终端和拉晶设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074335A (ja) * 2011-09-26 2013-04-22 Canon Inc 画像処理装置及びその方法、撮像装置
JP2013135341A (ja) * 2011-12-26 2013-07-08 Canon Inc 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP2013240031A (ja) * 2012-04-19 2013-11-28 Canon Inc 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074335A (ja) * 2011-09-26 2013-04-22 Canon Inc 画像処理装置及びその方法、撮像装置
JP2013135341A (ja) * 2011-12-26 2013-07-08 Canon Inc 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP2013240031A (ja) * 2012-04-19 2013-11-28 Canon Inc 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387248A (zh) * 2022-01-12 2022-04-22 苏州天准科技股份有限公司 一种硅料熔化度监测方法、存储介质、终端和拉晶设备

Also Published As

Publication number Publication date
JP6494388B2 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
US9646397B2 (en) Image processing apparatus and image processing method
JP5713752B2 (ja) 画像処理装置、及びその制御方法
JP5767485B2 (ja) 画像処理装置及び制御方法
WO2021047345A1 (zh) 图像降噪方法、装置、存储介质及电子设备
US20130202204A1 (en) Image processing apparatus and method of controlling the same
TW201432616A (zh) 影像擷取裝置及其影像處理方法
JP2021114696A (ja) 画像処理装置、画像処理方法、及びプログラム
CN113313661A (zh) 图像融合方法、装置、电子设备及计算机可读存储介质
JP2014155001A (ja) 画像処理装置及び画像処理方法
JP2015201842A (ja) 画像処理装置、その制御方法、および制御プログラム
WO2020029679A1 (zh) 控制方法、装置、成像设备、电子设备及可读存储介质
JP2015144475A (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
JP6887853B2 (ja) 撮像装置、その制御方法、プログラム
JP5882702B2 (ja) 撮像装置
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
WO2019124289A1 (ja) 装置、制御方法および記憶媒体
JP7057079B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5911340B2 (ja) 撮像装置およびその制御方法
JP6494388B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5952574B2 (ja) 画像処理装置およびその制御方法
JP2023090492A (ja) 画像処理装置および画像処理方法、撮像装置
JP5197064B2 (ja) ビデオカメラ
JP2018128764A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022086311A (ja) 撮像装置、撮像装置の制御方法、およびプログラム
JP5952573B2 (ja) 画像処理装置およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R151 Written notification of patent or utility model registration

Ref document number: 6494388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees