JP6286567B2 - マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム - Google Patents

マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム Download PDF

Info

Publication number
JP6286567B2
JP6286567B2 JP2016549746A JP2016549746A JP6286567B2 JP 6286567 B2 JP6286567 B2 JP 6286567B2 JP 2016549746 A JP2016549746 A JP 2016549746A JP 2016549746 A JP2016549746 A JP 2016549746A JP 6286567 B2 JP6286567 B2 JP 6286567B2
Authority
JP
Japan
Prior art keywords
image
focus
sub
autofocus
edge detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016549746A
Other languages
English (en)
Other versions
JP2017506456A (ja
Inventor
ユー. フリュキガー,デイヴィッド
ユー. フリュキガー,デイヴィッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon Co filed Critical Raytheon Co
Publication of JP2017506456A publication Critical patent/JP2017506456A/ja
Application granted granted Critical
Publication of JP6286567B2 publication Critical patent/JP6286567B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Image Processing (AREA)

Description

オートフォーカスシステムは一以上のセンサに依存して正しいフォーカスを決定する。オートフォーカスセンサから収集されたデータを用いて、カメラの光学系のフォーカスを調節する電気機械的システムを制御する。地上のカメラで地上にいる被写体の画像を撮ると、被写体には焦点が合うかもしれないが、背景には焦点が合わない。これは、カメラから被写体までの距離が、カメラから背景までの距離と異なるからである。空対地アプリケーションでは、空中カメラから地上及び人や対象物までの距離はほぼ等しい。そのため、空から撮影されるオートフォーカス画像は、全画像にフォーカスし、一部だけではない。他の問題は、特に監視アプリケーションによく見られるものには、画像を素早く、暗いところでオートフォーカスすることである。
一例では、画像の各々に対してフォーカスセルが再配置されるフォーカススイープ中に撮られる画像に基づいて、ビデオ画像を自動的にフォーカスする方法が提供される。該方法は、オートフォーカス・エンジンにおいて、フォーカススイープからのエッジ検出画像と、それに関連する前記フォーカススイープにおけるフォーカスセル位置とを所与として、前記エッジ検出画像をサブ画像に分割するステップを含む。前記方法は、さらに、各サブ画像に対して、被写体サブ画像の規格化エッジ検出強さを計算するステップと、前記被写体サブ画像の規格化エッジ検出強さを閾値と比較するステップと、を含む。前記方法は、さらに、前記比較に基づき、前記被写体サブ画像にエッジがあるか判断するステップと、前記被写体サブ画像にエッジがあるかの判断に基づき、所与の前記フォーカスセル位置に関連するオートフォーカス・メトリックを計算するステップと、前記方法は、さらに、前記オートフォーカス・メトリックを、前記フォーカスセルの他の位置に関連するオートフォーカス・メトリックと共に提供して、ビデオ画像をフォーカスするステップとを含む。
他の一例では、画像の各々に対してフォーカスセルが再配置されるフォーカススイープ中に撮られる画像に基づいて、ビデオ画像を自動的にフォーカスするシステムが提供される。該システムは、コンピュータ実行可能命令を有するメモリと、フォーカススイープからのエッジ検出画像と、それに関連する前記フォーカススイープにおけるフォーカスセルの位置とを受け取る少なくとも1つのインターフェースとを含む。前記システムは、さらに、前記メモリと前記少なくとも1つのインターフェースとに結合したオートフォーカス・エンジンとを有する。前記コンピュータ実行可能命令は、前記オートフォーカス・エンジンにより実行されると、前記オートフォーカス・エンジンに、前記エッジ検出画像をサブ画像に分割させられる。前記オートフォーカス・エンジンはさらに、各サブ画像に対して、被写体サブ画像の規格化エッジ検出強さを計算させられ、前記被写体サブ画像の規格化エッジ検出強さを閾値と比較させられる。前記オートフォーカス・エンジンはさらに、前記比較に基づき、前記被写体サブ画像にエッジがあるか判断させられ、前記被写体サブ画像にエッジがあるかの判断に基づき、所与の前記フォーカスセル位置に関連するオートフォーカス・メトリックを計算させられる。前記オートフォーカス・エンジンはさらに、前記オートフォーカス・メトリックを、前記フォーカスセルの他の位置に関連するオートフォーカス・メトリックと共に提供して、ビデオ画像をフォーカスさせられる。
さらに他の一例では、画像の各々に対してフォーカスセルが再配置されるフォーカススイープ中に撮られる画像に基づいて、ビデオ画像を自動的にフォーカスするコンピュータ読み取り可能命令を有する有体のコンピュータ読み取り可能記憶媒体が提供される。該コンピュータ読み取り可能命令は、一以上のプロセッサにより実行されると、前記一以上のプロセッサに、フォーカススイープからのエッジ検出画像と、それに関連する前記フォーカススイープにおけるフォーカスセル位置とを所与として、前記エッジ検出画像をサブ画像に分割させる。前記一以上のプロセッサはさらに、各サブ画像に対して、被写体サブ画像の規格化エッジ検出強さを計算し、前記被写体サブ画像の規格化エッジ検出強さを閾値と比較させられる。前記一以上のプロセッサはさらに、前記比較に基づき、前記被写体サブ画像にエッジがあるか判断させ、前記被写体サブ画像にエッジがあるかの判断に基づき、所与の前記フォーカスセル位置に関連するオートフォーカス・メトリックを計算させられる。前記一以上のプロセッサはさらに、前記オートフォーカス・メトリックを、前記フォーカスセルの他の位置に関連するオートフォーカス・メトリックと共に提供して、ビデオ画像をフォーカスさせられる。
幾つかの例では、上記のどの態様も、次の特徴のうち一以上を含むことができる。
本方法の他の例では、ピクセル値を有する前記被写体サブ画像の規格化エッジ検出強さを計算するステップは、前記被写体サブ画像中に見いだされる最大ピクセル値と、前記被写体サブ画像中に見いだされる最小ピクセル値とを選択するステップを含む。前記方法の例はさらに、前記最大ピクセル値と最小ピクセル値との差の、前記最大ピクセル値と最小ピクセル値との和に対する比率を求める、前記比率はコントラストの尺度であるステップと、前記コントラストの尺度を前記サブ画像中のピクセル値の平均とかけて、その結果として前記被写体サブ画像の規格化及び加重エッジ検出強さを求めるステップとを含む。
本方法の幾つかの例では、前記オートフォーカス・メトリックを計算するステップは、エッジがあるサブ画像の規格化エッジ検出強さを平均するステップを含む。
前記方法の他の例はさらに、前記オートフォーカス・メトリックに基づいて前記フォーカスセルの位置を選択するステップと、前記フォーカスセルを選択された位置に再配置して前記ビデオ画像をフォーカスするステップとを含む。
本方法の幾つかの例では、前記フォーカスセルの位置を選択するステップは、計算されたオートフォーカス・メトリックと、それに関連するフォーカスセル位置とから、オートフォーカス・メトリック及びフォーカスセル位置のモデルを生成するステップと、前記モデルからフォーカスセルの最良の位置を選択するステップとを含む。
本方法の他の例では、前記モデルは、計算されたオートフォーカス・メトリックの前記モデルへの非線形回帰適合である。
前記方法の幾つかの例はさらに、フォーカススイープ中に撮られる各画像に対して、被写体画像を関心領域にトリミングするステップと、前記関心領域のホワイトノイズを低減して、結果としてフィルタ画像を求めるステップとを含む。前記方法の例はさらに、前記フィルタ画像中のエッジを検出して、結果として前記フォーカススイープ中のフォーカスセルの位置に関連するエッジ検出画像を求めるステップを含む。
前記方法の他の例はさらに、日中テレビジョン(DTV)、近赤外(NIR)、短波長赤外(SWIR)、中波長赤外(MWIR)、または長波長赤外(LWIR)よりなるグループから選択した波長で、フォーカススイープ中に、画像を撮るステップをさらに含む。
上記の及びその他の機能、及び特徴と、動作方法と、関連構成要素の機能と、パーツの組み合わせと、生産の経済性とは、本出願の出願書類を構成する、添付した図面を参照して以下の説明と特許請求の範囲を検討すれば明らかになるだろう。図面中、対応するパーツには同じ参照数字を付した。しかし、言うまでもないが、図面は例示と説明を目的としたものであり、請求項を限定することを意図したものではない。本明細書と特許請求の範囲において、「1つの」、「前記」との記載は別段の記載がなければ、複数の場合も含む。
上記やその他の目的、特徴、および利点は、添付した図面に示した例のより具体的な説明から明らかになるであろう。異なる図面において、同じ参照番号は同じパーツを示している。図面は必ずしも寸法通りではなく、例の原理を例示するに当たり強調した部分もある。
オートフォーカス・エンジンを有する画像システム例を示すブロック図である。 オートフォーカスメトリックアプローチの一例を実装するオートフォーカス・エンジンの動作を示す画像例である。 オートフォーカスメトリックアプローチの一例を実装するオートフォーカス・エンジンの動作を示す画像例である。 オートフォーカスメトリックアプローチの一例を実装するオートフォーカス・エンジンの動作を示す画像例である。 オートフォーカスメトリックアプローチの一例による最良のフォーカスセル位置の選択を示すチャートである。 オートフォーカスメトリックアプローチの一例による最良のフォーカスセル位置の選択を示すチャートである。 オートフォーカスメトリックアプローチの一例を実装するオートフォーカス・エンジンの一例を示すブロック図である。 オートフォーカスメトリックアプローチの一例を示すフローチャートである。
以下の説明では、同種のコンポーネントには、異なる例に示されているかどうかに係わらず、同じ参照数字を付した。本開示の例を明確かつ簡潔に説明するため、図面は必ずしもスケール通りではなく、ある特徴は概略的に示した。ある例を参照して説明及び/又は例示した特徴は、他の例で、及び/又は他の例の特徴と組み合わせて、又は他の例の特徴に替えて、同一又は同様の方法で用いることができる。
図1は、地上105の上を飛行して監視を行う空中画像プラットフォーム100(例えば、ドローン)の一例を示す。空中画像プラットフォーム100は、地上105の人や対象物を監視する画像システム110を有する。画像システム110は画像センサ115、フォーカスセル120、及びオートフォーカス・エンジン125を含む。画像センサ115は画像を撮り、例えば日中テレビジョン(DTV)、近赤外(NIR)、短波長赤外(SWIR)、中波長赤外(MWIR)、または長波長赤外(LWIR)の波長でビデオ画像を撮る。
フォーカスセル120は、画像センサ115により撮られた画像をフォーカスする。フォーカスセル120は、位置を変え、各フォーカスセル位置で画像が異なるフォーカスをする。これは「フォーカススイープ(focus sweep)」として知られている。オートフォーカス・エンジン125は、フォーカスセル120に、選択されたフォーカスセル位置を提供することにより、フォーカスセル120の位置を制御する。オートフォーカス・エンジン125自体は、オペレータ(例えば、ドローン110のオペレータ)により制御されてもよい。「プッシュ・ツー・フォーカス(push−to−focus)」アプリケーションでは、オペレータは、焦点がはずれた画像をフォーカスしたい時、ボタンを押すと、オートフォーカス・エンジン125が画像をフォーカスする。
オートフォーカス・メトリック・アプローチ(及びここで説明するその例)では、オートフォーカスが、各フォーカスセル位置に関連するオートフォーカス・メトリック(autofocus metric)を計算し、計算されたメトリックに基づいて最良のフォーカスセル位置を選択する。図2A−2Cを参照して、オートフォーカス・メトリック・アプローチの例を実装するオートフォーカス・エンジン125の動作を説明する。
図2Aは、フォーカスセル120を第1の位置として撮った第1の画像205と、第1のフォーカスセル位置とは異なる第2のフォーカスセル位置で撮った第2の画像210とを示す。第1と第2の画像205、210は、フォーカススイープ中の異なるフォーカスセル位置で撮った画像のうちの2枚である。エッジ検出器が、第1の画像205と第2の画像210を処理し、図2Bに示す、第1のエッジ検出画像215と、第2のエッジ検出画像220をそれぞれ生成する。Sobelエッジ検出器など、多くのエッジ検出器のうちのどれを使っても良い。オートフォーカス・メトリック・アプローチの例を説明し、可読性を高めるため、第1のエッジ検出画像215は「焦点画像(in−focus−image)」と呼び、第2のエッジ検出画像220は「焦点外画像(out−of−focus−image)」と呼ぶ。
オートフォーカス画像は、焦点画像215と焦点外画像220とを、「パッチ」と呼ばれるサブ画像225、230に分割する。オートフォーカス・メトリック・アプローチの便利な例では、各パッチが検出されたエッジを1つ含む又は含まないように、パッチのサイズが選択される。他の一例では、パッチのサイズは、低光束状態において、明るい光のインパクトを低減するように選択される。
オートフォーカス・メトリック・アプローチの説明を続ける前に、一部のコントラストが高い画像の例を考える。この高コントラスト領域があるため、焦点外画像に対して計算されるエッジ検出強度が高くなってしまう。そして、これにより、焦点がはずれていても、画像の焦点が合っているとの間違った結論を下してしまうことがある。換言すると、エッジ検出強度計算は、画像の一部分により支配され、全画像を表さない場合がある。この状況は好ましくなく、従来のオートフォーカスアプローチを無効化し得る。
コントラストが高いがエッジがない画像部分と、無害なその他の部分とへの依存性を低減するため、オートフォーカス・エンジン125(図1)は、焦点画像215と焦点外画像220とを、「パッチ」と呼ばれるサブ画像225、230に分割する。次いで、オートフォーカス・エンジン125は、各パッチに「ローカル」エッジ検出強度(エッジコントラスト)を割り当てる。オートフォーカス・エンジン125は、サブ画像のローカル値に基づいて、オートフォーカス・メトリックを求める。対照的に、コントラストエンハンスメントに基づく従来のオートフォーカスアプローチは、全画像からそれらのメトリックを求める。
オートフォーカス・メトリック・アプローチの便利な例では、各パッチが検出されたエッジを1つ含む又は含まないように、パッチのサイズが選択される。他の一例では、パッチのサイズは、低光束状態において、明るい光のインパクトを低減するように選択される。オートフォーカス・メトリック・アプローチのさらに他の便利な例では、パッチのピクセル値に対して、オートフォーカス・エンジン125は、そのパッチに見つかった最大ピクセル値と最小ピクセル値とを選択することにより、そのパッチの規格化されたエッジ検出強度を計算する。オートフォーカス・エンジン125は、最大ピクセル値と最小ピクセル値との差の、最大ピクセル値と最小ピクセル値との和に対する比率を求める。この比率はコントラストの尺度(measure)である。オートフォーカス・エンジン125は、コントラスト尺度を、パッチ中のピクセル値の平均にかけ、その結果として、そのパッチの規格化され加重されたエッジ検出強度を求める。
前述の動作は、すべてのローカルのパッチ値をスケールし、ローカルの「ウィーク(weak)」(低コントラストでもシャープ)が、ローカルの「ストロング(strong)」(高コントラストでシャープ)と同様に貢献するようにする。シャープエッジは、画像の低値領域から一または少数のピクセルの高値領域への移行と定義される。画像の低値領域及び高値領域の間の境界(border)または移行境界(transition boundary)にあるピクセルが少なければ少ないほど、加重はシャープになる。フォーカスの目標はすべての境界を「シャープにする」ことであり、これは通常の意味では「焦点がっている」状態と「焦点がはずれている」状態との差である。
オートフォーカス・エンジン125は、与えられたパッチの規格化されたエッジ検出強度を閾値と比較する。その閾値を用いて、オートフォーカス・エンジン125は、エッジが検出されたパッチと、エッジが検出されないパッチとを弁別する。オートフォーカス・メトリック・アプローチの幾つかの例では、ユーザは閾値を確定し、キーボードやマウスなどの入力デバイスを用いてその閾値をオートフォーカス・エンジン125に入力する。オートフォーカス・メトリック・アプローチの他の例では、オートフォーカス・エンジン125又はその他のコンポーネントは、アプリケーションに基づいて閾値を調整する。
図2Cの例では、オートフォーカス・エンジン125(図1)は、焦点画像215のパッチ225の99%がエッジを含み、1%が含まないと判断する。比較して、オートフォーカス・エンジン125は、焦点外画像220のパッチ230の20%がエッジを含み、80%が含まないと判断する。オートフォーカス・エンジン125は、エッジを有すると判断されたパッチ225に基づいて、第1のフォーカスセル位置の第1のオートフォーカス・メトリックを計算する。オートフォーカス・エンジン125は、エッジを有すると判断されたパッチ230に基づいて、第2のフォーカスセル位置の第2のオートフォーカス・メトリックを計算する。
オートフォーカス・エンジン125は、「最良の」フォーカスセル位置の決定に用いる、第1と第2のオートフォーカス・メトリックと、フォーカススイープにおける他のフォーカスセル位置に対して計算されたオートフォーカス・メトリックとを提供する。次に、フォーカスセル120は、画像にフォーカスする最良のフォーカスセル位置に移動する。オートフォーカス・エンジン125の便利な例は、計算されたオートフォーカス・メトリックとそれに関連するフォーカスセル位置とに基づいて、最良のフォーカスセル位置を選択する。(選択手順は、この後すぐ、より詳細に説明する。)オートフォーカス・エンジン125は、フォーカスセル120を、画像をフォーカスするのに最良のフォーカスセル位置に再配置する。
図3Aは、フォーカスセル120(図1)が一定速度で左から右にスイープし、離散時間に画像が収集されるにつれて、オートフォーカス・エンジン125(図1)により生成されるデータポイント(図中でプラス記号として示す)を示している。各データポイントは、図2Aないし図2Cを参照して説明したように、与えられたフォーカスセル位置(X軸に示す)に対して計算されたオートフォーカスメトリック(Y軸に示す)を表す。
オートフォーカス・エンジン125はオートフォーカス・メトリックとそれに関連するフォーカスセル位置とからモデル300を生成する。モデル300は、フォーカスセル120の位置が変化するにつれて、画像の鮮明度(sharpness)がどう変化すると物理的に期待されるかを表す。このように、モデル300は理論的である。オートフォーカスメトリックアプローチの便利な例では、モデル300は非線形回帰適合である。モデルの「ピーク」は、図中305で示したが、最良のフォーカスセル位置を表す。オートフォーカス・エンジン125は、画像をフォーカスするのに最良のフォーカスセル位置をフォーカスセル120に提供する。
モデル300を構築する、オートフォーカス・エンジン125により計算されたオートフォーカスメトリック(データポイント)の数は、関心領域及びパッチサイズに基づき選択してもよい。任意のパッチ中のエッジ数を最小化する7×7ないし20×20の間の一般的なパッチサイズが選択される。理想的には、一つのパッチが一つの区別できるエッジに影響する。好ましい例では、パッチサイズは10×10が選択される。オートフォーカスメトリックアプローチの幾つかの例では、オートフォーカス・エンジン125により計算されるオートフォーカス・メトリックの数は、最良のフォーカスセル位置が一定時間内に、例えば1秒または2秒以内に選択されるように、選択される。これは、フォーカスボタンを押すとすぐに、ぼけた画像がフォーカスされるとオペレータが期待する「プッシュ・ツー・フォーカス」の場合に特に有利である。
図3Bは、信号が非常に弱い微少光画像化条件で用いられるオートフォーカスメトリックアプローチの一例を示している。かかる画像化条件は、従来のオートフォーカスアプローチでは困難な問題である。データポイントは図3Aの例と比較して、より分散している。分散が大きくなることは、オートフォーカス・メトリックを計算するのに用いる測定値中のノイズが大きくなることを表している。オートフォーカス・エンジン125(図1)は、データポイントを通るモデル315(理論的に最良な曲線)を見つけ、モデル315から(参照番号315で示す)最良のフォーカスセル位置を選択する。
オートフォーカスメトリックアプローチの他の例では、フォーカススイープ中に撮られた各画像に対して、オートフォーカス・エンジン125が被写体画像を関心領域までトリミング(crop)する。一般的に、画像の中心部分は関心対象を含む。画像の境界領域はコンテキスト情報を提供する。目的は、関心中心領域をはっきりとフォーカスすることであり、境界領域の対象により曲がらないようにすることである。有利にも、画像を中心領域にトリミング(cropping)することにより、オートフォーカスにより中心領域のフォーカスが最良になることを保証できる。
オートフォーカス・エンジン125は、次いで、関心領域の白色ノイズを低減し、フィルタ画像(filtered image)を求める。このノイズ低減手順により、弱信号で撮像された画像におけるランダムピクセルノイズが低減される。オートフォーカス・エンジン125は、SobelまたはLaplaceエッジ検出を適用して、フィルタ画像中のエッジを検出する。結果は、フォーカススイープにおけるフォーカスセル120の位置に関連するエッジ検出画像である。オートフォーカス・エンジン125は、図2Aないし図2Cを参照して上で説明したように、検出されたエッジからオートフォーカス・メトリックを計算する。
図4Aは、図4Bに示したオートフォーカスメトリックアプローチ450の一例を実装するオートフォーカス・エンジン125(図1)の便利な一例を示す。オートフォーカス・エンジン125は、画像分割モジュール405、規格化エッジ強度計算モジュール410、比較モジュール415、及びオートフォーカス・メトリック計算モジュール420を含み、各モジュールは図示したように他のモジュールと通信可能に結合している。言うまでもなく、オートフォーカス・エンジン125の他の例は、図示したよりも多い又は少ないモジュールを有しても良い。
エッジ検出画像401とそれに関連するフォーカスセル位置402とを入力として与えられ、画像分割モジュール405は、エッジ検出画像401をサブ画像425に分割する(ステップ455)。サブ画像425の各々に対して、規格化エッジ強度計算モジュール410は、規格化エッジ検出強度430を計算する(ステップ460)。比較モジュール415は、被写体サブ画像の規格化エッジ検出強度411を閾値と比較する(ステップ465)。
比較に基づき、比較モジュール415は、被写体サブ画像中にエッジがあるか判断し(ステップ470)、判断435を提供する。被写体サブ画像中のエッジ435に関する判断と、他のサブ画像中のエッジに関する判断とに基づき、オートフォーカス・メトリック計算モジュール420は、フォーカスセル位置135に関連するオートフォーカス・メトリック440を計算する(ステップ475)。オートフォーカス・エンジン125は、フォーカスセル位置402とオートフォーカス・メトリック440とを提供して画像をフォーカスする。
上記のシステムと方法は、デジタル電子回路、コンピュータハードウェア、ファームウェア、及び/又はソフトウェアで実装できる。実装はコンピュータプログラム製品(すなわち、情報キャリア媒体において有体に実施されたコンピュータプログラム)として行える。実装は、例えば、データ処理装置により実行される、またはその動作を制御する機械読み取り可能記憶デバイスで行うこともできる。実装は、例えば、プログラマブルプロセッサ、コンピュータ、及び/又は複数のコンピュータであってもよい。
一例では、コンピュータプログラムは、コンパイラ及び/又はインタプリタ言語を含む、どんな形式のプログラミング言語で記述することもできる。コンピュータプログラムは、ここに説明のさまざまな例の特徴や機能を実行する、スタンドアロンプログラムまたはサブルーチン、エレメント、及び/又は計算環境で用いるその他のユニットを含む、どんな形式で展開することもできる。コンピュータプログラムは1つのコンピュータ上で実行しても、一箇所にある複数のコンピュータ上で実行するように展開することもできる。
方法ステップまたは演算は、コンピュータプログラムを実行して、入力データに作用して出力を生成することによりさまざまな例の機能を実行する一以上のプログラム可能プロセッサによりプロセスとして実行できる。方法ステップは特定用途論理回路により実行することができ、装置は特定用途論理回路として実装することもできる。回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)及び/又は特定用途集積回路(ASIC)であってもよい。モジュール、サブルーチン、及びソフトウェアエージェントは、その機能を実装するコンピュータプログラム、プロセッサ、特殊回路、ソフトウェア、及び/又はハードウェアの一部を指すこともある。
オートフォーカス・エンジン125は、コンピュータプログラムの実行に適した一以上のプロセッサを含み、例えば、特定目的及び汎用のマイクロプロセッサと、任意種類のデジタルコンピュータの任意の一以上のプロセッサとを両方とも含む。一般的に、プロセッサは読み取り専用メモリまたはランダムアクセスメモリから命令またはデータまたはその両方を受け取る。コンピュータの要素は、命令を実行するプロセッサと、命令とデータを格納する一以上のメモリデバイスとを有しても良い。一般的に、コンピュータは、(例えば、磁気ディスク、光磁気ディスク、または光ディスクなどの)データを記憶する一以上の大規模ストレージデバイス(例えば、メモリモジュール)を含み、それからデータを受け取り、及び/又はそれにデータを送るように動作可能に結合していてもよい。メモリは、画像を処理するコンピュータ読み取り可能命令を格納した有体、非一時的コンピュータ読み取り可能記憶媒体であってもよい。該命令は、一以上のプロセッサ(例えば、オートフォーカス・エンジン125)により実行されたとき、一以上のプロセッサに、ここに説明のさまざまな例の特徴や機能を実行または実装させる。
コンピュータプログラム命令およびデータを利用するのに適した情報キャリアは、例えば、半導体メモリデバイスを含む、すべての形式の不揮発性メモリを含む。情報キャリアは、例えば、EPROM、EEPROM、フラッシュメモリデバイス、磁気ディスク、内部ハードディスク、リムーバブルディスク、光磁気ディスク、CD−ROM、及び/又はDVD−ROMディスクであり得る。プロセッサとメモリは特定用途論理回路により補足され、及び/又はそれに組み込まれてもよい。
ユーザとのインターラクションを提供するため、上記の手法はディスプレイデバイスを有する計算デバイスに実装できる。ディスプレイデバイスは、例えば、陰極線管(CRT)及び/又は液晶ディスプレイ(LCD)モニター及び/又は発光ダイオード(LED)モニターであってもよい。ユーザとのインターラクションは、例えば、ユーザへの情報のディスプレイと、ユーザが計算デバイスに入力をできる(例えば、ユーザインタフェース要素とインターラクトできる)キーボード及びポインティングデバイス(例えば、マウスまたはトラックボール)であり得る。他種類のデバイスを用いてユーザとのインターラクションを提供することもできる。他のデバイスは、例えば、任意形式の感覚的フィードバック(例えば、視覚的フィードバック、聴覚的フィードバック、触覚的フィードバックなど)でユーザに提供されるフィードバックであり得る。ユーザからの入力は、例えば、音響的、発話的、及び/又は触覚的入力を含む任意の形式で受け取ることができる。
上記のシステムや手法は、バックエンドコンポーネントを含む分散コンピューティングシステムで実装し得る。バックエンドコンポーネントは、例えば、データサーバ、ミドルウェアコンポーネント、及び/又はアプリケーションサーバであってもよい。上記の手法は、フロントエンドコンポーネントを含む分散コンピューティングシステムでも実装し得る。フロントエンドコンポーネントは、例えば、グラフィカルユーザインタフェースを有するクライアント計算デバイス、ユーザが実装例とインターラクトできるウェブブラウザ、及び/又は送信デバイス用のその他のグラフィカルユーザインタフェースであり得る。システムのコンポーネントは、任意形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)により相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、有線ネットワーク、及び/又は無線ネットワークを含む。
システムはクライアント及びサーバに結合していても、及び/又はクライアント及びサーバを含んでいてもよい。クライアントとサーバは、一般的に、互いに離れており、一般的には通信ネットワークを通してインターラクトする。クライアントとサーバとの関係は、それぞれの計算デバイス上で実行され、互いにクライアント・サーバ関係を有するコンピュータプログラムにより生じる。
通信ネットワークはパケットベースネットワークを含んでもよく、例えば、インターネット、キャリアインターネットプロトコル(IP)ネットワーク(例えば、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、キャンパスエリアネットワーク(CAN)、メトロポリタンエリアネットワーク(MAN)、ホームエリアネットワーク(HAN))、プライベートIPネットワーク、IPプライベートブランチエクスチェンジ(IPBX)、無線ネットワーク(例えば、無線アクセスネットワーク(RAN)、802.11ネットワーク、802.16ネットワーク、ジェネラルパケットラジオサービス(GPRS)ネットワーク、HiperLAN)、及び/又はその他のパケットベースネットワークを含み得る。回路ベースネットワークは、例えば、公衆交換電話ネットワーク(PSTN)、プライベートブランチエクスチェンジ(PBX)、無線ネットワーク(例えば、RAN、ブルートゥース(登録商標)、符号分割多重接続(CDMA)ネットワーク、時間分割多重接続(TDMA)ネットワーク、グローバルシステム・フォー・モバイル通信(GSM(登録商標)ネットワーク)、及び/又はその他の回路ベースネットワークを含み得る。
オートフォーカス・エンジン125は、例えば、コンピュータ、ブラウザデバイス付きコンピュータ、電話、IP電話、携帯デバイス(例えば、セルラー電話、パーソナルデジタルアシスタント(PDA)デバイス、ラップトップコンピュータ、電子メールデバイス)、及び/又はその他の通信デバイスを含み得る。ブラウザデバイスは、例えば、ワールドワイドウェブブラウザ(例えば、ワシントン州レドモンドのマイクロソフト社が出しているインターネットエクスプローラ(登録商標))を有するコンピュータ(例えば、デスクトップコンピュータ、ラップトップコンピュータ)を含み得る。モバイル計算デバイスは、例えば、カナダ、オンタリオ州ウォータールー市のResearch In Motion Limitedにより提供されるBLACKBERRY(登録商標)を含む。
「comprise」、「include」、及び/又はこれらの複数形は、オープンエンドであり、列挙したものを含み、列挙していないものも含み得る。「及び/又は」は、オープンエンドであり、列挙したもののうち一以上、及び列挙したものの組み合わせを含む。
上記の開示は有用な例であると現在考えられるものを説明しているが、言うまでもなく、かかる詳細事項は説明を目的としたものであり、添付した請求項は開示の例に限定されず、逆に、添付の請求項の精神と範囲内にある修正や等価な構成をカバーすることを意図したものである。
当業者には言うまでもなく、本発明は、その精神や基本的特性から逸脱することなく、その他の具体的な形式で実施できる。上記の実施形態は、すべての点で例示でありここに説明した発明を限定するものではないと考えなければならない。本発明の範囲は、上記の説明ではなく、添付した請求項に記載されており、請求項の意味と均等物の範囲内での変更はすべてその請求項に含まれる。

Claims (11)

  1. 画像の各々に対してフォーカスセルが再配置されるフォーカススイープ中に撮られる画像に基づいて、ビデオ画像を自動的にフォーカスする方法であって、
    オートフォーカス・エンジンにおいて、フォーカススイープからのエッジ検出画像と、それに関連する前記フォーカススイープにおけるフォーカスセル位置とを所与として、前記エッジ検出画像をサブ画像に分割することと、
    各サブ画像に対して、被写体サブ画像の規格化エッジ検出強さを計算することであって、
    ピクセル値を有する前記被写体サブ画像の規格化エッジ検出強さを計算することは、
    前記被写体サブ画像に見いだされる最大ピクセル値と、前記被写体サブ画像に見いだされる最小ピクセル値とを選択することと、
    前記最大ピクセル値と最小ピクセル値との差の、前記最大ピクセル値と最小ピクセル値との和に対する比率を求める、前記比率はコントラストの尺度であることと、
    前記コントラストの尺度を前記サブ画像中のピクセル値の平均とかけて、その結果として前記被写体サブ画像の規格化及び加重エッジ検出強さを求めることとを含む、計算することと、
    前記被写体サブ画像の規格化エッジ検出強さを閾値と比較することと、
    前記比較に基づき、前記被写体サブ画像にエッジがあるか判断することと、
    前記被写体サブ画像にエッジがあるかの判断に基づき、所与の前記フォーカスセル位置に関連するオートフォーカス・メトリックを計算することと、
    前記オートフォーカス・メトリックを、前記フォーカスセルの他の位置に関連するオートフォーカス・メトリックと共に提供して、ビデオ画像をフォーカスすることとを含む、方法。
  2. 前記オートフォーカス・メトリックを計算することは、エッジがあるサブ画像の規格化エッジ検出強さを平均することを含む、請求項1に記載の方法。
  3. 前記オートフォーカス・メトリックに基づいて前記フォーカスセルの位置を選択することと、
    前記フォーカスセルを選択された位置に再配置して前記ビデオ画像をフォーカスすることとをさらに含む、
    請求項1に記載の方法。
  4. 前記フォーカスセルの位置を選択することは、
    計算されたオートフォーカス・メトリックと、それに関連するフォーカスセル位置とから、オートフォーカス・メトリック及びフォーカスセル位置のモデルを生成することと、
    前記モデルからフォーカスセルの最良の位置を選択することとを含む、
    請求項に記載の方法。
  5. 前記モデルは、計算されたオートフォーカス・メトリックの前記モデルへの非線形回帰適合である、
    請求項に記載の方法。
  6. フォーカススイープ中に撮られる各画像に対して、被写体画像を関心領域にトリミングすることと、
    前記関心領域のホワイトノイズを低減して、結果としてフィルタ画像を求めることと、
    前記フィルタ画像中のエッジを検出して、結果として前記フォーカススイープ中のフォーカスセルの位置に関連するエッジ検出画像を求めることとをさらに含む
    請求項1に記載の方法。
  7. ホワイトノイズを低減することは、前記関心領域のピクセルに双方向またはメジアンフィルタを適用することを含む、請求項に記載の方法。
  8. エッジを検出することは、SobelまたはLaplaceエッジ検出を適用することを含む、
    請求項に記載の方法。
  9. 日中テレビジョン(DTV)、近赤外(NIR)、短波長赤外(SWIR)、中波長赤外(MWIR)、または長波長赤外(LWIR)よりなるグループ画像センサから選択した波長で、フォーカススイープ中に、画像を撮ることをさらに含む、請求項1に記載の方法。
  10. 画像の各々に対してフォーカスセルが再配置されるフォーカススイープ中に撮られる画像に基づいて、ビデオ画像を自動的にフォーカスするシステムであって、
    コンピュータ実行可能命令を有するメモリと、
    フォーカススイープからのエッジ検出画像と、それに関連する前記フォーカススイープにおけるフォーカスセル位置とを受け取る少なくとも1つのインターフェースと、
    前記メモリと前記少なくとも1つのインターフェースとに結合したオートフォーカス・エンジンとを有し、前記コンピュータ実行可能命令は、前記オートフォーカス・エンジンにより実行されると、前記オートフォーカス・エンジンに、
    前記エッジ検出画像をサブ画像に分割し、
    各サブ画像に対して、被写体サブ画像の規格化エッジ検出強さを計算し、
    ここで、前記被写体サブ画像の規格化エッジ検出強さを計算することは、
    前記被写体サブ画像に見いだされる最大ピクセル値と、前記被写体サブ画像に見いだされる最小ピクセル値とを選択することと、
    前記最大ピクセル値と最小ピクセル値との差の、前記最大ピクセル値と最小ピクセル値との和に対する比率を求める、前記比率はコントラストの尺度であることと、
    前記コントラストの尺度を前記サブ画像中のピクセル値の平均とかけて、その結果として前記被写体サブ画像の規格化及び加重エッジ検出強さを求めることとを含み、
    前記被写体サブ画像の規格化エッジ検出強さを閾値と比較し、
    前記比較に基づき、前記被写体サブ画像にエッジがあるか判断し、
    前記被写体サブ画像にエッジがあるかの判断に基づき、所与の前記フォーカスセル位置に関連するオートフォーカス・メトリックを計算し、
    前記オートフォーカス・メトリックを、前記フォーカスセルの他の位置に関連するオートフォーカス・メトリックと共に提供して、ビデオ画像をフォーカスさせる、
    システム。
  11. 画像の各々に対してフォーカスセルが再配置されるフォーカススイープ中に撮られる画像に基づいて、ビデオ画像を自動的にフォーカスするコンピュータプログラムであって、一以上のプロセッサにより実行されると、前記一以上のプロセッサに、
    フォーカススイープからのエッジ検出画像と、それに関連する前記フォーカススイープにおけるフォーカスセル位置とを所与として、前記エッジ検出画像をサブ画像に分割し、
    各サブ画像に対して、被写体サブ画像の規格化エッジ検出強さを計算し、
    ここで、前記被写体サブ画像の規格化エッジ検出強さを計算することは、
    前記被写体サブ画像に見いだされる最大ピクセル値と、前記被写体サブ画像に見いだされる最小ピクセル値とを選択することと、
    前記最大ピクセル値と最小ピクセル値との差の、前記最大ピクセル値と最小ピクセル値との和に対する比率を求める、前記比率はコントラストの尺度であることと、
    前記コントラストの尺度を前記サブ画像中のピクセル値の平均とかけて、その結果として前記被写体サブ画像の規格化及び加重エッジ検出強さを求めることとを含み、
    前記被写体サブ画像の規格化エッジ検出強さを閾値と比較し、
    前記比較に基づき、前記被写体サブ画像にエッジがあるか判断し、
    前記被写体サブ画像にエッジがあるかの判断に基づき、所与の前記フォーカスセル位置に関連するオートフォーカス・メトリックを計算し、
    前記オートフォーカス・メトリックを、前記フォーカスセルの他の位置に関連するオートフォーカス・メトリックと共に提供して、ビデオ画像をフォーカスさせる、
    コンピュータプログラム
JP2016549746A 2014-02-10 2014-02-14 マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム Active JP6286567B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/177,175 2014-02-10
US14/177,175 US9354489B2 (en) 2014-02-10 2014-02-10 Robust autofocus algorithm for multi-spectral imaging systems
PCT/US2014/016430 WO2015119640A1 (en) 2014-02-10 2014-02-14 Robust autofocus algorithm for multi-spectral imaging systems

Publications (2)

Publication Number Publication Date
JP2017506456A JP2017506456A (ja) 2017-03-02
JP6286567B2 true JP6286567B2 (ja) 2018-02-28

Family

ID=50382542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016549746A Active JP6286567B2 (ja) 2014-02-10 2014-02-14 マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム

Country Status (7)

Country Link
US (1) US9354489B2 (ja)
EP (1) EP3105918B1 (ja)
JP (1) JP6286567B2 (ja)
AU (1) AU2014381641B2 (ja)
DK (1) DK3105918T3 (ja)
IL (1) IL246022A (ja)
WO (1) WO2015119640A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
US10867374B2 (en) 2017-02-13 2020-12-15 Sensors Unlimited, Inc. Auto-focusing system and method by determining contrast difference between adjacent pixels using sobel filter
CN106973219B (zh) * 2017-02-21 2019-06-28 苏州科达科技股份有限公司 一种基于感兴趣区域的自动聚焦方法及装置
DE102018123334A1 (de) * 2018-09-21 2020-03-26 Gottfried Wilhelm Leibniz Universität Hannover Verfahren zum Ermitteln einer Lageänderung eines Objektes
CN109765747B (zh) * 2018-12-26 2021-02-12 中国科学院长春光学精密机械与物理研究所 一种航空图像检焦方法、检焦系统及相机
US11852895B2 (en) 2022-02-28 2023-12-26 e-con Systems India Private Limited System and method for obtaining optimal focus of an image capturing device

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4490814A (en) 1982-09-30 1984-12-25 Polaroid Corporation Sonic autofocus camera having variable sonic beamwidth
US5170202A (en) 1990-07-03 1992-12-08 Eastman Kodak Company Contrast-based autofocus mechanism
JP2592985B2 (ja) 1990-09-25 1997-03-19 キヤノン株式会社 撮像装置
JP2996806B2 (ja) * 1992-06-11 2000-01-11 キヤノン株式会社 カメラ、自動焦点調節装置及び焦点調節方法
US5416518A (en) 1992-08-27 1995-05-16 Sony Electronics, Inc. Camera auto focus system
KR0143972B1 (ko) 1993-03-31 1998-07-15 김광호 비데오 카메라의 자동초점조절방법 및 장치
JPH0779444A (ja) 1993-09-06 1995-03-20 Asahi Optical Co Ltd スチルビデオカメラ
US5569904A (en) 1994-07-19 1996-10-29 Eastman Kodak Company Multispot autofocus system having a radiation emitter which emits radiation that is divided into a plurality of discrete beams
US5732288A (en) 1994-08-09 1998-03-24 Nikon Corporation Auto-focusing device for camera
JPH0862486A (ja) 1994-08-26 1996-03-08 Nikon Corp 自動焦点調節装置および自動焦点調節方法
US5745175A (en) 1995-10-02 1998-04-28 Flashpoint Technologies, Inc. Method and system for providing automatic focus control for a still digital camera
US5752115A (en) 1996-11-26 1998-05-12 Eastman Kodak Company Autofocus camera with power control for emitted beam
US6373481B1 (en) * 1999-08-25 2002-04-16 Intel Corporation Method and apparatus for automatic focusing in an image capture system using symmetric FIR filters
US7362354B2 (en) 2002-02-12 2008-04-22 Hewlett-Packard Development Company, L.P. Method and system for assessing the photo quality of a captured image in a digital still camera
JP2004264827A (ja) 2003-02-10 2004-09-24 Chinon Ind Inc 焦点距離検出方法及び合焦装置
US7502065B2 (en) 2004-06-16 2009-03-10 Hoya Corporation Focus detection method and focus detection apparatus
EP1624672A1 (en) * 2004-08-07 2006-02-08 STMicroelectronics Limited A method of determining a measure of edge strength and focus
US7343047B2 (en) * 2004-09-22 2008-03-11 Hewlett-Packard Development Company, L.P. Systems and methods for arriving at an auto focus Figure of Merit
JP2007199633A (ja) * 2006-01-30 2007-08-09 Olympus Corp 合焦検出装置
US7697831B1 (en) 2007-02-20 2010-04-13 Siimpel Corporation Auto-focus with lens vibration
US20090079862A1 (en) 2007-09-25 2009-03-26 Micron Technology, Inc. Method and apparatus providing imaging auto-focus utilizing absolute blur value
US8199248B2 (en) 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
WO2011007869A1 (ja) * 2009-07-17 2011-01-20 株式会社ニコン 焦点調節装置およびカメラ
TWI393984B (zh) 2009-09-09 2013-04-21 Altek Corp Fast focus method for digital cameras
US8958009B2 (en) * 2010-01-12 2015-02-17 Nikon Corporation Image-capturing device
US8724009B2 (en) * 2010-05-05 2014-05-13 Hiok Nam Tay Auto-focus image system
EP2448246B1 (en) 2010-10-28 2019-10-09 Axis AB Method for focusing
JP5778931B2 (ja) 2011-01-25 2015-09-16 キヤノン株式会社 撮像装置及びその制御方法
US9065999B2 (en) * 2011-03-24 2015-06-23 Hiok Nam Tay Method and apparatus for evaluating sharpness of image
JP2013005091A (ja) 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd 撮像装置および距離情報取得方法
US9113059B2 (en) * 2011-11-30 2015-08-18 Canon Kabushiki Kaisha Image pickup apparatus and image region discrimination method

Also Published As

Publication number Publication date
AU2014381641A1 (en) 2016-06-02
EP3105918A1 (en) 2016-12-21
IL246022A0 (en) 2016-07-31
EP3105918B1 (en) 2020-03-25
US9354489B2 (en) 2016-05-31
WO2015119640A1 (en) 2015-08-13
AU2014381641B2 (en) 2019-03-14
JP2017506456A (ja) 2017-03-02
DK3105918T3 (da) 2020-04-06
US20150227022A1 (en) 2015-08-13
IL246022A (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6286567B2 (ja) マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム
CN110121882B (zh) 一种图像处理方法及装置
KR100890949B1 (ko) 이미지 데이터 처리를 위한 전자 장치 및 전자 장치에서의방법
JP6447840B2 (ja) 画像装置、及び画像装置における自動的な焦点合わせのための方法、並びに対応するコンピュータプログラム
US9477138B2 (en) Autofocus
US9508153B2 (en) Distance measurement apparatus, imaging apparatus, distance measurement method, and program
JP6465563B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2020514891A (ja) ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分
KR20160048140A (ko) 올-인-포커스 이미지를 생성하기 위한 방법 및 장치
US20180182075A1 (en) Image processing apparatus, image capturing apparatus, method of image processing, and storage medium
JP2019088007A (ja) 変化する画像キャプチャ条件下での光学及びデジタルズームの組み合わせ
JP6317635B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US9489721B2 (en) Image processing apparatus, image processing method, and storage medium
US20180205877A1 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
US20170048443A1 (en) Image capturing device
CN108765346B (zh) 一种辅助对焦方法、装置和可读介质
JP7302596B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US10887525B2 (en) Delivery of notifications for feedback over visual quality of images
EP3054668B1 (en) Method and device for processing a video stream
CN110830728A (zh) 曝光调整方法及装置
JP6637242B2 (ja) 画像処理装置、撮像装置、プログラム、および画像処理方法
JP6381212B2 (ja) 撮像装置及びその制御方法
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
US20190373169A1 (en) Image apparatus to generate a combined image, control method for controlling an apparatus to generate a combined image, and storage medium
KR20150033275A (ko) 카메라 초점조절방법 및 초점조절시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R150 Certificate of patent or registration of utility model

Ref document number: 6286567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250