JP2011123060A - 三次元画像を形成するための識別専用オプトロニックシステムおよび方法 - Google Patents

三次元画像を形成するための識別専用オプトロニックシステムおよび方法 Download PDF

Info

Publication number
JP2011123060A
JP2011123060A JP2010263774A JP2010263774A JP2011123060A JP 2011123060 A JP2011123060 A JP 2011123060A JP 2010263774 A JP2010263774 A JP 2010263774A JP 2010263774 A JP2010263774 A JP 2010263774A JP 2011123060 A JP2011123060 A JP 2011123060A
Authority
JP
Japan
Prior art keywords
image
images
optronic system
reconstruction
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010263774A
Other languages
English (en)
Other versions
JP5891560B2 (ja
Inventor
Gerard Berginc
ベルジンク、ジェラール
Michel Jouffroy
ジュフロワ、ミシェル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Publication of JP2011123060A publication Critical patent/JP2011123060A/ja
Application granted granted Critical
Publication of JP5891560B2 publication Critical patent/JP5891560B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】三次元画像を形成するための識別専用オプトロニックシステム及び方法を提供する。
【解決手段】光センサと、通信手段21、22と、コンピュータ処理手段1とを含み、センサが捕捉した画像から三次元の物体を再構成し、当該再構成に基づいて物体を識別可能にする、物体を識別するためのオプトロニックシステムであって、光センサが、物体5周囲の何通りかの観測角61、62で捕捉された、物体5の表面で反射される電磁放射の輝度レベルを表す物体の画像を記録でき、通信手段21、22が、物体表面で反射される電磁放射の輝度レベルを表す前記物体の画像を処理すべく構成された断層撮影機能によって、三次元で物体を再構成できるよう、前記画像をコンピュータ処理手段1に送信できる。
【選択図】図1

Description

本発明は、従来にはない光学イメージング、特に三次元フォトニックイメージングの技術分野で物体を識別するためのオプトロニックシステムに関する。このイメージングは一般に「フル3D」と呼ばれ、2Dの輝度情報に加えて奥行き情報を含むだけの2.5Dの画像とは区別すべきものである。
オプトロニックシステムによる物体の自動識別は、複数の分野で用いられている。一例として、防衛・安全分野での標的認識、医療分野での皮下腫瘍や皮膚腫瘍の検出、あるいはマイクロエレクトロニクス分野での部品製造時にこれを観察することなどがあげられる。オプトロニックシステムでは、複雑なオプトロニックシーンに存在する物体の3D画像を生成する。この画像は、たとえばカモフラージュネットの中や樹の下でカモフラージュされた標的を判別できるものでなければならない。この動作条件が主な問題となっている。
この3Dイメージングの分野では、再構成対象となる物体について可変パラメータ(角度および/または奥行き寸法など)に応じた一組の測定値を得る必要がある。このデータセットを用いると、逆再構成技術によってボリュームを再構成することができる。数学的な観点で、この技術は、測定される物理現象のモデルを用いて実施され得る直接的な測定と、この直接的な測定結果を反転する再構成という2つのステップに分けられる。第1の問題は、反転プロセスで利用できる一組の直接的なデータを妥当な時間内に提供することにある。当然ながら、この問題はあらゆる技術的な問題(高性能の照明用レーザー、短パルス、高速検出器ブロック、ポインティング)に波及する。第2の問題は、使用される反転手順と、その数学的な実施に関するものである。
物体を識別するための第1のオプトロニックシステムが周知である。これは、プロフィロメトリック3Dアクティブイメージングシステムを必要とするものであり、その特徴は刊行物に開示されている。参考文献として、以下のものがあげられる。「Lincoln laboratory Journal 第15巻、第1号、2005、Jigsaw:a foliage Penetrating 3D imaging laser radar system」。また、空撮画像のレジストレーション方法を示す米国特許出願公開第2008/0181487号明細書が周知である。この出願は、あるオプトロニックシーンを異なる観測角から特定の回数測定する空/地収集システムに関するものである。このシステムでは、観測角ごとに大きな(>256×256)格子点で距離情報と輝度情報を得る。このシステムでは、形状計測の原理を用いて同一視線上にある反射波の各点を判別している。この3Dイメージングの原理には、サンプリングレートの高い短パルス(ナノ秒台)レーザー源を使用する前提がある。単一のレーザーパルスでシーン全体を照明し、2Dマトリクス検出器によって、そのシーンから後方散乱するフォトンと、放出に対する遅延を計測する。画像は走査によって生成される。この技術では、UAV(「無人航空機」)などの移動に合わせて画像を生成するのに走査を最適化しなければならない。この装置で生成される画像は、視線上の複数の反射波を利用して3Dで検出されたフォトンのマップである。空間レジストレーション後に異なる観測角についてこのタイプのマップを蓄積すると、識別対象となる物体表面の外郭をなす点の集合が得られる。3D画像を構成する逆関数の問題は、一組のデータを同じ基準フレームで連結することと、識別対象となるデータを含む着目ゾーンを抽出することに絞られる。このシステムには、技術的にいくつかの難点がある。まず、レーザー源と各画素用の検出器とのあいだの距離を求めるのに、短パルスレーザーと高速エレクトロニクス型の検出システムを用いる必要がある。また、同一の基準フレーム内で画像を連結できるようにするには、点の集合をレジストレーションするステップに、効果的なポインティング・ジオロケーションシステムを用いる必要がある。要するに、このような対応策では画像収集用の技術に関連して多大なコストがかかるため、このような「フル3D」の検出例をあらゆる分野で民生化することはできない。さらに、この対応策を無人空中システムで実施するのは依然として困難である。
医療イメージングで用いられる透過型3D断層撮影イメージングの第2のオプトロニックシステムが周知である。一般原理は以下のとおりである。平行線源からのX線ファインペンシルで患者の身体を走査し、物体についての第1のプロファイリングを実施する。次に、基本要素を回転させて同じプロセスを繰り返すことで、異なる投射角から新たなプロファイルを得る。ラドンの理論によるアルゴリズムを用いて、これらのデータから断面の各点における減衰係数の値を計算し、内部組織をマッピングしなければならない。このように、スキャナではX線が透過する際の吸収が媒質によって多かったり少なかったりする性質を利用している。この場合の直接的な課題は、X線が透過する組織の電磁吸収パラメータの把握にある。
第3の周知の対応策に、複数のビューに基づいて3D物体をモデリングするシステムがある。この原理によって物体を合成して構成する方法としては、大きく分けて主に以下の2つが周知である。
第1の方法は、シルエットを抽出するものである。この考え方では、三次元表現の対象となる物体をターンテーブルに載せ、従来の可視イメージングによってさまざまな角度からスナップショットを撮影する。各画像で物体のシルエットを抽出した後、ボリュームのシルエット内にある部分だけを維持しつつ、それぞれのシルエットを観測角に応じて3Dボリュームに適用する。この方法には、物体に光をあてる際にできるだけ影が少なくなるようにし、どの角度でも背景と物体とを明確に区別しなければならないという課題がある。この手段で得られるのは物体の大雑把な輪郭であって、物体に影やノイズになる部分が含まれると、情報の大部分が失われてしまう。さらに、この方法では部分的に隠れた物体を識別することはできない。
第2の方法は、表面積を最小にする方法である。この技術では、表面積を最小にするか小さなパッチをつなげるアルゴリズムを利用して、物体の2D画像の目立つ点から表面を再構成する。このように遠隔計測した点の格子点にパッチを適用する技術は通常、単一の観測角で利用される。かなりの時間をかけて相当な計算手段を使用する前提であれば、複数の角度でも完全な再構成のフレームワークにまで拡張できるが、パッチ間に連続性が必要であるため部分的に隠れた物体には適用できない。これらの方法は、2つの平面画像から浮き上がって見える感覚を再生できるようにする立体視技術(2.5D画像、奥行感覚)のようなものである。
最終的に、従来技術における対応策の問題は、一方ではコストと技術的手段が非実用的だということであり、他方では未知の環境や制御されていない環境で使用できないか、あるいはカモフラージュされた物体を検出できないことである。
本発明の目的は、コストと性能の点で実用的な技術的手段を有する3D検出および再構成の解決策を提供することにある。さらに、この技術的な解決策は、観察対象となるシーンがオペレータに制御されておらず、部分的に隠れていても使用できるものでなければならない。
より正確には、本発明は、光センサと、通信手段と、コンピュータ処理手段とを含み、センサが捕捉した画像から三次元の物体を再構成し、当該再構成に基づいて物体を識別可能にする、物体を識別するためのオプトロニックシステムであって、光センサが、物体周囲の何通りかの観測角で捕捉される、物体表面で反射される電磁放射の輝度レベルを表す物体の画像を記録でき、通信手段が、物体表面で反射される電磁放射の輝度レベルを表す前記物体の画像を処理すべく構成された断層撮影機能によって、三次元で物体を再構成できるよう、前記画像をコンピュータ処理手段に送信できることを特徴とする。
好ましい実施形態によれば、このシステムは、物体に向けて放出可能な電磁パルスを放出するための手段を含み、光センサが、物体で反射される電磁パルスの輝度レベルを検出可能である。
好都合なことに、このシステムは、基準位置をポインティングし、基準位置付近に集中した観測角で捕捉される画像のシーケンスを光センサが記録できるようにする手段も含み、コンピュータ処理手段が、基準位置からずれたシーケンスの各画像を基準位置に位置決めできる。
好都合なことに、このシステムは、再構成に用いられる同一シーケンスの画像内の物体の寸法が複数の画像間で等しくなるように、画像内の物体の寸法を前記距離の関数としてコンピュータ処理手段が調整できるよう、光センサと基準位置との間の距離を測定するための手段も含む。
好都合なことに、コンピュータ処理手段が、再構成に用いられる同一シーケンスの画像が等しい照明レベルになるように、画像の照明を光センサと基準位置との間の距離の関数として調整できる。
上述したいずれかの実施形態によれば、光センサが物体の周囲を移動できる移動体に搭載される。
アクティブイメージングを用いるいずれかの実施形態によれば、電磁パルスを放出するための手段と光センサとが、物体の周囲を移動できる移動体に搭載される。
好ましい実施形態によれば、移動体が航空機であり、コンピュータ処理手段が、通信手段によってセンサと接続された光センサから離れたコンピューティングステーションに所在する。
上述したいずれかの実施形態によれば、システムは、三次元再構成との比較によって物体を識別するための基準物体データベースを含む。
また、本発明は、三次元での物体再構成による物体識別用のコンピュータ処理の方法にも関する。
好都合なことに、この方法は以下の連続したステップを含む。
物体の表面で反射する電磁放射の輝度レベルを表す物体の画像のシーケンスを収集
物体の表面で反射する電磁放射の輝度レベルを表す二次元画像を用いる断層撮影機能によって、三次元で物体を再構成
識別対象となる物体を含む三次元再構成のゾーンを抽出
三次元で物体表面を再構成
基準物体に対して三次元で物体を比較
好都合なことに、この方法は、画像収集ステップの後に、画像を基準位置に位置決めするステップを含む。
好都合なことに、この方法は、画像収集ステップの後に、画像で検出された物体の寸法が、基準画像における物体の寸法に近くなるように、基準画像に対して画像を寸法調整するステップを含む。
好都合なことに、この方法は、画像収集ステップの後に、画像の照明が基準画像の照明に近くなるように、画像の照明を基準画像の関数として調整するステップを含む。
好都合なことに、この方法は、画像収集ステップの後に、画像の他の情報から物体関連の情報を抽出するよう画像のサイノグラムを処理するステップを含む。サイノグラムは、画像とそのバリエーションの同じ行(または同じ列)を回転させ、第2の次元(縦座標)における角度の関数として表したものである。
このオプトロニックシステムおよび関連の画像再構成方法の第1の利点は、高い収集・処理性能を必要としない技術的な手段を用いて、部分的に隠れた物体を検出できることである。特に、従来技術のプロフィロメトリックアクティブイメージングでの解決策とは異なり、レーザー放射光センサには従来の検出手段を用いている。よって、本発明では、この画像処理方法によって二次元画像からの3D再構成における問題が解決され、一層低コストの解決策が得られる。電磁パルス放出手段、光センサ、ジオロケーション手段は、開発に伴う制約を減らし、制約のある使用環境での実装用途で一層低コストの解決策を可能にするものである。
本発明の第2の利点は、使用する断層撮影方法が、それまでの透過型断層撮影による解決策とは対照的に、光センサを搭載した移動体すなわち位置、動きまたは向きの細かな空間制御を必要とせず(医用イメージングでの従来のプロフィロメトリック装置または固定軌道が自由度6であるのに対して自由度が3しかない)、シーン内に存在する物体の吸収係数も把握しなくてよい点にある。よって、このシステムおよび画像処理方法を、さらに多くの応用分野に利用でき、特にカモフラージュされた標的での用途に利用できる。
3D再構成方法に固有の第3の利点は、2Dまたは2.5Dの画像から検出する対応策よりもかなり有効な物体検出策が得られることである。特に、3D画像によって、オペレータおよび解析システムが物体に関して一層多くの情報を得られるため、診断能力が改善される。
非限定的かつ添付の図面を参照した以下の説明を読むことで、本発明について一層よく理解でき、他の利点も明白になろう。
空中収集プラットフォームと画像処理用の地上局を含むシステムについての本発明による実施形態の基本図を示す。 断層撮影による三次元再構成の原理を示す。 本発明による画像処理方法のステップを示す。 規模を縮小した研究室での実験のフレームワーク内で画像のシーケンスを収集するための図を示す。 基準位置からずれた、レジストレーション用の第1の画像補正機能の原理を説明するための図を示す。 基準画像に対して画像を寸法調整するための第2の画像補正機能の原理を説明するための図を示す。 同一シーケンスの画像の照明が一様になる、第3の画像補正機能の原理を説明するための図を示す。 レーザー装置の焦点の欠陥を軽減するための第4の画像補正機能の原理を説明するための図を示す。 逆変換アルゴリズムのステップを説明するための図を示す。 この方法に基づいて3Dゾーンで着目ゾーンを抽出するステップの原理を説明するための図を示す。 検出された3D物体の表面を構成するステップの原理を説明するための図を示す。 シーンの背景および関連のサイノグラムに対する第5の画像補正機能の結果よりも全体的に反射しない標的の事例を示す。サイノグラムは、画像とそのバリエーションの同じ行(または同じ列)を回転させ、第2の次元(縦座標)における角度の関数として表したものである。
本発明の優先的なモードでは、従来のアクティブイメージングを使用すなわち、従来のモノスタティックレーザーレーダー(ladar)システムを活かして輝度2D画像を実現している。しかしながら、特許請求の範囲に記載したようなシステムならびに方法は、パッシブイメージングにも適用される。図1に示すような優先的なモードによれば、空中プラットフォーム3を用いることで、周知の観測角61および62に応じてあらかじめ規定される軌道31で、他の物体4すなわち樹木またはカモフラージュネットなどによって部分的にカモフラージュされた標的物体5(この場合は自動車である)を含む地表の広いシーンに関する一連の画像を収集することができる。通信手段21および22を用いることで、収集した画像を、遠隔地にある地上局1に設けられた画像処理手段まで送信可能である。
図2に示されるように、これらの画像11および12を任意にレジストレーションおよび処理した後、フィルタ補正逆投影アルゴリズムによって、断層撮影による当該シーンの3Dボリューム13を再構成すればよい。標的物体がレーザーの電磁パルスに対して不透明すなわち物体表面でパルスが反射するとすれば、視線追随積分の範囲が、ある点で後方散乱する輝度の値に制限されるため、直接測定値の補正は不要である。このボリュームの断面による掃引によって、着目領域にタグ付けすることができる。この領域を処理することで特定数のボクセル(「volumic pixels(体積画素)」)を抽出できるが、これらのボクセルの集合が表面の外郭となり、(「マッチング」、形状認識、スピン画像との比較などによる)識別目的で、CAD(コンピュータを用いる設計)タイプの周知の3D構造に匹敵する三次元形状を得られる。
また、本発明は、図3に示されるような画像のコンピュータ処理方法にも関するものであり、この方法は特定数のステップを含む。ここで、想定した結果を得るには、その仕様どおりにするほうがよい。この方法については、本発明を実施するための構造的な手段に関する詳細な説明を終えた後で説明する。
空中プラットフォーム3は、電磁パルスを放出するための手段を含む。これは、モノスタティックまたは準モノスタティック構成(送信角が受信角と等しい)で用いられるレーザーレーダー装置であり、この構成の利点として、照明されるシーンに影の部分が最小限しか含まれないことがあげられる。さらに、ここでもそのシャープネスとコントラストを改善する目的で、使用する光学機器を、選択したセンサと波長に合わせて寸法調整する。レーザーパルスの空間幅と時間幅は、シーン全体を照明できるだけの十分なものでなければならず、一般に数十メートルである。
非限定的な例として、30メートル×30メートル×30メートルのボリュームに含まれるシーンを照明するためのレーザーの特徴は以下のとおりである。
−パルスが200nsを超えるレーザー、
−レーザーの拡がり:1kmで15mradから5kmで3mrad、
−ポストインテグレーションを可能にするために、繰り返し周波数は一般に最低でも数百ヘルツでなければならない。このレートで、たとえば50m/sで移動するキャリアの場合、2つの連続した画像間の変位量は50cmである。5kmでは、対応する角変位が100μradであるため、ポストインテグレーションが可能になる。これは、2つの画像間に必要な角変位が1度程度のためである(換言すると17.5mradすなわち一般に175倍大きい)、
−波長1.5μm(ステルス性、視覚のセキュリティ)、
−1パルスあたりのエネルギ量が小さい(一般におよそ10mJ程度)。
空中プラットフォーム3にも搭載される光センサは、近赤外線を感知する検出器からなる(たとえば、大型のInGaAs2Dマトリクス)。この場合、収集プロセスは、輝度ベースの二次元レーザーアクティブ画像のものである。
収集された画像は、当業者間で周知の無線周波数または光学通信手段21および22(その特徴は本発明を限定するものではない)によってすみやかに地上処理ステーションに送られる。処理ステーションと画像収集手段が搭載された移動体との間をどのくらいの距離にできるかは、通信手段の技術的な特徴次第で決まる。空/地構成では、乱気流、キャリアの移動速度、センサのダイナミクス、ポインティング精度に関する制約がゆえに、キャリアと標的との間で可能な距離は一般に5km前後である。
画像処理手段1は、画像補正の後処理を実行できるようにするものであり、その機能の詳細については後述する。これらの処理手段は、物体の再構成の精度が改善されるよう、3D再構成プロセスの実行前に画像の補正を可能にする。この同じ画像処理手段が、その後、識別動作を自動で実行できるようにするか、オペレータによる手動操作のために3D再構成を表示手段に送信できるようにする。
空中プラットフォーム3で放出/検出ブロックを位置決めすることで、大きな角変位範囲にて複数の軌道に沿ってシーンを観察できるようになる。このような航空機を用いる実施形態では、航空機(無人飛行機またはヘリコプターなど)の複数の経路が異なる方位角観察面に従って実行される。観測角を増やせば追加の情報が得られ、最終的な再構成の解像度が細かくなる。
ジオロケーション手段は、空間内の基準点に対する各2D画像のレジストレーションを可能にするものでなければならない(理論的には自由度3で、回転自由度が最も制限される)。基準点の精度は高度数キロメートルで1m前後であり、再構成には十分な精度である。これらのジオロケーション手段は、遠隔計測装置であってもよいし、衛星ベースの位置決め装置であってもよい。この遠隔計測または衛星ベースの位置決めデータがあれば、固定点を画像内で特定し、この固定点に対してシーケンス全体をレジストレーションできるため、これらのデータが必須である。遠隔計測と空中プラットフォーム3(または航空機)の慣性ユニットを使用してもよく、これによって回転中心の位置決め精度を高めやすくなる。
レーザー光線および光センサをポインティングする手段を使用して、スナップショットを基準点に集中させる。
実用上、従来の無線通信手段によって画像を段階的に地上の処理ステーションまで送信してもよいし、空中プラットフォームのレベルで直接処理してもよい。
特許請求の範囲に記載した主題は、物体を識別するための画像処理方法にも関する。図3は、本発明による画像処理方法の各ステップを示す。この画像処理方法は、画像を収集する第1のステップ101と、画像を補正する第2のステップ102と、収集したシーンを3D再構成する第3のステップ103と、物体を含む再構成3Dから着目ゾーンを抽出する第4のステップ104と、再構成した物体の表面を形成する第5のステップ105と、再構成した物体を識別する第6のステップ106とを含む。これらのステップはいずれも連続して実施されるが、本発明の主旨を逸脱することなく、この方法の途中に他の予備ステップ、中間ステップまたは追加のステップを加えてもよい。
一層正確には、第1の収集ステップ101では、信号対雑音比が可能な範囲で最も大きくなるように、何通りかの観測角で画像のシーケンスを提供し、また、同一の観測角について何通りかの画像を提供する。さらに、ここに提案された技術での利用が可能で最適な表示が得られるように、特に三次元表現で見たい標的とシーンの残りの部分とのコントラストならびにダイナミクスのある画像でなければならない。図4は、電磁パルスを放出する線源43で識別対象物体41を照明し、光センサ42によって何通りかの角度で検出する収集ステップを単純な形で表現できる、研究室での小規模な実験を示す。最適な収集ステップでは、できるだけ完全な形で物体を再構成するために、ある面に含まれる可能なすべての観測角からその物体を見る。それにもかかわらず、収集ステップでの視角数を減らし、三次元で部分再構成をモデリングすることが可能である。このため、2Dで見た識別より3Dモデルからの識別のほうが改善される。
第2の画像補正ステップ102は、互いに独立したいくつかの補正機能を含む。第1の補正機能は、画像内の基準位置に対する画像の位置決めである。軌道が完全に制御されるわけではない航空機などの移動体に光センサを搭載する場合、画像の位置決めまたは画像レジストレーション機能によって、観測角が極めて近い画像シーケンスの信号対雑音指数を改善できるようになる。このように基準位置に対して画像をレジストレーションする機能は、シーケンスの2つの連続画像間の相関係数を求めることで実施される。
近傍にあるが互いに(Δx、Δy、Δθ)だけずれている2つの画像を示す図5では、相関マトリクスでのレジストレーションプロセスによって画像の飛躍なしにシーケンスを得られるが、遠隔計測または衛星ベースの位置決めに関する知識がない状態で、ある画像から別の画像に回転固定点の位置を補正することも可能である。相関係数ρ(X,Y)は通常、以下の式で与えられる。
式中、Cov(X,Y)は、
で規定される共分散関数であり、
Var(X)は、
で規定される変数である。
画像No.2をδθだけ回転させ、大きなサイズの画像(特にレジストレーション対象となる標的が存在する画像部分を含む)の一部での2つの画像間の相関係数を計算する。この第2の画像を、あらかじめ規定された大きさのウィンドウでδx方向とδy方向にずらす。これが、ある画像から他の画像に想定される最大シフト量に相当する。角度の変位量を許容最大値まで増やしながら、同じ操作を繰り返す。得られた相関の最大マトリクスが、特定のΔθについて2つの画像間のずれ(Δx、Δy)を示す値である。この操作をシーケンスの各画像について繰り返す。その後、複数のレジストレーション画像が十分に近い観測角に対応しているのであれば、これらの画像の平均をとって画像のダイナミクスを高めることが可能である。
さらに、そのまま利用できるようにするために、画像捕捉シーケンス全体で光センサと基準位置との間の距離のばらつきに対して第2の補正機能を実行する必要がある。特に、この基準位置から一定距離で画像を捕捉する必要がある。実用上、光センサを航空機に搭載する優先的な実施形態では、軌道はおおむね直線で、曲線まではあるが、円形になることはまれである。したがって、幾何学的な補正機能を用いることで、センサと目的の基準位置との間の距離がばらつく問題を解消できる。この機能を用いると、一定の場での作業だと仮定した場合に、シーケンスの全画像に共通の表面寸法が等しくなり、画素数での寸法も等しくなるので、円形軌道までの距離に応じて(比Γの適用)それぞれの画像の大きさを調整することができる。幾何学的な補正機能の展開には、光センサが標的に最も近いシーケンスの基準画像を判断する第1のステップを含む。この画像は、再構成の空間基準として作用することになる。この基準画像について、標的/キャリア距離を図6にDrefとして示す。次に、ジオロケーションデータに基づいて、画像ごとにDで示す標的/キャリア距離を求める第2のステップがある。シーケンスの各画像Nは、幅dの格子点で基準画像drefの幅に応じてオーバーサンプリングされていなければならない。これらの2つの幅には、
という関係が成り立つ。
シーンを照明するための第3の補正機能によって、3D再構成が改善される。これは、検出器で受信される光束が以下のように変動するためである。
式中、Dはレーザーレーダー/標的距離である。図7は補正原理を示す。パワーPrefの信号は、最も近い標的/キャリア距離Drefに対応する距離Drefで受信される光束を示す。Pは、軌道の画像Nの場合に、標的/キャリア距離Dで受信される光束を示す。照明補正機能は、雑音を減らす第1のステップと、続いて基準画像のレベルを達成すべく画像のダイナミクスを広げるステップとを含む。
ここで用いる第4の補正機能(その原理を図8に示す)は、レーザー光線の空間形状に関連する照明パターンに関するものである。これは、ガウス(単一モードレーザーの理想的な事例)であってもよいし、「トップハット」またはマルチモードであってもよい。補正をしないと、画像は特定の部分が極めて明るく、画像の境界部分で次第にぼんやりとしていく。レーザーの照明パターンでは、この第4の補正機能を用いることで画像の表面に均一の照明を近づけられるようになる。この第4の機能は、複数のステップを含む。第1のステップは、鏡面反射輝度のピークが除去された画像に対する低域通過フィルタの適用であり、第2のステップは、フィルタ画像と初期画像の減算であり、第3のステップは、得られた画像と逆プロファイルとの乗算である。
標的が全体的に背景よりも反射しやすく、背景と区別できる場合はいずれも、画像に対して前処理を追加することなく再構成アルゴリズムを利用すればよい。一方、標的全体がシーンの残りの部分よりも反射しにくいのであれば、画像処理で画像を背景と分けることを想定した第5の補正機能を画像の初期シーケンスに適用することになる。画像121は、この事例を示す。すなわち標的画像のダイナミクスは良好であるが、シーンの残りの部分が反射している。よって、この生画像に再構成アルゴリズムを適用すればよい。ただし、コントラストを反転させるとすると再構成した3D画像の処理が一層困難になる。実際、三次元ネガに出現するのはあまり反射のない部分である。このため、三次元で再構成した画像の読み取りが困難になる。この場合、標的が視覚的に背景と区別できるのであれば、サイノグラムで直接的に作業して着目標的を背景から分離する。この技術では、まずは最初の画素、次は反対方向にある最後の画素から開始して、サイノグラム122を線ごとに(すなわち角度ごとに)読み取り、背景からの信号と標的からの信号との間の輝度の境目を利用するものである。こうして、サイノグラム123が得られる。この処理を自動化してもよい。標的に関するサイノグラムの外郭を平滑化することで、画像処理をさらに洗練させてもよい。サイノグラム124はシーンの背景の残りであり、これはサイノグラム125での平滑化後に消失する。この補正は、コントラストが弱かったりコントラストが反転したりする複雑な環境で本発明を使用する上で都合がよい。この問題の解消は、観察されるシーンでカモフラージュされた物体を識別する上で特に有意である。
本発明の主旨を逸脱することなく、画像処理方法の過程で、3D再構成を容易にするための他の画像処理機能を用いてもよい。
第3のステップ103は、シーケンスのすべての画像に共通するシーン全体を再構成するステップに対応し、ラドン変換(フィルタ補正逆投影など)技術によって実施される。これは、すべての投影をフィルタ補正して変数を変更することで、円柱座標の系(x,y,θ)をデカルト系(x,y,z)に切り替えられるようにするものである。シーンに含まれる不透明な物体表面での電磁パルスの反射に関するデータを表す画像で、逆ラドン変換機能を実施する。通常、逆ラドン変換技術は、医療分野などで物体の構造による吸収に関するデータに基づいて実施される。考慮対象となる媒質での電磁波の伝播をシミュレートして、媒質の吸収機能を判断する必要がある。このシミュレーションは、あらゆる場合において数学的に近似される。その精度は、使用する物理モデルに左右されるが、これは単に物理的実体を数学的に近似したものにすぎない。反転されるのは、これらの吸収機能である。反転の精度は、直接的にはシミュレートされた吸収データに左右される。本発明者らが考慮している事例では、直接的な問題のフレームワークで実測値を直接反転させる。ここで考慮する反転問題は、近似モデルを用いてシミュレートした中間値に左右されるものではない。
このアルゴリズムは、完全な画像のシーケンスすなわち、物体周囲の何通りかの観測角θで捕捉される画像のシーケンスを読み取る第1のステップ91を含む。これは、画像の中心までの間隔の関数として画素に重み付けをする第2のステップ92を含む。このステップは、再構成時の雑音指数を低減すべく、画像境界にある点のずれを最小限にすることを意図している。その後、このアルゴリズムは、画像を平滑化するための低域通過フィルタタイプの第3のステップ93を含み、続いて、逆投影によって各断面のボクセルを計算する第4のステップ94、さらには逆投影を組み合わせてボリュームを再構成する第5のステップ95を含む。
逆ラドン変換関数は以下のとおりである。
Iは、第4のステップ94に起因する逆投影による各断面におけるボクセルの計算結果であり、Pは、第3のステップ93に起因するフィルタ後の投影画素であり、wはステップ92の重み付け係数である。
図10は、着目ゾーンの抽出である画像処理方法の第4のステップ104を示す。再構成されたシーンは、輝度を表す実数1014の3Dマトリクスの形を取っている。これを利用するには、立方体の3本の主軸に沿った2D断面XY、XZ、ZYの表示を使用して、着目領域1011、1012、1013を可視的に分離できるようにする。この操作を実施したら、表現したい情報が選択された着目ボリュームを得る。これらの操作はいずれも手作業でなされるが、シーン内の場所(たとえば求めている物体がシーン内の地面に対して特定の高さになることは周知である)または輝度あるいは、形状の認識に関する基準を加えることでうまく自動化してもよい。
第5のステップ105は、ボクセルをグループ化することで物体111の表面を構成するステップである。物体111は、複数のボクセルで形成されたものである。このステップで展開される機能では、着目領域におけるボクセルを輝度の関数としてグループ化するための基準を利用する。このグループ化によって形が現れるが、この形は単に同密度であることと表現のための光によって物体の表面を再構成するにとどまる。
この方法の第6のステップは、物体のデータベースを用いて、再構成された物体を識別するステップである。再構成された表面は、オペレータによって、「マッチング」、形状認識、「スピン画像」との比較などでCADデータベースと比較される。この処理を自動化してもよいし、地上局またはUAVコンピュータで実施してもよい。
オプトロニックシステムおよび3D画像を計算するための方法は通常、あるシーンで部分的に隠れている場合があってオペレータが直接操作できない物体の識別に適用される。本発明は、安全・防衛分野でのカモフラージュされた標的の検出、医療分野での皮膚腫瘍または皮下腫瘍の検出ならびに、マイクロエレクトロニクスの分野に適用される。
1 コンピュータ処理手段
3 移動体
4 物体
5 標的物体
11,12 画像
13 3Dボリューム
21,22 通信手段
31 軌道
41 識別対象物体
42 光センサ
43 電磁パルス放出手段
61,62 観測角
111 物体
121 画像
122,123,124,125 サイノグラム
1011,1012,1013 着目領域
1014 輝度を表す実数の3Dマトリクス

Claims (15)

  1. 光センサ(42)と、通信手段(21、22)と、コンピュータ処理手段(1)とを含み、センサが捕捉した画像から三次元の物体を再構成し、当該再構成に基づいて物体を識別可能にする、物体を識別するためのオプトロニックシステムであって、光センサが、物体(5)周囲の何通りかの観測角(61、62)で捕捉される、物体(5)の表面で反射される電磁放射の輝度レベルを表す物体の画像を記録でき、通信手段(21、22)が、物体表面で反射される電磁放射の輝度レベルを表す前記物体の画像を処理すべく構成された断層撮影機能によって、三次元で物体を再構成できるよう、前記画像をコンピュータ処理手段(1)に送信できることを特徴とする、オプトロニックシステム。
  2. 物体(5)に向けて放出可能な電磁パルスを放出するための手段(43)を含み、光センサが、物体(5)で反射される電磁パルスの輝度レベルを検出可能であることを特徴とする、請求項1に記載のオプトロニックシステム。
  3. 基準位置をポインティングし、基準位置付近に集中した観測角で捕捉される画像のシーケンスを光センサが記録できるようにする手段も含み、コンピュータ処理手段が、基準位置からずれたシーケンスの各画像を基準位置に位置決めできることを特徴とする、請求項1に記載のオプトロニックシステム。
  4. 再構成に用いられる同一シーケンスの画像内の物体の寸法が複数の画像間で等しくなるように、画像内の物体の寸法を前記距離の関数としてコンピュータ処理手段が調整できるよう、光センサと基準位置との間の距離を測定するための手段も含むことを特徴とする、請求項1に記載のオプトロニックシステム。
  5. コンピュータ処理手段が、再構成に用いられる同一シーケンスの画像が等しい照明レベルになるように、画像の照明を光センサと基準位置との間の距離の関数として調整できることを特徴とする、請求項4に記載のオプトロニックシステム。
  6. 光センサが物体の周囲を移動できる移動体(3)に搭載されることを特徴とする、請求項1から請求項5のいずれか1項に記載のオプトロニックシステム。
  7. 電磁パルスを放出するための手段(43)と光センサ(42)とが、物体の周囲を移動できる移動体(3)に搭載されることを特徴とする、請求項2から請求項5のいずれか1項に記載のオプトロニックシステム。
  8. 移動体が航空機であることを特徴とする、請求項6または請求項7のいずれか1項に記載のオプトロニックシステム。
  9. 三次元再構成との比較によって物体を識別するための基準物体データベースを含むことを特徴とする、請求項1から請求項8のいずれか1項に記載のオプトロニックシステム。
  10. コンピュータ処理手段が、通信手段によってセンサと接続された光センサから離れたコンピューティングステーションに所在することを特徴とする、請求項7または請求項8のいずれか1項に記載のオプトロニックシステム。
  11. 三次元での物体の再構成による物体識別用のコンピュータ処理方法であって、以下の連続したステップすなわち、
    物体の表面で反射する電磁放射の輝度レベルを表す物体の画像のシーケンスを収集(101)し、
    物体の表面で反射する電磁放射の輝度レベルを表す二次元画像を用いる断層撮影機能によって、三次元で物体を再構成(102)し、
    識別対象となる物体を含む三次元再構成のゾーンを抽出(103)し、
    三次元で物体表面を再構成(104)し、
    基準物体に対して三次元で物体を比較(105)するステップを含むことを特徴とする、方法。
  12. 画像収集ステップの後に、画像を基準位置に位置決めするステップを含むことを特徴とする、請求項11に記載の方法。
  13. 画像収集ステップの後に、画像で検出された物体の寸法が、基準画像における物体の寸法に近くなるように、基準画像に対して画像を寸法調整するステップを含むことを特徴とする、請求項11に記載の方法。
  14. 画像収集ステップの後に、画像の照明が基準画像の照明に類似するように、画像の照明を基準画像の関数として調整するステップを含むことを特徴とする、請求項11に記載の方法。
  15. 画像収集ステップの後に、画像の他の情報から物体関連の情報を抽出するよう画像のサイノグラム(121)を処理するステップを含むことを特徴とする、請求項11に記載の方法。
JP2010263774A 2009-11-27 2010-11-26 三次元画像を形成するための識別専用オプトロニックシステムおよび方法 Active JP5891560B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0905720 2009-11-27
FR0905720A FR2953313B1 (fr) 2009-11-27 2009-11-27 Systeme optronique et procede d'elaboration d'images en trois dimensions dedies a l'identification

Publications (2)

Publication Number Publication Date
JP2011123060A true JP2011123060A (ja) 2011-06-23
JP5891560B2 JP5891560B2 (ja) 2016-03-23

Family

ID=42646333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010263774A Active JP5891560B2 (ja) 2009-11-27 2010-11-26 三次元画像を形成するための識別専用オプトロニックシステムおよび方法

Country Status (6)

Country Link
US (1) US8836762B2 (ja)
EP (1) EP2333481B1 (ja)
JP (1) JP5891560B2 (ja)
CA (1) CA2721891C (ja)
ES (1) ES2525011T3 (ja)
FR (1) FR2953313B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101113A (ja) * 2011-10-21 2013-05-23 Thales シーン内の対象物を3d再構成するための方法
JP2019035656A (ja) * 2017-08-15 2019-03-07 学校法人 工学院大学 3次元形状測定装置、3次元形状測定方法、及び3次元形状測定プログラム
JP2022027637A (ja) * 2020-07-30 2022-02-10 フォルクスヴァーゲン アクチエンゲゼルシャフト 自動車の室内の人および/または物体を捕捉するための方法および自動車

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2945348B1 (fr) 2009-05-07 2011-05-13 Thales Sa Procede d'identification d'une scene a partir d'images polarisees multi longueurs d'onde
JP6233869B2 (ja) * 2012-06-07 2017-11-22 日本電気株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
FR3004801A1 (fr) * 2013-04-18 2014-10-24 Delta Drone Procede de mesure du volume d'un amas de materiaux
FR3030847B1 (fr) 2014-12-19 2017-12-22 Thales Sa Procede de discrimination et d'identification par imagerie 3d d'objets d'une scene
US9576185B1 (en) * 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
JP7039179B2 (ja) * 2017-04-13 2022-03-22 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
FR3088530B1 (fr) 2018-11-15 2020-12-04 Thales Sa Systeme d'imagerie 2d et 3d d'un desordre pigmentaire cutane
FR3090949B1 (fr) 2018-12-20 2020-12-25 Thales Sa Procede de caracterisation de desordres pigmentaires d’un individu
FR3098963B1 (fr) 2019-07-18 2022-06-10 Sispia Procede et systeme de detection, de localisation et d'identification automatique d'objets dans un volume 3d
FR3101988B1 (fr) 2019-10-10 2021-10-22 Sispia Procede de reconnaissance d'objets a representativite augmentee
CN112363154B (zh) * 2020-10-14 2023-06-20 中国航天科工集团第二研究院 一种基于计算机断层扫描模式的探测识别系统及方法
CN113516767B (zh) * 2021-07-14 2023-12-29 中国科学院空天信息创新研究院 一种三维复杂地表遥感光学特征反演方法及系统
CN117053718B (zh) * 2023-10-11 2023-12-12 贵州黔程弘景工程咨询有限责任公司 基于梁底线形测量的梁底线形模型生成方法
CN117934454B (zh) * 2024-03-18 2024-07-16 季华实验室 发光单元检测方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5559334A (en) * 1995-05-22 1996-09-24 General Electric Company Epipolar reconstruction of 3D structures
JP2002175517A (ja) * 2000-09-28 2002-06-21 Eastman Kodak Co 地上位置における材料欠陥の検出
JP2008506135A (ja) * 2004-07-15 2008-02-28 ハリス コーポレイション 地形点から3次元整合される地表そのもののデジタル標高モデル抽出
US20080181487A1 (en) * 2003-04-18 2008-07-31 Stephen Charles Hsu Method and apparatus for automatic registration and visualization of occluded targets using ladar data
WO2009114308A1 (en) * 2008-03-12 2009-09-17 Harris Corporation Method for visualization of point cloud data

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100510532B1 (ko) * 2003-06-10 2005-08-26 삼성전자주식회사 베이어 패턴 컬러 신호에 대한 적응형 노이즈 제거 필터,이를 구비한 디지털 영상 신호 처리 장치, 및 그 방법
JP2007101249A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 光断層画像化方法および装置
FR2899696B1 (fr) * 2006-04-06 2008-06-20 Dxo Labs Sa Procede de traitement d'un phenomene d'eclairement relatif sur une image numerique et systeme de traitement associe
US7719664B1 (en) * 2006-04-12 2010-05-18 Lockheed Martin Corporation Imaging semi-active laser system
US7642953B2 (en) * 2007-07-19 2010-01-05 The Boeing Company Method and apparatus for three dimensional tomographic image reconstruction of objects
US8244026B2 (en) * 2008-01-09 2012-08-14 Tiltan Systems Engineering Ltd. Apparatus and method for automatic airborne LiDAR data processing and mapping using data obtained thereby
FR2929421B1 (fr) 2008-03-25 2012-04-27 Thales Sa Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5559334A (en) * 1995-05-22 1996-09-24 General Electric Company Epipolar reconstruction of 3D structures
JP2002175517A (ja) * 2000-09-28 2002-06-21 Eastman Kodak Co 地上位置における材料欠陥の検出
US20080181487A1 (en) * 2003-04-18 2008-07-31 Stephen Charles Hsu Method and apparatus for automatic registration and visualization of occluded targets using ladar data
JP2008506135A (ja) * 2004-07-15 2008-02-28 ハリス コーポレイション 地形点から3次元整合される地表そのもののデジタル標高モデル抽出
WO2009114308A1 (en) * 2008-03-12 2009-09-17 Harris Corporation Method for visualization of point cloud data
JP2011513860A (ja) * 2008-03-12 2011-04-28 ハリス コーポレイション ポイントクラウドデータの可視化方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101113A (ja) * 2011-10-21 2013-05-23 Thales シーン内の対象物を3d再構成するための方法
JP2019035656A (ja) * 2017-08-15 2019-03-07 学校法人 工学院大学 3次元形状測定装置、3次元形状測定方法、及び3次元形状測定プログラム
JP2022027637A (ja) * 2020-07-30 2022-02-10 フォルクスヴァーゲン アクチエンゲゼルシャフト 自動車の室内の人および/または物体を捕捉するための方法および自動車
JP7295174B2 (ja) 2020-07-30 2023-06-20 フォルクスヴァーゲン アクチエンゲゼルシャフト 自動車の室内の人および/または物体を捕捉するための方法および自動車

Also Published As

Publication number Publication date
ES2525011T3 (es) 2014-12-17
EP2333481B1 (fr) 2014-10-15
US8836762B2 (en) 2014-09-16
US20110254924A1 (en) 2011-10-20
EP2333481A1 (fr) 2011-06-15
CA2721891C (en) 2018-01-02
CA2721891A1 (en) 2011-05-27
FR2953313B1 (fr) 2012-09-21
JP5891560B2 (ja) 2016-03-23
FR2953313A1 (fr) 2011-06-03

Similar Documents

Publication Publication Date Title
JP5891560B2 (ja) 三次元画像を形成するための識別専用オプトロニックシステムおよび方法
CN106546513B (zh) 一种基于正交双视场的三维降水粒子测量与重构装置及方法
CN103512579B (zh) 一种基于热红外摄像机和激光测距仪的地图构建方法
CN101839981B (zh) 激光成像回波波形和层次特征获取方法及装置
CN107909624B (zh) 一种从三维断层成像中提取及融合二维图像的方法
US20090232355A1 (en) Registration of 3d point cloud data using eigenanalysis
CN110031830B (zh) 一种基于激光线扫描成像的测距方法
US20110224840A1 (en) Methods of Real Time Image Enhancement of Flash LIDAR Data and Navigating a Vehicle Using Flash LIDAR Data
CA3088983A1 (en) Apparatuses and methods for gas flux measurements
CN104569972B (zh) 一种植物根系三维构型无损检测方法
JP2008292449A (ja) 水中で対象物を検知し分類する自動目標識別システム
Toschi et al. Combining airborne oblique camera and LiDAR sensors: Investigation and new perspectives
CN101271590A (zh) 一种获取凸轮廓物体形状的方法
Sun et al. Large-scale building height estimation from single VHR SAR image using fully convolutional network and GIS building footprints
Jutzi et al. Sub-pixel edge localization based on laser waveform analysis
Sazaly et al. 3D Indoor Crime Scene Reconstruction from Micro UAV Photogrammetry Technique
González-Jorge et al. Comparison between laser scanning, single-image rectification and ground-penetrating radar technologies in forensic science
Hagstrom et al. Line-of-sight analysis using voxelized discrete lidar
Al-Durgham The registration and segmentation of heterogeneous Laser scanning data
Wang et al. Adaptive noise filtering for single photon Lidar observations
El Natour Towards 3D reconstruction of outdoor scenes by mmw radar and a vision sensor fusion
Jutzi et al. Extraction of features from objects in urban areas using space-time analysis of recorded laser pulses
US11580690B1 (en) Horizon-based navigation
CN118411623A (zh) 一种sar数据的裂隙提取方法
De Oliveira et al. Metrological analysis of the three-dimensional reconstruction based on close-range photogrammetry and the fusion of long-wave infrared and visible-light images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160204

R150 Certificate of patent or registration of utility model

Ref document number: 5891560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250