JP6137316B2 - 深さ位置検出装置、撮像素子、及び深さ位置検出方法 - Google Patents

深さ位置検出装置、撮像素子、及び深さ位置検出方法 Download PDF

Info

Publication number
JP6137316B2
JP6137316B2 JP2015527736A JP2015527736A JP6137316B2 JP 6137316 B2 JP6137316 B2 JP 6137316B2 JP 2015527736 A JP2015527736 A JP 2015527736A JP 2015527736 A JP2015527736 A JP 2015527736A JP 6137316 B2 JP6137316 B2 JP 6137316B2
Authority
JP
Japan
Prior art keywords
pixel
image signal
subject
phase difference
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015527736A
Other languages
English (en)
Other versions
JPWO2015128908A1 (ja
Inventor
河村 岳
岳 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2015128908A1 publication Critical patent/JPWO2015128908A1/ja
Application granted granted Critical
Publication of JP6137316B2 publication Critical patent/JP6137316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Color Television Image Signal Generators (AREA)

Description

本開示は、深さ位置検出装置、撮像素子、及び深さ位置検出方法に関する。
ある3次元シーンの奥行き、即ち各被写体までの距離を非接触で計測するための様々な方法が提案されている。その一つがDFD(Depth from Defocus)方式(以降、単にDFDともいう)である。DFDでは、被写体距離によって大きさ及び形状が変化するぼけの情報に基づいて距離を計測する。DFDは、複数のカメラを必要としないこと、少数の画像から距離計測が可能であること、などの特徴がある。DFD方式を用いて被写体までの距離を計測する処理を、DFD処理ともいう。
以下、DFDの原理について簡単に説明する。
DFDは、合焦位置の異なる複数枚の画像から、ぼけの情報に基づいて距離を計測する方法である。ぼけを含んだ撮影画像は、レンズによるぼけのない状態を表す全焦点画像(被写体テクスチャ情報)に、被写体距離の関数である点像分布関数を畳み込んだ画像となる。点像分布関数は被写体距離を変数とする関数であるので、DFDではぼけ画像からぼけを検出することによって、被写体距離を求めることができる。
このとき、全焦点画像と被写体距離とが未知数である。ぼけ画像1枚に対して、ぼけ画像、全焦点画像、及び、被写体距離に関する式が1つ成立する。合焦位置の異なるぼけ画像を同一視点から新たに撮影することで新たな式が得られるので、得られた複数の式を解くことで被写体距離を求める。式の獲得の方法、又は、式を解く方法等に関して、非特許文献1をはじめとして、DFDに対する様々な提案が存在する。
また、被写体までの距離を計測する別の方法として、位相差方式がある(例えば、特許文献1参照)。位相差方式では、撮像素子に含まれる第1画素群と第2画素群とで位相差を有する(異なる視点の)画像を撮像する。そして、2枚の画像における被写体の位相差(位置ズレ)に基づいて、当該被写体までの距離を検出する。
特開2012−118269号公報
C.Zhou,S.Lin and S.Nayar, "Coded Aperture Pairs for Depth from Defocus" In International Conference on Computer Vision, 2009
本開示は、高速化及び精度の向上を実現できる深さ位置検出装置を提供する。
本開示における深さ位置検出装置は、同一の被写体が互いに位相差を有するように撮像された第1の画像信号及び第2の画像信号を生成する撮像素子と、画像における被写体のぼけ及び位相差と、当該被写体の深さ方向の位置との関係を規定したモデルデータを記憶している記憶部と、前記モデルデータを用いて、前記第1の画像信号及び前記第2の画像信号から被写体の深さ方向の位置を検出する検出部とを備える。
本開示における深さ位置検出装置は、高速化及び精度の向上を実現するのに有効である。
図1は、DFD方式の動作を説明するための図である。 図2は、位相差方式の動作を説明するための図である。 図3は、位相差方式に用いられる画素の一例を示す図である。 図4は、位相差方式における画素への光の入射を示す図である。 図5は、位相差方式における画素への光の入射を示す図である。 図6は、実施の形態に係る深さ位置検出装置のブロック図である。 図7は、実施の形態に係る被写体距離とぼけ及び位相差の関係を示す図である。 図8は、実施の形態に係る通常時のぼけを示す図である。 図9は、実施の形態に係る偏心時のぼけを示す図である。 図10は、実施の形態に係る深さ位置検出処理を説明するための図である。 図11は、実施の形態に係るモデルデータの一例を示す図である。 図12は、実施の形態に係る画素の構成の一例を示す図である。 図13は、実施の形態に係る偏心された画素の一例を示す断面図である。 図14は、実施の形態に係る偏心された画素の一例を示す断面図である。 図15は、実施の形態に係る画素の構成の一例を示す図である。 図16は、実施の形態に係る画素の構成の一例を示す図である。 図17は、実施の形態に係る画素の構成の一例を示す図である。 図18は、実施の形態に係る、基線長と透過率及び正解率との関係を示すグラフである。 図19は、実施の形態に係る基線長を説明するための図である。 図20は、実施の形態に係る基線長を説明するための図である。 図21は、実施の形態に係る深さ位置検出処理のフローチャートである。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
まず、本開示により解決される課題の解決手段と、その効果について説明する。
最初にDFD方式及び位相差方式(像面位相差方式)の各々の長所及び短所を説明する。
まず、DFD方式について説明する。図1は、DFD方式の動作を模式的に示す図である。
図1に示すように、被写体からの光は光学系(絞り及びレンズ等)を介して撮像素子の撮像面に照射される。この時、像面側の合焦位置と、撮像面の位置とが一致していれば、ボケのない被写体像が得られる。合焦位置と、撮像面の位置とが一致していない場合、その差に応じたぼけが生じる。DFDではこのボケ量から、現在の合焦位置から被写体までの距離(デフォーカス量)を求める。
ここで、観測画像をIm、被写体テクスチャ情報をObj、被写体の距離をd、ぼけを表す点像分布関数をPSF(d)とすると、下記式(1)の関係が成り立つ。
Figure 0006137316
しかしながら、1枚の画像Imから、被写体テクスチャ情報Objと被写体距離(デフォーカス量)dの両方の値を求めることはできない。DFDでは、下記式(2)に示すように互いに合焦位置が異なる少なくとも2枚の画像を用いる必要がある。
Figure 0006137316
上記式(2)を用いることで、被写体テクスチャ情報Objと距離dを算出することができる。
このように、DFDでは、合焦位置が異なる2枚の画像が必要であり、この2枚の画像を撮影するために時間がかかるため、デフォーカス量を検出するまでに遅延が生じるという課題がある。また、高速に合焦位置を変化させる必要があるので、高速にフォーカスを変更できる機構が必要なるという課題がある。さらに、動画像撮影を行う場合には、動画像撮影中にも合焦位置を周期的に変化させるウォブリング動作が必要なるという課題もある。
次に、位相差方式について説明する。図2〜図5は、位相差方式の動作を模式的に示す図である。
例えば、図3に示すように、各画素250は、2つの受光部(フォトダイオード)251及び252に分割されている。また、図4及び図5に示すように、各受光部251及び252に独立して光が取込まれる。ここで、図2に示すように、受光部251に入射する光は、光学系に入射した光のうち一方側を通る光であり、受光部252に入射する光は、光学系に入射した光のうち他方側を通る光である。よって、複数の受光部251で生成された画像と、複数の受光部252とで生成された画像とは、位相差(像ズレ)を有する。位相差方式では、この位相差を用いて、デフォーカス量を求める。
この位相差方式では、像ズレの方向から、被写体が合焦位置の手前側に存在するのか、奥側に存在するのかを判別できるので、例えば、同時に撮影された画像からデフォーカス量を検出できるので、DFD方式に比べて高速化を実現できる。一方で、位相差方式では、通常の撮影画像を出力する際、2画素の画素値を加算する必要がある。そして、この2画素加算時に、通常の画素の場合よりも光量が大きく減らないようにする必要がある。これにより、位相差方式では、基線長DがDFDよりも短くなり、精度が低いという課題がある。
具体的には、図1に示すDFD方式では、D:b=Δ:(b−f)の関係が成り立つ。ここで、1/a+1/b=1/fなので、Δ=D×(b−f)/b=D×f/aとなる。つまり、基線長Dが大きいほどボケ量Δが大きくなるので精度が向上する。なお、aは、被写体とレンズとの距離であり、bは、像面側の合焦距離であり、fはレンズと撮像面との距離である。また、基線長Dは、撮像素子に入射する光の径であり、例えば、絞りの口径である。
上記の関係は、図2に示す位相差方式の場合も同様であり、基線長Dが大きいほど像ズレΔが大きくなるので精度が向上する。しかしながら、上述したように、位相差方式では、絞りを通る光の一部のみが、一つの画素群に入射する。この各画素群に入射する光束の絞りにおける中心(重心)位置の間隔が基線長Dに対応することになる。このように、同じ光学系を使用する前提で比較すると、位相差方式ではDFD方式と比べ、基線長Dが小さいので、位置検出の精度が低下する。
また位相差方式では、前述のとおり上記の構成により通常の撮像素子に比べて、受光量がやや減少するため、感度が低下するという課題もある。
さらに、図3に示すように、2つの画像を同時撮影するために画素を分割した場合、読み出し画素数が増加することで消費電力が増加するという課題もある。
以上のように、DFD方式と位相差方式にはそれぞれ利点と課題がある。
そこで、本開示は、高速化及び精度の向上を実現できる深さ位置検出装置を提供することを目的とする。
本開示における深さ位置検出装置は、同一の被写体が互いに位相差を有するように撮像された第1の画像信号及び第2の画像信号を生成する撮像素子と、画像における被写体のぼけ及び位相差と、当該被写体の深さ方向の位置との関係を規定したモデルデータを記憶している記憶部と、前記モデルデータを用いて、前記第1の画像信号及び前記第2の画像信号から被写体の深さ方向の位置を検出する検出部とを備える。
これによれば、被写体の位相差を用いて、被写体が手前側に存在するのか、奥側に存在するのかを判別できるので、合焦位置の異なる複数の画像を用いる必要ない。よって、当該深さ位置検出装置は、高速化を実現できる。また、高速にフォーカスを変更できる機構が不要となり、かつ、動画像撮影時のウォブリング動作も不要となるので、低コスト化及び画質の向上を実現できる。さらに、被写体のボケを用いることで、精度を向上できる。このように、当該深さ位置検出装置は、高速化及び精度の向上を実現できる。
例えば、前記第1の画像信号及び前記第2の画像信号は同一時刻に撮像されてもよい。
これによれば、深さ位置検出装置は、同一時刻に撮影された2枚の画像を用いることで、位置検出処理の高速化を実現できる。
例えば、前記第1の画像信号と前記第2の画像信号とにおける前記位相差は、基線長換算で15%以下の位相差であってもよい。
これによれば、当該深さ位置検出装置は、位相差を有する2枚の画像を撮影するために生じる受光量の低下を抑制できるので、感度の低下を抑制できる。
例えば、前記撮像素子は、複数の単位画素を含み、前記複数の単位画素の各々は、赤色光を受光する赤色画素と、緑色光を受光する第1の緑色画素及び第2の緑色画素と、青色光を受光する青色画素とを含み、前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち少なくとも一種類の画素である第1の画素は、第1の方向に偏心しており、前記複数の単位画素に含まれる複数の前記第1の画素は、前記第1の画像信号を生成し、前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち、前記第1の画素以外の少なくとも一種類の画素である第2の画素は、前記第1の方向とは逆の第2の方向に偏心しており、前記複数の単位画素に含まれる複数の前記第2画素は、前記第2の画像信号を生成してもよい。
これによれば、単一の撮像素子に含まれる各色の画素を用いて、位相差を有する2枚の画像を撮影できる。これにより、2枚の画像用にそれぞれ画素を設ける場合に比べて、消費電力を抑制できる。
例えば、前記第1の画素は前記第1の緑色画素であり、前記第2の画素は前記第2の緑色画素であってもよい。
これによれば、緑色画素のみを用いて、位相差を有する2枚の画像を撮影することで、色つきを抑制できる。
例えば、前記モデルデータは、前記被写体の深さ方向の複数の位置の各々と対応付けられている基準データを含み、各前記基準データは、対応付けられている位置における前記第1の画像信号を規定する第1の基準データと、対応付けられている位置における前記第2の画像信号における被写体のぼけを示す第2の基準データとを含み、前記第1の基準データと前記第2の基準データとにおける前記被写体の位置の差により前記被写体の位相差が規定され、前記検出部は、複数の前記基準データのうち、前記第1の画像信号及び前記第2の画像信号に最も合致する基準データに対応付けられている位置を、前記被写体の深さ方法の位置として検出してもよい。
これによれば、深さ位置検出装置は、モデルデータを用いて、被写体の位置を検出できる。
また、本開示における撮像素子は、複数の単位画素を含み、前記複数の単位画素の各々は、赤色光を受光する赤色画素と、緑色光を受光する第1の緑色画素及び第2の緑色画素と、青色光を受光する青色画素とを含み、前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち少なくとも一種類の画素である第1の画素は、第1の方向に偏心しており、前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち、前記第1の画素以外の少なくとも一種類の画素である第2の画素は、前記第1の方向とは逆の第2の方向に偏心している。
これによれば、単一の撮像素子に含まれる各色の画素を用いて、位相差を有する2枚の画像を撮影できる。これにより、2枚の画像用にそれぞれ画素を設ける場合に比べて、消費電力を抑制できる。
また、本開示における深さ位置検出方法は、同一の被写体が互いに位相差を有するように撮像された第1の画像信号及び第2の画像信号を生成する撮像ステップと、画像における被写体のぼけ及び位相差と、当該被写体の深さ方向の位置との関係を規定したモデルデータを用いて、前記第1の画像信号及び前記第2の画像信号から被写体の深さ方向の位置を検出する検出ステップとを含む。
これによれば、被写体の位相差を用いて、被写体が手前側に存在するのか、奥側に存在するのかを判別できるので、合焦位置の異なる複数の画像を用いる必要ない。よって、当該深さ位置検出方法は、高速化を実現できる。また、高速にフォーカスを変更できる機構が不要となり、かつ、動画像撮影時のウォブリング動作も不要となるので、低コスト化及び画質の向上を実現できる。さらに、被写体のボケを用いることで、精度を向上できる。このように、当該深さ位置検出方法は、高速化及び精度の向上を実現できる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
(実施の形態)
以下、図1〜図21を用いて実施の形態を説明する。
(深さ位置検出装置の構成)
図1は、本実施の形態に係る深さ位置検出装置100の構成を示すブロック図である。この深さ位置検出装置100は、被写体を撮影し、撮影により得られた画像から被写体の深さ方向の位置を検出する。具体的には、深さ位置検出装置100は、現在の合焦位置と被写体位置との距離を示すデフォーカス量を検出する。
例えば、この深さ位置検出装置100は、デジタルスチルカメラ又はデジタルビデオカメラである撮像装置に搭載される。また、この深さ位置検出装置100は、スマートフォン等に搭載されてもよい。また、深さ位置検出装置100により検出されたデフォーカス量は、例えば、撮像装置においてオートフォーカスに利用される。
なお、深さ位置検出装置100は、被写体と撮像装置との距離を検出してもよい。被写体と撮像装置との距離は、例えば、検出されたデフォーカス量と現在の合焦位置とから算出できる。
図1に示す深さ位置検出装置100は、撮像素子110と、検出部120と、記憶部130とを備える。
撮像素子110は、被写体像を撮像することにより、同一の被写体が互いに位相差を有する第1の画像信号111及び第2の画像信号112を生成する。つまり、第1の画像信号111と第2の画像信号112は異なる視点から同一の被写体(シーン)が撮影された画像である。また、例えば、第1の画像信号111及び第2の画像信号112は同一時刻に撮像される。
また、深さ位置検出装置100は、典型的には、単眼カメラに用いられる。つまり、第1の画像信号111及び第2の画像信号112は、例えば、単一の光学系を用いた単一の撮像素子110により生成される。
具体的には、撮像素子110は、第1の方向に偏心している複数の第1の画素と、第1の方向とは逆の第2の方向に偏心している複数の第2の画素とを含む。複数の第1の画素は、第1の画像信号111を生成し、複数の第2の画素は、第2の画像信号112を生成する。なお、この画素の構成の詳細は後述する。
図7〜図9は、通常の場合と偏心ありの場合とにおける、被写体像と被写体距離との関係を示す図である。通常(偏心なし)の場合には、被写体距離が変化しても被写体の位置は変化せず、ぼけのみが変化する。具体的には、合焦位置からの被写体までの距離が遠いほどぼけが大きくなる。一方、偏心ありの場合には、被写体距離が変化に応じて、ぼけに加え、被写体の位置が変化する。本実施の形態では、このように、ぼけに加え位置の変化を加味する。
図10は、位相差方式と、DFD方式と、本実施の形態の方式と説明するための図である。上述したように、位相差方式では、被写体距離の検出に、合焦時からの被写体の位置ズレが用いられており、DFD方式では、被写体距離の検出に、被写体のぼけが用いられている。本実施の形態では、これらの両方を用いて被写体距離(デフォーカス量)を検出する。
ここで、DFD方式は、位相差方式より精度が高い。よって、本実施の形態では、被写体距離の検出にぼけ(DFD方式)を用いることで、高精度を実現できる。さらに、DFDの課題である、2枚の画像撮影による遅延時間増加ついては、ピント位置の異なる2枚の画像ではなく、1枚同時撮像ながらも下記式(3)のような2つの式で示す情報が得られるようにする。
Figure 0006137316
具体的には、同時撮像でもPSF1及びPSF2のぼけの違いが必要である。少なくとも同じピント位置であれば、通常はぼけの違いが生じないが、本実施の形態ではここで、位相差方式の考え方を取り入れ、位置ズレを用いてぼけの違いが生じるようにする。すなわち、撮像した1枚の画像から、位相差の左右画像に相当する2画像を生成できるよう、撮像素子面上を工夫する。これにより、本実施の形態では、合焦位置の異なる2枚の画像を撮影する必要がないので、距離検出処理を高速化できる。
記憶部130は、モデルデータ131を記憶している。このモデルデータ131は、画像における被写体のぼけ及び位相差と、当該被写体の深さ方向の位置(デフォーカス量)との関係を規定するパラメータである。
検出部120は、記憶部130に記憶されているモデルデータ131を用いて、第1の画像信号111及び前記第2の画像信号112から被写体の深さ方向の位置(デフォーカス量)を検出する。そして、検出部120は、検出結果を示すデフォーカス情報121を生成する。
図11は、モデルデータ131の一例を示す図である。図11に示すようにモデルデータ131は、デフォーカス量の各々に対応付けられている基準データを含む。各基準データは、対応付けられているデフォーカス量における第1の画像信号及び前記第2の画像信号における被写体のぼけ及び位相差(位置ズレ)を規定する。具体的には、各基準データは、対応付けられているデフォーカス量における第1の画像信号を規定する第1の基準データ(図11の上段)と、対応付けられている位置における第2の画像信号における被写体のぼけを示す第2の基準データ(図11の下段)とを含む。また、この第1の基準データと第2の基準データとのにおける被写体の位置の差(相対的な位置ズレ)により被写体の位相差が規定されている。
例えば、検出部120は、複数の基準データから、入力された第1の画像信号111及び第2の画像信号112の組に最も合致(適合)する基準データを判別し、判別した基準データに対応付けられているデフォーカス量を被写体のデフォーカス量に決定する。
また、図11に示すモデルデータ131を用いることで、一般にDFD方式で用いられていた手法を流用することができる。DFD方式では、合焦位置の異なる2つの画像信号と、モデルデータとを用いてデフォーカス量が検出されるが、この2つの画像信号を、互いに位相差を有する第1の画像信号111及び第2の画像信号112に置き換え、モデルデータを上記モデルデータ131に置き換えることで、DFD方式と同様のアルゴリズムで第1の画像信号111及び第2の画像信号112から被写体のデフォーカス量を検出できる。なお、DFD方式における、2つの画像信号とモデルデータとを用いたデフォーカス量の検出処理に関しては、例えば、非特許文献1に詳しく記載されている。
また、第1の画像信号111及び第2の画像信号112からデフォーカス量を検出する方法として上記以外が用いられてもよい。例えば、第1の画像信号111及び第2の画像信号112の一方又は両方のぼけ量のみから、デフォーカス量の絶対値を検出し、位置ズレの方向から被写体が合焦位置の手前側又は奥側に存在するかを判定してもよい。
(撮像素子110の構成)
図12は、撮像素子110の画素の構成例を示す図である。図12に示すように複数の画素は所謂ベイヤー配列を有する。つまり、撮像素子110は、複数の単位画素を含む。複数の単位画素の各々は、赤色光を受光する赤色画素(R)と、緑色光を受光する第1の緑色画素(G1)及び第2の緑色画素(G2)と、青色光を受光する青色画素(B)とを含む。
また、上述したように、撮像素子110は、第1の方向に偏心している複数の第1の画素と、第1の方向とは逆の第2の方向に偏心している複数の第2の画素とを含む。図12に示す例では、赤色画素(R)及び第1の緑色画素(G1)が左方向に偏心しており、青色画素(B)及び第2の緑色画素(G2)が右方向に偏心している。
また、各画素を偏心させる方法としては、図13及び図14に示すように光導波路を偏心させる方法を用いることができる。例えば、図13に示すように、半導体基板204(例えばシリコン)に受光部(フォトダイオード)が形成されている。半導体基板204上には、遮光部203にはさまれた光導波路が形成され、その上にカラーフィルタ202が形成され、その上にマイクロレンズ201が形成されている。このような場合に、受光部の中心に対して、遮光部203、カラーフィルタ202及びマイクロレンズ201(オンチップレンズ)を偏心方向にずらして配置することにより、受光部で受光する光線に角度をつける(偏心させる)ことができる。
一方、図12に示すように各画素を偏心させた場合、色つきが発生する場合がある。この色つきを低減するために、図15に示す配置を用いてもよい。図15に示す例では、第1の緑色画素(G1)が左方向に偏心しており、第2の緑色画素(G2)が右方向に偏心している。また、赤色画素(R)及び青色画素(B)は偏心していない。なお、この場合には、第1の画像信号111は第1の緑色画素(G1)で生成され、第2の画像信号112は第2の緑色画素(G2)で生成される。つまり、赤色画素(R)及び青色画素(B)は、距離検出のためには用いられない。なお、距離検出ではない通常の撮影時には、全ての画素が用いられる。
このように、緑色画素のみを偏心させることで、色つきの発生を抑制できる。よって、この構成は、高画質が要求される、例えば、ハイエンドデジタル一眼カメラ等の有用である。
また、図13及び図14では、遮光部203、カラーフィルタ202及びマイクロレンズ201の全てをずらして配置しているが、少なくとも一部をずらして配置すればよい。例えば、図16及び図17に示すように、マイクロレンズ201のみをずらして配置してもよい。なお、図16は、図12と同様に全ての画素が偏心している場合の例を示し、図17は、図15と同様に、緑色画素(G1、G2)のみが偏心している場合の例を示している。
このように、マイクロレンズ201のみをずらすことで、光導波路をずらす場合に比べて、迷光の発生を低減できる。一方で、マイクロレンズ201のみをずらした場合には、マイクロレンズ201のサイズを小さくする必要があるため受光量(感度)が低下するという短所がある。
なお、ここでは、マイクロレンズ201の位置をずらしているが、さらにマイクロレンズ201の重心をずらしてもよし、重心のみをずらしてもよい。
また、上記説明では、撮像素子内にて偏心を行う構成を説明したが、撮像装置が備える光学系(レンズ及び絞り等)を工夫することにより、第1の画素及び第2の画素に異なる光を入射させてもよい。
(偏心量の設定)
画素の偏心量を大きくすると、位相差がより顕著にあらわれるが、その一方で光量が低下するために感度が低下する。また、位相差方式ではズレを用いてデフォーカス量を検出するため、精度と感度とのトレードオフの関係を加味しつつ、精度を上げるために偏心量をある程度大きく設定する必要がある。
一方で、本実施の形態では、デフォーカス量の絶対値はぼけ量から高精度に算出できるため、位相差は、被写体が合焦位置より手前側に存在するか奥側に存在するかを判断できる最低限の差だけあればよい。つまり、本実施の形態では、位相差方式に比べ、偏心量を小さく設定する。これにより、位相差方式での課題である感度の低下を抑制できる。さらに、偏心量が小さければ、人の目にも位相差が検知され難くなるので、通常の静止画又は動画像の撮影時において、違和感のない画像を生成することができる。
図18は、基線長に対する透過率(感度)及び正解率(距離検出精度)のシミュレーション結果を示す図である。ここで、基線長とは、図19及び図20に示すように、例えば、絞りにおける、第1の画素及び第2の画素の各々に入射する光の中心(重心)間の距離である。また、図18では、基線長を口径を1とした場合の値で表している。また、口径とは撮像装置に入射する光の径であり、例えば、絞りの径である。また、この基線長は、各画素の位相差に対応する。つまり、基線長が長いほど位相差が大きくなるので、図18に示すように、正解率(距離検出精度)が高くなる。ここで、正解率とは、テストパターンに対して正しく距離が検出された率である。
一方で、基線長が長いほど光量(透過率)が低下するため感度が低下する。この感度の低下を抑制するために、例えば、透過率を70%以上に確保することが好ましく、例えば、基線長を0.15以下に設定することが好ましい。つまり、第1の画像信号111と第2の画像信号112とにおける位相差は、基線長換算で15%以下の位相差であることが好ましい。また、基線長が短くなりすぎると正解率が急激に減少する。よって、例えば、基線長を0.10以上に設定することが好ましい。つまり、第1の画像信号111と第2の画像信号112とにおける位相差は、基線長換算で10%以上の位相差であることが好ましい。
(処理の流れ)
以下、上述した深さ位置検出装置100による処理の流れを、図21を用いて説明する。
まず、撮像素子110は、同一の被写体が互いに位相差を有するように撮像された第1の画像信号111及び第2の画像信号112を生成する(S101)。次に、検出部120は、記憶部130に記憶されている、画像における被写体のぼけ及び位相差と、当該被写体の深さ方向の位置との関係を規定したモデルデータ131を用いて、第1の画像信号111及び第2の画像信号112から被写体の深さ方向の位置(デフォーカス量)を検出する(S102)。
(まとめ)
以上のように、本実施の形態に係る深さ位置検出装置100は、被写体のぼけと位相差との両方を用いて、デフォーカス量を検出する。これにより、位相差を用いて、被写体が手前側に存在するのか、奥側に存在するのかを判別できるので、合焦位置の異なる複数の画像を用いる必要ない。よって、深さ位置検出装置100は、位置検出処理の高速化を実現できる。さらに、被写体のボケを用いることで、位置検出の精度を向上できる。このように、深さ位置検出装置100は、高速化及び精度の向上を実現できる。
さらに、画素の偏心量を、被写体が手前側に存在するのか、奥側に存在するのかを判別できる程度に小さく設定することで、受光量の低下を抑制できるので、感度の低下を抑制できる。さらに、位相差が小さいことにより、通常撮影時に違和感のない画像を生成できる。
また、通常の撮影に用いられる画素の一部が、第1の画像信号111の生成に用いられ、他の一部を第2の画像信号112の生成に用いられる。これにより、位相差を有する画像の撮影時の消費電力の増加を抑制できる。さらに、緑色画素のみを、位相差を有する画像の撮影に用いることで、色つきの発生を抑制できる。
(他の実施の形態)
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
また、上記実施の形態に係る深さ位置検出装置に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、上記断面図は、本開示に係る構成を模式的に示すものである。当該断面図において、各構成要素の角部及び辺を直線的に記載されているが、製造上の理由により、角部及び辺が丸みをおびたものも本開示に含まれる。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、上記フローチャートに示すステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
本開示は、DFD処理を行う撮影装置に適用可能である。具体的には、デジタルビデオカメラ、デジタル一眼カメラなどに、本開示は適用可能である。
100 深さ位置検出装置
110 撮像素子
111 第1の画像信号
112 第2の画像信号
120 検出部
121 デフォーカス情報
130 記憶部
131 モデルデータ
201 マイクロレンズ
202 カラーフィルタ
203 遮光部
204 半導体基板
250 画素
251、252 受光部

Claims (8)

  1. 同一の被写体が互いに位相差を有するように撮像された第1の画像信号及び第2の画像信号を生成する撮像素子と、
    画像における被写体のぼけ及び位相差と、当該被写体の深さ方向の位置との関係を規定したモデルデータを記憶している記憶部と、
    前記モデルデータを用いて、前記第1の画像信号及び前記第2の画像信号から被写体の深さ方向の位置を検出する検出部とを備え、
    前記第1の画像信号と前記第2の画像信号とにおける前記位相差は、基線長換算で10%以上かつ15%以下の位相差である
    深さ位置検出装置。
  2. 前記第1の画像信号及び前記第2の画像信号は同一時刻に撮像される
    請求項1記載の深さ位置検出装置。
  3. 前記撮像素子は、
    第1の方向に偏心している複数の第1の画素と、
    前記第1の方向とは逆の第2の方向に偏心している複数の第2の画素とを含み、
    前記複数の第1の画素は、前記第1の画像信号を生成し、
    前記複数の第2画素は、前記第2の画像信号を生成し、
    前記複数の第1の画素及び前記複数の第2の画素は、前記第1の画像信号と前記第2の画像信号とにおける前記位相差が、基線長換算で10%以上かつ15%以下の位相差になるように偏心している
    請求項1又は2記載の深さ位置検出装置。
  4. 前記撮像素子は、複数の単位画素を含み、
    前記複数の単位画素の各々は、
    赤色光を受光する赤色画素と、
    緑色光を受光する第1の緑色画素及び第2の緑色画素と、
    青色光を受光する青色画素とを含み、
    前記複数の第1の画素は、前記複数の単位画素に含まれる、前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち少なくとも一種類の画素であり、
    前記複数の第2の画素は、前記複数の単位画素に含まれる、前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち、前記第1の画素以外の少なくとも一種類の画素である
    請求項記載の深さ位置検出装置。
  5. 前記第1の画素は前記第1の緑色画素であり、
    前記第2の画素は前記第2の緑色画素である
    請求項記載の深さ位置検出装置。
  6. 前記モデルデータは、前記被写体の深さ方向の複数の位置の各々と対応付けられている基準データを含み、
    各前記基準データは、対応付けられている位置における前記第1の画像信号を規定する第1の基準データと、対応付けられている位置における前記第2の画像信号における被写体のぼけを示す第2の基準データとを含み、
    前記第1の基準データと前記第2の基準データとにおける前記被写体の位置の差により前記被写体の位相差が規定され、
    前記検出部は、複数の前記基準データのうち、前記第1の画像信号及び前記第2の画像信号に最も合致する基準データに対応付けられている位置を、前記被写体の深さ方法の位置として検出する
    請求項1〜のいずれか1項に記載の深さ位置検出装置。
  7. 複数の単位画素を含み、
    前記複数の単位画素の各々は、
    赤色光を受光する赤色画素と、
    緑色光を受光する第1の緑色画素及び第2の緑色画素と、
    青色光を受光する青色画素とを含み、
    前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち少なくとも一種類の画素である第1の画素は、第1の方向に偏心しており、
    前記赤色画素、前記第1の緑色画素、前記第2の緑色画素、及び前記青色画素のうち、前記第1の画素以外の少なくとも一種類の画素である第2の画素は、前記第1の方向とは逆の第2の方向に偏心しており、
    前記複数の第1の画素及び前記複数の第2の画素は、前記複数の第1の画素により生成される第1の画像信号と、前記複数の第2画素により生成される前記第2の画像信号とにおける位相差が、基線長換算で10%以上かつ15%以下の位相差になるように偏心している
    撮像素子。
  8. 同一の被写体が互いに位相差を有するように撮像された第1の画像信号及び第2の画像信号を生成する撮像ステップと、
    画像における被写体のぼけ及び位相差と、当該被写体の深さ方向の位置との関係を規定したモデルデータを用いて、前記第1の画像信号及び前記第2の画像信号から被写体の深さ方向の位置を検出する検出ステップとを含み、
    前記第1の画像信号と前記第2の画像信号とにおける前記位相差は、基線長換算で10%以上かつ15%以下の位相差である
    深さ位置検出方法。
JP2015527736A 2014-02-26 2014-07-29 深さ位置検出装置、撮像素子、及び深さ位置検出方法 Active JP6137316B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014035280 2014-02-26
JP2014035280 2014-02-26
PCT/JP2014/003966 WO2015128908A1 (ja) 2014-02-26 2014-07-29 深さ位置検出装置、撮像素子、及び深さ位置検出方法

Publications (2)

Publication Number Publication Date
JPWO2015128908A1 JPWO2015128908A1 (ja) 2017-03-30
JP6137316B2 true JP6137316B2 (ja) 2017-05-31

Family

ID=54008282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015527736A Active JP6137316B2 (ja) 2014-02-26 2014-07-29 深さ位置検出装置、撮像素子、及び深さ位置検出方法

Country Status (3)

Country Link
US (1) US9836847B2 (ja)
JP (1) JP6137316B2 (ja)
WO (1) WO2015128908A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10690495B2 (en) * 2016-03-14 2020-06-23 Canon Kabushiki Kaisha Ranging apparatus and moving object capable of high-accuracy ranging
JP6778636B2 (ja) * 2017-02-27 2020-11-04 アイホン株式会社 距離測定装置
WO2018185939A1 (ja) * 2017-04-07 2018-10-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 撮像制御装置、撮像装置、撮像システム、移動体、撮像制御方法、及びプログラム
US11394866B2 (en) * 2017-08-09 2022-07-19 Sony Group Corporation Signal processing device, imaging device, signal processing meihod and program
US10746875B2 (en) * 2017-09-08 2020-08-18 Osram Opto Semiconductors Gmbh Sensor system and method to operate a sensor system
CN111866369B (zh) * 2020-05-28 2022-08-02 北京迈格威科技有限公司 图像处理方法及装置
JP7113327B1 (ja) 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 撮像装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5994721A (ja) * 1982-11-22 1984-05-31 Olympus Optical Co Ltd 検出範囲を拡げた合焦検出方法
JPH09179015A (ja) * 1995-12-25 1997-07-11 Nikon Corp 焦点検出装置
JP2009222449A (ja) * 2008-03-14 2009-10-01 Maxis-Shinto Inc レンズ系を用いた距離計測装置
JP4990234B2 (ja) * 2008-07-07 2012-08-01 オリンパス株式会社 測距装置、測距方法、測距プログラム又は撮像装置
JP5173665B2 (ja) 2008-08-08 2013-04-03 キヤノン株式会社 画像撮影装置およびその距離演算方法と合焦画像取得方法
JP5374119B2 (ja) 2008-11-13 2013-12-25 オリンパス株式会社 距離情報取得装置、撮像装置、及びプログラム
JP5539029B2 (ja) 2010-05-28 2014-07-02 キヤノン株式会社 固体撮像装置の製造方法
US8705801B2 (en) * 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program
JP5159986B2 (ja) * 2010-08-06 2013-03-13 パナソニック株式会社 撮像装置および撮像方法
JP5735784B2 (ja) 2010-11-30 2015-06-17 キヤノン株式会社 撮像装置及びその制御方法、レンズ装置及びその制御方法
JP2012124555A (ja) 2010-12-06 2012-06-28 Canon Inc 撮像装置
JP5744545B2 (ja) 2011-01-31 2015-07-08 キヤノン株式会社 固体撮像装置およびカメラ
WO2012132117A1 (ja) * 2011-03-31 2012-10-04 富士フイルム株式会社 撮像装置及びその駆動方法
AU2011224051B2 (en) * 2011-09-14 2014-05-01 Canon Kabushiki Kaisha Determining a depth map from images of a scene
US8885941B2 (en) * 2011-09-16 2014-11-11 Adobe Systems Incorporated System and method for estimating spatially varying defocus blur in a digital image
US8736747B2 (en) * 2012-01-13 2014-05-27 Sony Corporation Camera autofocus adaptive blur matching model fitting
US9451147B2 (en) * 2012-06-11 2016-09-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP2014026051A (ja) * 2012-07-25 2014-02-06 Olympus Corp 撮像装置、画像処理装置
JP6075835B2 (ja) * 2012-08-27 2017-02-08 キヤノン株式会社 距離情報取得装置、撮像装置、距離情報取得方法、及び、プログラム
JP5988790B2 (ja) * 2012-09-12 2016-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
CA2870419C (en) * 2013-11-12 2023-05-16 Rebellion Photonics, Inc. Divided-aperture infra-red spectral imaging system

Also Published As

Publication number Publication date
US9836847B2 (en) 2017-12-05
WO2015128908A1 (ja) 2015-09-03
US20160035099A1 (en) 2016-02-04
JPWO2015128908A1 (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6137316B2 (ja) 深さ位置検出装置、撮像素子、及び深さ位置検出方法
JP6335423B2 (ja) 情報処理装置および情報処理方法
US11297271B2 (en) Image sensor and image capture apparatus
CN103460703B (zh) 彩色摄像元件及摄像装置
US20150241205A1 (en) Distance detecting device
US20170257583A1 (en) Image processing device and control method thereof
JP6116151B2 (ja) 距離検出装置
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US20160344952A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium
CN103460702B (zh) 彩色摄像元件及摄像装置
US9794468B2 (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus using pupil division in different directions
JP5673764B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP2017032787A5 (ja)
JP2015014788A (ja) 測距装置、撮像装置及び測距装置の制御方法
JP2015163915A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP2018045105A (ja) 撮像装置及びその制御方法、情報処理装置、及び情報処理方法
KR101839357B1 (ko) 촬상 장치 및 촬상 방법
US11496665B2 (en) Image capturing apparatus and control method thereof
JP7328589B2 (ja) 測距カメラ
JP6257201B2 (ja) 焦点検出装置、その制御方法、および制御プログラム、並びに撮像装置
US10880508B2 (en) Image processing apparatus, imaging apparatus, pixel-abnormality detecting method, and computer-readable recording medium
JP5853510B2 (ja) 撮像装置
JP2018064249A (ja) 撮像装置及びその制御方法
US20180091793A1 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
JP2016009024A (ja) 焦点検出装置およびその制御方法、並びに撮像装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170417

R151 Written notification of patent or utility model registration

Ref document number: 6137316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151