JP6718024B2 - 判別器の学習装置、方法およびプログラム、並びに判別器 - Google Patents

判別器の学習装置、方法およびプログラム、並びに判別器 Download PDF

Info

Publication number
JP6718024B2
JP6718024B2 JP2019537936A JP2019537936A JP6718024B2 JP 6718024 B2 JP6718024 B2 JP 6718024B2 JP 2019537936 A JP2019537936 A JP 2019537936A JP 2019537936 A JP2019537936 A JP 2019537936A JP 6718024 B2 JP6718024 B2 JP 6718024B2
Authority
JP
Japan
Prior art keywords
image
discriminator
meniscus
learning
observation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019537936A
Other languages
English (en)
Other versions
JPWO2019039035A1 (ja
Inventor
尭之 辻本
尭之 辻本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019039035A1 publication Critical patent/JPWO2019039035A1/ja
Application granted granted Critical
Publication of JP6718024B2 publication Critical patent/JP6718024B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L3/00Containers or dishes for laboratory use, e.g. laboratory glassware; Droppers
    • B01L3/50Containers for the purpose of retaining a material to be analysed, e.g. test tubes
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • G01N23/041Phase-contrast imaging, e.g. using grating interferometers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • G02B21/08Condensers
    • G02B21/14Condensers affording illumination for phase-contrast observation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0068Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration having means for controlling the degree of correction, e.g. using phase modulators, movable elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L2300/00Additional constructional details
    • B01L2300/06Auxiliary integrated devices, integrated components
    • B01L2300/0627Sensor or part of a sensor is integrated
    • B01L2300/0663Whole sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Hematology (AREA)
  • Medicinal Chemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Biotechnology (AREA)
  • Food Science & Technology (AREA)
  • Urology & Nephrology (AREA)
  • Biophysics (AREA)
  • Organic Chemistry (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Clinical Laboratory Science (AREA)
  • Radiology & Medical Imaging (AREA)

Description

本発明は、凹形状の液面を有する液体および観察対象が収容された容器の画像を用いて、観察対象の状態を判別する判別器の学習装置、方法およびプログラム、並びに観察対象の状態を判別する判別器に関する。
ES(Embryonic Stem)細胞およびiPS(Induced Pluripotent Stem)細胞等の多能性幹細胞は、種々の組織の細胞に分化する能力を備え、再生医療、薬の開発、および病気の解明等において応用が可能なものとして注目されている。
従来、ES細胞およびiPS細胞等の多能性幹細胞、並びに分化誘導された細胞等を位相差顕微鏡等の顕微鏡により撮影し、撮影により取得された画像の特徴を捉えることで細胞の分化状態等を判定する方法が提案されている。
例えば、特許文献1においては、細胞の状態を予め学習した判別器を用いて、撮影により取得された画像に含まれる細胞の状態を判別する手法が提案されている。このような判別器は、撮影により取得された画像における判別対象となる画素位置の特徴量が入力されると、判別対象となる画素位置の状態の判別結果を出力する。特許文献1においては、予め取得された細胞の状態が分かっている画像を教師データとして学習させることにより、判別器が生成される。
一方、上述したように細胞を顕微鏡により撮影する際、高倍率な広視野画像を取得するため、いわゆるタイリング撮影を行うことが提案されている。具体的には、例えばウェルプレート等が設置されたステージを、結像光学系に対して移動させることによってウェル内の各観察領域を走査し、観察領域毎の画像を撮影した後、その観察領域毎の画像を繋ぎ合わせる方法が提案されている。
特開2013−128438号公報
ここで、上述したウェルプレート等を用いて細胞を培養する際、ウェル内には細胞および培養液等の液体が収容されるが、その液体の表面にはメニスカスが形成されることが知られている。
特に、位相差顕微鏡装置を用いて細胞の画像を撮影する場合には、撮影画像に対するメニスカスの影響が大きい。このようなメニスカスの影響により、メニスカスが形成されているメニスカス領域は、メニスカスが形成されていない非メニスカス領域の撮影画像と比較するとコントラストが低い画像となってしまう。したがって、メニスカス領域を含む撮影画像においては、個々の細胞の画像を高精度に抽出することができない。
ここで、上述した細胞の状態を判別する判別器は、メニスカス領域を含む撮影画像から教師データを作成している。しかしながら、メニスカス領域を含む撮影画像からは、上述したように個々の細胞を高精度に抽出できない。したがって、このようなメニスカス領域を含む撮影画像から作成された教師データを用いても、判別器を精度よく学習することができず、その結果、判別器の判別精度も低下する。
本発明は上記事情に鑑みなされ、細胞等の観察対象の状態を判別する判別器を精度よく学習できるようにすることを目的とする。
本発明による判別器の学習装置は、表面にメニスカスが形成された液体および観察対象が収容された容器を撮像することにより取得された、メニスカスの影響が存在する撮影画像に基づいて、観察対象の状態を判別する判別器の学習装置であって、
同一の観察対象についての、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像を取得する画像取得部と、
第2の画像に基づいて、判別器を学習するための教師データを生成する教師データ生成部と、
第1の画像および教師データに基づいて、判別器を学習する学習部とを備える。
表面にメニスカスが形成された液体および観察対象が収容された容器を撮像する場合、容器に入射する光は、容器におけるメニスカスが形成されているメニスカス領域においては屈折し、メニスカスが形成されていない非メニスカス領域においては直進する。これにより、撮像により取得される画像においては、メニスカス領域は非メニスカス領域よりも輝度が高くなり、コントラストが低下する。とくに、位相差顕微鏡により容器を撮像する場合、非メニスカス領域を通過した光は位相板を通るため、振幅が弱められて位相がずらされ、観察対象による回折光と合成されて、高コントラストの画像となる。一方、メニスカス領域を通過した光は位相板を通らない可能性があるため、振幅および位相が変化せず、低コントラストかつ高輝度の画像となる。
「メニスカスの影響が存在する画像」とは、画像中にメニスカス領域を通過した光により得られる低コントラストかつ高輝度の領域が含まれる画像を意味する。
なお、本発明の一態様による判別器の学習装置においては、第2の画像が、液体を除去した観察対象を撮像することにより取得されてもよい。
また、本発明の一態様による判別器の学習装置においては、第2の画像が、液体で満たされかつ透明板により密閉された容器における観察対象を撮像することにより取得されてもよい。
また、本発明の一態様による判別器の学習装置においては、第2の画像が、メニスカスの影響を除去する光学素子を備えた撮影装置により観察対象を撮像することにより取得されてもよい。
また、本発明の一態様による判別器の学習装置においては、教師データ生成部は、第2の画像に対して観察対象の状態に応じたラベルを付与した画像、または第2の画像を、教師データとして生成してもよい。
また、本発明の一態様による判別器の学習装置においては、判別器は、撮影画像における判別対象となる画素の特徴量を入力とし、判別対象となる画素についての観察対象の状態の判別結果を出力してもよい。
また、本発明の一態様による判別器の学習装置においては、撮影画像は、位相差顕微鏡により容器を撮像することにより取得されてもよい。
学習部は、第1の画像における判別対象画素について判別器が出力した判別結果を教師データにおける判別対象画素に対応する画素と照合して、判別器を学習してもよい。
本発明の一態様による判別器は、本発明による判別器の学習装置により学習がなされたものである。
本発明による判別器の学習方法は、表面にメニスカスが形成された液体および観察対象が収容された容器を撮像することにより取得された、メニスカスの影響が存在する撮影画像に基づいて、観察対象の状態を判別する判別器の学習方法であって、
同一の観察対象についての、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像を取得し、
第2の画像に基づいて、判別器を学習するための教師データを生成し、
第1の画像および教師データに基づいて、判別器を学習する。
本発明による判別器の学習プログラムは、表面にメニスカスが形成された液体および観察対象が収容された容器を撮像することにより取得された、メニスカスの影響が存在する撮影画像に基づいて、観察対象の状態を判別する手順をコンピュータに実行させる判別器の学習プログラムであって、
同一の観察対象についての、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像を取得する手順と、
第2の画像に基づいて、判別器を学習するための教師データを生成する手順と、
第1の画像および教師データに基づいて、判別器を学習する手順とをコンピュータに実行させる。
本発明による他の判別器の学習装置は、表面にメニスカスが形成された液体および観察対象が収容された容器を撮像することにより取得された、メニスカスの影響が存在する撮影画像に基づいて、観察対象の状態を判別する判別器の学習装置であって、
コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
同一の観察対象についての、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像を取得し、
第2の画像に基づいて、判別器を学習するための教師データを生成し、
第1の画像および教師データに基づいて、判別器を学習する処理を実行する。
本発明によれば、同一の観察対象についての、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像が取得され、第2の画像に基づいて、観察対象の状態を判別する判別器を学習するための教師データが生成される。そして、メニスカスの影響が存在する第1の画像および教師データに基づいて判別器が学習される。これにより、細胞等の観察対象の状態を判別する判別器を精度よく学習できる。
本発明の判別器の学習装置を適用した画像評価システムの一実施形態の概略構成を示す図 ウェルプレートにおける各観察領域の走査軌跡を示す図 画像評価装置の構成を示す概略ブロック図 培養容器の側断面図および上面図を示す図 培養容器内の各観察領域の撮影画像をつなぎ合わせた画像の一例を示す図 培養容器から培養液を除去した状態を示す側断面図 培養容器を培養液で満たし、かつ透明板により密閉した状態を示す側断面図 メニスカスの影響を除去する光学素子を照明光照射部に設けた顕微鏡装置の概略構成を示す図 光路補正レンズによる光路の補正を説明するための図 教師データの例を示す図 本実施形態において行われる処理を示すフローチャート
以下、本発明の実施形態について説明する。図1は本発明の実施形態による判別器の学習装置を適用した画像評価システムの概略構成を示す図である。第1の実施形態の画像評価システムは、図1に示すように、顕微鏡装置1、顕微鏡制御装置2、入力装置3、および表示装置4を備える。
本実施形態において、顕微鏡装置1は位相差顕微鏡であり、観察対象として、例えば培養された細胞の位相差画像を撮影画像として撮像する。具体的には、顕微鏡装置1は、図1に示すように、照明光照射部10、結像光学系30、ステージ61、および撮像部40を備える。本実施形態の顕微鏡装置1は、本開示の撮影装置の一例である。
ステージ61上には、細胞等の観察対象Sおよび培養液Cが収容された培養容器60が設置される。ステージ61の中央には、矩形の開口が形成されている。この開口を形成する部材の上に培養容器60が設置され、培養容器60内の観察対象Sを透過した光および観察対象Sにより回折した光が開口を通過するように構成されている。
培養容器60としては、例えば複数のウェル(本発明の容器に相当する)を有するウェルプレートが用いられるが、これに限らず、シャーレまたはディッシュ等を用いるようにしてもよい。また、培養容器60に収容される観察対象Sとしては、iPS細胞およびES細胞といった多能性幹細胞、幹細胞から分化誘導された神経、皮膚、心筋および肝臓の細胞、並びに人体から取り出された皮膚、網膜、心筋、血球、神経および臓器の細胞等がある。
ステージ61上に設置された培養容器60は、その底面が観察対象Sの設置面Pであり、設置面Pに観察対象Sが配置される。培養容器60内には培養液Cが満たされており、この培養液Cの液面には、凹形状のメニスカスが形成される。なお、本実施形態においては、培養液中において培養される細胞を観察対象Sとしたが、観察対象Sとしてはこのような培養液中のものに限らず、水、ホルマリン、エタノール、およびメタノール等の液体中において固定された細胞を観察対象Sとしてもよい。この場合も、容器内のこれらの液体の液面にメニスカスが形成される。
照明光照射部10は、ステージ61上の培養容器60内に収容された観察対象Sに対して、いわゆる位相差計測のための照明光を照射する。本実施形態では、照明光照射部10は、位相差計測用の照明光としてリング状照明光を照射する。
具体的には、本実施形態の照明光照射部10は、位相差計測用の白色光を出射する白色光源11、リング形状のスリットを有し、白色光源11から出射された白色光が入射されてリング状照明光を出射するスリット板12、およびスリット板12から出射されたリング状照明光が入射され、その入射されたリング状照明光を観察対象Sに対して照射するコンデンサレンズ13を備える。
スリット板12には、白色光源11から出射された白色光を遮光する遮光板に対して白色光を透過するリング形状のスリットが設けられており、白色光がスリットを通過することによってリング状照明光が形成される。コンデンサレンズ13は、スリット板12から出射されたリング状照明光を観察対象Sに向かって収束させる。
ステージ61上に設置された培養容器60内には、観察対象Sとして、培養された細胞群(細胞コロニー)が配置される。培養された細胞としては、iPS細胞およびES細胞といった多能性幹細胞、幹細胞から分化誘導された神経、皮膚、心筋および肝臓の細胞、並びに人体から取り出された皮膚、網膜、心筋、血球、神経および臓器の細胞等がある。培養容器60としては、シャーレおよび複数のウェルが配列されたウェルプレート等を用いることができる。なお、ウェルプレートを用いる場合、各ウェルが本発明の容器に対応する。なお、本実施形態においては、複数のウェルが配列されたウェルプレートを培養容器60として用いる。
結像光学系30は、培養容器60内の観察対象Sの像を撮像部40に結像する。結像光学系30は、対物レンズ31、位相板32および結像レンズ33を備える。
位相板32には、リング状照明光の波長に対して透明な透明板に対して位相リングが形成されている。なお、上述したスリット板12のスリットの大きさは、この位相リングと共役な関係にある。
位相リングは、入射された光の位相を1/4波長ずらす位相膜と、入射された光を減光する減光フィルタとがリング状に形成される。位相板32に入射された直接光は位相リングを通過することによって位相が1/4波長ずれ、かつその明るさが弱められる。一方、観察対象Sによって回折された回折光は大部分が位相板32の透明板の部分を通過し、その位相および明るさは変化しない。
結像レンズ33は、位相板32を通過した直接光および回折光が入射され、これらの光を撮像部40に結像する。
撮像部40は、結像レンズ33によって結像された観察対象Sの像を受光し、観察対象Sを撮像して位相差画像を観察画像として出力する撮像素子を備える。撮像素子としては、CCD(charge-coupled device)イメージセンサ、およびCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等を用いることができる。
ここで、ステージ61は、不図示のステージ駆動部により駆動されて、水平面内において直交するX方向およびY方向に移動する。このステージ61の移動によって、ウェルプレートの各ウェル内における各観察領域が走査され、観察領域毎の撮影画像が撮像部40により取得される。観察領域毎の撮影画像は顕微鏡制御装置2に出力される。
図2は、6つのウェル71を有するウェルプレート70を用いた場合における、各観察領域の走査軌跡を実線77により示した図である。図2に示すように、ウェルプレート70内の各観察領域は、ステージ61のX方向およびY方向の移動によって走査開始点75から走査終了点76までの実線77に沿って走査される。
なお、本実施形態においては、ステージ61を移動させることによってウェル内の観察領域毎の撮影画像を取得するようにしたが、これに限らず、結像光学系30をステージ61に対して移動させることによって観察領域毎の撮影画像を取得するようにしてもよい。または、ステージ61と結像光学系30の両方を移動させるようにしてもよい。
顕微鏡制御装置2は、CPU(Central Processing Unit)、半導体メモリおよびハードディスク等を備えたコンピュータから構成される。そして、ハードディスクに本発明の判別器の学習プログラムを含む、システムを制御するプログラムがインストールされている。プログラムがCPUにより実行されることにより、当該CPUが顕微鏡制御装置2の各部として機能する。顕微鏡制御装置2は、画像評価システムの全体を制御する。顕微鏡制御装置2は、図1に示すように、制御部21および画像評価装置22を備える。
制御部21は、照明光照射部10、ステージ61を駆動するステージ駆動部(不図示)、結像光学系30および撮像部40の駆動を制御して観察対象Sの撮影画像を取得する。
画像評価装置22は、撮影画像に含まれる観察対象Sの状態を評価する。図3は画像評価装置22の構成を示す概略ブロック図である。図3に示すように、画像評価装置22は、判別器51および判別器51の学習装置52を備える。学習装置52は、画像取得部50、教師データ生成部53および学習部54を備える。
本実施形態において、画像評価装置22は、観察領域毎の撮影画像を取得し、撮影画像に含まれる観察対象Sの状態を評価する。本実施形態においては、観察対象Sは細胞である。このため、観察対象Sの状態を評価するとは、例えば撮影画像に含まれる細胞が未分化細胞であるのか分化細胞であるのかを評価したり、分化細胞が分化した状態にあるか分化の途中の状態にあるかを評価したり、撮影画像に含まれる未分化細胞と分化細胞の割合を評価したり、細胞または細胞コロニーの成長度を評価したり、または抗がん剤によるがん細胞の縮小率を評価したりすることをいう。但し、細胞の状態の評価としては、これらに限らず、その他の評価でもよい。なお、本実施形態においては、画像評価装置22は、細胞が分化細胞である場合に、細胞が分化した状態にあるか分化の途中の状態にあるかを評価するものとする。
画像取得部50は、撮像部40により撮像された観察対象Sの撮影画像を取得する。本実施形態においては、培養容器60は複数のウェルが配列されたウェルプレートであるため、各ウェル内における各観察領域の撮影画像が取得される。
判別器51は、撮影画像についての判別結果を出力する。本実施形態においては、画像評価装置22は、細胞が分化した状態にあるか分化の途中の状態にあるかを評価する。このため、判別器51は、撮影画像に含まれる細胞が、分化した状態にあるか、分化の途中の状態にあるかの判別結果を出力する。このような判別を行うために、判別器51は、撮影画像における判別対象となる判別対象画素の特徴量を入力とし、判別対象画素の状態の判別結果を出力するように機械学習がなされる。なお、本実施形態においては、判別器51は、撮影画像における判別対象画素を中心とする予め定められた領域内の画素値を特徴量として入力とし、判別対象画素が、分化した状態の細胞、分化途中の状態の細胞、および分化した状態でも分化途中の状態でもないとの3つの判別結果を出力する。
このために、判別器51は、入力された特徴量に対して、分化した状態の細胞および分化途中の状態の細胞であることを表すスコアを出力し、出力した2つのスコアのそれぞれをあらかじめ定められたそれぞれに対応するしきい値と比較する。そして、分化した状態の細胞であることを表すスコアが、分化した状態の細胞であることを表すしきい値を超え、かつ分化途中の状態の細胞であることを表すスコアが分化途中の状態の細胞であることを表すしきい値を超えなければ、判別対象画素は分化した状態の細胞であるとの判別結果を出力する。一方、分化途中の状態の細胞であることを表すスコアが、分化途中の状態の細胞であることを表すしきい値を超え、かつ分化した状態の細胞であることを表すスコアが、分化した状態の細胞であることを表すしきい値を超えなければ、判別対象画素は分化途中の状態の細胞であるとの判別結果を出力する。なお、2つのスコアのいずれもそれぞれに対応するしきい値を超えない場合および2つのスコアのいずれもそれぞれに対応するしきい値を超えた場合は、分化した状態でも分化途中の状態でもないとの判別結果を出力する。
ここで、機械学習の手法としては、公知の手法を用いることができる。例えば、サポートベクタマシン(SVM(Support Vector Machine))、ディープニューラルネットワーク(DNN(Deep Neural Network))、および畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))等を用いることができる。
ここで、培養容器60内には、観察対象Sおよび培養液Cが収容されるが、その培養液Cの液面には、メニスカスが形成される。図4は培養容器60の側断面図および上面図である。図5は培養容器60内の各観察領域の撮影画像をつなぎ合わせた画像の一例を示す図である。図5において矩形領域により分割された各領域62が、各観察領域に相当する。図4に示すように、培養容器60においては、培養液Cの液面にメニスカスMが形成される。そして、培養容器60の上方から入射する光は、メニスカス領域R1においては矢印A1に示すように屈折し、非メニスカス領域R2においては矢印A0に示すように直進する。その結果、図4および図5に示すように、非メニスカス領域R2の撮影画像はコントラストが高く、メニスカス領域R1の撮影画像は非メニスカス領域R2よりもコントラストが低くなる。したがって、メニスカス領域R1の撮影画像については、個々の細胞の画像が明確に表されていない。その結果、メニスカス領域R1の撮影画像においては、判別対象画素の判別の精度が低くなる。
本実施形態においては、学習装置52において判別器51を学習する際に、同一の観察対象Sについての、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像を用いる。
このため、画像取得部50は、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像を取得する。なお、第1の画像および第2の画像は、同一の観察対象Sについての画像である。ここで、第1の画像は、培養容器60をそのまま撮影することにより取得すればよい。
一方、メニスカスMは培養容器60内の培養液Cの液面に形成される。図6は培養液Cを除去した培養容器60の側面図である。図6に示すように、培養容器60から培養液Cを除去すると、培養容器60の上方から入射する光は、培養容器60のいずれの位置においても矢印A0およびA2に示すように直進する。したがって、第2の画像は、培養液Cを除去した培養容器60における観察対象Sを撮影することにより取得される。このように取得された第2の画像においては、メニスカスMの影響が除去されているため、培養容器60上の位置に拘わらず高いコントラストを有する。
なお、図7に示すように、培養容器60を培養液Cで満たし、かつ透明なガラスまたはプラスチック等の透明板63により培養容器60を密閉すると、培養容器60の上方から入射する光は、培養容器60のいずれの位置においても矢印A0およびA3に示すように直進する。したがって、第2の画像は、培養液Cで満たされ、かつ透明板63により密閉された培養容器60における観察対象Sを撮影することにより取得してもよい。
また、照明光照射部10に、メニスカスの影響を除去する光学素子を設けるようにしてもよい。図8はメニスカスの影響を除去する光学素子を用いた照射光照射部を有する顕微鏡装置1の構成を示す概略図である。図8に示すように、照明光照射部10には、メニスカスの影響を除去する光学素子として、光路補正レンズ14が設けられている。なお、光路補正レンズ14は、照明光照射部10において、照明光の光路上に退避可能に配置されている。
光路補正レンズ14は、具体的には、観察対象S側に凸面14aを有し、その光軸から離れるほど屈折力が増大する正のメニスカスレンズである。なお、光路補正レンズ14の観察対象S側の凸面14aおよび白色光源11側の凹面14bの少なくとも一方を、非球面に形成してもよい。このように、光路補正レンズ14を設けることにより、図9に示すように、光路補正レンズ14を通って、培養容器60の上方から入射する光は、培養容器60内のいずれの位置においても矢印A0およびA4に示すように直進することとなる。したがって、照明光照射部10に光路補正レンズ14を設けて培養容器60を撮影することにより、第2の画像を取得してもよい。
教師データ生成部53は、第2の画像に基づいて、判別器51を学習するための教師データを生成する。このために、教師データ生成部53は、第2の画像を表示装置4に表示する。そして、操作者による入力装置3からの入力により、第2の画像の各画素位置における観察対象Sの状態に応じたラベルを付与して、教師データを生成する。図10は教師データの例を示す図である。なお、図10は培養容器60の全体を示し、観察領域の区切りを破線で示している。図10に示すように、教師データT0においては、観察対象Sが分化した状態にある領域が白、観察対象Sが分化の途中にある領域が斜線、観察対象Sが存在しない領域が黒にラベリングされている。このように、教師データT0においては、各画素において、観察対象Sが分化した状態にあるか、分化の途中の状態にあるかを認識できる。
学習部54は、第1の画像および教師データT0に基づいて、判別器51を学習する。ここで、第1の画像にはメニスカスMの影響が存在し、メニスカス領域においては観察対象Sである細胞の状態は明確に表されていない。しかしながら、教師データT0と第1の画像を対応づければ、第1の画像の個々の画素位置における観察対象Sの状態を識別できる。
このため、学習部54は、第1の画像における判別対象画素の特徴量を判別器51に入力し、判別器51が出力した判別結果を教師データT0における判別対象画素に対応する画素と照合する。判別結果が正解の場合は、学習部54は、判別器51に対して正解である旨の学習を行う。判別結果が不正解の場合、学習部54は、判別結果を修正するように判別器51の学習を行う。さらに、学習部54は、複数の観察対象Sについての第1の画像および第2の画像を取得し、教師データT0を生成して判別器51の学習を繰り返し行う。そして、学習部54は、判別器51の判別結果が予め定められた正解率を超えたか否かを判定し、この判定が肯定されると、判別器51の学習を終了する。なお、複数の観察対象についての第1の画像および第2の画像を予め取得しておき、顕微鏡制御装置2のハードディスク(不図示)に保存しておくようにしてもよい。この場合、画像取得部50は、ハードディスクから第1の画像および第2の画像を取得する。
このようにして学習がなされた判別器51は、撮影画像における判別対象画素の特徴量が入力されると、判別対象画素の状態の判別結果を出力する。
図1に戻り、入力装置3は、キーボードまたはマウス等の入力デバイスを備えたものであり、ユーザによる設定入力を受け付ける。
表示装置4は、液晶ディスプレイ等の表示デバイスから構成され、撮像部40において撮像された撮影画像および撮影画像の評価結果等を表示する。なお、表示装置4をタッチパネルによって構成することによって、入力装置3を兼用してもよい。
次いで、本実施形態において行われる処理について説明する。図11は本実施形態において行われる判別器51の学習処理を示すフローチャートである。まず、画像取得部50が、同一の観察対象Sについての、メニスカスMの影響が存在する第1の画像およびメニスカスMの影響が除去された第2の画像を取得する(ステップST1)。次いで、教師データ生成部53が、第2の画像に基づいて、判別器51を学習するための教師データT0を生成する(ステップST2)。そして、学習部54が、第1の画像および教師データT0に基づいて判別器51を学習し(ステップST3)、処理を終了する。
このように、本実施形態においては、同一の観察対象についての、メニスカスの影響が存在する第1の画像およびメニスカスの影響が除去された第2の画像を取得し、第2の画像に基づいて教師データT0を生成し、第1の画像および教師データT0に基づいて判別器51を学習する。このため、メニスカスの影響が存在する第1の画像の個々の画素の特徴量を入力とした場合における判別器51の出力が正解であるか否かを精度よく判定でき、判別器51の学習を精度よく行うことができる。また、このように学習がなされた判別器51を用いることにより、メニスカスの影響が存在する撮影画像であっても、撮影画像に含まれる観察対象Sの状態を精度よく判別することができる。
なお、上記実施形態においては、結像光学系30によって結像された撮影画像を撮像部40によって撮像するようにしたが、撮像部40を設けることなく、結像光学系30によって結像された観察対象Sの撮影画像をユーザが直接観察できるように観察光学系等を設けるようにしてもよい。
また、上記実施形態においては、本発明を位相差顕微鏡に適用したが、本発明は、位相差顕微鏡に限らず、微分干渉顕微鏡および明視野顕微鏡等のその他の顕微鏡に適用することができる。
また、上記実施形態においては、教師データとして第2の画像に対して観察対象Sの状態に応じたラベルを付与した画像を用いているが、記第2の画像そのものを教師データとして用いてもよい。
上記実施形態によれば、第2の画像はメニスカスMの影響が除去されているため、第2の画像においては、容器に含まれる観察対象Sの状態が明確に表されている。また、教師データT0は第2の画像に基づいて生成されているため、教師データT0においても、観察対象Sの状態が明確に表されている。一方、第1の画像はメニスカスMの影響が存在するため、観察対象Sの状態が明確に表されていないが、第1の画像と教師データT0とを対応づければ、第1の画像の個々の画素位置における観察対象Sの状態を明確に識別できる。したがって、第1の画像および教師データT0に基づいて判別器51を学習することにより、第1の画像の判別対象の画素位置の特徴量を入力とした場合における、判別器51の判別結果が正解であるか否かを精度よく判定できる。よって、判別器51の学習を精度よく行うことができる。また、このように学習がなされた判別器51を用いることにより、撮影画像に含まれる観察対象Sの状態を精度よく判別することができる。
1 顕微鏡装置
2 顕微鏡制御装置
3 入力装置
4 表示装置
10 照明光照射部
11 白色光源
12 スリット板
13 コンデンサレンズ
14 光路補正レンズ
14a 凸面
14b 凹面
21 制御部
22 画像評価装置
30 結像光学系
31 対物レンズ
32 位相板
33 結像レンズ
40 撮像部
50 画像取得部
51 判別器
52 学習装置
53 教師データ生成部
54 学習部
60 培養容器
61 ステージ
62 領域
63 透明板
70 ウェルプレート
71 ウェル
75 走査開始点
76 走査終了点
77 走査軌跡を示す実線
A0,A1,A2,A3,A4 矢印
C 培養液
M メニスカス
P 設置面
R1 メニスカス領域
R2 非メニスカス領域
S 観察対象
T0 教師データ

Claims (11)

  1. 表面にメニスカスが形成された液体および観察対象が収容された容器を撮像することにより取得された、前記メニスカスの影響が存在する撮影画像に基づいて、前記観察対象の状態を判別する判別器の学習装置であって、
    同一の前記観察対象についての、前記メニスカスの影響が存在する第1の画像および前記メニスカスの影響が除去された第2の画像を取得する画像取得部と、
    前記第2の画像に基づいて、前記判別器を学習するための教師データを生成する教師データ生成部と、
    前記第1の画像および前記教師データに基づいて、前記判別器を学習する学習部とを備えた判別器の学習装置。
  2. 前記第2の画像が、前記液体を除去した前記観察対象を撮像することにより取得される請求項1に記載の判別器の学習装置。
  3. 前記第2の画像が、前記液体で満たされかつ透明板により密閉された前記容器における前記観察対象を撮像することにより取得される請求項1に記載の判別器の学習装置。
  4. 前記第2の画像が、前記メニスカスの影響を除去する光学素子を備えた撮影装置により前記観察対象を撮像することにより取得される請求項1に記載の判別器の学習装置。
  5. 前記教師データ生成部は、前記第2の画像に対して前記観察対象の状態に応じたラベルを付与した画像、または前記第2の画像を、前記教師データとして生成する請求項1から4のいずれか1項に記載の判別器の学習装置。
  6. 前記判別器は、前記撮影画像における判別対象となる画素の特徴量を入力とし、該判別対象となる画素についての前記観察対象の状態の判別結果を出力する請求項1から5のいずれか1項に記載の判別器の学習装置。
  7. 前記撮影画像は、位相差顕微鏡により前記容器を撮像することにより取得されてなる請求項1から6のいずれか1項に記載の判別器の学習装置。
  8. 前記学習部は、前記第1の画像における判別対象画素について前記判別器が出力した判別結果を前記教師データにおける前記判別対象画素に対応する画素と照合して、前記判別器を学習する請求項1から7のいずれか1項に記載の判別器の学習装置。
  9. 請求項1から8のいずれか1項に記載の判別器の学習装置により学習がなされた判別器。
  10. 表面にメニスカスが形成された液体および観察対象が収容された容器を撮像することにより取得された、前記メニスカスの影響が存在する撮影画像に基づいて、前記観察対象の状態を判別する判別器の学習方法であって、
    同一の前記観察対象についての、前記メニスカスの影響が存在する第1の画像および前記メニスカスの影響が除去された第2の画像を取得し、
    前記第2の画像に基づいて、前記判別器を学習するための教師データを生成し、
    前記第1の画像および前記教師データに基づいて、前記判別器を学習する判別器の学習方法。
  11. 表面にメニスカスが形成された液体および観察対象が収容された容器を撮像することにより取得された、前記メニスカスの影響が存在する撮影画像に基づいて、前記観察対象の状態を判別する手順をコンピュータに実行させる判別器の学習プログラムであって、
    同一の前記観察対象についての、前記メニスカスの影響が存在する第1の画像および前記メニスカスの影響が除去された第2の画像を取得する手順と、
    前記第2の画像に基づいて、前記判別器を学習するための教師データを生成する手順と、
    前記第1の画像および前記教師データに基づいて、前記判別器を学習する手順とをコンピュータに実行させる判別器の学習プログラム。
JP2019537936A 2017-08-25 2018-06-06 判別器の学習装置、方法およびプログラム、並びに判別器 Active JP6718024B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017162052 2017-08-25
JP2017162052 2017-08-25
PCT/JP2018/021742 WO2019039035A1 (ja) 2017-08-25 2018-06-06 判別器の学習装置、方法およびプログラム、並びに判別器

Publications (2)

Publication Number Publication Date
JPWO2019039035A1 JPWO2019039035A1 (ja) 2020-02-27
JP6718024B2 true JP6718024B2 (ja) 2020-07-08

Family

ID=65438622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019537936A Active JP6718024B2 (ja) 2017-08-25 2018-06-06 判別器の学習装置、方法およびプログラム、並びに判別器

Country Status (5)

Country Link
US (1) US11328522B2 (ja)
EP (1) EP3674686B1 (ja)
JP (1) JP6718024B2 (ja)
KR (1) KR20200019250A (ja)
WO (1) WO2019039035A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6981533B2 (ja) * 2018-03-20 2021-12-15 株式会社島津製作所 細胞画像解析装置、細胞画像解析システム、学習データの生成方法、学習モデルの生成方法、学習データの生成プログラム、および、学習データの製造方法
WO2020188814A1 (ja) * 2019-03-20 2020-09-24 株式会社島津製作所 細胞解析装置
WO2021177004A1 (ja) * 2020-03-05 2021-09-10 ソニーグループ株式会社 顕微鏡装置、画像取得システム、及び画像取得方法
JPWO2021230000A1 (ja) * 2020-05-15 2021-11-18
JP2021193880A (ja) * 2020-06-09 2021-12-27 大日本印刷株式会社 細胞観察画像撮影装置、および細胞観察画像取得方法
KR102681760B1 (ko) 2021-09-09 2024-07-03 강릉친환경학교급식 협동조합 기능성 커피 김치 및 이의 제조방법
JP2024112291A (ja) * 2023-02-07 2024-08-20 株式会社片岡製作所 細胞の分類に用いるための識別器の生成装置、細胞の分類に用いるための識別器、細胞分類装置、および細胞処理システム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3849420B2 (ja) * 2000-11-20 2006-11-22 住友化学株式会社 界面計測装置
US7804832B2 (en) * 2006-02-13 2010-09-28 Cisco Technology, Inc. Method and system for simplified network wide traffic and/or flow monitoring in a data network
US9567560B2 (en) 2009-02-26 2017-02-14 National University Corporation Nagoya University Incubated state evaluating device, incubated state evaluating method, incubator, and program
CN102471744B (zh) * 2009-07-21 2015-06-10 国立大学法人京都大学 图像处理装置、培养观察装置及图像处理方法
JP5333570B2 (ja) 2011-12-21 2013-11-06 富士ゼロックス株式会社 画像処理装置、プログラム及び画像処理システム
JP2013174823A (ja) * 2012-02-27 2013-09-05 Olympus Corp 画像処理装置、顕微鏡システム、及び画像処理方法
US9710695B2 (en) * 2013-03-15 2017-07-18 Sony Corporation Characterizing pathology images with statistical analysis of local neural network responses
WO2016019347A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
JP6490365B2 (ja) * 2014-08-29 2019-03-27 株式会社エヌテック 微生物検査装置の検証方法、微生物検査装置における検証装置及びプログラム
JP6389721B2 (ja) * 2014-09-30 2018-09-12 株式会社Screenホールディングス 撮像装置および撮像方法
JP6380983B2 (ja) * 2014-11-26 2018-08-29 富士フイルム株式会社 位相差顕微鏡
WO2016120757A1 (en) * 2015-01-27 2016-08-04 Ecole Polytechnique Federale De Lausanne (Epfl) Observation device with optical compensation
JP6513507B2 (ja) 2015-06-30 2019-05-15 富士フイルム株式会社 位相差顕微鏡および撮像方法
JP6411294B2 (ja) 2015-06-30 2018-10-24 富士フイルム株式会社 位相差顕微鏡および撮像方法
JP6660712B2 (ja) 2015-11-10 2020-03-11 株式会社Screenホールディングス 分類器構成方法および細胞の生死判定方法
JP6594223B2 (ja) 2016-02-22 2019-10-23 富士フイルム株式会社 位相差顕微鏡および撮像方法
WO2017163378A1 (ja) * 2016-03-24 2017-09-28 株式会社ニコン 培養容器
US10789679B2 (en) * 2016-07-13 2020-09-29 SCREEN Holdings Co., Ltd. Image processing method, image processor, image capturing device, and image capturing method for generating omnifocal image
JP6667419B2 (ja) * 2016-11-09 2020-03-18 富士フイルム株式会社 撮像装置および方法並びに撮像制御プログラム
US10255693B2 (en) * 2017-05-02 2019-04-09 Techcyte, Inc. Machine learning classification and training for digital microscopy images
US10733744B2 (en) * 2017-05-11 2020-08-04 Kla-Tencor Corp. Learning based approach for aligning images acquired with different modalities

Also Published As

Publication number Publication date
US11328522B2 (en) 2022-05-10
JPWO2019039035A1 (ja) 2020-02-27
EP3674686A4 (en) 2020-08-12
WO2019039035A1 (ja) 2019-02-28
KR20200019250A (ko) 2020-02-21
EP3674686A1 (en) 2020-07-01
EP3674686B1 (en) 2023-11-01
US20200160027A1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
JP6718024B2 (ja) 判別器の学習装置、方法およびプログラム、並びに判別器
JPWO2019181053A1 (ja) デフォーカス量測定装置、方法およびプログラム、並びに判別器
JP6594223B2 (ja) 位相差顕微鏡および撮像方法
EP3588162B1 (en) Microscopic device, observation method, and control program for microscopic device
JP6619315B2 (ja) 観察装置および方法並びに観察装置制御プログラム
JP2017151368A (ja) 顕微鏡および観察方法
JP6580012B2 (ja) 撮影画像評価装置および方法並びにプログラム
JP6667419B2 (ja) 撮像装置および方法並びに撮像制御プログラム
US11061214B2 (en) Cell observation apparatus and method
JP2022001983A (ja) 画像処理方法、プログラムおよび記録媒体
JP6785947B2 (ja) 細胞画像評価装置および方法並びにプログラム
JP6867916B2 (ja) 観察装置
JP6993423B2 (ja) 撮影制御装置、撮影制御装置の作動方法、及び撮影制御プログラム
WO2018061635A1 (ja) 観察装置および方法並びに観察装置制御プログラム
US11127180B2 (en) Image processing apparatus, method, and program
JP7133636B2 (ja) フォーカス位置評価装置、方法、及びプログラム
JP6762282B2 (ja) 位相差顕微鏡
JP6534294B2 (ja) 撮像装置および方法並びに撮像制御プログラム
US20200217781A1 (en) Imaging device, and operation method and imaging control program of imaging device
JP2022001889A (ja) フォーカス位置評価装置、方法及びプログラム、並びに判別器
JP2016161610A (ja) 撮像装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200611

R150 Certificate of patent or registration of utility model

Ref document number: 6718024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250