JP2021532459A - 標的細胞標識方法、装置、記憶媒体及び端末デバイス - Google Patents

標的細胞標識方法、装置、記憶媒体及び端末デバイス Download PDF

Info

Publication number
JP2021532459A
JP2021532459A JP2021500942A JP2021500942A JP2021532459A JP 2021532459 A JP2021532459 A JP 2021532459A JP 2021500942 A JP2021500942 A JP 2021500942A JP 2021500942 A JP2021500942 A JP 2021500942A JP 2021532459 A JP2021532459 A JP 2021532459A
Authority
JP
Japan
Prior art keywords
image
deep learning
target cell
detection model
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021500942A
Other languages
English (en)
Other versions
JP7000627B2 (ja
Inventor
冰雪 郭
佳平 王
魏▲ウェイ▼ ▲謝▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Publication of JP2021532459A publication Critical patent/JP2021532459A/ja
Application granted granted Critical
Publication of JP7000627B2 publication Critical patent/JP7000627B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本出願は画像処理の技術分野に関し、特に標的細胞標識方法に関するものであり、オリジナルスキャン画像を取得し、オリジナルスキャン画像のオリジナル画像フォーマットを確定して、オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するステップと、予め設定されたカット方法によって第1画像を複数の画像ブロックにカットして、各画像ブロックの第1画像における配列位置を記録するステップと、各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップと、各第1位置情報及び対応する配列位置により、各標的細胞の第1画像における第2位置情報を確定するステップと、配列位置に従って各画像ブロックに対して統合処理を行い、第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するステップと、標的細胞の標識が行われた第2画像をオリジナル画像フォーマットの第3画像に変換して、第3画像を表示するステップと、を含む。

Description

本出願は、2019年01月24日に中国特許庁に提出された、出願番号が201910066278.1で、発明名称が「標的細胞標識方法、装置、記憶媒体及び端末デバイス」である中国特許出願の優先権を主張し、その全内容を引用により本出願に組み込んでいる。
本出願は画像処理の技術分野に関し、特に画像に基づく標的細胞標識方法、装置、コンピュータ可読記憶媒体及び端末デバイスに関する。
標的細胞の検出と標識は生物学と医学の領域で非常に重要な役割を演じており、関連者の細胞分析や研究などに協力することができる。従来の標的細胞の検出と標識は通常、人工的に細胞に対して細胞質又は細胞核の分割を行うことによって実現し、或いは簡単な特徴抽出に基づく画像処理アルゴリズムによって標的細胞の検出と標識を行う。
細胞分割による標的細胞の検出標識方法は手間がかかるだけでなく、読み手の主観的な判定にも依存している。それに対して、簡単な特徴抽出に基づく画像処理アルゴリズムは特定の画像フォーマットの小さい画像への細胞検出と標識にしか適用できず、画像処理フォーマットが限られているだけでなく、比較的に大きい画像に対して標的細胞の検出と標識を行う時、標的細胞の検出と標識の漏れ或いは不完全を引き起こしやすく、標的細胞の全面的な検出と標識を実現することができず、標的細胞の検出と標識の正確性と確実性を大幅に低下させた。
本出願の実施例は、画像フォーマットが異なる比較的大きい画像に対して標的細胞の自動検出と標識が可能であり、標的細胞の検出漏れを回避し、標的細胞の検出と標識の全面性を確保するとともに、検出結果の可視化を実現し、読み手の主観に対する依存を低減することができ、標的細胞の検出と標識の正確性及び確実性を向上させる画像に基づく標的細胞標識方法、装置、コンピュータ可読記憶媒体、および端末デバイスを提供する。
本出願の実施例の第1の態様は、
オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するステップと、
予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するステップと、
各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力して、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップと、
各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するステップと、
前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するステップと、
標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するステップと、を含む画像に基づく標的細胞標識方法を提供する。
本出願の実施例の第2の態様は、
オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するためのフォーマット変換モジュールと、
予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するための画像カットモジュールと、
各第1画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力して、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るための標的細胞検出モジュールと、
各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するための位置情報確定モジュールと、
前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するための標的細胞標識モジュールと、
標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するための標的細胞表示モジュールと、を含む画像に基づく標的細胞標識装置を提供する。
本出願の実施例の第3態様は、コンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体にはコンピュータ可読命令が記憶され、前記コンピュータ可読命令がプロセッサによって実行されると、上記の第1の態様に記載の画像に基づく標的細胞標識方法のステップを実現する。
本出願の実施例の第4の態様は、メモリと、プロセッサと、前記メモリに記憶され、プロセッサ上で実行可能なコンピュータ可読命令と、を備える端末デバイスを更に提供し、前記プロセッサは、前記コンピュータ可読命令を実行する際に、
オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するステップと、
予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するステップと、
各第1画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップと、
各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するステップと、
前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するステップと、
標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するステップと、を実現する。
本出願の実施例では、フォーマット変換、画像カット、及びディープラーニング検出モデルにより、画像フォーマットの異なる比較的に大きい画像への標的細胞の自動検出を実現することができ、検出された位置情報及びカットする時の配列位置に基づいて標的細胞を自動的に標識することができ、標的細胞の検出漏れを回避し、標的細胞の検出と標識の全面性を確保し、標的細胞の検出と標識の正確性及び確実性を向上させる一方、標識結果をフォーマット復元した後の可視化表示により、読み手の主観に対する依存を低減することができ、読み手が標的細胞の標識状況を迅速に把握することを容易にする。
本出願の実施例における画像に基づく標的細胞標識方法の一実施例の流れ図である。 本出願の実施例における標的細胞標識方法が1つの応用シーンにおいて標的細胞の第1位置情報を取得する流れの概略図である。 本出願の実施例における標的細胞標識方法が1つの応用シーンにおいてディープラーニング検出モデルをトレーニングする流れの概略図である。 本出願の実施例における標的細胞標識方法が1つの応用シーンにおいて標識結果を表示する流れの概略図である。 本出願の実施例における画像に基づく標的細胞標識装置の一実施例の構成図である。 本出願の実施例により提供される端末デバイスの概略図である。
本出願の発明の目的及び特徴をより明確かつ分かりやすくするために、以下では本出願の実施例の図面を参照しながら、本出願の実施例における技術的解決策を、明確かつ全面的に説明し、以下で説明される実施例は、本出願の実施例の一部にすぎず、本出願の実施例のすべてではないことが明らかである。本願の実施例に基づいて、当業者が創造的な労働をしないことを前提に取得した他のすべての実施例は、本出願の保護の範囲に属する。
図1に示すように、本出願の実施例は、画像に基づく標的細胞標識方法を提供し、前記標的細胞標識方法は以下のステップを含む。
ステップS101において、オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換する。
本出願の実施例では、オリジナル画像フォーマットは、「.svs」、「.kfb」、「.ndpi」または「.tif」のような画像フォーマットであってもよく、オリジナルスキャン画像は、一般に、画像サイズが約2Gであり、ピクセルが約100000x100000であってもよいフルスキャン画像である。一方、前記予め設定された画像フォーマットは、「.jpg」又は「.png」等のコンピュータによる画像解析処理が容易な画像フォーマットであってもよく、画像解析処理の速度及び効率を向上させることができる。つまり、本出願の実施例では、さまざまなスキャナでスキャンされたさまざまな画像フォーマットのオリジナルスキャン画像が取得でき、例えば、フルスキャンTCT画像を取得し、前記オリジナルスキャン画像が、「.svs」フォーマットのようなコンピュータによる画像解析処理が容易ではない画像フォーマットである場合には、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換することができ、例えば、前記オリジナルスキャン画像を「.jpg」フォーマットまたは「.png」フォーマットの第1画像に変換することができ、それによって、コンピュータによる画像解析処理を容易にする。
ステップS102において、予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録する。
本出願の実施例では、前記オリジナルスキャン画像をフォーマット変換して前記第1画像を得た後、まずは、設定されたカット方法に従って、例えば平置きカットの方式によって前記第1画像に対して画像カットを行って、第1画像を予め設定されたサイズの複数の画像ブロックにカットすることができ、例えば、サイズが1024×1024の複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録することができ、例えば、各画像ブロックの前記第1画像における配置順序に従って各画像ブロックを命名することができ、これで各画像ブロックの前記第1画像における配列位置を記録する。
好ましくは、本出願の実施例では、予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットするステップは、以下を含むことができる。
ステップaにおいて、前記第1画像の細胞分布状況及び画像サイズを取得する。ステップbにおいて、前記細胞分布状況及び前記画像サイズに基づいて、前記第1画像を予め設定されたサイズの複数の画像ブロックにカットする。
上記のステップaとステップbについて、本出願の実施例では、前記第1画像に対して画像カットを行う際には、先に前記第1画像の細胞分布状況及び画像サイズを取得することができ、そして胞分布状況及び画像サイズに基づいて、カットした後の画像ブロックサイズ及びカット位置を確定することができ、確定されたカット位置及び画像ブロックサイズに応じて前記第1画像に画像カットを行うことにより、前記第1画像を予め設定されたサイズの複数の画像ブロックにカットし、前記予め設定されたサイズが確定された画像ブロックのサイズである。
ステップS103において、各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得る。
理解できるように、カットして複数の画像ブロックを得た後、各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力して、前記ディープラーニング検出モデルにより各標的細胞の各画像ブロックにおける第1位置情報を検出する。本出願の実施例では、各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力する前に、各画像ブロックに対して最適化処理を行うこともでき、例えば、ノイズ除去、鮮鋭化、コントラスト向上などの方法によって画像認識性を向上させることができ、ディープラーニング検出モデルの検出精度を向上させる。
更に、図2に示すように、前記の各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップは、以下のステップを含むことができる。
ステップS201において、各画像ブロックをそれぞれ予め設定された分類モデルに入力し、前記分類モデルから出力された各画像ブロックの分類結果を得る。
ステップS202において、前記分類結果のうち、第1プリセット条件を満たす分類グループを確定する。
ステップS203において、前記分類グループが対応する画像ブロックを予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された前記画像ブロックにおける標的細胞の第1位置情報を得る。
上記のステップS201乃至ステップS203について、理解できるように、前記分類モデルは、畳み込みニューラルネットワークトレーニングによって得ることができ、前記分類モデルは、画像ブロックにおける標的細胞の初歩的な判断を行うために使用されることができ、すなわち、各画像ブロック内には標的細胞が存在するかどうかを確定するために使用され、これにより標的細胞が存在している画像ブロックを見つけ出し、そして見つけ出された標的細胞が存在している画像ブロックをディープラーニング検出モデルに入力し、これでディープラーニング検出モデルにより見つけ出された画像ブロックに対して標的細胞の正確的な検出と位置決めを行って、初歩的なスクリーニングにより画像ブロックの入力数を削減し、ディープラーニング検出モデルの画像処理の負担を軽減し、これにより標的細胞検出の検出速度及び検出効率を向上させる。
任意選択的には、図3に示すように、1つの応用シーンでは、前記ディープラーニング検出モデルは以下のステップによりトレーニングして得ることができる。
ステップS301において、予め設定された数のサンプル画像ブロックを選択する。
ステップS302において、各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報を標識する。
ステップS303において、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報を得る。
ステップS304において、前記トレーニング位置情報と前記基準位置情報との間の第1誤差を計算する。
ステップS305において、前記第1誤差が第2プリセット条件を満たすかどうかを判断する。
ステップS306において、前記第1誤差が前記第2プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定する。
ステップS307において、前記第1誤差が第2プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行する。
上記のステップS301については、ディープラーニング検出モデルのトレーニングを行う前に、トレーニング用のトレーニングサンプルを予め選択しておく必要があり、すなわち、予め設定された数のサンプル画像ブロックを取得しておく必要があり、これらのサンプル画像ブロックが標的細胞を含む画像ブロックであってもよく、標的細胞を含まない画像ブロックであってもよい。理解できるように、これらのトレーニングサンプルのデータ量が大きいほど、ディープラーニング検出モデルに対するトレーニングの効果が高くなるため、本出願の実施例では、できるだけ多くのトレーニングサンプルを選択することができる。
上記のステップS302については、トレーニング用のサンプル画像ブロックを取得した後、各サンプル画像ブロックにおける標的細胞の分布状況に応じて、これらのサンプル画像ブロックにおける標的細胞の基準位置情報を標識する必要があり、例えば、各サンプル画像ブロックにおいて標的細胞を枠で選択することができる。
上記のステップS303については、これらのサンプル画像ブロックにおける標的細胞の基準位置情報を標識した後、これらのサンプル画像ブロックを初期のディープラーニング検出モデルに入力して、各サンプル画像ブロックにおける標的細胞の初期のトレーニング位置情報を得ることができ、初期時点でディープラーニング検出モデルはまだトレーニングが完成していないため、この時点で出力されるトレーニング位置情報と標識された基準位置情報との間に一定のずれや誤差が存在する。
上記のステップS304及びステップS305については、トレーニング位置情報を取得した後、前記トレーニング位置情報と対応する基準位置情報との間の誤差を算出し、そして、例えば誤差が5%未満であるか否かを判断することなど、第2プリセット条件を満たすかどうかを判定する。ここで、前記第2プリセット条件は、特定のディープラーニング検出モデルをトレーニングするときに確定されてもよく、例えば、誤差が特定のしきい値を下回るように第2プリセット条件を設定することができ、該特定のしきい値は、パーセンテージの数値とすることができ、このうち、特定のしきい値が小さければ小さいほど、最終的にトレーニングの完成によって得られるディープラーニング検出モデルが安定的であり、識別精度が高い。
上記のステップS306については、理解できるように、前記トレーニング位置情報と前記基準位置情報との間の誤差が第2プリセット条件を満たす場合、例えば、前記トレーニング位置情報と前記基準位置情報との間の誤差が5%未満である場合には、前記ディープラーニング検出モデルトレーニングが完成したと判定することができる。
上記のステップS307については、前記トレーニング位置情報と前記基準位置情報との間の誤差が第2プリセット条件を満たさない場合、例えば、前記トレーニング位置情報と前記基準位置情報との間の誤差が10%である場合には、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、そしてサンプル画像ブロックのトレーニングをやり直すことができ、最終的なトレーニング位置情報と基準位置情報との間の誤差が第2プリセット条件を満たすまで、ディープラーニング検出モデルのモデルパラメータを繰り返して調整して、複数回のサンプル画像ブロックのトレーニングを行うことにより、次のトレーニングで出力されるトレーニング位置情報と基準位置情報との間の誤差を最小化する。
更に、他の応用シーンでは、前記ディープラーニング検出モデルは更に以下のステップによりトレーニングして得ることができる。ステップcにおいて、予め設定された数のサンプル画像ブロックを選択する。ステップdにおいて、各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報及び基準細胞タイプを標識するステップeにおいて、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報及びトレーニング細胞タイプを得る。ステップfにおいて、前記トレーニング位置情報と前記基準位置情報との間の第2誤差を計算し、前記トレーニング細胞タイプと前記基準細胞タイプとの間の第3誤差を計算する。ステップgにおいて、前記第2誤差が第3プリセット条件を満たさない、又は前記第3誤差が第4プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行する。ステップhにおいて、前記第2誤差が前記第3プリセット条件を満たし、且つ前記第3誤差が前記第4プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定する。
理解できるように、該応用シーンにおけるトレーニングステップと上記の応用シーンにおけるトレーニングステップとの違いは次の通りである。該応用シーンでは、標的細胞の細胞タイプに対するトレーニングが追加され、すなわち、該シーンでディープラーニング検出モデルのトレーニングを行う時に、各サンプル画像ブロック内の各標的細胞の細胞タイプを予め標識することができ、サンプル画像ブロックにおける標識された細胞タイプに対して識別トレーニングを行うことにより、前記ディープラーニング検出モデルをトレーニングし、トレーニングが完成したディープラーニング検出モデルが各画像ブロックにおける標的細胞の細胞タイプを検出できるようにする。
説明が必要なのは、検出された標的細胞が異常細胞である場合、ディープラーニング検出モデルのトレーニングに、異常細胞の異常タイプ及び異常レベルのトレーニングを更に追加することができ、それによって、トレーニングが完成したディープラーニング検出モデルが、各画像ブロックにおける異常細胞の位置情報及び細胞タイプだけでなく、異常細胞の異常タイプ及び異常レベルを検出することもできるようにすることである。このうち、細胞タイプ、異常タイプおよび異常レベルの識別トレーニングは位置情報の識別トレーニングと基本原理が同じであり、簡明のため、ここでは再び説明しない。
ステップS104において、各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定する。
理解できるように、前記第1位置情報は、各画像ブロックにおける各標的細胞の位置情報であるので、各標的細胞のオリジナルスキャン画像における具体的な位置を正確に標識するためには、各標的細胞の前記第1画像における位置情報を確定する必要がある。したがって、本出願の実施例では、各画像ブロックにおける各標的細胞の第1位置情報が得られた後、前記第1位置情報と、対応する画像ブロックの前記第1画像における配列位置とに基づいて、該画像ブロックにおける標的細胞の前記第1画像における第2位置情報を確定することができ、すなわち、各画像ブロックにおける標的細胞の前記第1画像における具体的な位置情報を確定することができる。
ステップS105において、前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識する。
理解できるように、各画像ブロックにおける標的細胞の前記第1画像における位置情報を確定した後、すなわち、上記の第2位置情報が確定した後、全ての画像ブロックを、各画像ブロックの前記第1画像における配列位置に従って統合処理し、そして統合された第2画像において、各第2位置情報に基づいて、対応する標的細胞を標識することができる。ここで、統合された第2画像は、第1画像と同じであってもよい。
ステップS106において、標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示する。
本出願の実施例では、統合された第2画像は、前記第1画像と同じであるため、すなわち、統合された第2画像の画像フォーマットも、前記第1画像の画像フォーマットと同じであり、関連の読み手が一般的な読み取りソフトウェアを利用して標的細胞が標識された画像を読み取ることができるように、標識された第2画像を、前記オリジナル画像フォーマットの第3画像に復元することができ、そして対応の読み取りソフトウェアに前記第3画像を表示でき、これで前記オリジナルスキャン画像における標的細胞の標識結果を直感的に表示し、読み手の主観に対する依存を低減し、読み手が見やすくなる。
本出願の実施例では、もちろん、標識された第2画像を他の画像フォーマットの第3画像に復元してから表示することも可能であり、このうち、復元が必要となる画像フォーマットは、関連者が使用している読み取りソフトウェアに要求される画像フォーマットに基づいて確定することができる。
好ましくは、図4に示すように、本出願の実施例において、前記の第3画像を表示するステップは、以下のステップを含むことができる。ステップS401において、前記第3画像における各標的細胞の細胞タイプを取得する。ステップS402において、予め設定された対応関係に基づいて、各標的細胞の細胞タイプに対応する表示アイコン及び/又は表示色を確定する。ステップS403において、各細胞タイプに対応する表示アイコン及び/又は表示色に従って、各標的細胞を前記第3画像に表示する。
上記のステップS401〜ステップS403については、理解できるように、本出願の実施例では、各標的細胞の細胞タイプに対応する表示アイコン及び/又は表示色を予め設定しておくことができ、すなわち、細胞タイプが表示アイコン及び/又は表示色との対応関係を予め設定しておくことができ、したがって、前記ディープラーニング検出モデルから出力された各標的細胞の細胞タイプが得られた後、予め設定された対応関係に基づいて、各細胞タイプに対応する表示アイコン及び/又は表示色を確定することができ、そして第3画像を表示する際に、各標的細胞の細胞タイプを、対応する表示アイコン及び/又は表示色により同時に表示することができるので、読み手が各標的細胞の具体的な状況を直感的に理解しやすくなる。
本出願の実施例では、フォーマット変換、画像カット、及びディープラーニング検出モデルにより、画像フォーマットの異なる比較的に大きい画像に対して標的細胞の自動検出を実現することができ、検出された位置情報及びカットする時の配列位置に基づいて各標的細胞を自動的に標識することができ、標的細胞の検出と標識の漏れを回避し、これで標的細胞の検出と標識の全面性を確保し、標的細胞の検出と標識の正確性及び確実性を向上させる一方、標識結果をフォーマット復元した後の可視化表示により、読み手の主観に対する依存を低減することができ、読み手が標的細胞の標識状況を迅速に把握することを容易にする。
上記の実施例における各ステップの番号の大きさは、実行順の前後を意味するものではなく、各プロセスの実行順は、その機能およびその内在的論理によって確定されるべきであり、本出願の実施例の実施プロセスに対する制限とみなされないことを理解されたい。
以上は、主に画像に基づく標的細胞標識方法について説明したが、以下では、画像に基づく標的細胞標識装置について詳細に説明する。
図5に示すように、本出願の実施例は、画像に基づく標的細胞標識装置を提供し、前記標的細胞標識装置は、
オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するためのフォーマット変換モジュール501と、
予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するための画像カットモジュール502と、
各第1画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るための標的細胞検出モジュール503と、
各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するための位置情報確定モジュール504と、
前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するための標的細胞標識モジュール505と、
標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するための標的細胞表示モジュール506と、を含む。
更に、前記標的細胞検出モジュール503は、
各画像ブロックをそれぞれ予め設定された分類モデルに入力し、前記分類モデルから出力された各画像ブロックの分類結果を得るための画像ブロック分類ユニットと、
前記分類結果のうち、第1プリセット条件を満たす分類グループを確定するための分類グループ確定ユニットと、
前記分類グループが対応する画像ブロックを予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された前記画像ブロックにおける標的細胞の第1位置情報を得るための標的細胞検出ユニットと、を含むことができる。
好ましくは、前記画像カットモジュール502は、
前記第1画像の細胞分布状況及び画像サイズを取得するための画像情報取得ユニットと、
前記細胞分布状況及び前記画像サイズに基づいて、前記第1画像を予め設定されたサイズの複数の画像ブロックにカットするための画像カットユニットと、を含むことができる。
任意選択的には、前記標的細胞標識装置は、
予め設定された数のサンプル画像ブロックを選択するための第1サンプル画像ブロック選択モジュールと、
各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報を標識するための第1サンプル画像ブロック標識モジュールと、
各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報を得るための第1トレーニング位置情報取得モジュールと、
前記トレーニング位置情報と前記基準位置情報との間の第1誤差を計算するための第1誤差計算モジュールと、
前記第1誤差が第2プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するための第1モデルパラメータ調整モジュールと、
前記第1誤差が前記第2プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するための第1トレーニング完成判定モジュールと、を更に含むことができる。
更に、前記標的細胞標識装置は、
予め設定された数のサンプル画像ブロックを選択するための第2サンプル画像ブロック選択モジュールと、
各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報及び基準細胞タイプを標識するための第2サンプル画像ブロック標識モジュールと、
各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報及びトレーニング細胞タイプを得るための第2トレーニング結果取得モジュールと、
前記トレーニング位置情報と前記基準位置情報との間の第2誤差を計算し、前記トレーニング細胞タイプと前記基準細胞タイプとの間の第3誤差を計算するための第2誤差計算モジュールと、
前記第2誤差が第3プリセット条件を満たさない、又は前記第3誤差が第4プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するための第2モデルパラメータ調整モジュールと、
前記第2誤差が前記第3プリセット条件を満たし、且つ前記第3誤差が前記第4プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するための第2トレーニング完成判定モジュールと、を更に含むことができる。
好ましくは、前記標的細胞表示モジュール506は、
前記第3画像における各標的細胞の細胞タイプを取得するための細胞タイプ取得ユニットと、
予め設定された対応関係に基づいて、各標的細胞の細胞タイプに対応する表示アイコン及び/又は表示色を確定するためのアイコン色確定ユニットと、
各細胞タイプに対応する表示アイコン及び/又は表示色に従って、各標的細胞を前記第3画像に表示するための標的細胞表示ユニットと、を含むことができる。
図6は本出願の実施例により提供される端末デバイスの概略図である。図6に示すように、該実施例の端末デバイス6は、プロセッサ60と、メモリ61と、前記メモリ61に記憶され、プロセッサ60上で実行可能な、例えば、画像ベースの標的細胞標識プログラムのようなコンピュータ可読命令62と、を含む。前記プロセッサ60は、前記コンピュータ可読命令62を実行する時に、例えば図1に示されたステップS101〜ステップS106のような、上記の画像に基づく標的細胞標識方法の各実施例におけるステップを実現する。あるいは、前記プロセッサ60は、前記コンピュータ可読命令62を実行する時に、例えば図5に示されたモジュール501〜506の機能のような、上記の各装置実施例におけるモジュール/ユニットの機能を実現する。
例示的に、前記コンピュータ可読命令62は、1つまたは複数のモジュール/ユニットに分割されることができ、前記1つまたは複数のモジュール/ユニットは前記メモリ61に記憶され、そしてプロセッサ60によって実行されて本出願を完成させることができる。前記1つまたは複数のモジュール/ユニットは、特定の機能を達成することができる一連のコンピュータ可読命令セグメントであってもよく、該命令セグメントは前記コンピュータ可読命令62の前記端末デバイス6における実行プロセスを記述するために使用される。
前記端末デバイス6は、デスクトップコンピュータ、ノートパソコン、PDAやクラウドサーバなどのコンピューティングデバイスであってもよい。前記端末デバイスはプロセッサ60とメモリ61を含んでよいが、これらに制限されるものではない。当業者であれば、図6は端末デバイス6の一例に過ぎず、端末デバイス6を制限するものではなく、図示より多くの部品又はより少ない部品を含み、又は一部の部品若しくは異なる部品を組合せてもよく、例えば前記端末デバイスは更に出入力デバイス、ネットワークアクセスデバイスやバスなどを含んでもよいことを理解できる。
前記プロセッサ60は中央処理装置(Central Processing Unit、CPU)であってもよいし、他の汎用プロセッサ、デジタル信号プロセッサ(Digital Signal Processor、DSP)、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、フィールドプログラマブルゲートアレイ(Field−Programmable Gate Array、FPGA)または他のプログラマブルロジックデバイス、ディスクリートゲートやトランジスタロジックデバイス、ディスクリートハードウェアコンポーネントなどであってもよい。汎用プロセッサはマイクロプロセサであり、または当該プロセッサは任意の従来のプロセッサなどであってもよい。
前記メモリ61は、例えば端末デバイス6のハードディスクやメモリなど、前記端末デバイス6の内部記憶ユニットであってもよい。前記メモリ61は、例えば端末デバイス6に搭載されたプラグインハードディスク、スマートメモリカード(Smart Media(登録商標) Card、SMC)、セキュアデジタル(Secure Digital、 SD)カード、フラッシュカード(Flash Card)など、前記端末デバイス6の外部記憶デバイスであってもよい。更に、前記メモリ61は、前記端末デバイス6の内部記憶ユニットと外部記憶デバイスの両方を備えてもよい。前記メモリ61は前記コンピュータ読み取り可能な命令および前記端末デバイスに必要な他のプログラムおよびデータを記憶するために用いられる。前記メモリ61は更に出力された、または出力しようとするデータを一時的に記憶することに使用することができる。
また、本出願の各実施例における各機能ユニットは、1つの処理ユニットに統合されていてもよいし、物理的に別々に存在していてもよいし、2つ以上のユニットが1つのユニットに統合されてもよい。上記の統合ユニットは、ハードウェアの形態またはソフトウェア機能ユニットの形態を用いることができる。
当業者は、上記の実施例の方法における全部又は一部の流れの実施が、コンピュータ可読命令により関連するハードウェアを命令することによって完成できることを理解することができる。前記コンピュータ可読命令は、不揮発性コンピュータ可読記憶媒体に記憶され、実行されるときに、上記の各方法の実施例のような流れを含むことができる。ここでは、本出願で提供される様々な実施例で使用されるメモリ、記憶装置、データベース又は他の媒体へのいかなる言及は、不揮発性及び/又は揮発性メモリを含み得る。不揮発性メモリは、読み出し専用メモリ(ROM)、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、又はフラッシュメモリを含むことができる。揮発性メモリは、ランダムアクセスメモリ(RAM)又は外部高速キャッシュメモリを含み得る。説明のためのものであって制限的ではないが、RAMは、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、エンハンストSDRAM(ESDRAM)、同期リンク(Synchlink)DRAM(SLDRAM)、メモリバス(Rambus)ダイレクトRAM(RDRAM)、ダイレクトメモリバスダイナミックRAM(DRDRAM)、及びメモリバスダイナミックRAM(RDRAM)などの様々な形態で利用可能である。
上述した実施例は本願の技術的解決手段を記述するためのものであり、これに限定されるものではない。上記の実施例を参照しながら本願を詳細に説明したが、当業者であれば、上記の各実施例に記載された技術的解決手段を変更し、またはその技術特徴の一部を同等置換することができることを理解されたい。これらの変更や置き換えは、対応する技術的解決手段の本質を本発明の各実施例の技術的解決手段の趣旨および範囲から逸脱させない。
6 端末デバイス
60 プロセッサ
61 メモリ
62 コンピュータ可読命令
501 フォーマット変換モジュール
502 画像カットモジュール
503 標的細胞検出モジュール
504 位置情報確定モジュール
505 標的細胞標識モジュール
506 標的細胞表示モジュール

Claims (20)

  1. 画像に基づく標的細胞標識方法であって、
    オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するステップと、
    予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するステップと、
    各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップと、
    各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するステップと、
    前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するステップと、
    標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するステップと、を含む、
    ことを特徴とする標的細胞標識方法。
  2. 前記の各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップは、
    各画像ブロックをそれぞれ予め設定された分類モデルに入力し、前記分類モデルから出力された各画像ブロックの分類結果を得るステップと、
    前記分類結果のうち、第1プリセット条件を満たす分類グループを確定するステップと、
    前記分類グループが対応する画像ブロックを予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された前記画像ブロックにおける標的細胞の第1位置情報を得るステップと、を含む、
    ことを特徴とする請求項1に記載の標的細胞標識方法。
  3. 前記の予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットするステップは、
    前記第1画像の細胞分布状況及び画像サイズを取得するステップと、
    前記細胞分布状況及び前記画像サイズに基づいて、前記第1画像を予め設定されたサイズの複数の画像ブロックにカットするステップと、を含む、
    ことを特徴とする請求項1に記載の標的細胞標識方法。
  4. 前記ディープラーニング検出モデルは、
    予め設定された数のサンプル画像ブロックを選択するステップと、
    各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報を標識するステップと、
    各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報を得るステップと、
    前記トレーニング位置情報と前記基準位置情報との間の第1誤差を計算するステップと、
    前記第1誤差が第2プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するステップと、
    前記第1誤差が前記第2プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するステップと、によりトレーニングして得られる、
    ことを特徴とする請求項1〜3のいずれか一項に記載の標的細胞標識方法。
  5. 前記ディープラーニング検出モデルは、
    予め設定された数のサンプル画像ブロックを選択するステップと、
    各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報及び基準細胞タイプを標識するステップと、
    各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報及びトレーニング細胞タイプを得るステップと、
    前記トレーニング位置情報と前記基準位置情報との間の第2誤差を計算し、前記トレーニング細胞タイプと前記基準細胞タイプとの間の第3誤差を計算するステップと、
    前記第2誤差が第3プリセット条件を満たさない、又は前記第3誤差が第4プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するステップと、
    前記第2誤差が前記第3プリセット条件を満たし、且つ前記第3誤差が前記第4プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するステップと、によりトレーニングして得られる、
    ことを特徴とする請求項1〜3のいずれか一項に記載の標的細胞標識方法。
  6. 前記の前記第3画像を表示するステップは、
    前記第3画像における各標的細胞の細胞タイプを取得するステップと、
    予め設定された対応関係に基づいて、各標的細胞の細胞タイプに対応する表示アイコン及び/又は表示色を確定するステップと、
    各細胞タイプに対応する表示アイコン及び/又は表示色に従って、各標的細胞を前記第3画像に表示するステップと、を含む、
    ことを特徴とする請求項5に記載の標的細胞標識方法。
  7. 画像に基づく標的細胞標識装置であって、
    オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するためのフォーマット変換モジュールと、
    予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するための画像カットモジュールと、
    各第1画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るための標的細胞検出モジュールと、
    各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するための位置情報確定モジュールと、
    前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するための標的細胞標識モジュールと、
    標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するための標的細胞表示モジュールと、を含む、
    ことを特徴とする標的細胞標識装置。
  8. 前記標的細胞検出モジュールは、
    各画像ブロックをそれぞれ予め設定された分類モデルに入力し、前記分類モデルから出力された各画像ブロックの分類結果を得るための画像ブロック分類ユニットと、
    前記分類結果のうち、第1プリセット条件を満たす分類グループを確定するための分類グループ確定ユニットと、
    前記分類グループが対応する画像ブロックを予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された前記画像ブロックにおける標的細胞の第1位置情報を得るための標的細胞検出ユニットと、を含む、
    ことを特徴とする請求項7に記載の標的細胞標識装置。
  9. 前記画像カットモジュールは、
    前記第1画像の細胞分布状況及び画像サイズを取得するための画像情報取得ユニットと、
    前記細胞分布状況及び前記画像サイズに基づいて、前記第1画像を予め設定されたサイズの複数の画像ブロックにカットするための画像カットユニットと、を含む、
    ことを特徴とする請求項7に記載の標的細胞標識装置。
  10. 前記標的細胞標識装置は、
    予め設定された数のサンプル画像ブロックを選択するための第1サンプル画像ブロック選択モジュールと、
    各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報を標識するための第1サンプル画像ブロック標識モジュールと、
    各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報を得るための第1トレーニング位置情報取得モジュールと、
    前記トレーニング位置情報と前記基準位置情報との間の第1誤差を計算するための第1誤差計算モジュールと、
    前記第1誤差が第2プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するための第1モデルパラメータ調整モジュールと、
    前記第1誤差が前記第2プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するための第1トレーニング完成判定モジュールと、を更に含む、
    ことを特徴とする請求項7〜9のいずれか一項に記載の標的細胞標識装置。
  11. 前記標的細胞標識装置は、
    予め設定された数のサンプル画像ブロックを選択するための第2サンプル画像ブロック選択モジュールと、
    各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報及び基準細胞タイプを標識するための第2サンプル画像ブロック標識モジュールと、
    各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報及びトレーニング細胞タイプを得るための第2トレーニング結果取得モジュールと、
    前記トレーニング位置情報と前記基準位置情報との間の第2誤差を計算し、前記トレーニング細胞タイプと前記基準細胞タイプとの間の第3誤差を計算するための第2誤差計算モジュールと、
    前記第2誤差が第3プリセット条件を満たさない、又は前記第3誤差が第4プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するための第2モデルパラメータ調整モジュールと、
    前記第2誤差が前記第3プリセット条件を満たし、且つ前記第3誤差が前記第4プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するための第2トレーニング完成判定モジュールと、を更に含む、
    ことを特徴とする請求項7〜9のいずれか一項に記載の標的細胞標識装置。
  12. 前記標的細胞表示モジュールは、
    前記第3画像における各標的細胞の細胞タイプを取得するための細胞タイプ取得ユニットと、
    予め設定された対応関係に基づいて、各標的細胞の細胞タイプに対応する表示アイコン及び/又は表示色を確定するためのアイコン色確定ユニットと、
    各細胞タイプに対応する表示アイコン及び/又は表示色に従って、各標的細胞を前記第3画像に表示するための標的細胞表示ユニットと、を含む、
    ことを特徴とする請求項11に記載の標的細胞標識装置。
  13. コンピュータ可読命令が記憶されているコンピュータ可読記憶媒体であって、
    前記コンピュータ可読命令がプロセッサによって実行される時に、
    オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するステップと、
    予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するステップと、
    各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップと、
    各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するステップと、
    前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するステップと、
    標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するステップと、を実現する、
    ことを特徴とするコンピュータ可読記憶媒体。
  14. 前記の各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップは、
    各画像ブロックをそれぞれ予め設定された分類モデルに入力し、前記分類モデルから出力された各画像ブロックの分類結果を得るステップと、
    前記分類結果のうち、第1プリセット条件を満たす分類グループを確定するステップと、
    前記分類グループが対応する画像ブロックを予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された前記画像ブロックにおける標的細胞の第1位置情報を得るステップと、を含む、
    ことを特徴とする請求項13に記載のコンピュータ可読記憶媒体。
  15. メモリと、プロセッサと、前記メモリに記憶され且つ前記プロセッサ上で実行可能なコンピュータ可読命令と、を備える端末デバイスであって、
    前記プロセッサは、前記コンピュータ可読命令を実行する際に、
    オリジナルスキャン画像を取得し、前記オリジナルスキャン画像のオリジナル画像フォーマットを確定して、前記オリジナルスキャン画像を予め設定された画像フォーマットの第1画像に変換するステップと、
    予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットして、各画像ブロックの前記第1画像における配列位置を記録するステップと、
    各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップと、
    各第1位置情報及び対応する配列位置により、各標的細胞の前記第1画像における第2位置情報を確定するステップと、
    前記配列位置に従って各画像ブロックに対して統合処理を行い、前記第2位置情報に基づいて、統合された第2画像において各標的細胞を標識するステップと、
    標的細胞の標識が行われた第2画像を前記オリジナル画像フォーマットの第3画像に変換して、前記第3画像を表示するステップと、を実現する、
    ことを特徴とする端末デバイス。
  16. 前記の各画像ブロックをそれぞれ予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップは、
    各画像ブロックをそれぞれ予め設定された分類モデルに入力し、前記分類モデルから出力された各画像ブロックの分類結果を得るステップと、
    前記分類結果のうち、第1プリセット条件を満たす分類グループを確定するステップと、
    前記分類グループが対応する画像ブロックを予め設定されたディープラーニング検出モデルに入力し、前記ディープラーニング検出モデルから出力された各画像ブロックにおける標的細胞の第1位置情報を得るステップと、を含む、
    ことを特徴とする請求項15に記載の端末デバイス。
  17. 前記の予め設定されたカット方法によって前記第1画像を複数の画像ブロックにカットするステップは、
    前記第1画像の細胞分布状況及び画像サイズを取得するステップと、
    前記細胞分布状況及び前記画像サイズに基づいて、前記第1画像を予め設定されたサイズの複数の画像ブロックにカットするステップと、を含む、
    ことを特徴とする請求項15に記載の端末デバイス。
  18. 前記ディープラーニング検出モデルは、
    予め設定された数のサンプル画像ブロックを選択するステップと、
    各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報を標識するステップと、
    各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報を得るステップと、
    前記トレーニング位置情報と前記基準位置情報との間の第1誤差を計算するステップと、
    前記第1誤差が第2プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するステップと、
    前記第1誤差が前記第2プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するステップと、によりトレーニングして得られる、
    ことを特徴とする請求項15〜17のいずれか一項に記載の端末デバイス。
  19. 前記ディープラーニング検出モデルは、
    予め設定された数のサンプル画像ブロックを選択するステップと、
    各サンプル画像ブロックにおける標的細胞の状況に応じて、各サンプル画像ブロックにおける標的細胞の基準位置情報及び基準細胞タイプを標識するステップと、
    各サンプル画像ブロックを初期のディープラーニング検出モデルに入力し、前記初期のディープラーニング検出モデルから出力された各サンプル画像ブロックにおける標的細胞のトレーニング位置情報及びトレーニング細胞タイプを得るステップと、
    前記トレーニング位置情報と前記基準位置情報との間の第2誤差を計算し、前記トレーニング細胞タイプと前記基準細胞タイプとの間の第3誤差を計算するステップと、
    前記第2誤差が第3プリセット条件を満たさない、又は前記第3誤差が第4プリセット条件を満たさない場合、前記ディープラーニング検出モデルのモデルパラメータを調整し、モデルパラメータが調整されたディープラーニング検出モデルを初期のディープラーニング検出モデルとし、各サンプル画像ブロックを初期のディープラーニング検出モデルに入力するステップ及び後続のステップに戻って実行するステップと、
    前記第2誤差が前記第3プリセット条件を満たし、且つ前記第3誤差が前記第4プリセット条件を満たす場合、前記ディープラーニング検出モデルのトレーニングが完成したと判定するステップと、によりトレーニングして得られる、
    ことを特徴とする請求項15〜17のいずれか一項に記載の端末デバイス。
  20. 前記の前記第3画像を表示するステップは、
    前記第3画像における各標的細胞の細胞タイプを取得するステップと、
    予め設定された対応関係に基づいて、各標的細胞の細胞タイプに対応する表示アイコン及び/又は表示色を確定するステップと、
    各細胞タイプに対応する表示アイコン及び/又は表示色に従って、各標的細胞を前記第3画像に表示するステップと、を含む、
    ことを特徴とする請求項19に記載の端末デバイス。
JP2021500942A 2019-01-24 2019-11-15 標的細胞標識方法、装置、記憶媒体及び端末デバイス Active JP7000627B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910066278.1A CN109886928B (zh) 2019-01-24 2019-01-24 一种目标细胞标记方法、装置、存储介质及终端设备
CN201910066278.1 2019-01-24
PCT/CN2019/118692 WO2020151340A1 (zh) 2019-01-24 2019-11-15 一种目标细胞标记方法、装置、存储介质及终端设备

Publications (2)

Publication Number Publication Date
JP2021532459A true JP2021532459A (ja) 2021-11-25
JP7000627B2 JP7000627B2 (ja) 2022-01-19

Family

ID=66926705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021500942A Active JP7000627B2 (ja) 2019-01-24 2019-11-15 標的細胞標識方法、装置、記憶媒体及び端末デバイス

Country Status (5)

Country Link
US (1) US11929048B2 (ja)
JP (1) JP7000627B2 (ja)
CN (1) CN109886928B (ja)
SG (1) SG11202008311QA (ja)
WO (1) WO2020151340A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886928B (zh) 2019-01-24 2023-07-14 平安科技(深圳)有限公司 一种目标细胞标记方法、装置、存储介质及终端设备
CN110415212A (zh) * 2019-06-18 2019-11-05 平安科技(深圳)有限公司 异常细胞检测方法、装置及计算机可读存储介质
CN111402242B8 (zh) * 2020-03-20 2021-01-19 乐清市智格电子科技有限公司 一种用于医疗图像精细化处理系统及方法
CN111402275A (zh) * 2020-04-27 2020-07-10 Oppo广东移动通信有限公司 镂空检测方法、系统、设备及存储介质
CN113613071B (zh) * 2021-07-30 2023-10-20 上海商汤临港智能科技有限公司 一种图像处理方法、装置、计算机设备和存储介质
CN113657234B (zh) * 2021-08-10 2024-04-26 小叶子(北京)科技有限公司 图像识别方法、装置、存储介质及电子设备
CN113610024B (zh) * 2021-08-13 2022-08-12 天津大学 一种多策略的深度学习遥感影像小目标检测方法
CN114596263B (zh) * 2022-01-27 2024-08-02 阿丘机器人科技(苏州)有限公司 深度学习的主板外观检测方法、装置、设备及存储介质
CN115100151B (zh) * 2022-06-27 2023-02-24 武汉兰丁智能医学股份有限公司 结果导向的细胞图像高清晰识别标记方法
CN115201092B (zh) * 2022-09-08 2022-11-29 珠海圣美生物诊断技术有限公司 细胞扫描图像的获取方法和装置
CN116051985B (zh) * 2022-12-20 2023-06-23 中国科学院空天信息创新研究院 一种基于多模型互馈学习的半监督遥感目标检测方法
CN115861275B (zh) * 2022-12-26 2024-02-06 中南大学 细胞计数方法、装置、终端设备及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830149A (zh) * 2018-05-07 2018-11-16 深圳市恒扬数据股份有限公司 一种目标细菌的检测方法及终端设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3314759B2 (ja) * 1999-05-11 2002-08-12 日本電気株式会社 細胞形状抽出装置及び細胞形状抽出方法
CN103473739B (zh) * 2013-08-15 2016-06-22 华中科技大学 一种基于支持向量机的白细胞图像精确分割方法与系统
US10078895B2 (en) * 2015-12-30 2018-09-18 Case Western Reserve University Prediction of recurrence of non-small cell lung cancer with tumor infiltrating lymphocyte (TIL) graphs
US10083340B2 (en) * 2016-01-26 2018-09-25 Ge Healthcare Bio-Sciences Corp. Automated cell segmentation quality control
CN106600577B (zh) * 2016-11-10 2019-10-18 华南理工大学 一种基于深度反卷积神经网络的细胞计数方法
CN108682021B (zh) * 2018-04-18 2021-03-05 平安科技(深圳)有限公司 快速手部跟踪方法、装置、终端及存储介质
CN108734211B (zh) * 2018-05-17 2019-12-24 腾讯科技(深圳)有限公司 图像处理的方法和装置
CN108960232A (zh) * 2018-06-08 2018-12-07 Oppo广东移动通信有限公司 模型训练方法、装置、电子设备和计算机可读存储介质
CN109117937B (zh) * 2018-08-16 2022-03-22 杭州电子科技大学信息工程学院 一种基于连通面积相减的白细胞图像处理方法及系统
CN109886928B (zh) * 2019-01-24 2023-07-14 平安科技(深圳)有限公司 一种目标细胞标记方法、装置、存储介质及终端设备
US20220319002A1 (en) * 2021-04-05 2022-10-06 Nec Laboratories America, Inc. Tumor cell isolines

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830149A (zh) * 2018-05-07 2018-11-16 深圳市恒扬数据股份有限公司 一种目标细菌的检测方法及终端设备

Also Published As

Publication number Publication date
US20210209328A1 (en) 2021-07-08
JP7000627B2 (ja) 2022-01-19
WO2020151340A1 (zh) 2020-07-30
CN109886928B (zh) 2023-07-14
US11929048B2 (en) 2024-03-12
SG11202008311QA (en) 2020-09-29
CN109886928A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
JP7000627B2 (ja) 標的細胞標識方法、装置、記憶媒体及び端末デバイス
JP2024509411A (ja) 欠陥検出方法、装置及びシステム
CN112560980B (zh) 目标检测模型的训练方法、装置及终端设备
JP2018522343A (ja) 意思決定モデルを構築する方法、コンピュータデバイス及び記憶デバイス
WO2021217857A1 (zh) 切片缺陷检测方法、装置、电子设备及可读存储介质
CN108805180B (zh) 目标对象的检测方法及装置
US11783474B1 (en) Defective picture generation method and apparatus applied to industrial quality inspection
US20150287168A1 (en) Duplicate check image resolution
US20230214989A1 (en) Defect detection method, electronic device and readable storage medium
US20210350521A1 (en) Method for computer-implemented determination of blade-defects of a wind turbine
CN113393487B (zh) 运动目标检测方法、装置、电子设备及介质
WO2023279847A1 (zh) 单元格位置的检测方法、装置和电子设备
CN112085022A (zh) 一种用于识别文字的方法、系统及设备
CN110991437B (zh) 字符识别方法及其装置、字符识别模型的训练方法及其装置
CN114764774A (zh) 瑕疵检测方法、装置、电子设备及计算机可读存储介质
CN114005126A (zh) 表格重构方法、装置、计算机设备及可读存储介质
CN117173568A (zh) 目标检测模型训练方法和目标检测方法
CN110569489A (zh) 基于pdf文件的表格数据解析方法及装置
CN115223166A (zh) 图片预标注方法、图片标注方法及装置、电子设备
CN114359533A (zh) 一种基于页面文本的页码识别方法和计算机设备
CN111444833B (zh) 果实测产方法、装置、计算机设备及存储介质
CN111046262A (zh) 一种数据标注方法、装置及计算机存储介质
CN114550129B (zh) 一种基于数据集的机器学习模型处理方法和系统
US8761515B2 (en) Electronic device and method for creating measurement codes
JP6175904B2 (ja) 照合対象抽出システム、照合対象抽出方法、照合対象抽出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211223

R150 Certificate of patent or registration of utility model

Ref document number: 7000627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150