JP7061225B2 - Focal detection methods, devices, equipment and storage media - Google Patents

Focal detection methods, devices, equipment and storage media Download PDF

Info

Publication number
JP7061225B2
JP7061225B2 JP2021500548A JP2021500548A JP7061225B2 JP 7061225 B2 JP7061225 B2 JP 7061225B2 JP 2021500548 A JP2021500548 A JP 2021500548A JP 2021500548 A JP2021500548 A JP 2021500548A JP 7061225 B2 JP7061225 B2 JP 7061225B2
Authority
JP
Japan
Prior art keywords
feature map
lesion
features
neural network
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021500548A
Other languages
Japanese (ja)
Other versions
JP2021531565A (en
Inventor
ルイ ホアン,
ユンホー カオ,
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2021531565A publication Critical patent/JP2021531565A/en
Application granted granted Critical
Publication of JP7061225B2 publication Critical patent/JP7061225B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明は、コンピュータ技術分野に関し、特に病巣検出の方法、装置、機器および記憶媒体に関する。 The present invention relates to the field of computer technology, and in particular to methods, devices, devices and storage media for lesion detection.

コンピュータ支援診断(Computer aided diagosis、CAD)とは映像学的、医療画像解析技術および他の可能な生理学的、生化学的などの手段を、コンピュータによる解析計算と組み合わせることで、映像から病巣を自動的に発見することをいう。コンピュータ支援診断により診断の正確度の向上、診断漏れの低減および医者の作業効率向上などの方面で積極的な促進作用を非常に大きく果たすことは、実践により証明されている。ここで、病巣とは、病原性因子の影響で病変がある組織または器官の部位をいい、病変がある生体の部分である。例えば、人体の肺のある部分が結核菌により破壊されたら、この部分は肺結核症の病巣となる。 What is Computer Aided Diagosis (CAD)? Automatically automate lesions from images by combining visual, medical image analysis techniques and other possible physiological and biochemical means with computer-aided analysis calculations. It means to discover the target. It has been proved by practice that computer-aided diagnosis has a great positive promotion effect in terms of improving the accuracy of diagnosis, reducing omission of diagnosis, and improving the work efficiency of doctors. Here, the lesion refers to a part of a tissue or organ having a lesion due to the influence of a virulence factor, and is a part of a living body having a lesion. For example, if a part of the lungs of the human body is destroyed by Mycobacterium tuberculosis, this part becomes a lesion of pulmonary tuberculosis.

近年、コンピュータビジョンおよび深層学習技術の急速な発展に伴い、CT画像に基づく病巣検出方法はますます注目されている。 In recent years, with the rapid development of computer vision and deep learning techniques, CT image-based lesion detection methods are receiving increasing attention.

本開示は、病巣検出方法、装置、機器および記憶媒体を提供し、患者体内の複数の部位の病巣状況を正確に検出し、患者全身にわたって癌を予備的に評価することができる。 The present disclosure provides methods, devices, devices and storage media for foci detection, which can accurately detect foci status at multiple sites in a patient and preliminarily evaluate cancer throughout the patient.

第一方面で、本開示は、複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得することと、前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップであって、前記X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成することと、前記第一特徴マップに含まれる特徴の次元削減を行い、前記X軸次元および前記Y軸次元の二次元特徴を含む第二特徴マップを生成することと、前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣の位置および前記位置に対応する信頼度を得ることと、を含む病巣検出方法を提供する。 On the first side, the present disclosure comprises acquiring a first image comprising a plurality of sample sections, which is a three-dimensional image including the X-axis dimension, the Y-axis dimension, and the Z-axis dimension. The features of the first image are extracted, and a first feature map including the features and positions of the lesion, which includes the three-dimensional features of the X-axis dimension, the Y-axis dimension, and the Z-axis dimension, is generated. That is, the dimension of the feature included in the first feature map is reduced to generate a second feature map including the two-dimensional features of the X-axis dimension and the Y-axis dimension, and the second feature map is detected. The present invention provides a method for detecting a lesion, including the position of each lesion in the second feature map and the reliability corresponding to the position.

いくつかの可能な実施例では、第一方面において、複数のサンプル切片を含む第一画像を取得することは、取得された患者のCT画像を第一サンプリング間隔で再サンプリングし、複数のサンプル切片を含む第一画像を生成することを含む。 In some possible embodiments, obtaining a first image containing multiple sample sections on one side resamples the captured patient CT images at the first sampling interval and multiple sample sections. Includes generating a first image containing.

いくつかの可能な実施例では、第一方面において、前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成することは、第一ニューラルネットワークによって前記第一画像をダウンサンプリングし、第三特徴マップを生成することと、前記第二ニューラルネットワークの残差ブロックによって前記第三特徴マップをダウンサンプリングし、第四特徴マップを生成することと、前記第二ニューラルネットワークのDenseASPPモジュールによって前記第四特徴マップにおける異なるスケールの病巣の特徴を抽出することと、前記DenseASPPモジュールによる処理後、前記第四特徴マップと同じ解像度の第四所定特徴マップが生成され、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第三特徴マップと同じ解像度の第三所定特徴マップを生成することと、前記第三特徴マップと前記第三所定特徴マップで前記第三所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第四特徴マップと前記第四所定特徴マップとを融合して前記第四所定特徴マップと同じ解像度の第一特徴マップを生成することと、を含み、前記第三所定特徴マップおよび前記第四所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 In some possible embodiments, on one side, extracting the features of the first image and generating a first feature map containing the features and location of the lesion is the first by the first neural network. The image is downsampled to generate a third feature map, the third feature map is downsampled by the residual block of the second neural network to generate a fourth feature map, and the second neural network is generated. After extracting the features of lesions of different scales in the fourth feature map by the DenseASPP module of the network and processing by the DenseASPP module, a fourth predetermined feature map having the same resolution as the fourth feature map is generated, and the fourth predetermined feature map is generated. The feature map after processing by the DenseASPP module is upsampled by the inverse convolution layer of the two neural networks and the residual block to generate a third predetermined feature map having the same resolution as the third feature map, and the third The feature map and the third predetermined feature map generate a first feature map having the same resolution as the third predetermined feature map, and the fourth predetermined feature map and the fourth predetermined feature map are fused to generate the fourth predetermined feature. Including generating a first feature map with the same resolution as the map, the third predetermined feature map and the fourth predetermined feature map each include the location of the lesion, and the location of the lesion is the lesion in the first feature map. Used to generate the position of.

いくつかの可能な実施例では、第一方面において、前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成することは、第二ニューラルネットワークの残差ブロックによって前記第一画像をダウンサンプリングし、前記第一画像よりも解像度が低い第四特徴マップを生成することと、前記第二ニューラルネットワークのDenseASPPモジュールによって前記第四特徴マップにおける異なるスケールの病巣の特徴を抽出することと、前記DenseASPPモジュールによる処理後、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第一画像と同じ解像度の前記第一所定特徴マップを生成することと、前記第一画像と前記第一所定特徴マップで前記第一所定特徴マップと同じ解像度の第一特徴マップを生成することと、を含み、前記第一所定特徴マップは病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 In some possible embodiments, on one side, extracting the features of the first image and generating a first feature map containing the features and locations of the lesions is a residual block of the second neural network. The first image is downsampled to generate a fourth feature map with a lower resolution than the first image, and the DenseASPP module of the second neural network features different scales of lesions in the fourth feature map. And after processing by the DenseASPP module, the feature map after processing by the DenseASPP module is upsampled by the inverse convolution layer of the second neural network and the residual block, and has the same resolution as the first image. The first includes generating the first predetermined feature map and generating a first feature map having the same resolution as the first predetermined feature map with the first image and the first predetermined feature map. The predetermined feature map includes the location of the lesion, and the location of the lesion is used to generate the location of the lesion in the first feature map.

いくつかの可能な実施例では、第一方面において、前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成することは、第一ニューラルネットワークによって前記第一画像をダウンサンプリングし、前記第一画像よりも解像度が低い第三特徴マップを生成することと、前記第二ニューラルネットワークの残差ブロックによって前記第三特徴マップをダウンサンプリングし、前記第三特徴マップよりも解像度が低い第四特徴マップを生成することと、前記第二ニューラルネットワークの残差ブロックによって前記第四特徴マップをダウンサンプリングし、前記第四特徴マップよりも解像度が低い第五特徴マップを生成することと、前記第二ニューラルネットワークのDenseASPPモジュールによって前記第五特徴マップにおける異なるスケールの病巣の特徴を抽出することと、前記DenseASPPモジュールによる処理後、前記第五特徴マップと同じ解像度の第五所定特徴マップが生成され、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第四特徴マップと同じ解像度の第四所定特徴マップを生成し、または、前記第二ニューラルネットワークの逆畳み込み層および残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第三特徴マップと同じ解像度の第三所定特徴マップを生成することと、前記第三特徴マップと前記第三所定特徴マップで前記第三所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第四特徴マップと前記第四所定特徴マップとを融合して前記第四所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第五特徴マップと前記第五所定特徴マップとを融合して前記第五所定特徴マップと同じ解像度の第一特徴マップを生成することと、を含み、前記第三所定特徴マップ、前記第四所定特徴マップおよび前記第五所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 In some possible embodiments, on one side, extracting the features of the first image and generating a first feature map containing the features and location of the lesion is the first by the first neural network. The image is downsampled to generate a third feature map having a lower resolution than the first image, and the third feature map is downsampled by the residual block of the second neural network to generate the third feature map. A fourth feature map with a lower resolution than the fourth feature map is generated, and the fourth feature map is downsampled by the residual block of the second neural network to obtain a fifth feature map with a lower resolution than the fourth feature map. The fifth feature map has the same resolution as the fifth feature map after being generated, extracting the features of lesions of different scales in the fifth feature map by the DenseASPP module of the second neural network, and processing by the DenseASPP module. A predetermined feature map is generated, and the feature map processed by the DenseASPP module is upsampled by the inverse convolution layer of the second neural network and the residual block, and the fourth predetermined feature map having the same resolution as the fourth feature map is generated. Or upsample the feature map processed by the DenseASPP module with the inverse convolution layer and residual block of the second neural network to generate a third predetermined feature map with the same resolution as the third feature map. The third feature map and the third predetermined feature map generate a first feature map having the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused. Then, a first feature map having the same resolution as the fourth predetermined feature map is generated, and the fifth feature map and the fifth predetermined feature map are fused to generate a first feature having the same resolution as the fifth predetermined feature map. The third predetermined feature map, the fourth predetermined feature map, and the fifth predetermined feature map each include the position of the lesion, and the position of the lesion is the position of the lesion in the first feature map. Used to generate a position.

いくつかの可能な実施例では、第一方面において、前記第一ニューラルネットワークは、畳み込み層および前記畳み込み層にカスケード接続される残差ブロックを含み、前記第二ニューラルネットワークは、畳み込み層、逆畳み込み層、残差ブロックおよび前記DenseASPPモジュールを含む3D U-Netネットワークを含む。 In some possible embodiments, on one side, the first neural network comprises a convolution layer and a residual block cascaded to the convolution layer, the second neural network is a convolution layer, a deconvolution. Includes a 3D U-Net network containing layers, residual blocks and the DenseASPP module.

いくつかの可能な実施例では、第一方面において、前記第二ニューラルネットワークは積み上げられている複数の3D U-Netネットワークである。 In some possible embodiments, on one side, the second neural network is a stack of 3D U-Net networks.

いくつかの可能な実施例では、第一方面において、前記残差ブロックは、畳み込み層、バッチ正規化層、ReLU活性化関数および最大プーリング層を含む。 In some possible embodiments, on one side, the residual block comprises a convolutional layer, a batch normalization layer, a ReLU activation function and a maximal pooling layer.

いくつかの可能な実施例では、第一方面において、前記第一特徴マップに含まれる特徴の次元削減を行い、第二特徴マップを生成することは、前記第一特徴マップの全ての特徴のそれぞれに対してチャネル次元とZ軸次元とをマージして、前記第一特徴マップの全ての特徴のそれぞれの次元をX軸次元およびY軸次元からなるものにし、前記全ての特徴のそれぞれの次元がX軸次元およびY軸次元からなる第一特徴マップを前記第二特徴マップとすることを含む。 In some possible embodiments, it is possible to reduce the dimensions of the features contained in the first feature map on one side and generate a second feature map, respectively, of all the features of the first feature map. By merging the channel dimension and the Z-axis dimension with respect to, each dimension of all the features of the first feature map consists of the X-axis dimension and the Y-axis dimension, and each dimension of all the features is The first feature map including the X-axis dimension and the Y-axis dimension is included in the second feature map.

いくつかの可能な実施例では、第一方面において、前記第二特徴マップを検出することは、第一検出サブネットによって前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣の位置の座標を得ることと、第二検出サブネットによって前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣に対応する信頼度を得ることと、を含む。 In some possible embodiments, detecting the second feature map on one side detects the second feature map by the first detection subnet and the location of each lesion in the second feature map. It includes obtaining the coordinates and detecting the second feature map by the second detection subnet to obtain the reliability corresponding to each lesion in the second feature map.

いくつかの可能な実施例では、第一方面において、前記第一検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含み、前記第二検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含む。 In some possible embodiments, on one side, the first detection subnet comprises a plurality of convolution layers, each connected to one ReLU activation function, and the second detection subnet is one each. Includes multiple convolution layers connected with one ReLU activation function.

いくつかの可能な実施例では、第一方面において、前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、予め保存された、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を前記第一ニューラルネットワークに入力し、勾配降下法を使用して前記第一ニューラルネットワーク、前記第二ニューラルネットワーク、前記DenseASPPモジュール、前記第一検出サブネットおよび前記第二検出サブネットの各パラメータをそれぞれ訓練することを、さらに含み、前記複数の病巣のそれぞれの位置は前記第一検出サブネットにより出力される。 In some possible embodiments, on one side, the pre-stored lesions are labeled before extracting the features of the first image and generating a first feature map containing the features and locations of the lesions. A three-dimensional image containing a plurality of lesion labels is input to the first neural network, and the first neural network, the second neural network, the Dense ASPP module, and the first one are used by the gradient descent method. It further includes training each parameter of the detection subnet and the second detection subnet, respectively, and the position of each of the plurality of lesions is output by the first detection subnet.

いくつかの可能な実施例では、第一方面において、前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、予め保存された、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を前記第一ニューラルネットワークに入力し、勾配降下法を使用して前記第二ニューラルネットワーク、前記DenseASPPモジュール、前記第一検出サブネットおよび前記第二検出サブネットの各パラメータをそれぞれ訓練することを、さらに含み、前記複数の病巣のそれぞれの位置は前記第一検出サブネットにより出力される。 In some possible embodiments, on one side, the pre-stored lesions are labeled before extracting the features of the first image and generating a first feature map containing the features and locations of the lesions. A three-dimensional image containing a plurality of lesion labels is input to the first neural network, and the second neural network, the Dense ASPP module, the first detection subnet, and the second are used by using the gradient descent method. The training of each parameter of the detection subnet is further included, and the position of each of the plurality of lesions is output by the first detection subnet.

第二方面で、本開示は、複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得するための取得ユニットと、前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップであって、前記X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成するための第一生成ユニットと、前記第一特徴マップに含まれる特徴の次元削減を行い、前記X軸次元および前記Y軸次元の二次元特徴を含む第二特徴マップを生成するための第二生成ユニットと、前記第二特徴マップを検出し、第二特徴マップにおける各病巣の位置および前記位置に対応する信頼度を得るための検出ユニットと、を含む病巣検出装置を提供する。 In the second direction, the present disclosure is an acquisition unit for acquiring a first image including a plurality of sample sections, which is a three-dimensional image including an X-axis dimension, a Y-axis dimension, and a Z-axis dimension. It is a first feature map that extracts the features of the first image and includes the features and positions of the lesion, and is a first feature map that includes the three-dimensional features of the X-axis dimension, the Y-axis dimension, and the Z-axis dimension. To generate a second feature map containing two-dimensional features of the X-axis dimension and the Y-axis dimension by reducing the dimensions of the features included in the first feature map and the first generation unit for generating the above. Provided is a lesion detection device including a second generation unit, a detection unit for detecting the second feature map, and obtaining the position of each lesion in the second feature map and the reliability corresponding to the position.

いくつかの可能な実施例では、第二方面において、前記取得ユニットは、具体的に、取得された患者のCT画像を第一サンプリング間隔で再サンプリングし、複数のサンプル切片を含む第一画像を生成するために用いられる。 In some possible embodiments, in the second direction, the acquisition unit specifically resamples the acquired CT image of the patient at the first sampling interval and produces the first image containing multiple sample sections. Used to generate.

いくつかの可能な実施例では、第二方面において、前記第一生成ユニットは、具体的に、第一ニューラルネットワークによって前記第一画像をダウンサンプリングし、前記第一画像よりも解像度が低い第三特徴マップを生成することと、前記第二ニューラルネットワークの残差ブロックによって前記第三特徴マップをダウンサンプリングし、前記第三特徴マップよりも解像度が低い第四特徴マップを生成することと、前記第二ニューラルネットワークのDenseASPPモジュールによって前記第四特徴マップにおける異なるスケールの病巣の特徴を抽出することと、前記DenseASPPモジュールによる処理後、前記第四特徴マップと同じ解像度の第四所定特徴マップが生成され、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第三特徴マップと同じ解像度の第三所定特徴マップを生成することと、前記第三特徴マップと前記第三所定特徴マップで前記第三所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第四特徴マップと前記第四所定特徴マップとを融合して前記第四所定特徴マップと同じ解像度の第一特徴マップを生成することとに用いられ、前記第三所定特徴マップおよび前記第四所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 In some possible embodiments, in the second direction, the first generation unit specifically downsamples the first image by a first neural network and has a lower resolution than the first image. To generate a feature map, to downsample the third feature map by the residual block of the second neural network, and to generate a fourth feature map having a lower resolution than the third feature map, and to generate the fourth feature map. After extracting the features of lesions of different scales in the fourth feature map by the DenseASPP module of the two neural networks and processing by the DenseASPP module, a fourth predetermined feature map having the same resolution as the fourth feature map is generated. The feature map after processing by the DenseASPP module is upsampled by the inverse convolution layer of the second neural network and the residual block to generate a third predetermined feature map having the same resolution as the third feature map. The third feature map and the third predetermined feature map generate a first feature map having the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused to generate the fourth feature map. Used to generate a first feature map with the same resolution as the predetermined feature map, the third predetermined feature map and the fourth predetermined feature map each include the location of the lesion, and the location of the lesion is the first feature map. Used to generate the location of lesions in.

いくつかの可能な実施例では、第二方面において、前記第一生成ユニットは、具体的に、第一ニューラルネットワークによって前記第一画像をダウンサンプリングし、前記第一画像よりも解像度が低い第四特徴マップを生成することと、前記第二ニューラルネットワークのDenseASPPモジュールによって前記第四特徴マップにおける異なるスケールの病巣の特徴を抽出することと、前記DenseASPPモジュールによる処理後、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第一画像と同じ解像度の前記第一所定特徴マップを生成することと、前記第一画像と前記第一所定特徴マップで前記第一所定特徴マップと同じ解像度の第一特徴マップを生成することとに用いられ、前記第一所定特徴マップは病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 In some possible embodiments, in the second direction, the first generation unit specifically downsamples the first image by a first neural network and has a lower resolution than the first image. A feature map is generated, features of lesions of different scales in the fourth feature map are extracted by the DenseASPP module of the second neural network, and after processing by the DenseASPP module, the reverse convolution of the second neural network is performed. The layer and the residual block upsample the feature map processed by the DenseASPP module to generate the first predetermined feature map having the same resolution as the first image, and the first image and the first predetermined. Used to generate a first feature map with the same resolution as the first predetermined feature map in the feature map, the first predetermined feature map includes the location of the lesion, and the location of the lesion is the lesion in the first feature map. Used to generate the position of.

いくつかの可能な実施例では、第二方面において、前記第一生成ユニットは、具体的に、第二ニューラルネットワークによって前記第一画像の残差ブロックをダウンサンプリングし、前記第一画像よりも解像度が低い第三特徴マップを生成することと、前記第二ニューラルネットワークの残差ブロックによって前記第三特徴マップをダウンサンプリングし、前記第三特徴マップよりも解像度が低い第四特徴マップを生成することと、前記第二ニューラルネットワークの残差ブロックによって前記第四特徴マップをダウンサンプリングし、前記第四特徴マップよりも解像度が低い第五特徴マップを生成することと、前記第二ニューラルネットワークのDenseASPPモジュールによって前記第五特徴マップにおける異なるスケールの病巣の特徴を抽出することと、前記DenseASPPモジュールによる処理後、前記第五特徴マップと同じ解像度の第五所定特徴マップが生成され、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第四特徴マップと同じ解像度の第四所定特徴マップを生成し、または、前記第二ニューラルネットワークの逆畳み込み層および残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第三特徴マップと同じ解像度の第三所定特徴マップを生成することと、前記第三特徴マップと前記第三所定特徴マップで前記第三所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第四特徴マップと前記第四所定特徴マップとを融合して前記第四所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第五特徴マップと前記第五所定特徴マップとを融合して前記第五所定特徴マップと同じ解像度の第一特徴マップを生成することとに用いられ、前記第三所定特徴マップ、前記第四所定特徴マップおよび前記第五所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 In some possible embodiments, in the second direction, the first generation unit specifically downsamples the residual block of the first image by a second neural network and has a higher resolution than the first image. To generate a third feature map with a lower resolution, and to downsample the third feature map by the residual block of the second neural network to generate a fourth feature map with a lower resolution than the third feature map. Then, the fourth feature map is downsampled by the residual block of the second neural network to generate a fifth feature map having a lower resolution than the fourth feature map, and the DenseASPP module of the second neural network. After extracting the features of lesions of different scales in the fifth feature map and processing by the DenseASPP module, a fifth predetermined feature map having the same resolution as the fifth feature map is generated, and the second neural network The reverse convolution layer and the residual block upsample the feature map processed by the DenseASPP module to generate a fourth predetermined feature map with the same resolution as the fourth feature map, or the inverse of the second neural network. The feature map after processing by the DenseASPP module is upsampled by the convolution layer and the residual block to generate a third predetermined feature map having the same resolution as the third feature map, and the third feature map and the third feature map. A first feature map having the same resolution as the third predetermined feature map is generated from the predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused to form a first feature map having the same resolution as the fourth predetermined feature map. One feature map is generated, and the fifth feature map and the fifth predetermined feature map are fused to generate a first feature map having the same resolution as the fifth predetermined feature map. The predetermined feature map, the fourth predetermined feature map, and the fifth predetermined feature map each include the position of the lesion, and the position of the lesion is used to generate the position of the lesion in the first feature map.

いくつかの可能な実施例では、第二方面において、前記第一ニューラルネットワークは、畳み込み層および前記畳み込み層にカスケード接続される残差ブロックを含み、前記第二ニューラルネットワークは、畳み込み層、逆畳み込み層、残差ブロックおよび前記DenseASPPモジュールを含む3D U-Netネットワークを含む。 In some possible embodiments, in the second direction, the first neural network comprises a convolution layer and a residual block cascaded to the convolution layer, the second neural network is a convolution layer, a deconvolution. Includes a 3D U-Net network containing layers, residual blocks and the DenseASPP module.

いくつかの可能な実施例では、第二方面において、前記第二ニューラルネットワークは積み上げられている複数の3D U-Netネットワークである。 In some possible embodiments, in the second direction, the second neural network is a stack of 3D U-Net networks.

いくつかの可能な実施例では、第二方面において、前記残差ブロックは、畳み込み層、バッチ正規化層、ReLU活性化関数および最大プーリング層を含む。 In some possible embodiments, in the second direction, the residual block comprises a convolutional layer, a batch normalization layer, a ReLU activation function and a maximal pooling layer.

いくつかの可能な実施例では、第二方面において、前記第三特徴ユニットは、具体的に、前記第一特徴マップの全ての特徴のそれぞれに対してチャネル次元とZ軸次元とをマージして、前記第一特徴マップの全ての特徴のそれぞれの次元をX軸次元およびY軸次元からなるものにし、前記全ての特徴のそれぞれの次元がX軸次元およびY軸次元からなる第一特徴マップを前記第二特徴マップとするために用いられる。 In some possible embodiments, in the second direction, the third feature unit specifically merges the channel dimension and the Z-axis dimension for each of all the features in the first feature map. , A first feature map in which each dimension of all features of the first feature map consists of X-axis dimensions and Y-axis dimensions, and each dimension of all the features consists of X-axis dimensions and Y-axis dimensions. It is used to make the second feature map.

いくつかの可能な実施例では、第二方面において、前記検出ユニットは、具体的に、第一検出サブネットによって前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣の位置の座標を得ることと、第二検出サブネットによって前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣に対応する信頼度を得ることとに用いられる。 In some possible embodiments, in the second direction, the detection unit specifically detects the second feature map by the first detection subnet and coordinates the position of each lesion in the second feature map. It is used to obtain and to detect the second feature map by the second detection subnet and to obtain the reliability corresponding to each lesion in the second feature map.

いくつかの可能な実施例では、第二方面において、前記第一検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含み、前記第二検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含む。 In some possible embodiments, in the second direction, the first detection subnet comprises a plurality of convolution layers, each connected to one ReLU activation function, and the second detection subnet is one each. Includes multiple convolution layers connected with one ReLU activation function.

いくつかの可能な実施例では、第二方面において、訓練ユニットをさらに含み、前記訓練ユニットは、具体的に、前記第一生成ユニットが前記第一画像の特徴を抽出し、病巣の特徴が含まれる第一特徴マップを生成する前に、予め保存された、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を前記第一ニューラルネットワークに入力し、勾配降下法を使用して前記第一ニューラルネットワーク、前記第二ニューラルネットワーク、前記第一検出サブネットおよび前記第二検出サブネットの各パラメータをそれぞれ訓練するために用いられ、前記複数の病巣のそれぞれの位置は前記第一検出サブネットにより出力される。 In some possible embodiments, in the second direction, the training unit further comprises, in particular, the first generation unit extracting the features of the first image and including the features of the lesion. Before generating the first feature map, a pre-stored three-dimensional image containing multiple lesion labels for labeling the lesion is input to the first neural network and the gradient descent method is used. Used to train the parameters of the first neural network, the second neural network, the first detection subnet and the second detection subnet, respectively, and the position of each of the plurality of lesions is determined by the first detection subnet. It is output.

いくつかの可能な実施例では、第二方面において、訓練ユニットをさらに含み、前記訓練ユニットは、具体的に、前記第一生成ユニットが前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を前記第二ニューラルネットワークに入力し、勾配降下法を使用して前記第二ニューラルネットワーク、前記第一検出サブネットおよび前記第二検出サブネットの各パラメータをそれぞれ訓練するために用いられ、前記複数の病巣のそれぞれの位置は前記第一検出サブネットにより出力される。 In some possible embodiments, in the second direction, the training unit further comprises, in particular, the first generation unit extracting the features of the first image, the features and location of the lesion. Before generating the first feature map containing the above, a three-dimensional image containing a plurality of lesion labels for labeling the lesion is input to the second neural network, and the second It is used to train the parameters of the neural network, the first detection subnet and the second detection subnet, respectively, and the position of each of the plurality of lesions is output by the first detection subnet.

第三方面で、本開示は、互いに接続されるプロセッサ、ディスプレイおよびメモリを含む病巣検出機器であって、前記ディスプレイは病巣の位置および前記位置に対応する信頼度を表示するために用いられ、前記メモリはアプリケーションプログラムコードを記憶するために用いられ、前記プロセッサは前記プログラムコードを呼び出すことによって上記第一方面の病巣検出方法を実行するように構成される病巣検出機器を提供する。 In the third direction, the present disclosure is a lesion detection device including a processor, a display and a memory connected to each other, wherein the display is used to display the location of the lesion and the reliability corresponding to the location. The memory is used to store the application program code, and the processor provides a lesion detection device configured to execute the one-sided lesion detection method by calling the program code.

第四方面で、本開示は、命令を含む一つ以上のコンピュータプログラムを記憶するためのコンピュータ読取可能記憶媒体であって、上記コンピュータプログラムはコンピュータにおいて実行されると、上記命令は第一方面の病巣検出方法を実行させるために用いられるコンピュータ読取可能記憶媒体を提供する。 In the fourth aspect, the present disclosure is a computer-readable storage medium for storing one or more computer programs including instructions, and when the computer program is executed on a computer, the instructions are on the first side. Provided is a computer-readable storage medium used to carry out a lesion detection method.

第五方面で、本開示は、病巣検出命令を含むコンピュータプログラムであって、該コンピュータプログラムがコンピュータにおいて実行されると、上記病巣検出命令は上記第一方面が提供する病巣検出方法を実行させるために用いられるコンピュータプログラムを提供する。 In the fifth aspect, the present disclosure is a computer program including a lesion detection instruction, and when the computer program is executed in a computer, the lesion detection instruction causes the lesion detection method provided by the first aspect to be executed. Provides computer programs used in.

本開示は病巣検出方法、装置、機器および記憶媒体を提供する。まず、複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得する。さらに、第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップであって、X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成する。続いて、第一特徴マップに含まれる特徴の次元削減を行い、X軸次元およびY軸次元の二次元特徴を含む第二特徴マップを生成する。最後に、第二特徴マップの特徴を検出し、第二特徴マップにおける各病巣の特徴および位置に対応する信頼度を得る。本開示を採用すれば、患者体内の複数の部位の病巣状況を正確に検出し、患者全身にわたって癌を予備的に評価することができる。 The present disclosure provides lesion detection methods, devices, devices and storage media. First, a first image including a plurality of sample sections and a three-dimensional image including an X-axis dimension, a Y-axis dimension, and a Z-axis dimension is acquired. Furthermore, the features of the first image are extracted, and a first feature map including the features and positions of the lesion, which includes three-dimensional features of the X-axis dimension, the Y-axis dimension, and the Z-axis dimension, is generated. do. Subsequently, the dimension reduction of the features included in the first feature map is performed, and the second feature map including the two-dimensional features of the X-axis dimension and the Y-axis dimension is generated. Finally, the features of the second feature map are detected and the reliability corresponding to the features and positions of each lesion in the second feature map is obtained. By adopting the present disclosure, it is possible to accurately detect the lesion status of a plurality of sites in a patient and to preliminarily evaluate cancer throughout the patient.

以下、本開示の実施例の解決手段をより明確に説明するために、実施例の説明に必要な図面を簡単に説明する。下記の図面が本開示のいくつかの実施例であり、当業者であれば、創造的な労力を要することなく、これらの図面に基づいて他の図面を想到できることは明らかである。
図1は、本開示が提供する病巣検出システムのネットワークアーキテクチャの模式図である。 図2は、本開示が提供する病巣検出方法の模式的フローチャートである。 図3は、本開示が提供する病巣検出装置の模式的ブロック図である。 図4は、本開示が提供する病巣検出機器の模式的構成図である。
Hereinafter, in order to more clearly explain the means for solving the embodiments of the present disclosure, the drawings necessary for explaining the embodiments will be briefly described. It is clear that the drawings below are some embodiments of the present disclosure and that one of ordinary skill in the art can conceive other drawings based on these drawings without any creative effort.
FIG. 1 is a schematic diagram of the network architecture of the lesion detection system provided in the present disclosure. FIG. 2 is a schematic flowchart of the lesion detection method provided in the present disclosure. FIG. 3 is a schematic block diagram of the lesion detection device provided by the present disclosure. FIG. 4 is a schematic configuration diagram of the lesion detection device provided by the present disclosure.

以下、本開示における図面を参照しながら、本開示における技術的解決手段を明確に、完全に説明する。説明される実施例は、本開示の実施例の一部に過ぎず、全ての実施例ではない。本開示における実施例に基づき、当業者が創造的な労力を要せずに得られた他の全ての実施例は、いずれも本開示の保護範囲に属する。 Hereinafter, the technical solutions in the present disclosure will be clearly and completely described with reference to the drawings in the present disclosure. The examples described are only a part of the examples of the present disclosure and are not all examples. All other examples obtained by those skilled in the art based on the examples in the present disclosure without the need for creative effort are all within the scope of the present disclosure.

本明細書および添付の特許請求の範囲において使用される用語「含む」および「含まれる」は、説明される特徴、全体、ステップ、操作、要素および/またはコンポーネントが存在することを意味するが、一つ以上の他の特徴、全体、ステップ、操作、要素、コンポーネントおよび/またはそれらの群の存在または追加を除外しないことが理解されたい。 As used herein and in the appended claims, the terms "included" and "included" mean that the features, whole, steps, operations, elements and / or components described are present. It should be understood that it does not exclude the existence or addition of one or more other features, whole, steps, operations, elements, components and / or groups thereof.

本開示の明細書において使用される用語は、特定の実施例を説明するためのものにすぎず、本開示を限定するものではないことも理解されたい。本開示の明細書および添付の特許請求の範囲において使用される単数形「一」、「一つ」および「該」は、文脈により明確に示さない限り、複数形も含むことが理解されたい。 It should also be understood that the terms used herein are merely intended to describe a particular embodiment and are not intended to limit this disclosure. It is to be understood that the singular forms "one", "one" and "the" as used in the specification of the present disclosure and the appended claims also include the plural, unless the context clearly indicates.

本開示の明細書および添付の特許請求の範囲において使用される用語「および/または」は、関連して列挙された項目の一つ以上の任意の組み合わせおよび全ての可能な組み合わせを意味し、かつこれらの組み合わせを含むことも理解されたい。 As used in the specification and the appended claims of the present disclosure, the terms "and / or" mean any combination of one or more of the items listed in connection and all possible combinations. It should also be understood that these combinations are included.

本明細書および添付の特許請求の範囲において使用される用語「場合」は、文脈により「…時」または「…すると」または「決定/特定/判定に応じて」または「検出に応じて」という意味に解釈され得る。同様に、語句「決定/特定/判定された場合」または「[記載された条件またはイベント]が検出された場合」は文脈により「決定/特定/判定すると」または「決定/特定/判定に応じて」または「[説明された条件またはイベント]が検出されると」または「[説明された条件またはイベント]の検出に応じて」という意味に解釈され得る。 The term "case" as used herein and in the appended claims is referred to as "... hour" or "... then" or "as determined / specified / determined" or "as detected", depending on the context. Can be interpreted as meaning. Similarly, the phrase "when determined / specified / determined" or "when [stated condition or event] is detected" is "determined / specified / determined" or "determined / specified / determined" depending on the context. Can be interpreted as "when" or "when [explained condition or event] is detected" or "in response to the detection of [explained condition or event]".

具体的な実現において、本開示に記載の機器は、タッチ感知面(例えば、タッチスクリーンディスプレイおよび/またはタッチパネル)を有するラップトップ型コンピュータまたはタブレットコンピュータのような他の携帯機器を含むが、これらに限定されない。なお、いくつかの実施例において、前記機器は携帯通信機器ではなく、タッチ感知面(例えば、タッチスクリーンディスプレイおよび/またはタッチパネル)を有するデスクトップコンピュータであることも理解されたい。 In a specific implementation, the devices described in the present disclosure include, but include, other portable devices such as laptop computers or tablet computers having touch sensitive surfaces (eg, touch screen displays and / or touch panels). Not limited. It should also be appreciated that in some embodiments, the device is not a portable communication device, but a desktop computer having a touch sensing surface (eg, a touch screen display and / or a touch panel).

以下、ディスプレイおよびタッチ感知面を含む機器について説明する。機器は物理キーボード、マウスおよび/またはジョイスティックなどの一つ以上の他の物理ユーザインタフェースデバイスを含み得ることが理解されたい。 Hereinafter, the device including the display and the touch sensing surface will be described. It should be understood that the device may include one or more other physical user interface devices such as a physical keyboard, mouse and / or joystick.

機器は、様々なアプリケーション、例えば、描画アプリケーション、デモアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、webブラウジングアプリケーション、デジタル音楽プレーヤアプリケーションおよび/またはデジタルビデオプレーヤアプリケーションの一つ以上をサポートする。 Devices include various applications such as drawing applications, demo applications, word processing applications, website creation applications, disk authoring applications, spreadsheet applications, gaming applications, phone applications, video conferencing applications, email applications, instant messaging applications, etc. Supports one or more of training support applications, photo management applications, digital camera applications, digital video camera applications, web browsing applications, digital music player applications and / or digital video player applications.

機器上で実行可能である様々なアプリケーションは、タッチ感知面などの少なくとも一つの共通の物理的ユーザインタフェースデバイスを使用してもよい。タッチ感知面の一つ以上の機能および機器上に表示される対応する情報は、アプリケーション間および/または対応するアプリケーション内で調整および/または変更されてもよい。このようにして、機器の共通の物理アーキテクチャ(例えば、タッチ感知面)は、ユーザにとって直感的かつ透過的なユーザインタフェースを有する様々なアプリケーションをサポートできる。 Various applications that can be run on the device may use at least one common physical user interface device, such as a touch sensitive surface. One or more functions of the touch-sensitive surface and the corresponding information displayed on the device may be coordinated and / or changed between and / or within the corresponding application. In this way, the device's common physical architecture (eg, touch-sensitive surface) can support a variety of applications with user-intuitive and transparent user interfaces.

以下、本開示をより明確に理解するために、本開示に適するネットワークアーキテクチャを説明する。図1は本開示が提供する病巣検出システムの模式図である。図1に示すように、システム10は、第一ニューラルネットワーク101、第二ニューラルネットワーク102、および検出サブネット(Detection Subnet)103を含むようにしてもよい。 In order to understand the present disclosure more clearly, the network architecture suitable for the present disclosure will be described below. FIG. 1 is a schematic diagram of a lesion detection system provided by the present disclosure. As shown in FIG. 1, the system 10 may include a first neural network 101, a second neural network 102, and a detection subnet 103.

本開示の実施例では、病巣とは、病原性因子の影響で病変がある組織または器官の部位をいい、病変がある生体の部分である。例えば、人体の肺のある部分が結核菌により破壊されたら、この部分は肺結核症の病巣となる。 In the examples of the present disclosure, a lesion refers to a part of a tissue or organ having a lesion due to the influence of a virulence factor, and is a part of a living body having a lesion. For example, if a part of the lungs of the human body is destroyed by Mycobacterium tuberculosis, this part becomes a lesion of pulmonary tuberculosis.

説明したいのは、第一ニューラルネットワーク101は、畳み込み層(Conv1)および畳み込み層にカスケード接続される残差ブロック(SEResBlock)を含む。そのうち、残差ブロックは、バッチ正規化層(Batch Normalization、BN)、修正線形ユニット(ReLU)活性化関数および最大プーリング層(Max-pooling)を含むようにしてもよい。 I would like to explain that the first neural network 101 includes a convolution layer (Conv1) and a residual block (SEResBlock) cascaded to the convolution layer. Among them, the residual block may include a batch normalization layer (Batch Normalization, BN), a modified linear unit (ReLU) activation function and a maximum pooling layer (Max-polling).

そのうち、第一ニューラルネットワーク101は、第一ニューラルネットワーク101に入力される第一画像をX軸次元およびY軸次元でダウンサンプリングし、第三特徴マップを生成するために用いられることができる。説明したいのは、第一画像は、X軸次元、Y軸次元およびZ軸次元を含む三次元画像(つまり、第一画像は、X軸次元、Y軸次元を含む複数の二次元画像により構成され、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である)であり、例えば、第一画像は512*512*9の三次元画像であってもよい。 Among them, the first neural network 101 can be used to downsample the first image input to the first neural network 101 in the X-axis dimension and the Y-axis dimension to generate a third feature map. I would like to explain that the first image is a three-dimensional image including the X-axis dimension, the Y-axis dimension, and the Z-axis dimension (that is, the first image is composed of a plurality of two-dimensional images including the X-axis dimension and the Y-axis dimension. It is a three-dimensional image including the X-axis dimension, the Y-axis dimension, and the Z-axis dimension). For example, the first image may be a 512 * 512 * 9 three-dimensional image.

具体的には、第一ニューラルネットワーク101は、畳み込み層の畳み込みカーネルによって第一画像を処理して特徴マップを生成し、さらに、残差ブロックによって特定の特徴マップをプーリングし、第一画像よりも解像度が低い第三特徴マップを生成するようにしてもよい。例として、第一ニューラルネットワーク101によって512*512*9の三次元画像を処理して256*256*9の三次元画像を得てもよく、または第一ニューラルネットワーク101によって512*512*9の三次元画像を処理して128*128*9の三次元画像を得てもよい。ダウンサンプリングにより、入力される第一画像に含まれる病巣特徴を抽出し、第一画像内の不要な領域の一部を除去することができる。 Specifically, the first neural network 101 processes the first image by the convolution kernel of the convolution layer to generate a feature map, and further pools a specific feature map by the residual block to better than the first image. A third feature map with low resolution may be generated. As an example, the 3D image of 512 * 512 * 9 may be processed by the first neural network 101 to obtain the 3D image of 256 * 256 * 9, or the 3D image of 512 * 512 * 9 may be obtained by the first neural network 101. A 3D image may be processed to obtain a 128 * 128 * 9 3D image. By downsampling, it is possible to extract the lesion features contained in the input first image and remove a part of the unnecessary region in the first image.

説明したいのは、本開示の実施例におけるダウンサンプリングは、第一画像を表示領域の大きさに合わせるように第一画像のサムネイルを生成するために用いられる。本開示の実施例におけるアップサンプリングは、補間により元画像の画素間に新しい画素を挿入して元画像を拡大するために用いられる。これは小さな病巣の検出に有用である。 It is intended to explain that downsampling in the embodiments of the present disclosure is used to generate thumbnails of the first image to fit the size of the display area. The upsampling in the embodiments of the present disclosure is used to insert new pixels between the pixels of the original image by interpolation to enlarge the original image. This is useful for detecting small lesions.

以下、一例を挙げて本開示の実施例におけるダウンサンプリングを簡単に説明する。例えば、サイズがM*Nの画像IをS倍ダウンサンプリングして、(M/S)*(N/S)サイズの解像度の画像を得ることができる。つまり、元画像IのS*Sウィンドウ内の画像を一つの画素とし、ここで、該画素の画素値は該S*Sウィンドウ内の全ての画素の最大値である。ここで、水平方向または垂直方向にスライドするストライド(Stride)は2としてもよい。 Hereinafter, downsampling in the examples of the present disclosure will be briefly described with reference to an example. For example, an image I having a size of M * N can be downsampled by S times to obtain an image having a resolution of (M / S) * (N / S). That is, the image in the S * S window of the original image I is regarded as one pixel, and the pixel value of the pixel is the maximum value of all the pixels in the S * S window. Here, the stride that slides in the horizontal direction or the vertical direction may be 2.

第二ニューラルネットワーク102は、積み上げられている四つの3D U-netネットワークを含むようにしてもよい。3D U-netネットワークの展開図は図1の104に示される。複数の3D U-netネットワークで検出することにより、検出の正確性を向上させることができる。本開示の実施例における3D U-netネットワークの数は、例示的なものに過ぎず、限定するものではない。ここで、3D U-Netネットワークは、畳み込み層(conv)、逆畳み込み層(deconv)、残差ブロックおよびDenseASPPモジュールを含む。 The second neural network 102 may include four stacked 3D U-net networks. A development of the 3D U-net network is shown in FIG. 104. By detecting in a plurality of 3D U-net networks, the accuracy of detection can be improved. The number of 3D U-net networks in the examples of the present disclosure is exemplary only and is not limited. Here, the 3D U-Net network includes a convolution layer (conv), a deconvolution layer (deconv), a residual block and a DenseASPP module.

そのうち、第二ニューラルネットワーク102の残差ブロックは、第一ニューラルネットワーク101から出力される第三特徴マップをX軸次元およびY軸次元でダウンサンプリングし、第四特徴マップを生成するために用いることができる。 Among them, the residual block of the second neural network 102 is used to downsample the third feature map output from the first neural network 101 in the X-axis dimension and the Y-axis dimension to generate the fourth feature map. Can be done.

また、第二ニューラルネットワーク102の残差ブロックは、第四特徴マップをX軸次元およびY軸次元でダウンサンプリングし、第五特徴マップを生成するために用いることもできる。 The residual block of the second neural network 102 can also be used to downsample the fourth feature map in the X-axis dimension and the Y-axis dimension to generate the fifth feature map.

続いて、第二ニューラルネットワーク102のDenseASPPモジュールによって第五特徴マップにおける異なるスケールの病巣の特徴を抽出する。 Subsequently, the DenseASPP module of the second neural network 102 extracts the features of the lesions of different scales in the fifth feature map.

DenseASPPモジュールによる処理後、第五特徴マップと同じ解像度の第五所定特徴マップが生成され、前記第二ニューラルネットワーク102の逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第四特徴マップと同じ解像度の第四所定特徴マップを生成し、または、前記第二ニューラルネットワーク102の逆畳み込み層および残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第三特徴マップと同じ解像度の第三所定特徴マップを生成する。 After processing by the DenseASPP module, a fifth predetermined feature map having the same resolution as the fifth feature map is generated, and the feature map after processing by the DenseASPP module is uploaded by the deconvolution layer of the second neural network 102 and the residual block. Sampling to generate a fourth predetermined feature map with the same resolution as the fourth feature map, or upsampling the feature map processed by the DenseASPP module with the deconvolution layer and residual block of the second neural network 102. Then, a third predetermined feature map having the same resolution as the third feature map is generated.

第三特徴マップと第三所定特徴マップとを融合(concat)して第三所定特徴マップと同じ解像度の第一特徴マップを生成し、第四特徴マップと第四所定特徴マップとを融合して第四所定特徴マップと同じ解像度の第一特徴マップを生成し、第五特徴マップと第五所定特徴マップとを融合して第五所定特徴マップと同じ解像度の第一特徴マップを生成する。ここで、前記第三所定特徴マップ、前記第四所定特徴マップおよび前記第五所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 A first feature map with the same resolution as the third predetermined feature map is generated by concating the third feature map and the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused. A first feature map having the same resolution as the fourth predetermined feature map is generated, and the fifth feature map and the fifth predetermined feature map are fused to generate a first feature map having the same resolution as the fifth predetermined feature map. Here, the third predetermined feature map, the fourth predetermined feature map, and the fifth predetermined feature map each include the position of the lesion, and the position of the lesion is used to generate the position of the lesion in the first feature map. Be done.

説明したいのは、DenseASPPモジュールは、カスケード接続されている5つの異なる拡張率の拡張畳み込みを含み、異なるスケールの病巣の特徴を抽出することができる。ここで、5つの異なる拡張率(dilate)の拡張畳み込みは、それぞれ拡張率d=3の拡張畳み込み、拡張率d=6の拡張畳み込み、拡張率d=12の拡張畳み込み、拡張率d=18の拡張畳み込み、および拡張率d=24の拡張畳み込みである。 I would like to explain that the DenseASPP module contains 5 different expansion convolutions cascaded and can extract features of lesions of different scales. Here, the expansion convolutions of the five different expansion rates (dilate) are the expansion convolution of the expansion rate d = 3, the expansion convolution of the expansion rate d = 6, the expansion convolution of the expansion rate d = 12, and the expansion rate d = 18, respectively. Extended convolution and extended convolution with an expansion rate d = 24.

検出サブネット103は、第一検出サブネットおよび第二検出サブネットを含むようにしてもよい。第一検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含む。同様に、第二検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含む。 The detection subnet 103 may include a first detection subnet and a second detection subnet. The first detection subnet contains a plurality of convolution layers, each connected to one ReLU activation function. Similarly, the second detection subnet contains a plurality of convolution layers, each connected to one ReLU activation function.

第一検出サブネットは、第一特徴マップが次元削減された第二特徴マップを検出し、第二特徴マップにおける各病巣の位置の座標を得るために用いられる。 The first detection subnet is used to detect the second feature map with the first feature map dimensionally reduced and to obtain the coordinates of the position of each lesion in the second feature map.

具体的には、第一検出サブネットのカスケード接続されている4つの畳み込み層によって、入力される第二特徴マップを処理し、第二特徴マップにおける各病巣の位置を特定する。ここで、各畳み込み層はそれぞれ一つのY*Yの畳み込みカーネルを含み、各病巣の左上隅の座標(x1,y1)および病巣の右下隅の座標(x2,y2)を順に取得することで、第二特徴マップにおける各病巣の位置を特定するようにしてもよい。 Specifically, the input second feature map is processed by the four convolutional layers cascaded in the first detection subnet to identify the location of each lesion in the second feature map. Here, each convolution layer contains one Y * Y convolution kernel, and by acquiring the coordinates (x1, y1) of the upper left corner of each lesion and the coordinates (x2, y2) of the lower right corner of the lesion in order, The location of each lesion in the second feature map may be specified.

第二検出サブネットによって上記第二特徴マップを検出し、第二特徴マップにおける各病巣に対応する信頼度を得る。 The second feature map is detected by the second detection subnet, and the reliability corresponding to each lesion in the second feature map is obtained.

具体的には、第二検出サブネットのカスケード接続されている4つの畳み込み層によって、入力される第二特徴マップを処理し、第二特徴マップにおける各病巣の位置を特定し、さらに、該位置に対応する信頼度を出力する。ここで、各畳み込み層はそれぞれ一つのY*Yの畳み込みカーネルを含み、各病巣の左上隅の座標(x1,y1)および病巣の右下隅の座標(x2,y2)を順に取得することで、第二特徴マップにおける各病巣の位置を特定し、さらに、該位置に対応する信頼度を出力するようにしてもよい。 Specifically, the input second feature map is processed by the four convolutional layers cascaded in the second detection subnet, the position of each lesion in the second feature map is identified, and further, at that position. Output the corresponding reliability. Here, each convolution layer contains one Y * Y convolution kernel, and by acquiring the coordinates (x1, y1) of the upper left corner of each lesion and the coordinates (x2, y2) of the lower right corner of the lesion in order, The position of each lesion in the second feature map may be specified, and the reliability corresponding to the position may be output.

説明したいのは、本開示の実施例において位置に対応する信頼度は、該位置が病巣であることをユーザが信じる程度を示す。例えば、ある病巣の位置の信頼度は90%である。 It is intended to explain that in the embodiments of the present disclosure, the reliability corresponding to a position indicates the degree to which the user believes that the position is a lesion. For example, the reliability of the location of a lesion is 90%.

以上の記載によければ、患者体内の複数の部位の病巣状況を正確に検出し、患者全身にわたって癌を予備的に評価することができる。 According to the above description, it is possible to accurately detect the lesion status of a plurality of sites in the patient and to preliminarily evaluate the cancer throughout the patient.

説明したいのは、第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、さらに、以下のステップを含む。 What I would like to explain is to further include the following steps before extracting the features of the first image and generating a first feature map containing the features and locations of the lesions.

予め保存された、病巣をラベリングする(例えば、ボックスの形で病巣をラベリングし、また、該病巣の位置の座標でラベリングする)ための病巣ラベルが複数含まれている三次元画像を、前記第一ニューラルネットワークに入力し、勾配降下法を使用して第一ニューラルネットワーク、第二ニューラルネットワーク、第一検出サブネットおよび第二検出サブネットの各パラメータをそれぞれ訓練する。ここで、複数の病巣のそれぞれの位置は第一検出サブネットにより出力される。
説明したいのは、勾配降下法による各パラメータの訓練において、逆伝播アルゴリズムで勾配降下法の勾配を計算するようにしてもよい。
The first three-dimensional image containing a plurality of pre-stored lesion labels for labeling the lesion (for example, labeling the lesion in the form of a box and labeling at the coordinates of the position of the lesion). One input to the neural network and the gradient descent method is used to train the parameters of the first neural network, the second neural network, the first detection subnet and the second detection subnet, respectively. Here, the position of each of the plurality of lesions is output by the first detection subnet.
I would like to explain that in the training of each parameter by the gradient descent method, the gradient descent method may be calculated by the back propagation algorithm.

または、予め保存された、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を第二ニューラルネットワークに入力し、勾配降下法を使用して第二ニューラルネットワーク、第一検出サブネットおよび第二検出サブネットの各パラメータをそれぞれ訓練する。ここで、複数の病巣のそれぞれの位置は第一検出サブネットにより出力される。 Alternatively, a pre-stored 3D image containing multiple lesion labels for labeling the lesion can be input into the second neural network and the gradient descent method can be used to enter the second neural network, the first detection subnet and Train each parameter of the second detection subnet individually. Here, the position of each of the plurality of lesions is output by the first detection subnet.

図2は本開示が提供する病巣検出方法の模式的フローチャートである。可能な一実施形態では、前記病巣検出方法は、ユーザ側装置(User Equipment、UE)、携帯機器、ユーザ端末、端末、コードレス電話、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、手持ちの機器、計算装置、車載装置、ウエアラブル装置等の端末装置、又は、サーバ等の電子機器により実行されてもよい。前記方法は、プロセッサによってメモリに記憶されているコンピュータ読取可能コマンドを呼び出すことで実現されてもよい。または、前記方法は、サーバによって実行されてもよい。 FIG. 2 is a schematic flowchart of the lesion detection method provided in the present disclosure. In one possible embodiment, the lesion detection method is a user-side device (User Equipment, UE), a mobile device, a user terminal, a terminal, a cordless telephone, a personal digital assistant (PDA), a hand-held device. , A terminal device such as a computing device, an in-vehicle device, a wearable device, or an electronic device such as a server. The method may be realized by calling a computer-readable command stored in memory by the processor. Alternatively, the method may be performed by the server.

図2に示すように、該方法は少なくとも以下のステップを含むようにしてもよい。 As shown in FIG. 2, the method may include at least the following steps.

S201:複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得する。 S201: A first image including a plurality of sample sections, which is a three-dimensional image including an X-axis dimension, a Y-axis dimension, and a Z-axis dimension, is acquired.

具体的には、選択可能な一実施形態において、取得された患者のCT画像を第一サンプリング間隔で再サンプリングし、複数のサンプル切片を含む第一画像を生成する。ここで、患者のCT画像は、各層の厚さがそれぞれ2.0mmである130層の断層を含み、X軸次元、Y軸次元での第一サンプリング間隔は2.0mmであるようにしてもよい。 Specifically, in one selectable embodiment, the acquired CT images of the patient are resampled at the first sampling interval to generate a first image containing a plurality of sample sections. Here, even if the CT image of the patient contains 130 tomographic faults in which the thickness of each layer is 2.0 mm, and the first sampling interval in the X-axis dimension and the Y-axis dimension is 2.0 mm. good.

本開示の実施例では、患者のCT画像は、患者の組織または器官に関する、複数の断層を含む一つのスキャンシーケンスであり、断層の数は130としてもよい。 In the embodiments of the present disclosure, the CT image of the patient is a single scan sequence containing multiple toms with respect to the patient's tissue or organ, and the number of toms may be 130.

病巣とは、病原性因子の影響で病変がある患者の組織または器官の部位をいい、病変がある生体の部分である。例えば、人体の肺のある部分が結核菌により破壊されたら、この部分は肺結核症の病巣となる。 A lesion is a part of a tissue or organ of a patient who has a lesion due to the influence of a virulence factor, and is a part of a living body having a lesion. For example, if a part of the lungs of the human body is destroyed by Mycobacterium tuberculosis, this part becomes a lesion of pulmonary tuberculosis.

説明したいのは、第一画像は、X軸次元、Y軸次元およびZ軸次元を含む三次元画像(つまり、第一画像は、X軸次元、Y軸次元を含むN枚の二次元画像により構成され、X軸次元、Y軸次元およびZ軸次元を含む三次元画像であり、ここで、Nは2以上であり、各二次元画像は被検出組織の異なる位置における横断面画像である)であり、例えば、第一画像は512*512*9の三次元画像であってもよい。 I would like to explain that the first image is a three-dimensional image including the X-axis dimension, the Y-axis dimension, and the Z-axis dimension (that is, the first image is composed of N two-dimensional images including the X-axis dimension and the Y-axis dimension. It is a three-dimensional image that is configured and includes the X-axis dimension, the Y-axis dimension, and the Z-axis dimension, where N is 2 or more, and each two-dimensional image is a cross-sectional image at a different position of the detected tissue). For example, the first image may be a 512 * 512 * 9 three-dimensional image.

説明したいのは、CT画像を再サンプリングする前に、さらに、閾値法によりCT画像中の余分な背景を除去するステップを含むようにしてもよい。 I would like to explain that before resampling the CT image, it may further include a step of removing the extra background in the CT image by the threshold method.

S202:第一画像の特徴を抽出し、病巣の特徴が含まれ、前記X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成する。 S202: The features of the first image are extracted, the features of the lesion are included, and the first feature map including the three-dimensional features of the X-axis dimension, the Y-axis dimension, and the Z-axis dimension is generated.

具体的には、第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成することは、以下のケースを含んでもよいが、それらに限定されない。 Specifically, extracting the features of the first image and generating a first feature map containing the features and locations of the lesions may include, but is not limited to, the following cases.

ケース1:第一ニューラルネットワークによって第一画像をダウンサンプリングし、第三特徴マップを生成する。 Case 1: The first image is downsampled by the first neural network to generate a third feature map.

第二ニューラルネットワークの残差ブロックによって第三特徴マップをダウンサンプリングし、第四特徴マップを生成する。 The third feature map is downsampled by the residual block of the second neural network to generate the fourth feature map.

第二ニューラルネットワークのDenseASPPモジュールによって第四特徴マップにおける異なるスケールの病巣の特徴を抽出する。 The DenseASPP module of the second neural network extracts the features of lesions of different scales in the fourth feature map.

DenseASPPモジュールによる処理後、第四特徴マップと同じ解像度の第四所定特徴マップが生成され、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第三特徴マップと同じ解像度の第三所定特徴マップを生成する。 After processing by the DenseASPP module, a fourth predetermined feature map with the same resolution as the fourth feature map is generated, and the feature map processed by the DenseASPP module is upsampled by the deconvolution layer and residual block of the second neural network. (3) Generate a third predetermined feature map with the same resolution as the feature map.

第三特徴マップと第三所定特徴マップで第三所定特徴マップと同じ解像度の第一特徴マップを生成し、第四特徴マップと第四所定特徴マップとを融合して第四所定特徴マップと同じ解像度の第一特徴マップを生成する。ここで、第三所定特徴マップおよび第四所定特徴マップはそれぞれ病巣の位置を含み、病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 The third feature map and the third predetermined feature map generate a first feature map with the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused to be the same as the fourth predetermined feature map. Generate a first feature map of resolution. Here, the third predetermined feature map and the fourth predetermined feature map each include the position of the lesion, and the position of the lesion is used to generate the position of the lesion in the first feature map.

ケース2:第二ニューラルネットワークの残差ブロックによって第一画像をダウンサンプリングし、第四特徴マップを生成する。 Case 2: The first image is downsampled by the residual block of the second neural network to generate the fourth feature map.

第二ニューラルネットワークのDenseASPPモジュールによって第四特徴マップにおける異なるスケールの病巣の特徴を抽出する。 The DenseASPP module of the second neural network extracts the features of lesions of different scales in the fourth feature map.

DenseASPPモジュールによる処理後、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第一画像と同じ解像度の第一所定特徴マップを生成する。 After processing by the DenseASPP module, the feature map processed by the DenseASPP module is upsampled by the deconvolution layer and the residual block of the second neural network, and the first predetermined feature map having the same resolution as the first image is generated.

前記第一画像と第一所定特徴マップで第一所定特徴マップと同じ解像度の第一特徴マップを生成する。ここで、第一所定特徴マップは病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 The first image and the first predetermined feature map generate a first feature map having the same resolution as the first predetermined feature map. Here, the first predetermined feature map includes the location of the lesion, and the location of the lesion is used to generate the location of the lesion in the first feature map.

ケース3:第一ニューラルネットワークによって第一画像をダウンサンプリングし、第三特徴マップを生成する。 Case 3: The first image is downsampled by the first neural network to generate a third feature map.

第二ニューラルネットワークの残差ブロックによって第三特徴マップをダウンサンプリングし、第四特徴マップを生成する。 The third feature map is downsampled by the residual block of the second neural network to generate the fourth feature map.

第二ニューラルネットワークの残差ブロックによって第四特徴マップをダウンサンプリングし、第五特徴マップを生成する。 The fourth feature map is downsampled by the residual block of the second neural network to generate the fifth feature map.

第二ニューラルネットワークのDenseASPPモジュールによって第五特徴マップにおける異なるスケールの病巣の特徴を抽出する。 The DenseASPP module of the second neural network extracts the features of lesions of different scales in the fifth feature map.

DenseASPPモジュールによる処理後、第五特徴マップと同じ解像度の第五所定特徴マップが生成され、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第四特徴マップと同じ解像度の第四所定特徴マップを生成し、または、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第三特徴マップと同じ解像度の第三所定特徴マップを生成する。 After processing by the DenseASPP module, a fifth predetermined feature map with the same resolution as the fifth feature map is generated, and the feature map processed by the DenseASPP module is upsampled by the deconvolution layer and residual block of the second neural network. Generate a fourth predetermined feature map with the same resolution as the four feature map, or upsample the feature map processed by the DenseASPP module by the deconvolution layer and residual block of the second neural network, and be the same as the third feature map. Generate a third predetermined feature map of resolution.

第三特徴マップと第三所定特徴マップで第三所定特徴マップと同じ解像度の第一特徴マップを生成し、第四特徴マップと第四所定特徴マップとを融合して第四所定特徴マップと同じ解像度の第一特徴マップを生成し、第五特徴マップと第五所定特徴マップとを融合して第五所定特徴マップと同じ解像度の第一特徴マップを生成する。ここで、前記第三所定特徴マップ、前記第四所定特徴マップおよび前記第五所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 The third feature map and the third predetermined feature map generate a first feature map with the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused to be the same as the fourth predetermined feature map. A first feature map with a resolution is generated, and a first feature map with the same resolution as the fifth predetermined feature map is generated by fusing the fifth feature map and the fifth predetermined feature map. Here, the third predetermined feature map, the fourth predetermined feature map, and the fifth predetermined feature map each include the position of the lesion, and the position of the lesion is used to generate the position of the lesion in the first feature map. Be done.

説明したいのは、第一ニューラルネットワークは、畳み込み層および畳み込み層にカスケード接続される残差ブロックを含み、第二ニューラルネットワークは、畳み込み層、逆畳み込み層、残差ブロックおよびDenseASPPモジュールを含む3D U-Netネットワークを含む。 I would like to explain that the first neural network contains a convolution layer and a residual block cascaded to the convolution layer, and the second neural network is a 3DU containing a convolution layer, a deconvolution layer, a residual block and a DenseASP P module. -Includes Net network.

そのうち、残差ブロックは、畳み込み層、バッチ正規化層(BN層)、ReLU活性化関数および最大プーリング層を含んでもよい。 Among them, the residual block may include a convolution layer, a batch normalization layer (BN layer), a ReLU activation function and a maximum pooling layer.

選択可能的に、第二ニューラルネットワークは積み上げられている複数の3D U-Netネットワークである。第二ニューラルネットワークが積み上げられている複数の3D U-Netネットワークである場合、病巣検出システムの安定性および検出の正確性を向上させることができる。本開示の実施例は、3D U-netネットワークの数を限定しない。 Optionally, the second neural network is a stack of 3D U-Net networks. When a plurality of 3D U-Net networks in which the second neural network is stacked can be used, the stability and detection accuracy of the lesion detection system can be improved. The embodiments of the present disclosure do not limit the number of 3D U-net networks.

S203:第一特徴マップに含まれる特徴の次元削減を行い、X軸次元およびY軸次元の二次元特徴を含む第二特徴マップを生成する。 S203: The dimension of the feature included in the first feature map is reduced, and the second feature map including the two-dimensional features of the X-axis dimension and the Y-axis dimension is generated.

具体的には、第一特徴マップの全ての特徴のそれぞれに対してチャネル次元とZ軸次元とをマージして、第一特徴マップの全ての特徴のそれぞれの次元をX軸次元およびY軸次元からなるものにし、全ての特徴のそれぞれの次元がX軸次元およびY軸次元からなる第一特徴マップを第二特徴マップとする。第一特徴マップは三次元の特徴マップであるが、検出サブネット103に出力されて検出される時、二次元に変換する必要があるため、第一特徴マップの次元削減を行わなければならない。 Specifically, the channel dimension and the Z-axis dimension are merged for each of the features of the first feature map, and the respective dimensions of all the features of the first feature map are set to the X-axis dimension and the Y-axis dimension. The first feature map in which each dimension of all features consists of the X-axis dimension and the Y-axis dimension is defined as the second feature map. The first feature map is a three-dimensional feature map, but when it is output to the detection subnet 103 and detected, it needs to be converted into two dimensions, so the dimension of the first feature map must be reduced.

説明したいのは、上述したある特徴のチャネルは、ある特徴の分布データを表す。 I would like to explain that the channel of a certain feature described above represents the distribution data of a certain feature.

S204:第二特徴マップの特徴を検出し、検出された第二特徴マップにおける各病巣の特徴および位置に対応する信頼度を表示する。 S204: The feature of the second feature map is detected, and the reliability corresponding to the feature and the position of each lesion in the detected second feature map is displayed.

具体的には、第一検出サブネットによって第二特徴マップを検出し、第二特徴マップにおける各病巣の位置の座標を得る。 Specifically, the second feature map is detected by the first detection subnet, and the coordinates of the position of each lesion in the second feature map are obtained.

さらに具体的には、第一検出サブネットのカスケード接続されている複数の畳み込み層によって、入力される第二特徴マップを処理し、第二特徴マップにおける各病巣の位置を特定する。ここで、各畳み込み層はそれぞれ一つのY*Yの畳み込みカーネルを含み、各病巣の左上隅の座標(x1,y1)および病巣の右下隅の座標(x2,y2)を順に取得することで、第二特徴マップにおける各病巣の位置を特定するようにしてもよい。 More specifically, the input second feature map is processed by a plurality of cascaded convolution layers of the first detection subnet to identify the location of each lesion in the second feature map. Here, each convolution layer contains one Y * Y convolution kernel, and by acquiring the coordinates (x1, y1) of the upper left corner of each lesion and the coordinates (x2, y2) of the lower right corner of the lesion in order, The location of each lesion in the second feature map may be specified.

第二検出サブネットによって前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣に対応する信頼度を得る。 The second feature map is detected by the second detection subnet, and the reliability corresponding to each lesion in the second feature map is obtained.

さらに具体的には、第二検出サブネットのカスケード接続されている複数の畳み込み層によって、入力される第二特徴マップを処理し、第二特徴マップにおける各病巣の位置を取得し、さらに、該位置に対応する信頼度を出力する。ここで、各畳み込み層はそれぞれ一つのY*Yの畳み込みカーネルを含み、各病巣の左上隅の座標(x1,y1)および病巣の右下隅の座標(x2,y2)を順に取得することで、第二特徴マップにおける各病巣の位置を取得し、さらに、該位置に対応する信頼度を出力するようにしてもよい。 More specifically, the input second feature map is processed by a plurality of cascaded convolution layers of the second detection subnet to obtain the position of each lesion in the second feature map, and further, the position. Outputs the reliability corresponding to. Here, each convolution layer contains one Y * Y convolution kernel, and by acquiring the coordinates (x1, y1) of the upper left corner of each lesion and the coordinates (x2, y2) of the lower right corner of the lesion in order, The position of each lesion in the second feature map may be acquired, and the reliability corresponding to the position may be output.

以上の記載によければ、本開示の実施例は、患者体内の複数の部位の病巣状況を正確に検出し、患者全身にわたって癌を予備的に評価することができる。 According to the above description, the examples of the present disclosure can accurately detect the foci status of a plurality of sites in a patient and preliminarily evaluate cancer throughout the patient.

説明したいのは、第一画像の特徴を抽出し、病巣の特徴が含まれる第一特徴マップを生成する前に、さらに、以下のステップを含む。 What I would like to explain is to further include the following steps before extracting the features of the first image and generating the first feature map containing the features of the lesion.

予め保存された、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を第一ニューラルネットワークに入力し、勾配降下法を使用して第一ニューラルネットワーク、第二ニューラルネットワーク、第一検出サブネットおよび第二検出サブネットの各パラメータをそれぞれ訓練する。ここで、複数の病巣のそれぞれの位置は第一検出サブネットにより出力される。 Input a pre-stored 3D image containing multiple lesion labels for labeling into the first neural network and use the gradient descent method to enter the first neural network, the second neural network, and the first. Train each parameter of the discovery subnet and the second discovery subnet respectively. Here, the position of each of the plurality of lesions is output by the first detection subnet.

または、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を第二ニューラルネットワークに入力し、勾配降下法を使用して第二ニューラルネットワーク、第一検出サブネットおよび第二検出サブネットの各パラメータをそれぞれ訓練する。ここで、複数の病巣のそれぞれの位置は第一検出サブネットにより出力される。 Alternatively, input a 3D image containing multiple lesion labels for labeling the lesion into the second neural network and use gradient descent to use the second neural network, first detection subnet, and second detection subnet. Train each parameter individually. Here, the position of each of the plurality of lesions is output by the first detection subnet.

以上をまとめると、本開示では、まず、複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得する。さらに、第一画像の特徴を抽出し、病巣の特徴が含まれる第一特徴マップであって、X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成する。続いて、第一特徴マップに含まれる特徴の次元削減を行い、X軸次元およびY軸次元の二次元特徴を含む第二特徴マップを生成する。最後に、第二特徴マップの特徴を検出し、第二特徴マップにおける各病巣の位置および位置に対応する信頼度を得る。本開示の実施例を採用すれば、患者体内の複数の部位の病巣状況を正確に検出し、患者全身にわたって癌を予備的に評価することができる。 Summarizing the above, in the present disclosure, first, a first image including a plurality of sample sections, which is a three-dimensional image including an X-axis dimension, a Y-axis dimension, and a Z-axis dimension, is acquired. Further, the features of the first image are extracted to generate a first feature map including the features of the lesion, which includes three-dimensional features of the X-axis dimension, the Y-axis dimension, and the Z-axis dimension. Subsequently, the dimension reduction of the features included in the first feature map is performed, and the second feature map including the two-dimensional features of the X-axis dimension and the Y-axis dimension is generated. Finally, the features of the second feature map are detected and the reliability corresponding to the position and position of each lesion in the second feature map is obtained. By adopting the examples of the present disclosure, it is possible to accurately detect the lesion status of a plurality of sites in a patient and to preliminarily evaluate cancer throughout the patient.

理解されたいのは、図2の方法の実施例において提供されていない関連定義および説明は、図1の実施例を参照すればよく、ここで説明を省略する。 It should be understood that the relevant definitions and descriptions not provided in the embodiment of the method of FIG. 2 may be referred to in the embodiment of FIG. 1 and are omitted herein.

図3は、本開示が提供する病巣検出装置である。図3に示すように、病巣検出装置30は、複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得するための取得ユニット301と、第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップであって、X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成するための第一生成ユニット302と、第一特徴マップに含まれる特徴の次元削減を行い、X軸次元およびY軸次元の二次元特徴を含む第二特徴マップを生成するための第二生成ユニット303と、第二特徴マップを検出し、第二特徴マップにおける各病巣の位置および位置に対応する信頼度を得るための検出ユニット304と、を含む。 FIG. 3 is a lesion detection device provided by the present disclosure. As shown in FIG. 3, the lesion detection device 30 acquires a first image including a plurality of sample sections, which is a three-dimensional image including an X-axis dimension, a Y-axis dimension, and a Z-axis dimension. A first feature map that extracts the features of the first image and contains the features and positions of the lesions, including the X-axis, Y-axis, and Z-axis three-dimensional features. To generate a second feature map containing two-dimensional features of X-axis dimension and Y-axis dimension by reducing the dimensions of the first generation unit 302 for generating one feature map and the features included in the first feature map. The second generation unit 303 of the above, and the detection unit 304 for detecting the second feature map and obtaining the reliability corresponding to the position and position of each lesion in the second feature map.

取得ユニット302は、具体的に、取得された患者のCT画像を第一サンプリング間隔で再サンプリングし、複数のサンプル切片を含む第一画像を生成するために用いられる。 The acquisition unit 302 is specifically used to resample the acquired CT images of the patient at the first sampling interval to generate a first image containing a plurality of sample sections.

第一生成ユニット303は、具体的に、以下の三つのケースに用いられることができる。 Specifically, the first generation unit 303 can be used in the following three cases.

ケース1:第一ニューラルネットワークによって第一画像をダウンサンプリングし、第三特徴マップを生成する。 Case 1: The first image is downsampled by the first neural network to generate a third feature map.

第二ニューラルネットワークの残差ブロックによって第三特徴マップをダウンサンプリングし、第四特徴マップを生成する。 The third feature map is downsampled by the residual block of the second neural network to generate the fourth feature map.

第二ニューラルネットワークのDenseASPPモジュールによって第四特徴マップにおける異なるスケールの病巣の特徴を抽出する。 The DenseASPP module of the second neural network extracts the features of lesions of different scales in the fourth feature map.

DenseASPPモジュールによる処理後、第四特徴マップと同じ解像度の第四所定特徴マップが生成され、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第三特徴マップと同じ解像度の第三所定特徴マップを生成する。 After processing by the DenseASPP module, a fourth predetermined feature map with the same resolution as the fourth feature map is generated, and the feature map processed by the DenseASPP module is upsampled by the deconvolution layer and residual block of the second neural network. (3) Generate a third predetermined feature map with the same resolution as the feature map.

第三特徴マップと第三所定特徴マップで第三所定特徴マップと同じ解像度の第一特徴マップを生成し、第四特徴マップと第四所定特徴マップとを融合して第四所定特徴マップと同じ解像度の第一特徴マップを生成する。ここで、第三所定特徴マップおよび第四所定特徴マップはそれぞれ病巣の位置を含み、病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 The third feature map and the third predetermined feature map generate a first feature map with the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused to be the same as the fourth predetermined feature map. Generate a first feature map of resolution. Here, the third predetermined feature map and the fourth predetermined feature map each include the position of the lesion, and the position of the lesion is used to generate the position of the lesion in the first feature map.

ケース2:第二ニューラルネットワークの残差ブロックによって前記第一画像をダウンサンプリングし、第四特徴マップを生成する。 Case 2: The first image is downsampled by the residual block of the second neural network to generate a fourth feature map.

第二ニューラルネットワークのDenseASPPモジュールによって第四特徴マップにおける異なるスケールの病巣の特徴を抽出する。 The DenseASPP module of the second neural network extracts the features of lesions of different scales in the fourth feature map.

DenseASPPモジュールによる処理後、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第一画像と同じ解像度の第一所定特徴マップを生成する。 After processing by the DenseASPP module, the feature map processed by the DenseASPP module is upsampled by the deconvolution layer and the residual block of the second neural network, and the first predetermined feature map having the same resolution as the first image is generated.

第一画像と第一所定特徴マップで第一所定特徴マップと同じ解像度の第一特徴マップを生成する。ここで、第一所定特徴マップは病巣の位置を含み、病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 The first image and the first predetermined feature map generate a first feature map having the same resolution as the first predetermined feature map. Here, the first predetermined feature map includes the location of the lesion, and the location of the lesion is used to generate the location of the lesion in the first feature map.

ケース3:第一ニューラルネットワークによって前記第一画像をダウンサンプリングし、第三特徴マップを生成する。 Case 3: The first image is downsampled by the first neural network to generate a third feature map.

第二ニューラルネットワークの残差ブロックによって第三特徴マップをダウンサンプリングし、第四特徴マップを生成する。 The third feature map is downsampled by the residual block of the second neural network to generate the fourth feature map.

第二ニューラルネットワークの残差ブロックによって第四特徴マップをダウンサンプリングし、第五特徴マップを生成する。 The fourth feature map is downsampled by the residual block of the second neural network to generate the fifth feature map.

第二ニューラルネットワークのDenseASPPモジュールによって第五特徴マップにおける異なるスケールの病巣の特徴を抽出する。 The DenseASPP module of the second neural network extracts the features of lesions of different scales in the fifth feature map.

DenseASPPモジュールによる処理後、第五特徴マップと同じ解像度の第五所定特徴マップが生成され、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第四特徴マップと同じ解像度の第四所定特徴マップを生成し、または、第二ニューラルネットワークの逆畳み込み層および残差ブロックによってDenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、第三特徴マップと同じ解像度の第三所定特徴マップを生成する。 After processing by the DenseASPP module, a fifth predetermined feature map with the same resolution as the fifth feature map is generated, and the feature map processed by the DenseASPP module is upsampled by the deconvolution layer and residual block of the second neural network. Generate a fourth predetermined feature map with the same resolution as the four feature map, or upsample the feature map processed by the DenseASPP module by the deconvolution layer and residual block of the second neural network, and be the same as the third feature map. Generate a third predetermined feature map of resolution.

第三特徴マップと第三所定特徴マップで第三所定特徴マップと同じ解像度の第一特徴マップを生成し、第四特徴マップと第四所定特徴マップとを融合して第四所定特徴マップと同じ解像度の第一特徴マップを生成し、第五特徴マップと第五所定特徴マップとを融合して第五所定特徴マップと同じ解像度の第一特徴マップを生成する。ここで、第三所定特徴マップ、第四所定特徴マップおよび第五所定特徴マップはそれぞれ病巣の位置を含み、病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる。 The third feature map and the third predetermined feature map generate a first feature map with the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused to be the same as the fourth predetermined feature map. A first feature map with a resolution is generated, and a first feature map with the same resolution as the fifth predetermined feature map is generated by fusing the fifth feature map and the fifth predetermined feature map. Here, the third predetermined feature map, the fourth predetermined feature map, and the fifth predetermined feature map each include the position of the lesion, and the position of the lesion is used to generate the position of the lesion in the first feature map.

説明したいのは、第一ニューラルネットワークは、畳み込み層および畳み込み層にカスケード接続される残差ブロックを含み、第二ニューラルネットワークは、畳み込み層、逆畳み込み層、残差ブロックおよびDenseASPPモジュールを含む3D U-Netネットワークを含む。 I would like to explain that the first neural network contains a convolution layer and a residual block cascaded to the convolution layer, and the second neural network is a 3DU containing a convolution layer, a deconvolution layer, a residual block and a DenseASP P module. -Includes Net network.

選択可能的に、第二ニューラルネットワークは積み上げられている複数の3D U-Netネットワークを含んでもよい。複数の3D U-netネットワークで検出することにより、検出の正確性を向上させることができる。本開示の実施例における3D U-netネットワークの数は例示的なものに過ぎない。 Optionally, the second neural network may include a plurality of stacked 3D U-Net networks. By detecting in a plurality of 3D U-net networks, the accuracy of detection can be improved. The number of 3D U-net networks in the examples of the present disclosure is only exemplary.

説明したいのは、残差ブロックは、畳み込み層、バッチ正規化層(BN層)、ReLU活性化関数および最大プーリング層を含んでもよい。 It is intended to explain that the residual block may include a convolutional layer, a batch normalization layer (BN layer), a ReLU activation function and a maximum pooling layer.

第三特徴ユニット304は、具体的に、第一特徴マップの全ての特徴のそれぞれに対してチャネル次元とZ軸次元とをマージして、第一特徴マップの全ての特徴のそれぞれの次元をX軸次元およびY軸次元からなるものにし、全ての特徴のそれぞれの次元がX軸次元およびY軸次元からなる第一特徴マップを第二特徴マップとするために用いられる。 Specifically, the third feature unit 304 merges the channel dimension and the Z-axis dimension for each of the features of the first feature map, and Xs each dimension of all the features of the first feature map. It is made up of an axis dimension and a Y-axis dimension, and is used to make a first feature map in which each dimension of all features consists of an X-axis dimension and a Y-axis dimension as a second feature map.

検出ユニット305は、具体的に、第一検出サブネットによって第二特徴マップを検出し、第二特徴マップにおける各病巣の位置の座標を得ることと、第二検出サブネットによって第二特徴マップを検出し、第二特徴マップにおける病巣に対応する信頼度を得ることとに用いられる。 Specifically, the detection unit 305 detects the second feature map by the first detection subnet, obtains the coordinates of the position of each lesion in the second feature map, and detects the second feature map by the second detection subnet. , Used to obtain the reliability corresponding to the lesion in the second feature map.

説明したいのは、第一検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含み、第二検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含む。 I would like to explain that the first detection subnet contains multiple convolution layers, each connected to one ReLU activation function, and the second detection subnet contains multiple convolutional layers, each connected to one ReLU activation function. Includes convolutional layer.

病巣検出装置30は、取得ユニット301、第一生成ユニット302、第二生成ユニット303および検出ユニット304の他、表示ユニットをさらに含む。 The lesion detection device 30 further includes a display unit in addition to the acquisition unit 301, the first generation unit 302, the second generation unit 303, and the detection unit 304.

表示ユニットは、具体的に、検出ユニット304によって検出された病巣の位置および位置の信頼度を表示するために用いられる。 The display unit is specifically used to display the position of the lesion detected by the detection unit 304 and the reliability of the position.

病巣検出装置30は、取得ユニット301、第一生成ユニット302、第二生成ユニット303および検出ユニット304の他、訓練ユニットをさらに含む。 The lesion detection device 30 further includes a training unit in addition to the acquisition unit 301, the first generation unit 302, the second generation unit 303, and the detection unit 304.

訓練ユニットは、具体的に、第一生成ユニットが前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、予め保存された、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を第一ニューラルネットワークに入力し、勾配降下法を使用して第一ニューラルネットワーク、第二ニューラルネットワーク、第一検出サブネットおよび第二検出サブネットの各パラメータをそれぞれ訓練するために用いられ、または、第一生成ユニットが前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を第二ニューラルネットワークに入力し、勾配降下法を使用して第二ニューラルネットワーク、第一検出サブネットおよび第二検出サブネットの各パラメータをそれぞれ訓練するために用いられる。ここで、複数の病巣のそれぞれの位置は第一検出サブネットにより出力される。 Specifically, the training unit labels the pre-stored lesions before the first generation unit extracts the features of the first image and generates a first feature map containing the features and locations of the lesions. Enter a 3D image containing multiple lesion labels for the first neural network and use the gradient descent method to each of the first neural network, the second neural network, the first detection subnet, and the second detection subnet. Used to train each parameter, or to label the lesion before the first generation unit extracts the features of the first image and generates a first feature map containing the features and locations of the lesion. To input a 3D image containing multiple lesion labels into the second neural network and use the gradient descent method to train the parameters of the second neural network, the first detection subnet, and the second detection subnet, respectively. Used for. Here, the position of each of the plurality of lesions is output by the first detection subnet.

病巣検出装置30は、本開示の実施例において一例として提供されたものにすぎず、示された部材よりも多い部材または少ない部材を備えてもよく、二つ以上の部材の組み合わせまたは具備可能な部材の異なる配置によって実現されてもよいことが理解されたい。 The lesion detection device 30 is provided only as an example in the embodiments of the present disclosure, and may include more or less members than the indicated members, and may be a combination or a combination of two or more members. It should be understood that it may be realized by different arrangements of members.

理解されたいのは、図3の病巣検出装置30が含む機能ブロックの具体的な実施形態は、前記図2に記載の方法の実施例を参照すればよく、ここでは説明を省略する。 It should be understood that the specific embodiment of the functional block included in the lesion detection device 30 of FIG. 3 may refer to the embodiment of the method shown in FIG. 2, and description thereof will be omitted here.

図4は本開示が提供する病巣検出機器の構成の模式図である。本開示の実施例において、病巣検出機器は、携帯電話、タブレット、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、モバイルインターネットデバイス(Mobile Internet Device、MID)、スマートウェアラブルデバイス(例えば、スマートウォッチ、スマートブレスレットなど)など様々な機器を含みんでもよく、本開示の実施例はこれについて限定しない。図4に示すように、病巣検出機器40は、ベースバンドチップ401、メモリ402(一つ以上のコンピュータ読取可能記憶媒体)、周辺システム403を含んでもよい。これらの部材は一つ以上の通信バス404を介して通信可能である。 FIG. 4 is a schematic diagram of the configuration of the lesion detection device provided by the present disclosure. In the embodiments of the present disclosure, the lesion detection device is a mobile phone, a tablet, a personal digital assistant (PDA), a mobile internet device (Mobile Internet Device, MID), a smart wearable device (for example, a smart watch, etc.). Various devices such as (smart bracelets, etc.) may be included, and the embodiments of the present disclosure are not limited thereto. As shown in FIG. 4, the lesion detection device 40 may include a baseband chip 401, a memory 402 (one or more computer-readable storage media), and a peripheral system 403. These members can communicate via one or more communication buses 404.

ベースバンドチップ401は、一つ以上のプロセッサ(CPU)405、入力される法線マップを処理可能な一つ以上の画像処理装置(GPU)406を含む。 The baseband chip 401 includes one or more processors (CPUs) 405 and one or more image processing units (GPUs) 406 capable of processing an input normal map.

メモリ402はプロセッサ405と結合され、様々なソフトウェアプログラムおよび/または複数の命令セットを記憶するために用いられることができる。具体的な実現では、メモリ402は高速ランダムアクセスメモリを含んでもよく、また一つ以上の磁気ディスク記憶装置、フラッシュメモリまたは他の非揮発性固体記憶装置のような非揮発性メモリを含んでもよい。メモリ402はオペレーティングシステム(以下、単にシステムという)、例えばANDROID(登録商標)、IOS、WINDOWS(登録商標)、またはLINUX(登録商標)などの組み込みオペレーティングシステムを記憶してもよい。メモリ402は、一つ以上の付加装置、一つ以上の機器、一つ以上のネットワーク機器との通信に用いられるネットワーク通信プログラムを記憶してもよい。メモリ402はグラフィカルユーザインタフェースによってアプリケーションのコンテンツをリアルに表示し、メニュー、ダイアログボックスおよびボタンなどの入力コントロールによってユーザからアプリケーションの制御操作を受信するユーザインタフェースプログラムを記憶してもよい。 Memory 402 is coupled with processor 405 and can be used to store various software programs and / or multiple instruction sets. In a specific implementation, the memory 402 may include fast random access memory or may include non-volatile memory such as one or more magnetic disk storage devices, flash memory or other non-volatile solid storage device. .. The memory 402 may store an operating system (hereinafter simply referred to as a system), for example, an embedded operating system such as ANDROID®, IOS, WINDOWS®, or LINUX®. The memory 402 may store a network communication program used for communication with one or more additional devices, one or more devices, and one or more network devices. The memory 402 may store a user interface program that realistically displays the contents of the application by a graphical user interface and receives control operations of the application from the user by input controls such as menus, dialog boxes, and buttons.

理解されたいのは、メモリ402は病巣検出方法を実現するプログラムコードを記憶するために用いられることができる。 It should be understood that the memory 402 can be used to store the program code that implements the lesion detection method.

理解されたいのは、プロセッサ405は、メモリ402に記憶されている病巣検出方法を実行するプログラムコードを呼び出すために用いられることができる。 It should be understood that the processor 405 can be used to call program code that executes the lesion detection method stored in memory 402.

メモリ402は、一つ以上のアプリケーションを記憶してもよい。図4に示すように、これらのアプリケーションは、ソーシャルアプリケーション(例えばfacebook(登録商標))、画像管理アプリケーション(例えばアルバム)、地図アプリケーション(例えばグーグルマップ)、ブラウザー(例えばSafari(登録商標)、Google(登録商標) Chrome(登録商標))などを含んでもよい。 The memory 402 may store one or more applications. As shown in FIG. 4, these applications include social applications (eg facebook®), image management applications (eg albums), map applications (eg Google Maps), browsers (eg Safari®), Google (eg). (Registered trademark) Chrome (registered trademark)) and the like may be included.

周辺システム403は、主に病巣検出機器40とユーザ/外部環境との間のインタラクション機能を実現するために用いられ、主に病巣検出機器40の入出力機器を含む。具体的な実現では、周辺システム403は、表示スクリーンコントローラ407、カメラコントローラ408、マウス-キーボードコントローラ409およびオーディオコントローラ410を含んでもよい。そのうち、各コントローラのそれぞれは対応する周辺機器(例えば表示スクリーン411、カメラ412、マウス-キーボード413およびオーディオ回路414)と結合可能である。いくつかの実施例では、表示スクリーンは自己容量型フローティングタッチパネルを配備した表示スクリーンであってもよいし、赤外線型フローティングタッチパネルを配備した表示スクリーンであってもよい。いくつかの実施例では、カメラ412は3Dカメラであってもよい。説明したいのは、周辺システム403は他のI/O外部装置を含んでもよい。 The peripheral system 403 is mainly used to realize an interaction function between the lesion detection device 40 and the user / external environment, and mainly includes an input / output device of the lesion detection device 40. In a specific implementation, the peripheral system 403 may include a display screen controller 407, a camera controller 408, a mouse-keyboard controller 409 and an audio controller 410. Of these, each of the controllers can be coupled with the corresponding peripherals (eg, display screen 411, camera 412, mouse-keyboard 413 and audio circuit 414). In some embodiments, the display screen may be a display screen provided with a self-capacitating floating touch panel or a display screen provided with an infrared floating touch panel. In some embodiments, the camera 412 may be a 3D camera. I would like to explain that the peripheral system 403 may include other I / O external devices.

理解されたいのは、表示スクリーン411は検出された病巣の位置および位置の信頼度を表示するために用いられることができる。 It should be understood that the display screen 411 can be used to display the location of the detected lesion and the reliability of the location.

病巣検出機器40は、本開示の実施例において一例として提供されるものにすぎず、示された部材よりも多い部材または少ない部材を備えてもよく、二つ以上の部材の組み合わせまたは具備可能な部材の異なる配置によって実現されてもよいことが理解されたい。 The lesion detection device 40 is provided only as an example in the embodiments of the present disclosure, and may include more or less members than the indicated members, and may be a combination or a combination of two or more members. It should be understood that it may be realized by different arrangements of members.

理解されたいのは、図4の病巣検出機器40が含む機能モジュールの具体的な実施形態は、図2の方法の実施例を参照すればよく、ここでは説明を省略する。 It should be understood that the specific embodiment of the functional module included in the lesion detection device 40 of FIG. 4 may refer to the embodiment of the method of FIG. 2, and the description thereof is omitted here.

本開示は、コンピュータプログラムが記憶されているコンピュータ読取可能記憶媒体であって、コンピュータプログラムはプロセッサにより実行されると実現させるコンピュータ読取可能記憶媒体を提供する。 The present disclosure provides a computer-readable storage medium in which a computer program is stored, which is realized when the computer program is executed by a processor.

該コンピュータ読取可能記憶媒体は、前記の実施例に記載の機器のいずれか1つの内部記憶ユニット、例えば機器のハードディスクまたは内部メモリであってもよい。該コンピュータ読取可能記憶媒体は、機器の外部記憶装置、例えば機器に配備されたプラグインハードディスク、スマートメディアカード(Smart Media (登録商標)Card、SMC)、セキュアデジタル(Secure Digital、SD)カード、フラッシュカード(Flash Card)などであってもよい。さらに、該コンピュータ読取可能記憶媒体は、機器の内部記憶ユニットと外部記憶装置を含んでもよい。該コンピュータ読取可能記憶媒体は、コンピュータプログラムおよび機器に必要な他のプログラムやデータを記憶するために用いられ、また、出力されたまたは出力されるデータを一時的に記憶するために用いられてもよい。 The computer-readable storage medium may be an internal storage unit of any one of the devices described in the above embodiment, for example, a hard disk or an internal memory of the device. The computer-readable storage medium may be an external storage device of the device, for example, a plug-in hard disk deployed in the device, a SmartMedia card (SmartMedia® Card, SMC), a secure digital (SD) card, or a flash. It may be a card (FlashCard) or the like. Further, the computer-readable storage medium may include an internal storage unit and an external storage device of the device. The computer-readable storage medium is used to store computer programs and other programs and data required for equipment, and may also be used to temporarily store output or output data. good.

本開示は、コンピュータプログラムが記憶されている非一時的なコンピュータ読取可能記憶媒体を含むコンピュータプログラム製品であって、該コンピュータプログラムはコンピュータに上記方法の実施例に記載の方法のいずれか1つの一部または全てのステップを実行させるように動作するコンピュータプログラム製品を提供する。該コンピュータプログラム製品は一つのソフトウェアインストールパッケージであってもよく、該コンピュータは電子装置を含む。 The present disclosure is a computer program product comprising a non-temporary computer-readable storage medium in which a computer program is stored, wherein the computer program is stored in a computer in any one of the methods described in the embodiment of the above method. Provide a computer program product that operates to perform a part or all steps. The computer program product may be a single software installation package, the computer including electronic devices.

当業者であれば、本明細書の実施例で説明した各例示的なユニットおよびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、または両者の組み合わせで実現できると理解すべきである。上記説明において、ハードウェアとソフトウェアの交換可能を明確に説明するために、機能に応じて各例示的な構成およびステップを一般的に記述した。これらの機能がハードウェアで実行されるか、それともソフトウェアで実行されるかは、技術的解決手段の特定の用途および設計上の制約条件によって決められる。専門技術者であれば、特定の用途に応じて異なる方法で記載の機能を実現できる。このような実現は本開示の範囲を超えたものであると理解すべきではない。 Those skilled in the art should understand that each exemplary unit and algorithm step described in the embodiments herein can be implemented with electronic hardware, computer software, or a combination thereof. In the above description, each exemplary configuration and step is generally described according to function in order to clearly illustrate the interchangeability of hardware and software. Whether these functions are performed in hardware or software depends on the specific use of the technical solution and design constraints. A professional engineer can realize the described functions in different ways depending on the specific application. It should not be understood that such realization is beyond the scope of this disclosure.

説明を簡単化および簡潔化するために、上述した機器およびユニットの具体的な動作について、前記方法の実施例における対応する部分を参照すればよいことは、当業者であれば明確に理解され、ここでは説明を省略する。 It will be clearly understood by those skilled in the art that those skilled in the art will only need to refer to the corresponding parts of the embodiments of the method for the specific operation of the above-mentioned equipment and units in order to simplify and simplify the description. The description is omitted here.

本開示のいくつかの実施例で開示した機器および方法は、他の形態で実現できることを理解すべきである。例えば、各例示的構成およびステップを記載したが、これらの機能がハードウェアで実行されるか、それともソフトウェアで実行されるかは、技術的解決手段の特定の用途および設計上の制約条件によって決められる。専門技術者であれば、特定の用途に応じて異なる方法で記載の機能を実現できる。このような実現は本開示の範囲を超えたものであると理解すべきではない。 It should be understood that the devices and methods disclosed in some embodiments of the present disclosure can be realized in other forms. For example, each exemplary configuration and step has been described, but whether these functions are performed in hardware or software depends on the specific application of the technical solution and design constraints. Be done. A professional engineer can realize the described functions in different ways depending on the specific application. It should not be understood that such realization is beyond the scope of this disclosure.

以上に記載の機器の実施例は例示的なものに過ぎない。例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際に実現する場合に別の形態で分割してもよい。例えば、複数のユニットまたはコンポーネントは、組み合わせてもよいし、または別のシステムに統合してもよいし、または一部の特徴を省略もしくは実行しなくてもよい。また、図示または説明した相互の結合、直接結合または通信接続は、いくつかのインタフェース、機器またはユニットを介した間接結合または通信接続であってもよいし、電気的、機械的または他の形態での接続であってもよい。 The examples of the devices described above are merely exemplary. For example, the division of the unit is merely a division of a logical function, and may be divided in another form when it is actually realized. For example, multiple units or components may be combined, integrated into another system, or some features may be omitted or not implemented. Also, the mutual coupling, direct coupling or communication connection illustrated or described may be an indirect coupling or communication connection via some interface, device or unit, or in electrical, mechanical or other form. It may be a connection of.

別々の部材として説明した前記ユニットは、物理的に分離されても分離されなくてもよく、ユニットとして示された部材は、物理的ユニットであってもなくてもよく、一箇所にあっても複数のネットワークユニットに分散してもよい。本実施例の解決手段の目的を達成するには、実際の必要に応じて一部または全てのユニットを選択することができる。 The unit described as a separate member may or may not be physically separated, and the member indicated as a unit may or may not be a physical unit, even if it is in one place. It may be distributed over a plurality of network units. To achieve the objectives of the solutions of this embodiment, some or all units may be selected as needed in practice.

また、本開示の各実施例における各機能ユニットは、全て一つの処理ユニットに統合されてもよいし、それぞれ物理的に個別のユニットとされてもよいし、二つ以上で一つのユニットに統合されてもよい。上記統合されたユニットは、ハードウェアで実現されてもよく、ソフトウェア機能ユニットで実現されてもよい。 Further, each functional unit in each embodiment of the present disclosure may be integrated into one processing unit, may be physically separated units, or may be integrated into one unit by two or more. May be done. The integrated unit may be realized by hardware or software function unit.

上記統合されたユニットは、ソフトウェア機能ユニットで実現され、かつ独立した製品として販売または使用される場合、コンピュータ読取可能記憶媒体に記憶されてもよい。このような見解をもとに、本開示の技術的解決手段の実質的な部分、従来技術に寄与する部分、または技術的解決手段の全てもしくは一部は、ソフトウェア製品で実現されることができる。該コンピュータソフトウェア製品は、記憶媒体に記憶され、一つのコンピュータ機器(パーソナルコンピュータ、ブロックチェーンの目標ノードである機器、またはネットワーク機器などであってもよい)に本開示の各実施例に記載の方法の全てまたは一部のステップを実行させる若干の命令を含む。前記記憶媒体は、USBフラッシュドライブ、モバイルハードディスク、読み取り専用メモリ(Read-Only Memory、ROM)、ラダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含む。 The integrated unit may be stored in a computer-readable storage medium when implemented as a software functional unit and sold or used as an independent product. Based on this view, substantive parts of the technical solutions of the present disclosure, parts that contribute to the prior art, or all or part of the technical solutions can be realized in the Software product. .. The computer software product is stored in a storage medium and may be stored in a single computer device (which may be a personal computer, a device that is a target node of a blockchain, a network device, or the like) as described in each embodiment of the present disclosure. Includes some instructions to perform all or part of the steps in. The storage medium can store various program codes such as a USB flash drive, a mobile hard disk, a read-only memory (Read-Only Memory, ROM), a Radham access memory (Random Access Memory, RAM), a magnetic disk, or an optical disk. Includes medium.

以上は本開示の具体的な実施形態にすぎず、本開示の保護範囲を限定するものではない。当業者であれば、本開示に記載の技術的範囲内で様々な均等の修正または置換を容易に想到できる。これらの修正または置換は全て本開示の保護範囲に属する。したがって、本開示の保護範囲は特許請求の範囲に準ずると理解すべきである。 The above is merely a specific embodiment of the present disclosure and does not limit the scope of protection of the present disclosure. One of ordinary skill in the art can readily conceive of various equal modifications or substitutions within the technical scope described in this disclosure. All of these modifications or substitutions fall within the scope of this disclosure. Therefore, it should be understood that the scope of protection of this disclosure is in accordance with the scope of claims.

Claims (17)

複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得することと、
前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップであって、前記X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成することと、
前記第一特徴マップに含まれる特徴の次元削減を行い、前記X軸次元および前記Y軸次元の二次元特徴を含む第二特徴マップを生成することと、
前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣の位置および前記位置に対応する信頼度を得ることと、を含む、
病巣検出方法。
To acquire a first image that is a first image containing a plurality of sample sections and is a three-dimensional image including the X-axis dimension, the Y-axis dimension, and the Z-axis dimension.
The features of the first image are extracted, and a first feature map including the features and positions of the lesion, which includes the three-dimensional features of the X-axis dimension, the Y-axis dimension, and the Z-axis dimension, is generated. To do and
To reduce the dimensions of the features included in the first feature map and generate a second feature map containing the two-dimensional features of the X-axis dimension and the Y-axis dimension.
The present invention includes detecting the second feature map and obtaining the position of each lesion in the second feature map and the reliability corresponding to the position.
Focal detection method.
複数のサンプル切片を含む第一画像を取得することは、
取得された患者のCT画像を第一サンプリング間隔で再サンプリングし、複数のサンプル切片を含む第一画像を生成することを含む、
請求項1に記載の方法。
Obtaining a first image containing multiple sample sections is
Includes resampling the acquired CT images of the patient at the first sampling interval to generate a first image containing multiple sample sections.
The method according to claim 1.
前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成することは、
第一ニューラルネットワークによって前記第一画像をダウンサンプリングし、第三特徴マップを生成することと、
前記第二ニューラルネットワークの残差ブロックによって前記第三特徴マップをダウンサンプリングし、第四特徴マップを生成することと、
前記第二ニューラルネットワークのDenseASPPモジュールによって前記第四特徴マップにおける異なるスケールの病巣の特徴を抽出することと、
前記DenseASPPモジュールによる処理後、前記第四特徴マップと同じ解像度の第四所定特徴マップが生成され、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第三特徴マップと同じ解像度の第三所定特徴マップを生成することと、
前記第三特徴マップと前記第三所定特徴マップとを融合して前記第三所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第四特徴マップと前記第四所定特徴マップとを融合して前記第四所定特徴マップと同じ解像度の第一特徴マップを生成することと、を含み、
前記第三所定特徴マップおよび前記第四所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる、
請求項1に記載の方法。
Extracting the features of the first image and generating a first feature map containing the features and locations of the lesions
To generate a third feature map by downsampling the first image by the first neural network,
To generate the fourth feature map by downsampling the third feature map by the residual block of the second neural network.
Extracting the features of lesions of different scales in the fourth feature map by the Dense ASPP module of the second neural network, and
After processing by the DenseASPP module, a fourth predetermined feature map having the same resolution as the fourth feature map is generated, and the feature map after processing by the DenseASPP module is generated by the deconvolution layer of the second neural network and the residual block. Upsampling to generate a third predetermined feature map with the same resolution as the third feature map.
The third feature map and the third predetermined feature map are fused to generate a first feature map having the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused. To generate a first feature map with the same resolution as the fourth predetermined feature map.
The third predetermined feature map and the fourth predetermined feature map each include the location of the lesion, and the location of the lesion is used to generate the location of the lesion in the first feature map.
The method according to claim 1.
前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成することは、
第二ニューラルネットワークの残差ブロックによって前記第一画像をダウンサンプリングし、第四特徴マップを生成することと、
前記第二ニューラルネットワークのDenseASPPモジュールによって前記第四特徴マップにおける異なるスケールの病巣の特徴を抽出することと、
前記DenseASPPモジュールによる処理後、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第一画像と同じ解像度の前記第一所定特徴マップを生成することと、
前記第一画像と前記第一所定特徴マップとを融合して前記第一所定特徴マップと同じ解像度の第一特徴マップを生成することと、を含み、
前記第一所定特徴マップは病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる、
請求項1に記載の方法。
Extracting the features of the first image and generating a first feature map containing the features and locations of the lesions
To generate a fourth feature map by downsampling the first image with the residual block of the second neural network,
Extracting the features of lesions of different scales in the fourth feature map by the Dense ASPP module of the second neural network, and
After processing by the DenseASPP module, the feature map after processing by the DenseASPP module is upsampled by the deconvolution layer of the second neural network and the residual block, and the first predetermined feature map having the same resolution as the first image is obtained. And to generate
Including fusing the first image and the first predetermined feature map to generate a first feature map having the same resolution as the first predetermined feature map.
The first predetermined feature map includes the location of the lesion and the location of the lesion is used to generate the location of the lesion in the first feature map.
The method according to claim 1.
前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成することは、
第一ニューラルネットワークによって前記第一画像をダウンサンプリングし、前記第一画像よりも解像度が低い第三特徴マップを生成することと、
前記第二ニューラルネットワークの残差ブロックによって前記第三特徴マップをダウンサンプリングし、第四特徴マップを生成することと、
前記第二ニューラルネットワークの残差ブロックによって前記第四特徴マップをダウンサンプリングし、前記第四特徴マップよりも解像度が低い第五特徴マップを生成することと、
前記第二ニューラルネットワークのDenseASPPモジュールによって前記第五特徴マップにおける異なるスケールの病巣の特徴を抽出することと、
前記DenseASPPモジュールによる処理後、前記第五特徴マップと同じ解像度の第五所定特徴マップが生成され、前記第二ニューラルネットワークの逆畳み込み層および前記残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第四特徴マップと同じ解像度の第四所定特徴マップを生成し、または、前記第二ニューラルネットワークの逆畳み込み層および残差ブロックによって前記DenseASPPモジュールによる処理後の特徴マップをアップサンプリングし、前記第三特徴マップと同じ解像度の第三所定特徴マップを生成することと、
前記第三特徴マップと前記第三所定特徴マップとを融合して前記第三所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第四特徴マップと前記第四所定特徴マップとを融合して前記第四所定特徴マップと同じ解像度の第一特徴マップを生成し、前記第五特徴マップと前記第五所定特徴マップとを融合して前記第五所定特徴マップと同じ解像度の第一特徴マップを生成することと、を含み、
前記第三所定特徴マップ、前記第四所定特徴マップおよび前記第五所定特徴マップはそれぞれ病巣の位置を含み、前記病巣の位置は第一特徴マップにおける病巣の位置を生成するために用いられる、
請求項1に記載の方法。
Extracting the features of the first image and generating a first feature map containing the features and locations of the lesions
The first image is downsampled by the first neural network to generate a third feature map having a lower resolution than the first image .
To generate the fourth feature map by downsampling the third feature map by the residual block of the second neural network.
The fourth feature map is downsampled by the residual block of the second neural network to generate a fifth feature map having a lower resolution than the fourth feature map.
Extracting the features of lesions of different scales in the fifth feature map by the Dense ASPP module of the second neural network, and
After processing by the DenseASPP module, a fifth predetermined feature map having the same resolution as the fifth feature map is generated, and the feature map after processing by the DenseASPP module is generated by the deconvolution layer of the second neural network and the residual block. Upsample to generate a fourth predetermined feature map with the same resolution as the fourth feature map, or upsample the feature map processed by the DenseASPP module by the deconvolution layer and residual block of the second neural network. Then, to generate a third predetermined feature map with the same resolution as the third feature map,
The third feature map and the third predetermined feature map are fused to generate a first feature map having the same resolution as the third predetermined feature map, and the fourth feature map and the fourth predetermined feature map are fused. Then, a first feature map having the same resolution as the fourth predetermined feature map is generated, and the fifth feature map and the fifth predetermined feature map are fused to generate a first feature having the same resolution as the fifth predetermined feature map. Including, including generating a map
The third predetermined feature map, the fourth predetermined feature map, and the fifth predetermined feature map each include the position of the lesion, and the position of the lesion is used to generate the position of the lesion in the first feature map.
The method according to claim 1.
前記第一ニューラルネットワークは、畳み込み層および前記畳み込み層にカスケード接続される残差ブロックを含み、
前記第二ニューラルネットワークは、畳み込み層、逆畳み込み層、残差ブロックおよび前記DenseASPPモジュールを含む3D U-Netネットワークを含む、
請求項3または5に記載の方法。
The first neural network includes a convolution layer and a residual block cascaded to the convolution layer.
The second neural network includes a 3D U-Net network including a convolution layer, a deconvolution layer, a residual block and the DenseASPP module.
The method according to claim 3 or 5.
前記第二ニューラルネットワークは積み上げられている複数の3D U-Netネットワークである、
請求項5または6に記載の方法。
The second neural network is a plurality of stacked 3D U-Net networks.
The method according to claim 5 or 6.
前記残差ブロックは、畳み込み層、バッチ正規化層、ReLU活性化関数および最大プーリング層を含む、
請求項5または6に記載の方法。
The residual block comprises a convolution layer, a batch normalization layer, a ReLU activation function and a maximum pooling layer.
The method according to claim 5 or 6.
前記第一特徴マップに含まれる特徴の次元削減を行い、第二特徴マップを生成することは、
前記第一特徴マップの全ての特徴のそれぞれに対してチャネル次元とZ軸次元とをマージして、前記第一特徴マップの全ての特徴のそれぞれの次元をX軸次元およびY軸次元からなるものにし、前記全ての特徴のそれぞれの次元がX軸次元およびY軸次元からなる第一特徴マップを前記第二特徴マップとすることを含む、
請求項1に記載の方法。
It is possible to reduce the dimensions of the features included in the first feature map and generate the second feature map.
The channel dimension and the Z-axis dimension are merged for each of the features of the first feature map, and each dimension of all the features of the first feature map consists of the X-axis dimension and the Y-axis dimension. A first feature map in which each dimension of all the features consists of an X-axis dimension and a Y-axis dimension is used as the second feature map.
The method according to claim 1.
前記第二特徴マップを検出することは、
第一検出サブネットによって前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣の位置の座標を得ることと、
第二検出サブネットによって前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣に対応する信頼度を得ることと、を含む、
請求項1に記載の方法。
Detecting the second feature map is
The second feature map is detected by the first detection subnet, and the coordinates of the position of each lesion in the second feature map are obtained.
The second detection subnet includes detecting the second feature map and obtaining the reliability corresponding to each lesion in the second feature map.
The method according to claim 1.
前記第一検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含み、
前記第二検出サブネットは、それぞれが一つのReLU活性化関数と接続される複数の畳み込み層を含む、
請求項10に記載の方法。
The first detection subnet contains a plurality of convolution layers, each connected to one ReLU activation function.
The second detection subnet comprises a plurality of convolution layers, each connected to one ReLU activation function.
The method according to claim 10.
前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、
予め保存された、病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を前記第一ニューラルネットワークに入力し、勾配降下法を使用して前記第一ニューラルネットワーク、前記第二ニューラルネットワーク、前記第一検出サブネットおよび前記第二検出サブネットの各パラメータをそれぞれ訓練することを、さらに含み、
前記複数の病巣のそれぞれの位置は前記第一検出サブネットにより出力される、
請求項1、2、3、5、6、7、8、9、10および11のいずれか一項に記載の方法。
Before extracting the features of the first image and generating a first feature map containing the features and locations of the lesions,
A pre-stored three-dimensional image containing a plurality of lesion labels for labeling the lesion is input to the first neural network, and the first neural network and the second neural network are used by the gradient descent method. Further includes training each parameter of the first detection subnet and the second detection subnet, respectively.
The position of each of the plurality of lesions is output by the first detection subnet.
The method according to any one of claims 1, 2, 3, 5, 6, 7, 8, 9, 10 and 11.
前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップを生成する前に、
病巣をラベリングするための病巣ラベルが複数含まれている三次元画像を前記第二ニューラルネットワークに入力し、勾配降下法を使用して前記第二ニューラルネットワーク、前記第一検出サブネットおよび前記第二検出サブネットの各パラメータをそれぞれ訓練することを、さらに含み、
前記複数の病巣のそれぞれの位置は前記第一検出サブネットにより出力される、
請求項1、2、4、7、9、10および11のいずれか一項に記載の方法。
Before extracting the features of the first image and generating a first feature map containing the features and locations of the lesions,
A three-dimensional image containing a plurality of lesion labels for labeling the lesion is input to the second neural network, and the second neural network, the first detection subnet, and the second detection are used by using the gradient descent method. Further including training each parameter of the subnet,
The position of each of the plurality of lesions is output by the first detection subnet.
The method according to any one of claims 1, 2, 4, 7, 9, 10 and 11.
複数のサンプル切片を含む第一画像であって、X軸次元、Y軸次元およびZ軸次元を含む三次元画像である第一画像を取得するための取得ユニットと、
前記第一画像の特徴を抽出し、病巣の特徴および位置が含まれる第一特徴マップであって、前記X軸次元、Y軸次元およびZ軸次元の三次元特徴を含む第一特徴マップを生成するための第一生成ユニットと、
前記第一特徴マップに含まれる特徴の次元削減を行い、X軸次元およびY軸次元の二次元特徴を含む第二特徴マップを生成するための第二生成ユニットと、
前記第二特徴マップを検出し、前記第二特徴マップにおける各病巣の位置および前記位置に対応する信頼度を得るための検出ユニットと、を含む、
病巣検出装置。
An acquisition unit for acquiring a first image that is a first image including a plurality of sample sections and is a three-dimensional image including an X-axis dimension, a Y-axis dimension, and a Z-axis dimension.
The features of the first image are extracted, and a first feature map including the features and positions of the lesion, which includes the three-dimensional features of the X-axis dimension, the Y-axis dimension, and the Z-axis dimension, is generated. With the first generation unit to
A second generation unit for reducing the dimensions of the features included in the first feature map and generating a second feature map containing two-dimensional features of the X-axis dimension and the Y-axis dimension.
A detection unit for detecting the second feature map and obtaining the position of each lesion in the second feature map and the reliability corresponding to the position.
Focal detector.
ディスプレイ、メモリおよび前記メモリに結合されるプロセッサを含む病巣検出機器であって、前記ディスプレイは病巣の位置および前記位置に対応する信頼度を表示するために用いられ、前記メモリはアプリケーションプログラムコードを記憶するために用いられ、前記プロセッサは前記プログラムコードを呼び出すことによって請求項1から13のいずれか一項に記載の病巣検出方法を実行するように構成される、
病巣検出機器。
A lesion detection device that includes a display, memory, and a processor coupled to the memory, wherein the display is used to display the location of the lesion and the reliability corresponding to the location, the memory storing application program code. The processor is configured to execute the lesion detection method according to any one of claims 1 to 13 by calling the program code.
Focal detection device.
プログラム命令を含むコンピュータプログラムが記憶されているコンピュータ読取可能記憶媒体であって、前記プログラム命令は、プロセッサにより実行されると、前記プロセッサに請求項1から13のいずれか一項に記載の病巣検出方法を実行させる、
コンピュータ読取可能記憶媒体。
A computer-readable storage medium in which a computer program including a program instruction is stored, and when the program instruction is executed by the processor, the lesion detection according to any one of claims 1 to 13 is performed on the processor. Make the method run,
Computer-readable storage medium.
コンピュータ読取可能コードを含むコンピュータプログラムであって、前記コンピュータ読取可能コードは、電子機器において実行されると、前記電子機器のプロセッサに請求項1から13のいずれか一項に記載の病巣検出方法を実現するための命令を実行させる、
コンピュータプログラム。
A computer program including a computer-readable code, wherein when the computer-readable code is executed in an electronic device, the processor of the electronic device is subjected to the lesion detection method according to any one of claims 1 to 13. Execute the command to realize it,
Computer program.
JP2021500548A 2018-12-07 2019-10-30 Focal detection methods, devices, equipment and storage media Active JP7061225B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811500631.4 2018-12-07
CN201811500631.4A CN109754389B (en) 2018-12-07 2018-12-07 Image processing method, device and equipment
PCT/CN2019/114452 WO2020114158A1 (en) 2018-12-07 2019-10-30 Method, apparatus and device for detecting lesion, and storage medium

Publications (2)

Publication Number Publication Date
JP2021531565A JP2021531565A (en) 2021-11-18
JP7061225B2 true JP7061225B2 (en) 2022-04-27

Family

ID=66402643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021500548A Active JP7061225B2 (en) 2018-12-07 2019-10-30 Focal detection methods, devices, equipment and storage media

Country Status (7)

Country Link
US (1) US20210113172A1 (en)
JP (1) JP7061225B2 (en)
KR (1) KR20210015972A (en)
CN (2) CN109754389B (en)
SG (1) SG11202013074SA (en)
TW (1) TWI724669B (en)
WO (1) WO2020114158A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754389B (en) * 2018-12-07 2021-08-24 北京市商汤科技开发有限公司 Image processing method, device and equipment
CN110175993A (en) * 2019-05-27 2019-08-27 西安交通大学医学院第一附属医院 A kind of Faster R-CNN pulmonary tuberculosis sign detection system and method based on FPN
CN110533637B (en) * 2019-08-02 2022-02-11 杭州依图医疗技术有限公司 Method and device for detecting object
CN110580948A (en) * 2019-09-12 2019-12-17 杭州依图医疗技术有限公司 Medical image display method and display equipment
CN111402252B (en) * 2020-04-02 2021-01-15 和宇健康科技股份有限公司 Accurate medical image analysis method and robot surgery system
CN111816281B (en) * 2020-06-23 2024-05-14 无锡祥生医疗科技股份有限公司 Ultrasonic image inquiry device
CN112116562A (en) * 2020-08-26 2020-12-22 重庆市中迪医疗信息科技股份有限公司 Method, device, equipment and medium for detecting focus based on lung image data
CN112258564B (en) * 2020-10-20 2022-02-08 推想医疗科技股份有限公司 Method and device for generating fusion feature set
CN112017185B (en) * 2020-10-30 2021-02-05 平安科技(深圳)有限公司 Focus segmentation method, device and storage medium
US11830622B2 (en) * 2021-06-11 2023-11-28 International Business Machines Corporation Processing multimodal images of tissue for medical evaluation
CN114943717B (en) * 2022-05-31 2023-04-07 北京医准智能科技有限公司 Method and device for detecting breast lesions, electronic equipment and readable storage medium
CN115170510B (en) * 2022-07-04 2023-04-07 北京医准智能科技有限公司 Focus detection method and device, electronic equipment and readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017031088A1 (en) 2015-08-15 2017-02-23 Salesforce.Com, Inc Three-dimensional (3d) convolution with 3d batch normalization
CN108022238A (en) 2017-08-09 2018-05-11 深圳科亚医疗科技有限公司 Method, computer-readable storage medium and the system being detected to object in 3D rendering
US20180144209A1 (en) 2016-11-22 2018-05-24 Lunit Inc. Object recognition method and apparatus based on weakly supervised learning
CN108171709A (en) 2018-01-30 2018-06-15 北京青燕祥云科技有限公司 Detection method, device and the realization device of Liver masses focal area
CN108257674A (en) 2018-01-24 2018-07-06 龙马智芯(珠海横琴)科技有限公司 Disease forecasting method and apparatus, equipment, computer readable storage medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974108A (en) * 1995-12-25 1999-10-26 Kabushiki Kaisha Toshiba X-ray CT scanning apparatus
US7747057B2 (en) * 2006-05-26 2010-06-29 General Electric Company Methods and apparatus for BIS correction
US9208556B2 (en) * 2010-11-26 2015-12-08 Quantitative Insights, Inc. Method, system, software and medium for advanced intelligent image analysis and display of medical images and information
US10238368B2 (en) * 2013-09-21 2019-03-26 General Electric Company Method and system for lesion detection in ultrasound images
WO2016054779A1 (en) * 2014-10-09 2016-04-14 Microsoft Technology Licensing, Llc Spatial pyramid pooling networks for image processing
JP6849966B2 (en) * 2016-11-21 2021-03-31 東芝エネルギーシステムズ株式会社 Medical image processing equipment, medical image processing methods, medical image processing programs, motion tracking equipment and radiation therapy systems
CN106780460B (en) * 2016-12-13 2019-11-08 杭州健培科技有限公司 A kind of Lung neoplasm automatic checkout system for chest CT images
JP7054787B2 (en) * 2016-12-22 2022-04-15 パナソニックIpマネジメント株式会社 Control methods, information terminals, and programs
CN108447046B (en) * 2018-02-05 2019-07-26 龙马智芯(珠海横琴)科技有限公司 The detection method and device of lesion, computer readable storage medium
CN108764241A (en) * 2018-04-20 2018-11-06 平安科技(深圳)有限公司 Divide method, apparatus, computer equipment and the storage medium of near end of thighbone
CN108852268A (en) * 2018-04-23 2018-11-23 浙江大学 A kind of digestive endoscopy image abnormal characteristic real-time mark system and method
CN108717569B (en) * 2018-05-16 2022-03-22 中国人民解放军陆军工程大学 Expansion full-convolution neural network device and construction method thereof
CN109754389B (en) * 2018-12-07 2021-08-24 北京市商汤科技开发有限公司 Image processing method, device and equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017031088A1 (en) 2015-08-15 2017-02-23 Salesforce.Com, Inc Three-dimensional (3d) convolution with 3d batch normalization
US20180144209A1 (en) 2016-11-22 2018-05-24 Lunit Inc. Object recognition method and apparatus based on weakly supervised learning
CN108022238A (en) 2017-08-09 2018-05-11 深圳科亚医疗科技有限公司 Method, computer-readable storage medium and the system being detected to object in 3D rendering
CN108257674A (en) 2018-01-24 2018-07-06 龙马智芯(珠海横琴)科技有限公司 Disease forecasting method and apparatus, equipment, computer readable storage medium
CN108171709A (en) 2018-01-30 2018-06-15 北京青燕祥云科技有限公司 Detection method, device and the realization device of Liver masses focal area

Also Published As

Publication number Publication date
KR20210015972A (en) 2021-02-10
TWI724669B (en) 2021-04-11
WO2020114158A1 (en) 2020-06-11
CN109754389A (en) 2019-05-14
CN109754389B (en) 2021-08-24
CN111292301A (en) 2020-06-16
SG11202013074SA (en) 2021-01-28
JP2021531565A (en) 2021-11-18
US20210113172A1 (en) 2021-04-22
TW202032579A (en) 2020-09-01

Similar Documents

Publication Publication Date Title
JP7061225B2 (en) Focal detection methods, devices, equipment and storage media
JP7386812B2 (en) lighting estimation
US10101898B2 (en) Multi-touch graphical user interface for interacting with menus on a handheld device
TWI512598B (en) One-click tagging user interface
US7423640B2 (en) Method and system for panoramic display of medical images
JP2021532447A (en) Augmented reality model video multi-planar interaction methods, devices, devices and storage media
CN110168619B (en) System and method for rendering complex data in a virtual reality or augmented reality environment
US10957107B2 (en) Snapping, virtual inking, and accessibility in augmented reality
CN108874336B (en) Information processing method and electronic equipment
DE112018002775T5 (en) METHOD AND DEVICE FOR DETECTING PLANES AND / OR QUADTREES FOR USE AS A VIRTUAL SUBSTRATE
US20240134499A1 (en) Image template-based ar form experiences
CN107480673B (en) Method and device for determining interest region in medical image and image editing system
CN108369486B (en) Universal inking support
Kottamasu User interaction of one-dimensional panoramic images for iPod Touch
JP5446700B2 (en) Information processing apparatus, information processing method, and program
CN113129362A (en) Method and device for acquiring three-dimensional coordinate data
CN115421631A (en) Interface display method and device
WO2018209515A1 (en) Display system and method
US8890889B1 (en) System and method for generating a pose of an object
CN109754450B (en) Method, device and equipment for generating track
WO2022181253A1 (en) Joint point detection device, teaching model generation device, joint point detection method, teaching model generation method, and computer-readable recording medium
CN111681739B (en) Pathological information display method and computer readable storage medium
KR102639050B1 (en) Vr image content providing ststem
CN110147260B (en) Method, medium, apparatus and computing device for implementing scene transition animation
US20230298283A1 (en) Gesture based tactile interaction in extended reality using form factor of a physical object

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220415

R150 Certificate of patent or registration of utility model

Ref document number: 7061225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150