WO2022127043A1 - 基于卷积神经网络的检测方法、装置、计算机设备及存储介质 - Google Patents

基于卷积神经网络的检测方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
WO2022127043A1
WO2022127043A1 PCT/CN2021/097190 CN2021097190W WO2022127043A1 WO 2022127043 A1 WO2022127043 A1 WO 2022127043A1 CN 2021097190 W CN2021097190 W CN 2021097190W WO 2022127043 A1 WO2022127043 A1 WO 2022127043A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
feature map
oct image
feature
feature maps
Prior art date
Application number
PCT/CN2021/097190
Other languages
English (en)
French (fr)
Inventor
张成奋
吕彬
吕传峰
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2022127043A1 publication Critical patent/WO2022127043A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present application relates to the field of computer technology, and in particular, to a detection method, device, computer equipment and storage medium based on a convolutional neural network.
  • OCT optical coherence tomography
  • a variety of retinal lesions such as intraretinal fluid accumulation, pigment epithelial detachment, and choroidal neovascularization, can be observed through OCT images.
  • the automatic lesion detection of ophthalmic OCT images through image processing technology and deep learning technology can provide effective diagnostic indicators for doctors to make initial diagnosis of ophthalmic diseases, evaluation of treatment response and follow-up examinations.
  • the commonly used detection models are the Mask-RCNN model and the YOLO model. These detection models have achieved good results in many natural image object detection and positioning tasks. These models usually extract images by building image pyramids or feature pyramids. characteristics of each level.
  • the embodiments of the present application provide a detection method, device, computer equipment and storage medium based on a convolutional neural network, aiming to improve the rapid and accurate detection of lesions in OCT images.
  • an embodiment of the present application provides a detection method based on a convolutional neural network, which includes:
  • the response value of each pixel in each of the first feature maps is calculated by a preset algorithm, and the calculation result is marked on the corresponding first feature map to obtain the marked first feature map as the second feature map , wherein the larger the response value, the higher the probability that the corresponding pixel has the lesion;
  • the OCT image to be detected is input into a multi-layer fully connected network to respectively determine the location and category of the lesion to obtain a detection result.
  • the embodiment of the present application also provides a detection device based on a convolutional neural network, which includes:
  • a preprocessing unit configured to preprocess the acquired target OCT image to obtain a plurality of feature maps of different scales, the target OCT image including a plurality of lesions;
  • a first processing unit configured to adjust the resolutions of the plurality of feature maps of different scales according to a preset method to obtain a plurality of feature maps with the same resolution as the first feature maps;
  • the first calculation unit is used to calculate the response value of each pixel point in each of the first feature maps by a preset algorithm and mark the calculation result on the corresponding first feature map to obtain the identified first feature map.
  • the feature map is used as the second feature map;
  • a restoration unit configured to restore the resolution of each of the second feature maps through an upsampling method to restore each of the second feature maps to the original resolution to obtain a target feature map
  • a generating unit configured to identify the target area in the target feature map according to the area generation network and the response value to obtain the OCT image to be detected
  • the detection unit is used for inputting the OCT image to be detected into a multi-layer fully connected network to respectively determine the location and category of the lesion to obtain a detection result.
  • an embodiment of the present application further provides a computer device, where the computer device includes a memory, and a processor connected to the memory;
  • the memory is used to store a computer program; the processor is used to run the computer program stored in the memory to perform the following steps:
  • the response value of each pixel in each of the first feature maps is calculated by a preset algorithm, and the calculation result is marked on the corresponding first feature map to obtain the marked first feature map as the second feature map , wherein the larger the response value, the higher the probability that the corresponding pixel has the lesion;
  • the OCT image to be detected is input into a multi-layer fully connected network to determine the location and category of the lesion to obtain a detection result.
  • embodiments of the present application further provide a computer-readable storage medium, wherein the computer-readable storage medium stores a computer program, and when executed by a processor, the computer program causes the processor to execute the following: operate:
  • the resolutions of the multiple feature maps of different scales are adjusted to obtain multiple feature maps with the same resolution as the first feature map;
  • the response value of each pixel in each of the first feature maps is calculated by a preset algorithm, and the calculation result is marked on the corresponding first feature map to obtain the marked first feature map as the second feature map , wherein the larger the response value, the higher the probability that the corresponding pixel has the lesion;
  • the OCT image to be detected is input into a multi-layer fully connected network to determine the location and category of the lesion to obtain a detection result.
  • the technical solutions of the embodiments of the present application are aimed at reducing the detection accuracy of lesions caused by the presence of small lesions and many types of lesions in ophthalmic OCT images and complex shapes.
  • the feature map capability of morphological and large lesions reduces the missed detection of small lesions.
  • the first feature map is obtained by unifying the target feature map to the same resolution
  • the second feature map is obtained by calculating the first feature map through a preset algorithm to enhance
  • the feature map further improves the accuracy of lesion detection, and finally performs detection through a preset method, thereby realizing the rapid and accurate detection of the existing area and category of the lesion.
  • FIG. 1 is a schematic flowchart of a detection method based on a convolutional neural network provided by an embodiment of the present application
  • FIG. 2 is a schematic sub-flow diagram of a detection method based on a convolutional neural network provided by an embodiment of the present application
  • FIG. 3 is a schematic block diagram of a detection device based on a convolutional neural network provided by an embodiment of the present application
  • FIG. 4 is a schematic block diagram of a first input unit for detection based on a convolutional neural network according to an embodiment of the present application
  • FIG. 5 is a schematic block diagram of a computer device according to an embodiment of the present application.
  • FIG. 1 is a schematic flowchart of a detection method based on a convolutional neural network provided by an embodiment of the present application.
  • the detection method based on the convolutional neural network in the embodiments of the present application can be applied to devices such as smart phones (such as Android phones, IOS phones, etc.), tablet computers, notebook computers, and smart devices.
  • the method of the present application can quickly and accurately detect the region and category of lesions in the OCT image. As shown in FIG. 1, the method includes steps S110-S160.
  • the steps may include: acquiring a preset OCT image set; training a residual convolutional neural network based on the preset OCT image set to Obtain the target residual convolutional neural network.
  • the preset OCT image set contains multiple OCT images, and these OCT images are used to train the residual convolutional neural network after being screened and processed by professional doctors.
  • Different OCT images can be input into the residual convolutional neural network for training.
  • Each training of the residual convolutional neural network can improve the image recognition accuracy of the residual convolutional neural network, and finally obtain the target residual convolutional neural network.
  • the network is used to extract feature representations from OCT images.
  • S110 Preprocess the acquired target OCT image to obtain multiple feature maps of different scales, where the target OCT image includes multiple lesions.
  • the target OCT image includes multiple lesions, and these lesions are composed of multiple lesions of different sizes and types, and most of the lesions have different shapes. Therefore, the target OCT image needs to be processed by a preset method. Feature extraction to obtain multiple feature maps of different scales. For example, after preprocessing the target OCT image, four feature maps of different scales are obtained, which are C1, C2, C3 and C4, namely C1, C2, C3 And C4 is the feature map of the target OCT image, and its resolution is different, and C1, C2, C3 and C4 together form the target feature map.
  • the step S110 may include sub-steps: acquiring the target OCT image; adjusting the size of the target OCT image and inputting it to the target residual convolutional neural network to obtain Multiple feature maps of different scales.
  • the target OCT image may be an image processed by a professional doctor, and the target OCT image includes a plurality of lesions of different types, and the positions of the lesions are also different.
  • the target OCT image may be passed through a residual convolution network composed of multiple convolution layers, pooling layers, etc. for multiple times to obtain multiple feature maps of the target OCT image at different scales.
  • the multiple feature maps are combined into a target feature map.
  • the high-level feature maps extracted by the convolutional network have rich semantic information, while the low-level feature maps have more accurate location information.
  • the high-level feature maps and low-level feature maps are feature maps of different scales. The information interaction helps to improve the feature map capability, so that the target feature map has richer information.
  • the steps adjust the size of the target OCT image and input it to the target residual convolutional neural network to obtain a plurality of feature maps of different scales May include sub-steps S310-S340
  • S310 Determine the target size of the target OCT image to be adjusted.
  • the target size can be manually set by the user, for example, it can be 1024*1024, and the target size is not unique, and multiple target sizes can be set according to actual conditions.
  • the target OCT image after confirming the target size, can be enlarged or reduced to the target size.
  • the original target OCT image is 512*512 and the target size is 1024*1024, then the target OCT image can be enlarged to 1024*1024.
  • the adjusted target OCT image is output to the target residual convolutional neural network to obtain a corresponding feature map.
  • S340 Re-determine the target size of the target OCT image to be adjusted, and return to the step of adjusting the target OCT image to the target size until a plurality of feature maps of different scales are obtained.
  • the next target size is re-determined, for example, it may be 2048*2048, and then steps S320 to S340 are repeated until all feature maps of the target size are obtained, thereby Obtain multiple feature maps at different scales.
  • the target feature maps that is, multiple feature maps of different scales
  • the feature map of each scale has its corresponding first feature map.
  • the resolution of C1 is 2048*2048
  • the resolution of C2 is 1024*1024
  • the resolution of C3 is 512*512
  • the resolution of C4 is 256*256
  • the resolution of C1 can be unified to 512*512
  • the resolution of C2 is unified to 512*512 to obtain the first feature map of C2, wherein the resolutions of C1, C2, C3 and C4 are not specifically limited.
  • the step S120 may include a sub-step: adjusting the feature map of the target feature map smaller than the preset resolution to the size of the preset resolution by interpolation; Adjusting the feature map of the target feature map larger than the preset resolution to the size of the preset resolution by a merging method; setting the feature map adjusted to the preset resolution size as the first feature map.
  • the resolution of the high-level feature map is smaller than that of the low-level feature map.
  • the resolutions of the feature maps are unified to the same resolution.
  • the default resolution is 1024*1024
  • the resolution of C1 is 2048*2048
  • the resolution of C2 is 1024*1024
  • the resolution of C3 is 512* 512
  • the resolution of C4 is 256*256
  • the resolution of C3 of 512*512 can be unified to 1024*1024 by interpolation method, that is, the interpolation method is used to unify low resolution to high resolution Rate.
  • the merging method Adjusts the feature map of the target feature map larger than the preset resolution to the size of the preset resolution by the merging method.
  • the resolution of C1 is 2048*2048
  • the resolution of C1 2048*2048 is unified by the merging method. 1024*1024. That is, the binning method is used to unify the high resolution to the low resolution.
  • the obtained first feature maps of different scales can have the same resolution.
  • the response value of each point of the first feature map of different scales may be calculated by a preset method, and specifically, it may be calculated by using a spatial attention network.
  • the response value of each point of the first feature map uses the spatial attention mechanism to calculate the response value of each point of the first feature map, and the spatial attention mechanism can focus on local information, such as the area where a small lesion is located in the OCT image.
  • the response value is the result calculated by the spatial attention network, which can be understood as the probability value of a lesion at each point, that is, the larger the response value, the greater the probability of a lesion at the point.
  • the step S130 may include a sub-step: performing a 1*1 convolution operation on each feature map in the first feature map to obtain a corresponding intermediate feature map;
  • the response value of each point of each of the intermediate feature maps is calculated by the spatial attention network, and the calculation result is marked on the corresponding intermediate feature map to obtain the second feature map.
  • the spatial attention network uses the spatial attention network to calculate the response value of each point of the first feature map to calculate the response value of each point of the first feature map.
  • a point with a larger response value indicates that the point is more likely to be a lesion in the OCT image.
  • the first feature map contains multiple feature maps of the same resolution. Therefore, when calculating with the spatial attention sub-network, it is necessary to calculate the response value of each point of each feature map.
  • the similarity calculation of the response value can also be performed by using the embedded Gaussian formula to further improve the detection accuracy.
  • the operation process is as follows:
  • upsampling is generally used to restore the size of the feature map to the original size, so as to facilitate subsequent detection.
  • Common up-sampling methods include bilinear interpolation, transposed convolution, up-sampling, and up-pooling. In this embodiment of the present application, it is not limited to which up-sampling method is used.
  • S150 Identify the target area in the target feature map according to the area generation network and the response value to obtain the OCT image to be detected.
  • the target region can be identified by the region generation network (RPN) and the response value on the feature map, and the target region is a virus
  • the region of interest that is, the region where the virus has a high probability of being present.
  • S160 Input the OCT image to be detected into a multi-layer fully connected network to determine the location and category of the lesion to obtain a detection result.
  • inputting the OCT image to be detected into the multi-layer fully connected network can determine the location of the lesion and the type of the lesion, and output the detection result as an image for easy reference by the user.
  • the step S160 may include sub-steps: inputting the OCT image to be detected into the multi-layer fully connected network to identify the location where the lesion exists; according to the lesion to identify the category of the lesion; output the detection result according to the location of the lesion and the category of the lesion.
  • the region detection network or region generation network (RPN) is used to identify the region where the virus may exist in the OCT image to be detected, that is, the region of interest where the lesion may exist. It is judged and extracted according to the response value obtained by the calculation in the previous steps.
  • RPN region generation network
  • the location of the lesion is detected through the multi-layer fully connected network, and then the category of the lesion is detected through the multi-layer fully connected network, and the two results are combined to obtain the location and category of the lesion in the target OCT image.
  • the detection result is output for the user to consult.
  • FIG. 3 is a schematic block diagram of a detection apparatus 100 based on a convolutional neural network provided by an embodiment of the present application. As shown in FIG. 3 , corresponding to the above detection method based on a convolutional neural network, the present application further provides a detection apparatus 100 based on a convolutional neural network.
  • the detection apparatus 100 based on a convolutional neural network includes a unit for performing the above-mentioned detection method based on a convolutional neural network. Specifically, referring to FIG.
  • the detection apparatus 100 based on a convolutional neural network includes a preprocessing unit 110 , a first processing unit 120 , a first computing unit 130 , a restoring unit 140 , a generating unit 150 and a detecting unit 160 .
  • the preprocessing unit 110 is configured to preprocess the acquired target OCT image to obtain a target feature map; the first processing unit 120 is configured to unify the target feature map to the same resolution according to a preset method to obtain the first feature
  • the first calculation unit 130 is used to calculate the response value of each point of the first feature map through a preset algorithm to obtain a second feature map; the restoration unit 140 is used to perform upsampling on the second feature map. restore to obtain a third feature map;
  • the generating unit 150 is used for identifying the target region in the target feature map according to the region generating network and the response value to obtain the OCT image to be detected; the detecting unit 160 is used for detecting the detected OCT image by a preset method
  • the regions and categories of lesions in the third feature map are described.
  • the detection apparatus 100 based on a convolutional neural network further includes a first acquisition unit and a training unit.
  • the first acquisition unit is used for acquiring a preset OCT image set;
  • the training unit is used for training a residual convolutional neural network based on the preset OCT image set to obtain a target residual convolutional neural network.
  • the preprocessing unit 110 includes an acquisition unit and a first input unit.
  • the obtaining unit is used for obtaining the target OCT image;
  • the first input unit is used for adjusting the size of the target OCT image and inputting it to the target residual convolutional neural network to obtain a plurality of feature maps of different scales.
  • the first input unit includes a first confirmation unit 310 , a first adjustment unit 320 , a second input unit 330 and a return unit 340 .
  • the first confirmation unit 310 is used to determine the target size of the target OCT image to be adjusted; the first adjustment unit 320 is used to adjust the target OCT image to the target size; the second input unit 330 is used to adjust the The completed target OCT image is input to the target residual convolutional neural network to obtain a corresponding feature map; the returning unit 340 is used to re-determine the target size of the target OCT image to be adjusted and return to the The step of adjusting the target OCT image to the target size until a plurality of feature maps of different scales are obtained.
  • the first processing unit 120 includes a second adjustment unit, a third adjustment unit, and a second confirmation unit.
  • the second adjustment unit is used to adjust the feature map smaller than the preset resolution in the target feature map to the size of the preset resolution by interpolation;
  • the third adjustment unit is used to adjust the target feature map to the size of the preset resolution;
  • the feature map larger than the preset resolution is adjusted to the size of the preset resolution by a merging method;
  • the second confirmation unit is used to set the feature map adjusted to the preset resolution size as the first feature picture.
  • the first computing unit 130 includes a second computing unit and a third computing unit.
  • the second computing unit is used to perform a 1*1 convolution operation on each feature map in the first feature map to obtain a corresponding intermediate feature map;
  • the third computing unit is used to calculate through the spatial attention network The response value of each point of each of the intermediate feature maps and the calculation results are marked on the corresponding intermediate feature maps to obtain the second feature map.
  • the detection unit 160 includes a first identification unit, a second identification unit, and an output unit.
  • the first identification unit is used to input the OCT image to be detected into the multi-layer fully connected network to identify the location of the lesion; the second identification unit is used to identify the lesion according to the shape of the lesion The output unit is used for outputting the detection result according to the existing position of the lesion and the category of the lesion.
  • the above-mentioned detection apparatus based on a convolutional neural network can be implemented in the form of a computer program, and the computer program can be executed on a computer device as shown in FIG. 5 .
  • FIG. 5 is a schematic block diagram of a computer device provided by an embodiment of the present application.
  • the computer device 1300 is a server side.
  • the computer device 1300 includes a processor 1302 , a memory and an interface 1107 connected by a system bus 1301 , wherein the memory may include a non-volatile storage medium 1303 and an internal memory 1304 .
  • the nonvolatile storage medium 1303 can store an operating system 13031 and a computer program 13032 .
  • the computer program 13032 when executed, can cause the processor 1302 to perform a detection method based on a convolutional neural network.
  • the processor 1302 is used to provide computing and control capabilities to support the operation of the entire computer device 1300 .
  • the internal memory 1304 provides an environment for running the computer program 13032 in the non-volatile storage medium 1303.
  • the processor 1302 can execute a detection method based on a convolutional neural network.
  • the interface 1305 is used to communicate with other devices.
  • FIG. 5 is only a block diagram of a partial structure related to the solution of the present application, and does not constitute a limitation on the computer device 1300 to which the solution of the present application is applied.
  • the specific computer device 1300 may include more or fewer components than shown, or combine certain components, or have a different arrangement of components.
  • processor 1302 is used to run the computer program 13032 stored in the memory to realize the following steps:
  • the response value of each pixel in each of the first feature maps is calculated by a preset algorithm, and the calculation result is marked on the corresponding first feature map to obtain the marked first feature map as the second feature map , wherein the larger the response value, the higher the probability that the corresponding pixel has the lesion;
  • the OCT image to be detected is input into a multi-layer fully connected network to determine the location and category of the lesion to obtain a detection result.
  • the processor 1302 before implementing the step of preprocessing the acquired target OCT image to obtain multiple feature maps of different scales, the processor 1302 further includes the following steps:
  • the residual convolutional neural network is trained to obtain the target residual convolutional neural network.
  • the processor 1302 when the processor 1302 implements the step of preprocessing the acquired target OCT image to obtain the target feature map, the processor 1302 specifically implements the following steps:
  • the size of the target OCT image is adjusted and input to the target residual convolutional neural network to obtain multiple feature maps of different scales.
  • the processor 1302 is performing the step of adjusting the size of the target OCT image and inputting it to the target residual convolutional neural network to obtain a plurality of feature maps of different scales , the specific steps are as follows:
  • the processor 1302 adjusts the resolutions of the multiple feature maps of different scales according to the preset method to obtain multiple feature maps with the same resolution as During the steps of the first feature map, the following steps are specifically implemented:
  • the feature map adjusted to the preset resolution size is set as the first feature map.
  • the processor 1302 calculates the response value of each pixel in each of the first feature maps by using a preset algorithm and marks the calculation result in the corresponding
  • the following steps are specifically implemented:
  • the response value of each point of each intermediate feature map is calculated by the spatial attention network and the calculation result is marked on the corresponding intermediate feature map to obtain the second feature map.
  • the processor 1302 when the processor 1302 implements the step of inputting the OCT image to be detected into a multi-layer fully connected network to respectively determine the location and category of the lesion to obtain a detection result , the specific steps are as follows:
  • the detection result is output according to the location where the lesion exists and the category of the lesion.
  • the processor 1302 may be a central processing unit (Central Processing Unit, CPU), and the processor 1302 may also be other general-purpose processors, digital signal processors (Digital Signal Processors, DSP), Application Specific Integrated Circuit (ASIC), Field-Programmable Gate Array (FPGA) or other programmable logic devices, discrete gate or transistor logic devices, discrete hardware components, etc.
  • the general-purpose processor can be a microprocessor or the processor can also be any conventional processor or the like.
  • the computer program can be stored in a storage medium, which is a computer-readable storage medium.
  • the computer program is executed by at least one processor in the computer system to implement the flow steps of the above-described method embodiments.
  • the present application also provides a storage medium.
  • the computer-readable storage medium may be non-volatile or volatile.
  • the storage medium stores a computer program.
  • the computer program when executed by the processor, causes the processor to perform the following steps:
  • the response value of each pixel in each of the first feature maps is calculated by a preset algorithm, and the calculation result is marked on the corresponding first feature map to obtain the marked first feature map as the second feature map , wherein the larger the response value, the higher the probability that the corresponding pixel has the lesion;
  • the OCT image to be detected is input into a multi-layer fully connected network to determine the location and category of the lesion to obtain a detection result.
  • the processor before the processor executes the computer program to realize the step of preprocessing the acquired target OCT image to obtain a plurality of feature maps of different scales, the processor further includes: Follow the steps below:
  • the residual convolutional neural network is trained to obtain the target residual convolutional neural network.
  • the processor when the processor executes the computer program to implement the step of preprocessing the acquired target OCT image to obtain the target feature map, the processor specifically implements the following steps:
  • the size of the target OCT image is adjusted and input to the target residual convolutional neural network to obtain multiple feature maps of different scales.
  • the processor is executing the computer program to achieve the resizing of the target OCT image and inputting it to the target residual convolutional neural network to obtain a plurality of
  • the steps of feature maps of different scales are specifically implemented:
  • the processor is executing the computer program to implement the adjustment of the resolutions of the feature maps of the plurality of different scales according to a preset method to obtain a plurality of feature maps with different scales.
  • the feature map of the same resolution is used as the step of the first feature map, the following steps are specifically implemented:
  • the feature map adjusted to the preset resolution size is set as the first feature map.
  • the processor executes the computer program to achieve the calculation of the response value of each pixel in each of the first feature maps by using a preset algorithm and When the calculation result is marked on the corresponding first feature map to obtain the marked first feature map as the step of the second feature map, the following steps are specifically implemented:
  • the response value of each point of each of the intermediate feature maps is calculated by the spatial attention network, and the calculation result is marked on the corresponding intermediate feature map to obtain the second feature map.
  • the processor is executing the computer program to implement the input of the OCT image to be detected into a multi-layer fully connected network to determine the location and category of the lesion respectively
  • the following steps are specifically implemented:
  • the detection result is output according to the location where the lesion exists and the category of the lesion.
  • the storage medium may be various computer-readable storage media that can store program codes, such as a U disk, a removable hard disk, a read-only memory (Read-Only Memory, ROM), a magnetic disk, or an optical disk.
  • program codes such as a U disk, a removable hard disk, a read-only memory (Read-Only Memory, ROM), a magnetic disk, or an optical disk.

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

一种基于卷积神经网络的检测方法、装置、计算机设备及存储介质,该方法属于人工智能中的神经网络技术领域,其包括:对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图;根据预设方法对多个不同尺度的特征图进行调整以获得第一特征图;通过预设算法计算每个第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得第二特征图;通过上采样方法将每个第二特征图进行分辨率还原以获得目标特征图;根据区域生成网络以及响应值识别目标特征图中的目标区域以获得待检测OCT图像;将待检测OCT图像输入至多层全连接网络以分别确定病灶存在的位置和类别。所述方法可以提高检测OCT图像中病灶的效率和准确率。

Description

基于卷积神经网络的检测方法、装置、计算机设备及存储介质
本申请要求于2020年12月15日提交中国专利局、申请号为202011476582.2,发明名称为“基于卷积神经网络的检测方法、装置、计算机设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,尤其涉及一种基于卷积神经网络的检测方法、装置、计算机设备及存储介质。
背景技术
光学相干断层扫描技术(OCT)是用于视网膜病变检测的一项重要技术,通过OCT图像可以观测到多种视网膜病灶,例如,视网膜内积液、色素上皮脱离、脉络膜新生血管等。而通过图像处理技术以及深度学习技术对眼科OCT图像进行自动病灶检测,可以为医生对眼科疾病进行初始诊断、治疗反应的评估以及随访检查提供有效的影响学诊断指标。
目前常用的检测模型有Mask-RCNN模型和YOLO模型,这些检测模型在很多自然图像的物体检测定位任务中取得了良好的效果,而这些模型通常是通过构建图像金字塔或者特征金字塔等方法来提取图像各个层次的特征。但是,发明人发现与自然图像中的目标物体相比,眼科OCT图像中的病灶有很大的区别,其一是OCT图像中存在玻璃膜疣等面积较小的病灶,该类病灶远远小于常规自然图像中的目标物体的面积,其二是OCT图像中的视网膜病变相比自然图像中的目标具有更多的类别和更复杂的形态。这些特点使得OCT图像病灶检测任务更加困难,目前并没有一种适合于检测OCT图像的检测模型。
发明内容
本申请实施例提供了一种基于卷积神经网络的检测方法、装置、计算机设备及存储介质,旨在提高快速而又准确的实现检测OCT图像中的病灶。
第一方面,本申请实施例提供了一种基于卷积神经网络的检测方法,其包括:
对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别 而得到检测结果。
第二方面,本申请实施例还提供了一种基于卷积神经网络的检测装置,其包括:
预处理单元,用于对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
第一处理单元,用于根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
第一计算单元,用于通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图;
还原单元,用于通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
生成单元,用于根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
检测单元,用于将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
第三方面,本申请实施例还提供了一种计算机设备,所述计算机设备包括存储器,以及与所述存储器相连的处理器;
所述存储器用于存储计算机程序;所述处理器用于运行所述存储器中存储的计算机程序,以执行以下步骤:
对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
第四方面,本申请实施例还提供了一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行以下操作:
对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨 率的特征图作为第一特征图;
通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
本申请实施例的技术方案,针对眼科OCT图像中存在小病灶以及病灶类别较多,形态复杂导致的病灶检测准确率降低的问题,通过对OCT图像进行预处理以得到目标特征图从而提高对于不同形态大小的病灶的特征图能力,减少小病灶的漏检,同时,通过将目标特征图统一到相同分辨率获得第一特征图以及通过预设算法计算第一特征图获得第二特征图以强化特征图,进一步提高了病灶检测的准确率,最后通过预设方法进行检测,从而实现了快速准确的检测出病灶存在的区域以及类别。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于卷积神经网络的检测方法的流程示意图;
图2为本申请实施例提供的一种基于卷积神经网络的检测方法的子流程示意图;
图3为本申请实施例提供的一种基于卷积神经网络的检测装置的示意性框图;
图4为本申请实施例提供的基于卷积神经网络的检测的第一输入单元的示意性框图
图5为本申请实施例提供的一种计算机设备的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,图1是本申请实施例提供的基于卷积神经网络的检测方法的流程示意图。本申请实施例的基于卷积神经网络的检测方法可应用于智能手机(如Android手机、IOS手机等)、平板电脑、笔记本电脑以及智能设备等设备中。本申请的方法可以快速而又准确的检测OCT图像中病灶存在的区域以及类别。如图1所示,该方法包括步骤S110~S160。
在某些实施例中,例如本实施例中,所述步骤S110之前可包括步骤:获取预设的OCT图像集;基于所述预设的OCT图像集,对残差卷积神经网络进行训练以获得目标残差卷积神 经网络。
预设的OCT图像集中包含了多个OCT图像,这些OCT图像经过专业医生筛选处理后用于训练残差卷积神经网络。
可通过将不同的OCT图像输入至残差卷积神经网络进行训练,对残差卷积神经网络每一次训练均可以提高残差卷积神经网络识别图像的精度,最终获得目标残差卷积神经网络以用于提取OCT图像的特征表达。
S110,对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶。
本申请实施例中,目标OCT图像包含有多个病灶,这些病灶由多个大小不一种类不同的病灶构成,且多数病灶的形状也不相同,因此,需要通过预设方法对目标OCT图像进行特征提取以获得多个不同尺度的特征图,例如,在对目标OCT图像进行预处理后获得4个不同尺度上的特征图,其分别是C1、C2、C3以及C4,即C1、C2、C3以及C4为目标OCT图像的特征图,且其分辨率均不相同,而C1、C2、C3以及C4共同组成目标特征图。
在某些实施例,例如本实施例中,所述步骤S110可包括子步骤:获取所述目标OCT图像;调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图。
目标OCT图像可以是由专业医生进行处理后的图像,该目标OCT图像包括多个不同类型的病灶,且病灶所处的位置也并不相同。
获取目标OCT图像后,需要对其进行一定的处理。具体可以是将目标OCT图像多次通过由多个卷积层、池化层等组成的残差卷积网络在不同尺度上分别获取目标OCT图像的多个特征图,上述多个特征图组合成目标特征图。通过卷积网络提取的高级特征图具有丰富的语义信息,而低级特征图则具有更加准确的位置信息,高级特征图和低级特征图即为不同尺度的特征图,因此,对这些不同特征图进行信息交互有助于提高特征图能力,使得目标特征图具有更丰富的信息。
在某些实施例,例如本实施例中,如图2所示,所述步骤调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图可包括子步骤S310-S340
S310,确定所述目标OCT图像待调整的目标尺寸。
在本申请实施例中,目标尺寸可由用户人为进行设定,例如可以是1024*1024,且目标尺寸并不唯一,可根据实际情况设置多个目标尺寸。
S320,将所述目标OCT图像调整至所述目标尺寸。
在本申请实施例中,在确认目标尺寸之后,可以将目标OCT图像放大或者缩小至目标尺寸,例如原目标OCT图像为512*512,目标尺寸为1024*1024,则可以将目标OCT图像放大至1024*1024。
S330,将调整完成的所述目标OCT图像输入至所述目标残差卷积神经网络以获得相对应的一个特征图。
在本申请实施例中,将调整完成后的目标OCT图像输出至目标残差卷积神经网络以获得相对应的特征图。
S340,重新确定所述目标OCT图像待调整的目标尺寸并返回所述将所述目标OCT图像调整至所述目标尺寸的步骤,直到获得多个不同尺度的特征图。
在本申请实施例中,当获得一个目标尺寸的特征图之后,重新确定下一个目标尺寸,例如可以是2048*2048,然后重复进行步骤S320至S340,直到获得所有的目标尺寸的特征图,从而获得多个不同尺度上的特征图。
S120、根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图。
在本申请实施例中,将目标特征图,即多个不同尺度的特征图统一到相同的分辨率以便于不同尺度上的所有特征图能够从其它的特征中充分获取图像信息,从而增强目标特征图,其中每个尺度的特征图均有与其相对应的第一特征图。例如,C1的分辨率是2048*2048,C2的分辨率是1024*1024,C3的分辨率是512*512,C4的分辨率是256*256,则可以将C1的分辨率统一到512*512以获得C1的第一特征图,将C2的分别率统一到512*512以获得C2的第一特征图,其中,C1、C2、C3以及C4的分辨率大小并不做具体限定。
在某些实施例,例如本实施例中,所述步骤S120可包括子步骤:将所述目标特征图中小于预设分辨率的特征图通过插值法调整到所述预设分辨率的大小;将所述目标特征图中大于所述预设分辨率的特征图通过合并法调整到所述预设分辨率的大小;将所述调整到预设分辨率大小的特征图设为所述第一特征图。
由于目标特征图包含多个不同尺度的特征图,具体来说,高层特征图的分辨率小于低层特征图的分辨率,为了便于将不同尺度的特征图融合在一起,可以先将所有不同尺度的特征图的分辨率均统一到一个相同的分辨率,例如预设分辨率是1024*1024,而C1的分辨率是2048*2048,C2的分辨率是1024*1024,C3的分辨率是512*512,C4的分辨率是256*256,可以通过插值法将C4的分辨率256*256和C3的分辨率512*512统一到1024*1024,即插值法用于将低分辨率统一到高分辨率。
将目标特征图中大于预设分辨率的特征图通过合并法调整到预设分辨率的大小,例如,C1的分辨率是2048*2048,则通过合并法将C1的分辨率2048*2048统一到1024*1024。即合并法用于将高分辨率统一到低分辨率。
通过前面两个步骤可以使得获得的不同尺度的第一特征图具有相同的分辨率大小。
S130、通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大。
本申请实施例中,为了进一步增强第一特征图的特征,可以通过预设方法计算不同尺度的第一特征图的每个点的响应值,具体来说,可以是通过空间注意力网络来计算第一特征图的每个点的响应值。空间注意力网络即利用空间注意力机制来计算第一特征图的每个点的响应值,而空间注意力机制可以聚焦局部信息,比如OCT图像中某个小的病灶所在的区域。响 应值为空间注意力网络所计算出来的结果,其可以理解为每个点存在病灶的概率值,即响应值越大,该点存在病灶的概率越大。
在某些实施例,例如本实施例中所述步骤S130可包括子步骤:对所述第一特征图中的每个特征图进行1*1的卷积运算以得到相对应的中间特征图;通过空间注意力网络计算每个所述中间特征图的每个点的响应值并将计算结果标识在相对应的中间特征图上以获得所述第二特征图。
通过对每个特征图进行1*1的卷积运算可以进一步地提高卷积网络的表达能力。
OCT图像中的病变往往会引起视网膜的整体结构变化,因此,OCT图像中的空间关系有助于提升病灶的检测准确度。通过利用空间注意力网络计算第一特征图的每个点的响应值,响应值越大的点说明该点是OCT图像中病灶的概率越大。而第一特征图包含多个相同分辨率的特征图,因此,在利用空间注意力子网络计算时,需要计算每个特征图的每个点的响应值。同时,还可以通过采用嵌入高斯公式对响应值进行相似度计算以进一步提高检测准确率,其中,运算过程如下:
Figure PCTCN2021097190-appb-000001
S140、通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图。
在本申请实施例中,上采样通常用于将特征图的大小还原到原始大小,以便于后续检测使用。常见的上采样方法包括双线性插值、转置卷积、上采样和上池化,在本申请实施例中,并不限于使用哪一种上采样方法。
S150,根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像。
在本申请实施例中,在经过前面的步骤完成对不同尺度的特征图的信息的整合之后,可以通过区域生成网络(RPN)以及特征图上的响应值标识出目标区域,该目标区域为病毒感兴趣的区域,即病毒有较大概率会存在的区域。
S160,将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
在本申请实施例中,将待检测OCT图输入至多层全连接网络可以确定病灶存在的位置以及病灶的类别,并且将检测结果输出成图像,以便于用户查阅。
在某些实施例,例如本实施例中,所述步骤S160可包括子步骤:将所述待检测OCT图像输入至所述多层全连接网络以标识所述病灶存在的位置;根据所述病灶的形状以标识所述病灶的类别;根据所述病灶存在的位置以及病灶的类别输出检测结果。
区域检测网络,或者区域生成网络(RPN)用于标识待检测OCT图像中病毒可能存在的区域,也即可能存在病灶的感兴趣区域。其是根据前面步骤中计算所获得的响应值来进行判断和提取。
首先通过多层全连接网络检测出病灶存在的位置,再通过多层全连接网络检测出病灶的 类别,并将两个结果合并则得到了病灶在目标OCT图像中的位置以及类别。
确定了病灶所处的位置以及病灶的类别后,将检测结果输出以便于用户查阅。
图3是本申请实施例提供的一种基于卷积神经网络的检测装置100的示意性框图。如图3所示,对应于以上基于卷积神经网络的检测方法,本申请还提供一种基于卷积神经网络的检测装置100。该基于卷积神经网络的检测装置100包括用于执行上述基于卷积神经网络的检测方法的单元。具体地,请参阅图3,该基于卷积神经网络的检测装置100包括预处理单元110、第一处理单元120、第一计算单元130、还原单元140、生成单元150以及检测单元160。
其中,预处理单元110用于对获取的目标OCT图像进行预处理以获得目标特征图;第一处理单元120用于根据预设方法将所述目标特征图统一到相同分辨率以得到第一特征图;第一计算单元130用于通过预设算法计算所述第一特征图的每个点的响应值以获得第二特征图;还原单元140用于将所述第二特征图通过上采样进行还原以获得第三特征图;生成单元150用于根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;检测单元160用于通过预设方法检测所述第三特征图中病灶存在的区域以及类别。
在某些实施例,例如本实施例中,基于卷积神经网络的检测装置100还包括第一获取单元和训练单元。
其中,第一获取单元用于获取预设的OCT图像集;训练单元用于基于所述预设的OCT图像集,对残差卷积神经网络进行训练以获得目标残差卷积神经网络。
在某些实施例,例如本实施例中,所述预处理单元110包括获取单元和第一输入单元。
其中,获取单元用于获取所述目标OCT图像;第一输入单元用于调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图。
在某些实施例,例如本实施例中,参见图4,所述第一输入单元包括第一确认单元310、第一调整单元320、第二输入单元330以及返回单元340。
其中,第一确认单元310用于确定所述目标OCT图像待调整的目标尺寸;第一调整单元320用于将所述目标OCT图像调整至所述目标尺寸;第二输入单元330用于将调整完成的所述目标OCT图像输入至所述目标残差卷积神经网络以获得相对应的一个特征图;返回单元340用于重新确定所述目标OCT图像待调整的目标尺寸并返回所述将所述目标OCT图像调整至所述目标尺寸的步骤,直到获得多个不同尺度的特征图。
在某些实施例,例如本实施例中,所述第一处理单元120包括第二调整单元、第三调整单元以及第二确认单元。
其中,第二调整单元用于将所述目标特征图中小于预设分辨率的特征图通过插值法调整到所述预设分辨率的大小;第三调整单元用于将所述目标特征图中大于所述预设分辨率的特征图通过合并法调整到所述预设分辨率的大小;第二确认单元用于将所述调整到预设分辨率大小的特征图设为所述第一特征图。
在某些实施例,例如本实施例中,所述第一计算单元130包括第二计算单元和第三计算单元。
其中,第二计算单元用于对所述第一特征图中的每个特征图进行1*1的卷积运算以得到相对应的中间特征图;第三计算单元用于通过空间注意力网络计算每个所述中间特征图的每个点的响应值并将计算结果标识在相对应的中间特征图上以获得所述第二特征图。
在某些实施例,例如本实施例中,所述检测单元160包括第一标识单元、第二标识单元以及输出单元。
其中,第一标识单元用于将所述待检测OCT图像输入至所述多层全连接网络以标识所述病灶存在的位置;第二标识单元用于根据所述病灶的形状以标识所述病灶的类别;输出单元用于根据所述病灶存在的位置以及病灶的类别输出检测结果。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述基于卷积神经网络的检测装置和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述基于卷积神经网络的检测装置可以实现为一种计算机程序的形式,该计算机程序可以在如图5所示的计算机设备上运行。
请参阅图5,图5是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备1300为服务器端。
参阅图5,该计算机设备1300包括通过系统总线1301连接的处理器1302、存储器和接口1107,其中,存储器可以包括非易失性存储介质1303和内存储器1304。
该非易失性存储介质1303可存储操作系统13031和计算机程序13032。该计算机程序13032被执行时,可使得处理器1302执行一种基于卷积神经网络的检测方法。
该处理器1302用于提供计算和控制能力,以支撑整个计算机设备1300的运行。
该内存储器1304为非易失性存储介质1303中的计算机程序13032的运行提供环境,该计算机程序13032被处理器1302执行时,可使得处理器1302执行一种基于卷积神经网络的检测方法。
该接口1305用于与其它设备进行通信。本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备1300的限定,具体的计算机设备1300可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器1302用于运行存储在存储器中的计算机程序13032,以实现如下步骤:
对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至 原始分辨率以获得目标特征图;
根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
在某些实施例,例如本实施例中,处理器1302在实现所述对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤之前,还包括如下步骤:
获取预设的OCT图像集;
基于所述预设的OCT图像集,对残差卷积神经网络进行训练以获得目标残差卷积神经网络。
在某些实施例,例如本实施例中,处理器1302在实现所述对获取的目标OCT图像进行预处理以获得目标特征图的步骤时,具体实现如下步骤:
获取所述目标OCT图像;
调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图。
在某些实施例,例如本实施例中,处理器1302在实现所述调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图的步骤时,具体实现如下步骤:
确定所述目标OCT图像待调整的目标尺寸;
将所述目标OCT图像调整至所述目标尺寸;
将调整完成的所述目标OCT图像输入至所述目标残差卷积神经网络以获得相对应的一个特征图;
重新确定所述目标OCT图像待调整的目标尺寸并返回所述将所述目标OCT图像调整至所述目标尺寸的步骤,直到获得多个不同尺度的特征图。
在某些实施例,例如本实施例中,处理器1302在实现所述根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图的步骤时,具体实现如下步骤:
将所述目标特征图中小于预设分辨率的特征图通过插值法调整到所述预设分辨率的大小;
将所述目标特征图中大于所述预设分辨率的特征图通过合并法调整到所述预设分辨率的大小;
将所述调整到预设分辨率大小的特征图设为所述第一特征图。
在某些实施例,例如本实施例中,处理器1302在实现所述通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图的步骤时,具体实现如下步骤:
对所述第一特征图中的每个特征图进行1*1的卷积运算以得到相对应的中间特征图;
通过空间注意力网络计算每个所述中间特征图的每个点的响应值并将计算结果标识在相 对应的中间特征图上以获得所述第二特征图。
在某些实施例,例如本实施例中,处理器1302在实现所述将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果的步骤时,具体实现如下步骤:
将所述待检测OCT图像输入至所述多层全连接网络以标识所述病灶存在的位置;
根据所述病灶的形状以标识所述病灶的类别;
根据所述病灶存在的位置以及病灶的类别输出检测结果。
应当理解,在本申请实施例中,处理器1302可以是中央处理单元(Central Processing Unit,CPU),该处理器1302还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该计算机程序被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本申请还提供一种存储介质。所述计算机可读存储介质可以是非易失性,也可以是易失性。该存储介质存储有计算机程序。该计算机程序被处理器执行时使处理器执行如下步骤:
对获取的目标OCT图像进行预处理以获得目标特征图,其中,所述目标特征图包括多个不同尺度的特征图,所述OCT图像包括多个病灶;
对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
在某些实施例,例如本实施例中,所述处理器在执行所述计算机程序而实现所述对获取 的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤之前,还包括如下步骤:
获取预设的OCT图像集;
基于所述预设的OCT图像集,对残差卷积神经网络进行训练以获得目标残差卷积神经网络。
在某些实施例,例如本实施例中,所述处理器在执行所述计算机程序而实现所述对获取的目标OCT图像进行预处理以获得目标特征图的步骤时,具体实现如下步骤:
获取所述目标OCT图像;
调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图。
在某些实施例,例如本实施例中,所述处理器在执行所述计算机程序而实现所述调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图的步骤时,具体实现如下步骤:
确定所述目标OCT图像待调整的目标尺寸;
将所述目标OCT图像调整至所述目标尺寸;
将调整完成的所述目标OCT图像输入至所述目标残差卷积神经网络以获得相对应的一个特征图;
重新确定所述目标OCT图像待调整的目标尺寸并返回所述将所述目标OCT图像调整至所述目标尺寸的步骤,直到获得多个不同尺度的特征图。
在某些实施例,例如本实施例中,所述处理器在执行所述计算机程序而实现所述根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图的步骤时,具体实现如下步骤:
将所述目标特征图中小于预设分辨率的特征图通过插值法调整到所述预设分辨率的大小;
将所述目标特征图中大于所述预设分辨率的特征图通过合并法调整到所述预设分辨率的大小;
将所述调整到预设分辨率大小的特征图设为所述第一特征图。
在某些实施例,例如本实施例中,所述处理器在执行所述计算机程序而实现所述通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图的步骤时,具体实现如下步骤:
对所述第一特征图中的每个特征图进行1*1的卷积运算以得到相对应的中间特征图;
通过空间注意力网络计算每个所述中间特征图的每个点的响应值并将计算结果标识在相对应的中间特征图上以获得所述第二特征图。
在某些实施例,例如本实施例中,所述处理器在执行所述计算机程序而实现所述将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果的步骤时,具体实现如下步骤:
将所述待检测OCT图像输入至所述多层全连接网络以标识所述病灶存在的位置;
根据所述病灶的形状以标识所述病灶的类别;
根据所述病灶存在的位置以及病灶的类别输出检测结果。
所述存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置、设备和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置、设备和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (20)

  1. 一种基于卷积神经网络的检测方法,应用于OCT图像的病灶检测,其中,所述方法包括:
    对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
    根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
    通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
    通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
    根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
    将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
  2. 如权利要求1所述的基于卷积神经网络的检测方法,其中,所述对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤之前,还包括:
    获取预设的OCT图像集;
    基于所述预设的OCT图像集,对残差卷积神经网络进行训练以获得目标残差卷积神经网络。
  3. 如权利要求1所述的基于卷积神经网络的检测方法,其中,所述对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤,包括:
    获取所述目标OCT图像;
    调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图。
  4. 如权利要求3所述的基于卷积神经网络的检测方法,其中,所述调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图的步骤包括:
    确定所述目标OCT图像待调整的目标尺寸;
    将所述目标OCT图像调整至所述目标尺寸;
    将调整完成的所述目标OCT图像输入至所述目标残差卷积神经网络以获得相对应的一个特征图;
    重新确定所述目标OCT图像待调整的目标尺寸并返回所述将所述目标OCT图像调整至所述目标尺寸的步骤,直到获得多个不同尺度的特征图。
  5. 如权利要求1所述的基于卷积神经网络的检测方法,其中,所述根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征 图的步骤,包括:
    将所述目标特征图中小于预设分辨率的特征图通过插值法调整到所述预设分辨率的大小;
    将所述目标特征图中大于所述预设分辨率的特征图通过合并法调整到所述预设分辨率的大小;
    将所述调整到预设分辨率大小的特征图设为所述第一特征图。
  6. 如权利要求1所述的基于卷积神经网络的检测方法,其中,所述通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图的步骤,包括:
    对所述第一特征图中的每个特征图进行1*1的卷积运算以得到相对应的中间特征图;
    通过空间注意力网络计算每个所述中间特征图的每个点的响应值并将计算结果标识在相对应的中间特征图上以获得所述第二特征图。
  7. 如权利要求1所述的基于卷积神经网络的检测方法,其中,所述将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果的步骤,包括:
    将所述待检测OCT图像输入至所述多层全连接网络以标识所述病灶存在的位置;
    根据所述病灶的形状以标识所述病灶的类别;
    根据所述病灶存在的位置以及病灶的类别输出检测结果。
  8. 一种基于卷积神经网络的检测装置,其中,包括:
    预处理单元,用于对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
    第一处理单元,用于根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
    第一计算单元,用于通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图;
    还原单元,用于通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
    生成单元,用于根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
    检测单元,用于将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
  9. 一种计算机设备,包括存储器以及与所述存储器相连的处理器;其中,所述存储器用于存储计算机程序;所述处理器用于运行所述存储器中存储的计算机程序,以执行以下步骤:
    对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
    根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
    通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
    通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
    根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
    将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
  10. 如权利要求9所述的计算机设备,其中,所述对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤之前,还包括:
    获取预设的OCT图像集;
    基于所述预设的OCT图像集,对残差卷积神经网络进行训练以获得目标残差卷积神经网络。
  11. 如权利要求9所述的计算机设备,其中,所述对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤,包括:
    获取所述目标OCT图像;
    调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图。
  12. 如权利要求11所述的计算机设备,其中,所述调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图的步骤包括:
    确定所述目标OCT图像待调整的目标尺寸;
    将所述目标OCT图像调整至所述目标尺寸;
    将调整完成的所述目标OCT图像输入至所述目标残差卷积神经网络以获得相对应的一个特征图;
    重新确定所述目标OCT图像待调整的目标尺寸并返回所述将所述目标OCT图像调整至所述目标尺寸的步骤,直到获得多个不同尺度的特征图。
  13. 如权利要求9所述的计算机设备,其中,所述根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图的步骤,包括:
    将所述目标特征图中小于预设分辨率的特征图通过插值法调整到所述预设分辨率的大小;
    将所述目标特征图中大于所述预设分辨率的特征图通过合并法调整到所述预设分辨率的大小;
    将所述调整到预设分辨率大小的特征图设为所述第一特征图。
  14. 如权利要求9所述的计算机设备,其中,所述通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图的步骤,包括:
    对所述第一特征图中的每个特征图进行1*1的卷积运算以得到相对应的中间特征图;
    通过空间注意力网络计算每个所述中间特征图的每个点的响应值并将计算结果标识在相对应的中间特征图上以获得所述第二特征图。
  15. 如权利要求9所述的计算机设备,其中,所述将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果的步骤,包括:
    将所述待检测OCT图像输入至所述多层全连接网络以标识所述病灶存在的位置;
    根据所述病灶的形状以标识所述病灶的类别;
    根据所述病灶存在的位置以及病灶的类别输出检测结果。
  16. 一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其中,所述计算机程序当被处理器执行时使所述处理器执行以下操作:
    对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图,所述目标OCT图像包括多个病灶;
    根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图;
    通过预设算法计算每个所述第一特征图中的每个像素点的响应值并将计算结果标识在相对应的第一特征图上以获得标识后的第一特征图作为第二特征图,其中,所述响应值越大表示相对应的像素点存在所述病灶的概率越大;
    通过上采样方法将每个所述第二特征图进行分辨率还原以使每个所述第二特征图还原至原始分辨率以获得目标特征图;
    根据区域生成网络以及所述响应值识别所述目标特征图中的目标区域以获得待检测OCT图像;
    将所述待检测OCT图像输入至多层全连接网络以分别确定所述病灶存在的位置和类别而得到检测结果。
  17. 如权利要求16所述的计算机可读存储介质,其中,所述对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤之前,还包括:
    获取预设的OCT图像集;
    基于所述预设的OCT图像集,对残差卷积神经网络进行训练以获得目标残差卷积神经网络。
  18. 如权利要求16所述的计算机可读存储介质,其中,所述对获取的目标OCT图像进行预处理以获得多个不同尺度的特征图的步骤,包括:
    获取所述目标OCT图像;
    调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图。
  19. 如权利要求18所述的计算机可读存储介质,其中,所述调整所述目标OCT图像的尺寸并输入至所述目标残差卷积神经网络以获得多个不同尺度的特征图的步骤包括:
    确定所述目标OCT图像待调整的目标尺寸;
    将所述目标OCT图像调整至所述目标尺寸;
    将调整完成的所述目标OCT图像输入至所述目标残差卷积神经网络以获得相对应的一个特征图;
    重新确定所述目标OCT图像待调整的目标尺寸并返回所述将所述目标OCT图像调整至所述目标尺寸的步骤,直到获得多个不同尺度的特征图。
  20. 如权利要求16所述的计算机可读存储介质,其中,所述根据预设方法对所述多个不同尺度的特征图的分辨率进行调整以获得多个具有相同分辨率的特征图作为第一特征图的步骤,包括:
    将所述目标特征图中小于预设分辨率的特征图通过插值法调整到所述预设分辨率的大小;
    将所述目标特征图中大于所述预设分辨率的特征图通过合并法调整到所述预设分辨率的大小;
    将所述调整到预设分辨率大小的特征图设为所述第一特征图。
PCT/CN2021/097190 2020-12-15 2021-05-31 基于卷积神经网络的检测方法、装置、计算机设备及存储介质 WO2022127043A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011476582.2 2020-12-15
CN202011476582.2A CN112541900B (zh) 2020-12-15 2020-12-15 基于卷积神经网络的检测方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
WO2022127043A1 true WO2022127043A1 (zh) 2022-06-23

Family

ID=75020129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/097190 WO2022127043A1 (zh) 2020-12-15 2021-05-31 基于卷积神经网络的检测方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN112541900B (zh)
WO (1) WO2022127043A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541900B (zh) * 2020-12-15 2024-01-02 平安科技(深圳)有限公司 基于卷积神经网络的检测方法、装置、计算机设备及存储介质
WO2023010248A1 (zh) * 2021-08-02 2023-02-09 香港中文大学 利用胸腹部正位x线片检测脊柱骨质疏松性压缩性骨折的装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107369160A (zh) * 2017-06-28 2017-11-21 苏州比格威医疗科技有限公司 一种oct图像中脉络膜新生血管分割算法
US20190325215A1 (en) * 2016-06-14 2019-10-24 Beijing Sensetime Technology Development Co., Ltd Methods and apparatuses for image detection, electronic devices and storage media
CN111615706A (zh) * 2017-11-17 2020-09-01 脸谱公司 基于子流形稀疏卷积神经网络分析空间稀疏数据
CN111667468A (zh) * 2020-05-28 2020-09-15 平安科技(深圳)有限公司 基于神经网络的oct图像病灶检测方法、装置及介质
CN112541900A (zh) * 2020-12-15 2021-03-23 平安科技(深圳)有限公司 基于卷积神经网络的检测方法、装置、计算机设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
CN109583517A (zh) * 2018-12-26 2019-04-05 华东交通大学 一种适用于小目标检测的增强的全卷积实例语义分割算法
CN111860155B (zh) * 2020-06-12 2022-04-29 华为技术有限公司 一种车道线的检测方法及相关设备
US20230200930A1 (en) * 2021-06-29 2023-06-29 New Jersey Institute Of Technology Intelligent Surgical Marker

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190325215A1 (en) * 2016-06-14 2019-10-24 Beijing Sensetime Technology Development Co., Ltd Methods and apparatuses for image detection, electronic devices and storage media
CN107369160A (zh) * 2017-06-28 2017-11-21 苏州比格威医疗科技有限公司 一种oct图像中脉络膜新生血管分割算法
CN111615706A (zh) * 2017-11-17 2020-09-01 脸谱公司 基于子流形稀疏卷积神经网络分析空间稀疏数据
CN111667468A (zh) * 2020-05-28 2020-09-15 平安科技(深圳)有限公司 基于神经网络的oct图像病灶检测方法、装置及介质
CN112541900A (zh) * 2020-12-15 2021-03-23 平安科技(深圳)有限公司 基于卷积神经网络的检测方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN112541900B (zh) 2024-01-02
CN112541900A (zh) 2021-03-23

Similar Documents

Publication Publication Date Title
WO2020215672A1 (zh) 医学图像病灶检测定位方法、装置、设备及存储介质
US20210056693A1 (en) Tissue nodule detection and tissue nodule detection model training method, apparatus, device, and system
CN110826519B (zh) 人脸遮挡检测方法、装置、计算机设备及存储介质
WO2020199593A1 (zh) 图像分割模型训练方法、图像分割方法、装置、设备及介质
WO2021082691A1 (zh) 眼部oct图像病灶区域的分割方法、装置及终端设备
WO2020140370A1 (zh) 眼底出血点的自动检测方法、装置及计算机可读存储介质
WO2022127043A1 (zh) 基于卷积神经网络的检测方法、装置、计算机设备及存储介质
Panda et al. New binary Hausdorff symmetry measure based seeded region growing for retinal vessel segmentation
US11017210B2 (en) Image processing apparatus and method
WO2022088665A1 (zh) 病灶分割方法、装置及存储介质
US20180247154A1 (en) Image classification apparatus, method, and program
WO2019037676A1 (zh) 图像处理方法及装置
US20150117783A1 (en) Iterative saliency map estimation
CN107564048B (zh) 基于分叉点特征配准方法
KR20210038987A (ko) 자동 종양 검출 및 분류를 위한 시스템
WO2021189848A1 (zh) 模型训练方法、杯盘比确定方法、装置、设备及存储介质
WO2021136368A1 (zh) 钼靶图像中胸大肌区域自动检测方法及装置
CN108197564B (zh) 一种画钟试验的评估系统及方法
CN113658165B (zh) 杯盘比确定方法、装置、设备及存储介质
US11941738B2 (en) Systems and methods for personalized patient body modeling
WO2020168647A1 (zh) 图像识别方法及相关设备
Gao et al. Automatic optic disc segmentation based on modified local image fitting model with shape prior information
CN111626379B (zh) 肺炎x光图像检测方法
Kwon et al. Multistage probabilistic approach for the localization of cephalometric landmarks
Singh et al. Optimized convolutional neural network for glaucoma detection with improved optic-cup segmentation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21904978

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21904978

Country of ref document: EP

Kind code of ref document: A1