BR112022014530B1 - SYSTEMS AND METHODS FOR PROCESSING ELECTRONIC IMAGES FOR COMPUTATIONAL DETECTION METHODS - Google Patents

SYSTEMS AND METHODS FOR PROCESSING ELECTRONIC IMAGES FOR COMPUTATIONAL DETECTION METHODS Download PDF

Info

Publication number
BR112022014530B1
BR112022014530B1 BR112022014530-6A BR112022014530A BR112022014530B1 BR 112022014530 B1 BR112022014530 B1 BR 112022014530B1 BR 112022014530 A BR112022014530 A BR 112022014530A BR 112022014530 B1 BR112022014530 B1 BR 112022014530B1
Authority
BR
Brazil
Prior art keywords
training
images
tissue
machine learning
electronic slide
Prior art date
Application number
BR112022014530-6A
Other languages
Portuguese (pt)
Other versions
BR112022014530A2 (en
Inventor
Brandon ROTHROCK
Christopher Kanan
Julian VIRET
Thomas Fuchs
Leo Grady
Original Assignee
Paige.Ai, Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paige.Ai, Inc filed Critical Paige.Ai, Inc
Priority claimed from PCT/US2021/015285 external-priority patent/WO2021154849A1/en
Publication of BR112022014530A2 publication Critical patent/BR112022014530A2/en
Publication of BR112022014530B1 publication Critical patent/BR112022014530B1/en

Links

Abstract

SISTEMAS E MÉTODOS PARA PROCESSAMENTO DE IMAGENS ELETRÔNICAS PARA MÉTODOS DE DETECÇÃO COMPUTACIONAL. São revelados sistemas e métodos para receber uma ou mais imagens de lâminas eletrônicas associadas a uma amostra de tecido, em que a amostra de tecido é associada a um paciente e/ou caso médico, particionar uma primeira imagem de lâmina de uma ou mais imagens de lâmina eletrônicas em uma pluralidade de recortes, detectar uma pluralidade de regiões de tecido da primeira imagem de lâmina e/ou pluralidade de recortes para gerar uma máscara de tecido, determinar se qualquer uma da pluralidade de recortes corresponde a não tecido, remover qualquer da pluralidade de recortes que são determinados a ser não tecido, determinar uma previsão, com o uso de um modelo de previsão de aprendizado de máquina, para pelo menos um rótulo para uma ou mais imagens de lâminas eletrônicas, em que o modelo de previsão de aprendizado de máquina foi gerado pelo processamento de uma pluralidade de imagens de treinamento e emitir a previsão do modelo de previsão de aprendizado de máquina treinado.SYSTEMS AND METHODS FOR PROCESSING ELECTRONIC IMAGES FOR COMPUTATIONAL DETECTION METHODS. Disclosed are systems and methods for receiving one or more electronic slide images associated with a tissue sample, wherein the tissue sample is associated with a patient and/or medical case, partitioning a first slide image from one or more electronic blade into a plurality of cutouts, detect a plurality of tissue regions of the first slide image and/or plurality of cutouts to generate a fabric mask, determine whether any of the plurality of cutouts correspond to non-woven fabric, remove any of the plurality of cutouts of cutouts that are determined to be nonwoven, determine a prediction, with the use of a machine learning prediction model, for at least one label for one or more electronic slide images, wherein the machine learning prediction model machine was generated by processing a plurality of training images and outputting the prediction from the trained machine learning prediction model.

Description

PEDIDOS (S) RELACIONADO(S)RELATED REQUEST(S)

[0001] Este pedido reivindica prioridade para o Pedido Provisório n° US 62/966.716 depositado em 28 de janeiro de 2020, cuja revelação completa é incorporada no presente documento a título de referência em sua totalidade.[0001] This application claims priority to Provisional Application No. US 62/966,716 filed on January 28, 2020, the complete disclosure of which is incorporated herein by reference in its entirety.

CAMPO DA REVELAÇÃOFIELD OF REVELATION

[0002] Várias modalidades da presente revelação referem-se geralmente à criação de um modelo de previsão para prever rótulos para amostras de tecido preparados por meio do processamento de imagens eletrônicas. Mais especificamente, modalidades particulares da presente revelação se referem a sistemas e métodos para prever, identificar ou detectar informações de diagnóstico sobre amostras de tecidos preparadas. A presente revelação fornece ainda sistemas e métodos para criar um modelo de previsão que prevê rótulos de lâminas não vistos.[0002] Various embodiments of the present disclosure generally relate to creating a prediction model to predict labels for tissue samples prepared through electronic image processing. More specifically, particular embodiments of the present disclosure relate to systems and methods for predicting, identifying, or detecting diagnostic information about prepared tissue samples. The present disclosure further provides systems and methods for creating a prediction model that predicts unseen slide labels.

ANTECEDENTESBACKGROUND

[0003] O desempenho de modelos de aprendizado de máquina e aprendizado profundo para histopatologia pode ser limitado pelo volume e qualidade dos exemplos anotados usados para treinar esses modelos. Experimentos em larga escala em problemas de classificação de imagem supervisionada mostraram que o desempenho do modelo continua a melhorar, chegando a uma ordem de 50 milhões de exemplos de treinamento. Anotar manualmente esse volume de dados pode ser proibitivamente caro, tanto em tempo quanto em custo, e pode ser uma limitação severa para garantir que os sistemas funcionem em um nível clinicamente relevante e generalizem entre as instituições.[0003] The performance of machine learning and deep learning models for histopathology may be limited by the volume and quality of the annotated examples used to train these models. Large-scale experiments on supervised image classification problems have shown that model performance continues to improve, reaching an order of 50 million training examples. Manually annotating this volume of data can be prohibitively expensive, both in time and cost, and can be a severe limitation to ensuring that systems function at a clinically relevant level and generalize across institutions.

[0004] A descrição geral anterior e a descrição detalhada a seguir são apenas exemplificativas e explicativas e não são restritivas da revelação. A descrição de antecedentes fornecida no presente documento tem o propósito de apresentar de modo geral o contexto da revelação. Salvo indicação em contrário no presente documento, os materiais descritos nessa seção não são da técnica anterior às reivindicações neste pedido e não são admitidos como técnica anterior, ou sugestões da técnica anterior, por inclusão nessa seção.[0004] The previous general description and the following detailed description are exemplary and explanatory only and are not restrictive of the disclosure. The background description provided in this document is intended to generally present the context of the disclosure. Unless otherwise indicated herein, the materials described in this section are not prior art to the claims in this application and are not admitted as prior art, or suggestions of prior art, by inclusion in this section.

SUMÁRIOSUMMARY

[0005] De acordo com certos aspectos da presente revelação, são revelados sistemas e métodos para o desenvolvimento de aprendizado multirrótulo e multitarefa fracamente supervisionado para detecção computacional de biomarcador em patologia digital.[0005] In accordance with certain aspects of the present disclosure, systems and methods are disclosed for developing weakly supervised multi-label and multi-task learning for computational biomarker detection in digital pathology.

[0006] Um método implementado por computador para processar uma imagem eletrônica correspondente a uma amostra inclui: receber uma ou mais imagens digitais associadas a uma amostra de tecido, receber uma ou mais imagens de lâminas eletrônicas associadas a uma amostra de tecido, em que a amostra de tecido é associada a um paciente e/ou caso médico; particionar uma primeira imagem de lâminas de uma ou mais imagens de lâminas eletrônicas em uma pluralidade de recortes; detectar uma pluralidade de regiões de tecido da primeira imagem de lâmina e/ou pluralidade de recortes para gerar uma máscara de tecido; determinar se qualquer um da pluralidade de recortes corresponde a não tecido; remover qualquer um da pluralidade de recortes que são determinados como não tecidos; determinar uma previsão, com o uso de um modelo de previsão de aprendizado de máquina, para pelo menos um rótulo para uma ou mais imagens de lâminas eletrônicas, em que o modelo de previsão de aprendizado de máquina foi gerado pelo processamento de uma pluralidade de imagens de treinamento; e emitir a previsão do modelo de previsão de aprendizado de máquina treinado.[0006] A computer-implemented method for processing an electronic image corresponding to a sample includes: receiving one or more digital images associated with a tissue sample, receiving one or more electronic slide images associated with a tissue sample, wherein the tissue sample is associated with a patient and/or medical case; partitioning a first slide image of one or more electronic slide images into a plurality of slices; detecting a plurality of tissue regions of the first slide image and/or plurality of cutouts to generate a tissue mask; determining whether any of the plurality of cutouts corresponds to nonwoven fabric; removing any of the plurality of cutouts that are determined to be nonwoven; determining a prediction, using a machine learning prediction model, for at least one label for one or more electronic slide images, wherein the machine learning prediction model was generated by processing a plurality of images training; and output the prediction from the trained machine learning prediction model.

[0007] Um sistema para processar uma imagem eletrônica correspondente a uma amostra inclui instruções de armazenamento de memória; e pelo menos um processador executando as instruções para realizar um processo incluindo receber uma ou mais imagens digitais associadas a uma amostra de tecido, receber uma ou mais imagens de lâminas eletrônicas associadas a uma amostra de tecido, em que a amostra de tecido é associada a um paciente e/ou caso médico; particionar uma primeira imagem de lâminas de uma ou mais imagens de lâminas eletrônicas em uma pluralidade de recortes; detectar uma pluralidade de regiões de tecido da primeira imagem de lâmina e/ou pluralidade de recortes para gerar uma máscara de tecido; determinar se qualquer um da pluralidade de recortes corresponde a não tecido; remover qualquer um da pluralidade de recortes que são determinados como não tecidos; determinar uma previsão, com o uso de um modelo de previsão de aprendizado de máquina, para pelo menos um rótulo para uma ou mais imagens de lâminas eletrônicas, em que o modelo de previsão de aprendizado de máquina foi gerado pelo processamento de uma pluralidade de imagens de treinamento; e emitir a previsão do modelo de previsão de aprendizado de máquina treinado.[0007] A system for processing an electronic image corresponding to a sample includes memory storage instructions; and at least one processor executing instructions to perform a process including receiving one or more digital images associated with a tissue sample, receiving one or more electronic slide images associated with a tissue sample, wherein the tissue sample is associated with a patient and/or medical case; partitioning a first slide image of one or more electronic slide images into a plurality of slices; detecting a plurality of tissue regions of the first slide image and/or plurality of cutouts to generate a tissue mask; determining whether any of the plurality of cutouts corresponds to nonwoven fabric; removing any of the plurality of cutouts that are determined to be nonwoven; determining a prediction, using a machine learning prediction model, for at least one label for one or more electronic slide images, wherein the machine learning prediction model was generated by processing a plurality of images training; and output the prediction from the trained machine learning prediction model.

[0008] Um meio legível por computador não transitório que armazena instruções que, quando executadas por um processador, fazem com que o processador execute um método para processar uma imagem eletrônica correspondente a uma amostra inclui: receber uma ou mais imagens digitais associadas a uma amostra de tecido, receber uma ou mais imagens de lâminas eletrônicas associadas a uma amostra de tecido, em que a amostra de tecido é associada a um paciente e/ou caso médico; particionar uma primeira imagem de lâminas de uma ou mais imagens de lâminas eletrônicas em uma pluralidade de recortes; detectar uma pluralidade de regiões de tecido da primeira imagem de lâmina e/ou pluralidade de recortes para gerar uma máscara de tecido; determinar se qualquer um da pluralidade de recortes corresponde a não tecido; remover qualquer um da pluralidade de recortes que é determinado como não tecido; determinar uma previsão, com o uso de um modelo de previsão de aprendizado de máquina, para pelo menos um rótulo para uma ou mais imagens de lâminas eletrônicas, em que o modelo de previsão de aprendizado de máquina foi gerado pelo processamento de uma pluralidade de imagens de treinamento; e emitir a previsão do modelo de previsão de aprendizado de máquina treinado.[0008] A non-transitory computer-readable medium that stores instructions that, when executed by a processor, cause the processor to perform a method for processing an electronic image corresponding to a sample includes: receiving one or more digital images associated with a sample of tissue, receiving one or more electronic slide images associated with a tissue sample, wherein the tissue sample is associated with a patient and/or medical case; partitioning a first slide image of one or more electronic slide images into a plurality of slices; detecting a plurality of tissue regions of the first slide image and/or plurality of cutouts to generate a tissue mask; determining whether any of the plurality of cutouts corresponds to nonwoven fabric; removing any one of the plurality of cutouts that is determined to be nonwoven; determining a prediction, using a machine learning prediction model, for at least one label for one or more electronic slide images, wherein the machine learning prediction model was generated by processing a plurality of images training; and output the prediction from the trained machine learning prediction model.

[0009] Deve ser entendido que tanto a descrição geral anterior quanto a descrição detalhada a seguir são apenas exemplificativas e explicativas e não são restritivas das modalidades reveladas, conforme reivindicado.[0009] It should be understood that both the previous general description and the following detailed description are exemplary and explanatory only and are not restrictive of the disclosed embodiments, as claimed.

BREVE DESCRIÇÃO DOS DESENHOSBRIEF DESCRIPTION OF THE DRAWINGS

[0010] Os desenhos anexos, que são incorporados e constituem uma parte deste relatório descritivo, ilustram várias modalidades exemplificativos e, juntamente com a descrição, servem para explicar os princípios das modalidades reveladas.[0010] The attached drawings, which are incorporated and constitute a part of this specification, illustrate various exemplary embodiments and, together with the description, serve to explain the principles of the disclosed embodiments.

[0011] A Figura 1A ilustra um diagrama de blocos exemplificativo de um sistema e rede para criar um modelo de previsão de acordo com uma modalidade exemplificativa da presente revelação.[0011] Figure 1A illustrates an exemplary block diagram of a system and network for creating a prediction model in accordance with an exemplary embodiment of the present disclosure.

[0012] A Figura 1B ilustra um diagrama de blocos exemplificativo de uma plataforma de modelo de previsão, de acordo com uma modalidade exemplificativa da presente revelação.[0012] Figure 1B illustrates an exemplary block diagram of a prediction model platform, in accordance with an exemplary embodiment of the present disclosure.

[0013] A Figura 1C ilustra um diagrama de blocos exemplificativo de uma ferramenta de análise de lâminas de acordo com uma modalidade exemplificativa da presente revelação.[0013] Figure 1C illustrates an exemplary block diagram of a slide analysis tool according to an exemplary embodiment of the present disclosure.

[0014] A Figura 2A é um fluxograma que ilustra um método exemplificativo para usar um modelo de previsão criado por um sistema de aprendizado de máquina treinado, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0014] Figure 2A is a flowchart illustrating an exemplary method for using a prediction model created by a trained machine learning system, in accordance with one or more exemplary embodiments of the present disclosure.

[0015] A Figura 2B é um fluxograma que ilustra um método exemplificativo para treinar um módulo de aprendizado em nível de recorte fracamente supervisionado em um sistema de aprendizado de máquina treinado, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0015] Figure 2B is a flowchart illustrating an exemplary method for training a weakly supervised slice-level learning module in a trained machine learning system, in accordance with one or more exemplary embodiments of the present disclosure.

[0016] A Figura 2C é um fluxograma que ilustra um método exemplificativo para treinar um módulo de agregação fracamente supervisionado em um sistema de aprendizado de máquina treinado, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0016] Figure 2C is a flowchart illustrating an exemplary method for training a weakly supervised aggregation module in a trained machine learning system, in accordance with one or more exemplary embodiments of the present disclosure.

[0017] A Figura 3 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para detectar e classificar simultaneamente o câncer de próstata, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0017] Figure 3 is a flowchart illustrating an exemplary method for training and using a machine learning system to simultaneously detect and classify prostate cancer, in accordance with one or more exemplary embodiments of the present disclosure.

[0018] A Figura 4 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para quantificação de tumor em biópsias por agulha de próstata, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0018] Figure 4 is a flowchart illustrating an exemplary method for training and using a machine learning system for tumor quantification in prostate needle biopsies, in accordance with one or more exemplary embodiments of the present disclosure.

[0019] A Figura 5 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever um subtipo de câncer, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0019] Figure 5 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a cancer subtype, in accordance with one or more exemplary embodiments of the present disclosure.

[0020] A Figura 6 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever uma margem cirúrgica de acordo com uma ou mais modalidades exemplificativas da presente revelação[0020] Figure 6 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a surgical margin in accordance with one or more exemplary embodiments of the present disclosure

[0021] A Figura 7 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever um biomarcador de câncer de bexiga, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0021] Figure 7 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a bladder cancer biomarker, in accordance with one or more exemplary embodiments of the present disclosure.

[0022] A Figura 8 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever um diagnóstico de pancâncer, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0022] Figure 8 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a pancancer diagnosis, in accordance with one or more exemplary embodiments of the present disclosure.

[0023] A Figura 9 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever uma toxicidade de órgão, de acordo com uma ou mais modalidades exemplificativas da presente revelação.[0023] Figure 9 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict organ toxicity, in accordance with one or more exemplary embodiments of the present disclosure.

[0024] A Figura 10 ilustra um algoritmo de componentes conectados exemplificativo, de acordo com uma modalidade da revelação.[0024] Figure 10 illustrates an exemplary connected components algorithm, according to one embodiment of the disclosure.

[0025] A Figura 11 representa um sistema exemplificativo que pode executar técnicas apresentadas no presente documento.[0025] Figure 11 represents an exemplary system that can perform techniques presented in this document.

DESCRIÇÃO DAS MODALIDADESDESCRIPTION OF MODALITIES

[0026] Será feita agora referência em detalhes às modalidades exemplificativas da presente revelação, cujos exemplos são ilustrados nos desenhos anexos. Sempre que possível, os mesmos números de referência serão usados em todos os desenhos para se referir a peças iguais ou similares.[0026] Reference will now be made in detail to exemplary embodiments of the present disclosure, examples of which are illustrated in the attached drawings. Whenever possible, the same reference numbers will be used on all drawings to refer to the same or similar parts.

[0027] Os sistemas, dispositivos e métodos revelados no presente documento são descritos em detalhes por meio de exemplos e com referência às figuras. Os exemplos discutidos no presente documento são apenas exemplos e são fornecidos para auxiliar na explicação dos aparelhos, dispositivos, sistemas e métodos descritos no presente documento. Nenhum dos recursos ou componentes mostrados nos desenhos ou discutidos abaixo deve ser considerado obrigatório para qualquer implantação específica de qualquer um desses dispositivos, sistemas ou métodos, a menos que especificamente designado como obrigatório.[0027] The systems, devices and methods disclosed in this document are described in detail by means of examples and with reference to the figures. The examples discussed herein are examples only and are provided to assist in explaining the apparatus, devices, systems and methods described herein. None of the features or components shown in the drawings or discussed below should be considered mandatory for any particular implementation of any such device, system or method unless specifically designated as mandatory.

[0028] Além disso, para quaisquer métodos descritos, independentemente de o método ser descrito em conjunto com um diagrama de fluxo, deve ser entendido que, a menos que especificado de outra forma ou exigido pelo contexto, qualquer ordenação explícita ou implícita de etapas executadas na execução de um método não implica que essas etapas devem ser executadas na ordem apresentada, mas podem ser executadas em uma ordem diferente ou em paralelo.[0028] Furthermore, for any methods described, regardless of whether the method is described in conjunction with a flow diagram, it should be understood that, unless otherwise specified or required by the context, any explicit or implicit ordering of steps performed executing a method does not imply that these steps must be executed in the order presented, but they can be executed in a different order or in parallel.

[0029] Conforme usado no presente documento, o termo "exemplificativo" é usado no sentido de "exemplo", em vez de "ideal". Além disso, os termos "um" e "uma" no presente documento não denotam uma limitação de quantidade, mas sim denotam a presença de um ou mais dos itens referenciados.[0029] As used herein, the term "exemplary" is used in the sense of "example", rather than "ideal". Furthermore, the terms "a" and "an" herein do not denote a quantity limitation, but rather denote the presence of one or more of the referenced items.

[0030] Patologia se refere ao estudo de doenças, bem como as causas e efeitos da doença. Mais especificamente, a patologia se refere à realização de testes e análises que são usados para diagnosticar doenças. Por exemplo, amostras de tecido podem ser colocadas em lâminas para serem vistas ao microscópio por um patologista (por exemplo, um médico especialista em analisar amostras de tecido para determinar se existem anormalidades). Ou seja, as amostras de patologia podem ser cortadas em várias seções, coradas e preparadas como lâminas para um patologista examinar e fazer um diagnóstico. Quando não há certeza de um achado diagnóstico em uma lâmina, um patologista pode solicitar níveis de corte adicionais, manchas ou outros testes para coletar mais informações do tecido. O técnico (ou técnicos) pode criar nova lâmina (ou lâminas) que pode conter informações adicionais para o patologista usar no diagnóstico. Esse processo de criação de lâminas adicionais pode ser demorado, não apenas devido ao fato de que pode envolver a recuperação do bloco de tecido, cortar isso para fazer uma nova lâmina e a coloração da lâmina, mas também devido ao fato de que pode ser agrupado para vários pedidos. Isso pode atrasar significativamente o diagnóstico final que o patologista faz. Além disso, mesmo após o atraso, pode não haver garantia de que a nova lâmina (ou lâminas) terá informações suficientes para fornecer um diagnóstico.[0030] Pathology refers to the study of diseases, as well as the causes and effects of the disease. More specifically, pathology refers to the performance of tests and analyzes that are used to diagnose diseases. For example, tissue samples may be placed on slides to be viewed under a microscope by a pathologist (e.g., a doctor who specializes in analyzing tissue samples to determine whether abnormalities exist). That is, pathology samples can be cut into multiple sections, stained, and prepared as slides for a pathologist to examine and make a diagnosis. When a diagnostic finding on a slide is uncertain, a pathologist may order additional cut levels, stains, or other tests to gather more information from the tissue. The technician (or technicians) may create a new slide (or slides) that may contain additional information for the pathologist to use in diagnosis. This process of creating additional slides can be time-consuming, not only due to the fact that it may involve retrieving the tissue block, cutting it to make a new slide, and staining the slide, but also due to the fact that it may be pooled. for multiple orders. This can significantly delay the pathologist's final diagnosis. Additionally, even after the delay, there may be no guarantee that the new slide (or slides) will have enough information to provide a diagnosis.

[0031] Os patologistas podem avaliar o câncer e outras lâminas de patologia de doenças isoladamente. A presente revelação apresenta um fluxo de trabalho consolidado para melhorar o diagnóstico de câncer e outras doenças. O fluxo de trabalho pode integrar, por exemplo, avaliação de lâminas, tarefas, análise de imagem e inteligência artificial (IA) de detecção de câncer, anotações, consultas e recomendações em uma estação de trabalho. Em particular, a presente revelação descreve várias interfaces de usuário exemplificativas disponíveis no fluxo de trabalho, bem como ferramentas de IA que podem ser integradas ao fluxo de trabalho para agilizar e melhorar o trabalho de um patologista.[0031] Pathologists can evaluate cancer and other disease pathology slides alone. The present disclosure presents a consolidated workflow to improve the diagnosis of cancer and other diseases. The workflow can integrate, for example, slide evaluation, tasks, image analysis and cancer detection artificial intelligence (AI), annotations, queries and recommendations on a workstation. In particular, the present disclosure describes several exemplary user interfaces available in the workflow, as well as AI tools that can be integrated into the workflow to streamline and improve the work of a pathologist.

[0032] Por exemplo, computadores podem ser usados para analisar uma imagem de uma amostra de tecido para identificar rapidamente se informações adicionais podem ser necessárias sobre uma amostra de tecido específica e/ou para destacar para um patologista uma área na qual ele deve olhar mais de perto. Assim, o processo de obtenção de lâminas e exames adicionais corados pode ser feito automaticamente antes de ser revisto por um patologista. Quando emparelhado com máquinas automáticas de segmentação e coloração de lâminas, isso pode fornecer um pipeline de preparação de lâminas totalmente automatizado. Essa automação tem, pelo menos, os benefícios de (1) minimizar a quantidade de tempo desperdiçada por um patologista determinando que uma lâmina é insuficiente para fazer um diagnóstico, (2) minimizar o tempo (total médio) desde a aquisição da amostra até o diagnóstico, evitando o tempo adicional entre a solicitação de exames adicionais e a sua produção, (3) reduzir a quantidade de tempo por corte e a quantidade de material desperdiçado, permitindo que os cortes sejam realizados enquanto os blocos de tecido (por exemplo, amostras de patologia) estão em um corte mesa, (4) reduzir a quantidade de material de tecido desperdiçado/descartado durante a preparação das lâminas, (5) reduzir o custo da preparação das lâminas automatizando parcial ou totalmente o procedimento, (6) permitir o corte e coloração personalizados automáticos das lâminas que resultariam em lâminas mais representativas/informativas das amostras, (7) permitir que maiores volumes de lâminas sejam gerados por recorte de tecido, contribuindo para diagnósticos mais informados/precisos, reduzindo a sobrecarga de solicitação de adição teste adicional para um patologista e/ou (8) identificar ou verificar as propriedades corretas (por exemplo, pertencentes a um tipo de amostra) de uma imagem digital de patologia, etc.[0032] For example, computers can be used to analyze an image of a tissue sample to quickly identify whether additional information may be needed about a specific tissue sample and/or to highlight for a pathologist an area in which he or she should look further. closely. This way, the process of obtaining additional stained slides and exams can be done automatically before being reviewed by a pathologist. When paired with automatic slide segmentation and staining machines, this can provide a fully automated slide preparation pipeline. This automation has at least the benefits of (1) minimizing the amount of time wasted by a pathologist determining that a slide is insufficient to make a diagnosis, (2) minimizing the time (average total) from sample acquisition to diagnosis, avoiding additional time between ordering additional tests and their production, (3) reducing the amount of time per cut and the amount of wasted material, allowing cuts to be performed while tissue blocks (e.g., samples of pathology) are on a cutting table, (4) reduce the amount of wasted/discarded tissue material during slide preparation, (5) reduce the cost of slide preparation by partially or fully automating the procedure, (6) allow the automatic custom cutting and staining of slides that would result in slides that are more representative/informative of the samples, (7) allow for greater volumes of slides to be generated by tissue clipping, contributing to more informed/accurate diagnoses, reducing the overhead of requesting additional testing additional for a pathologist and/or (8) identify or verify the correct properties (e.g., belonging to a sample type) of a digital pathology image, etc.

[0033] O processo de uso de computadores para auxiliar os patologistas é conhecido como patologia computacional. Os métodos de computação usados para patologia computacional podem incluir, sem limitação, análise estatística, aprendizado autônomo ou de máquina e IA. IA pode incluir, sem limitação, aprendizado profundo, redes neurais, classificações, agrupamento e algoritmos de regressão. Mediante o uso da patologia computacional, vidas podem ser salvas ajudando os patologistas a melhorar sua precisão diagnóstica, confiabilidade, eficiência e acessibilidade. Por exemplo, a patologia computacional pode ser usada para auxiliar na detecção de lâminas suspeitas de câncer, permitindo assim que os patologistas verifiquem e confirmem suas avaliações iniciais antes de fornecer um diagnóstico final.[0033] The process of using computers to assist pathologists is known as computational pathology. Computing methods used for computational pathology may include, without limitation, statistical analysis, autonomous or machine learning, and AI. AI may include, but is not limited to, deep learning, neural networks, classifications, clustering, and regression algorithms. Through the use of computational pathology, lives can be saved by helping pathologists improve their diagnostic accuracy, reliability, efficiency and accessibility. For example, computational pathology can be used to aid in the detection of suspected cancer slides, thereby allowing pathologists to verify and confirm their initial assessments before providing a final diagnosis.

[0034] Conforme descrito acima, os processos e dispositivos de patologia computacional da presente revelação podem fornecer uma plataforma integrada que permite um processo totalmente automatizado, incluindo ingestão de dados, processamento e visualização de imagens de patologia digital por meio de um navegador da web ou outra interface de usuário, enquanto se integra com um sistema de informações laboratoriais (LIS). Além disso, as informações clínicas podem ser agregadas com o uso da análise de dados baseada em nuvem dos dados do paciente. Os dados podem vir de hospitais, clínicas, pesquisadores de campo, etc., e podem ser analisados por aprendizado de máquina, visão computacional, processamento de linguagem natural e/ou algoritmos estatísticos para fazer monitoramento e previsão em tempo real de padrões de saúde em múltiplos níveis de especificidades geográficas.[0034] As described above, the computational pathology processes and devices of the present disclosure can provide an integrated platform that enables a fully automated process, including data ingestion, processing and viewing of digital pathology images via a web browser or another user interface, while integrating with a laboratory information system (LIS). Additionally, clinical information can be aggregated using cloud-based data analytics of patient data. Data can come from hospitals, clinics, field researchers, etc., and can be analyzed by machine learning, computer vision, natural language processing and/or statistical algorithms to do real-time monitoring and prediction of health patterns in multiple levels of geographic specificities.

[0035] A histopatologia se refere ao estudo de uma amostra que foi colocada em uma lâmina. Por exemplo, uma imagem de patologia digital pode ser composta por uma imagem digitalizada de uma lâmina de microscópio contendo a amostra (por exemplo, um esfregaço). Um método que um patologista pode usar para analisar uma imagem em uma lâmina é identificar os núcleos e classificar se um núcleo é normal (por exemplo, benigno) ou anormal (por exemplo, maligno). Para auxiliar os patologistas na identificação e classificação dos núcleos, colorações histológicas podem ser usadas para tornar as células visíveis. Muitos sistemas de coloração à base de corantes foram desenvolvidos, incluindo a reação de ácido periódico-Schiff, tricrômio de Masson, nissl e azul de metileno, e hematoxilina e eosina (H&E). Para o diagnóstico médico, o H&E é um método baseado em corante amplamente usado, com coloração de hematoxilina em azul do núcleo celular, coloração de eosina no citoplasma e matriz extracelular em rosa, e outras regiões teciduais assumindo variações dessas cores. Em muitos casos, no entanto, as preparações histológicas coradas por H&E não fornecem informações suficientes para um patologista identificar visualmente biomarcadores que podem auxiliar no diagnóstico ou orientar o tratamento. Nessa situação, técnicas como imuno-histoquímica (IHC), imunofluorescência, hibridização in situ (ISH) ou hibridização in situ fluorescente (FISH), podem ser usadas. IHC e a imunofluorescência envolvem, por exemplo, o uso de anticorpos que se ligam a antígenos específicos nos tecidos, permitindo a detecção visual de células que expressam proteínas específicas de interesse, o que pode revelar biomarcadores que não são identificáveis de forma confiável para patologistas treinados com base na análise de lâminas coradas por H&E. ISH e FISH podem ser empregados para avaliar o número de cópias de genes ou a abundância de moléculas de RNA específicas, dependendo do tipo de sondas empregadas (por exemplo, sondas de DNA para número de cópias de genes e sondas de RNA para avaliação da expressão de RNA). Se esses métodos também não fornecerem informações suficientes para detectar alguns biorrótulos, o teste genético do tecido pode ser usado para confirmar se um biomarcador está presente (por exemplo, superexpressão de uma proteína específica ou produto gênico em um tumor, amplificação de um determinado gene em um câncer).[0035] Histopathology refers to the study of a sample that has been placed on a slide. For example, a digital pathology image may be comprised of a digitized image of a microscope slide containing the sample (e.g., a smear). One method a pathologist can use to analyze an image on a slide is to identify nuclei and classify whether a nucleus is normal (e.g., benign) or abnormal (e.g., malignant). To assist pathologists in identifying and classifying nuclei, histological stains can be used to make cells visible. Many dye-based staining systems have been developed, including the periodic acid-Schiff reaction, Masson's trichrome, nissl and methylene blue, and hematoxylin and eosin (H&E). For medical diagnosis, H&E is a widely used dye-based method, with hematoxylin staining the cell nucleus blue, eosin staining the cytoplasm and extracellular matrix pink, and other tissue regions taking on variations of these colors. In many cases, however, H&E-stained histological preparations do not provide sufficient information for a pathologist to visually identify biomarkers that can aid in diagnosis or guide treatment. In this situation, techniques such as immunohistochemistry (IHC), immunofluorescence, in situ hybridization (ISH) or fluorescence in situ hybridization (FISH) can be used. IHC and immunofluorescence involve, for example, the use of antibodies that bind to specific antigens in tissues, allowing visual detection of cells expressing specific proteins of interest, which can reveal biomarkers that are not reliably identifiable to trained pathologists. based on analysis of H&E stained slides. ISH and FISH can be employed to assess gene copy number or the abundance of specific RNA molecules, depending on the type of probes employed (e.g., DNA probes for gene copy number and RNA probes for expression assessment). of RNA). If these methods also do not provide sufficient information to detect some biolabels, tissue genetic testing can be used to confirm whether a biomarker is present (e.g., overexpression of a specific protein or gene product in a tumor, amplification of a particular gene in cancer).

[0036] Uma imagem digitalizada pode ser preparada para mostrar uma lâmina de microscópio corada, o que pode permitir que um patologista visualize manualmente a imagem em uma lâmina e estime um número de células anormais coradas na imagem. No entanto, esse processo pode ser demorado e pode levar a erros na identificação de anormalidades, pois algumas anormalidades são difíceis de detectar. Processos e dispositivos computacionais podem ser usados para auxiliar os patologistas na detecção de anormalidades que de outra forma seriam difíceis de detectar. Por exemplo, a IA pode ser usada para prever biomarcadores (como a superexpressão de uma proteína e/ou produto gênico, amplificação ou mutações de genes específicos) de regiões salientes em imagens digitais de tecidos corados com o uso de H&E e outros métodos baseados em corantes. As imagens dos tecidos podem ser imagens de lâminas inteiros (WSI), imagens de núcleos de tecido dentro de microarrays ou áreas selecionadas de interesse dentro de uma seção de tecido. Por meio do uso de métodos de coloração como H&E, esses biomarcadores podem ser difíceis para os humanos detectarem ou quantificarem visualmente sem a ajuda de testes adicionais. Usar a IA para inferir esses biomarcadores a partir de imagens digitais de tecidos tem o potencial de melhorar o atendimento ao paciente, além de ser mais rápido e menos caro.[0036] A digitized image can be prepared to show a stained microscope slide, which can allow a pathologist to manually view the image on a slide and estimate a number of abnormal cells stained in the image. However, this process can be time-consuming and can lead to errors in identifying abnormalities, as some abnormalities are difficult to detect. Computational processes and devices can be used to assist pathologists in detecting abnormalities that would otherwise be difficult to detect. For example, AI can be used to predict biomarkers (such as overexpression of a protein and/or gene product, amplification or mutations of specific genes) from salient regions in digital images of tissues stained using H&E and other data-based methods. dyes. Tissue images can be whole slide images (WSI), images of tissue cores within microarrays, or selected areas of interest within a tissue section. Through the use of staining methods such as H&E, these biomarkers can be difficult for humans to visually detect or quantify without the help of additional testing. Using AI to infer these biomarkers from digital tissue images has the potential to improve patient care, as well as be faster and less expensive.

[0037] Os biomarcadores detectados ou a imagem por si só podem ser usados para recomendar medicamentos específicos contra o câncer ou terapias de combinação de medicamentos a serem usadas para tratar um paciente, e a IA pode identificar quais medicamentos ou combinações de medicamentos provavelmente não serão bem-sucedidos correlacionando os biomarcadores detectados com um banco de dados de opções de tratamento. Isso pode ser usado para facilitar a recomendação automática de medicamentos de imunoterapia para atingir o câncer específico de um paciente. Além disso, isso pode ser usado para permitir o tratamento personalizado do câncer para subconjuntos específicos de pacientes e/ou tipos de câncer mais raros.[0037] The detected biomarkers or imaging alone can be used to recommend specific cancer drugs or drug combination therapies to be used to treat a patient, and AI can identify which drugs or drug combinations are unlikely to be used. successful studies correlating detected biomarkers with a database of treatment options. This can be used to facilitate automatic recommendation of immunotherapy drugs to target a patient's specific cancer. Furthermore, this could be used to enable personalized cancer treatment for specific subsets of patients and/or rarer cancer types.

[0038] Conforme descrito acima, os processos e dispositivos de patologia computacional da presente revelação podem fornecer uma plataforma integrada que permite um processo totalmente automatizado, incluindo ingestão de dados, processamento e visualização de imagens de patologia digital por meio de um navegador da web ou outra interface de usuário, enquanto se integra com um sistema de informações laboratoriais (LIS). Além disso, as informações clínicas podem ser agregadas com o uso da análise de dados baseada em nuvem dos dados do paciente. Os dados podem vir de hospitais, clínicas, pesquisadores de campo, etc., e podem ser analisados por aprendizado de máquina, visão computacional, processamento de linguagem natural e/ou algoritmos estatísticos para fazer monitoramento e previsão em tempo real de padrões de saúde em múltiplos níveis de especificidades geográficas.[0038] As described above, the computational pathology processes and devices of the present disclosure can provide an integrated platform that enables a fully automated process, including data ingestion, processing and viewing of digital pathology images via a web browser or another user interface, while integrating with a laboratory information system (LIS). Additionally, clinical information can be aggregated using cloud-based data analytics of patient data. Data can come from hospitals, clinics, field researchers, etc., and can be analyzed by machine learning, computer vision, natural language processing and/or statistical algorithms to do real-time monitoring and prediction of health patterns in multiple levels of geographic specificities.

[0039] As imagens de patologia digital descritas acima podem ser armazenadas com etiquetas e/ou rótulos pertencentes às propriedades da amostra ou da imagem de patologia digital e tais etiquetas/rótulos podem estar incompletos. Consequentemente, os sistemas e métodos revelados no presente documento preveem pelo menos um rótulo de uma coleção de imagens digitais.[0039] The digital pathology images described above may be stored with tags and/or labels pertaining to the properties of the sample or digital pathology image and such tags/labels may be incomplete. Consequently, the systems and methods disclosed herein provide for at least one label of a collection of digital images.

[0040] O desempenho de modelos de aprendizado de máquina e aprendizado profundo para histopatologia pode ser limitado pelo volume e qualidade dos exemplos anotados usados para treinar esses modelos. Experimentos em larga escala em problemas de classificação de imagem supervisionada mostraram que o desempenho do modelo continua a melhorar, chegando a uma ordem de 50 milhões de exemplos de treinamento. A maioria das tarefas clinicamente relevantes em patologia envolve muito mais do que classificação, no entanto. Quando um patologista fornece um diagnóstico, o diagnóstico pode assumir a forma de um relatório que contém muitos campos inter-relacionados heterogêneos e pertence a uma lâmina inteira ou a um conjunto de lâminas. Em oncologia, esses campos podem incluir a presença de câncer, graus de câncer, quantificação de tumor, grupo de grau de câncer, presença de várias características importantes para o estadiamento do câncer, etc. Em estudos com animais de pesquisa pré-clínica de fármacos, esses campos podem incluir a presença toxicidade, a gravidade da toxicidade e o tipo de toxicidade. A obtenção das anotações necessárias para treinar a maioria dos modelos de aprendizado profundo supervisionados pode envolver um patologista rotulando pixels individuais, recortes (por exemplo, uma ou mais regiões retangulares relativamente pequenas em uma imagem de lâmina) ou regiões de interesse (por exemplo, polígonos) da imagem de lâmina com uma anotação apropriada. Para cada campo do relatório, um conjunto diferente de anotações de treinamento pode ser usado. Além disso, uma lâmina de patologia digital típico pode conter na ordem de 10 gigapixels, ou mais de 100.000 recortes. Anotar manualmente esse volume de dados pode ser proibitivamente caro, tanto em tempo quanto em custo, e pode ser uma limitação severa para garantir que os sistemas funcionem em um nível clinicamente relevante e generalizem entre as instituições. Consequentemente, existe um desejo de gerar dados de treinamento que possam ser usados para histopatologia.[0040] The performance of machine learning and deep learning models for histopathology may be limited by the volume and quality of the annotated examples used to train these models. Large-scale experiments on supervised image classification problems have shown that model performance continues to improve, reaching an order of 50 million training examples. Most clinically relevant tasks in pathology involve much more than classification, however. When a pathologist provides a diagnosis, the diagnosis may take the form of a report that contains many heterogeneous interrelated fields and pertains to an entire slide or set of slides. In oncology, these fields may include presence of cancer, cancer grades, tumor quantification, cancer grade group, presence of various features important for cancer staging, etc. In preclinical drug research animal studies, these fields may include the presence of toxicity, the severity of toxicity, and the type of toxicity. Obtaining the annotations necessary to train most supervised deep learning models may involve a pathologist labeling individual pixels, indentations (e.g., one or more relatively small rectangular regions in a slide image), or regions of interest (e.g., polygons ) of the slide image with an appropriate annotation. For each report field, a different set of training annotations can be used. Furthermore, a typical digital pathology slide can contain on the order of 10 gigapixels, or more than 100,000 slices. Manually annotating this volume of data can be prohibitively expensive, both in time and cost, and can be a severe limitation to ensuring that systems function at a clinically relevant level and generalize across institutions. Consequently, there is a desire to generate training data that can be used for histopathology.

[0041] As modalidades da presente revelação podem superar as limitações acima. Em particular, as modalidades reveladas no presente documento podem usar supervisão fraca, na qual um modelo de aprendizado profundo pode ser treinado diretamente a partir do diagnóstico de um patologista, em vez de rotulagem adicional de cada pixel ou recorte em uma imagem digital. Um modelo de aprendizado de máquina ou aprendizado profundo pode compreender um algoritmo de aprendizado de máquina, em algumas modalidades. Uma técnica pode determinar a detecção binária de câncer, no entanto, as técnicas discutidas no presente documento divulgam ainda, por exemplo, como um sistema de aprendizado profundo pode ser treinado em uma configuração multirrótulo e multitarefa fracamente supervisionada para realizar classificação, subtipagem, inferir vários atributos de doença simultaneamente, e mais. Isso permite que os sistemas sejam treinados diretamente a partir de relatórios de diagnóstico ou resultados de testes sem a necessidade de anotações extensas, reduzindo o número de rótulos de treinamento necessários em cinco ordens de magnitude ou mais.[0041] Embodiments of the present disclosure can overcome the above limitations. In particular, the embodiments disclosed herein may use weak supervision, in which a deep learning model may be trained directly from a pathologist's diagnosis, rather than additional labeling of each pixel or crop in a digital image. A machine learning or deep learning model may comprise a machine learning algorithm, in some embodiments. One technique can determine binary cancer detection, however, the techniques discussed in the present paper further disclose, for example, how a deep learning system can be trained in a weakly supervised multi-label, multi-task setting to perform classification, subtyping, inferring various disease attributes simultaneously, and more. This allows systems to be trained directly from diagnostic reports or test results without the need for extensive annotations, reducing the number of training labels required by five orders of magnitude or more.

[0042] Os sistemas e métodos revelados podem prever automaticamente as propriedades da amostra ou da imagem, sem depender das etiquetas ou rótulos armazenados. Além disso, são revelados sistemas e métodos para identificar e/ou verificar rápida e corretamente um tipo de amostra de uma imagem de patologia digital, ou qualquer informação relacionada a uma imagem de patologia digital, sem necessariamente acessar um banco de dados de informações análogas ou LIS. Uma modalidade da presente revelação pode incluir um sistema treinado para identificar várias propriedades de uma imagem de patologia digital, com base em conjuntos de dados de imagens de patologia digital anteriores. O sistema treinado pode fornecer uma classificação para uma amostra mostrada em uma imagem de patologia digital. A classificação pode ajudar a fornecer previsão (ou previsões) de tratamento ou diagnóstico para um paciente associado à amostra.[0042] The disclosed systems and methods can automatically predict sample or image properties without relying on stored tags or labels. Furthermore, systems and methods are disclosed for quickly and correctly identifying and/or verifying a sample type of a digital pathology image, or any information related to a digital pathology image, without necessarily accessing a database of analogous information or LIS. An embodiment of the present disclosure may include a system trained to identify various properties of a digital pathology image, based on prior digital pathology image datasets. The trained system can provide a classification for a sample shown in a digital pathology image. Classification can help provide prediction (or predictions) of treatment or diagnosis for a patient associated with the sample.

[0043] Esta revelação inclui uma ou mais modalidades de uma ferramenta de análise de lâminas. A entrada para a ferramenta pode incluir uma imagem de patologia digital e quaisquer entradas adicionais relevantes. As saídas da ferramenta podem incluir informações globais e/ou locais sobre a amostra. Uma amostra pode incluir uma amostra de biópsia ou ressecção cirúrgica.[0043] This disclosure includes one or more embodiments of a slide analysis tool. Input to the tool can include a digital pathology image and any additional relevant inputs. The tool outputs can include global and/or local information about the sample. A specimen may include a biopsy or surgical resection specimen.

[0044] A Figura 1A ilustra um diagrama de blocos de um sistema e rede para determinar a propriedade da amostra ou informações de propriedade da imagem referentes à imagem (ou imagens) de patologia digital, com o uso de aprendizado de máquina, de acordo com uma modalidade exemplificativa da presente revelação.[0044] Figure 1A illustrates a block diagram of a system and network for determining sample property or image property information pertaining to the digital pathology image (or images), using machine learning, in accordance with an exemplary embodiment of the present disclosure.

[0045] Especificamente, a Figura 1A ilustra uma rede eletrônica 120 que pode ser conectada a servidores em hospitais, laboratórios e/ou consultórios médicos, etc. Por exemplo, servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informação de laboratório 125, etc., podem ser conectados a uma rede eletrônica 120, como a Internet, através de um ou mais computadores, servidores e/ou dispositivos móveis portáteis. De acordo com uma modalidade exemplificativa do presente pedido, a rede eletrônica 120 também pode ser conectada a sistemas de servidor 110, que podem incluir dispositivos de processamento que são configurados para implementar uma plataforma de detecção de doença 100, que inclui uma ferramenta de análise de lâmina 101 para determinar a propriedade da amostra ou informações de propriedade de imagem pertencentes à imagem (ou imagens) de patologia digital e com o uso de aprendizado de máquina para classificar uma amostra, de acordo com uma modalidade exemplificativa da presente revelação.[0045] Specifically, Figure 1A illustrates an electronic network 120 that can be connected to servers in hospitals, laboratories and/or doctors' offices, etc. For example, medical servers 121, hospital servers 122, clinical trial servers 123, research laboratory servers 124 and/or laboratory information systems 125, etc., may be connected to an electronic network 120, such as the Internet, via of one or more computers, servers and/or portable mobile devices. According to an exemplary embodiment of the present application, the electronic network 120 may also be connected to server systems 110, which may include processing devices that are configured to implement a disease detection platform 100, which includes a disease analysis tool. blade 101 to determine sample property or image property information pertaining to the digital pathology image (or images) and using machine learning to classify a sample, in accordance with an exemplary embodiment of the present disclosure.

[0046] Os servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informações laboratoriais 125 podem criar ou obter imagens de uma ou mais amostras de citologia de pacientes, amostras de histopatologia, lâmina (ou lâmina) da amostra citológica (ou amostras citológicas), imagens digitalizadas da lâmina (ou lâminas) da amostra histopatológica (ou amostras histopatológicas), ou qualquer combinação das mesmas. Os servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informações laboratoriais 125 também podem obter qualquer combinação de informações específicas do paciente, como idade, histórico médico, histórico de tratamento de câncer, histórico familiar, informações de biópsia ou citologia anteriores, etc. Os servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informações laboratoriais 125 podem transmitir imagens de lâminas digitalizadas e/ou informações específicas do paciente para sistemas de servidores 110 pela rede eletrônica 120. Os sistemas de servidor 110 podem incluir um ou mais dispositivos de armazenamento 109 para armazenar imagens e dados recebidos de pelo menos um dos servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informações laboratoriais 125. Os sistemas de servidor 110 também podem incluir dispositivos de processamento para processar imagens e dados armazenados em um ou mais dispositivos de armazenamento 109. Os sistemas de servidor 110 podem incluir ainda uma ou mais ferramentas ou recursos de aprendizado de máquina. Por exemplo, os dispositivos de processamento podem incluir uma ferramenta de aprendizado de máquina para uma plataforma de detecção de doenças 100, de acordo com uma modalidade. Alternativa ou adicionalmente, a presente revelação (ou partes do sistema e métodos da presente revelação) pode ser realizada em um dispositivo de processamento local (por exemplo, um computador do tipo laptop).[0046] Medical servers 121, hospital servers 122, clinical trials servers 123, research laboratory servers 124 and/or laboratory information systems 125 may create or obtain images of one or more patient cytology samples, histopathology samples , slide (or slides) of the cytological specimen (or cytological specimens), digitized images of the slide (or slides) of the histopathological specimen (or histopathological specimens), or any combination thereof. Medical servers 121, hospital servers 122, clinical trial servers 123, research laboratory servers 124, and/or laboratory information systems 125 may also obtain any combination of patient-specific information, such as age, medical history, cancer, family history, previous biopsy or cytology information, etc. Medical servers 121 , hospital servers 122 , clinical trial servers 123 , research laboratory servers 124 , and/or laboratory information systems 125 may transmit scanned slide images and/or patient-specific information to server systems 110 over the electronic network 120. Server systems 110 may include one or more storage devices 109 for storing images and data received from at least one of medical servers 121, hospital servers 122, clinical trial servers 123, research laboratory servers 124, and/or laboratory information systems 125. Server systems 110 may also include processing devices for processing images and data stored on one or more storage devices 109. Server systems 110 may further include one or more machine learning tools or capabilities . For example, the processing devices may include a machine learning tool for a disease detection platform 100, in accordance with one embodiment. Alternatively or additionally, the present disclosure (or portions of the system and methods of the present disclosure) may be performed on a local processing device (e.g., a laptop-type computer).

[0047] Os servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informação laboratorial 125 se referem a sistemas usados por patologistas para revisar as imagens das lâminas. Em ambientes hospitalares, as informações de tipo de tecido podem ser armazenadas em sistemas de informação de laboratório 125. No entanto, as informações corretas de classificação do tecido nem sempre estão emparelhadas com o conteúdo da imagem. Além disso, mesmo que um LIS seja usado para acessar o tipo de amostra para uma imagem de patologia digital, esse rótulo pode estar incorreto devido ao fato de que muitos componentes de um LIS podem ser inseridos manualmente, deixando uma grande margem de erro. De acordo com uma modalidade exemplificativa da presente revelação, um tipo de amostra pode ser identificado sem a necessidade de acessar os sistemas de informação de biblioteca 125, ou pode ser identificado para possivelmente corrigir sistemas de informação de biblioteca 125. Por exemplo, um terceiro pode ter acesso anônimo ao conteúdo da imagem sem o rótulo de tipo de amostra correspondente armazenada no LIS. Além disso, o acesso ao conteúdo do LIS pode ser limitado devido ao seu conteúdo sensível.[0047] Medical servers 121, hospital servers 122, clinical trial servers 123, research laboratory servers 124, and/or laboratory information systems 125 refer to systems used by pathologists to review slide images. In hospital settings, tissue type information can be stored in laboratory information systems 125. However, correct tissue classification information is not always paired with image content. Additionally, even if an LIS is used to access the sample type for a digital pathology image, this label may be incorrect due to the fact that many components of an LIS can be entered manually, leaving a large margin for error. In accordance with an exemplary embodiment of the present disclosure, a sample type may be identified without needing to access library information systems 125, or may be identified to possibly correct library information systems 125. For example, a third party may have anonymous access to image content without the corresponding sample type label stored in the LIS. Additionally, access to LIS content may be limited due to its sensitive content.

[0048] A Figura 1B ilustra um diagrama de blocos exemplificativo de uma plataforma de detecção de doença 100 para determinar a propriedade da amostra ou informações de propriedade da imagem pertencentes à imagem (ou imagens) de patologia digital, com o uso de aprendizado de máquina. Por exemplo, a plataforma de detecção de doenças 100 pode incluir uma ferramenta de análise de lâminas 101, uma ferramenta de ingestão de dados 102, uma ferramenta de ingestão de lâminas 103, um scanner de lâminas 104, um gerenciador de lâminas 105, um armazenamento 106 e uma ferramenta de aplicativo de visualização 108.[0048] Figure 1B illustrates an exemplary block diagram of a disease detection platform 100 for determining sample property or image property information pertaining to the digital pathology image (or images), using machine learning. . For example, the disease detection platform 100 may include a slide analysis tool 101, a data ingestion tool 102, a slide ingestion tool 103, a slide scanner 104, a slide manager 105, a storage 106 and a visualization application tool 108.

[0049] A ferramenta de análise de lâmina 101, conforme descrito abaixo, se refere a um processo e sistema para processar imagens digitais associadas a uma amostra de tecido e usar aprendizado de máquina para analisar uma lâmina, de acordo com uma modalidade exemplificativa.[0049] Slide analysis tool 101, as described below, refers to a process and system for processing digital images associated with a tissue sample and using machine learning to analyze a slide, according to an exemplary embodiment.

[0050] A ferramenta de ingestão de dados 102 se refere a um processo e sistema para facilitar uma transferência das imagens digitais de patologia para as várias ferramentas, módulos, componentes e dispositivos que são usados para classificar e processar as imagens digitais de patologia, de acordo com uma modalidade exemplificativa.[0050] Data ingestion tool 102 refers to a process and system for facilitating a transfer of the digital pathology images to the various tools, modules, components and devices that are used to classify and process the digital pathology images, from according to an exemplary embodiment.

[0051] A ferramenta de entrada de lâmina 103 se refere a um processo e sistema para escanear imagens de patologia e convertê-las em uma forma digital, de acordo com uma modalidade exemplificativa. As lâminas podem ser digitalizadas com o scanner de lâminas 104 e o gerenciador de lâminas 105 pode processar as imagens nas lâminas em imagens de patologia digitalizadas e armazenar as imagens digitalizadas no armazenamento 106.[0051] Slide input tool 103 refers to a process and system for scanning pathology images and converting them into a digital form, in accordance with an exemplary embodiment. The slides can be digitized with the slide scanner 104 and the slide manager 105 can process the images on the slides into digitized pathology images and store the digitized images in storage 106.

[0052] A ferramenta de aplicativo de visualização 108 se refere a um processo e sistema para fornecer a um usuário (por exemplo, um patologista) propriedade de amostra ou informações de propriedade de imagem pertencentes a imagem (ou imagens) de patologia digital, de acordo com uma modalidade exemplificativa. As informações podem ser fornecidas por meio de várias interfaces de saída (por exemplo, uma tela, um monitor, um dispositivo de armazenamento e/ou um navegador da web, etc.).[0052] Visualization application tool 108 refers to a process and system for providing a user (e.g., a pathologist) with sample ownership or image ownership information pertaining to a digital pathology image (or images), of according to an exemplary embodiment. Information may be provided through various output interfaces (e.g., a screen, a monitor, a storage device, and/or a web browser, etc.).

[0053] A ferramenta de análise de lâminas 101, e cada um de seus componentes, pode transmitir e/ou receber imagens de lâminas digitalizadas e/ou informações do paciente para sistemas de servidores 110, servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informação de laboratório 125 através de uma rede eletrônica 120. Além disso, os sistemas de servidor 110 podem incluir um ou mais dispositivos de armazenamento 109 para armazenar imagens e dados recebidos de pelo menos uma dentre a ferramenta de análise de lâminas 101, a ferramenta de ingestão de dados 102, a ferramenta de entrada de lâminas 103, o scanner de lâminas 104, o gerenciador de lâminas 105 e ferramenta de aplicativo de visualização 108. Os sistemas de servidor 110 também podem incluir dispositivos de processamento para processar imagens e dados armazenados nos dispositivos de armazenamento. Os sistemas de servidor 110 podem incluir ainda uma ou mais ferramentas ou recursos de aprendizado de máquina, por exemplo, devido aos dispositivos de processamento. Alternativa ou adicionalmente, a presente revelação (ou partes do sistema e métodos da presente revelação) pode ser realizada em um dispositivo de processamento local (por exemplo, um computador do tipo laptop).[0053] The slide analysis tool 101, and each of its components, can transmit and/or receive scanned slide images and/or patient information to server systems 110, medical servers 121, hospital servers 122, clinical trials 123, research laboratory servers 124, and/or laboratory information systems 125 via an electronic network 120. Additionally, server systems 110 may include one or more storage devices 109 for storing images and data received from at least one of slide analysis tool 101, data ingestion tool 102, slide input tool 103, slide scanner 104, slide manager 105, and visualization application tool 108. Server 110 may also include processing devices for processing images and data stored on the storage devices. Server systems 110 may further include one or more machine learning tools or resources, for example due to processing devices. Alternatively or additionally, the present disclosure (or portions of the system and methods of the present disclosure) may be performed on a local processing device (e.g., a laptop-type computer).

[0054] Qualquer um dos dispositivos, ferramentas e módulos acima podem estar localizados em um dispositivo que pode ser conectado a uma rede eletrônica 120, como a Internet ou um provedor de serviços em nuvem, por meio de um ou mais computadores, servidores e/ou dispositivos móveis portáteis.[0054] Any of the above devices, tools, and modules may be located on a device that may be connected to an electronic network 120, such as the Internet or a cloud service provider, through one or more computers, servers, and/or or portable mobile devices.

[0055] A Figura 1C ilustra um diagrama de blocos exemplificativo de uma ferramenta de análise de lâminas 101 de acordo com uma modalidade exemplificativa da presente revelação. A ferramenta de análise de lâminas 101 pode incluir uma plataforma de imagem de treinamento 131 e/ou uma plataforma de imagem-alvo 135.[0055] Figure 1C illustrates an exemplary block diagram of a slide analysis tool 101 in accordance with an exemplary embodiment of the present disclosure. The slide analysis tool 101 may include a training image platform 131 and/or a target image platform 135.

[0056] A plataforma de imagem de treinamento 131, de acordo com uma modalidade, pode criar ou receber imagens de treinamento que são usadas para treinar um sistema de aprendizado de máquina para analisar e classificar efetivamente imagens de patologia digital. Por exemplo, as imagens de treinamento podem ser recebidas de qualquer um ou qualquer combinação dos sistemas de servidor 110, servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informação de laboratório 125. As imagens usadas para treinamento podem ser provenientes de fontes reais (por exemplo, seres humanos, animais, etc.) ou podem vir de fontes sintéticas (por exemplo, mecanismos de renderização de gráficos, modelos 3D, etc.). Exemplos de imagens de patologia digital podem incluir (a) lâminas digitalizadas coradas com uma variedade de corantes, como (sem limitação) H&E, Hemotoxilina sozinha, IHC, patologia molecular, etc.; e/ou (b) amostras de tecido digitalizadas de um dispositivo de imagem 3D, como microCT.[0056] The training image platform 131, in accordance with one embodiment, may create or receive training images that are used to train a machine learning system to effectively analyze and classify digital pathology images. For example, training images may be received from any one or any combination of server systems 110, medical servers 121, hospital servers 122, clinical trial servers 123, research laboratory servers 124, and/or laboratory information systems. 125. Images used for training can come from real sources (e.g. humans, animals, etc.) or they can come from synthetic sources (e.g. graphics rendering engines, 3D models, etc.). Examples of digital pathology images may include (a) digitized slides stained with a variety of stains, such as (without limitation) H&E, Hemotoxylin alone, IHC, molecular pathology, etc.; and/or (b) tissue samples scanned from a 3D imaging device such as microCT.

[0057] O módulo de entrada de imagem de treinamento 132 pode criar ou receber um conjunto de dados compreendendo uma ou mais imagens de treinamento correspondentes a uma ou ambas as imagens de um tecido humano e imagens que são renderizadas graficamente. Por exemplo, as imagens de treinamento podem ser recebidas de qualquer um ou qualquer combinação dos sistemas de servidor 110, servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informação de laboratório 125. Esse conjunto de dados pode ser mantido em um dispositivo de armazenamento digital. O módulo determinador de pontuação de qualidade 133 pode identificar problemas de controle de qualidade (QC) (por exemplo, imperfeições) para as imagens de treinamento em nível global ou local que podem afetar grandemente a usabilidade de uma imagem de patologia digital. Por exemplo, o módulo de determinação de pontuação de qualidade pode usar informações sobre uma imagem inteira, por exemplo, o tipo de amostra, a qualidade geral do corte da amostra, a qualidade geral da própria lâmina de patologia de vidro ou características da morfologia do tecido e determinar um índice de qualidade geral da imagem. O módulo de identificação de tratamento 134 pode analisar imagens de tecidos e determinar quais imagens de patologia digital têm efeitos de tratamento (por exemplo, pós- tratamento) e quais imagens não têm efeitos de tratamento (por exemplo, pré- tratamento). É útil identificar se uma imagem digital de patologia tem efeitos de tratamento devido ao fato de que efeitos de tratamento prévio no tecido podem afetar a morfologia do próprio tecido. A maioria dos LIS não acompanha explicitamente essa característica e, portanto, pode ser desejável classificar os tipos de amostras com efeitos de tratamento prévios.[0057] The training image input module 132 may create or receive a data set comprising one or more training images corresponding to one or both images of a human tissue and images that are graphically rendered. For example, training images may be received from any one or any combination of server systems 110, medical servers 121, hospital servers 122, clinical trial servers 123, research laboratory servers 124, and/or laboratory information systems. 125. This data set can be maintained on a digital storage device. The quality score determiner module 133 can identify quality control (QC) issues (e.g., imperfections) for the training images at a global or local level that can greatly affect the usability of a digital pathology image. For example, the quality score determination module may use information about an entire image, e.g., the type of sample, the overall quality of the sample section, the overall quality of the glass pathology slide itself, or features of the morphology of the tissue and determine an overall image quality score. The treatment identification module 134 can analyze tissue images and determine which digital pathology images have treatment effects (e.g., post-treatment) and which images do not have treatment effects (e.g., pre-treatment). It is useful to identify whether a digital pathology image has treatment effects due to the fact that prior treatment effects on the tissue can affect the morphology of the tissue itself. Most LIS do not explicitly track this characteristic, and therefore it may be desirable to classify sample types with prior treatment effects.

[0058] De acordo com uma modalidade, a plataforma de imagem-alvo 135 pode incluir um módulo de entrada de imagem-alvo 136, um módulo de detecção de amostra 137 e uma interface de saída 138. A plataforma de imagem-alvo 135 pode receber uma imagem-alvo e aplicar o modelo de aprendizado de máquina à imagem- alvo recebida para determinar uma característica de uma amostra-alvo. Por exemplo, a imagem-alvo pode ser recebida de qualquer um ou qualquer combinação dos sistemas de servidor 110, servidores médicos 121, servidores hospitalares 122, servidores de ensaios clínicos 123, servidores de laboratório de pesquisa 124 e/ou sistemas de informação de laboratório 125. O módulo de entrada de imagem-alvo 136 pode receber uma imagem-alvo correspondente a uma amostra-alvo. O módulo de detecção de amostra 137 pode aplicar o modelo de aprendizado de máquina à imagem-alvo para determinar uma característica da amostra-alvo. Por exemplo, o módulo de detecção de amostra 137 pode detectar um tipo de amostra da amostra- alvo. O módulo de detecção de amostra 137 também pode aplicar o modelo de aprendizado de máquina à imagem-alvo para determinar uma pontuação de qualidade para a imagem-alvo. Além disso, o módulo de detecção de amostra 137 pode aplicar o modelo de aprendizado de máquina à amostra-alvo para determinar se a amostra- alvo é pré-tratamento ou pós-tratamento.[0058] According to one embodiment, the target image platform 135 may include a target image input module 136, a sample detection module 137, and an output interface 138. The target image platform 135 may receiving a target image and applying the machine learning model to the received target image to determine a characteristic of a target sample. For example, the target image may be received from any one or any combination of server systems 110, medical servers 121, hospital servers 122, clinical trial servers 123, research laboratory servers 124, and/or laboratory information systems. 125. The target image input module 136 may receive a target image corresponding to a target sample. The sample detection module 137 may apply the machine learning model to the target image to determine a characteristic of the target sample. For example, the sample detection module 137 may detect a sample type of the target sample. The sample detection module 137 may also apply the machine learning model to the target image to determine a quality score for the target image. Additionally, the sample detection module 137 may apply the machine learning model to the target sample to determine whether the target sample is pre-treatment or post-treatment.

[0059] A interface de saída 138 pode ser usada para enviar informações sobre a imagem-alvo e a amostra-alvo (por exemplo, para uma tela, monitor, dispositivo de armazenamento, navegador da web, etc.).[0059] Output interface 138 can be used to send information about the target image and target sample (e.g., to a screen, monitor, storage device, web browser, etc.).

[0060] A Figura 2A é um fluxograma que ilustra um método exemplificativo para usar um modelo de previsão criado por um sistema de aprendizado de máquina treinado, de acordo com uma ou mais modalidades exemplificativas da presente revelação. Por exemplo, um método exemplificativo 200 (etapas 202-210) pode ser realizado pela ferramenta de análise de lâmina 101 automaticamente ou em resposta a uma solicitação de um usuário.[0060] Figure 2A is a flowchart illustrating an exemplary method for using a prediction model created by a trained machine learning system, in accordance with one or more exemplary embodiments of the present disclosure. For example, an exemplary method 200 (steps 202-210) may be performed by slide analysis tool 101 automatically or in response to a user request.

[0061] De acordo com uma modalidade, o método exemplificativo 200 para usar um modelo de previsão pode incluir uma ou mais das seguintes etapas. Na etapa 202, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido, em que uma ou mais imagens digitais compreendem uma pluralidade de imagens de lâminas. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM) ou qualquer outro dispositivo de armazenamento adequado.[0061] According to one embodiment, the exemplary method 200 for using a prediction model may include one or more of the following steps. In step 202, the method may include receiving one or more digital images associated with a tissue sample, wherein the one or more digital images comprise a plurality of slide images. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM) or any other suitable storage device.

[0062] Na etapa 204, o método pode incluir particionar uma dentre a pluralidade de imagens de lâminas em uma coleção de recortes para a pluralidade de imagens de lâminas.[0062] In step 204, the method may include partitioning one of the plurality of slide images into a collection of slices for the plurality of slide images.

[0063] Na etapa 206, o método pode incluir a detecção de uma pluralidade de regiões de tecido a partir de um fundo de uma pluralidade de imagens de lâmina para criar uma máscara de tecido e remover pelo menos um recorte da coleção de recortes que é detectado como não tecido. O recorte que é não tecido pode incluir um plano de fundo da imagem da lâmina. Isso pode ser realizado de várias maneiras, incluindo: métodos baseados em limiares à base de cor, intensidade de cor, recursos de textura ou método de Otsu, seguidos pela execução de um algoritmo de componentes conectados; algoritmos de segmentação, como médias k, cortes de gráfico, rede neural convolucional de região de máscara (Mask R-CNN); ou quaisquer outros métodos adequados.[0063] In step 206, the method may include detecting a plurality of tissue regions from a background of a plurality of slide images to create a tissue mask and removing at least one snip from the collection of snips that is detected as non-woven. The cutout that is non-woven may include a slide image background. This can be accomplished in a number of ways, including: methods based on thresholds based on color, color intensity, texture features, or the Otsu method, followed by execution of a connected components algorithm; segmentation algorithms such as k-means, graph cuts, mask region convolutional neural network (Mask R-CNN); or any other suitable methods.

[0064] Na etapa 208, o método pode incluir determinar uma previsão, com o uso de um sistema de aprendizado de máquina, para um rótulo para a pluralidade de imagens de lâminas correspondentes a um paciente ou caso médico, o sistema de aprendizado de máquina foi gerado pelo processamento de uma pluralidade de exemplos de treinamento para criar um modelo de previsão. Os exemplos de treinamento podem compreender um conjunto de uma ou mais imagens de lâminas digitais e uma pluralidade de rótulos-alvo.[0064] In step 208, the method may include determining a prediction, using a machine learning system, for a label for the plurality of slide images corresponding to a patient or medical case, the machine learning system was generated by processing a plurality of training examples to create a prediction model. Training examples may comprise a set of one or more digital slide images and a plurality of target labels.

[0065] Na etapa 210, o método pode incluir a saída do modelo de previsão do sistema de aprendizado de máquina de treinamento que prevê pelo menos um rótulo de pelo menos uma lâmina que não foi usada para treinar o sistema de aprendizado de máquina e emitir a previsão para um dispositivo de armazenamento eletrônico.[0065] In step 210, the method may include output from the training machine learning system prediction model that predicts at least one label from at least one slide that was not used to train the machine learning system and output the prediction for an electronic storage device.

[0066] A Figura 2B é um fluxograma que ilustra um método exemplificativo para treinar um módulo de aprendizado em nível de recorte fracamente supervisionado em um sistema de aprendizado de máquina treinado, de acordo com uma ou mais modalidades exemplificativas da presente revelação. O módulo de aprendizado fracamente supervisionado pode treinar um modelo para fazer previsões em nível de recorte com o uso de rótulos de treinamento em nível de lâmina. Por exemplo, um método exemplificativo 220 (etapas 222-230) pode ser realizado pela ferramenta de análise de lâmina 101 automaticamente ou em resposta a uma solicitação de um usuário.[0066] Figure 2B is a flowchart illustrating an exemplary method for training a weakly supervised slice-level learning module in a trained machine learning system, in accordance with one or more exemplary embodiments of the present disclosure. The weakly supervised learning module can train a model to make slice-level predictions using blade-level training labels. For example, an exemplary method 220 (steps 222-230) may be performed by slide analysis tool 101 automatically or in response to a user request.

[0067] De acordo com uma modalidade, o método exemplificativo 220 para usar um modelo de previsão pode incluir uma ou mais das seguintes etapas. Na etapa 222, o método pode incluir receber uma coleção de imagens digitais associadas a uma amostra de tecido de treinamento em um dispositivo de armazenamento digital, em que a coleção de imagens digitais compreende uma pluralidade de imagens de lâmina de treinamento. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM) ou qualquer outro dispositivo de armazenamento adequado.[0067] According to one embodiment, the exemplary method 220 for using a prediction model may include one or more of the following steps. In step 222, the method may include receiving a collection of digital images associated with a training tissue sample into a digital storage device, wherein the collection of digital images comprises a plurality of training slide images. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM) or any other suitable storage device.

[0068] Na etapa 224, o método pode incluir receber uma pluralidade de anotações sinóticas que compreendem um ou mais rótulos para cada uma da pluralidade de imagens de lâmina de treinamento. Os rótulos podem ser binários, binários de vários níveis, categóricos, ordinais ou reais.[0068] In step 224, the method may include receiving a plurality of synoptic annotations comprising one or more labels for each of the plurality of training slide images. Labels can be binary, multi-level binary, categorical, ordinal, or real.

[0069] Na etapa 226, o método pode incluir particionar uma dentre a pluralidade de imagens de lâmina de treinamento em uma coleção de recortes de treinamento para a pluralidade de imagens de lâmina de treinamento.[0069] In step 226, the method may include partitioning one of the plurality of training slide images into a collection of training slices for the plurality of training slide images.

[0070] Na etapa 228, o método pode incluir detectar pelo menos uma região de tecido do fundo da pluralidade de imagens de lâmina de treinamento para criar uma máscara de tecido de treinamento e remover pelo menos um recorte de treinamento da coleção de recortes de treinamento que é detectado como não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R- CNN ou qualquer outro método adequado. abordagens gerais para treinar um modelo em um ambiente de supervisão fraca, mas qualquer abordagem adequada para treinar o modelo pode ser usada.[0070] In step 228, the method may include detecting at least one background tissue region of the plurality of training slide images to create a training tissue mask and removing at least one training slice from the collection of training slices. which is detected as non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms such as k-means, graph cuts, Mask R- CNN or any other suitable method. general approaches to training a model in a weak supervision environment, but any suitable approach to training the model can be used.

[0071] Na etapa 230, o método pode incluir o treinamento de um modelo de previsão sob supervisão fraca para inferir pelo menos uma previsão de nível de recorte multirrótulo com o uso de pelo menos um rótulo sinótico. Pode haver quatro abordagens gerais para treinar um modelo em um ambiente de supervisão fraca, mas qualquer abordagem adequada para treinar o modelo pode ser usada.[0071] In step 230, the method may include training a prediction model under weak supervision to infer at least one multi-label clipping level prediction using at least one synoptic label. There can be four general approaches to training a model in a weak supervision environment, but any suitable approach to training the model can be used.

[0072] 1. Aprendizado de Múltiplas Instâncias (MIL) pode ser usado para treinar um modelo de previsão em nível de recorte para rótulos binários ou categóricos, aprendendo a identificar recortes que contêm um rótulo de destino da lâmina. Essa identificação pode ser realizada encontrando recortes salientes (por exemplo, recortes de pontuação máxima com base em anotações ou rótulos sinóticos recebidos em cada iteração de treinamento) e com o uso desses recortes para atualizar um classificador com o uso do rótulo (ou rótulos) de treinamento sinótico recebido associado a cada recorte saliente. Por exemplo, o classificador pode ser treinado para identificar câncer com base em uma coleção de recortes sobrepostos. À medida que os recortes salientes são determinados, os rótulos sinóticos podem ser usados para atualizar os rótulos do nível do recorte. Esse rótulo e classificador de nível de recorte pode determinar ou fornecer um rótulo para um grupo de recortes. MIL também pode ser usado para treinar um modelo de aprendizado de máquina para extrair recursos de diagnóstico para outras tarefas a jusante, como classificação de câncer, subtipagem de câncer, detecção de biomarcadores, etc.[0072] 1. Multiple Instance Learning (MIL) can be used to train a snip-level prediction model for binary or categorical labels by learning to identify snips that contain a blade target label. This identification can be accomplished by finding salient clippings (e.g., top-score clippings based on annotations or synoptic labels received in each training iteration) and using these clippings to update a classifier using the label (or labels) from synoptic training received associated with each salient cutout. For example, the classifier can be trained to identify cancer based on a collection of overlapping snips. As the salient clips are determined, the synoptic labels can be used to update the clip-level labels. This cut-level label and classifier can determine or provide a label for a group of cuts. MIL can also be used to train a machine learning model to extract diagnostic features for other downstream tasks such as cancer classification, cancer subtyping, biomarker detection, etc.

[0073] 2. Aprendizado de Múltiplos Rótulos de Múltiplas Instâncias (MIMLL) pode ser um modelo de previsão em nível de recorte que compreende uma generalização de MIL que trata cada lâmina como um conjunto de recortes que podem ser associados a vários rótulos, em vez de apenas um único rótulo binário como em MIL. Esses rótulos de lâmina podem vir do relatório de diagnóstico de um patologista, teste genético, teste imunológico ou outras medições/ensaios. O modelo MIMLL pode ser treinado para selecionar recortes que correspondam a cada um dos rótulos sinóticos de treinamento pertencentes ao conjunto de um ou mais lâminas. A presente modalidade pode envolver o treinamento MIMLL de uma rede neural (por exemplo, uma Rede Neural Convolucional (CNN), rede de cápsulas, etc.) por meio da iteração das seguintes etapas: A. Para cada rótulo dos rótulos a serem previstos, selecionar o conjunto de recortes mais relevante com o uso de uma função de pontuação. A função de pontuação pode ser formulada para classificar várias peças simultaneamente. Por exemplo, com vários rótulos binários, uma CNN pode ser executada em cada recorte que tenta prever cada um dos vários rótulos binários de cada recorte em um conjunto de lâminas e os recortes com as saídas mais próximas de 1 para um ou mais dos rótulos podem ser selecionados. B. Usar os recortes selecionados para atualizar os pesos do modelo CNN em relação às atribuições de rótulos associadas. Cada rótulo pode ter sua própria camada de saída no modelo.[0073] 2. Multiple Instance Multiple Label Learning (MIMLL) may be a slice-level prediction model that comprises a generalization of MIL that treats each slice as a set of slices that can be associated with multiple labels, rather than of just a single binary label as in MIL. These slide labels can come from a pathologist's diagnostic report, genetic testing, immunological testing, or other measurements/assays. The MIMLL model can be trained to select slices that correspond to each of the training synoptic labels belonging to the set of one or more slides. The present embodiment may involve MIMLL training a neural network (e.g., a Convolutional Neural Network (CNN), capsule network, etc.) through iteration of the following steps: A. For each label of the labels to be predicted, select the most relevant set of clippings using a scoring function. The scoring function can be formulated to classify multiple pieces simultaneously. For example, with multiple binary labels, a CNN can be run on each slice that attempts to predict each of the multiple binary labels for each slice in a set of slides, and the slices with the outputs closest to 1 for one or more of the labels can be selected. B. Use the selected clippings to update the CNN model weights with respect to the associated label assignments. Each label can have its own output layer in the model.

[0074] Similar ao modelo MIL, o modelo MIMLL também pode ser usado para extrair recursos de diagnóstico para outras tarefas a jusante.[0074] Similar to the MIL model, the MIMLL model can also be used to extract diagnostic features for other downstream tasks.

[0075] 3. Aprendizado autossupervisionado pode usar uma pequena quantidade de dados de treinamento em nível de recorte para criar um classificador inicial à base de recorte com o uso de aprendizado supervisionado. Esse classificador inicial pode ser usado para inicializar um processo de treinamento completo por meio da alternação do disposto a seguir: A. Reatribuir rótulos de recorte no conjunto de treinamento com o uso de previsões do modelo atual à base de recorte. B. Atualizar o modelo para cada recorte com relação às atribuições de rótulo mais recentes.[0075] 3. Self-supervised learning can use a small amount of snip-level training data to create an initial snip-based classifier using supervised learning. This initial classifier can be used to initialize a complete training process by alternating the following: A. Reassign clipping labels in the training set using predictions from the current clipping-based model. B. Update the template for each snip with the latest label assignments.

[0076] 4. Agrupamento não supervisionado pode aprender a agrupar instâncias similares sem o uso de rótulos-alvo. Os recortes de lâminas podem ser tratados como instâncias e o número de agrupamentos pode ser pré-especificado ou aprendido automaticamente pelo algoritmo. Tais algoritmos de agrupamento podem incluir, sem limitação, os seguintes métodos: A. Maximização da expectativa (EM) B. Maximização de maiorização (MM) C. K-vizinho mais próximo (KNN) D. Agrupamento hierárquico E. Agrupamento aglomerativo[0076] 4. Unsupervised clustering can learn to group similar instances without the use of target labels. Slide cutouts can be treated as instances and the number of clusters can be pre-specified or automatically learned by the algorithm. Such clustering algorithms may include, without limitation, the following methods: A. Expectation Maximization (EM) B. Majorization Maximization (MM) C. K-Nearest Neighbor (KNN) D. Hierarchical Clustering E. Agglomerative Clustering

[0077] O modelo resultante pode ser usado para extrair recursos de diagnóstico a serem usados pelo módulo de previsão de nível de lâmina.[0077] The resulting model can be used to extract diagnostic features for use by the blade level prediction module.

[0078] A Figura 2C é um fluxograma que ilustra um método exemplificativo para treinar um módulo de agregação fracamente supervisionado em um sistema de aprendizado de máquina treinado, de acordo com uma ou mais modalidades exemplificativas da presente revelação. Por exemplo, um método exemplificativo 240 (etapas 242-244) pode ser realizado pela ferramenta de análise de lâmina 101 automaticamente ou em resposta a uma solicitação de um usuário.[0078] Figure 2C is a flowchart illustrating an exemplary method for training a weakly supervised aggregation module in a trained machine learning system, in accordance with one or more exemplary embodiments of the present disclosure. For example, an exemplary method 240 (steps 242-244) may be performed by slide analysis tool 101 automatically or in response to a user request.

[0079] De acordo com uma modalidade, o método exemplificativo 240 para treinar o módulo de agregação fracamente supervisionado pode incluir uma ou mais das seguintes etapas. Na etapa 242, o método pode incluir receber uma pluralidade de previsões ou uma pluralidade de vetores de pelo menos um recurso de um módulo de aprendizado em nível de recorte fracamente supervisionado para a coleção de recortes de treinamento.[0079] According to one embodiment, the exemplary method 240 for training the weakly supervised aggregation module may include one or more of the following steps. In step 242, the method may include receiving a plurality of predictions or a plurality of vectors of at least one feature from a weakly supervised slice-level learning module for the collection of training slices.

[0080] Na etapa 244, o método pode incluir treinar um modelo de aprendizado de máquina para receber, como entrada, a pluralidade de previsões ou a pluralidade de vetores de pelo menos um recurso do módulo de aprendizado em nível de recorte fracamente supervisionado para a coleção de recortes. Esse módulo de agregação pode treinar um modelo de agregação em nível de lâmina multitarefa para receber entradas em nível de recorte e produzir uma previsão final para a entrada de recortes em um sistema e/ou imagens de lâmina em um sistema. Uma forma geral do modelo pode ser composta de múltiplas saídas (por exemplo, aprendizagem multitarefa), e cada rótulo pode ser binário, categórico, ordinal ou real. As entradas de nível de recorte podem incluir recursos de imagem de qualquer tipo, incluindo, sem limitação: A. Saídas (por exemplo, vetores de recursos ou embeddings) do modelo fracamente supervisionado B. Recursos de CNN C. Transformada de Recurso de Escala Invariante (SIFT) D. Recursos Robustos e Acelerados (SURF) E. Transformada de Recurso de Rotação Invariante (RIFT) F. FAST Orientado e BRIEF Girado (ORB)[0080] In step 244, the method may include training a machine learning model to receive, as input, the plurality of predictions or the plurality of vectors of at least one feature of the weakly supervised slice-level learning module for the collection of clippings. This aggregation module can train a multi-task blade-level aggregation model to receive slice-level inputs and produce a final prediction for the input of slices in a system and/or blade images in a system. A general form of the model may be composed of multiple outputs (e.g., multitask learning), and each label may be binary, categorical, ordinal, or real. Crop-level inputs may include image features of any type, including, without limitation: A. Outputs (e.g., feature vectors or embeddings) from the weakly supervised model B. CNN features C. Scale Invariant Feature Transform (SIFT) D. Robust and Accelerated Features (SURF) E. Rotation Invariant Feature Transform (RIFT) F. Oriented FAST and Rotated BRIEF (ORB)

[0081] O modelo de agregação em nível de lâmina multitarefa do módulo de agregação pode assumir várias formas, incluindo, sem limitação: A. Rede neural totalmente conectada treinada com vários grupos de tarefas de saída B. CNN C. Redes neurais totalmente convolucionais D. Rede neural recorrente (RNN), incluindo unidades recorrentes fechadas (GRU) e redes de memória de longo-curto prazo (LSTM) E. Redes neurais gráficas F. Redes de transformadores G. Floresta aleatória, floresta impulsionada, XGBoost, etc.[0081] The multi-task blade-level aggregation model of the aggregation module can take several forms, including, without limitation: A. Fully connected neural network trained with multiple groups of output tasks B. CNN C. Fully convolutional neural networks D . Recurrent neural network (RNN), including closed recurrent units (GRU) and long-short-term memory networks (LSTM) E. Graph neural networks F. Transformer networks G. Random forest, boosted forest, XGBoost, etc.

[0082] A Figura 3 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para detectar e classificar simultaneamente o câncer de próstata, de acordo com uma ou mais modalidades exemplificativas da presente revelação. A classificação de câncer pode medir a diferenciação das células cancerígenas do tecido normal e pode ser avaliada em nível local, inspecionando a morfologia da célula, bem como os resumos em nível de lâmina contendo as quantidades relativas de graus. A classificação pode ser realizada como parte do relatório de diagnóstico de um patologista para cânceres comuns, como próstata, rim e mama. Os métodos exemplificativos 300 e 320 podem ser usados para treinar e usar um sistema de aprendizado de máquina para detectar e classificar simultaneamente o câncer de próstata.[0082] Figure 3 is a flowchart illustrating an exemplary method for training and using a machine learning system to simultaneously detect and classify prostate cancer, in accordance with one or more exemplary embodiments of the present disclosure. Cancer grading can measure the differentiation of cancer cells from normal tissue and can be assessed at the local level by inspecting cell morphology as well as slide-level summaries containing the relative amounts of grades. Classification can be performed as part of a pathologist's diagnostic report for common cancers such as prostate, kidney, and breast. Exemplary methods 300 and 320 can be used to train and use a machine learning system to simultaneously detect and classify prostate cancer.

[0083] De acordo com uma modalidade, os métodos exemplificativos 300 e 320 podem incluir uma ou mais das seguintes etapas. Na etapa 301, o método pode incluir receber uma ou mais imagens digitais de uma amostra de tecido da próstata corado em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0083] According to one embodiment, exemplary methods 300 and 320 may include one or more of the following steps. In step 301, the method may include receiving one or more digital images of a stained prostate tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0084] Na etapa 303, o método pode incluir receber pelo menos um rótulo para uma ou mais imagens digitais, em que pelo menos um rótulo contém uma indicação da presença de câncer e um grau de câncer. O grau de câncer pode compreender um grau de Gleason primário e um secundário.[0084] In step 303, the method may include receiving at least one label for one or more digital images, wherein at least one label contains an indication of the presence of cancer and a grade of cancer. The grade of cancer may comprise a primary and a secondary Gleason grade.

[0085] Na etapa 305, o método pode incluir o particionamento de cada uma ou mais imagens digitais em uma coleção de recortes.[0085] In step 305, the method may include partitioning each one or more digital images into a collection of clippings.

[0086] Na etapa 307, o método pode incluir detectar pelo menos uma região de tecido a partir de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. A detecção de regiões de tecido e a remoção de recortes de não tecido pode ser realizada por métodos de limiarização baseados em cor, intensidade de cor, recursos de textura, método de Otsu, etc., seguidos pela execução de um algoritmo de componentes conectados. O limiar pode fornecer rótulos em regiões de tecido versus não tecido para um ou mais pixels de cada imagem de lâmina recebida, com base no método de limiar. O algoritmo de componentes conectados pode detectar regiões de imagem ou pixels conectados uns aos outros, para detectar regiões de tecido versus não tecido em regiões de imagem inteiras, imagens de lâmina ou lâminas. A detecção de regiões de tecido e a remoção de recortes de não tecido também podem ser realizadas por algoritmos de segmentação, como médias k, cortes de gráfico, Mask R-CNN, etc.[0086] In step 307, the method may include detecting at least one region of fabric from a background of each one or more digital images to create a fabric mask and removing at least one cutout that is non-woven. Detection of fabric regions and removal of non-woven cutouts can be performed by thresholding methods based on color, color intensity, texture features, Otsu method, etc., followed by execution of a connected components algorithm. Thresholding can provide labels in tissue versus non-woven regions for one or more pixels of each incoming slide image, based on the thresholding method. The connected components algorithm can detect image regions or pixels connected to each other, to detect tissue versus non-woven regions in entire image regions, slide images, or slides. Detection of fabric regions and removal of non-woven cutouts can also be performed by segmentation algorithms such as k-means, graph cuts, Mask R-CNN, etc.

[0087] Na etapa 309, o método pode incluir treinar um modelo de aprendizado de máquina para prever se o câncer está presente e um grau de câncer para uma ou mais imagens digitais. O treinamento pode ser realizado de várias maneiras, incluindo, sem limitação: A. Treinar uma CNN para prever notas primárias, secundárias e/ou terciárias com o uso de um modelo MIMLL, conforme revelado acima, por exemplo, por meio do tratamento de cada lâmina como um conjunto de recortes associados a vários rótulos, da seleção de lâminas que correspondem a rótulos de treinamento sinótico, da pontuação de cada recorte por sua relevância para um rótulo e atualização dos pesos do modelo CNN em relação às atribuições de rótulos associadas. A CNN treinada pode ser usada para extrair embeddings de cada recorte em um conjunto de lâminas, para treinar um agregador multitarefa (por exemplo, o modelo de agregação revelado anteriormente) para prever a presença de câncer, grupo de grau Gleason de câncer e/ou o grau primário, secundário e terciário de cada recorte ou lâmina. Alternativamente, a saída de previsão de cada tile pode ser usada e agregada com métodos de pós-processamento desenhados à mão, por exemplo, tendo cada tile votando para cada grau e obtendo a maioria dos votos. B. Usar um modelo MIL, classificar cada recorte como canceroso ou benigno e transferir os rótulos de classificação para os casos “puros” em que os graus primário/secundário/terciário são do mesmo grau. Treinar um classificador de nível de recorte com os rótulos transferidos com o uso do aprendizado supervisionado. Refinar o modelo usando aprendizado autossupervisionado conforme revelado no módulo de aprendizado fracamente supervisionado acima. C. Extrair recursos/embeddings de cada recorte e, em seguida, usar o agregador multitarefa (por exemplo, o modelo de agregação revelado acima) para prever a presença de câncer, grupo de grau de câncer de Gleason e/ou grau primário, secundário e terciário. Embeddings podem ser de uma CNN pré-treinada, recursos aleatórios, recursos de um modelo de agrupamento não supervisionado, SIFT, ORB, etc.[0087] In step 309, the method may include training a machine learning model to predict whether cancer is present and a grade of cancer for one or more digital images. Training can be accomplished in a variety of ways, including, without limitation: A. Training a CNN to predict primary, secondary, and/or tertiary grades using a MIMLL model as disclosed above, for example, by treating each blade as a set of slices associated with multiple labels, from selecting blades that correspond to synoptic training labels, scoring each slice for its relevance to a label, and updating the CNN model weights against the associated label assignments. The trained CNN can be used to extract embeddings from each slice in a set of slides, to train a multitask aggregator (e.g., the aggregation model disclosed previously) to predict the presence of cancer, cancer Gleason grade group, and/or the primary, secondary and tertiary grade of each cutting or blade. Alternatively, the prediction output from each tile can be used and aggregated with hand-drawn post-processing methods, for example, having each tile vote for each grade and getting the majority of votes. B. Use a MIL model, classify each clipping as cancerous or benign, and transfer the classification labels to the “pure” cases where the primary/secondary/tertiary grades are the same grade. Train a clipping level classifier with the transferred labels using supervised learning. Refine the model using self-supervised learning as revealed in the weakly supervised learning module above. C. Extract features/embeddings from each snip and then use the multi-task aggregator (e.g. the aggregation model revealed above) to predict the presence of cancer, cancer Gleason grade group and/or grade primary, secondary and tertiary. Embeddings can be from a pre-trained CNN, random features, features from an unsupervised clustering model, SIFT, ORB, etc.

[0088] Na etapa 321, o método pode incluir receber uma ou mais imagens digitais de uma amostra de próstata corada em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma RAM, etc.[0088] In step 321, the method may include receiving one or more digital images of a stained prostate sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, a cloud storage, a RAM, etc.

[0089] Na etapa 323, o método pode incluir o particionamento de uma ou mais imagens digitais em uma coleção de recortes.[0089] In step 323, the method may include partitioning one or more digital images into a collection of clippings.

[0090] Na etapa 325, o método pode incluir detectar pelo menos uma região de tecido a partir de um fundo de uma imagem digital para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. A detecção pode ser obtida de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN, ou qualquer outro método adequado.[0090] In step 325, the method may include detecting at least one region of fabric from a background of a digital image to create a fabric mask and removing at least one cutout that is non-woven. Detection can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms such as k-means, graph cuts, Mask R-CNN, or any other suitable method.

[0091] Na etapa 327, o método pode incluir a aplicação de um modelo de aprendizado de máquina treinado à coleção de recortes para prever a presença de câncer e um grau de câncer. O grau de câncer pode compreender um grupo de grau de câncer de Gleason e/ou um grupo de grau primário, secundário e terciário.[0091] In step 327, the method may include applying a trained machine learning model to the collection of clippings to predict the presence of cancer and a grade of cancer. The cancer grade may comprise a Gleason cancer grade group and/or a primary, secondary, and tertiary grade group.

[0092] Na etapa 329, o método pode incluir a saída de uma previsão, por exemplo, para um dispositivo de armazenamento eletrônico.[0092] In step 329, the method may include outputting a prediction, for example, to an electronic storage device.

[0093] A Figura 4 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para quantificação de tumor em biópsias por agulha de próstata, de acordo com uma ou mais modalidades exemplificativas da presente revelação. A quantificação do tumor para biópsias por agulha de próstata pode consistir em estimar os volumes total e relativo de câncer para cada grau de câncer (por exemplo, um grau de Gleason). A quantificação do tumor pode desempenhar um papel importante na compreensão da composição e gravidade do câncer de próstata, e pode ser um elemento comum nos relatórios de diagnóstico de patologia. A quantificação do tamanho do tumor pode ser tradicionalmente realizada manualmente com uma régua física em uma lâmina de vidro. A quantificação manual desta maneira pode sofrer de imprecisão e consistência. Os métodos exemplificativos 400 e 420 podem ser usados para treinar e usar um sistema de aprendizado de máquina para quantificar um tumor em biópsias de agulha de próstata.[0093] Figure 4 is a flowchart illustrating an exemplary method for training and using a machine learning system for tumor quantification in prostate needle biopsies, in accordance with one or more exemplary embodiments of the present disclosure. Tumor quantification for prostate needle biopsies may consist of estimating the total and relative volumes of cancer for each cancer grade (e.g., a Gleason grade). Tumor quantification can play an important role in understanding the composition and severity of prostate cancer, and can be a common element in diagnostic pathology reports. Tumor size quantification can traditionally be performed manually with a physical ruler on a glass slide. Manual quantification in this manner can suffer from inaccuracy and consistency. Exemplary methods 400 and 420 can be used to train and use a machine learning system to quantify a tumor in prostate needle biopsies.

[0094] De acordo com uma modalidade, os métodos exemplificativos 400 e 420 podem incluir uma ou mais das seguintes etapas. Na etapa 401, o método pode incluir receber uma ou mais imagens digitais de uma amostra de tecido da próstata corado em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0094] According to one embodiment, exemplary methods 400 and 420 may include one or more of the following steps. In step 401, the method may include receiving one or more digital images of a stained prostate tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0095] Na etapa 403, o método pode incluir receber pelo menos um rótulo de quantificação de tumor de valor real para cada uma das uma ou mais imagens digitais, em que o pelo menos um rótulo de quantificação de tumor de valor real contém uma indicação de um grau primário e um grau secundário . O rótulo também pode incluir um respectivo volume, um respectivo comprimento e um respectivo tamanho do tumor em uma ou mais imagens digitais.[0095] In step 403, the method may include receiving at least one real-value tumor quantification label for each of the one or more digital images, wherein the at least one real-value tumor quantification label contains an indication of a primary degree and a secondary degree. The label may also include a respective volume, a respective length and a respective size of the tumor in one or more digital images.

[0096] Na etapa 405, o método pode incluir particionar cada uma das uma ou mais imagens digitais em uma coleção de recortes.[0096] In step 405, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0097] Na etapa 407, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0097] In step 407, the method may include detecting at least one region of fabric from a background of each one or more digital images to create a fabric mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0098] Na etapa 409, o método pode incluir treinar um modelo de aprendizado de máquina para produzir uma previsão de classificação de câncer, conforme descrito no método exemplificativo 300. As estimativas de quantificação de tumores podem ser estimadas de várias maneiras, incluindo, sem limitação: A. Contar o número de recortes de grau e estimar geometricamente seu volume e razões em relação ao volume de tecido benigno. B. Treinar um modelo com o uso de um módulo de classificação de nível de lâmina, por exemplo, conforme descrito no método exemplificativo 300. Esse modelo pode receber, como entrada, recursos de diagnóstico em nível de recorte de um modelo de previsão de classificação de câncer de aprendizado de máquina (por exemplo, o modelo treinado no método exemplificativo 300) e emitir cada métrica de quantificação de tumor com o uso de um modelo de regressão de valor real.[0098] In step 409, the method may include training a machine learning model to produce a cancer classification prediction, as described in exemplary method 300. Tumor quantification estimates may be estimated in a number of ways, including, without limitation: A. Count the number of degree indentations and geometrically estimate their volume and ratios in relation to the volume of benign tissue. B. Training a model using a blade-level classification module, for example, as described in exemplary method 300. Such a model may receive, as input, slice-level diagnostic features from a classification prediction model machine learning cancer model (e.g., the model trained in exemplary method 300) and output each tumor quantification metric using a real-valued regression model.

[0099] Na etapa 421, o método pode incluir receber uma ou mais imagens digitais de uma amostra de próstata corada em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0099] In step 421, the method may include receiving one or more digital images of a stained prostate sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0100] Na etapa 423, o método pode incluir o particionamento de uma ou mais imagens digitais em uma coleção de recortes.[0100] In step 423, the method may include partitioning one or more digital images into a collection of clippings.

[0101] Na etapa 425, o método pode incluir detectar pelo menos uma região de tecido a partir de um fundo de uma imagem digital para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0101] In step 425, the method may include detecting at least one region of fabric from a background of a digital image to create a fabric mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0102] Na etapa 427, o método pode incluir a aplicação de um modelo de aprendizado de máquina treinado à coleção de recortes para calcular uma previsão de quantificação de tumor. A previsão pode ser enviada para um dispositivo de armazenamento eletrônico. A quantificação do tumor pode ser na forma de métricas de tamanho ou porcentagens.[0102] In step 427, the method may include applying a trained machine learning model to the collection of clippings to calculate a tumor quantification prediction. The forecast can be sent to an electronic storage device. Tumor quantification can be in the form of size metrics or percentages.

[0103] Na etapa 429, o método pode incluir a saída de uma previsão para um dispositivo de armazenamento eletrônico.[0103] In step 429, the method may include outputting a prediction to an electronic storage device.

[0104] A Figura 5 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever um subtipo de câncer, de acordo com uma ou mais modalidades exemplificativas da presente revelação. Muitos cânceres têm vários subtipos. Por exemplo, no câncer de mama, pode-se determinar se um câncer é invasivo ou não, se é lobular ou ductal e se vários outros atributos estão presentes, como calcificações. Esse método de previsão de um subtipo de câncer pode incluir uma previsão de categorias múltiplas, não exclusivas, que podem envolver o uso de aprendizado multirrótulo.[0104] Figure 5 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a cancer subtype, in accordance with one or more exemplary embodiments of the present disclosure. Many cancers have several subtypes. For example, in breast cancer, it can be determined whether a cancer is invasive or not, whether it is lobular or ductal, and whether several other attributes are present, such as calcifications. This method of predicting a cancer subtype may include prediction of multiple, non-exclusive categories, which may involve the use of multi-label learning.

[0105] De acordo com uma modalidade, os métodos exemplificativos 500 e 520 podem incluir uma ou mais das seguintes etapas. Na etapa 501, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0105] According to one embodiment, exemplary methods 500 and 520 may include one or more of the following steps. In step 501, the method may include receiving one or more digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0106] Na etapa 503, o método pode incluir receber uma pluralidade de rótulos para uma ou mais imagens digitais, em que a pluralidade de rótulos e/ou um biomarcador da amostra de tecido. Em uma amostra de câncer de mama, um biomarcador relevante pode ser a presença de calcificações, presença ou ausência de câncer, carcinoma ductal in situ (DCIS), carcinoma ductal invasivo (IDC), câncer de mama inflamatório (IBC), doença de Paget da mama, angiossarcoma, tumor filodes, carcinoma lobular invasivo, carcinoma lobular in situ e várias formas de atipia. Os rótulos podem não ser necessariamente exclusivos mutuamente e vários subtipos podem ser observados simultaneamente.[0106] In step 503, the method may include receiving a plurality of labels for one or more digital images, wherein the plurality of labels and/or a biomarker from the tissue sample. In a breast cancer sample, a relevant biomarker may be the presence of calcifications, presence or absence of cancer, ductal carcinoma in situ (DCIS), invasive ductal carcinoma (IDC), inflammatory breast cancer (IBC), Paget's disease breast cancer, angiosarcoma, phyllodes tumor, invasive lobular carcinoma, lobular carcinoma in situ and various forms of atypia. Labels may not necessarily be mutually exclusive and multiple subtypes may be observed simultaneously.

[0107] Na etapa 505, o método pode incluir particionar cada uma da uma ou mais imagens digitais em uma coleção de recortes.[0107] In step 505, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0108] Na etapa 507, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0108] In step 507, the method may include detecting at least one region of fabric from a background of each one or more digital images to create a fabric mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0109] Na etapa 509, o método pode incluir treinar um modelo de aprendizado de máquina para prever uma forma e/ou subtipo de câncer para cada recorte e/ou lâmina. O treinamento do modelo de aprendizado de máquina pode ser realizado com o uso do modelo MIMLL revelado acima. O modelo de aprendizado de máquina de previsão de subtipo treinado pode ser refinado com o uso de um modelo de previsão de nível de lâmina (por exemplo, um modelo de agregação) conforme revelado acima. O modelo de previsão de nível de lâmina pode receber, como entrada, previsões de subtipo de nível de recorte de um modelo MIMLL e previsões de nível de lâmina de saída indicando a presença de cada subtipo de câncer.[0109] In step 509, the method may include training a machine learning model to predict a form and/or subtype of cancer for each slice and/or slide. Machine learning model training can be carried out using the MIMLL model revealed above. The trained subtype prediction machine learning model can be refined using a blade-level prediction model (e.g., an aggregation model) as disclosed above. The slide-level prediction model can receive, as input, cut-level subtype predictions from a MIMLL model and output slide-level predictions indicating the presence of each cancer subtype.

[0110] Na etapa 521, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0110] In step 521, the method may include receiving one or more digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0111] Na etapa 523, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0111] In step 523, the method may include detecting at least one fabric region of a background of each one or more digital images to create a fabric mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0112] Na etapa 525, o método pode incluir particionar uma ou mais imagens digitais em uma coleção de recortes e descartar quaisquer recortes que não contenham tecido.[0112] In step 525, the method may include partitioning one or more digital images into a collection of clippings and discarding any clippings that do not contain tissue.

[0113] Na etapa 527, o método pode incluir computar uma previsão de subtipo de câncer a partir da coleção de recortes e enviar a previsão para um dispositivo de armazenamento eletrônico.[0113] In step 527, the method may include computing a cancer subtype prediction from the collection of clippings and sending the prediction to an electronic storage device.

[0114] A Figura 6 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever uma margem cirúrgica de acordo com uma ou mais modalidades exemplificativas da presente revelação. Quando um tumor é removido cirurgicamente de um paciente, pode ser importante avaliar se o tumor foi completamente removido por meio da análise da margem de tecido ao redor do tumor. A largura dessa margem e a identificação de qualquer tecido canceroso na margem podem desempenhar um papel importante para determinar como um paciente pode ser tratado. O treinamento de um modelo para prever a largura e a composição da margem pode assumir a forma de aprendizado multitarefa multirrótulos.[0114] Figure 6 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a surgical margin in accordance with one or more exemplary embodiments of the present disclosure. When a tumor is surgically removed from a patient, it may be important to assess whether the tumor has been completely removed by analyzing the margin of tissue surrounding the tumor. The width of this margin and the identification of any cancerous tissue in the margin can play an important role in determining how a patient can be treated. Training a model to predict margin width and composition can take the form of multi-task multi-label learning.

[0115] De acordo com uma modalidade, os métodos exemplificativos 600 e 620 podem incluir uma ou mais das seguintes etapas. Na etapa 601, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0115] According to one embodiment, exemplary methods 600 and 620 may include one or more of the following steps. In step 601, the method may include receiving one or more digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0116] Na etapa 603, o método pode incluir receber uma pluralidade de rótulos para uma ou mais imagens digitais, em que a pluralidade de rótulos indica uma margem tumoral e se uma margem é positiva (por exemplo, células tumorais são encontradas na margem), negativa (por exemplo, a margem está totalmente livre de câncer) ou próxima (por exemplo, não definitivamente positiva ou negativa).[0116] In step 603, the method may include receiving a plurality of labels for one or more digital images, wherein the plurality of labels indicates a tumor margin and whether a margin is positive (e.g., tumor cells are found in the margin). , negative (e.g., the margin is completely free of cancer), or close (e.g., not definitely positive or negative).

[0117] Na etapa 605, o método pode incluir particionar cada uma das uma ou mais imagens digitais em uma coleção de recortes.[0117] In step 605, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0118] Na etapa 607, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0118] In step 607, the method may include detecting at least one region of fabric from a background of each one or more digital images to create a fabric mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0119] Na etapa 609, o método pode incluir treinar um modelo de aprendizado de máquina para prever uma detecção, presença ou grau de câncer, conforme revelado acima.[0119] In step 609, the method may include training a machine learning model to predict a detection, presence, or grade of cancer, as disclosed above.

[0120] Na etapa 621, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0120] In step 621, the method may include receiving one or more digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0121] Na etapa 623, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0121] In step 623, the method may include detecting at least one region of fabric from a background of each one or more digital images to create a fabric mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0122] Na etapa 625, o método pode incluir particionar cada uma da uma ou mais imagens digitais em uma coleção de recortes.[0122] In step 625, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0123] Na etapa 627, o método pode incluir computar uma margem cirúrgica, tamanho da margem do tumor ou previsão da composição do tumor dos recortes. O método também pode incluir emitir a previsão para um dispositivo de armazenamento eletrônico.[0123] In step 627, the method may include computing a surgical margin, tumor margin size, or predicting the tumor composition of the clippings. The method may also include outputting the forecast to an electronic storage device.

[0124] A Figura 7 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever um biomarcador de câncer de bexiga, de acordo com uma ou mais modalidades exemplificativas da presente revelação. O câncer de bexiga é um dos cânceres mais comuns no mundo. Se o câncer de bexiga for detectado, o patologista também pode determinar se a muscularis propria está presente em qualquer uma das lâminas onde o câncer de bexiga é detectado. Muscularis propria é uma camada de células musculares lisas que formam uma porção significativa da parede da bexiga. Detectar a presença ou ausência da muscularis própria é um passo importante para determinar se o câncer de bexiga é invasivo ou não. A modalidade realiza detecção de câncer e detecção de muscularis própria, mas pode ser estendida a qualquer número de tarefas de classificação binária.[0124] Figure 7 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a bladder cancer biomarker, in accordance with one or more exemplary embodiments of the present disclosure. Bladder cancer is one of the most common cancers in the world. If bladder cancer is detected, the pathologist can also determine whether muscularis propria is present in any of the slides where bladder cancer is detected. Muscularis propria is a layer of smooth muscle cells that form a significant portion of the bladder wall. Detecting the presence or absence of muscularis propria is an important step in determining whether bladder cancer is invasive or not. The modality performs cancer detection and muscularis propria detection, but can be extended to any number of binary classification tasks.

[0125] De acordo com uma modalidade, os métodos exemplificativos 700 e 720 podem incluir uma ou mais das seguintes etapas. Na etapa 701, receber uma ou imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0125] According to one embodiment, exemplary methods 700 and 720 may include one or more of the following steps. In step 701, receiving one or digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0126] Na etapa 703, o método pode incluir receber uma pluralidade de rótulos para uma ou mais imagens digitais, em que a pluralidade de rótulos indica a presença ou ausência de câncer ou a presença/ausência de muscularis própria.[0126] In step 703, the method may include receiving a plurality of labels for one or more digital images, wherein the plurality of labels indicates the presence or absence of cancer or the presence/absence of muscularis propria.

[0127] Na etapa 705, o método pode incluir particionar cada uma das uma ou mais imagens digitais em uma coleção de recortes.[0127] In step 705, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0128] Na etapa 707, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0128] In step 707, the method may include detecting at least one tissue region of a background of each one or more digital images to create a cloth mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0129] Na etapa 709, o método pode incluir treinar um modelo de aprendizado de máquina, por exemplo, por meio do uso de um módulo de aprendizado fracamente supervisionado (como revelado acima) para treinar um modelo MIMLL e agregar pontuações de saída indicando a presença/ausência de câncer ou a presença/ausência de muscularis propria em vários recortes. Alternativamente, um modelo de agregação pode ser treinado para prever múltiplos rótulos de cada imagem, recorte ou lâmina, com o uso de embeddings de cada recorte.[0129] In step 709, the method may include training a machine learning model, for example, through the use of a weakly supervised learning module (as disclosed above) to train a MIMLL model and aggregating output scores indicating the presence/absence of cancer or the presence/absence of muscularis propria in several sections. Alternatively, an aggregation model can be trained to predict multiple labels from each image, slice, or slide, using embeddings from each slice.

[0130] Na etapa 721, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0130] In step 721, the method may include receiving one or more digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0131] Na etapa 723, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0131] In step 723, the method may include detecting at least one tissue region of a background of each one or more digital images to create a cloth mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0132] Na etapa 725, o método pode incluir particionar cada uma da uma ou mais imagens digitais em uma coleção de recortes.[0132] In step 725, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0133] Na etapa 727, o método pode incluir computar uma previsão de muscularis própria ou previsão de câncer invasivo a partir da coleção de recortes. O método também pode incluir emitir a previsão para um dispositivo de armazenamento eletrônico.[0133] In step 727, the method may include computing a muscularis propria prediction or invasive cancer prediction from the collection of clippings. The method may also include outputting the forecast to an electronic storage device.

[0134] A Figura 8 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever um diagnóstico de pancâncer, de acordo com uma ou mais modalidades exemplificativas da presente revelação. Embora o aprendizado de máquina tenha sido usado com sucesso para criar bons modelos para prever câncer em tipos comuns de câncer, as previsões para cânceres raros são um desafio devido ao fato de que pode haver menos dados de treinamento. Outro desafio é prever onde um câncer se originou quando é metastático e, às vezes, a determinação não é possível. Conhecer o tecido de origem pode ajudar a orientar o tratamento do câncer. A modalidade permite a previsão de pan-câncer e previsão de câncer de origem com o uso de um único modelo de aprendizado de máquina. Mediante o treinamento em muitos tipos de tecidos, o método pode alcançar uma compreensão da morfologia do tecido, de modo que possa efetivamente generalizar tipos de câncer raros, onde muito poucos dados podem estar disponíveis.[0134] Figure 8 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict a pancancer diagnosis, in accordance with one or more exemplary embodiments of the present disclosure. Although machine learning has been successfully used to create good models for predicting cancer in common cancer types, predictions for rare cancers are challenging due to the fact that there may be less training data. Another challenge is predicting where a cancer originated when it is metastatic, and sometimes determination is not possible. Knowing the tissue of origin can help guide cancer treatment. The modality enables pan-cancer prediction and source cancer prediction with the use of a single machine learning model. By training on many tissue types, the method can achieve an understanding of tissue morphology so that it can effectively generalize to rare cancer types where very little data may be available.

[0135] De acordo com uma modalidade, os métodos exemplificativos 800 e 820 podem incluir uma ou mais das seguintes etapas. Na etapa 801, receber uma ou imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0135] According to one embodiment, exemplary methods 800 and 820 may include one or more of the following steps. In step 801, receiving one or digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0136] Na etapa 803, o método pode incluir receber uma pluralidade de dados que denotam um tipo de tecido mostrado em cada uma das imagens digitais recebidas para um paciente.[0136] In step 803, the method may include receiving a plurality of data denoting a type of tissue shown in each of the digital images received for a patient.

[0137] Na etapa 805, o método pode incluir receber um conjunto de rótulos binários para cada imagem digital indicando a presença ou ausência de câncer.[0137] In step 805, the method may include receiving a set of binary labels for each digital image indicating the presence or absence of cancer.

[0138] Na etapa 807, o método pode incluir particionar cada uma das uma ou mais imagens digitais em uma coleção de recortes.[0138] In step 807, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0139] Na etapa 809, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0139] In step 809, the method may include detecting at least one tissue region of a background of each one or more digital images to create a cloth mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0140] Na etapa 811, o método pode incluir organizar pelo menos uma saída de previsão de pan-câncer para um paciente em uma lista binária. Um elemento da lista pode indicar a presença de qualquer câncer e outros elementos da lista podem indicar a presença de cada tipo específico de câncer. Por exemplo, uma amostra de câncer de próstata pode ter um indicador positivo para câncer geral, um indicador positivo para indicador de próstata para câncer de próstata e indicadores negativos para todos os outros resultados correspondentes a outros tecidos (por exemplo, pulmão, mama, etc.). Um paciente para o qual todas as lâminas são benignas pode ter a lista de rótulos contendo todos os indicadores negativos.[0140] In step 811, the method may include organizing at least one pan-cancer prediction output for a patient into a binary list. One element of the list may indicate the presence of any cancer and other elements of the list may indicate the presence of each specific type of cancer. For example, a prostate cancer sample may have a positive indicator for general cancer, a positive indicator for prostate cancer, and negative indicators for all other results corresponding to other tissues (e.g. lung, breast, etc. .). A patient for whom all slides are benign may have the label list containing all negative indicators.

[0141] Na etapa 813, o método pode incluir treinar um modelo de aprendizado de máquina para prever um vetor binário para o paciente. O modelo de aprendizado de máquina pode compreender um modelo MIMLL conforme descrito acima, em que um módulo de aprendizado fracamente supervisionado pode treinar um modelo MIMLL. Além disso, o método pode incluir a agregação de saídas de previsão pan-câncer do MIMLL em vários recortes, com o uso de um modelo de agregação (conforme revelado acima). Alternativamente, um modelo de agregação pode ser treinado para prever (múltiplos) rótulos de previsão pan-câncer com o uso de embeddings de cada recorte.[0141] In step 813, the method may include training a machine learning model to predict a binary vector for the patient. The machine learning model may comprise a MIMLL model as described above, wherein a weakly supervised learning module may train a MIMLL model. Additionally, the method may include aggregating pan-cancer prediction outputs from MIMLL across multiple slices, using an aggregation model (as disclosed above). Alternatively, an aggregation model can be trained to predict (multiple) pan-cancer prediction labels using embeddings from each snip.

[0142] Na etapa 821, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0142] In step 821, the method may include receiving one or more digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0143] Na etapa 823, o método pode incluir receber uma pluralidade de dados que denotam um tipo de tecido mostrado em cada uma das imagens digitais recebidas para um paciente.[0143] In step 823, the method may include receiving a plurality of data denoting a type of tissue shown in each of the digital images received for a patient.

[0144] Na etapa 825, o método pode incluir particionar cada uma da uma ou mais imagens digitais em uma coleção de recortes.[0144] In step 825, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0145] Na etapa 827, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0145] In step 827, the method may include detecting at least one tissue region of a background of each one or more digital images to create a cloth mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0146] Na etapa 829, o método pode incluir computar uma previsão de pan-câncer com o uso de um modelo de aprendizado de máquina treinado. O modelo de aprendizado de máquina pode compreender o modelo MIMLL treinado e/ou modelo de agregação (conforme revelado acima). Saídas exemplificativas podem incluir, sem limitação: A. Predição de pan-câncer: a saída (ou saídas) de presença de câncer pode ser usada para determinar a presença de câncer independentemente do tipo de tecido, mesmo para tipos de tecido não observados durante o treinamento. Isso pode ser útil para cânceres raros, quando pode não haver dados suficientes disponíveis para treinar um modelo de aprendizado de máquina. B. Previsão de câncer de origem: a saída (ou saídas) de subtipo de câncer pode ser usada para prever uma origem de câncer metastático, por meio da identificação da maior saída de subtipo. Se uma das saídas de câncer para um subtipo for suficientemente maior do que o tipo de entrada de tecido para o sistema, isso pode indicar a um patologista que a saída é o câncer de origem. Por exemplo, se uma amostra de tecido da bexiga apresentar câncer pelo modelo (ou modelos) de aprendizado de máquina, mas a saída do subtipo de câncer de próstata, isso pode indicar a um patologista que o câncer encontrado na bexiga pode ser câncer de próstata metastatizado em vez de câncer que se originou na bexiga.[0146] In step 829, the method may include computing a pan-cancer prediction using a trained machine learning model. The machine learning model may comprise the trained MIMLL model and/or aggregation model (as disclosed above). Exemplary outputs may include, without limitation: A. Pan-cancer prediction: The cancer presence output (or outputs) may be used to determine the presence of cancer regardless of tissue type, even for tissue types not observed during the training. This can be useful for rare cancers when there may not be enough data available to train a machine learning model. B. Cancer Source Prediction: Cancer subtype output (or outputs) can be used to predict a metastatic cancer source by identifying the largest subtype output. If one of the cancer outputs for a subtype is sufficiently larger than the tissue input type for the system, this may indicate to a pathologist that the output is the parent cancer. For example, if a bladder tissue sample shows cancer by the machine learning model (or models), but the subtype outputs prostate cancer, this may indicate to a pathologist that the cancer found in the bladder may be prostate cancer. metastasized rather than cancer that originated in the bladder.

[0147] Na etapa 831, o método pode incluir salvar a previsão em um dispositivo de armazenamento eletrônico.[0147] In step 831, the method may include saving the prediction to an electronic storage device.

[0148] A Figura 9 é um fluxograma que ilustra um método exemplificativo para treinar e usar um sistema de aprendizado de máquina para prever uma toxicidade de órgão, de acordo com uma ou mais modalidades exemplificativas da presente revelação. Em estudos pré-clínicos em animais para o desenvolvimento de fármaco, os patologistas determinam se alguma toxicidade está presente, a forma de toxicidade e/ou os órgãos em que a toxicidade pode ser encontrada. A modalidade permite realizar essas previsões automaticamente. Um desafio com o trabalho pré-clínico é que uma lâmina pode conter vários órgãos para economizar vidro durante a preparação.[0148] Figure 9 is a flowchart illustrating an exemplary method for training and using a machine learning system to predict organ toxicity, in accordance with one or more exemplary embodiments of the present disclosure. In preclinical animal studies for drug development, pathologists determine whether any toxicity is present, the form of toxicity, and/or the organs in which the toxicity may be found. The modality allows you to make these predictions automatically. One challenge with preclinical work is that one slide may contain multiple organs to save glass during preparation.

[0149] De acordo com uma modalidade, os métodos exemplificativos 900 e 920 podem incluir uma ou mais das seguintes etapas. Na etapa 901, receber uma ou imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0149] According to one embodiment, exemplary methods 900 and 920 may include one or more of the following steps. In step 901, receiving one or digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0150] Na etapa 903, o método pode incluir receber uma pluralidade de rótulos binários indicando a presença ou ausência de toxicidade e/ou um tipo ou gravidade de toxicidade.[0150] In step 903, the method may include receiving a plurality of binary labels indicating the presence or absence of toxicity and/or a type or severity of toxicity.

[0151] Na etapa 905, o método pode incluir receber uma presença ou ausência de toxicidade para pelo menos um órgão e/ou seu tipo ou gravidade.[0151] In step 905, the method may include receiving a presence or absence of toxicity to at least one organ and/or its type or severity.

[0152] Na etapa 907, o método pode incluir particionar cada uma da uma ou mais imagens digitais em uma coleção de recortes.[0152] In step 907, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0153] Na etapa 909, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0153] In step 909, the method may include detecting at least one fabric region of a background of each one or more digital images to create a fabric mask and removing at least one cutout that is non-woven. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0154] Na etapa 911, o método pode incluir organizar pelo menos uma saída de previsão de toxicidade para um paciente em uma lista binária. Um elemento da lista pode indicar a presença ou tipo de qualquer toxicidade encontrada na lâmina, e outros elementos da lista podem indicar a presença/tipo de toxicidade em cada órgão.[0154] In step 911, the method may include organizing at least one toxicity prediction output for a patient into a binary list. One element of the list may indicate the presence or type of any toxicity found on the slide, and other elements of the list may indicate the presence/type of toxicity in each organ.

[0155] Na etapa 913, o método pode incluir treinar um modelo de aprendizado de máquina para prever um vetor binário para o paciente. O modelo de aprendizado de máquina pode compreender um modelo MIMLL conforme descrito acima, em que um módulo de aprendizado fracamente supervisionado pode treinar um modelo MIMLL. Além disso, o método pode incluir agregar saídas de previsão de toxicidade do MIMLL em vários recortes, com o uso de um modelo de agregação (conforme revelado acima). Alternativamente, um modelo de agregação pode ser treinado para prever rótulos de previsão de toxicidade com o uso de embeddings de cada recorte.[0155] In step 913, the method may include training a machine learning model to predict a binary vector for the patient. The machine learning model may comprise a MIMLL model as described above, wherein a weakly supervised learning module may train a MIMLL model. Additionally, the method may include aggregating MIMLL toxicity prediction outputs across multiple slices, using an aggregation model (as disclosed above). Alternatively, an aggregation model can be trained to predict toxicity prediction labels using embeddings from each clipping.

[0156] Na etapa 921, o método pode incluir receber uma ou mais imagens digitais associadas a uma amostra de tecido em um dispositivo de armazenamento digital. O dispositivo de armazenamento digital pode compreender um disco rígido, uma unidade de rede, um armazenamento em nuvem, uma memória de acesso aleatório (RAM), etc.[0156] In step 921, the method may include receiving one or more digital images associated with a tissue sample on a digital storage device. The digital storage device may comprise a hard drive, a network drive, cloud storage, random access memory (RAM), etc.

[0157] Na etapa 923, o método pode incluir particionar cada uma da uma ou mais imagens digitais em uma coleção de recortes.[0157] In step 923, the method may include partitioning each of the one or more digital images into a collection of clippings.

[0158] Na etapa 925, o método pode incluir detectar pelo menos uma região de tecido de um fundo de cada uma ou mais imagens digitais para criar uma máscara de tecido e remover pelo menos um recorte que seja não tecido. O processamento adicional pode começar sem os recortes de não tecido. Isso pode ser obtido de várias maneiras, incluindo, sem limitação: métodos de limiar, com base na cor, intensidade da cor, recursos de textura, método de Otsu ou qualquer outro método adequado, seguido pela execução de um algoritmo de componentes conectados; e algoritmos de segmentação como médias k, cortes de gráfico, Mask R-CNN ou qualquer outro método adequado.[0158] In step 925, the method may include detecting at least one tissue region of a background of each one or more digital images to create a cloth mask and removing at least one cutout that is non-woven. Further processing can begin without the non-woven cutouts. This can be achieved in a number of ways, including, without limitation: thresholding methods, based on color, color intensity, texture features, Otsu's method, or any other suitable method, followed by execution of a connected components algorithm; and segmentation algorithms like k-means, graph cuts, Mask R-CNN or any other suitable method.

[0159] Na etapa 927, o método pode incluir computar uma previsão de toxicidade com o uso de um modelo de aprendizado de máquina treinado. O modelo de aprendizado de máquina pode compreender o modelo MIMLL treinado e/ou modelo de agregação (conforme revelado acima). Saídas exemplificativas podem incluir, sem limitação: A. Presença de toxicidade: uma saída de presença de toxicidade pode ser usada para determinar a presença e/ou gravidade da toxicidade, independentemente do tipo de tecido em toda a lâmina. B. Previsão de toxicidade de órgão: uma saída de toxicidade de órgão pode ser usada para determinar em qual órgão a toxicidade pode ser encontrada.[0159] In step 927, the method may include computing a toxicity prediction using a trained machine learning model. The machine learning model may comprise the trained MIMLL model and/or aggregation model (as disclosed above). Exemplary outputs may include, but are not limited to: A. Presence of toxicity: A presence of toxicity output may be used to determine the presence and/or severity of toxicity, regardless of tissue type across the entire slide. B. Organ toxicity prediction: An organ toxicity output can be used to determine in which organ toxicity can be found.

[0160] Na etapa 929, o método pode incluir salvar a previsão de toxicidade em um dispositivo de armazenamento eletrônico.[0160] In step 929, the method may include saving the toxicity prediction to an electronic storage device.

[0161] A Figura 10 ilustra um algoritmo de componentes conectados exemplificativo, de acordo com uma modalidade da revelação. O algoritmo de componentes conectados pode agregar recursos em regiões de imagem. Por exemplo, o limiar pode produzir uma imagem binária (por exemplo, preto e branco). Um algoritmo ou modelo de componentes conectados pode identificar várias regiões na imagem, por exemplo, 3 regiões (verde, vermelho, marrom) no nível de pixel. Cada pixel pode pertencer a um recorte e a um componente (verde, vermelho ou marrom) na implantação específica com o uso de componentes conectados. A agregação pode ocorrer de várias maneiras, incluindo votação majoritária (por exemplo, para todos os recortes na votação do componente verde, resultando em verde com valor de 1) ou um agregador aprendido (por exemplo, no qual um vetor de características pode ser extraído de cada recorte e entrada para um módulo agregador de componentes executado para cada componente, de modo que os recortes no componente verde seriam alimentados em um módulo agregador de componentes que pode produzir um número de grau). Uma CNN pode produzir uma previsão (por exemplo, um número) para um recorte, um vetor de recursos para um recorte que descreve suas propriedades visuais ou ambos.[0161] Figure 10 illustrates an exemplary connected components algorithm, according to one embodiment of the disclosure. The connected components algorithm can aggregate features into image regions. For example, thresholding may produce a binary image (e.g. black and white). An algorithm or connected components model can identify multiple regions in the image, for example, 3 regions (green, red, brown) at the pixel level. Each pixel can belong to a slice and a component (green, red, or brown) in the specific deployment using connected components. Aggregation can occur in several ways, including majority voting (e.g., for all clippings in the green component vote, resulting in green having a value of 1) or a learned aggregator (e.g., in which a feature vector can be extracted of each cut and input to a component aggregator module run for each component, so the cuts in the green component would be fed into a component aggregator module that can output a degree number). A CNN can produce a prediction (e.g., a number) for a snip, a feature vector for a snip that describes its visual properties, or both.

[0162] Conforme mostrado na Figura 11, o dispositivo 1100 pode incluir uma unidade de processamento central (CPU) 1120. A CPU 1120 pode ser qualquer tipo de dispositivo de processador incluindo, por exemplo, qualquer tipo de dispositivo de uso especial ou um dispositivo de microprocessador de uso geral. Como será apreciado pelos versados na técnica, a CPU 1120 também pode ser um único processador em um sistema multinúcleo/multiprocessador, em que tal sistema opera sozinho ou em um agrupamento de dispositivos de computação operando em um agrupamento ou torre de servidores. A CPU 1120 pode ser conectada a uma infraestrutura de comunicação de dados 1110, por exemplo, um barramento, fila de mensagens, rede ou esquema de passagem de mensagens multinúcleo.[0162] As shown in Figure 11, device 1100 may include a central processing unit (CPU) 1120. CPU 1120 may be any type of processor device including, for example, any type of special purpose device or a device general purpose microprocessor. As will be appreciated by those skilled in the art, the CPU 1120 may also be a single processor in a multicore/multiprocessor system, wherein such a system operates alone or in a cluster of computing devices operating in a server cluster or tower. The CPU 1120 may be connected to a data communications infrastructure 1110, e.g., a bus, message queue, network, or multi-core message passing scheme.

[0163] O dispositivo 1100 também pode incluir uma memória principal 1140, por exemplo, memória de acesso aleatório (RAM), e também pode incluir uma memória secundária 1130. A memória secundária 1130, por exemplo, uma memória somente leitura (ROM), pode ser, por exemplo, uma unidade de disco rígido ou uma unidade de armazenamento removível. Tal unidade de armazenamento removível pode compreender, por exemplo, uma unidade de disquete, uma unidade de fita magnética, uma unidade de disco óptico, uma memória flash ou similares. A unidade de armazenamento removível nesse exemplo lê e/ou grava em uma unidade de armazenamento removível de uma maneira bem conhecida. O armazenamento removível pode compreender um disquete, fita magnética, disco óptico, etc., que é lido e gravado pela unidade de armazenamento removível. Como será apreciado pelos versados na técnica, tal unidade de armazenamento removível geralmente inclui um meio de armazenamento utilizável em computador tendo armazenado software e/ou dados de computador.[0163] Device 1100 may also include a main memory 1140, e.g., random access memory (RAM), and may also include a secondary memory 1130. The secondary memory 1130, e.g., a read-only memory (ROM), it could be, for example, a hard disk drive or a removable storage drive. Such a removable storage unit may comprise, for example, a floppy disk drive, a magnetic tape drive, an optical disk drive, a flash memory or the like. The removable storage drive in this example reads from and/or writes to a removable storage drive in a well-known manner. Removable storage may comprise a floppy disk, magnetic tape, optical disk, etc., which is read and written by the removable storage drive. As will be appreciated by those skilled in the art, such removable storage unit generally includes a computer usable storage medium having stored computer software and/or data.

[0164] Em implantações alternativas, a memória secundária 1130 pode incluir meios semelhantes para permitir que programas de computador ou outras instruções sejam carregadas no dispositivo 1100. Exemplos de tais meios podem incluir um cartucho de programa e uma interface de cartucho (como a encontrada em dispositivos de videogame), um chip de memória removível (como uma EPROM ou PROM) e soquete associado e outras unidades e interfaces de armazenamento removíveis, que permitem que o software e dados a serem transferidos de uma unidade de armazenamento removível para o dispositivo 1100.[0164] In alternative implementations, secondary memory 1130 may include similar means for allowing computer programs or other instructions to be loaded into device 1100. Examples of such means may include a program cartridge and a cartridge interface (such as that found in video game devices), a removable memory chip (such as an EPROM or PROM) and associated socket and other removable storage drives and interfaces, which allow software and data to be transferred from a removable storage drive to the device 1100.

[0165] O dispositivo 1100 também pode incluir uma interface de comunicação (“COM”) 1160. A interface de comunicação 1160 permite que software e dados sejam transferidos entre o dispositivo 1100 e dispositivos externos. A interface de comunicação 1160 pode incluir um modem, uma interface de rede (como uma placa Ethernet), uma porta de comunicação, um slot e cartão PCMCIA ou similares. O software e os dados transferidos através da interface de comunicação 1160 podem estar na forma de sinais, que podem ser eletrônicos, eletromagnéticos, ópticos ou outros sinais capazes de serem recebidos pela interface de comunicação 1160. Esses sinais podem ser fornecidos à interface de comunicação 1160 por meio de um caminho de comunicação do dispositivo 1100, que pode ser implementado usando, por exemplo, fio ou cabo, fibra ótica, uma linha telefônica, um link de telefone celular, um link de RF ou outros canais de comunicação.[0165] The device 1100 may also include a communications interface (“COM”) 1160. The communications interface 1160 allows software and data to be transferred between the device 1100 and external devices. The communication interface 1160 may include a modem, a network interface (such as an Ethernet card), a communication port, a PCMCIA slot and card, or the like. The software and data transferred through the communication interface 1160 may be in the form of signals, which may be electronic, electromagnetic, optical, or other signals capable of being received by the communication interface 1160. These signals may be provided to the communication interface 1160 via a communication path of the device 1100, which may be implemented using, for example, wire or cable, optical fiber, a telephone line, a cellular telephone link, an RF link, or other communication channels.

[0166] Os elementos de hardware, sistemas operacionais e linguagens de programação de tal equipamento são de natureza convencional, e presume-se que aqueles versados na técnica estejam adequadamente familiarizados com os mesmos. O dispositivo 1100 também pode incluir portas de entrada e saída 1150 para conectar com dispositivos de entrada e saída, como teclados, mouses, telas sensíveis ao toque, monitores, monitores, etc. É claro que as várias funções do servidor podem ser implantadas de forma distribuída em várias plataformas, para distribuir a carga de processamento. Alternativamente, os servidores podem ser implementados por programação apropriada de uma plataforma de hardware de computador.[0166] The hardware elements, operating systems and programming languages of such equipment are conventional in nature, and those skilled in the art are presumed to be adequately familiar with the same. Device 1100 may also include input and output ports 1150 for connecting with input and output devices such as keyboards, mice, touch screens, monitors, monitors, etc. Of course, the various server functions can be deployed in a distributed manner across multiple platforms to distribute the processing load. Alternatively, servers can be implemented by appropriately programming a computer hardware platform.

[0167] Ao longo desta revelação, referências a componentes ou módulos geralmente se referem a itens que logicamente podem ser agrupados para desempenhar uma função ou grupo de funções relacionadas. Números de referência similares geralmente se destinam a se referir a componentes iguais ou similares. Componentes e módulos podem ser implementados em software, hardware ou uma combinação de software e hardware.[0167] Throughout this disclosure, references to components or modules generally refer to items that can logically be grouped together to perform a function or group of related functions. Similar reference numbers are generally intended to refer to the same or similar components. Components and modules can be implemented in software, hardware, or a combination of software and hardware.

[0168] As ferramentas, módulos e funções descritas acima podem ser executadas por um ou mais processadores. A mídia do tipo "armazenamento" pode incluir qualquer ou toda a memória tangível dos computadores, processadores ou similares, ou módulos associados, como várias memórias semicondutoras, unidades de fita, unidades de disco e similares, que podem fornecer armazenamento a qualquer momento para programação de software.[0168] The tools, modules and functions described above can be executed by one or more processors. "Storage" type media may include any or all of computers' tangible memory, processors, or the like, or associated modules, such as various semiconductor memories, tape drives, disk drives, and the like, that can provide storage at any time for programming of software.

[0169] O software pode ser comunicado pela Internet, um provedor de serviços em nuvem ou outras redes de telecomunicações. Por exemplo, as comunicações podem permitir o carregamento de software de um computador ou processador para outro. Conforme usado no presente documento, a menos que restrito a mídia de “armazenamento” tangível e não transitória, termos como “meio legível” de computador ou máquina se referem a qualquer meio que participe do fornecimento de instruções a um processador para execução.[0169] The software may be communicated over the Internet, a cloud service provider, or other telecommunications networks. For example, communications may allow software to be loaded from one computer or processor to another. As used herein, unless restricted to tangible, non-transitory “storage” media, terms such as computer or machine readable “medium” refer to any medium that participates in providing instructions to a processor for execution.

[0170] A descrição geral anterior é apenas exemplificativa e explicativa, e não restritiva da revelação. Outras modalidades da invenção serão evidentes para aqueles versados na técnica a partir da consideração do relatório descritivo e prática da invenção no presente documento revelada. Pretende-se que a especificação e os exemplos sejam considerados apenas como exemplos.[0170] The previous general description is only exemplary and explanatory, and not restrictive of the disclosure. Other embodiments of the invention will be apparent to those skilled in the art from consideration of the specification and practice of the invention disclosed herein. The specification and examples are intended to be considered as examples only.

Claims (20)

1. Método implementado por computador para processar imagens de lâminas eletrônicas correspondentes a uma amostra de tecido, sendo que o método é caracterizado pelo fato de que compreende: receber uma ou mais imagens de lâminas eletrônicas associadas a uma amostra de tecido, em que a amostra de tecido é associada a um paciente e/ou caso médico; particionar uma primeira imagem de lâminas das uma ou mais imagens de lâminas eletrônicas em uma pluralidade de recortes; determinar uma previsão, com o uso de um modelo de previsão de aprendizado de máquina, para pelo menos um rótulo para as uma ou mais imagens de lâminas eletrônicas, em que o modelo de previsão de aprendizado de máquina foi gerado pelo processamento de uma pluralidade de imagens de treinamento ao: receber uma pluralidade de anotações sinóticas que compreendem um ou mais rótulos para cada uma da pluralidade de imagens de treinamento; particionar uma da pluralidade de imagens de treinamento em uma pluralidade de recortes de treinamento para a pluralidade de imagens de treinamento; segmentar pelo menos uma região de tecido de um fundo das uma ou mais imagens de lâminas eletrônicas para criar uma máscara de tecido de treinamento; remover pelo menos um da pluralidade de recortes que são detectados como não tecidos; e usar o modelo de previsão de aprendizado de máquina sob supervisão fraca para inferir pelo menos uma previsão de nível de recorte multirrótulo com o uso de pelo menos um rótulo da pluralidade de anotações sinóticas.1. Computer-implemented method for processing electronic slide images corresponding to a tissue sample, the method being characterized by the fact that it comprises: receiving one or more electronic slide images associated with a tissue sample, wherein the sample of tissue is associated with a patient and/or medical case; partitioning a first slide image of the one or more electronic slide images into a plurality of slices; determine a prediction, using a machine learning prediction model, for at least one label for the one or more electronic slide images, wherein the machine learning prediction model was generated by processing a plurality of training images by: receiving a plurality of synoptic annotations comprising one or more labels for each of the plurality of training images; partitioning one of the plurality of training images into a plurality of training slices for the plurality of training images; segmenting at least one region of tissue from a background of the one or more electronic slide images to create a training tissue mask; removing at least one of the plurality of cutouts that are detected as nonwovens; and using the machine learning prediction model under weak supervision to infer at least one multi-label clipping level prediction using at least one label from the plurality of synoptic annotations. 2. Método implementado por computador, de acordo com a reivindicação 1, caracterizado pelo fato de que a pluralidade de recortes que são determinados como não tecidos são ainda determinados como sendo um fundo da amostra de tecido.2. Computer-implemented method according to claim 1, characterized by the fact that the plurality of cutouts that are determined to be non-woven are further determined to be a background of the fabric sample. 3. Método implementado por computador, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente: detectar uma pluralidade de regiões de tecido da primeira imagem de lâmina e/ou uma pluralidade de recordes ao segmentar as regiões de tecido a partir de um fundo das uma ou mais imagens de lâminas eletrônicas para gerar uma máscara de tecido.3. The computer-implemented method of claim 1, further comprising: detecting a plurality of tissue regions from the first slide image and/or a plurality of records by segmenting the tissue regions from a background of the one or more electronic slide images to generate a fabric mask. 4. Método implementado por computador, de acordo com a reivindicação 3, caracterizado pelo fato de que compreende adicionalmente: mediante a segmentação das regiões de tecido a partir do fundo, gerar a máscara de tecido, em que a segmentação usa limiares com base em recursos de cor/intensidade e/ou textura.4. The computer-implemented method of claim 3, further comprising: upon segmenting the tissue regions from the background, generating the tissue mask, wherein the segmentation uses feature-based thresholds of color/intensity and/or texture. 5. Método implementado por computador, de acordo com a reivindicação 1, caracterizado pelo fato de que a pluralidade de imagens de treinamento compreende uma pluralidade de imagens de lâminas eletrônicas e uma pluralidade de rótulos-alvo.5. The computer-implemented method of claim 1, wherein the plurality of training images comprises a plurality of electronic slide images and a plurality of target labels. 6. Método implementado por computador, de acordo com a reivindicação 1, caracterizado pelo fato de que o processamento da pluralidade de imagens de treinamento compreende: receber uma coleção de imagens digitais associadas a pelo menos uma amostra de tecido de treinamento, em que a coleção de imagens digitais compreende uma pluralidade de imagens de lâminas eletrônicas de treinamento; receber uma pluralidade de anotações sinóticas que compreendem um ou mais rótulos para cada uma da pluralidade de imagens de lâminas eletrônicas de treinamento; particionar uma da pluralidade de imagens de lâminas eletrônicas de treinamento em uma pluralidade de recortes de treinamento para a pluralidade de imagens de lâminas eletrônicas de treinamento; e segmentar pelo menos uma região de tecido de um fundo das uma ou mais imagens de lâminas eletrônicas para criar uma máscara de tecido de treinamento.6. The computer-implemented method of claim 1, wherein processing the plurality of training images comprises: receiving a collection of digital images associated with at least one training tissue sample, wherein the collection of digital images comprises a plurality of images of electronic training slides; receiving a plurality of synoptic annotations comprising one or more labels for each of the plurality of electronic training slide images; partitioning one of the plurality of training electronic slide images into a plurality of training slices for the plurality of training electronic slide images; and segmenting at least one region of tissue from a background of the one or more electronic slide images to create a training tissue mask. 7. Método implementado por computador, de acordo com a reivindicação 6, caracterizado pelo fato de que treinar o modelo de previsão de aprendizado de máquina sob supervisão fraca compreende o uso de pelo menos um aprendizado de múltiplas instâncias (MIL), aprendizado de múltiplas instâncias de múltiplos rótulos (MIMLL), aprendizado autossupervisionado e agrupamento não supervisionado.7. The computer-implemented method of claim 6, wherein training the machine learning prediction model under weak supervision comprises using at least one multiple instance learning (MIL), multiple instance learning multi-label learning (MIMLL), self-supervised learning and unsupervised clustering. 8. Método implementado por computador, de acordo com a reivindicação 6, caracterizado pelo fato de que o processamento da pluralidade de imagens de treinamento para gerar o modelo de previsão de aprendizado de máquina compreende adicionalmente: receber uma pluralidade de previsões ou uma pluralidade de vetores de pelo menos um recurso de um módulo de aprendizado em nível de recorte fracamente supervisionado para a pluralidade de recortes de treinamento; treinar um modelo de aprendizado de máquina para receber, como entrada, a pluralidade de previsões ou a pluralidade de vetores do pelo menos um recurso do módulo de aprendizado em nível de recorte fracamente supervisionado para a pluralidade de recortes de treinamento; e prever uma pluralidade de rótulos para uma lâmina ou uma amostra de paciente, com o uso da pluralidade de recortes de treinamento.8. The computer-implemented method of claim 6, wherein processing the plurality of training images to generate the machine learning prediction model further comprises: receiving a plurality of predictions or a plurality of vectors of at least one feature of a weakly supervised slice-level learning module for the plurality of training slices; training a machine learning model to receive, as input, the plurality of predictions or the plurality of vectors of the at least one feature of the weakly supervised slice-level learning module for the plurality of training slices; and providing a plurality of labels for a slide or a patient sample, using the plurality of training slices. 9. Método implementado por computador, de acordo com a reivindicação 8, caracterizado pelo fato de que pelo menos um da pluralidade de rótulos é binário, categórico, ordinal ou de valor real.9. The computer-implemented method of claim 8, wherein at least one of the plurality of labels is binary, categorical, ordinal, or real-valued. 10. Método implementado por computador, de acordo com a reivindicação 8, caracterizado pelo fato de que treinar o modelo de aprendizado de máquina para receber, como a entrada, a pluralidade de previsões ou a pluralidade de vetores do pelo menos um recurso do módulo de aprendizado em nível de recorte fracamente supervisionado para a pluralidade de recortes de treinamento compreende uma pluralidade de recursos de imagem.10. The computer-implemented method of claim 8, wherein training the machine learning model to receive, as input, the plurality of predictions or the plurality of vectors of the at least one feature of the Weakly supervised slice-level learning for the plurality of training slices comprises a plurality of image features. 11. Método implementado por computador, de acordo com a reivindicação 1, caracterizado pelo fato de que o modelo de previsão de aprendizado de máquina treinado prevê pelo menos um rótulo com o uso de pelo menos uma lâmina não vista.11. The computer-implemented method of claim 1, wherein the trained machine learning prediction model predicts at least one label using at least one unseen slide. 12. Sistema para processamento de imagens de lâminas eletrônicas correspondentes a uma amostra de tecido, em que o sistema é caracterizado pelo fato de que compreende: pelo menos uma memória armazenando instruções; e pelo menos um processador configurado para executar as instruções para realizar operações que compreendem: receber uma ou mais imagens de lâminas eletrônicas associadas com a amostra de tecido, em que a amostra de tecido é associada a um paciente e/ou caso médico; determinar uma previsão, com o uso de um modelo de previsão de aprendizado de máquina, para pelo menos um rótulo para as uma ou mais imagens de lâminas eletrônicas, o modelo de previsão de aprendizado de máquina gerado pelo processamento de uma pluralidade de imagens de lâminas eletrônicas de treinamento ao: receber uma pluralidade de anotações sinóticas que compreendem um ou mais rótulos para cada uma da pluralidade de imagens de lâminas eletrônicas de treinamento; particionar uma da pluralidade de imagens de lâminas eletrônicas treinamento em uma pluralidade de recortes de treinamento para a pluralidade de imagens de lâminas eletrônicas de treinamento; segmentar pelo menos uma região de tecido de um fundo das uma ou mais imagens de lâminas eletrônicas para criar uma máscara de tecido de treinamento; remover pelo menos um da pluralidade de recortes de treinamento que são detectados como não tecidos; e usar o modelo de previsão de aprendizado de máquina sob supervisão fraca para inferir pelo menos uma previsão de nível de recorte multirrótulo com o uso de pelo menos um rótulo da pluralidade de anotações sinóticas.12. System for processing images of electronic slides corresponding to a tissue sample, wherein the system is characterized by the fact that it comprises: at least one memory storing instructions; and at least one processor configured to execute instructions for performing operations comprising: receiving one or more electronic slide images associated with the tissue sample, wherein the tissue sample is associated with a patient and/or medical case; determining a prediction, using a machine learning prediction model, for at least one label for the one or more electronic slide images, the machine learning prediction model generated by processing a plurality of slide images training electronics by: receiving a plurality of synoptic annotations comprising one or more labels for each of the plurality of images from electronic training slides; partitioning one of the plurality of training electronic slide images into a plurality of training slices for the plurality of training electronic slide images; segmenting at least one region of tissue from a background of the one or more electronic slide images to create a training tissue mask; removing at least one of the plurality of training cutouts that are detected as nonwovens; and using the machine learning prediction model under weak supervision to infer at least one multi-label clipping level prediction using at least one label from the plurality of synoptic annotations. 13. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que a pluralidade de recortes de treinamento que são determinados como não tecidos são ainda determinados como sendo um fundo da amostra de tecido.13. System according to claim 12, characterized by the fact that the plurality of training cuts that are determined to be non-woven are further determined to be a background of the fabric sample. 14. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que detectar, pelo sistema de aprendizado de máquina treinado, uma pluralidade de regiões de tecido da pluralidade de recortes pela segmentação das regiões de tecido a partir de um fundo das uma ou mais imagens de lâminas eletrônicas para gerar uma máscara de tecido.14. System according to claim 12, characterized by the fact that detecting, by the trained machine learning system, a plurality of tissue regions of the plurality of cutouts by segmenting the tissue regions from a background of the one or plus images of electronic slides to generate a fabric mask. 15. Sistema, de acordo com a reivindicação 14, caracterizado pelo fato de que compreende adicionalmente: mediante a segmentação das regiões de tecido a partir do fundo, gerar a máscara de tecido, em que a segmentação usa limiares com base em recursos de cor/intensidade e/ou textura.15. System, according to claim 14, characterized by the fact that it further comprises: by segmenting the tissue regions from the background, generating the tissue mask, wherein the segmentation uses thresholds based on color features/ intensity and/or texture. 16. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que a pluralidade de imagens de lâminas eletrônicas de treinamento compreende uma pluralidade de imagens de lâminas eletrônicas e uma pluralidade de rótulos-alvo.16. The system of claim 12, wherein the plurality of training electronic slide images comprises a plurality of electronic slide images and a plurality of target labels. 17. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o processamento da pluralidade de imagens de lâminas eletrônicas de treinamento compreende: receber uma coleção de imagens digitais associadas a pelo menos uma amostra de tecido de treinamento, em que a coleção de imagens digitais compreende a pluralidade de imagens de lâminas eletrônicas de treinamento.17. The system of claim 12, wherein processing the plurality of training electronic slide images comprises: receiving a collection of digital images associated with at least one training tissue sample, wherein the collection of digital images comprises the plurality of images from electronic training slides. 18. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o uso do modelo de previsão de aprendizado de máquina sob supervisão fraca compreende o uso de pelo menos um dentre MIL, MIMLL, aprendizado autossupervisionado e agrupamento não supervisionado.18. System according to claim 12, characterized by the fact that the use of the machine learning prediction model under weak supervision comprises the use of at least one of MIL, MIMLL, self-supervised learning and unsupervised clustering. 19. Sistema, de acordo com a reivindicação 17, caracterizado pelo fato de que o processamento da pluralidade de imagens de lâminas eletrônicas de treinamento para gerar o modelo de previsão de aprendizado de máquina compreende adicionalmente: receber uma pluralidade de previsões ou uma pluralidade de vetores de pelo menos um recurso de um módulo de aprendizado em nível de recorte fracamente supervisionado para a pluralidade de recortes de treinamento; treinar um modelo de aprendizado de máquina para receber, como uma entrada, a pluralidade de previsões ou a pluralidade de vetores do pelo menos um recurso do módulo de aprendizado em nível de recorte fracamente supervisionado para a pluralidade de recortes de treinamento; e prever uma pluralidade de rótulos para uma lâmina ou uma amostra de paciente, com o uso da pluralidade de recortes de treinamento.19. The system of claim 17, wherein processing the plurality of training electronic slide images to generate the machine learning prediction model further comprises: receiving a plurality of predictions or a plurality of vectors of at least one feature of a weakly supervised slice-level learning module for the plurality of training slices; training a machine learning model to receive, as an input, the plurality of predictions or the plurality of vectors of the at least one feature of the weakly supervised slice-level learning module for the plurality of training slices; and providing a plurality of labels for a slide or a patient sample, using the plurality of training slices. 20. Meio legível por computador não transitório caracterizado pelo fato de que armazena instruções que, quando executadas por um processador, fazem com que o processador execute um método para processar imagens de lâminas eletrônicas correspondentes a uma amostra de tecido, em que o método compreende: receber uma ou mais imagens de lâminas eletrônicas associadas com a amostra de tecido associada a um paciente e/ou um caso médico; particionar uma primeira imagem de lâminas das uma ou mais imagens de lâminas eletrônicas em uma pluralidade de recortes; determinar se qualquer um da pluralidade de recortes corresponde a não tecido; remover qualquer um da pluralidade de recortes que são determinados como não tecidos; e determinar uma previsão, com o uso de um modelo de previsão de aprendizado de máquina, para pelo menos um rótulo correspondendo ao paciente e/ou ao caso médico para as uma ou mais imagens de lâminas eletrônicas, em que o modelo de previsão de aprendizado de máquina foi gerado pelo processamento de uma pluralidade de imagens de treinamento ao: prever uma pluralidade de rótulos para uma lâmina ou uma amostra de paciente, com o uso da pluralidade de recortes de treinamento; segmentar pelo menos uma região de tecido de um fundo das uma ou mais imagens de lâminas eletrônicas para criar uma máscara de tecido de treinamento; remover pelo menos um da pluralidade de recortes que são detectados como não tecidos; e usar o modelo de previsão de aprendizado de máquina sob supervisão fraca para inferir pelo menos uma previsão de nível de recorte multirrótulo com o uso de pelo menos um rótulo de uma pluralidade de anotações sinóticas.20. A non-transitory computer-readable medium that stores instructions that, when executed by a processor, cause the processor to execute a method for processing electronic slide images corresponding to a tissue sample, wherein the method comprises: receiving one or more electronic slide images associated with the tissue sample associated with a patient and/or a medical case; partitioning a first slide image of the one or more electronic slide images into a plurality of slices; determining whether any of the plurality of cutouts corresponds to nonwoven fabric; removing any of the plurality of cutouts that are determined to be nonwoven; and determining a prediction, using a machine learning prediction model, for at least one label corresponding to the patient and/or medical case for the one or more electronic slide images, wherein the learning prediction model was generated by processing a plurality of training images by: predicting a plurality of labels for a slide or a patient sample, using the plurality of training slices; segmenting at least one region of tissue from a background of the one or more electronic slide images to create a training tissue mask; removing at least one of the plurality of cutouts that are detected as nonwovens; and using the machine learning prediction model under weak supervision to infer at least one multi-label clipping level prediction using at least one label from a plurality of synoptic annotations.
BR112022014530-6A 2020-01-28 2021-01-27 SYSTEMS AND METHODS FOR PROCESSING ELECTRONIC IMAGES FOR COMPUTATIONAL DETECTION METHODS BR112022014530B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062966716P 2020-01-28 2020-01-28
US62/966,716 2020-01-28
PCT/US2021/015285 WO2021154849A1 (en) 2020-01-28 2021-01-27 Systems and methods for processing electronic images for computational detection methods

Publications (2)

Publication Number Publication Date
BR112022014530A2 BR112022014530A2 (en) 2022-09-20
BR112022014530B1 true BR112022014530B1 (en) 2023-08-01

Family

ID=

Similar Documents

Publication Publication Date Title
KR102583103B1 (en) Systems and methods for processing electronic images for computational detection methods
US11593684B2 (en) Systems and methods for processing images to classify the processed images for digital pathology
US11481898B2 (en) Systems and methods for processing electronic images for biomarker localization
KR102562708B1 (en) Systems and methods for processing electronic images for generalized disease detection
BR112022014530B1 (en) SYSTEMS AND METHODS FOR PROCESSING ELECTRONIC IMAGES FOR COMPUTATIONAL DETECTION METHODS