BR122013007310A2 - dispositivo, método e programa de processamento de imagem - Google Patents

dispositivo, método e programa de processamento de imagem Download PDF

Info

Publication number
BR122013007310A2
BR122013007310A2 BR122013007310A BR122013007310A BR122013007310A2 BR 122013007310 A2 BR122013007310 A2 BR 122013007310A2 BR 122013007310 A BR122013007310 A BR 122013007310A BR 122013007310 A BR122013007310 A BR 122013007310A BR 122013007310 A2 BR122013007310 A2 BR 122013007310A2
Authority
BR
Brazil
Prior art keywords
menu
image
body part
display
dimensional image
Prior art date
Application number
BR122013007310A
Other languages
English (en)
Inventor
Keigo Nakamura
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of BR122013007310A2 publication Critical patent/BR122013007310A2/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/465Displaying means of special interest adapted to display user selection data, e.g. graphical user interface, icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

dispositivo, método e programa de processamento de imagem. a presente invenção tem por objetivo reduzir a carga imposta ao usuário durante a seleção de um menu, no caso em que se obtêm imagens tomográficas contendo duas ou mais partes. um terminal de reconhecimento de parte corporal (5) realiza um processo de reconhecimento de parte corporal em uma imagem tridimensional formada por uma multiplicidade de imagens tomográficas, sendo registradas as informações de um resultado do reconhecimento de parte corporal em uma base de dados de imagem (4). quando uma estação de trabalho de interpretação de imagem (2) exibe a imagem tridimensional, pelo menos um aplicativo de análise usado para análise da imagem tridimensional é especificado, dependendo da parte contida na imagem tridimensional, e somente um menu contendo o aplicativo de análise especificado é exibido.

Description

“DISPOSITIVO, MÉTODO E PROGRAMA DE PROCESSAMENTO DE IMAGEM” Dividido do pedido PI 1004218-0, depositado em 30 de março de 2010 ANTECEDENTES DA INVENÇÃO
Campo da Invenção A presente invenção refere-se a um dispositivo de processamento de imagem e a um método de processamento de imagem para processar uma imagem tridimensional formada por várias imagens tomográficas, que são obtidas pela geração de imagens tomográ-ficas de um paciente, bem como a um programa que faz um computador executar o método de processamento de imagem.
Descrição do Estado da Técnica Nos últimos anos, na área de imagens médicas, empregam-se modalidades que utilizam várias tecnologias, como um sistema TC (Tomografia Computadorizada) por raios-X, um sistema de diagnóstico por ultrassom (US), um sistema MRI (Ressonância Magnética), um sistema PET (Tomografia por Emissão de Pósitrons), e um sistema SPET (Tomografia Computadorizada por Emissão de Fóton Único), além de um sistema de produção de imagens por raios-X. Junto com o aprimoramento da velocidade e do desempenho de tais modalidades, de forma a acomodar a tecnologia multidetectores (multislice), tornou-se possível mapear a imagem de duas ou mais partes de um paciente em uma série de imagens para obter centenas a milhares de imagens tomográficas em alta resolução. Porém, leva-se tempo para observar essas imagens tomográficas uma a uma. Além disso, somente um médico especialista poderá entender a forma tridimensional da estrutura a ser observada (um órgão ou tecido, tal como uma superfície corporal, osso, coração, pulmão ou fígado) partindo somente das imagens tomográficas.
Para solucionar esse problema, propuseram-se várias técnicas para melhorar a visibilidade de toda a estrutura, e ainda mais de uma lesão presente na estrutura, mediante o reconhecimento da estrutura de interesse e a geração, a partir das imagens tomográficas contendo a estrutura de interesse, da imagem tridimensional da estrutura de interesse analisando-se as imagens tomográficas com o uso de um método, tal como a projeção de intensidade máxima (MIP) ou a projeção de intensidade mínima (MinlP), para obter a exibição MIP, ou obter a visualização volumétrica (VR) da imagem tridimensional.
Por outro lado, há uma grande variedade de aplicativos de análise para a realização de tal análise. Ademais, além dos aplicativos de análise, há uma grande variedade de modelos de cores para modificar um padrão de tonalidade de uma exibição VR de uma imagem tridimensional, aplicativos de processamento de imagem e aplicativos de exibição (que, daqui em diante, serão chamados aplicativos de análise, etc.) Portanto, o número de menus para selecionar os aplicativos de análise, etc., durante a interpretação da imagem, torna-se maior, ficando mais difícil a seleção dos itens de menu para o usuário, por exemplo, um mé- dico radiologista ou técnico em radiologia.
Uma técnica que envolve: calcular valores de índice que indicam características anatômicas a partir de uma imagem médica; determinar se o paciente sendo examinado é um adulto, bebê, criança ou jovem baseado nos valores de índice calculados; selecionar itens corretos do menu de imagens a serem selecionados dos itens de menu de imagens dependendo do paciente; exibir somente os menus de imagens selecionados que foram propostos (vide a Patente JP N° 2007-185429, que, daqui em diante, será chamada Documento de Patente 1). De acordo com a técnica revelada no Documento de Patente 1, quando uma imagem médica é exibida, itens do menu de imagens desnecessários para o paciente examinado não são exibidos, reduzindo, portanto, a carga imposta ao usuário durante a seleção dos itens do menu de imagens.
No caso em que a geração de imagens tomográficas é realizada usando a modalidade descrita acima, tal como um sistema TC, são frequentes os casos em que uma ou mais partes do corpo são examinadas, tal como do tórax ao abdômen ou da cabeça ao tórax, além dos casos em que apenas uma única parte do corpo (por exemplo, somente o tórax ou o abdômen) é examinada, em um único exame. Os aplicativos de análise descritos acima, etc., são preparados para cada parte do corpo. Portanto, quando duas ou mais partes do corpo são examinadas, utilizam-se dois ou mais dos aplicativos de análise, etc., para a análise, ou similar. Embora a técnica revelada no Documento de Patente 1 possibilite a seleção de um item ideal do menu de imagens dependendo do paciente, a técnica não é aplicável aos casos em que se obtêm imagens tomográficas contendo duas ou mais partes, como descrito acima.
SUMÁRIO DA INVENÇÃO
Em vista das circunstâncias descritas acima, a presente invenção direciona-se à redução da carga imposta ao usuário durante a seleção de um item de menu quando um menu usado para processar uma imagem tridimensional é exibido, em particular, no caso em que são obtidas imagens tomográficas contendo duas ou mais partes.
Um dispositivo de processamento de imagem de acordo com a invenção inclui: meios de obtenção de imagem para obter uma imagem tridimensional, a imagem tridimensional sendo formada por uma multiplicidade de imagens tomográficas obtidas pela geração de imagens tomográficas de um paciente; meios de obtenção de informações da parte corporal para obter informações de um resultado do reconhecimento de parte corporal do paciente contida na imagem tridimensional; meios de especificação de menu para especificar, dentre uma multiplicidade de menus usados para exibir a imagem tridimensional, um menu dependendo de uma parte baseado na informação do resultado do reconhecimento da parte corporal; e meios de controle de exibição para exibir o menu especificado em um meio de exibição.
Um exemplo específico do “paciente”, aqui, pode ser um corpo humano; no entanto, o paciente pode ser o corpo de um animal, etc.
No caso se o paciente for um ser humano, a "parte” a ser reconhecida, aqui, é uma parte corporal do corpo humano. Exemplos específicos podem incluir a cabeça, pescoço, tórax, abdômen, pelve, pernas e partes combinadas, incluindo duas partes adjacentes dentre as partes listadas, tal como cabeça-pescoço e tórax-abdômen.
No dispositivo de processamento de imagem de acordo com a invenção, os meios de obtenção de informação de parte corporal podem obter a informação do resultado do reconhecimento da parte corporal mediante o reconhecimento de uma parte corporal do paciente contida na imagem tridimensional.
No dispositivo de processamento de imagem de acordo com a invenção, as imagens tomográficas podem ser imagens tomogrãficas axiais, e as imagens tomográficas podem conter pelo menos uma dentre uma parte selecionada dentre cabeça, pescoço, tórax, abdômen, pelve e pernas, e uma parte combinada incluindo pelo menos duas partes adjacentes dentre cabeça, pescoço, tórax, abdômen, pelve e pernas.
No dispositivo de processamento de imagem de acordo com a invenção, o menu pode ser um menu usado para selecionar um aplicativo para analisar a imagem tridimensional.
No dispositivo de processamento de imagem de acordo com a invenção, os meios de especificação de menu podem especificar o menu dependendo também das informações de usuário de um usuário que usa a imagem tridimensional.
No dispositivo de processamento de imagem de acordo com a invenção, os meios de especificação de menu podem especificar o menu dependendo também de um tipo de uma modalidade usada para obter a imagem tridimensional.
No dispositivo de processamento de imagem de acordo com a invenção, os meios de controle de exibição podem alterar ma forma de exibição do menu especificado, dependendo da frequência de uso de cada menu.
No dispositivo de processamento de imagem de acordo com a invenção, os meios de controle de exibição podem ser capazes de seletivamente exibir uma parte corporal específica contida na imagem tridimensional, e os meios de especificação de menu podem especificar o menu, dependendo também da parte exibida na imagem tridimensional.
Um método de processamento de imagem de acordo com a invenção é um método de processamento de imagem a ser implementado em um computador, incluindo as etapas, que são realizadas pelo computador, de: obter uma imagem tridimensional, a imagem tridimensional sendo formada por uma multiplicidade de imagens tomográficas obtidas pela geração de imagens tomográficas de um paciente; meios de obtenção de informações da parte corporal para obter informações de um resultado do reconhecimento de parte corporal do paciente contida na imagem tridimensional; especificar, dentre uma multiplicidade de menus usados para exibir a imagem tridimensional, um menu dependendo de uma parte baseado na informação do resultado do reconhecimento da parte corporal; e exibir o menu especificado em um meio de exibição. O método de processamento de imagem de acordo com a invenção pode ser proporcionado na forma de um programa para fazer o computador executar o método de processamento de imagem.
De acordo com a presente invenção, baseado em um resultado do reconhecimento da parte corporal de um paciente contida em uma imagem tridimensional, que é formado por uma multiplicidade de imagens tomográficas obtidas pela geração de imagens tomográficas do paciente, um menu dependendo da parte corporal é especificado a partir dos menus usados para exibir a imagem tridimensional, e o menu especificado é exibido. Portanto, quando se gera uma instrução para exibir a imagem tridimensional, somente um menu dependendo da parte corporal contida na imagem tridimensional é exibido. Dessa forma, não é necessário que o usuário, como um médico radiologista ou técnico em radiologia, realize a seleção em um menu contendo itens de menu desnecessários correspondentes a partes que não estão contidas na imagem tridimensional, reduzindo, portanto, a carga imposta ao usuário durante a seleção do menu.
Além disso, ao especificar o menu dependendo também da informação sobre o usuário que usa a imagem tridimensional, um menu contendo itens de menu com alta frequência de uso para o usuário é exibido, reduzindo-se, portanto, a carga imposta ao usuário durante a seleção do menu.
Ademias, ao especificar o menu dependendo também de um tipo de modalidade usado para obter a imagem tridimensional, um menu contendo itens de menu com alta probabilidade de uso é exibido, reduzindo-se, portanto, a carga imposta ao usuário durante a seleção do menu.
Além do mais, ao modificar a forma de exibição do menu especificado de modo que um item de menu com maior frequência de uso no menu especificado possa ser selecionado mais facilmente, é possível reduzir a carga imposta ao usuário durante a seleção do menu.
Além disso, ao possibilitar a exibição seletiva de uma parte específica contida na imagem tridimensional e especificar o menu dependendo também da parte exibida na imagem tridimensional, é possível reduzir a carga imposta ao usuário durante a seleção do me- nu.
BREVE DESCRIÇÃO DOS DESENHOS A FIG. 1 é um diagrama ilustrando a configuração esquemática de um sistema de informação médica, ao qual é aplicado um dispositivo de processamento de acordo com uma concretização da invenção, A FIG. 2 é um diagrama que ilustra um exemplo de uma tabela usada na primeira concretização, A FIG. 3 é um fluxograma que ilustra um processo realizado na primeira concretização, A FIG. 4 é um diagrama que ilustra uma lista de exames exibida, A FIG. 5 é um diagrama que ilustra uma condição em que um menu pop-up de um menu de aplicativo de análise é exibido na primeira concretização, A FIG. 6 é um diagrama que ilustra uma condição em que uma lista de um menu de aplicativo de análise é exibida na primeira concretização, A FIG. 7 é um diagrama que ilustra uma condição em que uma lista de um menu de aplicativo de análise para cada parte corporal é exibida na primeira concretização, A FIG. 8 é um diagrama que ilustra uma condição em que outra lista de um menu de aplicativo de análise para cada parte corporal é exibida na primeira concretização, A FIG. 9 é um diagrama que ilustra um exemplo de uma tabela usada na segunda concretização, A FIG 10 é um diagrama que ilustra uma condição em que uma lista de um menu de aplicativo de análise é exibida na segunda concretização, A FIG. 11 é um diagrama que ilustra um exemplo de uma tabela usada na terceira concretização, A FIG. 12 é um diagrama que ilustra uma condição em que uma lista de um menu de aplicativo de análise é exibida na segunda concretização, A FIG. 13 é um diagrama que ilustra uma condição em que uma lista de um menu de aplicativo de análise é exibida na segunda concretização, A FIG. 14 é um diagrama que ilustra uma condição em que um menu pop-up de um menu de aplicativo de análise é exibido na quarta concretização, A FIG. 15 é um diagrama que ilustra uma condição em que outra lista do menu de aplicativo de análise é exibida na quarta concretização, A FIG. 16 é um diagrama que ilustra uma condição em que ainda outra lista do menu de aplicativo de análise é exibida na quarta concretização, A FIG. 17 é um diagrama que ilustra um exemplo de uma tabela usada na quinta concretização, A FIG. 18 é um fluxograma que ilustra um processo realizado na quinta concretiza- ção, A FIG 19 é um diagrama que ilustra uma tela exibida na quinta concretização, e A FIG. 20 é um diagrama que ilustra outra tela exibida na quinta concretização.
DESCRIÇÃO DAS CONCRETIZAÇÕES PREFERIDAS
Daqui em diante, as concretização da presente invenção serão descritas com referência aos desenhos. A FIG. 1 é um diagrama ilustrando a configuração esquemática de um sistema de informação médica, ao qual é aplicado um dispositivo de processamento de acordo com uma primeira concretização da invenção. Como ilustra a FIG. 1, o sistema de informação médica de acordo com a primeira concretização inclui: um sistema (modalidade) de geração de imagens 1 para obter uma imagem médica, uma estação de interpretação de imagem (WS) 2, um servidor de imagem 3, uma base de dados de imagens 4 e um terminal de reconhecimento de parte corporal 5, que são conectados por uma rede 10 para serem capazes de se comunicar entre si. Os dispositivos, nesta concretização, são controlados por um programa instalado por meio de um meio de gravação, tal como um CD-ROM. Como alternativa, o programa pode ser transferido por um servidor conectado por uma rede, tal como a Internet, para ser instalado. A modalidade 1 inclui um sistema que mapeia uma parte a ser examinada de um paciente para gerar dados de imagem de uma imagem representando a parte corporal, acrescenta informações associadas, como informações de exame e informações do paciente, aos dados de imagem, e emite os dados de imagem. As informações associadas possuem um formato que se conforma com um padrão, tal como o padrão DICOM, e a especificações do fabricante da modalidade, etc. Exemplos específicos da modalidade 1 incluem um sistema TC, um sistema MRI, um sistema PET, um sistema SPET e um sistema de geração de imagens ultrassonográficas. Nesta concretização, pressupõe-se que os dados de imagem sejam dados de imagem de uma imagem tridimensional representando uma parte corporal de um paciente a ser examinada, a qual é obtida com um sistema TC, e estejam na forma de dados coletivos de imagens axiais tomográficas (daqui em diante, imagens tomo-gráficas) obtidas em intervalos de cortes predeterminados e com uma espessura de fatia predeterminada; no entanto, não se pretende limitara invenção a isso. Embora seja ilustrada uma modalidade 1 na FIG. 1, dois ou mais tipos de modalidades 1 podem ser conectados. A estação de trabalho de interpretação de imagem 2 é usada pelo usuário, tal como um médico radiologista ou técnico em radiologia, para efetuar a interpretação da imagem e gerar um relatório de interpretação da imagem. A estação de trabalho de interpretação de imagem 2 inclui um processador, um ou dois monitores de alta definição, e um dispositivo de entrada, tal como um teclado e um mouse, ou um painel de toque. A estação de trabalho de interpretação de imagem 2 desempenha diversas operações, como o envio de uma solicitação para visualizar uma imagem ao servidor de imagens 3, aplica vários tipos de processa- mento de imagem a uma imagem recebida do servidor de imagens 3, realizando vários tipos de processamento de análise, inclusive a detecção e realce automáticos de uma área que provavelmente representa uma estrutura ou lesão em uma imagem, exibe uma imagem, ajuda o usuário a gerar um relatório de interpretação de imagem, envia uma solicitação para registrar um relatório de interpretação de imagem e uma solicitação para visualizar um relatório de interpretação de imagem a um servidor de relatório de interpretação de imagem (não ilustrado) e exibe um relatório de interpretação recebido do servidor de relatório de interpretação de imagem. A estação de trabalho de interpretação de imagem 2 tem aplicações de análise instaladas nela, que são usadas para realizar diversos tipos de processamento de análise instruídos pelo usuário. Os aplicativos de análise são preparados de maneira correspondente às partes contidas nas imagens tridimensionais. Nesta concretização, a estação de trabalho de interpretação de imagem 2 armazena uma tabela que associa cada parte contida nas imagens tridimensionais a um tipo (ou tipos) de aplicativo de análise usado para a análise da parte. A FIG. 2 é um diagrama que ilustra um exemplo da tabela usada na primeira concretização. Como mostra a Fig. 2, a tabela T1 associa cada parte a um tipo (ou tipos) de aplicativo de análise. Especificamente, a cabeça e o pescoço são associados a um aplicativo de análise de extração de vaso sanguíneo cerebral, o tórax é associado a aplicativos de análise de análise pulmonar, análise da artéria coronária, análise da função cardíaca e grau de cal-cificação, o tórax-abdômen é associado a aplicativos de análise de análise do fígado e análise do intestino grosso, e a pelve é associada a um aplicativo de análise de análise do intestino grosso.
Quando o usuário efetua a interpretação da imagem, a estação de trabalho de interpretação de imagem 2 primeiramente obtém, em resposta a uma instrução do usuário, as informações associadas e as informações de um resultado do reconhecimento da parte corporal, que serão descritas posteriormente, para cada exame. Em seguida, a estação de trabalho de interpretação de imagem 2 referencia a tabela T1 baseado nas informações obtidas do resultado do reconhecimento da parte corporal para especificar o aplicativo de análise dependendo da parte corporal contida na imagem tridimensional, e exibe o aplicativo de análise especificado em um meio de exibição. A exibição do aplicativo de análise especificado será descrita posteriormente.
Um critério para se determinar se uma certa parte corporal está ou não contida na imagem tridimensional pode ser tal que, se a dada parte estiver contida em pelo menos uma das imagens tomográficas que formam a imagem tridimensional, determina-se que a parte está contida na imagem tridimensional. Como alternativa, se a dada parte corporal estiver contida pelo menos ao longo de uma distância predeterminada (o número de imagens tomográficas x intervalo de corte) ao longo da direção do eixo do corpo, pode-se determinar que a parte está contida na imagem tridimensional. Por exemplo, se a garganta estiver contida ao longo de uma distância de pelo menos 10 cm, pode-se determinar que a garganta está contida na imagem tridimensional. Neste caso, se a garganta estiver contida ao longo de uma distância de apenas 5 cm, nenhum aplicativo de análise associado à garganta é especificado. O servidor de imagens 3 é formado por um computador de uso geral com uma capacidade de processamento relativamente alta e um programa de software que oferece a função de um sistema de gerenciamento de base de dados (DataBase Management System: DBMS) instalada nele. O servidor de imagens 3 inclui um armazenamento de grande capacidade formando a base de dados de imagem 4. O armazenamento pode ser um dispositivo de disco rígido de grande capacidade conectado ao servidor de imagem 3 via um bar-ramento de dados, ou pode ser um dispositivo de disco que é conectado a um NAS (Armazenamento Associado à Rede) e uma SAN (Rede de Área de Armazenamento) conectada à rede 10. O servidor de imagens 3 também é provido de uma interface de comunicação para comunicação com a modalidade 1, a estação de trabalho de interpretação de imagem 2, etc., pela rede 10.
Quando o servidor de imagem 3 recebe uma solicitação para registrar uma imagem pela modalidade 1, o servidor de imagem 3 converte a imagem em um formato para a base de dados e registra a imagem na base de dados de imagem 4. Além disso, as informações do resultado do reconhecimento da parte corporal obtidas pelo terminal de reconhecimento de parte corporal 5, que será descrito posteriormente, são registradas na base de dados de imagem 4.
Na base de dados de imagem 4, os dados de imagem descritos acima da imagem tridimensional, as informações associadas e as informações do resultado do reconhecimento da parte corporal, que serão descritos posteriormente, são registrados. As informações associadas podem conter, por exemplo, um ID de imagem para identificar cada imagem, um ID do paciente para identificar cada paciente, um ID de exame para identificar cada exame, um ID único (UID) atribuído a cada imagem, uma data e hora de exame de quando cada imagem é gerada, um tipo de modalidade usado em um exame para obter cada imagem, informações do paciente, como nome, idade, sexo, etc., de cada paciente, parte corporal examinada (submetida à tomografia), informações de geração de imagem (tal como o protocolo de geração de imagem, sequência de geração de imagens, técnica de geração de imagens, condições de geração de imagens, se um agente de contraste é ou não empregado, etc.), um número de série ou um número de conexão quando várias imagens são obtidas em um único exame, etc.
Além disso, quando o servidor de imagem 3 recebe uma solicitação para visualizar uma imagem da estação de trabalho de interpretação de imagem 2 pela rede 10, o servidor de imagem 3 pesquisa pela imagem registrada na base de dados de imagem 4, e envia a imagem extraída pela pesquisa à estação de trabalho de interpretação de imagem 2 que enviou a solicitação.
Quando o usuário, tal como um médico radiologista ou técnico em radiologia, realiza uma operação para solicitar a visualização de uma imagem a ser interpretada, a estação de trabalho de interpretação de imagem 2 envia uma solicitação para visualização ao servidor de imagem 3, e obtém a imagem necessária para interpretação da imagem. Em seguida, em resposta a uma solicitação feita pelo usuário, a estação de trabalho de interpretação de imagem 2 realiza o processamento de análise, tal como a detecção automática de uma lesão, na imagem.
Antes ou depois de a imagem tridimensional, que é formada por imagens tomográ-ficas obtidas na modalidade 1, ser registrada na base de dados de imagem 4, o terminal de reconhecimento de parte corporal 5 realiza um processo de reconhecimento de parte corporal para reconhecer uma parte corporal do paciente contida na imagem tridimensional. O terminal de reconhecimento de parte corporal 5 também é provido de uma interface de comunicação para comunicação com a modalidade 1, com a estação de trabalho de interpretação de imagem 2, etc., pela rede 10. Quando o terminal de reconhecimento de parte corporal 5 tiver recebido uma notificação do servidor de imagem 3 notificando que o registro da imagem tridimensional na base de dados de imagem 4 foi concluído, o terminal de reconhecimento de parte 5 inicia o processo de reconhecimento. Como alternativa, o terminal de reconhecimento de parte 5 pode iniciar o processo de reconhecimento em resposta a uma instrução alimentada pela estação de trabalho de interpretação de imagem 2.
Agora, o processo de reconhecimento de parte corporal realizado pelo terminal de reconhecimento de parte corporal 5 é descrito. O reconhecimento de parte corporal pode ser obtido usando uma técnica revelada, por exemplo, na Publicação de Patente JP não examinada N° 2008-259682. A técnica revelada na Publicação de Patente JP não examinada N° 2008-259682 envolve: normalizar as imagens tomográficas transmitidas; calcular uma série de quantidades de características com base nas imagens tomográficas normalizadas; transmitir as quantidades de características para um classificador, que é obtido usando uma técnica AdaBoost, para calcular, para cada parte, um grau indicando a probabilidade de ser a parte corporal; e determinar a parte ilustrada em cada imagem tomográfica baseado nos graus da parte corporal calculados usando programação dinâmica de modo que a ordem das partes corporais de um corpo humano seja mantida. Além disso, pode-se usar um método usando a correlação de modelos de cor (vide, por exemplo, a Publicação de Patente JP não examinada N° 2002-253539) ou um método usando autoimagens de cada parte (vide, por exemplo, a Publicação de Patente JP não examinada N° 2003-010166). Dessa forma, a parte corporal é reconhecida para cada imagem tomográfica, e um resultado do reconhecí- mento da parte corporal é obtido para cada imagem tomográfica. O terminal de reconhecimento de parte corporal 5 envia a informação do resultado do reconhecimento de parte corporal ao servidor de imagens 3. O servidor de imagem 3 registra a informação recebida do resultado do reconhecimento de parte corporal na base de dados de imagens 4 e envia a informação do resultado do reconhecimento de parte corporal junto com a imagem tridimensional do servidor de imagem 3 à estação de trabalho de interpretação de imagem 2 em resposta a uma instrução alimentada pela estação de trabalho de interpretação de imagem 2. A seguir, descreve-se um processo realizado na primeira concretização. A FIG. 3 é um fluxograma que ilustra o processo realizado na primeira concretização. O processo descrito aqui inclui operações que são realizadas após a informação do resultado do reconhecimento de parte corporal ter sido registrada na base de dados de imagem 4, e o usuário, tal como um médico radiologista, ter alimentado uma instrução de interpretação de imagem à estação de trabalho de interpretação de imagem 2, e até que o menu do aplicativo de análise especificado seja exibido. Quando o usuário tiver alimentado a instrução de interpretação de imagem à estação de trabalho de interpretação de imagem 2, o servidor de imagem 3 lê uma imagem tridimensional registrada junto com a informação associada e a informação do resultado do reconhecimento de parte corporal da mesma a partir da base de dados de imagem 4, e envia a imagem tridimensional, a informação associada e a informação do resultado do reconhecimento de parte corporal à estação de trabalho de interpretação de imagem 2. A estação de trabalho de interpretação de imagem 2 recebe a imagem tridimensional, a informação associada e a informação do resultado do reconhecimento de parte corporal (“recebe informação” na etapa ST1). Em seguida, com base na informação recebida do resultado do reconhecimento de parte corporal, o(s) aplicativo(s) de análise é(são) especifi-cado(s) dependendo da parte contida na imagem tridimensional com referência à tabela T1 descrita acima (etapa St2), e uma lista de exames é exibida em um meio de exibição baseado na informação associada (etapa ST3). A FIG. 4 é um diagrama que ilustra a lista de exames exibida. Conforme mostrado na FIG. 4, a lista de exames inclui informação de nome de paciente, ID de paciente e data e hora de exame baseada na informação associada a cada imagem tridimensional obtida. A estação de trabalho de interpretação de imagem 2 inicia o monitoramento para determinar se o usuário clicou com o botão direito do mouse para selecionar uma imagem da lista de exames (etapa ST4) ou não. Se uma determinação afirmativa for feita na etapa ST4, um pop-up de um menu correspondendo ao(s) aplicativo(s) de análise especificado para a imagem selecionada é exibido (etapa ST5), e o processo é encerrado. A FIG. 5 é um diagrama que ilustra uma condição em que um menu pop-up de um menu de aplicativo de análise é exibido. Como mostra a FIG. 5, no caso em que o resultado do reconhecimento de parte corporal da imagem selecionada é o tórax, os aplicativos de análise de análise pulmonar, análise da artéria coronária, análise da função cardíaca e grau de calcificação são especificados, e o menu pop-up do menu contendo os aplicativos de análise de análise pulmonar, análise da artéria coronária, análise da função cardíaca e grau de calcificação é exibido. O usuário pode selecionar um item de menu desejado para fazer a estação de trabalho de interpretação de imagem 2 executar o aplicativo de análise correspondendo ao item de menu selecionado.
Após a imagem ter sido selecionada na lista de exames, uma tela de seleção para selecionar o aplicativo de análise especificado pode ser exibida, e uma lista do menu do(s) aplicativo(s) de análise especificado(s) para a imagem selecionada pode ser exibida na tela de seleção. A FIG. 6 é um diagrama que ilustra uma condição em que a lista do menu de aplicativo de análise é exibido na primeira concretização. Como mostra a FIG. 6, no caso em que o resultado do reconhecimento de parte corporal da imagem selecionada é o tórax e o abdômen, os aplicativos de análise de análise pulmonar, análise da artéria coronária, análise da função cardíaca e grau de calcificação, análise do fígado e análise do intestino grosso são especificados, e uma lista de um menu de aplicativo de análise contendo os aplicativos de análise de análise pulmonar, análise da artéria coronária, análise da função cardíaca, grau de calcificação, análise do fígado e análise do intestino grosso é exibida na tela de seleção. O usuário pode selecionar um item de menu desejado para fazer a estação de trabalho de interpretação de imagem 2 executar o aplicativo de análise correspondendo ao item de menu selecionado.
Em vez de exibir a lista dos aplicativos de análise, pode-se exibir uma lista de aplicativos de análise para cada parte corporal. Por exemplo, no caso em que o resultado do reconhecimento de parte corporal da imagem selecionada é o tórax e o abdômen, podem-se usar abas, como mostra a FIG. 7, para selecionar o tórax ou o abdômen, e somente um menu contendo aplicativos de análise correspondendo à parte selecionada pode ser exibido. A saber, como mostra a FIG. 7, quando a aba para o tórax é selecionada, um menu contendo análise do pulmão, análise da artéria coronária, análise da função cardíaca e grau de calcificação pode ser exibido, e quando a aba para o abdômen é selecionada, como mostra a FIG. 8, um menu contendo a análise do fígado e análise do intestino grosso pode ser exibido. É preferível exibir primeira uma parte que percorra a maior distância ao longo da direção do eixo do corpo na imagem tridimensional.
Como descrito acima, na primeira concretização, um ou mais aplicativos de análise, dependendo da parte corporal, é especificado pelos aplicativos de análise usados para exibir a imagem tridimensional baseado no resultado do reconhecimento da parte corporal da imagem tridimensional. Portanto, quando se gera uma instrução para exibir a imagem, um menu contendo somente o(s) aplicativo(s) de análise especificado(s) pode ser exibido, permitindo assim que o usuário selecione o aplicativo de análise em um menu contendo somente o(s) aplicativo(s) de análise correspondendo à parte contida na imagem tridimensionai. Dessa forma, não é necessário que o usuário, como um médico radiologista, realize a seleção em um menu contendo itens de menu desnecessários correspondentes a partes que não estão contidas na imagem tridimensional, reduzindo, portanto, a carga imposta ao usuário durante a seleção do menu.
Deve-se observar que, embora o terminal de reconhecimento de parte corporal 5 realize o processo de reconhecimento de parte corporal na concretização descrita acima, a estação de trabalho de interpretação de imagem 2 pode realizar o processo de reconhecimento de parte corporal. A seguir, descreve-se uma segunda concretização da invenção. Deve-se observar que os sistemas de informação médica, aos quais se aplicam os dispositivos de processamento de imagem de acordo com a segunda concretizações e com as concretizações seguintes, possuem a mesma configuração que a do sistema de informação médica ao qual é aplicado o dispositivo de processamento de imagem de acordo com a primeira concretização, e apenas os processo a serem realizados são diferentes. Portanto, omite-se a descrição detalhada da configuração na descrição a seguir. O usuário do sistema de informação médica de acordo com a presente concretização é um médico radiologista, um técnico em radiologia, entre outros, e os aplicativos de análise usados em um departamento clinico, ao qual pertence o usuário, são quase fixos. Por exemplo, mesmo para a mesma imagem tridimensional do tórax, um médico radiologista em um departamento cardiovascular geralmente usa aplicativos de análise relacionados ao coração, e um médico radiologista em um departamento respiratório geralmente utiliza aplicativos de análise relacionados ao pulmão. Portanto, a diferença entre a primeira concretização e a segunda concretização reside no fato de que, na segunda concretização, o(s) aplicativo(s) de análise é/são especificado(s) também se baseando na informação do usuário. Como a informação do usuário, podem-se usar não somente informações que especificam um departamento clínico, tal como um departamento cardiovascular, departamento respiratório, departamento de órgãos digestivos ou departamento de cirurgia cerebral, mas também quaisquer informações capazes de especificar o usuário, tal como um ID de usuário para especificar um médico radiologista ou técnico em radiologia ou um ID da estação de trabalho de interpretação de imagem 2.
Nesta concretização, a estação de trabalho de interpretação de imagem 2 armazena uma tabela que associa cada parte contida nas imagens tridimensionais a um tipo (ou tipos) de aplicativo de análise usado para a análise da parte. A FIG. 9 é um diagrama que ilustra um exemplo de uma tabela usada na segunda concretização. Como mostra a FIG. 9, uma tabela T2 associa o tórax aos tipos correspondentes de aplicativos de análise para cada departamento clínico. Especificamente, o tórax é associado ao departamento cardiovas-cular e ao departamento respiratório. Além disso, o departamento cardiovascular é associado aos aplicativos de análise de análise da artéria coronária, análise da função cardíaca e 5 grau de calcificação, e o departamento respiratório é associado ao aplicativo de análise de análise do pulmão. No caso em que a tabela T2, como mostra a FIG. 9, é utilizada, o usuário informa o nome do departamento clínico como a informação do usuário para a estação de trabalho de interpretação de imagem 2. Os tipos de aplicativos de análise a serem usados dependendo das informações do usuário podem ser editáveis na tabela T2 usada na segun-10 da concretização. A FIG. 10 é um diagrama que ilustra uma condição em que uma lista do menu de aplicativo de análise é exibida na segunda concretização. No caso em que o resultado do reconhecimento de parte corporal da imagem selecionado pelo usuário na lista de exames ilustrado na FIG. 4 representa o tórax, os aplicativos de análise de análise de pulmão, análi-15 se de artéria coronária, análise da função cardíaca e grau de calcificação são especificados. Em seguida, se a informação do usuário representar o departamento cardiovascular, uma lista de um menu de aplicativo de análise contendo análise da artéria coronária, análise da função cardíaca e grau de calcificação é exibida em uma tela de seleção, como ilustrado em uma tela 20 na FIG. 10. Por outro lado, se a informação do usuário representar o departa-20 mento respiratório, exibe-se uma lista de um menu de aplicativos de análise contendo análise pulmonar na tela de seleção, como mostra uma tela 21 na FIG. 10. O usuário pode selecionar um item de menu desejado para fazer a estação de trabalho de interpretação de imagem 2 executar o aplicativo de análise correspondendo ao item de menu selecionado.
Como descrito acima, na segunda concretização, o(s) aplicativo(s) de análise é/são 25 especificado(s) baseando-se também na informação do usuário, além de no resultado do reconhecimento da parte corporal. Portanto, quando se gera uma instrução para exibir a imagem, um menu contendo o(s) aplicativo(s) de análise com alta frequência de uso pelo usuário é exibido, reduzindo-se, portanto, a carga imposta ao usuário durante a seleção do menu. 30 A seguir, descreve-se uma terceira concretização da invenção. Como descrito aci- ma, a modalidade 1 pode incluir vários sistemas, tal como um sistema CT, um sistema MRI, um sistema PET, um sistema SPET e um sistema de geração de imagens ultrassonográfi-cas, e os aplicativos de análise executáveis diferem-se, dependendo do tipo da modalidade 1. A diferença entre a primeira concretização e a terceira concretização reside no fato de 35 que, na terceira concretização, em particular no caso em que o sistema de informação médica inclui duas ou mais modalidades 1, o(s) aplicativo(s) de análise é/são especificado(s) também dependendo do tipo da modalidade 1 contida na informação associada.
Na terceira concretização, a estação de trabalho de interpretação de imagem 2 armazena uma tabela que associa, para cada tipo da modalidade 1 usada para obter a imagem tridimensional, cada parte contida na imagem tridimensional com um ou mais tipos correspondentes de aplicativo(s) de análise(s) usado(s) para análise da parte corporal. A FIG. 11 é um diagrama que ilustra um exemplo de uma tabela usada na terceira concretização. Como mostra a FIG. 11, uma tabela T3 associa o tórax aos tipos correspondentes de aplicativos de análise para cada tipo da modalidade 1. Especificamente, o tórax é associado a um sistema CT e a um sistema MR. Além disso, o sistema CT é associado aos aplicativos de análise de análise da artéria coronária, análise da função cardíaca e grau de calcificação, e o sistema MR é associado aos aplicativos de análise de análise da função cardíaca e análise aprimorada com retardo. A FIG. 12 é um diagrama que ilustra uma condição em que uma lista do menu de aplicativo de análise é exibida na terceira concretização. Como mostra a FIG. 12, no caso em que o resultado do reconhecimento de parte corporal da imagem selecionado pelo usuário na lista de exames ilustrada na FIG. 4 representa o tórax, se a modalidade 1 usada para obter a imagem tridimensional for um sistema CT, os aplicativos de análise de análise pulmonar, análise da artéria coronária, análise da função cardíaca e grau de calcificação são especificados. Em seguida, como mostra uma tela 22 na FIG. 12, uma lista de um menu de aplicativo de análise contendo análise da artéria coronária, análise da função cardíaca e grau de calcificação é exibida na tela de seleção. Por outro lado, se a modalidade 1 usada para obter a imagem tridimensional for um sistema MR, uma lista de um menu de aplicativo de análise contendo análise da função cardíaca e análise aprimorada com retardo é exibida na tela de seleção, como mostra uma tela 23 na FIG. 12. O usuário pode selecionar um item de menu desejado para fazer a estação de trabalho de interpretação de imagem 2 executar o aplicativo de análise correspondendo ao item de menu selecionado.
Como descrito acima, na terceira concretização, o(s) aplicativo(s) de análise é/são especificado(s) baseando-se também no tipo de modalidade 1 usado para obter a imagem tridimensional, além do resultado do reconhecimento da parte corporal. Portanto, quando uma instrução para exibir a imagem é gerada, o(s) aplicativo(s) de análise que apresenta(m) grande probabilidade de ser aplicado(s) à imagem tridimensional é/são exibido(s), e, portanto, torna-se possível reduzir a carga imposta ao usuário durante a seleção do menu. A seguir, descreve-se uma quarta concretização da invenção. A diferença entre a primeira concretização e a quarta concretização reside no fato de que, na quarta concretização, a estação de trabalho de interpretação de imagem 2 registra o número de usos de cada aplicativo de análise, e quando a interpretação de imagem é instruída pelo usuário na estação de trabalho de interpretação de imagem 2, a estação de trabalho de interpretação de imagem 2 especifica o(s) aplicativo(s) de análise dependendo da parte corporal contida na imagem tridimensional, e modifica a forma de exibição do menu do aplicativo de análise de modo que o(s) aplicativo(s) de análise com maior frequência de uso possam ser selecionados com maior facilidade. A FIG. 13 é um diagrama que ilustra uma condição em que uma lista do menu de aplicativo de análise é exibida na quarta concretização. Na descrição a seguir, presume-se que os aplicativos de análise da artéria coronária, análise da função cardíaca e do grau de calcificação sejam especificados com base nas informações do resultado do reconhecimento de parte corporal, e as frequências de uso dos aplicativos de análise estão na ordem de análise da artéria coronária, análise da função cardíaca e grau de calcificação. Neste caso, como mostra uma tela 24 na FIG. 13, uma lista de um menu de aplicativos de análise contendo análise da artéria coronária, análise da função cardíaca e grau de calcificação é exibida com esses itens de menu dispostos nesta ordem de cima. No caso em que um menu pop-up do menu do aplicativo de análise é exibido, um menu pop-up do menu do aplicativo de análise contendo análise da artéria coronária, análise da função cardíaca e grau de calcificação é exibido com esses itens de menu dispostos nesta ordem a partir de cima, como mostra a FIG. 14.
Além disso, como ilustrado em uma tela 25 na FIG. 15, os itens de menu dos aplicativos de análise podem ser exibidos de modo que o item de menu do aplicativo de análise com uma frequência de uso superiores seja apresentado com tamanho maior. Além disso, como ilustrado em uma tela 26 na FIG. 16, quando a lista do menu de aplicativos de análise é exibida, um ícone da análise da artéria coronária com a maior frequência de uso pode ser exibido em um estado selecionado. Na FIG. 16, o item de menu hachurado representa o estado selecionado. Isso permite que o usuário execute o aplicativo de análise com a maior frequência de uso pelo simples pressionar da tecla de execução do dispositivo de entrada, tal como um teclado, da estação de trabalho de interpretação de imagem 2.
Como descrito acima, na quarta concretização, a forma de exibição do menu de aplicativo de análise é modificada de modo que o aplicativo de análise com maior frequência de uso dos aplicativos de análise especificados possa ser selecionado mais facilmente, reduzindo, portanto, a carga imposta ao usuário durante a seleção do menu.
Deve-se observar que, na terceira concretização, em particular no caso em que uma imagem tridimensional obtida com um sistema CT e uma imagem tridimensional obtida com um sistema SPET são enviadas à estação de trabalho de interpretação de imagem 2 como imagens tridimensionais do mesmo paciente, e se o resultado do reconhecimento da parte corporal for o tórax e a imagem tridimensional obtida com o sistema CT for selecionada como a imagem a ser exibida, o objetivo da imagem tridimensional não é o diagnóstico do pulmão, mas o diagnóstico da função cardíaca. Portanto, neste caso, a forma de exibição do menu de aplicativo de análise pode ser alterada de modo que o aplicativo de análise da função cardíaca, que apresenta grande probabilidade de ser utilizado, possa ser selecionado mais facilmente. A seguir, descreve-se uma quinta concretização da invenção. No caso em que a imagem tridimensional é exibida à maneira da exibição MIP ou exibição VR descritas acima, é possível facilitar o diagnóstico alterando-se o padrão de tonalidade do osso, carne, órgão, etc., dependendo da parte. A diferença entre a primeira concretização e a quinta concretização reside em que, na quinta concretização, especificam-se modelos de cores correspondendo ao resultado do reconhecimento da parte corporal a partir de uma multiplicidade de modelos de cores para modificar o padrão de tonalidade da imagem tridimensional dependendo do resultado do reconhecimento da parte corporal, e uma lista de um menu para selecionar um modelo de cores a partir dos modelos de cores especificados é exibida de modo que a seleção seja realizada somente a partir dos modelos de cores especificados.
Deve-se notar que a estação de trabalho de interpretação de imagem 2 armazena uma tabela que associa cada parte contida na imagem tridimensional com tipos de modelos de cores a serem usados para exibir tridimensionalmente a parte corporal. A FIG. 17 é um diagrama que ilustra um exemplo de uma tabela usada na quinta concretização. Como mostra a FIG. 17, uma tabela T4 associa cada parte aos tipos de modelos de cores. Especificamente, a cabeça é associada aos modelos de cores P1-P5, a garganta é associada aos modelos de cores P6-P10, o tórax é associado aos modelos de cores P11-P20, o tórax-abdômen é associado aos modelos de cores P21-P25, o abdômen é associado aos modelos de cores P26-P30, e a pelve é associada ao modelo de cores P31-P35.
Na quinta concretização, quando o usuário realiza a interpretação de imagem, a estação de trabalho de interpretação de imagem 2 primeiramente obtém a informação associada e a informação do resultado do reconhecimento da parte corporal para cada exame, em resposta a uma instrução do usuário. Em seguida, os modelos de cores são especificados dependendo da parte contida na imagem tridimensional com referência à tabela T4 baseado na informação do resultado do reconhecimento da parte corporal e os modelos de cores especificados são exibidos no meio de exibição. A seguir, descreve-se um processo realizado na quinta concretização. A FIG. 18 é um fluxograma que ilustra o processo realizado na quinta concretização. O processo descrito aqui inclui operações que são realizadas após a informação do resultado do reconhecimento de parte corporal ter sido registrada na base de dados de imagem 4, e o usuário, tal como um médico radiologista, ter alimentado uma instrução de interpretação de imagem à estação de trabalho de interpretação de imagem 2, e até que os modelos de cores especificados sejam exibidos. Quando o usuário tiver alimentado a instrução de interpretação de imagem à estação de trabalho de interpretação de imagem 2, o servidor de imagem 3 lê uma imagem tridimensional registrada junto com a informação associada e a informação do resultado do reconhecimento de parte corporal da mesma a partir da base de dados de imagem 4, e envia a imagem tridimensional, a informação associada e a informação do resultado do reconhecimento de parte corporal à estação de trabalho de interpretação de imagem 2. A estação de trabalho de interpretação de imagem 2 recebe a imagem tridimensional, a informação associada e a informação do resultado do reconhecimento de parte corporal (“recebe informação” na etapa ST11). Em seguida, com base na informação recebida do resultado do reconhecimento da parte corporal, os modelos de cores são especificados dependendo da parte contida na imagem tridimensional com referência à tabeia T4 descrita acima (etapa ST12). Em seguida, exibe-se um menu contendo os modelos de cores especificados junto com a imagem tridimensional (etapa ST13), e o processo termina. A FIG 19 é um diagrama que ilustra uma tela exibida na quinta concretização. Como mostra a FIG. 19, a tela 30 inclui uma imagem VR 31 e uma área de exibição de modelo de cores 32 exibida nela. Na área de exibição de modelo de cores 32, um menu contendo os modelos de cores especificados é exibido. Por exemplo, se a imagem VR 31 for uma imagem do tórax, a parte especificada é o tórax, e portanto, os modelos de cores P11-P20 são exibidos na área de exibição de modelos de cores 32 com referência à tabela T4. Na FIG. 19, itens de menu dos modelos de cores são exibidos na forma de ícones retangulares. Cada item de menu é exibido de modo que uma parte a ser especificada, o estado da tonalidade da parte, etc., possam ser reconhecidos pelo usuário. O usuário pode selecionar um modelo de cores desejado na tela 30 para conferir um padrão de tonalidade desejado à imagem VR 31.
Como descrito acima, na quinta concretização, os modelos de cores usados para exibir a imagem tridimensional são especificados dependendo do resultado do reconhecimento da parte corporal. Portanto, quando se gera uma instrução para exibir a imagem, os modelos de cores a serem usados somente com a imagem tridimensional exibida são exibidos, e, portanto, é possível reduzir a carga imposta ao usuário durante a seleção do modelo de cores.
Deve-se observar que, na quinta concretização descrita acima, todos os modelos de cores disponíveis podem ser exibidos, e somente os modelos de cores especificados podem ser exibidos para serem selecionados com mais facilidade, tal como pela redução da densidade dos modelos de cores que não os modelos de cores especificados.
Além disso, na quinta concretização, a estação de trabalho de interpretação de imagem 2 pode manter um registro do número de usos de cada modelo de cores, e pode modificar a forma de exibição do menu de modelo de cores quando a imagem tridimensional é exibida, de modo que o modelo de cores com maior frequência de uso possa ser selecionado com mais facilidade. Por exemplo, um menu contendo somente os modelos de cores com frequência de uso não menor do que um limiar predeterminado pode ser exibido, pode-se exibir um menu com o reordenamento dos modelos de cores nele contidos na ordem da frequência de uso, ou pode-se dar um tamanho maior a um item de menu do modelo de cores com maior frequência de uso.
Deve-se notar que, além dos aplicativos de análise, os aplicativos necessários para a interpretação da imagem, tal como os aplicativos de processamento de imagem e aplicativos de exibição, são instalados na estação de trabalho de interpretação de imagem 2. Portanto, os menus exibidos dependendo da parte na estação de trabalho de interpretação de imagem 2 não se limitam aos que contêm os aplicativos de análise e aos tipos de modelos de cores, mas podem também incluir outros menus para executar aplicativos de processamento de imagem e aplicativos de exibição instalados na estação de trabalho de interpretação de imagem 2. Por exemplo, se a parte da imagem tridimensional a ser exibida for o tórax, os aplicativos de processamento de imagem para extração de campo pulmonar, extração dos tubos bronquiais, extração do coração, etc., podem geralmente ser executados. Portanto, quando uma imagem axial 41 do tórax, por exemplo, for exibida, como mostra uma tela 40 na FIG. 20, somente um menu contendo aplicativos de processamento de imagem para extração de campo pulmonar, extração dos tubos bronquiais e extração do coração pode ser exibido em uma área de exibição do menu 42.
Além disso, embora o menu seja especificado dependendo do resultado do reconhecimento da parte corporal nas concretizações descritas acima, uma parte de interesse na imagem exibida pode ser reconhecida e o menu pode ser especificado dependendo do resultado do reconhecimento da parte corporal de interesse. Por exemplo, em relação a uma imagem do tórax, um corte no tórax pode ser aberto através da operação do dispositivo de entrada da estação de trabalho de interpretação de imagem 2, e a forma de exibição da imagem tridimensional pode ser alterada de modo que os campos pulmonares e o coração presentes em posições mais profundas em relação à superfície da pele possam ser vistos mais facilmente. Especificamente, no caso em que o dispositivo de entrada é um painel de toque, a imagem pode ser exibida como se o corte fosse aberto quando o usuário toca o painel de toque e efetua o gesto de abrir os dedos, e a forma de exibição pode ser alterada de modo que os campos pulmonares e o coração presentes em posições mais profundas em relação à pele possam ser vistos. Neste caso, a estação de trabalho de interpretação de imagem 2 pode reconhecer a parte de interesse, e o menu pode ser especificado dependendo do resultado do reconhecimento da parte corporal de interesse para exibir o menu especificado.
Além do mais, a imagem tridimensional pode ser exibida em uma forma de exibição VR, exibição MIP, exibição MinlP, ou similar, e a forma de exibição de um menu desses aplicativos de exibição pode ser alterada dependendo do resultado do reconhecimento da parte corporal. Isto é, uma vez que o aplicativo de exibição a ser usado difere, dependendo da parte, a forma de exibição do menu pode ser alterada de modo que um item de menu do aplicativo de exibição com alta probabilidade de ser usado com a parte exibida possa ser selecionado mais facilmente. Por exemplo, a exibição MinlP geralmente é usada para observar os campos pulmonares. Portanto, se uma imagem do tórax ou uma imagem do tórax-abdômen for exibida, o menu pode ser exibido dependendo do resultado do reconhecimento da parte corporal de modo que um item de menu para realizar a exibição MinlP possa ser selecionado com mais facilidade. No caso em que o processamento de redução óssea é aplicado a uma imagem do tórax, é altamente provável que a exibição MIP seja realizada. Portanto, a forma de exibição do menu de exibição pode ser alterada de modo que um item de menu do aplicativo de exibição possa ser selecionado mais facilmente levando em conta um resultado do processamento de imagem aplicado à imagem.
Deve-se notar que um painel sensível a múltiplos toques, que pode aceitar toques de entrada feitos em duas ou mais posições na tela, pode ser usado como o dispositivo de entrada da estação de trabalho de interpretação de imagem 2. Mesmo neste caso, o menu pode ser especificado dependendo do resultado do reconhecimento da parte corporal.

Claims (8)

1. Dispositivo de processamento de imagem, CARACTERIZADO por compreender: meios de exibição para exibição de imagens; meios de obtenção de imagem para obtenção de imagem tridimensional, a imagem tridimensional compreendendo uma multiplicidade de imagens tomográficas obtidas pela geração de imagens tomográficas de um paciente; meios de obtenção de informações da parte corporal para obter informações de um resultado do reconhecimento de parte corporal das partes corporais, dentre as partes corporais do paciente exibidas através dos meios de exibição contidas na imagem tridimensional; meios de especificação de menu para especificar, dentre uma multiplicidade de menus que inclui aplicativos de processamento de imagem para extração de órgãos ou modelos de cores usados para exibição da imagem tridimensional, um menu dependendo de uma parte corporal baseado na informação do resultado do reconhecimento da parte corporal; e meios de controle de exibição para exibir o menu especificado no meio de exibição.
2. Dispositivo de processamento de imagem, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que os meios de especificação de menu especificam o menu dependendo também da informação do usuário de um usuário que utiliza a imagem tridimensional.
3. Dispositivo de processamento de imagem, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que os meios de especificação de menu especificam o menu dependendo também do tipo de modalidade usada para obtenção da imagem tridimensional.
4. Dispositivo de processamento de imagem, de acordo com qualquer uma das reivindicações 1 a 3, CARACTERIZADO pelo fato de que: o meio de exibição é equipado com um meio de entrada do tipo sensível ao toque; e o meio de controle de exibição muda o formato de exibição de uma imagem que está sendo exibida de acordo com o que está entrando através do meio de entrada.
5. Dispositivo de processamento de imagem, de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que: os meios de especificação de menu especificam um menu de acordo com uma parte corporal, dentre uma multiplicidade de menus para selecionar o aplicativo de processamento de imagem para extração de órgão; e os meios de obtenção de informação de parte corporal obtém informação do resultado do reconhecimento de parte corporal dentro das imagens axiais exibidas.
6. Dispositivo de processamento de imagem, de acordo com qualquer uma das rei- vindicações 1 a 5, CARACTERIZADO pelo fato de que: os meios de especificação de menu especificam um menu de acordo com a parte corporal, dentre uma multiplicidade de menus para selecionar os modelos de cores; e os meios de exibição de imagem gravam um registro (log) do numero de vezes em que os modelos de cores são utilizados e exibem o menu especificado dentre a multiplicidade de menus em um tamanho maior de modo que um menu que é utilizado mais frequentemente é mais prontamente selecionado.
7. Método de processamento de imagem CARACTERIZADO por fazer com que um computador execute as etapas de: obter uma imagem tridimensional, a imagem tridimensional compreendendo uma multiplicidade de imagens tomográficas obtidas pela geração de imagens tomográficas de um paciente; obter informações de um resultado do reconhecimento da parte corporal das partes corporais, dentre as partes corporais do paciente exibidas através de um meio de exibição contidas na imagem tridimensional; especificar, dentre uma multiplicidade de menus que incluem aplicativos de processamento de imagem para extração de órgão ou modelos de cores usados para exibição da imagem tridimensional, um menu, dependendo de uma parte corporal baseado na informação do resultado do reconhecimento da parte corporal; e exibir o menu especificado em um meio de exibição.
8. Programa de processamento de imagem, CARACTERIZADO por fazer com que um computador funcione como: meio de exibição para exibição de imagens; meio de obtenção de imagem para obtenção de uma imagem tridimensional, a imagem tridimensional compreendendo uma multiplicidade de imagens tomográficas obtidas pela geração de imagens tomográficas de um paciente; meio de obtenção de informações de uma parte corporal para obtenção de informações de um resultado do reconhecimento da parte corporal das partes corporais, dentre as partes corporais do paciente exibidas através de um meio de exibição contidas na imagem tridimensional; meio de especificação de menu para especificar, dentre uma multiplicidade de menus que incluem aplicativos de processamento de imagem para extração de órgão ou modelos de cores usados para exibição da imagem tridimensional, um menu dependendo de uma parte corporal baseado na informação do resultado do reconhecimento da parte corporal; e meio de controle de exibição para exibição do menu especificado em um meio de exibição.
BR122013007310A 2009-03-31 2010-03-30 dispositivo, método e programa de processamento de imagem BR122013007310A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009083931 2009-03-31
BRPI1004218A BRPI1004218A2 (pt) 2009-03-31 2010-03-30 dispositivo e método de processamento de imagem, e programa
PCT/JP2010/002306 WO2010113479A1 (ja) 2009-03-31 2010-03-30 画像処理装置および方法並びにプログラム

Publications (1)

Publication Number Publication Date
BR122013007310A2 true BR122013007310A2 (pt) 2016-03-22

Family

ID=42827789

Family Applications (2)

Application Number Title Priority Date Filing Date
BRPI1004218A BRPI1004218A2 (pt) 2009-03-31 2010-03-30 dispositivo e método de processamento de imagem, e programa
BR122013007310A BR122013007310A2 (pt) 2009-03-31 2010-03-30 dispositivo, método e programa de processamento de imagem

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BRPI1004218A BRPI1004218A2 (pt) 2009-03-31 2010-03-30 dispositivo e método de processamento de imagem, e programa

Country Status (8)

Country Link
US (1) US9144407B2 (pt)
EP (2) EP2583626B1 (pt)
JP (3) JP4596437B2 (pt)
CN (1) CN102164543B (pt)
AU (1) AU2010231365A1 (pt)
BR (2) BRPI1004218A2 (pt)
CA (1) CA2733519A1 (pt)
WO (1) WO2010113479A1 (pt)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2010231365A1 (en) * 2009-03-31 2010-10-07 Fujifilm Corporation Image processing apparatus and method and program
WO2011037063A1 (ja) * 2009-09-24 2011-03-31 株式会社 日立メディコ 投影像生成方法および磁気共鳴イメージング装置
CN103140160B (zh) * 2011-03-30 2015-06-17 奥林巴斯医疗株式会社 图像管理装置、图像管理装置的工作方法以及胶囊型内窥镜系统
US8904517B2 (en) 2011-06-28 2014-12-02 International Business Machines Corporation System and method for contexually interpreting image sequences
JP6000539B2 (ja) * 2011-12-12 2016-09-28 株式会社根本杏林堂 医療用画像処理システム
JP6000538B2 (ja) * 2011-12-12 2016-09-28 株式会社根本杏林堂 医療用画像処理システム
JP5878009B2 (ja) * 2011-12-12 2016-03-08 株式会社根本杏林堂 医療用画像処理ネットワークシステム
JP5972609B2 (ja) * 2012-03-05 2016-08-17 東芝メディカルシステムズ株式会社 管理オブジェクト生成装置および画像表示システム
WO2013143087A1 (zh) * 2012-03-28 2013-10-03 宇龙计算机通信科技(深圳)有限公司 操作对象的纠错方法及通信终端
JP6143425B2 (ja) * 2012-06-11 2017-06-07 東芝メディカルシステムズ株式会社 X線診断装置
WO2014099942A1 (en) * 2012-12-21 2014-06-26 Volcano Corporation Display control for a multi-sensor medical device
JP2015085182A (ja) * 2013-09-26 2015-05-07 株式会社東芝 医用画像診断装置、医用画像表示装置、および医用画像表示方法
JP6266310B2 (ja) * 2013-11-08 2018-01-24 東芝メディカルシステムズ株式会社 医用情報処理装置
JP6289064B2 (ja) * 2013-12-09 2018-03-07 キヤノンメディカルシステムズ株式会社 医療情報システム及び推奨アプリケーションの検索方法
JP6563170B2 (ja) * 2013-12-09 2019-08-21 キヤノンメディカルシステムズ株式会社 医療情報システム及び医療情報提供方法
WO2016097909A1 (en) * 2014-12-16 2016-06-23 Koninklijke Philips N.V. Automatic radiology reading session detection
EP3073401A1 (en) * 2015-03-27 2016-09-28 Fujifilm Corporation Failed image management apparatus, operation method of failed image management apparatus, and failed image management system
DE112016003634T5 (de) * 2015-09-09 2018-04-26 Fujifilm Corporation Zuordnungsbild-anzeigesteuervorrichtung, -verfahren und -programm
JP6378715B2 (ja) * 2016-04-21 2018-08-22 ゼネラル・エレクトリック・カンパニイ 血管検出装置、磁気共鳴イメージング装置、およびプログラム
JP6797557B2 (ja) * 2016-05-17 2020-12-09 キヤノンメディカルシステムズ株式会社 医用画像診断装置、医用画像処理装置および画像表示プログラム
JP6812193B2 (ja) * 2016-10-07 2021-01-13 キヤノン株式会社 画像表示システム、画像表示方法、及びプログラム
CN107404577B (zh) * 2017-07-20 2019-05-17 维沃移动通信有限公司 一种图像处理方法、移动终端及计算机可读存储介质
WO2019138773A1 (ja) * 2018-01-10 2019-07-18 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
JP7105927B2 (ja) * 2019-01-30 2022-07-25 富士フイルム株式会社 医用画像解析装置、方法およびプログラム
JP7272149B2 (ja) * 2019-07-08 2023-05-12 コニカミノルタ株式会社 選択支援システム及びプログラム
JP7236974B2 (ja) * 2019-10-03 2023-03-10 富士フイルム株式会社 診療支援装置、診療支援方法、及び診療支援プログラム
KR20240041355A (ko) * 2021-07-28 2024-03-29 아트리아 리미티드 관상동맥질환 분석 시스템

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0443957A (ja) * 1990-06-11 1992-02-13 Hitachi Ltd 超音波撮像方式
JP4260938B2 (ja) * 1998-10-23 2009-04-30 株式会社東芝 3次元超音波診断装置
US6608650B1 (en) * 1998-12-01 2003-08-19 Flashpoint Technology, Inc. Interactive assistant process for aiding a user in camera setup and operation
JP4545971B2 (ja) 2001-03-05 2010-09-15 日本電信電話株式会社 医用画像識別システム,医用画像識別処理方法,医用画像識別用プログラムおよびその記録媒体
JP3766033B2 (ja) 2001-04-25 2006-04-12 富士写真フイルム株式会社 画像処理方法および装置並びにプログラム
JP2003284705A (ja) * 2002-03-27 2003-10-07 Konica Corp 医用画像処理装置、画像処理パラメータの設定方法、プログラム、記憶媒体
WO2004028375A1 (ja) * 2002-09-27 2004-04-08 Olympus Corporation 超音波診断装置
US20060008143A1 (en) * 2002-10-16 2006-01-12 Roel Truyen Hierachical image segmentation
US20040100505A1 (en) * 2002-11-21 2004-05-27 Cazier Robert Paul System for and method of prioritizing menu information
JP4401121B2 (ja) * 2003-07-17 2010-01-20 株式会社日立メディコ 異常陰影検出装置
US20060064321A1 (en) * 2004-08-25 2006-03-23 Konica Minolta Medical & Graphic, Inc. Medical image management system
JP2006061278A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc 医用画像表示装置
JP4709600B2 (ja) * 2005-07-15 2011-06-22 株式会社東芝 X線診断装置、撮影角度最適化支援装置及びプログラム
CN2868194Y (zh) * 2005-11-02 2007-02-14 华南理工大学 X光图像的乳腺病症特征自动识别装置
CN1965752A (zh) * 2005-11-15 2007-05-23 乐金电子(沈阳)有限公司 具有检测功能的图像显示装置及其控制方法
JP4690204B2 (ja) 2006-01-16 2011-06-01 富士フイルム株式会社 画像再生装置およびそのプログラム
JP4855141B2 (ja) * 2006-05-19 2012-01-18 富士フイルム株式会社 医用画像部位認識装置、及び、医用画像部位認識プログラム
WO2008001928A1 (fr) * 2006-06-30 2008-01-03 Fujifilm Corporation Appareil d'affichage d'image médicale et programme d'affichage d'image médicale
CN200984178Y (zh) * 2006-08-31 2007-12-05 深圳市国基科技有限公司 数字乳腺多功能影像系统
JP2008253681A (ja) * 2007-04-09 2008-10-23 Toshiba Corp 医用支援システム、及び医用支援プログラム
JP2008259682A (ja) 2007-04-12 2008-10-30 Fujifilm Corp 部位認識結果修正装置、方法、およびプログラム
US8081811B2 (en) * 2007-04-12 2011-12-20 Fujifilm Corporation Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
JP2008259710A (ja) * 2007-04-12 2008-10-30 Fujifilm Corp 画像処理方法および装置ならびにプログラム
AU2010231365A1 (en) * 2009-03-31 2010-10-07 Fujifilm Corporation Image processing apparatus and method and program

Also Published As

Publication number Publication date
JP2011025056A (ja) 2011-02-10
JP4694651B2 (ja) 2011-06-08
JPWO2010113479A1 (ja) 2012-10-04
EP2316341A1 (en) 2011-05-04
WO2010113479A1 (ja) 2010-10-07
EP2583626A1 (en) 2013-04-24
JP2011011069A (ja) 2011-01-20
BRPI1004218A2 (pt) 2016-02-23
CN102164543B (zh) 2013-03-20
EP2316341A4 (en) 2011-09-14
AU2010231365A1 (en) 2010-10-07
US20110131528A1 (en) 2011-06-02
CN102164543A (zh) 2011-08-24
CA2733519A1 (en) 2010-10-07
US9144407B2 (en) 2015-09-29
EP2316341B1 (en) 2013-03-06
EP2583626B1 (en) 2015-03-18
JP4634539B2 (ja) 2011-02-16
JP4596437B2 (ja) 2010-12-08

Similar Documents

Publication Publication Date Title
BR122013007310A2 (pt) dispositivo, método e programa de processamento de imagem
JP5222082B2 (ja) 情報処理装置およびその制御方法、データ処理システム
JP2019169049A (ja) 医用画像特定装置、方法およびプログラム
JP2019153249A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP5539478B2 (ja) 情報処理装置および情報処理方法
JP2011120825A (ja) 医用画像表示装置および方法並びにプログラム
JP2024009342A (ja) 文書作成支援装置、方法およびプログラム
US20230005580A1 (en) Document creation support apparatus, method, and program
US20220392619A1 (en) Information processing apparatus, method, and program
JP2022001241A (ja) 医用情報処理装置、医用情報処理システム、医用情報処理方法、およびプログラム
JP7368592B2 (ja) 文書作成支援装置、方法およびプログラム
JPWO2020066132A1 (ja) 医用画像診断支援装置、方法及びプログラム
WO2022215530A1 (ja) 医用画像装置、医用画像方法、及び医用画像プログラム
JP7436698B2 (ja) 医用画像処理装置、方法およびプログラム
JP2010244224A (ja) 画像表示装置および方法並びにプログラム
US20230360213A1 (en) Information processing apparatus, method, and program
WO2023199956A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230281810A1 (en) Image display apparatus, method, and program
WO2023054646A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023157957A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
EP3977916A1 (en) Medical document creation device, method, and program, learning device, method, and program, and learned model
JP2023102155A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2024044922A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2023067186A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2021189962A (ja) 医用情報処理装置、医用情報処理システム、医用情報処理方法、およびプログラム

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]
B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2467 DE 17/04/2018.