WO2023048268A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2023048268A1
WO2023048268A1 PCT/JP2022/035536 JP2022035536W WO2023048268A1 WO 2023048268 A1 WO2023048268 A1 WO 2023048268A1 JP 2022035536 W JP2022035536 W JP 2022035536W WO 2023048268 A1 WO2023048268 A1 WO 2023048268A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
attribute information
images
image
region
Prior art date
Application number
PCT/JP2022/035536
Other languages
English (en)
French (fr)
Inventor
栄一 今道
拓矢 湯澤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to DE112022003698.2T priority Critical patent/DE112022003698T5/de
Publication of WO2023048268A1 publication Critical patent/WO2023048268A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and an information processing program.
  • CAD Computer-Aided Detection/Diagnosis
  • classifiers trained by deep learning, etc.
  • structures of interest such as lesions included in medical images are detected and/or diagnosed. is being done.
  • Japanese Patent Application Laid-Open No. 2019-153250 discloses generating sentences to be described in an interpretation report based on the analysis results of medical images by CAD. .
  • the present disclosure provides an information processing device, an information processing method, and an information processing program capable of easily designating a desired image.
  • a first aspect of the present disclosure is an information processing device comprising at least one processor, the processor acquiring a group of spatially or temporally continuous images to which mutually independent attribute information is assigned. , a slider bar for receiving an operation for selecting an image to be displayed on the display from among a group of images is displayed on the display by changing the display form based on the attribute information given to each image.
  • the processor expands a portion of the slider bar corresponding to the image in the range determined based on the designated attribute information among the group of images and displays it on the display. may be displayed.
  • the processor may cause markers of different forms to be displayed at corresponding positions of the slider bar according to the attribute information for each image. good.
  • the processor places a marker at a corresponding position of the slider bar for the image to which the designated attribute information is assigned. may be displayed.
  • a fifth aspect of the present disclosure is any one of the first to fourth aspects, wherein each of the group of images includes a region of interest, and the attribute information indicates an attribute of the region of interest can be anything.
  • the region of interest may be a structural region included in the image.
  • the region of interest may be an abnormal shadow region included in the image.
  • the region of interest may be a region specified by the user and included in the image.
  • the attribute information may indicate the type of the region of interest.
  • the attribute information may indicate a feature amount of the region of interest.
  • the processor extracts a region of interest for each of the group of images, and uses the feature amount of the extracted region of interest as Based on this, attribute information may be generated.
  • the processor may add information indicating an extraction method used to extract the region of interest to the image from which the region of interest is extracted as attribute information.
  • the attribute information may indicate the purpose for which the image was captured.
  • the attribute information may be input by the user.
  • a fifteenth aspect of the present disclosure is an information processing method, which acquires a group of spatially or temporally continuous images to which attribute information independent of each other is assigned, and displays the group of images on a display. It includes a process of changing the display mode based on the attribute information given to each image and displaying it on the display with respect to the slider bar for receiving the operation of selecting the image.
  • a sixteenth aspect of the present disclosure is an information processing program that acquires a group of spatially or temporally continuous images to which mutually independent attribute information is assigned, and displays the group of images on a display. This is for causing a computer to execute a process of changing the display form of a slider bar for accepting an operation of selecting an image based on attribute information given to each image and displaying the slider bar on the display.
  • the information processing device, information processing method, and information processing program of the present disclosure can easily designate a desired image.
  • FIG. 1 is a schematic configuration diagram of an information processing system;
  • FIG. 1 is a schematic diagram showing an example of a medical image;
  • FIG. It is a block diagram which shows an example of the hardware constitutions of an information processing apparatus.
  • 1 is a block diagram showing an example of a functional configuration of an information processing device;
  • FIG. It is a figure which shows an example of a tomographic image.
  • It is a figure which shows an example of attribute information.
  • It is a figure which shows an example of the screen displayed on a display.
  • It is a figure which shows an example of the screen displayed on a display.
  • 4 is a flowchart showing an example of first information processing;
  • It is a figure which shows an example of the screen displayed on a display.
  • 9 is a flowchart showing an example of second information processing; It is a figure which shows an example of the screen displayed on a display.
  • FIG. 1 is a diagram showing a schematic configuration of an information processing system 1.
  • the information processing system 1 includes a photographing device 2 , an image server 4 , an image DB (DataBase) 5 , a report server 6 , a report DB 7 and an information processing device 10 .
  • the photographing device 2 , the image server 4 , the report server 6 and the information processing device 10 are connected to communicate with each other via a wired or wireless network 8 .
  • the imaging device 2 is a device that generates a medical image G representing the diagnostic target region by imaging the diagnostic target region of the subject. Specifically, as the imaging device 2, a CT device, an MRI device, a PET (Positron Emission Tomography) device, or the like can be applied as appropriate. The imaging device 2 also transmits the captured medical image to the image server 4 .
  • FIG. 2 is a diagram schematically showing an example of the medical image G.
  • the medical image G is, for example, a CT image composed of a plurality of tomographic images T000 to Tm (where m is 001 or more) representing tomographic planes from the head to the waist of one subject (human body).
  • Multiple tomographic images T000 to Tm are examples of multiple images of the present disclosure.
  • the multiple tomographic images T000 to Tm are an example of a group of spatially continuous images.
  • tomographic image T when each of the plurality of tomographic images T000 to Tm is not distinguished, they are simply referred to as "tomographic image T".
  • the image server 4 is a general-purpose computer installed with a software program that provides the functions of a database management system (DBMS).
  • DBMS database management system
  • the image server 4 is connected with the image DB 5 .
  • the form of connection between the image server 4 and the image DB 5 is not particularly limited, and may be a form of connection via a data bus, or a form of connection via a network such as NAS (Network Attached Storage) or SAN (Storage Area Network). It may be in the form of
  • the image DB 5 is realized by storage media such as HDD (Hard Disk Drive), SSD (Solid State Drive), and flash memory.
  • the medical image G captured by the imaging device 2 and the attached information attached to the medical image G are recorded in the image DB 5 in association with each other.
  • the attached information includes, for example, an image ID (identification) for identifying a medical image G, a tomographic ID for identifying a tomographic image T, a subject ID for identifying a subject, an examination ID for identifying an examination, and the like. identification information may be included.
  • the additional information may include various information related to imaging such as the date and time of imaging, the site of imaging, the type of the imaging apparatus 2 with which the medical image G was captured, imaging conditions, and contrast conditions.
  • the attached information may include information about the subject such as the subject's name, age, and sex.
  • the image server 4 When the image server 4 receives the medical image G from the imaging device 2 , it prepares the medical image G into a database format and records it in the image DB 5 . Further, upon receiving a viewing request for a medical image G from the information processing apparatus 10, the image server 4 searches for the medical images G recorded in the image DB 5, and sends the retrieved medical image G to the information processing apparatus that requested viewing. Send to 10.
  • the report server 6 is a general-purpose computer installed with a software program that provides database management system functions.
  • the report server 6 is connected with the report DB 7 .
  • the form of connection between the report server 6 and the report DB 7 is not particularly limited, and may be a form of connection via a data bus or a form of connection via a network such as NAS or SAN.
  • the report DB 7 is realized, for example, by storage media such as HDD, SSD and flash memory.
  • An interpretation report generated based on the medical image G in the information processing apparatus 10 is recorded in the report DB 7 .
  • the interpretation report recorded in the report DB 7 may be input by the radiogram interpreter using the information processing apparatus 10, or may be generated by a computer based on CAD analysis results.
  • the report server 6 Upon receiving the interpretation report from the information processing apparatus 10, the report server 6 formats the interpretation report into a database format and records it in the report DB7. Further, when receiving a viewing request for an interpretation report from the information processing apparatus 10, the report server 6 searches for the interpretation report recorded in the report DB 7, and transmits the retrieved interpretation report to the information processing apparatus 10 that requested the viewing. do.
  • the network 8 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), or the like.
  • the imaging device 2, the image server 4, the image DB 5, the report server 6, the report DB 7, and the information processing device 10 included in the information processing system 1 may be located in the same medical institution, or may be located in different medical institutions. may be placed in 1, each of the image capturing device 2, the image server 4, the image DB 5, the report server 6, the report DB 7, and the information processing device 10 is illustrated one by one. It may be composed of a plurality of devices each having the same function.
  • the information processing apparatus 10 restricts the display of only the tomographic images T of interest among the plurality of tomographic images T captured by the imaging device 2, thereby facilitating image interpretation and diagnosis. It has a function of assisting the user to easily designate a desired tomographic image T when the user selects the desired tomographic image. A detailed configuration of the information processing apparatus 10 will be described below.
  • the information processing apparatus 10 includes a CPU (Central Processing Unit) 21, a non-volatile storage unit 22, and a memory 23 as a temporary storage area.
  • the information processing apparatus 10 includes a display 24 such as a liquid crystal display, an input unit 25 such as a keyboard, mouse, touch panel and buttons, and a network I/F (Interface) 26 .
  • a network I/F 26 is connected to the network 8 and performs wired or wireless communication.
  • the CPU 21, the storage unit 22, the memory 23, the display 24, the input unit 25, and the network I/F 26 are connected via a bus 28 such as a system bus and a control bus so that various information can be exchanged with each other.
  • the storage unit 22 is realized by storage media such as HDD, SSD, and flash memory, for example.
  • An information processing program 27 for the information processing apparatus 10 is stored in the storage unit 22 .
  • the CPU 21 reads out the information processing program 27 from the storage unit 22 , expands it in the memory 23 , and executes the expanded information processing program 27 .
  • CPU 21 is an example of a processor of the present disclosure.
  • the information processing device 10 includes an acquisition unit 30, an extraction unit 32, and a display control unit .
  • the CPU 21 functions as an acquisition unit 30 , an extraction unit 32 and a display control unit 34 by executing the information processing program 27 by the CPU 21 .
  • the acquisition unit 30 acquires multiple tomographic images T from the image server 4 .
  • the tomographic image T is an image representing a tomographic plane of the human body, as described above. Therefore, each tomographic image T includes various organs of the human body (for example, brain, lung, liver, etc.) and various tissues (for example, blood vessels, nerves, muscles, etc.) constituting the various organs. , referred to as “structure area SA”).
  • each tomographic image T includes abnormal shadow areas (hereinafter referred to as "abnormal areas AA”) such as lesions (e.g., tumors, injuries, defects, nodules, inflammation, etc.) and areas blurred by imaging. obtain.
  • FIG. 5 shows a lung tomographic image T100 as an example of the tomographic image T. As shown in FIG. In the tomographic image T100, the lung region is the structure region SA, and the nodule region is the abnormal region AA.
  • the extraction unit 32 extracts a region of interest for each of the plurality of tomographic images T.
  • a region of interest is a region that is noted in interpretation and diagnosis, and is, for example, at least one of a structure region SA and an abnormal region AA. That is, each of the multiple tomographic images T includes a region of interest.
  • a method for extracting the region of interest a method using known AI (Artificial Intelligence) technology, a method using image processing, or the like can be appropriately applied.
  • the region of interest may be extracted from the tomographic image T using a learned model trained to extract and output the region of interest from the tomographic image T as an input.
  • image processing such as binarization, background removal, and edge enhancement
  • the edges of the structure area SA and the abnormal area AA may be specified and extracted as the region of interest. good.
  • the extraction unit 32 generates attribute information indicating attributes of the extracted region of interest, and attaches it to the tomographic image T from which the region of interest is extracted. That is, attribute information independent of each other is assigned to each of the plurality of tomographic images T.
  • the attribute information is, for example, information indicating the type of the region of interest.
  • the type of structure represented by the structure region SA included in the tomographic image T, and the abnormal region AA is information indicating the type of lesion represented by .
  • a known CAD specifying method can be appropriately applied as a known CAD specifying method can be appropriately applied.
  • FIG. 6 shows an example of attribute information generated by the extraction unit 32 and assigned to each of the plurality of tomographic images T.
  • FIG. The column of "tomographic ID" in FIG. 6 shows the identification information of the tomographic images T assigned in order from the head side to the waist side of the subject.
  • Attribute information indicating the type of organ represented by the structure area SA extracted from the tomographic image T is shown in the “organ” column.
  • Attribute information indicating the type of lesion represented by the abnormal area AA extracted from the tomographic image T is shown in columns of “lesion 1” to “lesion 3”.
  • a plurality of pieces of attribute information may be assigned to one tomographic image T, only one attribute information may be assigned, or none may be assigned.
  • the display control unit 34 controls the display 24 to display a screen for a user such as an interpreting doctor to check the tomographic image T.
  • FIG. 7 shows an example of a screen D1 displayed on the display 24 by the display control unit 34.
  • the screen D1 includes a slider bar 80 for receiving an operation of selecting a tomographic image T to be displayed on the display 24 from among the plurality of tomographic images T.
  • FIG. The slider bar 80 is a GUI (Graphical User Interface) part also called a slide bar and a scroll bar.
  • the example of the screen D1 corresponds to a plurality of tomographic images T arranged in order from the head side to the waist side from the top end to the bottom end.
  • the display control unit 34 receives an operation of the position of the slider 82 on the slider bar 80 by the user via the input unit 25, and displays one tomographic image T ( In the example of FIG. 7, the tomographic image T100) is displayed on the screen D1.
  • a dotted arrow attached to the slider 82 in FIG. 7 indicates the range of motion of the slider 82 on the slider bar 80.
  • the display control unit 34 displays markers 94 having different forms at corresponding positions of the slider bar 80 according to the attribute information given to each tomographic image T.
  • the screen D1 of FIG. 7 includes markers 94 of different shapes arranged beside the slider bar 80 .
  • the marker 94 indicates the position on the slider bar 80 of the tomographic image T from which the abnormal area AA has been extracted (that is, the tomographic image T including the lesion) among the plurality of tomographic images T.
  • FIG. The form of the marker 94 is determined according to the attribute information indicating the type of lesion assigned to the tomographic image T (see FIG. 8).
  • the markers 94 may be color-coded according to attribute information indicating the type of lesion.
  • the structure and/or lesion desired to be interpreted and diagnosed are predetermined, and only the tomographic image T including the structure and/or lesion is displayed on the display 24. In some cases, it is sufficient to have Therefore, there is a demand for a technique that facilitates selection of a tomographic image T to be displayed on the display 24, that is, a tomographic image T that includes a structure and/or a lesion desired for interpretation and diagnosis.
  • the display control unit 34 limits the tomographic images T that can be displayed on the display 24 among the plurality of tomographic images T based on the attribute information generated by the extracting unit 32 . Specifically, the display control unit 34 performs control to enable display of only the tomographic images T to which the designated attribute information is assigned, among the plurality of tomographic images T.
  • the display control unit 34 A specific example of processing by the display control unit 34 will be described with reference to FIGS.
  • a configuration will be described in which the tomographic images T that can be displayed on the display 24 are limited among the plurality of tomographic images T by limiting the operable range of the slider bar 80 based on the attribute information. do.
  • the "operable range of the slider bar 80" may include a portion corresponding to at least one tomographic image T on the slider bar 80. may include ranges and locations.
  • the display control unit 34 may determine the tomographic image T that can be displayed on the display 24 according to attribute information (see FIG. 6) indicating the type of organ included in the tomographic image T.
  • the screen D1 of FIG. 7 includes an organ specification field 90 for accepting specification of the type of organ.
  • the display control unit 34 displays various organs (for example, brain, lung, liver, gallbladder, pancreas, kidney, etc.) as icons that can be specified in the organ specification field 90, and accepts specification of at least one type of organ by the user. .
  • the display control unit 34 displays only the tomographic image T to which the attribute information indicating the organ indicated by the designated icon is added.
  • the operable range of the slider bar 80 is restricted so as to be selectable.
  • FIG. 8 shows an example of the screen D2 displayed on the display 24 by the display control unit 34 when the icon indicating "lungs" is specified in the organ specification field 90 of the screen D1.
  • the range of motion of the slider 82 (illustrated by the dotted arrow) is restricted so that only the tomographic image T to which the attribute information indicating "lung” (see FIG. 6) is added can be selected.
  • the display control unit 34 may highlight the range of motion of the slider 82 (that is, the operable range of the slider bar 80) by changing the background color or the like.
  • the display control unit 34 may determine the tomographic image T that can be displayed on the display 24 according to the attribute information (see FIG. 6) indicating the type of lesion included in the tomographic image T.
  • the screen D2 of FIG. 8 includes a lesion designation field 92 for receiving designation of the type of lesion related to the “lung” designated in the organ designation field 90 .
  • the display control unit 34 displays various lesions (for example, nodules, calcifications, spicules, ground-glass opacities, etc.) in the lesion designation field 92 as selectable check boxes, and accepts designation of at least one type of lesion by the user.
  • the lesion designation column 92 in FIG. 8 also includes a marker 94 corresponding to each lesion and the number of tomographic images T to which attribute information indicating each lesion is assigned.
  • the display control unit 34 can select only the tomographic image T to which attribute information indicating the designated lesion is added.
  • the operable range of the slider bar 80 is limited so as to FIG. 9 shows an example of a screen D3 displayed on the display 24 by the display control unit 34 when "nodule" is specified in the lesion specification field 92 of the screen D2.
  • the range of motion of the slider 82 is restricted so that only the tomographic image T to which the attribute information indicating "nodule" (see FIG. 6) is added can be selected. .
  • the display control unit 34 may perform control to display the marker 94 at the corresponding position of the slider bar 80 for the tomographic image T to which the specified attribute information is added. That is, the display control unit 34 may perform control to display only the marker 94 corresponding to the designated attribute information. In the example of the screen D3 in FIG. 9, the marker 94 is displayed at the position corresponding to the slider bar 80 for the tomographic image T to which attribute information indicating the specified "nodule" is added.
  • the CPU 21 executes the information processing program 27 to execute the first information processing shown in FIG.
  • the first information processing is executed, for example, when the user gives an instruction to start execution via the input unit 25 .
  • step S10 the acquisition unit 30 acquires a plurality of images (tomographic images T) from the image server 4.
  • the extraction unit 32 extracts a region of interest from each of the plurality of images acquired at step S10.
  • step S14 the extraction unit 32 generates attribute information indicating the attribute of the region of interest extracted in step S12, and assigns it to the image from which the region of interest is extracted.
  • step S16 the display control unit 34 causes the display 24 to display a screen in which images that can be displayed on the display 24 are restricted based on the attribute information given in step S14, and ends the first information processing.
  • the information processing device 10 includes at least one processor, the processor acquires a plurality of images to which mutually independent attribute information is assigned, and based on the attribute information , restricts the images that can be displayed on the display among a plurality of images. That is, according to the information processing apparatus 10 according to the present exemplary embodiment, it is possible to limit the display of only the tomographic image T of interest among the plurality of tomographic images T, so that when performing interpretation and diagnosis, a desired image can be displayed. A tomographic image T can be easily specified.
  • the display control unit 34 controls to display only the tomographic image T to which the specified attribute information is assigned, among the plurality of tomographic images T.
  • the display control unit 34 may perform control so that only the tomographic image T in the range determined based on the specified attribute information can be displayed. For example, the display control unit 34 selects the first (that is, the most head-side) tomographic image T to which the specified attribute information is assigned, the last (that is, the waist-most) tomographic image that is assigned the specified attribute information.
  • the operable range of the slider bar 80 may be limited so that all tomographic images T included in the range up to the tomographic image T can be selected.
  • the tomographic images T that can be displayed may include the tomographic images T to which the specified attribute information is not assigned. According to such a mode, even if attribute information is not added, a tomographic image T to which attribute information desired to be displayed is likely to be added can be displayed.
  • the display control unit 34 may perform control to enable display of the tomographic image T to which other attribute information is added, which is associated in advance with the specified attribute information. For example, when attribute information indicating "nodule" is designated, the display control unit 34 may perform control to enable display of a tomographic image T to which attribute information indicating "lung” is added. Further, for example, when the attribute information indicating "lung" is specified, the display control unit 34 assigns the attribute information indicating any lesion among the tomographic images T to which the attribute information indicating "lung” is assigned. Control may be performed to enable display of only the tomographic image T obtained.
  • the display control unit 34 limits the tomographic images T that can be displayed on the display 24 among the plurality of tomographic images T by limiting the operable range of the slider bar 80. Although the form which carries out was demonstrated, it does not restrict to this. For example, when the display control unit 34 causes the display 24 to display the tomographic IDs of all the tomographic images T in a list format, it controls to display only the tomographic IDs of the tomographic images T to which the specified attribute information is assigned. may
  • the information processing apparatus 10 changes the form of the slider bar 80 so as to facilitate selection of a tomographic image T of interest from among a plurality of tomographic images T, thereby performing interpretation and diagnosis. has a function of assisting the user to easily designate a desired tomographic image T. Since the configuration of the information processing system 1 according to this exemplary embodiment is the same as that of the first exemplary embodiment, description thereof is omitted. Also, regarding the information processing apparatus 10 according to the present exemplary embodiment, the hardware configuration and the functions of the acquisition unit 30 and the extraction unit 32 are the same as those of the first exemplary embodiment, so description thereof will be omitted.
  • the display control unit 34 controls the slider bar 80 for receiving an operation of selecting a tomographic image T to be displayed on the display 24 from among the group of tomographic images T acquired by the acquiring unit 30.
  • the display form is changed based on the information and displayed on the display 24 .
  • the display control unit 34 enlarges the portion of the slider bar 80 corresponding to the range of tomographic images T determined based on the designated attribute information among the group of tomographic images T and causes the display 24 to display the enlarged portion. .
  • FIG. 11 shows an example of a screen D4 displayed on the display 24 by the display control unit 34.
  • the screen D4 is displayed on the display 24 by the display control unit 34 when the attribute information indicating "lungs" is specified, similarly to the screen D2 (see FIG. 8) described in the first exemplary embodiment. is the screen.
  • the screen D4 includes a tomographic image T100, an organ designation field 90, a lesion designation field 92, and a marker 94 similar to the screen D2.
  • the slider bar 80E on the screen D4 is an enlarged view of the portion 84 (see FIG. 8) of the slider bar 80 on the screen D2.
  • a portion 84 is a portion of the slider bar 80 corresponding to the tomographic image T to which attribute information indicating "lung” is added.
  • the slider bar 80E has the attribute information indicating "lung” added from the first tomographic image T (that is, the one closest to the head) added with the attribute information indicating "lung” from the top to the bottom. It corresponds to a plurality of tomographic images T up to the last tomographic image T (that is, closest to the waist). According to the enlarged slider bar 80E, the selection of the tomographic image T can be accepted by effectively utilizing the upper end to the lower end of the slider bar 80E.
  • the display control unit 34 also changes the position of the marker 94 in correspondence with the enlargement of the portion 84 of the slider bar 80 .
  • the markers 94 may be clustered together to reduce their visibility.
  • the visibility of the marker 94 can be improved by changing the position of the marker 94 corresponding to the enlargement of the portion 84 of the slider bar 80 by the display control unit 34 .
  • the CPU 21 executes the information processing program 27 to execute the second information processing shown in FIG.
  • the second information processing is executed, for example, when the user gives an instruction to start execution via the input unit 25 .
  • step S20 the acquisition unit 30 acquires a group of images (tomographic images T) from the image server 4.
  • the extraction unit 32 extracts a region of interest from each of the group of images acquired at step S20.
  • step S24 the extraction unit 32 generates attribute information indicating the attribute of the region of interest extracted in step S22, and assigns it to the image from which the region of interest is extracted.
  • step S26 the display control unit 34 causes the display 24 to display a screen in which the display form of the slider bar 80 is changed based on the attribute information given in step S24, and ends the second information processing.
  • the information processing device 10 includes at least one processor, and the processor is a group of spatially or temporally continuous images to which mutually independent attribute information is assigned. is acquired, and a slider bar for receiving an operation of selecting an image to be displayed on the display from among a group of images is displayed on the display by changing the display form based on the attribute information given to each image. That is, according to the information processing apparatus 10 according to the present exemplary embodiment, the display form of the slider bar 80 is changed so that the tomographic image T of interest among the plurality of tomographic images T can be easily selected. A desired tomographic image T can be easily specified when performing the operation. Further, since the position of the marker 94 is also changed in accordance with the change of the display form of the slider bar 80, the visibility of the marker 94 can be improved, and the desired tomographic image T can be specified more easily.
  • FIG. 13 shows an example of a screen D5 as a modified example of the screen D4 of FIG.
  • arrows 86 are added to the upper and lower ends of the slider bar 80E on the screen D4.
  • the enlargement range of the slider bar 80E can be moved so as to correspond to the tomographic image T closer to the head side.
  • the arrow 86 at the lower end the enlargement range of the slider bar 80E can be moved so as to correspond to the tomographic image T closer to the waist.
  • the region of interest may be a region included in the tomographic image T and designated by the user.
  • the display control unit 34 may display the tomographic image T on the display 24, and receive designation of coordinates on the tomographic image T from the user via the input unit 25, thereby determining the region of interest in the tomographic image T. .
  • the extraction unit 32 may extract various regions of interest by combining a plurality of methods for extracting regions of interest.
  • the extraction unit 32 may use a combination of learned models for each organ, which are learned in advance so as to extract the structure area as the structure area SA and extract various lesions as the abnormal area AA.
  • the extraction unit 32 may combine and use a plurality of image processing filters suitable for each abnormal shadow. In these cases, the extraction unit 32 can extract various regions of interest from each of the plurality of tomographic images T by applying the various extraction methods described above to each of the plurality of tomographic images T.
  • the display control unit 34 can limit the tomographic images T that can be displayed on the display 24 among the plurality of tomographic images T and change the display form of the slider bar 80 based on other attribute information.
  • attribute information will be described below.
  • the extraction unit 32 stores information indicating the extraction method used for extraction of the region of interest in the region of interest. Attribute information may be added to the tomographic image T that is the extraction source. For example, when using a combination of a plurality of different trained models for each organ, the tomographic image T in which the brain region is extracted as the structure region SA by the trained model for brain has an attribute indicating the trained model for brain. Information may be added, and attribute information indicating the learned model for lung may be added to the tomographic image T in which the lung region is extracted as the structure region SA by the learned model for lung.
  • the extraction unit 32 may generate attribute information based on the feature amount of the extracted region of interest.
  • the abnormal area AA is an area containing abnormal shadows such as lesions and areas blurred by imaging. Specifically, an abnormal shadow is discriminated by a pixel value different from a normal value or an edge shape being abnormal. Therefore, for example, the extraction unit 32 may generate attribute information indicating characteristics of an abnormal shadow such as "high density”, "low density”, and "unevenness".
  • the attribute information may be information indicating the purpose for which the tomographic image T was captured.
  • the purposes for which the tomographic image T is captured are, for example, detailed examinations, regular medical examinations, follow-up observations, and the like.
  • the acquisition unit 30 may acquire information indicating the purpose for which the tomographic image T was captured from a management server that manages examination orders, electronic medical charts, and the like.
  • the attribute information may be information input by the user via the input unit 25 .
  • the information input by the user may be the various types of attribute information described above, or may be information different from the various types of attribute information described above, such as comments unique to the user.
  • the extraction unit 32 adds attribute information to a plurality of tomographic images T during the process of displaying the tomographic images T on the display 24
  • attribute information may be given to each of the plurality of tomographic images T in advance, and the plurality of tomographic images T to which the attribute information is assigned may be recorded in the image DB 5 .
  • the acquiring unit 30 can acquire a plurality of tomographic images T to which attribute information has been assigned in advance, so the attribute information assigning process by the extracting unit 32 can be omitted.
  • the form of the marker 94 differs according to the attribute information, but the present invention is not limited to this.
  • the display control unit 34 controls to display a marker 94 of one form at a corresponding position of the slider bar 80 for a tomographic image T to which attribute information indicating some kind of lesion is assigned, regardless of the type of lesion.
  • the screen displayed on the display includes the marker 94, but the marker 94 can be omitted. Even if the marker 94 is omitted, according to the information processing apparatus 10 according to the first exemplary embodiment, the display is limited to only the notable tomographic image T among the plurality of tomographic images T. Therefore, the desired tomographic image T can be easily specified. Similarly, even if the marker 94 is omitted, according to the information processing apparatus 10 according to the second exemplary embodiment, the display form of the slider bar 80 is changed according to the attribute information. An effect that the image T can be easily designated is obtained.
  • tomographic images T medical images G
  • the technique of the present disclosure can also target other images.
  • a group of temporally continuous images such as moving images captured by a digital camera, surveillance camera, drive recorder, or the like may be targeted.
  • the extraction unit 32 can extract, for example, regions of structures such as people, animals, and automobiles as regions of interest, and generate and add attribute information.
  • the hardware structure of a processing unit that executes various processes such as the acquisition unit 30, the extraction unit 32, and the display control unit 34 includes the following various processor can be used.
  • the various processors include, in addition to the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, circuits such as FPGAs (Field Programmable Gate Arrays), etc.
  • Programmable Logic Device PLD which is a processor whose configuration can be changed, ASIC (Application Specific Integrated Circuit) etc. Circuits, etc. are included.
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs, a combination of a CPU and an FPGA). combination). Also, a plurality of processing units may be configured by one processor.
  • a single processor is configured by combining one or more CPUs and software.
  • a processor functions as multiple processing units.
  • SoC System on Chip
  • the various processing units are configured using one or more of the above various processors as a hardware structure.
  • an electric circuit combining circuit elements such as semiconductor elements can be used.
  • the information processing program 27 has been pre-stored (installed) in the storage unit 22, but the present invention is not limited to this.
  • the information processing program 27 is provided in a form recorded in a recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and a USB (Universal Serial Bus) memory. good too.
  • the information processing program 27 may be downloaded from an external device via a network.
  • the technology of the present disclosure extends to a storage medium that non-temporarily stores an information processing program in addition to the information processing program.
  • the technology of the present disclosure can also appropriately combine the exemplary embodiments described above.
  • the description and illustration shown above are detailed descriptions of the parts related to the technology of the present disclosure, and are merely examples of the technology of the present disclosure.
  • the above descriptions of configurations, functions, actions, and effects are descriptions of examples of configurations, functions, actions, and effects of portions related to the technology of the present disclosure. Therefore, unnecessary parts may be deleted, new elements added, or replaced with respect to the above-described description and illustration without departing from the gist of the technology of the present disclosure. Needless to say.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

少なくとも1つのプロセッサを備え、前記プロセッサは、互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、前記一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の前記画像に付与された前記属性情報に基づいて表示形態を変更して前記ディスプレイに表示させる情報処理装置。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本開示は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
 従来、CT(Computed Tomography)装置及びMRI(Magnetic Resonance Imaging)装置等の撮影装置により撮影された、3次元の医用画像を用いた画像診断が行われている。例えば、特開2009-285147号公報には、3次元の医用画像に含まれる1つの断層面を表す1枚の断層画像を画面に表示させること、及びスライドバーをスライドさせることにより画面に表示させる断層画像を指定可能とすること、が開示されている。
 また、ディープラーニング等により学習がなされた判別器を用いたCAD(Computer-Aided Detection/Diagnosis)により医用画像を解析して、医用画像に含まれる病変等の関心構造物を検出及び/又は診断することが行われている。さらに、読影レポートの作成を支援する技術として、特開2019-153250号公報には、CADによる医用画像の解析結果に基づいて、読影レポートに記載するための文章を生成することが開示されている。
 近年、撮影装置の進歩により、3次元の医用画像に含まれる断層画像の枚数が増加している。これにより、特開2009-285147号公報に記載のようなスライドバーによって画面に表示させる断層画像を指定する場合に、注目したい断層画像を指定することが困難となる場合があった。
 本開示は、所望の画像を容易に指定できる情報処理装置、情報処理方法及び情報処理プログラムを提供する。
 本開示の第1の態様は、情報処理装置であって、少なくとも1つのプロセッサを備え、プロセッサは、互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の画像に付与された属性情報に基づいて表示形態を変更してディスプレイに表示させる。
 本開示の第2の態様は、上記第1の態様において、プロセッサは、一群の画像のうち、指定された属性情報に基づいて定まる範囲の画像に対応するスライダーバーの部分を拡大してディスプレイに表示させてもよい。
 本開示の第3の態様は、上記第1の態様又は第2の態様において、プロセッサは、各々の画像について、属性情報に応じて異なる形態のマーカをスライダーバーの対応する位置に表示させてもよい。
 本開示の第4の態様は、上記第1の態様から第3の態様の何れか1つにおいて、プロセッサは、指定された属性情報が付与された画像について、マーカをスライダーバーの対応する位置に表示させてもよい。
 本開示の第5の態様は、上記第1の態様から第4の態様の何れか1つにおいて、一群の画像のそれぞれには、関心領域が含まれ、属性情報は、関心領域の属性を示すものであってもよい。
 本開示の第6の態様は、上記第5の態様において、関心領域は、画像に含まれる構造物の領域であってもよい。
 本開示の第7の態様は、上記第5の態様又は第6の態様において、関心領域は、画像に含まれる異常陰影の領域であってもよい。
 本開示の第8の態様は、上記第5の態様から第7の態様の何れか1つにおいて、関心領域は、画像に含まれる、ユーザによって指定された領域であってもよい。
 本開示の第9の態様は、上記第5の態様から第8の態様の何れか1つにおいて、属性情報は、関心領域の種類を示すものであってもよい。
 本開示の第10の態様は、上記第5の態様から第9の態様の何れか1つにおいて、属性情報は、関心領域の特徴量を示すものであってもよい。
 本開示の第11の態様は、上記第5の態様から第10の態様の何れか1つにおいて、プロセッサは、一群の画像のそれぞれについて、関心領域を抽出し、抽出した関心領域の特徴量に基づいて、属性情報を生成してもよい。
 本開示の第12の態様は、上記第11の態様において、プロセッサは、関心領域の抽出に用いた抽出方法を示す情報を、関心領域の抽出元の画像に属性情報として付与してもよい。
 本開示の第13の態様は、上記第1の態様から第12の態様の何れか1つにおいて、属性情報は、画像が撮影された目的を示すものであってもよい。
 本開示の第14の態様は、上記第1の態様から第13の態様の何れか1つにおいて、属性情報は、ユーザによって入力されるものであってもよい。
 本開示の第15の態様は、情報処理方法であって、互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の画像に付与された属性情報に基づいて表示形態を変更してディスプレイに表示させる処理を含む。
 本開示の第16の態様は、情報処理プログラムであって、互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の画像に付与された属性情報に基づいて表示形態を変更してディスプレイに表示させる処理をコンピュータに実行させるためのものである。
 上記態様によれば、本開示の情報処理装置、情報処理方法及び情報処理プログラムは、所望の画像を容易に指定できる。
情報処理システムの概略構成図である。 医用画像の一例を示す模式図である。 情報処理装置のハードウェア構成の一例を示すブロック図である。 情報処理装置の機能的な構成の一例を示すブロック図である。 断層画像の一例を示す図である。 属性情報の一例を示す図である。 ディスプレイに表示される画面の一例を示す図である。 ディスプレイに表示される画面の一例を示す図である。 ディスプレイに表示される画面の一例を示す図である。 第1の情報処理の一例を示すフローチャートである。 ディスプレイに表示される画面の一例を示す図である。 第2の情報処理の一例を示すフローチャートである。 ディスプレイに表示される画面の一例を示す図である。
 以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
[第1例示的実施形態]
 まず、図1を参照して、本例示的実施形態に係る情報処理システム1の構成の一例について説明する。図1は、情報処理システム1の概略構成を示す図である。図1に示すように、情報処理システム1は、撮影装置2、画像サーバ4、画像DB(DataBase)5、レポートサーバ6、レポートDB7及び情報処理装置10を含む。撮影装置2、画像サーバ4、レポートサーバ6及び情報処理装置10は、有線又は無線のネットワーク8を介して互いに通信可能な状態で接続されている。
 撮影装置2は、被写体の診断対象となる部位を撮影することにより、診断対象部位を表す医用画像Gを生成する装置である。具体的には、撮影装置2として、CT装置、MRI装置、及びPET(Positron Emission Tomography)装置等を適宜適用できる。また、撮影装置2は、撮影した医用画像を画像サーバ4に送信する。
 図2は、医用画像Gの一例を模式的に示す図である。医用画像Gは、例えば、1人の被写体(人体)の頭部から腰部までの断層面をそれぞれ表す複数の断層画像T000~Tm(mは001以上)からなるCT画像である。複数の断層画像T000~Tmが、本開示の複数の画像の一例である。また、複数の断層画像T000~Tm(医用画像G)は、空間的に連続する一群の画像の一例である。以下、複数の断層画像T000~Tmの各々を区別しない場合は、単に「断層画像T」という。
 画像サーバ4は、汎用のコンピュータにデータベース管理システム(DataBase Management System:DBMS)の機能を提供するソフトウェアプログラムがインストールされたものである。画像サーバ4は、画像DB5と接続される。なお、画像サーバ4と画像DB5との接続形態は特に限定されず、データバスによって接続される形態でもよいし、NAS(Network Attached Storage)及びSAN(Storage Area Network)等のネットワークを介して接続される形態でもよい。
 画像DB5は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)及びフラッシュメモリ等の記憶媒体によって実現される。画像DB5には、撮影装置2において撮影された医用画像Gと、医用画像Gに付与された付与情報と、が対応付けられて記録される。付与情報には、例えば、医用画像Gを識別するための画像ID(identification)、断層画像Tを識別するための断層ID、被写体を識別するための被写体ID、検査を識別するための検査ID等の識別情報が含まれてもよい。また、付与情報には、例えば、撮影日時、撮影部位、医用画像Gが撮影された撮影装置2の種類、撮影条件及び造影条件等の撮影に関する各種情報が含まれていてもよい。また、付与情報には、被写体の氏名、年齢及び性別等の被写体に関する情報が含まれていてもよい。
 画像サーバ4は、撮影装置2から医用画像Gを受信すると、医用画像Gをデータベース用のフォーマットに整えて画像DB5に記録させる。また、画像サーバ4は、情報処理装置10から医用画像Gの閲覧要求を受信すると、画像DB5に記録されている医用画像Gを検索し、検索された医用画像Gを閲覧要求元の情報処理装置10に送信する。
 レポートサーバ6は、汎用のコンピュータにデータベース管理システムの機能を提供するソフトウェアプログラムがインストールされたものである。レポートサーバ6は、レポートDB7と接続される。なお、レポートサーバ6とレポートDB7との接続形態は特に限定されず、データバスによって接続される形態でもよいし、NAS及びSAN等のネットワークを介して接続される形態でもよい。
 レポートDB7は、例えば、HDD、SSD及びフラッシュメモリ等の記憶媒体によって実現される。レポートDB7には、情報処理装置10において、医用画像Gに基づいて生成された読影レポートが記録される。なお、レポートDB7に記録される読影レポートは、読影者が情報処理装置10を用いて入力したものであってもよいし、CADによる解析結果に基づいてコンピュータが生成したものであってもよい。
 レポートサーバ6は、情報処理装置10から読影レポートを受信すると、読影レポートをデータベース用のフォーマットに整えてレポートDB7に記録させる。また、レポートサーバ6は、情報処理装置10から読影レポートの閲覧要求を受信すると、レポートDB7に記録されている読影レポートを検索し、検索された読影レポートを閲覧要求元の情報処理装置10に送信する。
 ネットワーク8は、例えば、LAN(Local Area Network)及びWAN(Wide Area Network)等のネットワークである。なお、情報処理システム1に含まれる撮影装置2、画
像サーバ4、画像DB5、レポートサーバ6、レポートDB7及び情報処理装置10は、それぞれ同一の医療機関に配置されていてもよいし、異なる医療機関に配置されていてもよい。また、図1では、撮影装置2、画像サーバ4、画像DB5、レポートサーバ6、レポートDB7及び情報処理装置10の各装置をそれぞれ1台ずつ図示しているが、これに限らず、各装置はそれぞれ同様の機能を有する複数台の装置で構成されていてもよい。
 本例示的実施形態に係る情報処理装置10は、撮影装置2により撮影された複数の断層画像Tのうち、注目すべき断層画像Tのみを表示可能とするよう制限することで、読影及び診断を行う場合に所望の断層画像Tを容易に指定できるよう支援する機能を有する。以下、情報処理装置10の詳細な構成について説明する。
 まず、図3を参照して、本例示的実施形態に係る情報処理装置10のハードウェア構成の一例を説明する。図3に示すように、情報処理装置10は、CPU(Central Processing Unit)21、不揮発性の記憶部22、及び一時記憶領域としてのメモリ23を含む。また、
情報処理装置10は、液晶ディスプレイ等のディスプレイ24、キーボード、マウス、タッチパネル及びボタン等の入力部25、並びにネットワークI/F(Interface)26を含む。ネットワークI/F26は、ネットワーク8に接続され、有線又は無線通信を行う。CPU21、記憶部22、メモリ23、ディスプレイ24、入力部25及びネットワークI/F26は、システムバス及びコントロールバス等のバス28を介して相互に各種情報の授受が可能に接続されている。
 記憶部22は、例えば、HDD、SSD及びフラッシュメモリ等の記憶媒体によって実現される。記憶部22には、情報処理装置10における情報処理プログラム27が記憶される。CPU21は、記憶部22から情報処理プログラム27を読み出してからメモリ23に展開し、展開した情報処理プログラム27を実行する。CPU21が本開示のプロセッサの一例である。情報処理装置10としては、例えば、パーソナルコンピュータ、サーバコンピュータ、スマートフォン、タブレット端末及びウェアラブル端末等を適宜適用できる。
 次に、図4を参照して、本例示的実施形態に係る情報処理装置10の機能的な構成の一例について説明する。図4に示すように、情報処理装置10は、取得部30、抽出部32及び表示制御部34を含む。CPU21が情報処理プログラム27を実行することにより、CPU21が取得部30、抽出部32及び表示制御部34として機能する。
 取得部30は、画像サーバ4から複数の断層画像Tを取得する。断層画像Tは、上述したように、人体の断層面を表す画像である。したがって、各断層画像Tには、人体の各種器官(例えば脳、肺及び肝臓等)、並びに、各種器官を構成する各種組織(例えば血管、神経及び筋肉等)等を表す構造物の領域(以下、「構造物領域SA」という)が含まれる。また、各断層画像Tには、病変(例えば腫瘍、損傷、欠損、結節及び炎症等)及び撮影で不鮮明になった領域等の異常陰影の領域(以下、「異常領域AA」という)が含まれ得る。図5に、断層画像Tの一例として、肺の断層画像T100を示す。断層画像T100においては、肺の領域が構造物領域SAであり、結節の領域が異常領域AAである。
 抽出部32は、複数の断層画像Tのそれぞれについて、関心領域を抽出する。関心領域とは、読影及び診断において注目される領域であり、例えば、構造物領域SA及び異常領域AAの少なくとも一方である。すなわち、複数の断層画像Tのそれぞれには、関心領域が含まれる。関心領域の抽出方法としては、公知のAI(Artificial Intelligence)技術を用いた方法、及び画像処理を用いた方法等を適宜適用できる。例えば、断層画像Tを入力とし、関心領域を抽出して出力するよう学習された学習済モデルを用いて、断層画像Tから関心領域を抽出してもよい。また例えば、断層画像Tに対して、2値化、背景の除去及びエッジ強調等の画像処理を行うことで、構造物領域SA及び異常領域AAのエッジを特定し、関心領域として抽出してもよい。
 また、抽出部32は、抽出した関心領域の属性を示す属性情報を生成し、関心領域の抽出元の断層画像Tに付与する。すなわち、複数の断層画像Tのそれぞれには、互いに独立した属性情報が付与される。属性情報とは、例えば、関心領域の種類を示す情報であり、具体的には、断層画像Tに含まれる構造物領域SAが表す構造物の種類、及び、断層画像Tに含まれる異常領域AAが表す病変の種類等を示す情報である。なお、抽出部32による関心領域の種類の特定方法としては、公知のCADによる特定方法を適宜適用できる。
 図6に、抽出部32によって生成され、複数の断層画像Tのそれぞれに付与される属性情報の一例を示す。図6の「断層ID」の欄には、被検体の頭部側から腰部側へ順に割り振られた、断層画像Tの識別情報を示す。「臓器」の欄には、断層画像Tから抽出された構造物領域SAが表す臓器の種類を示す属性情報を示す。「病変1」~「病変3」の欄には、断層画像Tから抽出された異常領域AAが表す病変の種類を示す属性情報を示す。図6に示すように、属性情報は、1枚の断層画像Tに対して複数付与されてもよいし、1つのみ付与されてもよいし、1つも付与されなくてもよい。
 表示制御部34は、読影医等のユーザが断層画像Tを確認するための画面をディスプレイ24に表示させる制御を行う。図7に、表示制御部34によってディスプレイ24に表示される画面D1の一例を示す。画面D1には、複数の断層画像Tのうちディスプレイ24に表示させる断層画像Tを選択する操作を受け付けるためのスライダーバー80が含まれる。スライダーバー80は、スライドバー及びスクロールバーとも呼ばれるGUI(Graphical User Interface)パーツである。画面D1の例では、上端から下端へ向かって、頭部側から腰部側へ順に並んだ複数の断層画像Tに対応する。表示制御部34は、ユーザによる入力部25を介したスライダーバー80上のスライダー82の位置の操作を受け付け、複数の断層画像Tのうち、スライダー82の位置に応じた1枚の断層画像T(図7の例では断層画像T100)を、画面D1に表示させる。図7のスライダー82に付加された点線の矢印は、スライダーバー80上におけるスライダー82の可動域を意味し、図7の例ではスライダーバー80全体がスライダー82の可動域である。
 また、表示制御部34は、それぞれの断層画像Tに付与された属性情報に応じて異なる形態のマーカ94をスライダーバー80の対応する位置に表示させる。図7の画面D1には、スライダーバー80の横に配置された、それぞれ異なる形態のマーカ94が含まれる。マーカ94は、複数の断層画像Tのうち、異常領域AAが抽出された断層画像T(すなわち病変を含む断層画像T)のスライダーバー80上の位置を示すためのものである。マーカ94の形態は、断層画像Tに付与された、病変の種類を示す属性情報に応じて決定される(図8参照)。例えば、マーカ94は、病変の種類を示す属性情報に応じて色分けされていてもよい。
 ところで、実際の読影及び診断の場においては、読影及び診断を所望する構造物及び/又は病変が予め決まっており、当該構造物及び/又は病変が含まれる断層画像Tのみをディスプレイ24に表示させられれば十分であるという場合がある。そこで、ディスプレイ24に表示させる断層画像T、すなわち、読影及び診断を所望する構造物及び/又は病変が含まれる断層画像Tの選択を容易にできる技術が望まれている。
 そこで、表示制御部34は、抽出部32により生成された属性情報に基づいて、複数の断層画像Tのうちディスプレイ24に表示可能な断層画像Tを制限する。具体的には、表示制御部34は、複数の断層画像Tのうち、指定された属性情報が付与された断層画像Tのみを表示可能とする制御を行う。
 図7から図9を参照して、表示制御部34による処理の具体例を説明する。本例示的実施形態においては、属性情報に基づいて、スライダーバー80の操作可能な範囲を制限することによって、複数の断層画像Tのうちディスプレイ24に表示可能な断層画像Tを制限する形態について説明する。ここで、「スライダーバー80の操作可能な範囲」とは、スライダーバー80上の少なくとも1枚の断層画像Tに対応する箇所を含めばよく、1つの範囲及び箇所に限らず、複数の不連続な範囲及び箇所を含んでいてもよい。
 第一に、表示制御部34は、ディスプレイ24に表示可能な断層画像Tを、断層画像Tに含まれる臓器の種類を示す属性情報(図6参照)に応じて決定してもよい。図7の画面D1には、臓器の種類の指定を受け付けるための臓器指定欄90が含まれる。表示制御部34は、臓器指定欄90に各種の臓器(例えば、脳、肺、肝臓、胆嚢、膵臓及び腎臓等)を指定可能なアイコンとして表示させ、ユーザによる少なくとも1種類の臓器の指定を受け付ける。
 ユーザによって入力部25を介して臓器指定欄90内の少なくとも1つのアイコンが指定されると、表示制御部34は、指定されたアイコンが示す臓器を示す属性情報が付与された断層画像Tのみを選択可能とするよう、スライダーバー80の操作可能な範囲を制限する。図8に、画面D1の臓器指定欄90において「肺」を示すアイコンが指定された場合に、表示制御部34によってディスプレイ24に表示される画面D2の一例を示す。画面D2におけるスライダーバー80では、「肺」を示す属性情報(図6参照)が付与された断層画像Tのみが選択可能となるよう、スライダー82の可動域(点線の矢印で図示)が制限されている。画面D2に示すように、表示制御部34は、スライダー82の可動域(すなわちスライダーバー80の操作可能な範囲)について、背景色を変更する等により強調表示してもよい。
 第二に、表示制御部34は、ディスプレイ24に表示可能な断層画像Tを、断層画像Tに含まれる病変の種類を示す属性情報(図6参照)に応じて決定してもよい。図8の画面D2には、臓器指定欄90において指定された「肺」に関する病変の種類の指定を受け付けるための病変指定欄92が含まれる。表示制御部34は、病変指定欄92に各種の病変(例えば、結節、石灰化、スピキュラ及びスリガラス影等)を選択可能なチェックボックスとして表示させ、ユーザによる少なくとも1種類の病変の指定を受け付ける。また、図8の病変指定欄92には、各病変に対応するマーカ94と、各病変を示す属性情報が付与された断層画像Tの枚数と、も含まれている。
 ユーザによって入力部25を介して病変指定欄92内の少なくとも1つの病変が指定されると、表示制御部34は、指定された病変を示す属性情報が付与された断層画像Tのみを選択可能とするよう、スライダーバー80の操作可能な範囲を制限する。図9に、画面D2の病変指定欄92において「結節」が指定された場合に、表示制御部34によってディスプレイ24に表示される画面D3の一例を示す。画面D3におけるスライダーバー80では、「結節」を示す属性情報(図6参照)が付与された断層画像Tのみが選択可能となるよう、スライダー82の可動域(点線で図示)が制限されている。
 また、表示制御部34は、指定された属性情報が付与された断層画像Tについて、マーカ94をスライダーバー80の対応する位置に表示させる制御を行ってもよい。すなわち、表示制御部34は、指定された属性情報に対応するマーカ94のみを表示させる制御を行ってもよい。図9の画面D3の例においては、指定された「結節」を示す属性情報が付与された断層画像Tについて、マーカ94がスライダーバー80の対応する位置に表示されている。
 次に、図10を参照して、本例示的実施形態に係る情報処理装置10の作用を説明する。情報処理装置10において、CPU21が情報処理プログラム27を実行することによって、図10に示す第1の情報処理が実行される。第1の情報処理は、例えば、ユーザによって入力部25を介して実行開始の指示があった場合に実行される。
 ステップS10で、取得部30は、画像サーバ4から複数の画像(断層画像T)を取得する。ステップS12で、抽出部32は、ステップS10で取得した複数の画像の各々から、関心領域を抽出する。ステップS14で、抽出部32は、ステップS12で抽出した関心領域の属性を示す属性情報を生成し、関心領域の抽出元の画像に付与する。ステップS16で、表示制御部34は、ステップS14で付与した属性情報に基づいて、ディスプレイ24に表示可能な画像を制限した画面をディスプレイ24に表示させ、本第1の情報処理を終了する。
 以上説明したように、本開示の一態様に係る情報処理装置10は、少なくとも1つのプロセッサを備え、プロセッサは、互いに独立した属性情報が付与された複数の画像を取得し、属性情報に基づいて、複数の画像のうちディスプレイに表示可能な画像を制限する。すなわち、本例示的実施形態に係る情報処理装置10によれば、複数の断層画像Tのうち注目すべき断層画像Tのみを表示可能とするよう制限できるので、読影及び診断を行う場合に所望の断層画像Tを容易に指定できる。
 なお、上記第1例示的実施形態においては、表示制御部34が、複数の断層画像Tのうち、指定された属性情報が付与された断層画像Tのみを表示可能とする制御を行う形態について説明したが、これに限らない。表示制御部34は、指定された属性情報に基づいて定まる範囲の断層画像Tのみを表示可能とする制御を行ってもよい。例えば、表示制御部34は、指定された属性情報が付与された最初の(すなわち最も頭部側の)断層画像Tから、指定された属性情報が付与された最後の(すなわち最も腰部側の)断層画像Tまでの範囲に含まれる全ての断層画像Tを選択可能とするよう、スライダーバー80の操作可能な範囲を制限してもよい。この場合、表示可能な断層画像Tのなかには、指定された属性情報が付与されていない断層画像Tが含まれ得る。このような形態によれば、仮に属性情報の付与漏れがあったとしても、表示を所望する属性情報が付与される可能性が比較的高い断層画像Tを表示対象とできる。
 また、表示制御部34は、指定された属性情報と予め関連付けられた、他の属性情報が付与された断層画像Tを表示可能とする制御を行ってもよい。例えば、「結節」を示す属性情報が指定された場合に、表示制御部34は、「肺」を示す属性情報が付与された断層画像Tを表示可能とする制御を行ってもよい。また例えば、「肺」を示す属性情報が指定された場合に、表示制御部34は、「肺」を示す属性情報が付与された断層画像Tのうち、何れかの病変を示す属性情報が付与された断層画像Tのみを表示可能とする制御を行ってもよい。
 また、上記第1例示的実施形態においては、表示制御部34が、スライダーバー80における操作可能な範囲を制限することで、複数の断層画像Tのうちディスプレイ24に表示可能な断層画像Tを制限する形態について説明したが、これに限らない。例えば、表示制御部34が、全ての断層画像Tの断層IDを一覧形式でディスプレイ24に表示させる場合に、指定された属性情報が付与された断層画像Tの断層IDのみを表示する制御を行ってもよい。
[第2例示的実施形態]
 本第2例示的実施形態に係る情報処理装置10は、複数の断層画像Tのうち注目すべき断層画像Tを選択しやすいようスライダーバー80の形態を変更することで、読影及び診断を行う場合に所望の断層画像Tを容易に指定できるよう支援する機能を有する。本例示的実施形態に係る情報処理システム1の構成は上記第1例示的実施形態と同様であるため、説明を省略する。また、本例示的実施形態に係る情報処理装置10について、ハードウェア構成、並びに、取得部30及び抽出部32の機能は上記第1例示的実施形態と同様であるため、説明を省略する。
 表示制御部34は、取得部30が取得した一群の断層画像Tのうちディスプレイ24に表示させる断層画像Tを選択する操作を受け付けるためのスライダーバー80について、各々の断層画像Tに付与された属性情報に基づいて表示形態を変更してディスプレイ24に表示させる。具体的には、表示制御部34は、一群の断層画像Tのうち、指定された属性情報に基づいて定まる範囲の断層画像Tに対応するスライダーバー80の部分を拡大してディスプレイ24に表示させる。
 図11を参照して、表示制御部34による処理の具体例を説明する。図11には、表示制御部34によってディスプレイ24に表示される画面D4の一例を示す。画面D4は、上記第1例示的実施形態で説明した画面D2(図8参照)と同様に、「肺」を示す属性情報が指定された場合に、表示制御部34によってディスプレイ24に表示される画面である。画面D4には、画面D2と同様の断層画像T100、臓器指定欄90、病変指定欄92及びマーカ94が含まれる。
 画面D4におけるスライダーバー80Eは、画面D2のスライダーバー80のうち、部分84(図8参照)を拡大したものである。部分84は、「肺」を示す属性情報が付与された断層画像Tに対応するスライダーバー80の部分である。スライダーバー80Eは、上側から下側へ向かって、「肺」を示す属性情報が付与された最初の(すなわち最も頭部側の)断層画像Tから、「肺」を示す属性情報が付与された最後の(すなわち最も腰部側の)断層画像Tまでの複数の断層画像Tに対応する。拡大されたスライダーバー80Eによれば、スライダーバー80Eの上端から下端までを効果的に活用して、断層画像Tの選択を受け付けることができる。
 また、表示制御部34は、スライダーバー80の部分84を拡大するのに対応させて、マーカ94の位置も変更する。画面D2に示すように、属性情報が多くの断層画像Tに付与されることによって、マーカ94同士が密集してその視認性が低下してしまう場合がある。一方、画面D4に示すように、表示制御部34がスライダーバー80の部分84を拡大するのに対応させてマーカ94の位置を変更することによって、マーカ94の視認性を向上できる。
 次に、図12を参照して、本例示的実施形態に係る情報処理装置10の作用を説明する。情報処理装置10において、CPU21が情報処理プログラム27を実行することによって、図12に示す第2の情報処理が実行される。第2の情報処理は、例えば、ユーザによって入力部25を介して実行開始の指示があった場合に実行される。
 ステップS20で、取得部30は、画像サーバ4から一群の画像(断層画像T)を取得する。ステップS22で、抽出部32は、ステップS20で取得した一群の画像の各々から、関心領域を抽出する。ステップS24で、抽出部32は、ステップS22で抽出した関心領域の属性を示す属性情報を生成し、関心領域の抽出元の画像に付与する。ステップS26で、表示制御部34は、ステップS24で付与した属性情報に基づいて、スライダーバー80の表示形態を変更した画面をディスプレイ24に表示させ、本第2の情報処理を終了する。
 以上説明したように、本開示の一態様に係る情報処理装置10は、少なくとも1つのプロセッサを備え、プロセッサは、互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の画像に付与された属性情報に基づいて表示形態を変更してディスプレイに表示させる。すなわち、本例示的実施形態に係る情報処理装置10によれば、複数の断層画像Tのうち注目すべき断層画像Tを選択しやすいようスライダーバー80の表示形態を変更するので、読影及び診断を行う場合に所望の断層画像Tを容易に指定できる。また、スライダーバー80の表示形態の変更にあわせて、マーカ94の位置も変更するので、マーカ94の視認性を向上でき、所望の断層画像Tをより容易に指定できる。
 なお、上記第2例示的実施形態においては、第1例示的実施形態とは異なり、表示制御部34がディスプレイ24に表示可能な断層画像Tを制限しなくともよい。図13に、図11の画面D4の変形例としての画面D5の一例を示す。画面D5においては、画面D4のスライダーバー80Eの上端及び下端に、矢印86が追加されている。上端の矢印86を操作することで、スライダーバー80Eの拡大範囲を、より頭部側の断層画像Tに対応するよう移動できる。同様に、下端の矢印86を操作することで、スライダーバー80Eの拡大範囲を、より腰部側の断層画像Tに対応するよう移動できる。
 なお、上記各例示的実施形態においては、抽出部32が関心領域を抽出する形態について説明したが、これに限らない。関心領域は、断層画像Tに含まれる、ユーザによって指定された領域であってもよい。例えば、表示制御部34が断層画像Tをディスプレイ24に表示させ、ユーザから入力部25を介して断層画像T上の座標の指定を受け付けることで、断層画像Tにおける関心領域を決定してもよい。
 また、上記各例示的実施形態において、抽出部32は、関心領域の抽出方法を複数組み合わせることで、各種の関心領域を抽出してもよい。例えば、抽出部32は、構造物の領域を構造物領域SAとして抽出し、各種病変を異常領域AAとして抽出するよう予め学習された、臓器ごとの学習済モデルを組み合わせて用いてもよい。また例えば、抽出部32は、異常陰影ごとに適した複数の画像処理フィルタを組み合わせて用いてもよい。これらの場合、抽出部32は、複数の断層画像Tのそれぞれに上記各種の抽出方法を適用することで、複数の断層画像Tのそれぞれから、各種の関心領域を抽出できる。
 また、上記各例示的実施形態においては、属性情報として、抽出部32が抽出した関心領域の種類を示す情報を用いる例を説明したが、これに限らない。表示制御部34は、他の属性情報に基づいて、複数の断層画像Tのうちディスプレイ24に表示可能な断層画像Tを制限したり、スライダーバー80の表示形態を変更したりできる。以下、属性情報の他の例について説明する。
 第一に、上述したように、抽出部32が関心領域の抽出において異なる複数の抽出方法を適用する場合、抽出部32は、関心領域の抽出に用いた抽出方法を示す情報を、関心領域の抽出元の断層画像Tに属性情報として付与してもよい。例えば、臓器ごとに異なる複数の学習済モデルを組み合せて用いる場合、脳用の学習済モデルによって脳の領域が構造物領域SAとして抽出された断層画像Tには脳用の学習済モデルを示す属性情報を付与し、肺用の学習済モデルによって肺の領域が構造物領域SAとして抽出された断層画像Tには肺用の学習済モデルを示す属性情報を付与してもよい。
 第二に、抽出部32は、抽出した関心領域の特徴量に基づいて、属性情報を生成してもよい。上述したように、異常領域AAとは病変及び撮影で不鮮明になった領域等の異常陰影を含む領域である。異常陰影とは、具体的には、画素値が正常な値とは異なっていたり、エッジの形状が異常であったりすることにより判別される。そこで、例えば、抽出部32は、「高濃度」、「低濃度」及び「凹凸」等の異常陰影の特徴を示す属性情報を生成してもよい。
 第三に、属性情報は、断層画像Tが撮影された目的を示す情報であってもよい。断層画像Tが撮影された目的とは、例えば、精密検査、定期検診及び経過観察等である。断層画像Tが撮影された目的を示す情報は、例えば、取得部30が、検査オーダ及び電子カルテ等を管理する管理サーバから取得してもよい。
 第四に、属性情報は、ユーザによって入力部25を介して入力される情報であってもよい。ユーザによって入力される情報は、上記各種の属性情報であってもよいし、例えばユーザ独自のコメント等、上記各種の属性情報とは異なる情報であってもよい。
 また、上記各例示的実施形態においては、断層画像Tをディスプレイ24に表示させる処理の途中で、抽出部32が複数の断層画像Tに属性情報を付与する形態について説明したが、これに限らない。例えば、複数の断層画像Tの各々に属性情報を予め付与し、属性情報が付与された複数の断層画像Tを画像DB5に記録させておく形態としてもよい。この場合、断層画像Tをディスプレイ24に表示させる処理において、取得部30は属性情報が予め付与された複数の断層画像Tを取得できるので、抽出部32による属性情報の付与処理を省略できる。
 また、上記各例示的実施形態においては、マーカ94の形態が属性情報に応じて異なる形態について説明したが、これに限らない。例えば、表示制御部34は、病変の種類にかかわらず、何らかの病変を示す属性情報が付与された断層画像Tについて、一つの形態のマーカ94をスライダーバー80の対応する位置に表示させる制御を行ってもよい。
 また、上記各例示的実施形態においては、ディスプレイに表示される画面にマーカ94が含まれる形態について説明したが、マーカ94は省略可能である。マーカ94を省略する場合であっても、第1例示的実施形態に係る情報処理装置10によれば、複数の断層画像Tのうち注目すべき断層画像Tのみを表示可能とするよう制限されるので、所望の断層画像Tを容易に指定できるという効果が得られる。同様に、マーカ94を省略する場合であっても、第2例示的実施形態に係る情報処理装置10によれば、属性情報に応じてスライダーバー80の表示形態が変更されるので、所望の断層画像Tを容易に指定できるという効果が得られる。
 また、上記各例示的実施形態においては、複数の断層画像T(医用画像G)を対象とする例について説明したが、本開示の技術はその他の画像を対象とすることもできる。例えば、デジタルカメラ、監視カメラ及びドライブレコーダー等により撮影された動画像のような、時間的に連続する一群の画像を対象としてもよい。このような動画像を対象とする場合においても、抽出部32は、例えば人、動物及び自動車等の構造物の領域を関心領域として抽出し、属性情報を生成して付与できる。
 また、上記各例示的実施形態において、例えば、取得部30、抽出部32及び表示制御部34といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 また、上記各例示的実施形態では、情報処理プログラム27が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。情報処理プログラム27は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、情報処理プログラム27は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。さらに、本開示の技術は、情報処理プログラムに加えて、情報処理プログラムを非一時的に記憶する記憶媒体にもおよぶ。
 本開示の技術は、上記例示的実施形態例を適宜組み合わせることも可能である。以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。
 2021年9月27日に出願された日本国特許出願2021-157275号の開示は、その全体が参照により本明細書に取り込まれる。本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (16)

  1.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、
     前記一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の前記画像に付与された前記属性情報に基づいて表示形態を変更して前記ディスプレイに表示させる
     情報処理装置。
  2.  前記プロセッサは、
     前記一群の画像のうち、指定された前記属性情報に基づいて定まる範囲の画像に対応する前記スライダーバーの部分を拡大して前記ディスプレイに表示させる
     請求項1に記載の情報処理装置。
  3.  前記プロセッサは、
     各々の前記画像について、前記属性情報に応じて異なる形態のマーカを前記スライダーバーの対応する位置に表示させる
     請求項1又は請求項2に記載の情報処理装置。
  4.  前記プロセッサは、
     指定された前記属性情報が付与された画像について、マーカを前記スライダーバーの対応する位置に表示させる
     請求項1から請求項3の何れか1項に記載の情報処理装置。
  5.  前記一群の画像のそれぞれには、関心領域が含まれ、
     前記属性情報は、前記関心領域の属性を示す
     請求項1から請求項4の何れか1項に記載の情報処理装置。
  6.  前記関心領域は、前記画像に含まれる構造物の領域である
     請求項5に記載の情報処理装置。
  7.  前記関心領域は、前記画像に含まれる異常陰影の領域である
     請求項5又は請求項6に記載の情報処理装置。
  8.  前記関心領域は、前記画像に含まれる、ユーザによって指定された領域である
     請求項5から請求項7の何れか1項に記載の情報処理装置。
  9.  前記属性情報は、前記関心領域の種類を示す
     請求項5から請求項8の何れか1項に記載の情報処理装置。
  10.  前記属性情報は、前記関心領域の特徴量を示す
     請求項5から請求項9の何れか1項に記載の情報処理装置。
  11.  前記プロセッサは、
     前記一群の画像のそれぞれについて、前記関心領域を抽出し、
     抽出した前記関心領域の特徴量に基づいて、前記属性情報を生成する
     請求項5から請求項10の何れか1項に記載の情報処理装置。
  12.  前記プロセッサは、
     前記関心領域の抽出に用いた抽出方法を示す情報を、前記関心領域の抽出元の画像に前記属性情報として付与する
     請求項11に記載の情報処理装置。
  13.  前記属性情報は、前記画像が撮影された目的を示す
     請求項1から請求項12の何れか1項に記載の情報処理装置。
  14.  前記属性情報は、ユーザによって入力される
     請求項1から請求項13の何れか1項に記載の情報処理装置。
  15.  互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、
     前記一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の前記画像に付与された前記属性情報に基づいて表示形態を変更して前記ディスプレイに表示させる
     処理を含む情報処理方法。
  16.  互いに独立した属性情報が付与された、空間的又は時間的に連続する一群の画像を取得し、
     前記一群の画像のうちディスプレイに表示させる画像を選択する操作を受け付けるためのスライダーバーについて、各々の前記画像に付与された前記属性情報に基づいて表示形態を変更して前記ディスプレイに表示させる
     処理をコンピュータに実行させるための情報処理プログラム。
PCT/JP2022/035536 2021-09-27 2022-09-22 情報処理装置、情報処理方法及び情報処理プログラム WO2023048268A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE112022003698.2T DE112022003698T5 (de) 2021-09-27 2022-09-22 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021157275 2021-09-27
JP2021-157275 2021-09-27

Publications (1)

Publication Number Publication Date
WO2023048268A1 true WO2023048268A1 (ja) 2023-03-30

Family

ID=85720826

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/035536 WO2023048268A1 (ja) 2021-09-27 2022-09-22 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (2)

Country Link
DE (1) DE112022003698T5 (ja)
WO (1) WO2023048268A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060126909A1 (en) * 2004-11-26 2006-06-15 Julian Marshall Monitoring and control of mammographic computer-aided detection processing
JP2010131239A (ja) * 2008-12-05 2010-06-17 Konica Minolta Medical & Graphic Inc 医用画像表示装置及びプログラム
US20110110576A1 (en) * 2009-10-07 2011-05-12 Hologic, Inc. Selective Display Of Computer-Aided Detection Findings With Associated Breast X-Ray Mammogram and/or Tomosynthesis Image Information
WO2014148242A1 (ja) * 2013-03-22 2014-09-25 富士フイルム株式会社 画像表示装置および方法
JP2018175410A (ja) * 2017-04-13 2018-11-15 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2021181731A1 (ja) * 2020-03-09 2021-09-16 富士フイルム株式会社 表示制御装置、表示制御方法、及び表示制御プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5425414B2 (ja) 2008-05-29 2014-02-26 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X線ct装置
JP2019153250A (ja) 2018-03-06 2019-09-12 富士フイルム株式会社 医療文書作成支援装置、方法およびプログラム
JP7436257B2 (ja) 2020-03-25 2024-02-21 株式会社日立製作所 行動認識サーバ、行動認識システム、および、行動認識方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060126909A1 (en) * 2004-11-26 2006-06-15 Julian Marshall Monitoring and control of mammographic computer-aided detection processing
JP2010131239A (ja) * 2008-12-05 2010-06-17 Konica Minolta Medical & Graphic Inc 医用画像表示装置及びプログラム
US20110110576A1 (en) * 2009-10-07 2011-05-12 Hologic, Inc. Selective Display Of Computer-Aided Detection Findings With Associated Breast X-Ray Mammogram and/or Tomosynthesis Image Information
WO2014148242A1 (ja) * 2013-03-22 2014-09-25 富士フイルム株式会社 画像表示装置および方法
JP2018175410A (ja) * 2017-04-13 2018-11-15 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2021181731A1 (ja) * 2020-03-09 2021-09-16 富士フイルム株式会社 表示制御装置、表示制御方法、及び表示制御プログラム

Also Published As

Publication number Publication date
DE112022003698T5 (de) 2024-05-29

Similar Documents

Publication Publication Date Title
US10818048B2 (en) Advanced medical image processing wizard
JP6689919B2 (ja) 医療情報用の進化型コンテキスト臨床データエンジン
US8165368B2 (en) Systems and methods for machine learning based hanging protocols
JPWO2011122401A1 (ja) 検査情報表示装置及び方法
US20140087342A1 (en) Training and testing system for advanced image processing
JP7000206B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
WO2023048268A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023048267A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7431317B2 (ja) 文書作成支援装置、方法およびプログラム
WO2021107098A1 (ja) 文書作成支援装置、文書作成支援方法及び文書作成支援プログラム
WO2023054646A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230223124A1 (en) Information processing apparatus, information processing method, and information processing program
WO2023199956A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022215530A1 (ja) 医用画像装置、医用画像方法、及び医用画像プログラム
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
US20230245316A1 (en) Information processing apparatus, information processing method, and information processing program
US20230225681A1 (en) Image display apparatus, method, and program
WO2023199957A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7371220B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230102418A1 (en) Medical image display apparatus, method, and program
WO2022070528A1 (ja) 医用画像処理装置、方法およびプログラム
US20240095915A1 (en) Information processing apparatus, information processing method, and information processing program
WO2022113587A1 (ja) 画像表示装置、方法およびプログラム
US20240078089A1 (en) System and method with medical data computing
WO2023054645A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22873019

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023549768

Country of ref document: JP