WO2023089716A1 - 情報表示装置、情報表示方法、及び、記録媒体 - Google Patents

情報表示装置、情報表示方法、及び、記録媒体 Download PDF

Info

Publication number
WO2023089716A1
WO2023089716A1 PCT/JP2021/042365 JP2021042365W WO2023089716A1 WO 2023089716 A1 WO2023089716 A1 WO 2023089716A1 JP 2021042365 W JP2021042365 W JP 2021042365W WO 2023089716 A1 WO2023089716 A1 WO 2023089716A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
speed
region
display device
withdrawal speed
Prior art date
Application number
PCT/JP2021/042365
Other languages
English (en)
French (fr)
Inventor
憲一 上條
郁磨 ▲高▼橋
元靖 奥津
翔太 大塚
達 木村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/042365 priority Critical patent/WO2023089716A1/ja
Publication of WO2023089716A1 publication Critical patent/WO2023089716A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the present disclosure relates to displaying information about endoscopy.
  • Patent Literature 1 proposes a method in which an endoscope system analyzes changes in the movement speed of an endoscope and informs the examiner if it is assumed that the examiner has overlooked a lesion site. is suggesting.
  • Patent Literature 1 when an examiner or the like checks examination data after an endoscopy, it is not always possible to refer to information about areas where the withdrawal speed was fast by an appropriate method.
  • One object of the present disclosure is to provide an information display device that allows users to refer to information related to areas where the withdrawal speed was high after an endoscopy.
  • an information display device includes: a position detection means for detecting the position of the endoscope; speed estimating means for estimating a withdrawal speed of the endoscope based on the position of the endoscope; display control means for displaying, on a display device, information indicating a region of interest, which is a region in which the removal speed is equal to or greater than a predetermined threshold value in an organ to be inspected, based on the position of the endoscope and the removal speed; Prepare.
  • an information display method includes: detect the position of the endoscope, estimating a withdrawal speed of the endoscope based on the position of the endoscope; Based on the position of the endoscope and the withdrawal speed, information indicating a region of interest, which is a region in which the withdrawal speed is equal to or higher than a predetermined threshold value in the organ to be inspected, is displayed on the display device.
  • the recording medium comprises detect the position of the endoscope, estimating a withdrawal speed of the endoscope based on the position of the endoscope; Based on the position of the endoscope and the withdrawal speed, the computer executes processing for displaying information indicating a region of interest, which is a region in which the withdrawal speed is equal to or greater than a predetermined threshold in the organ to be inspected, on a display device. Record the program that causes
  • FIG. 1 is a block diagram showing a schematic configuration of an endoscopy system
  • FIG. 2 is a block diagram showing the hardware configuration of the image processing device
  • FIG. 2 is a block diagram showing the functional configuration of the image processing device
  • FIG. Schematic representation of the structure of the large intestine A display example of an examination screen mode is shown.
  • a display example of an inspection result screen mode is shown.
  • 13 shows another display example of the inspection result screen mode.
  • 13 shows another display example of the inspection result screen mode. 13 shows another display example of the inspection result screen mode.
  • 13 shows another display example of the inspection result screen mode.
  • 4 is a flowchart of display processing by the image processing device; It is a block diagram which shows the functional structure of the information display apparatus of 2nd Embodiment. 9 is a flowchart of processing by the information display device of the second embodiment;
  • FIG. 1 shows a schematic configuration of an endoscopy system 100.
  • the endoscopy system 100 detects the position of the endoscope during examination (including treatment) using an endoscope, and estimates the withdrawal speed of the endoscope based on the position. Then, the endoscopy system 100 determines whether the withdrawal speed is equal to or greater than a predetermined threshold, and displays the result.
  • the endoscopy system 100 may detect lesions by AI image analysis during examination (including treatment) using an endoscope, and display them together with the above results. As a result, it becomes possible to easily grasp the region where the withdrawal speed was high and the region where the lesion was detected after the endoscopy.
  • the endoscopy system 100 mainly includes an image processing device 1, a display device 2, and an endoscope 3 connected to the image processing device 1.
  • the image processing apparatus 1 acquires from the endoscope 3 an image captured by the endoscope 3 during the endoscopy (hereinafter also referred to as an "endoscopic image Ic"), and performs the endoscopy.
  • the display device 2 is caused to display display data for confirmation by the inspector.
  • the image processing apparatus 1 acquires, as an endoscopic image Ic, a moving image of the interior of an organ captured by the endoscope 3 during an endoscopy.
  • an examiner finds a lesion during an endoscopy, the examiner operates the endoscope 3 to input an instruction to photograph the lesion position.
  • the image processing apparatus 1 generates a lesion image showing a lesion position based on an imaging instruction from an examiner.
  • the image processing apparatus 1 generates a lesion image, which is a still image, from the endoscopic image Ic, which is a moving image, based on the imaging instruction of the examiner.
  • the display device 2 is a display or the like that performs a predetermined display based on a display signal supplied from the image processing device 1 .
  • the endoscope 3 mainly includes an operation unit 36 for inputting air supply, water supply, angle adjustment, imaging instruction, etc. by the examiner, and a flexible endoscope which is inserted into an organ to be examined of the examinee.
  • a flexible shaft 37 a flexible shaft 37 , a distal end portion 38 containing an imaging unit such as an ultra-compact imaging device, and a connecting portion 39 for connecting to the image processing apparatus 1 .
  • the inspection object is not limited to the large intestine, but the gastrointestinal tract (digestive organ) such as the stomach, esophagus, small intestine, duodenum, etc. good too.
  • FIG. 2 shows the hardware configuration of the image processing apparatus 1.
  • the image processing apparatus 1 mainly includes a processor 11, a memory 12, an interface 13, an input section 14, a light source section 15, a sound output section 16, and a database (hereinafter referred to as "DB") 17. ,including.
  • DB database
  • the processor 11 executes a predetermined process by executing a program or the like stored in the memory 12.
  • the processor 11 is a processor such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a TPU (Tensor Processing Unit). Note that the processor 11 may be composed of a plurality of processors. Processor 11 is an example of a computer.
  • the memory 12 is composed of various volatile memories used as working memory, such as RAM (Random Access Memory) and ROM (Read Only Memory), and non-volatile memory for storing information necessary for processing of the image processing apparatus 1. be done.
  • the memory 12 may include an external storage device such as a hard disk connected to or built into the image processing apparatus 1, or may include a storage medium such as a detachable flash memory or disk medium.
  • the memory 12 stores a program for the image processing apparatus 1 to execute each process in this embodiment.
  • the memory 12 temporarily stores a series of endoscopic images Ic captured by the endoscope 3 during endoscopic examination.
  • the memory 12 temporarily stores lesion images captured based on imaging instructions from the examiner during the endoscopy. These images are stored in the memory 12 in association with, for example, subject identification information (for example, patient ID), time stamp information, and the like.
  • the interface 13 performs an interface operation between the image processing device 1 and an external device.
  • the interface 13 supplies the display data Id generated by the processor 11 to the display device 2 .
  • the interface 13 supplies illumination light generated by the light source unit 15 to the endoscope 3 .
  • the interface 13 also supplies the processor 11 with electrical signals indicating the endoscopic image Ic supplied from the endoscope 3 .
  • the interface 13 may be a communication interface such as a network adapter for performing wired or wireless communication with an external device, and may be a hardware interface conforming to USB (Universal Serial Bus), SATA (Serial AT Attachment), or the like. may
  • the input unit 14 generates an input signal based on the operation of the inspector.
  • the input unit 14 is, for example, a button, touch panel, remote controller, voice input device, or the like.
  • the light source unit 15 generates light to be supplied to the distal end portion 38 of the endoscope 3 .
  • the light source unit 15 may also incorporate a pump or the like for sending out water or air to be supplied to the endoscope 3 .
  • the sound output unit 16 outputs sound under the control of the processor 11 .
  • the DB 17 stores endoscopic images acquired by the subject's past endoscopic examinations and examination result information.
  • the DB 17 may include an external storage device such as a hard disk connected to or built into the image processing apparatus 1, or may include a storage medium such as a detachable flash memory. Note that instead of providing the DB 17 in the endoscopy system 100, the DB 17 may be provided in an external server or the like, and related information may be acquired from the server through communication.
  • FIG. 3 is a block diagram showing the functional configuration of the image processing apparatus 1. As shown in FIG.
  • the image processing apparatus 1 functionally includes a position detection unit 21, a speed estimation unit 22, a speed determination unit 23, an AI determination unit 24, an inspection data generation unit 25, and a display data generation unit 26. include.
  • An endoscope image Ic is input from the endoscope 3 to the image processing device 1 .
  • the endoscopic image Ic is input to the position detection unit 21 , the AI determination unit 24 and the examination data generation unit 25 .
  • the position detection unit 21 detects the position of the endoscope 3, that is, the imaging position of the endoscope image, based on the endoscope image Ic. Specifically, the position detection unit 21 detects the imaging position by image analysis of the input endoscope image Ic.
  • the imaging position may be three-dimensional coordinates of the organ to be inspected, but may be information indicating at least one of a plurality of regions in the organ to be inspected. For example, as shown in FIG.
  • the large intestine is composed of a plurality of regions (sites) such as the cecum, ascending colon, transverse colon, descending colon, sigmoid colon, and rectum. Therefore, when the examination target is the large intestine, the position detection unit 21 should be able to detect at least which of the above regions the imaging position belongs to.
  • regions such as the cecum, ascending colon, transverse colon, descending colon, sigmoid colon, and rectum. Therefore, when the examination target is the large intestine, the position detection unit 21 should be able to detect at least which of the above regions the imaging position belongs to.
  • the position detection unit 21 detects the image at that time based on the pattern of the mucous membrane, the presence or absence of folds, the shape of the folds, the number of folds passed by the movement of the endoscope 3, etc. included in the endoscopic image. It can be estimated which region of the large intestine the location belongs to.
  • the position detection unit 21 may detect the imaging position using the insertion length of the endoscope 3 inserted into the organ. In this embodiment, the method of detecting the imaging position in the organ to be inspected is not limited to a specific method.
  • the position detection unit 21 outputs the detected imaging position to the speed estimation unit 22 and the inspection data generation unit 25 .
  • the speed estimation unit 22 estimates the withdrawal speed of the endoscope based on the imaging position detected by the position detection unit 21 . If the position detection unit 21 cannot detect the three-dimensional coordinates of the imaging position, the speed estimation unit 22 may estimate the removal speed of the endoscope by image analysis of the captured image. The withdrawal speed of the endoscope may be estimated based on the amount of change in length. Further, the speed estimator 22 may combine these methods to estimate the withdrawal speed of the endoscope. The speed estimation unit 22 outputs the estimated removal speed to the speed determination unit 23 .
  • the speed determination unit 23 determines whether the withdrawal speed estimated by the speed estimation unit 22 is equal to or higher than a predetermined threshold.
  • the predetermined threshold value is a value determined in advance based on examination time recommended in guidelines for endoscopy or the like.
  • the speed determination section 23 outputs the determination result to the inspection data generation section 25 .
  • the AI determination unit 24 performs image analysis based on the endoscopic image Ic and determines the presence or absence of a lesion.
  • the AI determination unit 24 detects a lesion-like portion included in the endoscopic image using an image recognition model prepared in advance. When detecting a lesion-like portion, the AI determination unit 24 outputs the position (lesion position) and the score of the lesion-likeness as a determination result. On the other hand, when the AI determination unit 24 does not detect a lesion-like portion, it outputs a determination result indicating that there is no lesion.
  • the AI determination unit 24 outputs determination results to the inspection data generation unit 25 .
  • the examination data generation unit 25 generates the endoscopic image Ic, the imaging position detected by the position detection unit 21, the determination result of the withdrawal speed determined by the speed determination unit 23, and the determination of the presence or absence of a lesion determined by the AI determination unit 24. Based on the results, inspection data is generated and temporarily stored in the memory 12 . Specifically, when the inspector operates the endoscope 3, the inspection data generator 25 generates an endoscope image Ic captured by the endoscope 3, a patient name, a patient ID, an inspection date and time, and the like. The basic information, the determination result of the withdrawal speed at the imaging position, and the examination data including the determination result of the presence or absence of a lesion at the imaging position are generated and stored in the memory 12 .
  • the patient ID is information for uniquely identifying a patient, and may be an ID uniquely assigned to each patient or a personal identification number such as My Number.
  • the inspection data generation unit 25 also outputs the generated inspection data to the display data generation unit 26 .
  • the display data generation unit 26 generates display data Id using the inspection data input from the inspection data generation unit 25 and outputs the display data Id to the display device 2 .
  • the display data generation unit 26 has, as main screen display modes, an examination screen mode and an examination result screen mode.
  • the "in-examination screen mode” is a display mode for the examiner to confirm in real time the endoscopic image Ic captured by the endoscope 3 during the endoscopic examination.
  • the "examination result screen mode” is a mode for displaying the result of the endoscopy.
  • the examination result screen mode is used, for example, when confirming whether or not there is an overlooked region in an endoscopic examination of a certain patient.
  • FIG. 5 shows a display example in the during-examination screen mode.
  • This example is a display example of the display device 2 during an endoscopy of a certain patient.
  • an image 31 at the current imaging position is displayed in the display area 30 in addition to information such as the patient name, patient ID, examination date and time, and the current imaging position.
  • FIG. 6 shows a display example in the inspection result screen mode. This example is a display example of the display device 2 after an endoscopy of a certain patient.
  • an endoscopic image 41 in the display area 40, in addition to the patient name, patient ID, examination date and time, and imaging position, an endoscopic image 41, a withdrawal speed determination result 42, and an examination reliability 43 are displayed. is displayed, and a model image 44 is displayed outside the display area 40 . Since this example is a post-examination display example, the endoscopic image 41 is an "examination end" image indicating that the examination has been completed. etc. may be displayed.
  • the removal speed determination result 42 displays the determination result as to whether or not the removal speed in each region of the organ was equal to or greater than a predetermined threshold.
  • a predetermined threshold For example, when the withdrawal speed is equal to or less than a predetermined threshold, "O (normal)” is displayed, and when it is equal to or greater than the predetermined threshold, "X (fast)” is displayed.
  • region where the removal speed was more than a predetermined threshold value is also called "attention area.”
  • the inspection reliability 43 displays the inspection reliability based on the withdrawal speed.
  • the test reliability for the entire organ (in this example, the cecum, ascending colon, transverse colon, descending colon, sigmoid colon, and rectum), the area where the removal rate was below a predetermined threshold (in this example, the cecum, ascending colon, descending colon, rectum) are shown.
  • a 5-level reliability level reliability 1 to 5, reliability 5 being the highest
  • the model image 44 is a model image of the organ to be inspected (the large intestine in this embodiment), and the determination result of the withdrawal speed is displayed superimposed thereon.
  • the regions where the withdrawal speed was normal in this example, the cecum, ascending colon, descending colon, and rectum
  • the regions where the removal speed was fast in this example, the transverse colon, S shape colon
  • the thickness of the line, the color of the line, or the like may be used to distinguish between the two.
  • the inspector can easily grasp the area where the inspection accuracy and removal speed were high, and can appropriately judge the measures to be taken in the future. Become.
  • FIG. 7 shows another display example in the inspection result screen mode. This example is an example in the case of adding the lesion presence/absence determination result to the display example of FIG.
  • the determination result of the presence or absence of a lesion is displayed in the removal speed determination result 42a in the display area 40a and the model image 44a.
  • the removal speed judgment result 42a displays the judgment result as to whether or not the removal speed in each region of the organ is equal to or higher than a predetermined threshold value, and the judgment result as to whether or not there is a lesion in each region of the organ.
  • an area determined to have a lesion by the AI determination unit has the lesion presence/absence item "presence”
  • an area determined to have no lesion by the AI determination unit has the lesion presence item "absent”. is displayed.
  • an asterisk is displayed in the area determined to have a lesion by the AI determination unit.
  • the areas where withdrawal rates were normal are represented by solid lines.
  • regions with lesions (asterisks) and with high removal rates are indicated by thick dashed lines.
  • regions (in this example, the sigmoid colon) that were free of lesions (asterisks) and had high withdrawal rates are represented by thin dashed lines.
  • FIG. 8 shows yet another display example in the inspection result screen mode.
  • This example is an example in which model images of internal organs are omitted in FIG.
  • the information displayed in the display area 50 of FIG. 8 is the same as the information displayed in the display area 40 of FIG.
  • the row in which the determination result of the withdrawal speed is displayed as “ ⁇ (fast)” is surrounded by rectangles 51 and 52 .
  • FIG. 9 shows still another display example in the inspection result screen mode.
  • This example is an example in which model images of internal organs are omitted in FIG.
  • the information displayed in the display area 50a of FIG. 9 is the same as the information displayed in the display area 40a of FIG.
  • the row in which there is a lesion and the determination result of the withdrawal speed is indicated as “ ⁇ (fast)” is surrounded by a gray rectangle 51a.
  • a row in which there is no lesion and the determination result of the withdrawal speed is indicated as "x (fast)” is surrounded by a white rectangle 52a.
  • FIG. 10 is a flow chart of display processing by the image processing device 1 . This processing is realized by executing a program prepared in advance by the processor 11 shown in FIG. 2 and operating as each element shown in FIG. Note that FIG. 10 is an example of displaying the display example of FIG. 7 .
  • the position detection unit 21, the AI determination unit 24, and the inspection data generation unit 25 acquire the endoscope image Ic from the endoscope 3 (step S11).
  • the position detection unit 21 detects the imaging position based on the endoscopic image Ic (step S12).
  • the speed estimator 22 estimates the withdrawal speed of the endoscope using the detected photographing position (step S13).
  • the speed determination unit 23 determines whether or not the withdrawal speed acquired from the speed estimation unit 22 is equal to or greater than a predetermined threshold (step S14).
  • the AI determination unit 24 detects the presence or absence of a lesion from the endoscopic image Ic (step S15). Note that step S15 may be executed before step S12, or may be executed simultaneously with steps S12 to S14.
  • the display data generation unit 26 generates an endoscopic image 41, basic information such as the patient name, patient ID, examination date and time, the determination result of the withdrawal speed at the imaging position, and the imaging position. and the inspection data including the determination result of the presence or absence of a lesion and the inspection reliability from the inspection data generation unit 25, and display data as illustrated in FIG. 7 are generated and output to the display device 2 (step S16).
  • the display device 2 displays the received display data (step S17). Thus, a display such as the display example of FIG. 7 is performed.
  • FIG. 11 is a block diagram showing the functional configuration of the information display device of the second embodiment.
  • the information display device 70 includes position detection means 71 , speed estimation means 72 , display control means 73 and display device 74 .
  • FIG. 12 is a flowchart of processing by the information display device of the second embodiment.
  • the position detection means 71 acquires the position information of the endoscope based on the endoscope image (step S71).
  • the speed estimating means 72 estimates the withdrawal speed of the endoscope based on the acquired position information of the endoscope (step S72).
  • the display control means 73 displays, on the display device 74, information indicating a region of interest, which is a region in which the removal speed is equal to or greater than a predetermined threshold in the organ to be inspected, based on the position of the endoscope and the removal speed ( step S73).
  • the information display device 70 of the second embodiment after the endoscopy, it is possible to confirm the inspection result centering on the region where the withdrawal speed was high.
  • Appendix 1 a position detection means for detecting the position of the endoscope; speed estimating means for estimating a withdrawal speed of the endoscope based on the position of the endoscope; display control means for displaying, on a display device, information indicating a region of interest, which is a region in which the removal speed is equal to or greater than a predetermined threshold value in an organ to be inspected, based on the position of the endoscope and the removal speed; Information display device.
  • (Appendix 2) A lesion detection means for performing image analysis on the captured image captured by the endoscope and determining the presence or absence of a lesion,
  • the information display device according to Supplementary Note 1, wherein the display control means displays, as the attention area, an area in which the withdrawal speed is equal to or higher than a predetermined threshold and in which a lesion is detected by the image analysis.
  • the display control means displays a region in which the withdrawal speed is equal to or higher than a predetermined threshold and in which a lesion is detected by the image analysis in a manner that can be distinguished from the regions in which the withdrawal speed is equal to or higher than a predetermined threshold.
  • the information display device according to appendix 2.
  • Appendix 4 The information display device according to any one of Appendices 1 to 3, wherein the display control means superimposes and displays the region of interest on a model image showing the entire organ to be inspected.
  • Appendix 5 4. The information display device according to any one of Appendices 1 to 3, wherein the display control means displays the region of interest by characters in units of regions forming the organ to be inspected.
  • Appendix 6 The information display device according to any one of appendices 1 to 5, wherein the display control means displays information indicating a ratio of regions in which the removal speed is equal to or higher than a predetermined threshold to the entire organ to be inspected. .
  • Appendix 7 The information display device according to any one of Appendices 1 to 6, wherein the display control means displays the region of interest after an examination using the endoscope is completed.
  • Appendix 8 detect the position of the endoscope, estimating a withdrawal speed of the endoscope based on the position of the endoscope;
  • Appendix 9 detect the position of the endoscope, estimating a withdrawal speed of the endoscope based on the position of the endoscope; Based on the position of the endoscope and the withdrawal speed, the computer executes processing for displaying information indicating a region of interest, which is a region in which the withdrawal speed is equal to or greater than a predetermined threshold in the organ to be inspected, on a display device.
  • Reference Signs List 1 image processing device 2 display device 3 endoscope 11 processor 12 memory 17 database (DB) 21 position detection unit 22 speed estimation unit 23 speed determination unit 24 AI determination unit 25 inspection data generation unit 26 display data generation unit 100 endoscopy system

Abstract

位置検出手段は、内視鏡画像などに基づいて、内視鏡の位置情報を取得する。速度推定手段は、取得された内視鏡の位置情報に基づいて、内視鏡の抜去速度を推定する。表示制御手段は、内視鏡の位置と抜去速度とに基づいて、検査対象の臓器において抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する。

Description

情報表示装置、情報表示方法、及び、記録媒体
 本開示は、内視鏡検査に関する情報の表示に関する。
 従来、内視鏡検査を行う際、検査対象となる臓器内で、所定の時間をかけながら内視鏡を抜去していくことが好ましいとされている。このような観点から、特許文献1は、内視鏡システムにおいて、内視鏡の移動速度の変化を解析し、検査者が病変部位を見落としていると推測した場合、検査者に報知する手法を提案している。
国際公開WO2020/110214号公報
 しかし、特許文献1によっても、検査者などが、内視鏡検査後に検査データの確認をする場合、抜去速度が速かった領域に関する情報を、適切な方法で参照できるとは限らない。
 本開示の1つの目的は、内視鏡検査後に、抜去速度が速かった領域に関する情報を参照することが可能な情報表示装置を提供することにある。
 本開示の一つの観点では、情報表示装置は、
 内視鏡の位置を検出する位置検出手段と、
 前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定する速度推定手段と、
 前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する表示制御手段と、を備える。
 本開示の他の観点では、情報表示方法は、
 内視鏡の位置を検出し、
 前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定し、
 前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する。
 本開示のさらに他の観点では、記録媒体は、
 内視鏡の位置を検出し、
 前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定し、
 前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する処理をコンピュータに実行させるプログラムを記録する。
 本開示によれば、内視鏡検査後に、抜去速度が速かった領域を中心に、検査結果を確認することが可能となり、再検査の要否判断などを効率的に行うことが可能となる。
内視鏡検査システムの概略構成を示すブロック図である。 画像処理装置のハードウェア構成を示すブロック図である。 画像処理装置の機能構成を示すブロック図である。 大腸の構造を模式的に示す。 検査中画面モードの表示例を示す。 検査結果画面モードの表示例を示す。 検査結果画面モードの他の表示例を示す。 検査結果画面モードの他の表示例を示す。 検査結果画面モードの他の表示例を示す。 画像処理装置による表示処理のフローチャートである。 第2実施形態の情報表示装置の機能構成を示すブロック図である。 第2実施形態の情報表示装置による処理のフローチャートである。
 以下、図面を参照して、本開示の好適な実施形態について説明する。
 <第1実施形態>
 [システム構成]
 図1は、内視鏡検査システム100の概略構成を示す。内視鏡検査システム100は、内視鏡を利用した検査(治療を含む)の際に、内視鏡の位置を検出し、その位置に基づいて内視鏡の抜去速度を推定する。そして、内視鏡検査システム100は、抜去速度が所定の閾値以上であるか否かを判定し、結果を表示する。また、内視鏡検査システム100は、内視鏡を利用した検査(治療を含む)の際に、AIの画像解析によって病変を検出し、上記の結果と合わせて表示してもよい。これにより、内視鏡検査後に、抜去速度が速かった領域や病変が検出された領域を、容易に把握することが可能となる。
 図1に示すように、内視鏡検査システム100は、主に、画像処理装置1と、表示装置2と、画像処理装置1に接続された内視鏡スコープ3と、を備える。
 画像処理装置1は、内視鏡検査中に内視鏡スコープ3が撮影する画像(以下、「内視鏡画像Ic」とも呼ぶ。)を内視鏡スコープ3から取得し、内視鏡検査の検査者が確認するための表示データを表示装置2に表示させる。具体的に、画像処理装置1は、内視鏡検査中に、内視鏡スコープ3により撮影された臓器内の動画を内視鏡画像Icとして取得する。また、検査者は、内視鏡検査中に病変を見つけると、内視鏡スコープ3を操作して病変位置の撮影指示を入力する。画像処理装置1は、検査者による撮影指示に基づいて、病変位置を写した病変画像を生成する。具体的には、画像処理装置1は、動画である内視鏡画像Icから、検査者の撮影指示に基づいて静止画である病変画像を生成する。
 表示装置2は、画像処理装置1から供給される表示信号に基づき所定の表示を行うディスプレイ等である。
 内視鏡スコープ3は、主に、検査者が送気、送水、アングル調整、撮影指示などの入力を行うための操作部36と、被検者の検査対象となる臓器内に挿入され、柔軟性を有するシャフト37と、超小型撮像素子などの撮影部を内蔵した先端部38と、画像処理装置1と接続するための接続部39とを有する。
 なお、以下では、主に大腸の内視鏡検査における処理を前提として説明を行うが、検査対象は、大腸に限らず、胃、食道、小腸、十二指腸などの消化管(消化器)であってもよい。
 [ハードウェア構成]
 図2は、画像処理装置1のハードウェア構成を示す。画像処理装置1は、主に、プロセッサ11と、メモリ12と、インターフェース13と、入力部14と、光源部15と、音出力部16と、データベース(以下、「DB」と記す。)17と、を含む。これらの各要素は、データバス19を介して接続されている。
 プロセッサ11は、メモリ12に記憶されているプログラム等を実行することにより、所定の処理を実行する。プロセッサ11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)などのプロセッサである。なお、プロセッサ11は、複数のプロセッサから構成されてもよい。プロセッサ11は、コンピュータの一例である。
 メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)などの、作業メモリとして使用される各種の揮発性メモリ及び画像処理装置1の処理に必要な情報を記憶する不揮発性メモリにより構成される。なお、メモリ12は、画像処理装置1に接続又は内蔵されたハードディスクなどの外部記憶装置を含んでもよく、着脱自在なフラッシュメモリやディスク媒体などの記憶媒体を含んでもよい。メモリ12には、画像処理装置1が本実施形態における各処理を実行するためのプログラムが記憶される。
 また、メモリ12は、プロセッサ11の制御に基づき、内視鏡検査において内視鏡スコープ3が撮影した一連の内視鏡画像Icを一時的に記憶する。また、メモリ12は、内視鏡検査中に検査者の撮影指示に基づいて撮影された病変画像を一時的に記憶する。これらの画像は、例えば、被検者の識別情報(例えば患者ID)、及び、タイムスタンプの情報等と関連付けられてメモリ12に記憶される。
 インターフェース13は、画像処理装置1と外部装置とのインターフェース動作を行う。例えば、インターフェース13は、プロセッサ11が生成した表示データIdを表示装置2に供給する。また、インターフェース13は、光源部15が生成する照明光を内視鏡スコープ3に供給する。また、インターフェース13は、内視鏡スコープ3から供給される内視鏡画像Icを示す電気信号をプロセッサ11に供給する。インターフェース13は、外部装置と有線又は無線により通信を行うためのネットワークアダプタなどの通信インターフェースであってもよく、USB(Universal Serial Bus)、SATA(Serial AT Attachment)などに準拠したハードウェアインターフェースであってもよい。
 入力部14は、検査者の操作に基づく入力信号を生成する。入力部14は、例えば、ボタン、タッチパネル、リモートコントローラ、音声入力装置等である。光源部15は、内視鏡スコープ3の先端部38に供給するための光を生成する。また、光源部15は、内視鏡スコープ3に供給する水や空気を送り出すためのポンプ等も内蔵してもよい。音出力部16は、プロセッサ11の制御に基づき音を出力する。
 DB17は、被検者の過去の内視鏡検査により取得された内視鏡画像、及び、検査結果情報を記憶している。DB17は、画像処理装置1に接続又は内蔵されたハードディスクなどの外部記憶装置を含んでもよく、着脱自在なフラッシュメモリなどの記憶媒体を含んでもよい。なお、DB17を内視鏡検査システム100内に備える代わりに、外部のサーバなどにDB17を設け、通信により当該サーバから関連情報を取得するようにしてもよい。
 [機能構成]
 図3は、画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、機能的には、位置検出部21と、速度推定部22と、速度判定部23と、AI判定部24と、検査データ生成部25と、表示データ生成部26と、を含む。
 画像処理装置1には、内視鏡スコープ3から内視鏡画像Icが入力される。内視鏡画像Icは、位置検出部21と、AI判定部24と、検査データ生成部25に入力される。位置検出部21は、内視鏡画像Icに基づいて、内視鏡スコープ3の位置、即ち、内視鏡画像の撮影位置を検出する。詳しくは、位置検出部21は、入力された内視鏡画像Icの画像解析により、撮影位置を検出する。ここで、撮影位置とは、検査対象の臓器における3次元座標であってもよいが、少なくとも検査対象の臓器における複数の領域のいずれかを示す情報であればよい。例えば、図4に示すように、大腸は、盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸などの複数の領域(部位)により構成される。よって、検査対象が大腸である場合、位置検出部21は、少なくとも撮影位置が上記の各領域のいずれに属するかを検出できればよい。
 具体的に、位置検出部21は、内視鏡画像に含まれる粘膜の模様、ひだの有無、ひだの形状、内視鏡スコープ3の移動により通過したひだの数などに基づいて、その時の撮影位置が大腸のどの領域に属するかを推定することができる。また、位置検出部21は、内視鏡画像の画像解析に加えて、臓器内に挿入した内視鏡スコープ3の挿入長を用いて、撮影位置を検出してもよい。本実施形態では、検査対象の臓器における撮影位置の検出方法は特定の方法に限定されるものではない。位置検出部21は、検出した撮影位置を速度推定部22と検査データ生成部25へ出力する。
 速度推定部22は、位置検出部21が検出した撮影位置に基づいて、内視鏡の抜去速度を推定する。なお、位置検出部21が撮影位置の3次元座標を検出できない場合、速度推定部22は、撮影画像の画像解析により内視鏡の抜去速度を推定してもよく、内視鏡スコープ3の挿入長の変化量に基づいて内視鏡の抜去速度を推定してもよい。また、速度推定部22は、これらの方法を組み合わせて内視鏡の抜去速度を推定してもよい。速度推定部22は、推定した抜去速度を速度判定部23へ出力する。
 速度判定部23は、速度推定部22が推定した抜去速度が所定の閾値以上であるか否かを判定する。所定の閾値は、内視鏡検査のガイドラインなどにおいて推奨される検査時間などに基づいて予め決められた値である。速度判定部23は、判定結果を検査データ生成部25へ出力する。
 AI判定部24は、内視鏡画像Icに基づいて画像解析を行い、病変の有無を判定する。AI判定部24は、予め用意された画像認識モデルなどを用いて、内視鏡画像に含まれる病変らしい箇所を検出する。AI判定部24は、病変らしい箇所を検出した場合、その位置(病変位置)と、病変らしさのスコアを判定結果として出力する。一方、AI判定部24は、病変らしい箇所を検出しなかった場合、病変無しとの判定結果を出力する。AI判定部24は、判定結果を検査データ生成部25へ出力する。
 検査データ生成部25は、内視鏡画像Icと、位置検出部21が検出した撮影位置と、速度判定部23が判定した抜去速度の判定結果と、AI判定部24が判定した病変有無の判定結果とに基づいて検査データを生成し、メモリ12に一時的に記憶する。具体的には、検査者が内視鏡スコープ3を操作すると、検査データ生成部25は、内視鏡スコープ3により撮影された内視鏡画像Icと、患者名、患者ID、検査日時などの基本情報と、撮影位置における抜去速度の判定結果と、撮影位置における病変有無の判定結果などを含む検査データとを生成し、メモリ12に記憶する。患者IDは、患者を一意に識別する情報であり、患者毎に一意に付与したIDなどの他、マイナンバーなどの個人識別番号を利用してもよい。また、検査データ生成部25は、生成した検査データを表示データ生成部26へ出力する。
 表示データ生成部26は、検査データ生成部25から入力される検査データを用いて表示データIdを生成し、表示装置2へ出力する。表示データ生成部26は、主な画面表示モードとして、検査中画面モードと、検査結果画面モードとを有する。ここで、「検査中画面モード」とは、検査者が、内視鏡検査中に、内視鏡スコープ3により撮影された内視鏡画像Icを、リアルタイムで確認するための表示モードである。また、「検査結果画面モード」とは、内視鏡検査の結果を表示するモードである。検査結果画面モードは、例えば、ある患者の内視鏡検査において、見落としている領域がないかを確認する場合などに使用される。
 [表示例]
 次に、表示装置2による表示例を説明する。
 (検査中画面モード)
 図5は、検査中画面モードによる表示例を示す。この例は、ある患者の内視鏡検査中における表示装置2の表示例である。具体的に、図5の表示例では表示エリア30内に、患者名、患者ID、検査日時及び現在の撮影位置などの情報に加えて、現在の撮影位置の画像31が表示されている。
 (検査結果画面モード)
 図6は、検査結果画面モードによる表示例を示す。この例は、ある患者の内視鏡検査後における表示装置2の表示例である。
 具体的に、図6の表示例では、表示エリア40内に、患者名、患者ID、検査日時及び撮影位置に加えて、内視鏡画像41と、抜去速度判定結果42と、検査信頼度43とが表示され、さらに表示エリア40外にモデル画像44が表示されている。この例は検査後の表示例であるので、内視鏡画像41として検査が終了したことを表す「検査終了」画像が表示されているが、その代わりに、検査中に検出された病変の画像などを表示してもよい。
 抜去速度判定結果42には、臓器の各領域において抜去速度が所定の閾値以上であったか否かの判定結果が表示されている。ここでは、一例として、抜去速度が、所定の閾値以下であった場合は「〇(正常)」、所定の閾値以上であった場合は「×(速い)」と表示されている。なお、抜去速度が所定の閾値以上であった領域を「注目領域」とも呼ぶ。
 検査信頼度43には、抜去速度に基づいた検査信頼度が表示されている。ここでは、検査信頼度として、臓器全体(本例では盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸)に対する、抜去速度が所定の閾値以下であった領域(本例では盲腸、上行結腸、下行結腸、直腸)の割合が表示されている。なお、上記の割合自体を表示する代わりに、上記の割合に基づいて5段階の信頼度レベル(信頼度1~5、信頼度5が最も信頼度が高い)などを決定し、表示してもよい。
 モデル画像44は、検査対象となる臓器(本実施形態では大腸)のモデル画像であり、その上に、抜去速度の判定結果が重なって表示されている。ここでは、図示の便宜上、抜去速度が正常だった領域(本例では盲腸、上行結腸、下行結腸、直腸)が実線で表されており、抜去速度が速かった領域(本例では横行結腸、S状結腸)が破線で表されている。なお、実線と破線の代わりに、線の太さ、線の色などを用いて、両者を区別して表示してもよい。
 以上のような検査結果画面モードの表示により、検査者などは、検査の精度及び抜去速度が速かった領域を容易に把握することができ、今後行うべき処置などを適切に判断することが可能となる。
 図7は、検査結果画面モードによる他の表示例を示す。この例は、図6の表示例に、病変有無の判定結果を追加した場合の例である。
 具体的に、図7の表示例では、表示エリア40a内の抜去速度判定結果42aと、モデル画像44aとに、病変有無の判定結果が表示されている。抜去速度判定結果42aには、臓器の各領域において抜去速度が所定の閾値以上であったか否かの判定結果に加え、臓器の各領域における病変有無の判定結果が表示されている。ここでは、一例として、AI判定部が病変ありと判定した領域には、病変有無の項目に「有」が、AI判定部が病変なしと判定した領域には、病変有無の項目に「無」が表示されている。
 モデル画像44aには、抜去速度の判定結果(実線、破線)の表示に加え、AI判定部が病変ありと判定した領域に星印が表示されている。具体的に、抜去速度が正常だった領域(本例では盲腸、上行結腸、下行結腸、直腸)は、実線で表されている。また、病変(星印)があり、かつ、抜去速度が速かった領域(本例では横行結腸)は、太い破線で表されている。さらに、病変(星印)がなく、かつ、抜去速度が速かった領域(本例ではS状結腸)は、細い破線で表されている。このように、図7の表示例では、単に抜去速度が速かった領域と、抜去速度が速くかつ病変が見つかった領域とを区別して表示している。これにより、検査者などは、病変があり、かつ、抜去速度が速かった領域を容易に把握することができ、病変を見落としている可能性が高い領域を優先的に確認することが可能となる。
 図8は、検査結果画面モードによるさらに他の表示例を示す。この例は、図6において、臓器のモデル画像を省略した場合の例である。具体的に、図8の表示エリア50に表示される情報は、図6の表示エリア40に表示される情報と同様である。これに加え、図8では、抜去速度の判定結果が「×(速い)」と表示された行が、矩形51、52で囲まれている。これにより、モデル画像がない場合でも、抜去速度が速かった領域を容易に把握することが可能となる。
 図9は、検査結果画面モードによるさらに他の表示例を示す。この例は、図7において、臓器のモデル画像を省略した場合の例である。具体的に、図9の表示エリア50aに表示される情報は、図7の表示エリア40aに表示される情報と同様である。これに加え、図9では、病変があり、かつ、抜去速度の判定結果が「×(速い)」と表示された行が、グレーの矩形51aで囲まれている。また、病変がなく、かつ、抜去速度の判定結果が「×(速い)」と表示された行が、白の矩形52aで囲まれている。これにより、モデル画像がない場合でも、病変があり、かつ、抜去速度が速かった領域を容易に把握することができる。
 [表示処理]
 次に、上記のような表示を行う表示処理について説明する。図10は、画像処理装置1による表示処理のフローチャートである。この処理は、図2に示すプロセッサ11が予め用意されたプログラムを実行し、図3に示す各要素として動作することにより実現される。なお、図10は、図7の表示例を表示する場合の例である。
 まず、位置検出部21とAI判定部24と検査データ生成部25は、内視鏡スコープ3から内視鏡画像Icを取得する(ステップS11)。次に、位置検出部21は内視鏡画像Icに基づいて撮影位置を検出する(ステップS12)。次に、速度推定部22は検出された撮影位置などを用いて内視鏡の抜去速度を推定する(ステップS13)。次に、速度判定部23は、速度推定部22から取得した抜去速度が所定の閾値以上であるか否か判定する(ステップS14)。一方、AI判定部24は、内視鏡画像Icから病変の有無を検出する(ステップS15)。なお、ステップS15は、ステップS12よりも前に実行されてもよく、ステップS12~S14と同時に実行されてもよい。
 次に、表示データ生成部26は、図7に示すように、内視鏡画像41と、患者名、患者ID、検査日時などの基本情報と、撮影位置における抜去速度の判定結果と、撮影位置における病変有無の判定結果と、検査信頼度とを含む検査データを検査データ生成部25から取得し、図7に例示するような表示データを生成して表示装置2へ出力する(ステップS16)。表示装置2は、受信した表示データを表示する(ステップS17)。こうして、図7の表示例のような表示が行われる。
 <第2実施形態>
 図11は、第2実施形態の情報表示装置の機能構成を示すブロック図である。情報表示装置70は、位置検出手段71と、速度推定手段72と、表示制御手段73と、表示装置74とを備える。
 図12は、第2実施形態の情報表示装置による処理のフローチャートである。位置検出手段71は、内視鏡画像などに基づいて、内視鏡の位置情報を取得する(ステップS71)。次に、速度推定手段72は、取得された内視鏡の位置情報に基づいて、内視鏡の抜去速度を推定する(ステップS72)。表示制御手段73は、内視鏡の位置と抜去速度とに基づいて、検査対象の臓器において抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置74に表示する(ステップS73)。
 第2実施形態の情報表示装置70によれば、内視鏡検査後に、抜去速度が速かった領域を中心に、検査結果を確認することが可能となる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 内視鏡の位置を検出する位置検出手段と、
 前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定する速度推定手段と、
 前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する表示制御手段と、
 を備える情報表示装置。
 (付記2)
 前記内視鏡により撮影された撮影画像について画像解析を行い、病変の有無を判定する病変検出手段を備え、
 前記表示制御手段は、前記抜去速度が所定の閾値以上であり、かつ、前記画像解析によって病変が検出された領域を前記注目領域として表示する付記1に記載の情報表示装置。
 (付記3)
 前記表示制御手段は、前記抜去速度が所定の閾値以上であり、かつ、前記画像解析によって病変が検出された領域を、前記抜去速度が所定の閾値以上である領域と識別可能な態様で表示する付記2に記載の情報表示装置。
 (付記4)
 前記表示制御手段は、前記注目領域を、前記検査対象の臓器全体を示すモデル画像上に重畳表示する付記1乃至3のいずれか一項に記載の情報表示装置。
 (付記5)
 前記表示制御手段は、前記注目領域を、前記検査対象の臓器を構成する領域の単位で文字により表示する付記1乃至3のいずれか一項に記載の情報表示装置。
 (付記6)
 前記表示制御手段は、前記検査対象の臓器の全体に対する、前記抜去速度が所定の閾値以上であった領域の割合を示す情報を表示する付記1乃至5のいずれか一項に記載の情報表示装置。
 (付記7)
 前記表示制御手段は、前記注目領域を、前記内視鏡を用いた検査の終了後に表示する付記1乃至6のいずれか一項に記載の情報表示装置。
 (付記8)
 内視鏡の位置を検出し、
 前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定し、
 前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する情報表示方法。
 (付記9)
 内視鏡の位置を検出し、
 前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定し、
 前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する処理をコンピュータに実行させるプログラムを記録した記憶媒体。
 以上、実施形態及び実施例を参照して本開示を説明したが、本開示は上記実施形態及び実施例に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
 1 画像処理装置
 2 表示装置
 3 内視鏡スコープ
 11 プロセッサ
 12 メモリ
 17 データベース(DB)
 21 位置検出部
 22 速度推定部
 23 速度判定部
 24 AI判定部
 25 検査データ生成部
 26 表示データ生成部
 100 内視鏡検査システム

Claims (9)

  1.  内視鏡の位置を検出する位置検出手段と、
     前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定する速度推定手段と、
     前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する表示制御手段と、
     を備える情報表示装置。
  2.  前記内視鏡により撮影された撮影画像について画像解析を行い、病変の有無を判定する病変検出手段を備え、
     前記表示制御手段は、前記抜去速度が所定の閾値以上であり、かつ、前記画像解析によって病変が検出された領域を前記注目領域として表示する請求項1に記載の情報表示装置。
  3.  前記表示制御手段は、前記抜去速度が所定の閾値以上であり、かつ、前記画像解析によって病変が検出された領域を、前記抜去速度が所定の閾値以上である領域と識別可能な態様で表示する請求項2に記載の情報表示装置。
  4.  前記表示制御手段は、前記注目領域を、前記検査対象の臓器全体を示すモデル画像上に重畳表示する請求項1乃至3のいずれか一項に記載の情報表示装置。
  5.  前記表示制御手段は、前記注目領域を、前記検査対象の臓器を構成する領域の単位で文字により表示する請求項1乃至3のいずれか一項に記載の情報表示装置。
  6.  前記表示制御手段は、前記検査対象の臓器の全体に対する、前記抜去速度が所定の閾値以上であった領域の割合を示す情報を表示する請求項1乃至5のいずれか一項に記載の情報表示装置。
  7.  前記表示制御手段は、前記注目領域を、前記内視鏡を用いた検査の終了後に表示する請求項1乃至6のいずれか一項に記載の情報表示装置。
  8.  内視鏡の位置を検出し、
     前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定し、
     前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する情報表示方法。
  9.  内視鏡の位置を検出し、
     前記内視鏡の位置に基づいて、前記内視鏡の抜去速度を推定し、
     前記内視鏡の位置と、前記抜去速度とに基づき、検査対象の臓器において前記抜去速度が所定の閾値以上であった領域である注目領域を示す情報を表示装置に表示する処理をコンピュータに実行させるプログラムを記録した記憶媒体。
PCT/JP2021/042365 2021-11-18 2021-11-18 情報表示装置、情報表示方法、及び、記録媒体 WO2023089716A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/042365 WO2023089716A1 (ja) 2021-11-18 2021-11-18 情報表示装置、情報表示方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/042365 WO2023089716A1 (ja) 2021-11-18 2021-11-18 情報表示装置、情報表示方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2023089716A1 true WO2023089716A1 (ja) 2023-05-25

Family

ID=86396450

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042365 WO2023089716A1 (ja) 2021-11-18 2021-11-18 情報表示装置、情報表示方法、及び、記録媒体

Country Status (1)

Country Link
WO (1) WO2023089716A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253686A1 (en) * 2007-04-10 2008-10-16 Avantis Medical Systems, Inc. Method and Device for Examining or Imaging an Interior Surface of a Cavity
WO2009128055A1 (en) * 2008-04-15 2009-10-22 Provost Fellows And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth Near Dublin Endoscopy system with motion sensors
JP2016021216A (ja) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 所見入力支援システム、装置、方法およびプログラム
JP2016063868A (ja) * 2014-09-22 2016-04-28 オリンパス株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
WO2019078237A1 (ja) * 2017-10-18 2019-04-25 富士フイルム株式会社 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
WO2020110214A1 (ja) 2018-11-28 2020-06-04 オリンパス株式会社 内視鏡システム、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080253686A1 (en) * 2007-04-10 2008-10-16 Avantis Medical Systems, Inc. Method and Device for Examining or Imaging an Interior Surface of a Cavity
WO2009128055A1 (en) * 2008-04-15 2009-10-22 Provost Fellows And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth Near Dublin Endoscopy system with motion sensors
JP2016021216A (ja) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 所見入力支援システム、装置、方法およびプログラム
JP2016063868A (ja) * 2014-09-22 2016-04-28 オリンパス株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
WO2019078237A1 (ja) * 2017-10-18 2019-04-25 富士フイルム株式会社 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
WO2020110214A1 (ja) 2018-11-28 2020-06-04 オリンパス株式会社 内視鏡システム、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム

Similar Documents

Publication Publication Date Title
US11690494B2 (en) Endoscope observation assistance apparatus and endoscope observation assistance method
US9204781B2 (en) Image processing apparatus and image processing method
WO2018165620A1 (en) Systems and methods for clinical image classification
WO2021176664A1 (ja) 検査支援システム、検査支援方法、及び、プログラム
WO2018211674A1 (ja) 画像処理装置、画像処理方法およびプログラム
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
KR100751160B1 (ko) 의료용 화상 기록 시스템
JPWO2020183936A1 (ja) 検査装置、検査方法及び記憶媒体
JP7189355B2 (ja) コンピュータプログラム、内視鏡用プロセッサ、及び情報処理方法
WO2023126999A1 (ja) 画像処理装置、画像処理方法、及び、記憶媒体
WO2023089716A1 (ja) 情報表示装置、情報表示方法、及び、記録媒体
WO2023089717A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
WO2023089718A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
WO2023089719A1 (ja) 映像編集装置、映像編集方法、及び、記録媒体
US20220202284A1 (en) Endoscope processor, training device, information processing method, training method and program
WO2023089715A1 (ja) 画像表示装置、画像表示方法、及び、記録媒体
US20240081614A1 (en) Endoscopic examination support apparatus, endoscopic examination support method, and recording medium
US20240138651A1 (en) Endoscopic examination support apparatus, endoscopic examination support method, and recording medium
US20240090741A1 (en) Endoscopic examination support apparatus, endoscopic examination support method, and recording medium
US20240135642A1 (en) Endoscopic examination support apparatus, endoscopic examination support method, and recording medium
US20240127531A1 (en) Endoscopic examination support apparatus, endoscopic examination support method, and recording medium
WO2023275974A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
JP7448923B2 (ja) 情報処理装置、情報処理装置の作動方法、及びプログラム
WO2023218523A1 (ja) 第2の内視鏡システム、第1の内視鏡システム、および内視鏡検査方法
JP2023107919A (ja) 大腸内視鏡観察支援装置、作動方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21964731

Country of ref document: EP

Kind code of ref document: A1