JP2023026480A - Medical image processing device, endoscope system, and operation method of medical image processing device - Google Patents

Medical image processing device, endoscope system, and operation method of medical image processing device Download PDF

Info

Publication number
JP2023026480A
JP2023026480A JP2022200252A JP2022200252A JP2023026480A JP 2023026480 A JP2023026480 A JP 2023026480A JP 2022200252 A JP2022200252 A JP 2022200252A JP 2022200252 A JP2022200252 A JP 2022200252A JP 2023026480 A JP2023026480 A JP 2023026480A
Authority
JP
Japan
Prior art keywords
medical image
display
image
information
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022200252A
Other languages
Japanese (ja)
Inventor
駿平 加門
Shumpei KAMON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2023026480A publication Critical patent/JP2023026480A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a medical image processing device, an endoscope system, and an operation method of a medical image processing device which allow medical images to be highlighted according to the real-timeness thereof.
SOLUTION: A medical image processing device according to one embodiment of the present invention comprises: a medical image acquisition unit for acquiring a medical image; an information acquisition unit for acquiring information regarding an area of interest in the medical image; a mode setting unit for setting, on the basis of the information, the highlighting of the area of interest to a display mode in which the highlighting level in a case where the medical image is a non-real-time image acquired in non-real time is higher than the highlighting level in a case where the medical image is a real-time image acquired in real time; a display control unit causing the medical image to be displayed on a display device in the display mode that has been set; and a recording control unit causing the medical image and the information to be associated and recorded in a recording device. The display control unit causes the display device to display portion information being information indicating a portion captured in the medical image together with the display of the medical image.
SELECTED DRAWING: Figure 7
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は医療画像の強調表示を行う医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法に関する。 The present invention relates to a medical image processing apparatus for highlighting medical images, an endoscope system, and a method of operating a medical image processing apparatus.

医師等のユーザが医療画像の観察あるいは診断を行う際の支援として、画像の強調や表示態様の変更を行うことが知られている。例えば、特許文献1には、注目領域のサイズや数に応じてアラート画像を表示することが記載されている。 2. Description of the Related Art Emphasizing an image or changing a display mode is known as a support for a user such as a doctor to observe or diagnose a medical image. For example, Patent Literature 1 describes displaying an alert image according to the size and number of attention areas.

特開2011-255006号公報JP 2011-255006 A

医療画像の観察あるいは診断を行う場合、画像の性質によって好ましい強調表示の態様が異なるので、適宜切り替える必要がある。例えば、スクリーニング検査中にリアルタイムで取得した画像で検出された注目領域に図形等を重畳することで、ユーザに病変検出の報知を行うことができる。一方、ユーザは検査中に発見された病変の画像を保存し、レポート作成や研究に利用する。また、保存した画像を必要に応じ再度表示させて観察する。このように非リアルタイムで取得した画像を表示させる場合、図形等の重畳表示は観察や診断の妨げになり得るので、注目領域の強調表示をリアルタイム表示時と異なる態様に設定することが好ましい。しかしながら、上述した特許文献1にこのような事情が考慮されていない。 When observing or diagnosing a medical image, the preferred mode of highlighting differs depending on the nature of the image, so it is necessary to switch between them as appropriate. For example, by superimposing a graphic or the like on a region of interest detected in an image acquired in real time during a screening examination, it is possible to notify the user of the detection of a lesion. On the other hand, the user saves the images of the lesions found during the examination and uses them for report writing and research. In addition, the saved image is displayed again as necessary for observation. When displaying an image acquired in non-real time in this way, superimposed display of figures and the like may interfere with observation and diagnosis, so it is preferable to set the highlighted display of the region of interest in a manner different from that during real-time display. However, such circumstances are not taken into consideration in the aforementioned Patent Document 1.

このように、従来の技術では医療画像をリアルタイム性に応じて適切に強調表示することが困難であった。 As described above, it has been difficult with conventional techniques to appropriately highlight and display a medical image in real time.

本発明はこのような事情に鑑みてなされたもので、医療画像をリアルタイム性に応じて強調表示することができる医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and provides a medical image processing apparatus, an endoscope system, and a method of operating the medical image processing apparatus that can highlight and display medical images in real time. for the purpose.

上述した目的を達成するため、本発明の第1の態様に係る医療画像処理装置は、医療画像を取得する医療画像取得部と、医療画像における注目領域の情報を取得する情報取得部と、情報に基づいて、注目領域の強調表示を、医療画像がリアルタイムで取得されたリアルタイム画像であるか非リアルタイムで取得された非リアルタイム画像であるかに応じた表示態様に設定する態様設定部と、医療画像を設定された表示態様で表示装置に表示させる表示制御部と、医療画像と情報とを関連付けて記録装置に記録させる記録制御部と、を備える。 In order to achieve the above-described object, a medical image processing apparatus according to a first aspect of the present invention includes a medical image acquisition unit that acquires a medical image, an information acquisition unit that acquires information on a region of interest in the medical image, an information a mode setting unit for setting the highlighting of the region of interest to a display mode according to whether the medical image is a real-time image acquired in real time or a non-real-time image acquired in non-real time, based on A display control unit that causes a display device to display an image in a set display mode, and a recording control unit that causes a recording device to record medical images and information in association with each other.

第1の態様に係る医療画像処理装置は、医療画像をリアルタイム性(リアルタイムで取得されたリアルタイム画像であるか非リアルタイムで取得された非リアルタイム画像であるか)に応じて強調表示させることができる。また、医療画像と注目領域の情報とを関連付けて記録装置に記録させる(情報を画像に重畳させずに記録する)ので、医療画像及び情報を事後的に使用する場合(非リアルタイム画像の場合)も観察の目的やユーザの希望に応じた表示態様で表示させることができる。 The medical image processing apparatus according to the first aspect can highlight a medical image according to real-time characteristics (whether it is a real-time image acquired in real time or a non-real-time image acquired in non-real time). . In addition, since the medical image and the information of the region of interest are associated and recorded in a recording device (the information is recorded without being superimposed on the image), the medical image and information are used after the fact (in the case of non-real-time images) can also be displayed in a display mode according to the purpose of observation or the desire of the user.

第1の態様において、「表示態様の設定」には強調表示をオンとオフのいずれに設定するか、及び注目領域の情報をどのように表示させるかが含まれる。情報の表示は文字、数字、図形、記号、及びそれらの組み合わせにより行うことができ、色彩を付してもよい。 In the first mode, the "setting of display mode" includes whether to set highlighting to on or off, and how to display the information of the attention area. Information can be displayed using letters, numbers, graphics, symbols, and combinations thereof, and may be colored.

第1の態様及び以下の各対応において、「リアルタイム」、「リアルタイム画像」には、例えば、進行中の検査や観察において、決められたフレームレートで撮影された複数の医療画像を実質的な遅延なしで順次取得し表示すること、及びそのように順次表示される画像が含まれる。画像の送受信や画像処理等により完全なリアルタイムよりも画像の取得や表示が僅かに遅延している場合も「リアルタイム」、「リアルタイム画像」に含まれるものとする。これに対し「非リアルタイム」、「非リアルタイム画像」には、例えば、検査中及び検査後に静止画を取得して表示する場合が含まれる。 In the first aspect and each of the following correspondences, "real-time" and "real-time images" include, for example, multiple medical images captured at a determined frame rate during an ongoing examination or observation with a substantial delay. Sequentially acquiring and displaying without, and images so sequentially displayed. "Real-time" and "real-time image" include cases where image acquisition and display are slightly delayed from perfect real-time due to image transmission/reception, image processing, and the like. On the other hand, "non-real-time" and "non-real-time image" include, for example, the case where a still image is acquired and displayed during and after inspection.

第1の態様及び以下の各態様において、表示装置の数は特に限定されない。同一の表示装置にリアルタイム画像と非リアルタイム画像の両方を表示させてもよい。この場合、例えばリアルタイム画像を表示し、ユーザの指示等に応じて特定のフレームをフリーズ表示させることができる。また、リアルタイム画像用の表示装置と非リアルタイム画像用の表示装置を別個に設け、それぞれの表示装置に画像を表示させてもよい。別個のモニタを設ける場合、例えばある表示装置にリアルタイム画像を表示させ、レポート作成の際等に、検査で取得された画像を非リアルタイムで別の表示装置に表示させてもよい。いずれの態様も、「医療画像を表示装置に表示させる」に含まれる。 In the first aspect and the following aspects, the number of display devices is not particularly limited. Both real-time and non-real-time images may be displayed on the same display device. In this case, for example, a real-time image can be displayed, and a specific frame can be freeze-displayed according to a user's instruction or the like. Alternatively, a display device for real-time images and a display device for non-real-time images may be provided separately, and images may be displayed on the respective display devices. When separate monitors are provided, for example, real-time images may be displayed on one display device, and images acquired in an examination may be displayed on another display device in non-real time, such as when creating a report. Both aspects are included in "displaying a medical image on a display device".

第1の態様に係る医療画像処理装置は、例えば医療画像処理システムのプロセッサとして実現することができるが、このような態様に限定されるものではない。なお、「医療画像」とは診断、治療、計測等を目的として人体等の生体を撮影、計測等した結果として得られた画像をいい、例えば内視鏡画像、超音波画像、CT画像(CT:Computed Tomography)、MRI画像(MRI:Magnetic Resonance Imaging)を挙げることができる。医療画像は医用画像ともいう。 The medical image processing apparatus according to the first aspect can be realized, for example, as a processor of a medical image processing system, but is not limited to such an aspect. In addition, "medical images" refer to images obtained as a result of photographing or measuring a living body such as a human body for the purpose of diagnosis, treatment, measurement, etc., such as endoscopic images, ultrasonic images, CT images (CT images). : Computed Tomography) and MRI images (MRI: Magnetic Resonance Imaging). Medical images are also called medical images.

第2の態様に係る医療画像処理装置は第1の態様において、態様設定部は、医療画像がリアルタイム画像である場合、注目領域の強調表示をオンまたはオフに設定する。第2の態様によれば、強調表示をオンに設定する場合は注目領域の情報を強調表示によりリアルタイムで報知することができ、病変等の見落としを防止することができる。一方、強調表示等が診断の妨げになる場合はオフに設定してもよい。オンとオフのいずれに設定するかをユーザの操作に基づいて決定してもよいし、ユーザの操作によらずに決定してもよい。 In the first aspect of the medical image processing apparatus according to the second aspect, the aspect setting unit sets highlighting of the region of interest to ON or OFF when the medical image is a real-time image. According to the second aspect, when the highlighting is set to ON, the information of the attention area can be notified in real time by the highlighting, and the overlooking of the lesion or the like can be prevented. On the other hand, if highlighting or the like hinders diagnosis, it may be turned off. Whether to set on or off may be determined based on the user's operation, or may be determined independently of the user's operation.

第3の態様に係る医療画像処理装置は第1の態様において、態様設定部は、医療画像が非リアルタイム画像である場合、注目領域の強調表示をオンまたはオフに設定する。情報が重畳された状態の画像はレポートや診断には適さず、一方、注目領域の情報は検査後に画像を見返す場合に必要となる(見落とし防止、研究用途等)。第3の態様では、このような事情を考慮し非リアルタイム画像の場合に強調表示をオンまたはオフにするので、画像の使用目的に応じた強調表示を行うことができる。オンとオフのいずれに設定するかはユーザの操作に応じて行うことができ、これによりユーザは所望の表示態様で医療画像を表示させることができる。 In the first aspect of the medical image processing apparatus according to the third aspect, the aspect setting unit sets highlighting of the region of interest to ON or OFF when the medical image is a non-real-time image. An image with superimposed information is not suitable for reports or diagnoses, while the information on the attention area is necessary when reviewing the image after examination (prevention of oversight, research use, etc.). In the third aspect, highlighting is turned on or off for non-real-time images in consideration of such circumstances, so that highlighting can be performed according to the intended use of the image. It can be set to ON or OFF according to the user's operation, thereby allowing the user to display the medical image in a desired display mode.

第4の態様に係る医療画像処理装置は第1から第3の態様のいずれか1つにおいて、医療画像取得部は、記録装置に記録された医療画像を非リアルタイム画像として取得し、情報取得部は、非リアルタイム画像に関連付けて記録された情報を取得する。医療画像取得部は、ネットワークを介して接続された記録装置から医療画像を取得してもよい。 A medical image processing apparatus according to a fourth aspect is any one of the first to third aspects, wherein the medical image acquisition unit acquires the medical image recorded in the recording device as a non-real-time image, and the information acquisition unit obtains information recorded in association with non-real-time images. The medical image acquisition unit may acquire medical images from a recording device connected via a network.

第5の態様に係る医療画像処理装置は第1から第4の態様のいずれか1つにおいて、医療画像から注目領域を検出する検出器を備え、情報取得部は、検出器の検出結果から情報を取得する。検出の対象となる医療画像はリアルタイム画像でもよいし、非リアルタイム画像でもよい。なお第5の態様において、検出器は学習済みモデルにより構成することができる。 In any one of the first to fourth aspects, the medical image processing apparatus according to a fifth aspect includes a detector that detects a region of interest from the medical image, and the information acquisition unit obtains information from the detection result of the detector. to get A medical image to be detected may be a real-time image or a non-real-time image. In addition, in the fifth aspect, the detector can be configured by a trained model.

第6の態様に係る医療画像処理装置は第1から第5の態様のいずれか1つにおいて、医療画像の分類を行う分類器を備え、情報取得部は、分類器の分類結果から情報を取得する。分類の対象となる医療画像はリアルタイム画像でもよいし、非リアルタイム画像でもよい。なお第6の態様において、分類器は学習済みモデルにより構成することができる。 A medical image processing apparatus according to a sixth aspect, in any one of the first to fifth aspects, includes a classifier that classifies the medical image, and the information acquisition unit acquires information from the classification result of the classifier. do. A medical image to be classified may be a real-time image or a non-real-time image. In addition, in the sixth aspect, the classifier can be configured by a trained model.

第7の態様に係る医療画像処理装置は第1から第6の態様のいずれか1つにおいて、医療画像の計測を行う計測器を備え、情報取得部は、計測器の計測結果から情報を取得する。計測の対象となる医療画像はリアルタイム画像でもよいし、非リアルタイム画像でもよい。なお第7の態様において、計測器は学習済みモデルにより構成することができる。 A medical image processing apparatus according to a seventh aspect, in any one of the first to sixth aspects, is provided with a measuring instrument that measures a medical image, and the information acquisition unit acquires information from the measurement results of the measuring instrument. do. A medical image to be measured may be a real-time image or a non-real-time image. In addition, in the seventh aspect, the measuring instrument can be configured by a learned model.

第8の態様に係る医療画像処理装置は第1から第7の態様のいずれか1つにおいて、ユーザによる表示態様の設定操作を受け付ける受付部を備え、態様設定部は受け付けた設定操作に基づいて表示態様を設定する。第8の態様によれば、ユーザは医療画像を所望の表示態様(注目領域の強調表示の態様)で表示させることができる。 A medical image processing apparatus according to an eighth aspect, in any one of the first to seventh aspects, comprises a reception unit that receives a user's display mode setting operation, and the mode setting unit based on the received setting operation Set the display mode. According to the eighth aspect, the user can display the medical image in a desired display mode (a mode of highlighting the region of interest).

第9の態様に係る医療画像処理装置は第1から第8の態様のいずれか1つにおいて、同一の注目領域が映っている医療画像が表示装置に表示されている第1の経過時間の情報を取得する第1の時間情報取得部を備え、態様設定部は第1の経過時間の情報に基づいて表示態様を設定する。第9の態様は、例えばリアルタイム画像を決められたフレームレートで順次取得、表示させる場合において、同一の注目領域が複数のフレームに映っている状態の経過時間(第1の経過時間)に応じて表示態様を設定する場合に適用することができる。第9の態様では、第1の経過時間に応じて表示態様を変える(オン、オフの切り替えを含む)ことができる。 A medical image processing apparatus according to a ninth aspect is a medical image processing apparatus according to any one of the first to eighth aspects, wherein a medical image showing the same region of interest is displayed on the display device. and the mode setting section sets the display mode based on the first elapsed time information. In a ninth aspect, for example, when real-time images are sequentially acquired and displayed at a predetermined frame rate, the It can be applied when setting the display mode. In the ninth mode, the display mode can be changed (including switching between ON and OFF) according to the first elapsed time.

第10の態様に係る医療画像処理装置は第1から第9の態様のいずれか1つにおいて、同一の医療画像が表示装置に表示されている第2の経過時間の情報を取得する第2の時間情報取得部を備え、態様設定部は第2の経過時間の情報に基づいて表示態様を設定する。第10の態様は、例えば非リアルタイム画像をフリーズ表示(固定表示)により観察している場合において、画像を表示してからの経過時間(第2の経過時間)に応じて表示態様を設定する場合に適用することができる。第10の態様では、第2の経過時間に応じて表示態様を変える(オン、オフの切り替えを含む)ことができる。 In any one of the first to ninth aspects, a medical image processing apparatus according to a tenth aspect acquires information of a second elapsed time during which the same medical image is displayed on the display device. A time information acquisition section is provided, and the mode setting section sets the display mode based on the second elapsed time information. A tenth aspect is, for example, when a non-real-time image is observed by freeze display (fixed display), and the display mode is set according to the elapsed time (second elapsed time) after the image is displayed. can be applied to In the tenth mode, the display mode can be changed (including switching between ON and OFF) according to the second elapsed time.

第11の態様に係る医療画像処理装置は第1から第10の態様のいずれか1つにおいて、表示制御部は、記録装置に記録された複数の医療画像を表示装置に一覧表示させ、態様設定部は、一覧表示した複数の医療画像に対する強調表示の態様を共通した態様に設定する。複数の医療画像を一覧表示する場合に画像ごとに表示態様を設定するのでは操作が煩わしいが、第11の態様では強調表示の態様を共通した態様に設定するので、操作が簡単である。この設定は、ユーザの操作に応じて行うことができる。 In any one of the first to tenth aspects of the medical image processing apparatus according to the eleventh aspect, the display control unit causes the display device to display a list of the plurality of medical images recorded in the recording device, and sets the aspect. The unit sets the mode of highlighting for the plurality of medical images displayed as a list to a common mode. When displaying a list of a plurality of medical images, the operation is troublesome if the display mode is set for each image. However, in the eleventh mode, the highlight display mode is set to a common mode, so the operation is simple. This setting can be made according to the user's operation.

第12の態様に係る医療画像処理装置は第11の態様において、共通した態様は、複数の医療画像に対する強調表示のオンまたはオフである。第12の態様によれば、複数の医療画像に対する強調表示を一括してオンまたはオフにすることができる。 In the medical image processing apparatus according to the twelfth aspect of the eleventh aspect, the common aspect is turning on or off highlighting for a plurality of medical images. According to the twelfth aspect, highlighting for a plurality of medical images can be collectively turned on or off.

第13の態様に係る医療画像処理装置は第1から第12の態様のいずれか1つにおいて、態様設定部は、医療画像が、進行中の検査又は進行中の観察において順次取得されている画像の場合に、医療画像をリアルタイム画像と判断する。第13の態様は、進行中の検査又は進行中の観察に適用することができる。 In any one of the first to twelfth aspects, the medical image processing apparatus according to the thirteenth aspect is configured such that the medical image is an image sequentially acquired in an ongoing examination or an ongoing observation. , the medical image is determined to be a real-time image. The thirteenth aspect can be applied to ongoing inspection or ongoing observation.

第14の態様に係る医療画像処理装置は第1から第13の態様のいずれか1つにおいて、更に、記録部を有し、態様設定部は、医療画像が、記録部に記録済みの画像の場合に、医療画像を前記非リアルタイム画像と判断する。第14の態様は、記録部に記録済みの医療画像に適用することができる。 A medical image processing apparatus according to a fourteenth aspect is any one of the first to thirteenth aspects, further comprising a recording unit, wherein the medical image is an image recorded in the recording unit. case, a medical image is determined as the non-real-time image. The fourteenth aspect can be applied to medical images already recorded in the recording unit.

第15の態様に係る医療画像処理装置は第1から第14の態様のいずれか1つにおいて、更に、通信制御部を有し、態様設定部は、医療画像が、通信制御部を介して取得された画像の場合に、医療画像を非リアルタイム画像と判断する。第15の態様は、通信制御部を介して取得された医療画像に適用することができる。 A medical image processing apparatus according to a fifteenth aspect is any one of the first to fourteenth aspects, further comprising a communication control unit, wherein the aspect setting unit acquires the medical image via the communication control unit. , the medical image is determined to be a non-real-time image. The fifteenth aspect can be applied to medical images acquired via the communication control unit.

上述した目的を達成するため、本発明の第16の態様に係る内視鏡システムは、第1から第15の態様のいずれか1つに係る医療画像処理装置と、表示装置と、被検体に挿入される内視鏡スコープであって、医療画像を撮影する撮影部を有する内視鏡スコープと、を備える。第16の態様に係る内視鏡システムは、第1から第15の態様のいずれか1つに係る医療画像処理装置を備えるので、医療画像のリアルタイム性に応じて強調処理を行うことができる。リアルタイム画像は内視鏡スコープの撮影部により撮影することができる。なお、第1の態様について上述したのと同様に、第16の態様において表示装置の数は特に限定されない。同一の表示装置にリアルタイム画像と非リアルタイム画像の両方を表示させてもよいし、リアルタイム画像用の表示装置と非リアルタイム画像用の表示装置を別個に設け、それぞれの表示装置に画像を表示させてもよい。 In order to achieve the object described above, an endoscope system according to a sixteenth aspect of the present invention includes a medical image processing apparatus according to any one of the first to fifteenth aspects, a display device, and a subject. an endoscope to be inserted, the endoscope having an imaging unit for imaging a medical image. Since the endoscope system according to the sixteenth aspect includes the medical image processing apparatus according to any one of the first to fifteenth aspects, it is possible to perform enhancement processing according to the real-time nature of medical images. A real-time image can be captured by the imaging unit of the endoscope. Note that the number of display devices is not particularly limited in the sixteenth mode, as described above for the first mode. Both the real-time image and the non-real-time image may be displayed on the same display device, or a display device for the real-time image and a display device for the non-real-time image may be provided separately, and the images may be displayed on each display device. good too.

上述した目的を達成するため、本発明の第17の態様に係る医療画像処理方法は、医療画像を取得する医療画像取得ステップと、医療画像における注目領域の情報を取得する情報取得ステップと、情報に基づいて、注目領域の強調表示を、医療画像がリアルタイムで取得されたリアルタイム画像であるか非リアルタイムで取得された非リアルタイム画像であるかに応じた表示態様に設定する態様設定ステップと、医療画像を設定された表示態様で表示装置に表示させる表示制御ステップと、医療画像と情報とを関連付けて記録装置に記録させる記録制御ステップと、を有する。第17の態様によれば、第1の態様と同様に、医療画像をリアルタイム性に応じて強調表示することができる。 To achieve the above object, a medical image processing method according to a seventeenth aspect of the present invention includes a medical image acquisition step of acquiring a medical image, an information acquisition step of acquiring information on a region of interest in the medical image, an information a mode setting step of setting the highlighting of the region of interest to a display mode according to whether the medical image is a real-time image acquired in real time or a non-real-time image acquired in non-real time, based on; It has a display control step of displaying an image in a set display mode on a display device, and a recording control step of associating a medical image with information and recording it in a recording device. According to the seventeenth aspect, similarly to the first aspect, the medical image can be highlighted in real time.

第18の態様に係る医療画像処理方法は、第2から第15の態様と同様の構成(ステップ)をさらに含んでいてもよい。また、これら態様の医療画像処理方法を医療画像処理装置あるいはコンピュータに実行させるプログラム、並びにそのプログラムのコンピュータ読み取り可能なコードを記録した非一時的記録媒体も本発明の態様として挙げることができる。 The medical image processing method according to the eighteenth aspect may further include the same configuration (steps) as those of the second to fifteenth aspects. In addition, a non-temporary recording medium recording a program for causing a medical image processing apparatus or a computer to execute the medical image processing method of these aspects and a computer-readable code of the program can also be mentioned as an aspect of the present invention.

以上説明したように、本発明に係る医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法によれば、医療画像をリアルタイム性に応じて強調表示することができる As described above, according to the medical image processing apparatus, the endoscope system, and the operating method of the medical image processing apparatus according to the present invention, medical images can be highlighted in real time.

図1は、第1の実施形態に係る内視鏡システムの構成を示す図である。FIG. 1 is a diagram showing the configuration of an endoscope system according to the first embodiment. 図2は、内視鏡システムの構成を示す他の図である。FIG. 2 is another diagram showing the configuration of the endoscope system. 図3は、画像処理部の機能ブロック図である。FIG. 3 is a functional block diagram of an image processing unit. 図4は、畳み込みニューラルネットワークの構成例を示す図である。FIG. 4 is a diagram showing a configuration example of a convolutional neural network. 図5は、フィルタによる畳み込み処理の様子を示す図である。FIG. 5 is a diagram showing how convolution processing is performed by a filter. 図6は、記録部に記録される情報を示す図である。FIG. 6 is a diagram showing information recorded in a recording unit. 図7は、第1の実施形態に係る医療画像処理方法の手順を示すフローチャートである。FIG. 7 is a flow chart showing the procedure of the medical image processing method according to the first embodiment. 図8は、リアルタイム画像に好ましい強調表示の例を示す図である。FIG. 8 is a diagram showing an example of preferred highlighting for real-time images. 図9は、リアルタイム画像に好ましくない強調表示の例を示す図である。FIG. 9 is a diagram showing an example of highlighting that is undesirable for a real-time image. 図10は、部位情報の表示例を示す図である。FIG. 10 is a diagram showing a display example of part information. 図11は、医療画像処理方法の手順を示す他のフローチャートである。FIG. 11 is another flow chart showing the procedure of the medical image processing method. 図12は、経過時間に応じた強調表示の例を示す図である。FIG. 12 is a diagram showing an example of highlighting according to elapsed time. 図13は、医療画像処理方法の手順を示すさらに他のフローチャートである。FIG. 13 is still another flow chart showing the procedure of the medical image processing method. 図14は、一覧表示した複数の画像に対する強調表示を一括してオンまたはオフにする様子を示す図である。FIG. 14 is a diagram showing how highlighting of a plurality of images displayed as a list is collectively turned on or off.

以下、添付図面を参照しつつ、本発明に係る医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法の実施形態について詳細に説明する。 Hereinafter, embodiments of a medical image processing apparatus, an endoscope system, and a method of operating the medical image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
<内視鏡システムの構成>
図1は、内視鏡システム10(医療画像処理装置、内視鏡システム)の外観図であり、図2は内視鏡システム10の要部構成を示すブロック図である。図1,2に示すように、内視鏡システム10は、内視鏡スコープ100(医療機器、内視鏡スコープ、内視鏡本体)、内視鏡プロセッサ装置200(医療画像処理装置)、光源装置300(光源装置)、及びモニタ400(表示装置)から構成される。電磁波や超音波により観察部位の情報を取得するための外部デバイス(不図示)を内視鏡システム10に接続してもよい。
<First embodiment>
<Configuration of endoscope system>
FIG. 1 is an external view of an endoscope system 10 (medical image processing apparatus, endoscope system), and FIG. As shown in FIGS. 1 and 2, the endoscope system 10 includes an endoscope scope 100 (medical equipment, endoscope scope, endoscope main body), an endoscope processor device 200 (medical image processing device), a light source It is composed of a device 300 (light source device) and a monitor 400 (display device). An external device (not shown) may be connected to the endoscope system 10 for acquiring information on the observation site using electromagnetic waves or ultrasonic waves.

<内視鏡スコープの構成>
内視鏡スコープ100は、手元操作部102と、この手元操作部102に連設される挿入部104とを備える。術者(ユーザ)は手元操作部102を把持して操作し、挿入部104を被検体(生体)の体内に挿入して観察する。また、手元操作部102には送気送水ボタン141、吸引ボタン142、及び各種の機能を割り付けられる機能ボタン143、及び撮影指示操作(静止画像、動画像)を受け付ける撮影ボタン144が設けられている。挿入部104は、手元操作部102側から順に、軟性部112、湾曲部114、先端硬質部116で構成されている。すなわち、先端硬質部116の基端側に湾曲部114が接続され、湾曲部114の基端側に軟性部112が接続される。挿入部104の基端側に手元操作部102が接続される。ユーザは、手元操作部102を操作することにより湾曲部114を湾曲させて先端硬質部116の向きを上下左右に変えることができる。先端硬質部116には、撮影光学系130、照明部123、鉗子口126等が設けられる(図1,2参照)。
<Configuration of endoscope>
The endoscope 100 includes a hand operating section 102 and an insertion section 104 connected to the hand operating section 102 . The operator (user) grasps and operates the hand operation unit 102, inserts the insertion unit 104 into the body of the subject (living body), and observes. Further, the hand operation unit 102 is provided with an air/water supply button 141, a suction button 142, a function button 143 to which various functions can be assigned, and a shooting button 144 for accepting shooting instruction operations (still image, moving image). . The insertion portion 104 is composed of a flexible portion 112, a bending portion 114, and a distal end hard portion 116 in order from the hand operation portion 102 side. That is, the bending portion 114 is connected to the proximal side of the distal rigid portion 116 , and the flexible portion 112 is connected to the proximal side of the bending portion 114 . A proximal operation section 102 is connected to the proximal end of the insertion section 104 . The user can bend the bending portion 114 by operating the hand operation portion 102 to change the orientation of the distal end rigid portion 116 up, down, left, or right. The hard tip portion 116 is provided with an imaging optical system 130, an illumination portion 123, a forceps port 126, and the like (see FIGS. 1 and 2).

観察、処置の際には、操作部208(図2参照)の操作により、照明部123の照明用レンズ123A,123Bから白色光及び/または狭帯域光(赤色狭帯域光、緑色狭帯域光、青色狭帯域光、及び紫色狭帯域光のうち1つ以上)を照射することができる。また、送気送水ボタン141の操作により図示せぬ送水ノズルから洗浄水が放出されて、撮影光学系130の撮影レンズ132(撮影レンズ、撮影部)、及び照明用レンズ123A,123Bを洗浄することができる。先端硬質部116で開口する鉗子口126には不図示の管路が連通しており、この管路に腫瘍摘出等のための図示せぬ処置具が挿通されて、適宜進退して被検体に必要な処置を施せるようになっている。 During observation and treatment, the operation unit 208 (see FIG. 2) is operated to emit white light and/or narrowband light (red narrowband light, green narrowband light, one or more of blue narrowband light and violet narrowband light). Also, by operating the air/water supply button 141, washing water is discharged from a water supply nozzle (not shown) to wash the photographing lens 132 (photographing lens, photographing unit) of the photographing optical system 130 and the illumination lenses 123A and 123B. can be done. A conduit (not shown) communicates with the forceps opening 126 opened at the distal end rigid portion 116, and a treatment instrument (not shown) for removing a tumor or the like is inserted through the conduit and moves forward and backward as appropriate to the subject. necessary action can be taken.

図1,2に示すように、先端硬質部116の先端側端面116Aには撮影レンズ132(撮影部)が配設されている。撮影レンズ132の奥にはCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子134(撮像素子、撮影部)、駆動回路136、AFE138(AFE:Analog Front End、撮影部)が配設されて、これらの要素により画像信号を出力する。撮像素子134はカラー撮像素子であり、特定のパターン配列(ベイヤー配列、X-Trans(登録商標)配列、ハニカム配列等)でマトリクス状に配置(2次元配列)された複数の受光素子により構成される複数の画素を備える。撮像素子134の各画素はマイクロレンズ、赤(R)、緑(G)、または青(B)のカラーフィルタ及び光電変換部(フォトダイオード等)を含んでいる。撮影光学系130は、赤,緑,青の3色の画素信号からカラー画像を生成することもできるし、赤,緑,青のうち任意の1色または2色の画素信号から画像を生成することもできる。なお、第1の実施形態では撮像素子134がCMOS型の撮像素子である場合について説明するが、撮像素子134はCCD(Charge Coupled Device)型でもよい。なお、撮像素子134の各画素は紫色光源310Vに対応した紫色カラーフィルタ、及び/または赤外光源に対応した赤外用フィルタをさらに備えていてもよい。 As shown in FIGS. 1 and 2, a photographing lens 132 (photographing unit) is provided on the distal end surface 116A of the rigid distal portion 116. As shown in FIG. Behind the imaging lens 132, a CMOS (Complementary Metal-Oxide Semiconductor) imaging device 134 (imaging device, imaging unit), a driving circuit 136, and an AFE 138 (AFE: Analog Front End, imaging unit) are arranged. The image signal is output by the elements of The image pickup device 134 is a color image pickup device, and is composed of a plurality of light receiving elements arranged in a matrix (two-dimensional arrangement) in a specific pattern arrangement (Bayer arrangement, X-Trans (registered trademark) arrangement, honeycomb arrangement, etc.). a plurality of pixels. Each pixel of the imaging device 134 includes a microlens, a red (R), green (G), or blue (B) color filter, and a photoelectric conversion unit (photodiode, etc.). The imaging optical system 130 can also generate a color image from pixel signals of three colors of red, green, and blue, or can generate an image from pixel signals of any one or two colors of red, green, and blue. can also In the first embodiment, the imaging device 134 is a CMOS type imaging device, but the imaging device 134 may be a CCD (Charge Coupled Device) type. Each pixel of the imaging device 134 may further include a violet color filter corresponding to the violet light source 310V and/or an infrared filter corresponding to the infrared light source.

被検体の光学像は撮影レンズ132により撮像素子134の受光面(撮像面)に結像されて電気信号に変換され、不図示の信号ケーブルを介して内視鏡プロセッサ装置200に出力されて映像信号に変換される。これにより、内視鏡プロセッサ装置200に接続されたモニタ400に内視鏡画像が表示される。 An optical image of the subject is formed on the light-receiving surface (imaging surface) of the imaging device 134 by the imaging lens 132, converted into an electrical signal, and output to the endoscope processor unit 200 via a signal cable (not shown) to produce an image. converted to a signal. As a result, an endoscope image is displayed on the monitor 400 connected to the endoscope processor device 200 .

また、先端硬質部116の先端側端面116Aには、撮影レンズ132に隣接して照明部123の照明用レンズ123A、123Bが設けられている。照明用レンズ123A,123Bの奥には、後述するライトガイド170の射出端が配設され、このライトガイド170が挿入部104、手元操作部102、及びユニバーサルケーブル106に挿通され、ライトガイド170の入射端がライトガイドコネクタ108内に配置される。 Illumination lenses 123A and 123B of the illumination unit 123 are provided adjacent to the photographing lens 132 on the tip side end surface 116A of the tip hard portion 116 . Behind the illumination lenses 123A and 123B, an exit end of a light guide 170, which will be described later, is arranged. The incident end is located within the light guide connector 108 .

ユーザは、上述した構成の内視鏡スコープ100(挿入部104)を被検体である生体内に挿入または抜去しながら決められたフレームレートで撮影を行う(撮影部及び医療画像取得部220の制御により行うことができる)ことにより、生体内の画像を順次撮影することができる。 The user performs imaging at a determined frame rate while inserting or removing the endoscope 100 (insertion unit 104) configured as described above into or withdrawing from the living body to be examined (control of the imaging unit and the medical image acquisition unit 220). ), images in the living body can be sequentially captured.

<光源装置の構成>
図2に示すように、光源装置300は、照明用の光源310、絞り330、集光レンズ340、及び光源制御部350等から構成されており、観察光をライトガイド170に入射させる。光源310は、それぞれ赤色、緑色、青色、紫色の狭帯域光を照射する赤色光源310R、緑色光源310G、青色光源310B、及び紫色光源310Vを備えており、赤色、緑色、青色、及び紫色の狭帯域光を照射することができる。光源310による観察光の照度は光源制御部350により制御され、必要に応じて観察光の照度を変更する(上げる、または下げる)こと、及び照明を停止することができる。
<Configuration of light source device>
As shown in FIG. 2 , the light source device 300 includes a light source 310 for illumination, an aperture 330 , a condenser lens 340 , a light source control section 350 , and the like, and causes observation light to enter the light guide 170 . The light source 310 includes a red light source 310R, a green light source 310G, a blue light source 310B, and a violet light source 310V that emit narrow band lights of red, green, blue, and violet, respectively. Band light can be applied. The illuminance of the observation light from the light source 310 is controlled by the light source controller 350, and can change (increase or decrease) the illuminance of the observation light and stop the illumination as needed.

光源310は赤色、緑色、青色、及び紫色の狭帯域光を任意の組合せで発光させることができる。例えば、赤色、緑色、青色、及び紫色の狭帯域光を同時に発光させて白色光(通常光)を観察光として照射することもできるし、いずれか1つもしくは2つを発光させることで狭帯域光(特殊光)を照射することもできる。光源310は、赤外光(狭帯域光の一例)を照射する赤外光源をさらに備えていてもよい。また、白色光を照射する光源と、白色光及び各狭帯域光を透過させるフィルタとにより、白色光または狭帯域光を観察光として照射してもよい。 Light source 310 can emit red, green, blue, and violet narrowband light in any combination. For example, red, green, blue, and violet narrowband lights can be simultaneously emitted to irradiate white light (ordinary light) as observation light, or any one or two of them can be emitted to narrowband light. Light (special light) can also be applied. The light source 310 may further include an infrared light source that emits infrared light (an example of narrowband light). Alternatively, white light or narrow band light may be emitted as observation light by a light source that emits white light and a filter that transmits white light and narrow band light.

<光源の波長帯域>
光源310は白色帯域の光、または白色帯域の光として複数の波長帯域の光を発生する光源でもよいし、白色の波長帯域よりも狭い特定の波長帯域の光を発生する光源でもよい。特定の波長帯域は、可視域の青色帯域もしくは緑色帯域、あるいは可視域の赤色帯域であってもよい。特定の波長帯域が可視域の青色帯域もしくは緑色帯域である場合、390nm以上450nm以下、または530nm以上550nm以下の波長帯域を含み、かつ、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有していてもよい。また、特定の波長帯域が可視域の赤色帯域である場合、585nm以上615nm以下、または610nm以上730nm以下、の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有していてもよい。
<Wavelength band of light source>
The light source 310 may be a light source that generates light in a white band, light in a plurality of wavelength bands as white band light, or a light source that generates light in a specific wavelength band narrower than the wavelength band of white. The specific wavelength band may be the visible blue or green band, or the visible red band. When the specific wavelength band is the visible blue or green band, it includes a wavelength band of 390 nm or more and 450 nm or less, or 530 nm or more and 550 nm or less, and a peak within the wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less. It may have a wavelength. In addition, when the specific wavelength band is the red band in the visible range, the wavelength band of 585 nm or more and 615 nm or less, or 610 nm or more and 730 nm or less, and the light of the specific wavelength band is 585 nm or more and 615 nm or less or 610 nm or more It may have a peak wavelength within a wavelength band of 730 nm or less.

上述した特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有していてもよい。この場合、特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nmの波長帯域を含み、かつ、400±10nm、440±10nm、470±10nm、または600nm以上750nm以下の波長帯域にピーク波長を有していてもよい。 The light in the above-mentioned specific wavelength band includes a wavelength band in which oxyhemoglobin and reduced hemoglobin have different absorption coefficients, and has a peak wavelength in the wavelength band in which oxidized hemoglobin and reduced hemoglobin have different absorption coefficients. good. In this case, the specific wavelength band includes a wavelength band of 400±10 nm, 440±10 nm, 470±10 nm, or 600 nm or more and 750 nm, and 400±10 nm, 440±10 nm, 470±10 nm, or 600 nm or more and 750 nm It may have peak wavelengths in the following wavelength bands.

また、光源310が発生する光は790nm以上820nm以下、または905nm以上970nm以下の波長帯域を含み、かつ、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有していてもよい。 The light generated by the light source 310 may include a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm and have a peak wavelength in the wavelength band of 790 nm to 820 nm or 905 nm to 970 nm.

また、光源310は、ピークが390nm以上470nm以下である励起光を照射する光源を備えていてもよい。この場合、被検体(生体)内の蛍光物質が発する蛍光の情報を有する医療画像(医用画像、生体内画像)を取得することができる。蛍光画像を取得する場合は、蛍光法用色素剤(フルオレスチン、アクリジンオレンジ等)を使用してもよい。 Also, the light source 310 may include a light source that emits excitation light with a peak of 390 nm or more and 470 nm or less. In this case, it is possible to acquire a medical image (medical image, in vivo image) having information on the fluorescence emitted by the fluorescent substance in the subject (living body). If fluorescence images are to be obtained, fluorometric dyes (fluorestin, acridine orange, etc.) may be used.

光源310の光源種類(レーザ光源、キセノン光源、LED光源(LED:Light-Emitting Diode)等)、波長、フィルタの有無等は被写体の種類、部位、観察の目的等に応じて構成することが好ましく、また観察の際は被写体の種類、部位、観察の目的等に応じて観察光の波長を組合せ及び/または切り替えることが好ましい。波長を切り替える場合、例えば光源の前方に配置され特定波長の光を透過または遮光するフィルタが設けられた円板状のフィルタ(ロータリカラーフィルタ)を回転させることにより、照射する光の波長を切り替えてもよい。 The light source type of the light source 310 (laser light source, xenon light source, LED light source (LED: Light-Emitting Diode), etc.), wavelength, presence or absence of a filter, etc. are preferably configured according to the type and part of the subject, the purpose of observation, and the like. Also, during observation, it is preferable to combine and/or switch the wavelengths of the observation light according to the type and location of the subject, the purpose of observation, and the like. When switching the wavelength, for example, by rotating a disk-shaped filter (rotary color filter) that is placed in front of the light source and provided with a filter that transmits or blocks light of a specific wavelength, the wavelength of the irradiated light is switched. good too.

また、本発明を実施する際に用いる撮像素子は撮像素子134のように各画素に対しカラーフィルタが配設されたカラー撮像素子に限定されるものではなく、モノクロ撮像素子でもよい。モノクロ撮像素子を用いる場合、観察光の波長を順次切り替えて面順次(色順次)で撮像することができる。例えば出射する観察光の波長を(紫色、青色、緑色、赤色)の間で順次切り替えてもよいし、広帯域光(白色光)を照射してロータリカラーフィルタ(赤色、緑色、青色、紫色等)により出射する観察光の波長を切り替えてもよい。また、1または複数の狭帯域光(緑色、青色、紫色等)を照射してロータリカラーフィルタ(緑色、青色、紫色等)により出射する観察光の波長を切り替えてもよい。狭帯域光は波長の異なる2波長以上の赤外光(第1狭帯域光、第2狭帯域光)でもよい。 Further, the image pickup device used in carrying out the present invention is not limited to a color image pickup device in which a color filter is provided for each pixel like the image pickup device 134, and may be a monochrome image pickup device. When a monochrome imaging device is used, it is possible to sequentially switch the wavelength of observation light and perform frame-sequential (color-sequential) imaging. For example, the wavelengths of emitted observation light may be sequentially switched between (violet, blue, green, and red), or broadband light (white light) may be irradiated to rotate color filters (red, green, blue, purple, etc.). The wavelength of the emitted observation light may be switched by . Alternatively, one or a plurality of narrow band lights (green, blue, violet, etc.) may be irradiated and the wavelength of observation light emitted by a rotary color filter (green, blue, violet, etc.) may be switched. The narrowband light may be infrared light of two or more wavelengths (first narrowband light, second narrowband light) having different wavelengths.

ライトガイドコネクタ108(図1,2参照)を光源装置300に連結することにより、光源装置300から照射された観察光がライトガイド170を介して照明用レンズ123A、123Bに伝送され、照明用レンズ123A、123Bから観察範囲に照射される。 By connecting the light guide connector 108 (see FIGS. 1 and 2) to the light source device 300, the observation light emitted from the light source device 300 is transmitted to the illumination lenses 123A and 123B via the light guide 170, and the illumination lenses The observation range is irradiated from 123A and 123B.

<プロセッサの構成>
図2に基づき内視鏡プロセッサ装置200の構成を説明する。内視鏡プロセッサ装置200は、内視鏡スコープ100から出力される画像信号を画像入力コントローラ202を介して入力し、画像処理部204で必要な画像処理を行ってビデオ出力部206を介して出力する。これによりモニタ400(表示装置)に内視鏡画像(医療画像)が表示される。これらの処理はCPU210(CPU:Central Processing Unit)の制御下で行われる。通信制御部205は、図示せぬ病院内システム(HIS:Hospital Information System)や病院内LAN(Local Area Network)、及び/または外部のシステムやネットワークとの間で医療画像や注目領域の情報についての通信制御を行う。記録部207(記録装置)には、被検体の画像(内視鏡画像、医療画像、医用画像)、注目領域情報、表示態様設定情報等が記録される(図6及び関連する記載を参照)。音声処理部209は、CPU210及び画像処理部204の制御により、注目領域の検出及び検出結果に関するメッセージ(音声)をスピーカ209Aから出力する。
<Processor configuration>
The configuration of the endoscope processor device 200 will be described based on FIG. The endoscope processor unit 200 receives an image signal output from the endoscope 100 via an image input controller 202 , performs necessary image processing in an image processing unit 204 , and outputs the signal via a video output unit 206 . do. As a result, an endoscopic image (medical image) is displayed on the monitor 400 (display device). These processes are performed under the control of a CPU 210 (CPU: Central Processing Unit). The communication control unit 205 exchanges information about medical images and regions of interest with a hospital system (HIS: Hospital Information System), a hospital LAN (Local Area Network) (not shown), and/or an external system or network. Controls communication. The recording unit 207 (recording device) records images of the subject (endoscopic images, medical images, medical images), attention area information, display mode setting information, and the like (see FIG. 6 and related description). . Under the control of the CPU 210 and the image processing unit 204, the audio processing unit 209 outputs a message (audio) regarding the detection of the attention area and the detection result from the speaker 209A.

また、ROM211(ROM:Read Only Memory)は不揮発性の記憶素子(非一時的記録媒体)であり、各種の画像処理方法をCPU210及び/または画像処理部204(医療画像処理装置、コンピュータ)に実行させるプログラムのコンピュータ読み取り可能なコードが記憶されている。RAM212(RAM:Random Access Memory)は各種処理の際の一時記憶用の記憶素子であり、また画像取得時のバッファとしても使用することができる。 A ROM 211 (ROM: Read Only Memory) is a non-volatile storage element (non-temporary recording medium), and various image processing methods are executed by the CPU 210 and/or the image processing unit 204 (medical image processing apparatus, computer). It stores computer readable code for a program that causes the A RAM 212 (RAM: Random Access Memory) is a storage element for temporary storage during various processes, and can also be used as a buffer during image acquisition.

なお、ユーザは操作部208を介して医療画像処理の実行指示や実行に必要な条件の指定を行うことができ、表示制御部228(図3参照)はこれら指示の際の画面、検出の結果等をモニタ400に表示させることができる。 Note that the user can issue an instruction to execute medical image processing and specify the conditions necessary for execution via the operation unit 208. etc. can be displayed on the monitor 400 .

<画像処理部の機能>
図3は画像処理部204の機能ブロック図である。画像処理部204は、医療画像取得部220(医療画像取得部)と、情報取得部222(情報取得部)と、態様設定部226
(態様設定部)と、表示制御部228(表示制御部)と、記録制御部230(記録制御部)と、受付部232(受付部)と、第1の時間情報取得部234(第1の時間情報取得部)と、第2の時間情報取得部235(第2の時間情報取得部)と、を備える。情報取得部222は、認識器(検出器224A(検出器)、分類器224B(分類器)、及び計測器224C(計測器))を備える。これらの機能を用いた医療画像処理については、詳細を後述する。
<Functions of the image processing unit>
FIG. 3 is a functional block diagram of the image processing unit 204. As shown in FIG. The image processing unit 204 includes a medical image acquisition unit 220 (medical image acquisition unit), an information acquisition unit 222 (information acquisition unit), and a mode setting unit 226.
(mode setting unit), display control unit 228 (display control unit), recording control unit 230 (recording control unit), reception unit 232 (reception unit), first time information acquisition unit 234 (first time information acquisition unit) and a second time information acquisition unit 235 (second time information acquisition unit). The information acquisition unit 222 includes recognizers (a detector 224A (detector), a classifier 224B (classifier), and a measuring device 224C (measuring device)). Details of medical image processing using these functions will be described later.

画像処理部204は、上述した機能により、医療画像の特徴量の算出、特定の周波数帯域の成分を強調または低減する処理、特定の対象(注目領域、所望の深さの血管等)を強調または目立たなくする処理を行うことができる。画像処理部204は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備えていてもよい。この場合、特定の波長帯域の信号は、通常光画像に含まれるRGB(R:赤、G:緑、B:青)あるいはCMY(C:シアン、M:マゼンタ、Y:イエロー)の色情報に基づく演算により得ることができる。また、画像処理部204は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって特徴量画像を生成する特徴量画像生成部を備え、医療画像(医用画像)としての特徴量画像を取得及び表示してもよい。なお、上述した処理はCPU210の制御下で行われる。 The image processing unit 204 uses the functions described above to calculate the feature amount of a medical image, perform processing to emphasize or reduce components in a specific frequency band, and emphasize or reduce a specific target (region of interest, blood vessel at a desired depth, etc.). Processing can be performed to make it inconspicuous. The image processing unit 204 acquires a special light image having information on a specific wavelength band based on a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band. An image acquisition unit may be provided. In this case, the signal in the specific wavelength band is usually the color information of RGB (R: red, G: green, B: blue) or CMY (C: cyan, M: magenta, Y: yellow) included in the optical image. can be obtained by calculation based on In addition, the image processing unit 204 generates a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band, and a special light image obtained by irradiating light in a specific wavelength band. A feature amount image generating unit that generates a feature amount image by calculation based on at least one of (1) and (2) may be provided, and the feature amount image as a medical image (medical image) may be obtained and displayed. The processing described above is performed under the control of the CPU 210 .

<各種のプロセッサによる機能の実現>
上述した画像処理部204の各部の機能は、各種のプロセッサ(processor)及び記録媒体を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上述した各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。本発明のように画像の学習や認識を行う場合は、GPUを用いた構成が効果的である。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。
<Realization of functions by various processors>
The function of each unit of the image processing unit 204 described above can be realized using various processors and recording media. Various processors include, for example, a CPU (Central Processing Unit), which is a general-purpose processor that executes software (programs) to realize various functions. In addition, the above-mentioned various processors include GPUs (Graphics Processing Units), which are processors specialized for image processing, and FPGAs (Field Programmable Gate Arrays), which are processors whose circuit configuration can be changed after manufacturing. Programmable logic devices ( Programmable Logic Device (PLD) is also included. When learning and recognizing images as in the present invention, a configuration using a GPU is effective. Further, the various processors described above also include a dedicated electric circuit, such as an ASIC (Application Specific Integrated Circuit), which is a processor having a circuit configuration specially designed to execute specific processing.

各部の機能は1つのプロセッサにより実現されてもよいし、同種または異種の複数のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせ)で実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、コンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。これらの電気回路は、論理和、論理積、論理否定、排他的論理和、及びこれらを組み合わせた論理演算を用いて上述した機能を実現する電気回路であってもよい。 The function of each unit may be implemented by a single processor, or may be implemented by multiple processors of the same or different types (for example, multiple FPGAs, a combination of CPU and FPGA, or a combination of CPU and GPU). Also, a plurality of functions may be realized by one processor. As an example of configuring a plurality of functions in one processor, first, as represented by a computer, one processor is configured by a combination of one or more CPUs and software, and this processor has a plurality of functions. There is a form of realization. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that implements the functions of the entire system with a single IC (Integrated Circuit) chip. In this way, various functions are configured using one or more of the various processors described above as a hardware structure. Further, the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements. These electrical circuits may be electrical circuits that implement the above-described functions using logical sums, logical products, logical negations, exclusive logical sums, and logical operations in which these are combined.

上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのコンピュータ(例えば、画像処理部204を構成する各種のプロセッサや電気回路、及び/またはそれらの組み合わせ)で読み取り可能なコードをROM211(ROM:Read Only Memory)等の非一時的記録媒体に記憶しておき、コンピュータがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、本発明に係る医療画像処理方法を実行するためのプログラム及び実行に際して用いられるデータ(表示態様の特定に用いられるデータ、検出器224A、分類器224B、及び計測器224Cで用いられるパラメータ等)を含む。ROM211ではなく各種の光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM212(RAM:Random Access Memory)が一時的記憶領域として用いられ、また例えば不図示のEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。「非一時的記録媒体」として記録部207を用いてもよい。 When the processor or electric circuit described above executes software (program), the software to be executed can be read by a computer (for example, various processors and electric circuits constituting the image processing unit 204, and/or combinations thereof). The code is stored in a non-temporary recording medium such as ROM 211 (ROM: Read Only Memory), and the computer refers to the software. The software stored in the non-temporary recording medium is a program for executing the medical image processing method according to the present invention and data used for execution (data used to specify the display mode, detector 224A, classifier 224B , and parameters used by meter 224C, etc.). Instead of the ROM 211, the code may be recorded in non-temporary recording media such as various magneto-optical recording devices and semiconductor memories. When processing using software, for example, the RAM 212 (RAM: Random Access Memory) is used as a temporary storage area, and the data stored in, for example, an EEPROM (Electronically Erasable and Programmable Read Only Memory) (not shown) is referred to. can also You may use the recording part 207 as a "non-temporary recording medium."

<学習済みモデルによる認識器>
上述した認識器(検出器224A、分類器224B,及び計測器224C)は、CNN(Convolutional Neural Network)、SVM(Support Vector Machine)等の学習済みモデル(生体を撮影した画像から構成される画像セットを用いて学習したモデル)を用いて構成することができる。以下、認識器をCNNにより構成する場合の層構成について説明する。
<Recogniser based on trained model>
The above-described recognizer (detector 224A, classifier 224B, and measuring device 224C) is a trained model such as CNN (Convolutional Neural Network), SVM (Support Vector Machine) (image set composed of images of living organisms) can be configured using a model trained using The layer configuration when the recognizer is configured by CNN will be described below.

<CNNの層構成の例>
図4はCNNの層構成の例を示す図である。図4の(a)部分に示す例では、CNN562は入力層562Aと、中間層562Bと、出力層562Cとを含む。入力層562Aは医療画像取得部220が取得した内視鏡画像(医療画像)を入力して特徴量を出力する。中間層562Bは畳み込み層564及びプーリング層565を含み、入力層562Aが出力する特徴量を入力して他の特徴量を算出する。これらの層は複数の「ノード」が「エッジ」で結ばれた構造となっており、複数の重みパラメータを保持している。重みパラメータの値は、学習が進むにつれて変化していく。CNN562は、図4の(b)部分に示す例のように全結合層566を含んでいてもよい。CNN562の層構成は畳み込み層564とプーリング層565とが1つずつ繰り返される場合に限らず、いずれかの層(例えば、畳み込み層564)が複数連続して含まれていてもよい。また、全結合層566が複数連続して含まれていてもよい。
<Example of layer configuration of CNN>
FIG. 4 is a diagram showing an example of the layer configuration of the CNN. In the example shown in part (a) of FIG. 4, CNN 562 includes an input layer 562A, an intermediate layer 562B, and an output layer 562C. The input layer 562A inputs an endoscopic image (medical image) acquired by the medical image acquisition unit 220 and outputs a feature amount. The intermediate layer 562B includes a convolution layer 564 and a pooling layer 565, and receives feature values output by the input layer 562A to calculate other feature values. These layers have a structure in which a plurality of "nodes" are connected by "edges" and hold a plurality of weight parameters. The value of the weight parameter changes as learning progresses. CNN 562 may include a fully coupled layer 566 as in the example shown in part (b) of FIG. The layer configuration of the CNN 562 is not limited to the case where the convolutional layer 564 and the pooling layer 565 are repeated one by one, and any layer (for example, the convolutional layer 564) may be continuously included. Multiple contiguous all-bonded layers 566 may also be included.

<中間層における処理>
中間層562Bは、畳み込み演算及びプーリング処理によって特徴量を算出する。畳み込み層564で行われる畳み込み演算はフィルタを使用した畳み込み演算により特徴マップを取得する処理であり、画像からのエッジ抽出等の特徴抽出の役割を担う。このフィルタを用いた畳み込み演算により、1つのフィルタに対して1チャンネル(1枚)の「特徴マップ」が生成される。「特徴マップ」のサイズは、畳み込みによりダウンスケーリングされ、各層で畳み込みが行われるにつれて小さくなって行く。プーリング層565で行われるプーリング処理は畳み込み演算により出力された特徴マップを縮小(または拡大)して新たな特徴マップとする処理であり、抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。中間層562Bは、これらの処理を行う1または複数の層により構成することができる。
<Treatment in intermediate layer>
The intermediate layer 562B calculates feature amounts by convolution and pooling processing. The convolution operation performed in the convolution layer 564 is processing for obtaining a feature map by convolution operation using a filter, and plays a role of feature extraction such as edge extraction from an image. A "feature map" of one channel (one sheet) is generated for one filter by a convolution operation using this filter. The size of the "feature map" is downscaled by the convolution, getting smaller with each layer of convolution. The pooling process performed by the pooling layer 565 is a process of reducing (or enlarging) the feature map output by the convolution operation to create a new feature map. It plays the role of giving robustness to Middle layer 562B can be composed of one or more layers that perform these processes.

図5は、図4に示したCNN562の中間層562Bの構成例を示す模式図である。中間層562Bの最初(1番目)の畳み込み層では、複数の医療画像により構成される画像セット(学習時は学習用画像セット、認識時は認識用画像セット)とフィルタF 1との畳み込み演算が行われる。画像セットは、縦がH、横がWの画像サイズを有するN枚(Nチャンネル)の画像により構成される。通常光画像を入力する場合、画像セットを構成する画像はR(赤色),G(緑色),B(青色)の3チャンネルの画像である。この画像セットと畳み込み演算されるフィルタF 1は、画像セットがNチャンネル(N枚)であるため、例えばサイズ5(5×5)のフィルタの場合、フィルタサイズは5×5×Nのフィルタになる。このフィルタF 1を用いた畳み込み演算により、1つのフィルタF 1に対して1チャンネル(1枚)の「特徴マップ」が生成される。2番目の畳み込み層で使用されるフィルタF 2は、例えばサイズ3(3×3)のフィルタの場合、フィルタサイズは3×3×Mになる。 FIG. 5 is a schematic diagram showing a configuration example of the intermediate layer 562B of the CNN 562 shown in FIG. In the first (first) convolutional layer of the intermediate layer 562B, a convolution operation between an image set composed of a plurality of medical images (an image set for learning at the time of learning and an image set for recognition at the time of recognition) and the filter F1 is performed. done. The image set is composed of N images (N channels) having an image size of H in the vertical direction and W in the horizontal direction. When normal light images are input, the images that make up the image set are 3-channel images of R (red), G (green), and B (blue). This image set and the filter F1 that is convoluted with this image set have N channels (N images). Become. A "feature map" of one channel (one sheet) is generated for one filter F1 by a convolution operation using this filter F1. The filter F2 used in the second convolutional layer has a filter size of 3x3xM, for example for a filter of size 3 (3x3).

1番目の畳み込み層と同様に、2番目からn番目の畳み込み層ではフィルタF 2~F nを用いた畳み込み演算が行われる。n番目の畳み込み層における「特徴マップ」のサイズが、2番目の畳み込み層における「特徴マップ」のサイズよりも小さくなっているのは、前段までの畳み込み層またはプーリング層によりダウンスケーリングされているからである。 Similar to the first convolutional layer, the second to nth convolutional layers perform convolution operations using filters F 2 to F n . The reason why the size of the "feature map" in the nth convolutional layer is smaller than the size of the "feature map" in the second convolutional layer is that it has been downscaled by the previous convolutional layers or pooling layers. is.

中間層562Bの層のうち、入力側に近い畳み込み層では低次の特徴抽出(エッジの抽出等)が行われ、出力側に近づくにつれて高次の特徴抽出(対象物の形状、構造等に関する特徴の抽出)が行われる。なお、計測等を目的としてセグメンテーションを行う場合は後半部分の畳み込み層でアップスケーリングされ、最後の畳み込み層では、入力した画像セットと同じサイズの「特徴マップ」が得られる。一方、物体検出を行う場合は位置情報を出力すればよいのでアップスケーリングは必須ではない。 Among the layers of the intermediate layer 562B, low-order feature extraction (edge extraction, etc.) is performed in the convolution layer closer to the input side, and higher-order feature extraction (features related to the shape, structure, etc. of the object) is performed as it approaches the output side. extraction) is performed. When segmentation is performed for the purpose of measurement, etc., the convolutional layers in the latter half are upscaled, and in the last convolutional layer, a "feature map" of the same size as the input image set is obtained. On the other hand, when object detection is performed, position information may be output, so upscaling is not essential.

なお、中間層562Bは畳み込み層564及びプーリング層565の他にバッチノーマライゼーションを行う層を含んでいてもよい。バッチノーマライゼーション処理は学習を行う際のミニバッチを単位としてデータの分布を正規化する処理であり、学習を速く進行させる、初期値への依存性を下げる、過学習を抑制する等の役割を担う。 In addition to the convolution layer 564 and the pooling layer 565, the intermediate layer 562B may include a layer for batch normalization. Batch normalization is a process that normalizes the distribution of data in units of mini-batch during learning, and plays the role of speeding up learning, reducing dependence on initial values, and suppressing over-learning.

<出力層における処理>
出力層562Cは、中間層562Bから出力された特徴量に基づき、入力された医療画像(通常光画像、特殊光画像)に映っている注目領域の位置検出を行ってその結果を出力する層である。セグメンテーションを行う場合、出力層562Cは、中間層562Bから得られる「特徴マップ」により、画像に写っている注目領域の位置を画素レベルで把握する。すなわち、内視鏡画像の画素ごとに注目領域に属するか否かを検出し、その検出結果を出力することができる。一方、物体検出を行う場合は画素レベルでの判断は必要なく、出力層562Cが対象物の位置情報を出力する。
<Processing in the output layer>
The output layer 562C is a layer that detects the position of a region of interest appearing in an input medical image (normal light image, special light image) based on the feature amount output from the intermediate layer 562B, and outputs the result. be. When segmentation is performed, the output layer 562C uses the “feature map” obtained from the intermediate layer 562B to grasp the position of the region of interest in the image at the pixel level. That is, it is possible to detect whether or not each pixel of the endoscopic image belongs to the region of interest, and output the detection result. On the other hand, when object detection is performed, determination at the pixel level is not necessary, and the output layer 562C outputs the position information of the object.

分類器224Bの場合、出力層562Cは病変に関する鑑別(分類)を実行して鑑別結果を出力する。例えば、出力層562Cは内視鏡画像を「腫瘍性」、「非腫瘍性」、「その他」の3つのカテゴリに分類し、鑑別結果として「腫瘍性」、「非腫瘍性」及び「その他」に対応する3つのスコア(3つのスコアの合計は100%)として出力してもよいし、3つのスコアから明確に分類できる場合には分類結果を出力してもよい。なお鑑別結果を出力する場合、出力層562Cが最後の1層または複数の層として全結合層を含んでいてもよいし(図4の(b)部分を参照)、含んでいなくてもよい。 For classifier 224B, output layer 562C performs discrimination (classification) on lesions and outputs discrimination results. For example, the output layer 562C classifies the endoscopic images into three categories of "neoplastic", "non-neoplastic" and "other", and the discrimination results are "neoplastic", "non-neoplastic" and "other". (The sum of the three scores is 100%) corresponding to . When outputting the discrimination result, the output layer 562C may include a fully connected layer as the last layer or layers (see part (b) of FIG. 4), or may not include .

計測器224Cの場合、出力層562Cは注目領域の計測結果を出力する。CNNによって計測を行う場合は、対象となる注目領域を例えば上述のようにセグメンテーションしてからその結果を基に画像処理部204等で計測することができる。また、対象となる注目領域の計測値を計測器から直接出力することもできる。計測値を直接出力させる場合、画像に対し計測値そのものを学習させるので、計測値の回帰問題となる。 In the case of the measuring device 224C, the output layer 562C outputs the measurement result of the region of interest. When the CNN is used for measurement, the target region of interest can be segmented, for example, as described above, and then the image processing unit 204 or the like can perform measurement based on the result. In addition, it is also possible to directly output the measurement value of the target region of interest from the measuring instrument. In the case of directly outputting the measured values, the measured values themselves are learned by the image, which causes a regression problem of the measured values.

上述した構成のCNNを用いる場合、学習の過程において、出力層562Cが出力する結果と画像セットに対する認識の正解とを比較して損失(誤差)を計算し、損失が小さくなるように中間層562Bにおける重みパラメータを出力側の層から入力側の層に向けて更新していく処理(誤差逆伝播)を行うことが好ましい。 When using the CNN with the above configuration, in the learning process, the result output by the output layer 562C is compared with the correct recognition for the image set to calculate the loss (error), and the intermediate layer 562B It is preferable to perform processing (error backpropagation) to update the weight parameters in from the output side layer toward the input side layer.

<CNN以外の手法による認識>
認識器(検出器224A、分類器224B,及び計測器224C)は、CNN以外の手法により認識(注目領域の検出等)を行ってもよい。例えば、取得した医療画像の画素の特徴量に基づいて注目領域を検出することができる。この場合、例えば検出器224Aは検出対象画像を例えば複数の矩形領域に分割し、分割した各矩形領域を局所領域として設定し、検出対象画像の局所領域ごとに局所領域内の画素の特徴量(例えば色相)を算出し、各局所領域の中から特定の色相を有する局所領域を注目領域として決定する。同様に、特徴量に基づく分類や計測を行ってもよい。
<Recognition by methods other than CNN>
The recognizers (the detector 224A, the classifier 224B, and the measurer 224C) may perform recognition (detection of attention areas, etc.) by techniques other than CNN. For example, the region of interest can be detected based on the feature amount of the pixels of the acquired medical image. In this case, for example, the detector 224A divides the detection target image into, for example, a plurality of rectangular regions, sets each divided rectangular region as a local region, and sets the feature amount ( For example, hue) is calculated, and a local region having a specific hue is determined as a region of interest from among the local regions. Similarly, classification and measurement based on feature amounts may be performed.

なお、内視鏡システム10において、認識器として検出器224A、分類器224B,及び計測器224Cの全てを並行して動作させて表示結果を切り替えてもよいし、1つまたは2つの認識器を動作させて結果を表示してもよい。また、内視鏡システム10は検出器224A、分類器224B,及び計測器224Cの全てではなく、これら認識器のうち1つまたは2つを備えていてもよい。 In the endoscope system 10, all of the detector 224A, the classifier 224B, and the measuring device 224C may be operated in parallel to switch display results, or one or two recognizers may be used. You can run it and display the results. Also, endoscope system 10 may include one or two of detector 224A, classifier 224B, and meter 224C, but not all of these recognizers.

<記録部に記録される情報>
図6は、記録部207に記録される情報の例を示す図である。図6の例では、内視鏡画像260(医療画像)、認識結果262(検出結果、分類結果、計測結果)、表示態様設定情報264(注目領域の強調表示を行う際の表示態様)が記録される。他の情報を併せて記録してもよい。記録制御部230は、これらの情報を関連付けて記録する。
<Information recorded in the recording unit>
FIG. 6 is a diagram showing an example of information recorded in the recording unit 207. As shown in FIG. In the example of FIG. 6, an endoscopic image 260 (medical image), a recognition result 262 (detection result, classification result, measurement result), and display mode setting information 264 (display mode when highlighting a region of interest) are recorded. be done. Other information may be recorded together. The recording control unit 230 records these pieces of information in association with each other.

<医療画像処理方法>
上述した構成の内視鏡システム10における医療画像処理方法について、図7のフローチャートを参照して説明する。
<Medical image processing method>
A medical image processing method in the endoscope system 10 configured as described above will be described with reference to the flowchart of FIG.

<初期設定>
受付部232(受付部)は、操作部208を介したユーザの操作、及び/または記録部207に記録された表示態様設定情報264(例えば、強調表示をオンにするかオフにするか、表示する図形や記号の選択等、デフォルトの表示態様)に基づいて、医療画像処理方法の実行に必要な条件を設定する(ステップS100:初期設定ステップ)。例えば、画像取得モード(リアルタイム画像の取得か非リアルタイム画像の取得か)、強調表示に用いる文字、図形、記号やその色彩等を設定する。なお、以下のステップの実行中に条件設定や変更を行ってもよい。
<Initial settings>
The receiving unit 232 (receiving unit) receives the user's operation via the operation unit 208 and/or the display mode setting information 264 recorded in the recording unit 207 (for example, turning on or off highlighting, displaying The conditions necessary for executing the medical image processing method are set (step S100: initial setting step). For example, the image acquisition mode (real-time image acquisition or non-real-time image acquisition), characters, figures, symbols used for highlighting, their colors, and the like are set. Note that the conditions may be set or changed during execution of the following steps.

なお、第1の実施形態及び他の態様において、「リアルタイム」、「リアルタイム画像」には、例えば、進行中の検査や観察において、決められたフレームレートで撮影された複数の医療画像を実質的な遅延なしで順次取得すること、及びそのようにして取得された画像が含まれる。画像の送受信や画像処理等により完全なリアルタイムよりも画像の取得が僅かに遅延している場合も「リアルタイム」、「リアルタイム画像」に含まれるものとする。これに対し「非リアルタイム」、「非リアルタイム画像」には、例えば、検査が終了し既に記録されている複数の医療画像を順次取得して表示する場合が含まれる。 In the first embodiment and other aspects, "real-time" and "real-time images" are substantially multiple medical images captured at a predetermined frame rate, for example, during ongoing examinations and observations. sequential acquisition without significant delay, and images so acquired. "Real-time" and "real-time image" also include cases where image acquisition is slightly delayed from perfect real-time due to image transmission/reception, image processing, and the like. On the other hand, "non-real-time" and "non-real-time images" include, for example, cases in which a plurality of medical images that have already been recorded after an examination is sequentially acquired and displayed.

<内視鏡画像の取得>
医療画像取得部220(医療画像取得部)は、被検体の生体内で撮影された内視鏡画像(医療画像)を取得する(ステップS110:医療画像取得ステップ)。医療画像取得部220は、内視鏡スコープ100(医療機器)の撮影部(撮影レンズ132、撮像素子134、AFE138等)により、被検体である生体の内部をあらかじめ決められたフレームレートで順次撮影して内視鏡画像をリアルタイムに取得することができる(リアルタイム画像の取得)。
<Acquisition of endoscopic images>
The medical image acquisition unit 220 (medical image acquisition unit) acquires an endoscopic image (medical image) captured inside the body of the subject (step S110: medical image acquisition step). The medical image acquisition unit 220 sequentially captures the interior of the living body (subject) at a predetermined frame rate using the imaging unit (the imaging lens 132, the imaging device 134, the AFE 138, etc.) of the endoscope 100 (medical device). endoscopic images can be acquired in real time (real-time image acquisition).

医療画像取得部220は、既に撮影され記録された内視鏡画像を非リアルタイムで取得してもよい(非リアルタイム画像の取得)。例えば、記録部207に記録された内視鏡画像260を取得してもよいし、通信制御部205を介して外部の装置やシステムから画像を取得してもよい。また、被検体の観察部位を示す部位情報が既に取得されている場合は、部位情報が示す部位に応じた波長帯域の観察光で撮影された内視鏡画像(医療画像)を取得してもよい。例えば、胃の場合は白色光で撮影された画像、食道の場合は青色狭帯域光で撮影された画像を取得することができる。表示制御部228は、取得した内視鏡画像をモニタ400に表示させる。 The medical image acquisition unit 220 may acquire already captured and recorded endoscopic images in non-real time (non-real time image acquisition). For example, an endoscopic image 260 recorded in the recording unit 207 may be obtained, or an image may be obtained from an external device or system via the communication control unit 205 . In addition, if site information indicating the observation site of the subject has already been acquired, an endoscopic image (medical image) captured with observation light in a wavelength band corresponding to the site indicated by the site information can be acquired. good. For example, an image of the stomach taken with white light and an image of the esophagus taken with blue narrow band light can be acquired. The display control unit 228 causes the monitor 400 to display the acquired endoscopic image.

<注目領域の検出>
検出器224Aは、内視鏡画像(医療画像)から注目領域を検出する(ステップS120:情報取得ステップ)。注目領域の検出を行う場合、上述したように、検出器224Aは「特徴マップ」により画像に映っている注目領域の位置を画素レベルで把握(すなわち、内視鏡画像の画素ごとに注目領域に属するか否かを検出)し、その検出結果を出力することができる。検出する注目領域(関心領域)の例としては、ポリープ、癌、大腸憩室、炎症、治療痕(EMR瘢痕(EMR:Endoscopic Mucosal Resection)、ESD瘢痕(ESD:Endoscopic Submucosal Dissection)、クリップ箇所等)、出血点、穿孔、血管異型性などを挙げることができる。検出の場合と同様に、ステップS120において分類器224B、計測器224Cにより分類や計測を行ってもよい。なお、検出、分類、計測の対象となる内視鏡画像(医療画像)はリアルタイム画像でもよいし、非リアルタイム画像でもよい。
<Detection of attention area>
The detector 224A detects a region of interest from the endoscopic image (medical image) (step S120: information acquisition step). When detecting a region of interest, as described above, the detector 224A grasps the position of the region of interest reflected in the image at the pixel level from the "feature map" (that is, detects the region of interest for each pixel of the endoscopic image). (detect whether or not it belongs) and output the detection result. Examples of regions of interest (regions of interest) to be detected include polyps, cancers, colonic diverticula, inflammation, treatment scars (EMR scars (EMR: Endoscopic Mucosal Resection), ESD scars (ESD: Endoscopic Submucosal Dissection), clipping sites, etc.), Bleeding points, perforations, vascular atypia and the like can be mentioned. As in the case of detection, classification and measurement may be performed by the classifier 224B and the measuring device 224C in step S120. An endoscopic image (medical image) to be detected, classified, and measured may be a real-time image or a non-real-time image.

<表示態様の設定>
態様設定部226は、ステップS110で取得した画像がリアルタイム画像であるか否かを判断する(ステップS130:判断ステップ、態様設定ステップ)。態様設定部226は、この判断結果に基づいて、リアルタイム画像である場合(ステップS130でYES)はリアルタイム画像用の表示態様を設定し(ステップS140:態様設定ステップ)、非リアルタイム画像である場合(ステップS130でNO)は非リアルタイム画像用の表示態様を設定する(ステップS150:態様設定ステップ)。
<Display mode setting>
Mode setting unit 226 determines whether the image acquired in step S110 is a real-time image (step S130: determination step, mode setting step). Based on this determination result, the mode setting unit 226 sets the display mode for the real-time image if it is a real-time image (YES in step S130) (step S140: mode setting step), and if it is a non-real-time image ( If NO in step S130), the display mode for the non-real-time image is set (step S150: mode setting step).

<内視鏡画像の表示>
表示制御部228は、ステップS140またはS150で設定された表示態様(注目領域の強調表示の態様)により、内視鏡画像(医療画像)をモニタ400(表示装置)に表示させる(ステップS160:表示制御ステップ)。
<Display of endoscopic image>
The display control unit 228 causes the monitor 400 (display device) to display the endoscopic image (medical image) in the display mode (the mode of highlighting the region of interest) set in step S140 or S150 (step S160: display control step).

<リアルタイム画像の場合の表示例>
図8は、リアルタイム画像の場合の表示例(強調表示をオンに設定した場合)を示す図である。同図の(b)部分、(c)部分は、内視鏡画像800において注目領域802をそれぞれ図形804、矢印806により強調表示(内視鏡画像800内に重畳表示)した状態を示す。これらの強調表示は注目領域の位置を直接的に示すものであるが、注目領域自体には図形を重畳しないため、粘膜構造の観察の妨げにならない。また、同図の(d)部分は画面外(モニタ400の表示領域における内視鏡画像800の表示範囲外)の一部にフレーム808を表示した状態を示す。注目領域802に近い画面外の領域で報知する態様である。また、同図の(e)部分、(f)部分は、それぞれ画面外の一部にフレーム808を表示した状態、画面外に星印812を表示した状態を示しており、注目領域の位置に関わらず、注目領域が観察画面内に存在する場合にアラートを出す態様である。図8の(b)部分~(f)部分に示す例は、観察を妨げる度合いが低いため、リアルタイム表示に適した表現である。なお、図8の(a)部分は強調表示を行わない状態を示す図(参考用)であり、注目領域802が映った内視鏡画像800を示している。
<Display example for real-time images>
FIG. 8 is a diagram showing a display example (when highlighting is set to ON) in the case of a real-time image. Parts (b) and (c) of the figure show a state in which an attention area 802 is highlighted (superimposed on the endoscopic image 800) by a figure 804 and an arrow 806, respectively, in the endoscopic image 800. FIG. These highlighted displays directly indicate the position of the region of interest, but since the region of interest itself is not overlaid with a figure, it does not interfere with observation of the mucous membrane structure. Part (d) of the figure shows a state in which a frame 808 is displayed partly outside the screen (outside the display range of the endoscopic image 800 in the display area of the monitor 400). In this mode, notification is made in an area outside the screen near the attention area 802 . Parts (e) and (f) of the same figure show a state in which a frame 808 is displayed partly outside the screen and a state in which an asterisk 812 is displayed outside the screen, respectively. Regardless, it is a mode in which an alert is issued when the attention area exists within the observation screen. The examples shown in parts (b) to (f) of FIG. 8 are representations suitable for real-time display because they do not hinder observation to a low degree. Part (a) of FIG. 8 is a diagram (for reference) showing a state in which highlighting is not performed, and shows an endoscopic image 800 in which a region of interest 802 is shown.

<非リアルタイム画像の場合の表示例>
図9は、非リアルタイム画像の場合の表示例(強調表示をオンに設定した場合)を示す図である。同図の(a)部分は注目領域802を塗りつぶした状態を示し、(b)部分は内視鏡画像820と認識結果表示画像822とを2画面表示し、認識結果表示画像822において注目領域802と対応する位置に記号824を表示した状態を示す。図9の表示態様は観察を妨げる可能性があるためリアルタイム表示には好ましくないが、保存後表示(記録部207等に記録された画像を非リアルタイムで取得、表示する場合を含む)では問題にならない。また、保存後表示は注目領域を仔細に観察するため、図8の(d)部分~ (f)部分のように注目領域の位置を正確に把握できない表示方法は好ましくない。また、検査中に取得した画像群を一覧表示するために一枚当たりの表示サイズが小さくなる場合もあるため、より目立つ強調処理が好まれる。このため、図9のような態様を採用することができる。
<Display example for non-real-time images>
FIG. 9 is a diagram showing a display example of a non-real-time image (when highlighting is set to ON). Part (a) of the figure shows a state in which the attention area 802 is filled in, and part (b) shows the endoscopic image 820 and the recognition result display image 822 on two screens. , a state in which a symbol 824 is displayed at a position corresponding to . The display mode of FIG. 9 is not preferable for real-time display because it may interfere with observation, but it poses a problem for post-save display (including the case where an image recorded in the recording unit 207 or the like is acquired and displayed in non-real time). not. In addition, since the attention area is observed in detail in the display after storage, a display method such as parts (d) to (f) in FIG. 8 in which the position of the attention area cannot be grasped accurately is not preferable. In addition, since the display size of each image may be small in order to display a list of images acquired during an examination, a more conspicuous enhancement process is preferred. Therefore, an aspect as shown in FIG. 9 can be adopted.

なお、図9の(b)部分のように2画面またはそれ以上の画面で表示する場合、同一モニタの異なる画面で分割表示してもよいし、複数のモニタにそれぞれ表示してもよい。2画面で表示する態様から1画面表示の態様に変更する場合は、観察画面(内視鏡画像、認識結果)の表示位置及び/またはサイズを合わせて変更してもよい。そうすることにより、モニタサイズを十分に活用した観察画面表示が可能になる。 When two or more screens are displayed as shown in part (b) of FIG. 9, the screens may be divided and displayed on different screens on the same monitor, or may be displayed on a plurality of monitors. When changing from the mode of displaying on two screens to the mode of displaying on one screen, the display position and/or size of the observation screen (endoscopic image, recognition result) may be changed accordingly. By doing so, it is possible to display an observation screen that fully utilizes the monitor size.

図8,9はあくまでも表示態様の一例を示すものである。ユーザの好みや観察の目的等の条件に応じてリアルタイム画像の場合に図9のような表示を行ってもよいし、また非リアルタイム画像の場合に図8のような表示を行ってもよい。また、図9は非リアルタイム画像について強調表示をオンに設定した例であるが、ユーザの操作に応じて、また決められた条件を満たした場合に強調表示をオフにしてもよい。リアルタイム画像の場合も、ユーザの操作に応じて、また決められた条件を満たした場合に強調表示をオフにしてもよい。また、図8,9に例示する表示態様の他に、色調や階調の変更、周波数処理等を行ってもよい。このような表示態様の設定は、受付部232が操作部208を介したユーザ操作(表示態様の設定操作)を受け付け、態様設定部226がその設定操作に基づいて行うことができる。 8 and 9 merely show an example of the display mode. In the case of a real-time image, the display as shown in FIG. 9 may be performed, and in the case of a non-real-time image, the display as shown in FIG. 8 may be performed according to the user's preference and the purpose of observation. Also, FIG. 9 shows an example in which highlighting is set to ON for a non-real-time image, but highlighting may be turned off in response to a user's operation or when predetermined conditions are met. In the case of real-time images as well, highlighting may be turned off according to the user's operation or when predetermined conditions are met. In addition to the display modes illustrated in FIGS. 8 and 9, color tone and gradation may be changed, frequency processing, and the like may be performed. Such setting of the display mode can be performed by the receiving unit 232 receiving a user operation (display mode setting operation) via the operation unit 208 and by the mode setting unit 226 based on the setting operation.

態様設定部226は内視鏡画像の分類結果や計測結果に基づいて表示態様を設定し、表示制御部228はその設定により表示を行ってもよい。例えば、内視鏡画像の分類結果を「腫瘍性」、「非腫瘍性」、「その他」として文字、図形、記号等による表示態様を設定し、その態様により表示することができる。分類結果に応じて色彩を変えてもよい。また例えば、計測結果を「直径5mm」のように数値表示してもよいし、注目領域の大きさを示す図形、記号等を表示してもよい。この場合も結果に応じて色彩を変えてよい。 The mode setting unit 226 may set the display mode based on the classification result and the measurement result of the endoscopic image, and the display control unit 228 may display according to the setting. For example, the classification results of endoscopic images can be classified into "neoplastic", "non-neoplastic", and "others" by setting a display mode using characters, graphics, symbols, etc., and displaying in that mode. The color may be changed according to the classification result. Further, for example, the measurement result may be displayed numerically such as "diameter 5 mm", or a figure, symbol, or the like indicating the size of the attention area may be displayed. Again, the colors may be changed according to the results.

なお、内視鏡システム10において、モニタ(表示装置)の数は特に限定されない。モニタ400にリアルタイム画像と非リアルタイム画像の両方を表示させてもよい。この場合、例えばリアルタイム画像を表示し、ユーザの指示等に応じて特定のフレームをフリーズ表示させることができる。また、リアルタイム画像用のモニタと非リアルタイム画像用のモニタを別個に設け、それぞれのモニタに画像を表示させてもよい。別個のモニタを設ける場合、例えばモニタ400にリアルタイム画像を表示させ、レポート作成の際等に、検査で取得された画像を非リアルタイムで別のモニタに表示させてもよい。いずれの態様も、「内視鏡画像(医療画像)を表示装置に表示させる」に含まれる。 Note that the number of monitors (display devices) in the endoscope system 10 is not particularly limited. Both real-time and non-real-time images may be displayed on monitor 400 . In this case, for example, a real-time image can be displayed, and a specific frame can be freeze-displayed according to a user's instruction or the like. Alternatively, a monitor for real-time images and a monitor for non-real-time images may be provided separately, and images may be displayed on the respective monitors. When a separate monitor is provided, for example, a real-time image may be displayed on the monitor 400, and an image obtained by an inspection may be displayed on another monitor in a non-real-time manner, such as when creating a report. Both aspects are included in "displaying an endoscopic image (medical image) on a display device".

<部位情報の表示>
表示制御部228は、内視鏡画像の強調表示と合わせて部位情報(内視鏡画像に映った部位を示す情報)を表示してもよい。図10は部位情報の表示例を示す図である。図10の(a)部分は、内視鏡画像830において、注目領域832を囲む枠834に加えて部位情報836を文字(“gastric”)で表示した例であり、同図の(b)部分は内視鏡画像840においてシェーマ図842上の矢印842Aにより部位情報を表示した例である。部位情報はこの他アイコンで表示してもよく、部位に応じて表示態様(文字や記号の内容、位置、形状、色彩等)を変化させてもよい。なお、部位情報は内視鏡画像の解析、ユーザの入力、電磁波や超音波を用いる外部機器等により取得することができる。
<Display of part information>
The display control unit 228 may display the region information (information indicating the region shown in the endoscopic image) along with the highlighted display of the endoscopic image. FIG. 10 is a diagram showing a display example of part information. Part (a) of FIG. 10 is an example in which region information 836 is displayed in characters (“gastric”) in addition to a frame 834 surrounding a region of interest 832 in an endoscopic image 830. Part (b) of FIG. 8 is an example in which region information is displayed by an arrow 842A on a schema 842 in an endoscopic image 840. FIG. In addition, the site information may be displayed by icons, and the display mode (contents, positions, shapes, colors, etc. of characters and symbols) may be changed according to the site. Note that the site information can be acquired by analysis of an endoscopic image, user input, external equipment using electromagnetic waves or ultrasonic waves, and the like.

<部位に応じた画像の取得及び処理>
医療画像取得部220は、内視鏡画像に映った部位に応じた波長帯域の観察光で撮影された内視鏡画像(医療画像)を取得し、表示制御部228はその波長帯域の観察光で撮影された医療画像に対する認識の結果をモニタ400(表示装置)に表示させてもよい。例えば、胃の場合は白色光(通常光)で撮影された画像を、食道の場合はBLI(Blue Laser Imaging:登録商標)等の特殊光(青色狭帯域光)で撮影された画像を認識に供することができる。部位に応じて、LCI(Linked Color Imaging:登録商標)等の特殊光で撮影され画像処理(LCIの場合、粘膜色に近い色の彩度差や色相差を拡張する)が施された画像を用いてもよい。部位に応じた画像処理は、画像処理部204により施すことができる。
<Acquisition and processing of images according to site>
The medical image acquisition unit 220 acquires an endoscopic image (medical image) captured with observation light in a wavelength band corresponding to the region reflected in the endoscopic image, and the display control unit 228 acquires the observation light in the wavelength band. You may display the recognition result with respect to the medical image image|photographed by the monitor 400 (display apparatus). For example, in the case of the stomach, an image taken with white light (normal light) is recognized, and in the case of the esophagus, an image taken with special light (blue narrow band light) such as BLI (Blue Laser Imaging: registered trademark) is recognized. can be provided. Depending on the site, images taken with special light such as LCI (Linked Color Imaging: registered trademark) and processed (in the case of LCI, the saturation and hue differences of colors close to the color of the mucous membrane are expanded) may be used. Image processing according to the site can be performed by the image processing unit 204 .

<内視鏡画像及び注目領域情報の記録>
記録制御部230(記録制御部)は、内視鏡画像及び注目領域の情報を、それぞれ内視鏡画像260、認識結果262として記録部207に記録する(ステップS170:記録制御ステップ)。ステップS120で分類や計測を行っている場合は、その結果を記録する。また、内視鏡画像に画像処理を施している場合は処理後の内視鏡画像を記録することができ、内視鏡画像260、認識結果262と合わせて表示態様設定情報264を記録してもよい。これらの情報は互いに関連付けて記録することが好ましい。画像処理部204は処理を終了するか否か判断し(ステップS180)、継続する場合(ステップS180でNO)はステップS110に戻り、例えば次フレームについて上述した処理を行う。
<Recording of endoscopic image and attention area information>
The recording control unit 230 (recording control unit) records the endoscopic image and the information on the attention area in the recording unit 207 as the endoscopic image 260 and the recognition result 262, respectively (step S170: recording control step). If classification and measurement are performed in step S120, the results are recorded. Further, when the endoscopic image is subjected to image processing, the processed endoscopic image can be recorded, and the display mode setting information 264 is recorded together with the endoscopic image 260 and the recognition result 262. good too. These pieces of information are preferably recorded in association with each other. The image processing unit 204 determines whether or not to end the processing (step S180), and if it continues (NO in step S180), returns to step S110, and performs the above-described processing for the next frame, for example.

このように、内視鏡システム10では医療画像をリアルタイム性に応じて強調表示させることができる。また、医療画像と注目領域の情報とを関連付けて記録装置に記録させる(情報を画像に重畳させずに記録する)ので、医療画像及び情報を事後的に使用する場合(非リアルタイム画像の場合)も観察の目的やユーザの希望に応じた表示態様で表示させることができる。 In this manner, the endoscope system 10 can highlight medical images in real time. In addition, since the medical image and the information of the region of interest are associated and recorded in a recording device (the information is recorded without being superimposed on the image), the medical image and information are used after the fact (in the case of non-real-time images) can also be displayed in a display mode according to the purpose of observation or the desire of the user.

<他の表示態様>
<経過時間の情報に基づく表示態様の設定>
注目領域を強調表示する場合の表示態様は、内視鏡画像がモニタ400に表示されている経過時間の情報に基づいて設定してもよい。図11は経過時間の情報に基づく表示態様の設定処理を示すフローチャートである。ステップS152~S156以外は図7と同じなので詳細な説明を省略する。第1の時間情報取得部234(第1の時間情報取得部)は、同一の注目領域が映っている内視鏡画像(医療画像)がモニタ400(表示装置)に表示されている経過時間(第1の経過時間)の情報を取得し(ステップS152:時間情報取得ステップ)、態様設定部226は、第1の経過時間がしきい値以上であるか否かを判断する(ステップS154:判断ステップ)。第1の時間情報取得部234は、例えば撮影のフレームレートと、同一の注目領域が映っているフレーム数と、により経過時間の情報を取得(算出)することができる。第1の経過時間がしきい値以上の場合(ステップS154でYES)、態様設定部226は第1の経過時間の情報に基づいて表示態様を再設定し(ステップS156:態様設定ステップ)、第1の経過時間がしきい値に満たない場合(ステップS154でNO)は、表示態様を維持する。
<Other display modes>
<Display mode setting based on elapsed time information>
The display mode for highlighting the region of interest may be set based on information on the elapsed time during which the endoscopic image is displayed on the monitor 400 . FIG. 11 is a flow chart showing processing for setting a display mode based on elapsed time information. Since steps other than steps S152 to S156 are the same as in FIG. 7, detailed description thereof will be omitted. The first time information acquisition unit 234 (first time information acquisition unit) acquires an elapsed time ( first elapsed time) (step S152: time information acquisition step), and mode setting unit 226 determines whether or not the first elapsed time is equal to or greater than the threshold value (step S154: determination step). The first time information acquisition unit 234 can acquire (calculate) information on the elapsed time based on, for example, the frame rate of shooting and the number of frames in which the same attention area is captured. If the first elapsed time is equal to or greater than the threshold value (YES in step S154), mode setting unit 226 resets the display mode based on the information on the first elapsed time (step S156: mode setting step). If the elapsed time of 1 is less than the threshold value (NO in step S154), the display mode is maintained.

図12は、第1の経過時間に応じて表示態様を再設定した様子を示す図である。同図では注目領域802を囲む図形804Aを点線で表示しており、強調度合いが低い。態様設定部226及び表示制御部228は、例えば図8の(b)部分の状態(図形804を実線で表示)と図12の状態とを第1の経過時間に応じて切り替えることができる。例えば、第1の経過時間が短い時点では図8の(b)部分のように表示して強調度合いを上げて注意を喚起し、その後は図12のように強調度合いを下げることができる。ユーザの操作や観察目的に応じて、これと逆のパターンで表示してもよい。また、図8,12のように図形の線種を変えるのではなく、図形や記号の形状や大きさ、色や明るさを変えてもよい。 FIG. 12 is a diagram showing how the display mode is reset according to the first elapsed time. In FIG. 8, a figure 804A surrounding an attention area 802 is indicated by a dotted line, and the degree of emphasis is low. The mode setting unit 226 and the display control unit 228 can switch between, for example, the state of part (b) of FIG. 8 (the graphic 804 is displayed in solid lines) and the state of FIG. 12 according to the first elapsed time. For example, when the first elapsed time is short, it is displayed as shown in FIG. 8(b) to increase the degree of emphasis to attract attention, and thereafter the degree of emphasis can be reduced as shown in FIG. Depending on the user's operation and observation purpose, the display may be performed in a reverse pattern. Also, instead of changing the line type of figures as in FIGS. 8 and 12, the shape, size, color and brightness of figures and symbols may be changed.

また、経過時間に応じて強調表示のオンとオフを切り替えてもよいし、強調度合いを上げても(あるいは、下げても)よい。例えば、検出当初は強調表示オフでその後オンにしてもよいし(あるいは、第1の経過時間と共に強調度合いを上げてゆく)、その逆(あるいは、第1の経過時間と共に強調度合いを下げてゆく)でもよい。また、決められた時間間隔でオンとオフと繰り返してもよい。 Also, the highlighting may be switched on and off according to the elapsed time, or the degree of highlighting may be increased (or decreased). For example, the highlighting may be turned off at the beginning of detection and then turned on (or the degree of emphasis may be increased with the first elapsed time), or vice versa (or the degree of emphasis may be decreased with the first elapsed time). ) can be used. Alternatively, it may be turned on and off repeatedly at predetermined time intervals.

このような処理は、例えば内視鏡画像を決められたフレームレートで順次取得、表示させる場合において、同一の注目領域が複数のフレームに映っている状態の経過時間(第1の経過時間)に応じて表示態様を設定する場合に適用することができる。 For example, in the case of sequentially acquiring and displaying endoscopic images at a predetermined frame rate, such processing is performed during the elapsed time (first elapsed time) in which the same attention area is shown in a plurality of frames. This can be applied when setting the display mode accordingly.

同様に、注目領域を強調表示する場合の表示態様は、同一の内視鏡画像が表示されている経過時間の情報に基づいて設定してもよい。この場合の処理は図11のフローチャートと同様に行うことができる。第2の時間情報取得部235(第2の時間情報取得部)は、同一の内視鏡画像がモニタ400(表示装置)に表示されている経過時間(第2の経過時間)の情報を取得し(ステップS152:時間情報取得ステップ)、態様設定部226は、第2の経過時間がしきい値以上であるか否かを判断する(ステップS154:判断ステップ)。第2の経過時間がしきい値以上の場合(ステップS154でYES)、態様設定部226は第2の経過時間の情報に基づいて表示態様を再設定し(ステップS156:態様設定ステップ)、第2の経過時間がしきい値に満たない場合(ステップS154でNO)は、表示態様を維持する。表示態様は、第1の経過時間に基づく場合と同様に行うことができる。 Similarly, the display mode when highlighting a region of interest may be set based on information on the elapsed time during which the same endoscopic image is displayed. The processing in this case can be performed in the same manner as in the flowchart of FIG. The second time information acquisition unit 235 (second time information acquisition unit) acquires information on the elapsed time (second elapsed time) during which the same endoscopic image is displayed on the monitor 400 (display device). Then (step S152: time information acquisition step), mode setting unit 226 determines whether or not the second elapsed time is equal to or greater than the threshold value (step S154: determination step). If the second elapsed time is equal to or greater than the threshold (YES in step S154), mode setting unit 226 resets the display mode based on the second elapsed time information (step S156: mode setting step). If the elapsed time of 2 is less than the threshold value (NO in step S154), the display mode is maintained. The display mode can be performed in the same manner as the case based on the first elapsed time.

このような処理は、例えば内視鏡画像をフリーズ表示等により継続観察している場合において、特定の画像を継続して表示している経過時間(第2の経過時間)に応じて表示態様を設定する場合に適用することができる。 Such processing changes the display mode according to the elapsed time (second elapsed time) during which a specific image is continuously displayed when, for example, an endoscopic image is continuously observed by freeze display or the like. Can be applied when setting

<複数の医療画像に対する表示態様の一括設定>
図13のフローチャートを参照して、複数の医療画像に対する表示態様の一括設定について説明する。なお、図13のうちステップS162,S164以外は図7,11と同じなので、詳細な説明を省略する。
<Batch setting of display mode for multiple medical images>
Batch setting of display modes for a plurality of medical images will be described with reference to the flowchart of FIG. 13 . 13 are the same as those in FIGS. 7 and 11 except for steps S162 and S164, and detailed description thereof will be omitted.

検査後に内視鏡画像を確認する場合は、複数の画像を一覧表示する場合がある。例えば、表示制御部228は、記録部207(記録装置)に記録された複数の医療画像をモニタ400(表示装置)に一覧表示させる(ステップS160:表示制御ステップ)。図14の(a)部分は、強調表示がオフの状態で6枚の画像を表示した様子を示しており、内視鏡画像850,852において注目領域802が検出されている。この状態から強調表示をオンにする場合、画像をクリックする等の操作により各画像の表示態様を個別に設定していたのでは操作が煩わしい。そこで、態様設定部226は変更操作の有無を判断する(ステップS162:判断ステップ)。態様設定部226は、例えばユーザが操作部208を介して変更操作し、受付部232が操作を受け付けた場合に「変更操作があった」と判断することができる。 When checking endoscopic images after an examination, a list of a plurality of images may be displayed. For example, the display control unit 228 displays a list of a plurality of medical images recorded in the recording unit 207 (recording device) on the monitor 400 (display device) (step S160: display control step). Part (a) of FIG. 14 shows a state in which six images are displayed with highlighting turned off, and a region of interest 802 is detected in endoscopic images 850 and 852 . When the highlighting is turned on from this state, the operation is troublesome if the display mode of each image is individually set by an operation such as clicking the image. Therefore, the mode setting unit 226 determines whether or not there is a change operation (step S162: determination step). For example, when the user performs a change operation via the operation unit 208 and the reception unit 232 receives the operation, the mode setting unit 226 can determine that "a change operation has been performed."

変更操作がされた場合、態様設定部226は、一覧表示した複数の医療画像に対する強調表示の態様を共通した態様に設定する。例えば、複数の内視鏡画像(医療画像)に対する強調表示を一括してオン(またはオフ)に設定する。表示制御部228は、一覧表示した内視鏡画像を変更後の表示態様(共通した態様)で再表示する(ステップS164:表示制御ステップ)。表示制御部228は、例えば図14の(b)部分に示すように、注目領域802が検出された内視鏡画像850,852に対しフレーム854,856を表示する(内視鏡画像850,852以外の画像については、注目領域が検出されていないのでフレームは表示されない)。すなわち、「注目領域が映った画像に対し、画像全体を囲むフレームを表示する」のが「共通した態様」である。このような表示により、ユーザは、検査後に、多数の画像から注目領域が映った画像(すなわち、精査が必要な画像)を簡便に選択することができる。 When the change operation is performed, the mode setting unit 226 sets the mode of highlighting for the plurality of medical images displayed as a list to a common mode. For example, highlighting for a plurality of endoscopic images (medical images) is collectively set to on (or off). The display control unit 228 re-displays the displayed endoscopic images in the changed display mode (common mode) (step S164: display control step). The display control unit 228 displays frames 854 and 856 with respect to the endoscopic images 850 and 852 in which the attention area 802 is detected (the endoscopic images 850 and 852), for example, as shown in part (b) of FIG. For images other than , the frame is not displayed because the region of interest is not detected). That is, the "common mode" is "to display a frame surrounding the entire image with respect to the image showing the attention area". Such a display allows the user to easily select an image showing the region of interest (that is, an image that requires close examination) from a large number of images after the examination.

上述した一覧表示時の表示態様設定に加えて、またはこれに代えて、一覧表示時と単独表示時とで強調方法を変更してもよい。例えば、一覧表示時は図14の(b)部分のように画像全体を囲むフレームを表示し、単独表示時は図8の(b)部分や図12のように注目領域802の部分を囲む図形やフレームを表示することができる。この表示態様は、一覧表示時は「注目領域が映っている」あるいは「映っていない」の情報だけで足りるため図14の(b)部分のように表示し、単独表示時は画像における注目領域の位置の情報が必要となるため図8の(b)部分のように表示するものである。 In addition to or in place of the setting of the display mode for the list display described above, the emphasis method may be changed between the list display and the single display. For example, when displaying a list, a frame surrounding the entire image is displayed as shown in part (b) of FIG. or frame can be displayed. This display mode is displayed as shown in FIG. 14(b) since only the information "the attention area is shown" or "is not shown" is sufficient when the list is displayed, and the attention area in the image is displayed when the single display is performed. Since information on the position of is required, it is displayed as shown in FIG. 8(b).

<内視鏡画像以外への適用>
上述した実施形態では医療画像(医用画像)の一態様である内視鏡画像を用いて注目領域の検出を行う場合について説明したが、本発明に係る医療画像処理装置及び医療画像処理方法は、超音波画像診断装置等の内視鏡画像以外の医療画像を用いる場合にも適用することができる。
<Application to other than endoscopic images>
In the above-described embodiment, the case of detecting a region of interest using an endoscopic image, which is one aspect of a medical image (medical image), has been described. However, the medical image processing apparatus and the medical image processing method according to the present invention The present invention can also be applied to the case of using medical images other than endoscopic images, such as an ultrasonic diagnostic imaging device.

(付記)
上述した態様に加えて、以下に記載の構成も本発明の範囲に含まれる。
(Appendix)
In addition to the aspects described above, the configurations described below are also included in the scope of the present invention.

(付記1)
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 1)
The medical image analysis processing unit detects a region of interest, which is a region of interest, based on the feature amount of the pixels of the medical image,
A medical image analysis result acquisition unit is a medical image processing apparatus that acquires the analysis result of the medical image analysis processing unit.

(付記2)
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 2)
The medical image analysis processing unit detects the presence or absence of an object of interest based on the feature amount of the pixels of the medical image,
A medical image analysis result acquisition unit is a medical image processing apparatus that acquires the analysis result of the medical image analysis processing unit.

(付記3)
医療画像解析結果取得部は、
医療画像の解析結果を記録する記録装置から取得し、
解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、もしくは両方である医療画像処理装置。
(Appendix 3)
The medical image analysis result acquisition unit
Obtained from a recording device that records the analysis results of medical images,
A medical image processing apparatus in which an analysis result is either a region of interest, which is a region of interest included in a medical image, or the presence or absence of a target of interest, or both.

(付記4)
医療画像は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
(Appendix 4)
A medical image processing apparatus in which a medical image is a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band.

(付記5)
医療画像は、特定の波長帯域の光を照射して得た画像であり、
特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
(Appendix 5)
A medical image is an image obtained by irradiating light of a specific wavelength band,
A medical imaging device in which the specific wavelength band is narrower than the white wavelength band.

(付記6)
特定の波長帯域は、可視域の青色もしくは、緑色帯域である医療画像処理装置。
(Appendix 6)
A medical image processing device in which the specific wavelength band is the visible blue or green band.

(付記7)
特定の波長帯域は、390nm以上450nm以下または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 7)
The specific wavelength band includes a wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less, and the light of the specific wavelength band has a peak wavelength within the wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less. Image processing device.

(付記8)
特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
(Appendix 8)
A medical image processing device whose specific wavelength band is the visible red band.

(付記9)
特定の波長帯域は、585nm以上615nm以下または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 9)
The specific wavelength band includes a wavelength band of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less, and the light of the specific wavelength band has a peak wavelength within the wavelength band of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less. Image processing device.

(付記10)
特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 10)
The specific wavelength band includes a wavelength band in which oxyhemoglobin and reduced hemoglobin have different absorption coefficients, and the light in the specific wavelength band has a peak wavelength in the wavelength band in which oxidized hemoglobin and reduced hemoglobin have different absorption coefficients. Medical imaging equipment.

(付記11)
特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 11)
The specific wavelength band includes a wavelength band of 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or a wavelength band of 600 nm or more and 750 nm or less, and the light in the specific wavelength band is 400 ± 10 nm, 440 ± 10 nm, 470 ± A medical image processing apparatus having a peak wavelength in a wavelength band of 10 nm or from 600 nm to 750 nm.

(付記12)
医療画像は生体内を写した生体内画像であり、
生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
(Appendix 12)
A medical image is an in vivo image of the inside of a living body,
An in vivo image is a medical image processing device that has information on the fluorescence emitted by fluorescent substances in the living body.

(付記13)
蛍光は、ピークが390以上470nm以下である励起光を生体内に照射して得る医療画像処理装置。
(Appendix 13)
A medical image processing apparatus in which fluorescence is obtained by irradiating the living body with excitation light having a peak of 390 to 470 nm.

(付記14)
医療画像は生体内を写した生体内画像であり、
特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
(Appendix 14)
A medical image is an in vivo image of the inside of a living body,
A medical imaging device in which the specific wavelength band is the wavelength band of infrared light.

(付記15)
特定の波長帯域は、790nm以上820nm以下または905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 15)
The specific wavelength band includes a wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less. processing equipment.

(付記16)
医療画像取得部は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、
医療画像は特殊光画像である医療画像処理装置。
(Appendix 16)
The medical image acquisition unit acquires a special light image having information on a specific wavelength band based on a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band. comprising an optical image acquisition unit,
A medical image processing device in which the medical image is a special light image.

(付記17)
特定の波長帯域の信号は、通常光画像に含まれるRGBあるいはCMYの色情報に基づく演算により得る医療画像処理装置。
(Appendix 17)
A medical image processing device in which a signal in a specific wavelength band is normally obtained by calculation based on RGB or CMY color information contained in an optical image.

(付記18)
白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、
医療画像は特徴量画像である医療画像処理装置。
(Appendix 18)
By calculation based on at least one of a normal light image obtained by irradiating light of a plurality of wavelength bands as white band light or light of a white band, and a special light image obtained by irradiating light of a specific wavelength band, A feature amount image generation unit that generates a feature amount image,
A medical image processing apparatus in which a medical image is a feature amount image.

(付記19)
付記1から18のいずれか1つに記載の医療画像処理装置と、
白色の波長帯域の光、または、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、
を備える内視鏡装置。
(Appendix 19)
a medical image processing apparatus according to any one of Appendices 1 to 18;
an endoscope that acquires an image by irradiating at least one of light in a white wavelength band or light in a specific wavelength band;
An endoscope device comprising:

(付記20)
付記1から18のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
(Appendix 20)
A diagnosis support device comprising the medical image processing device according to any one of appendices 1 to 18.

(付記21)
付記1から18のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
(Appendix 21)
A medical service support apparatus comprising the medical image processing apparatus according to any one of Appendices 1 to 18.

以上で本発明の実施形態及び他の例に関して説明してきたが、本発明は上述した態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。 Although the embodiments and other examples of the present invention have been described above, the present invention is not limited to the above aspects, and various modifications are possible without departing from the spirit of the present invention.

10 内視鏡システム
100 内視鏡スコープ
102 手元操作部
104 挿入部
106 ユニバーサルケーブル
108 ライトガイドコネクタ
112 軟性部
114 湾曲部
116 先端硬質部
116A 先端側端面
123 照明部

123A 照明用レンズ
123B 照明用レンズ
126 鉗子口
130 撮影光学系
132 撮影レンズ
134 撮像素子
136 駆動回路
138 AFE
141 送気送水ボタン
142 吸引ボタン
143 機能ボタン
144 撮影ボタン
170 ライトガイド
200 プロセッサ
202 画像入力コントローラ
204 画像処理部
205 通信制御部
206 ビデオ出力部
207 記録部
208 操作部
209 音声処理部
209A スピーカ
210 CPU
211 ROM
212 RAM
220 医療画像取得部
222 情報取得部
224A 検出器
224B 分類器
224C 計測器
226 態様設定部
228 表示制御部
230 記録制御部
232 受付部
234 第1の時間情報取得部
235 第2の時間情報取得部
260 内視鏡画像
262 認識結果
264 表示態様設定情報
300 光源装置
310 光源
310B 青色光源
310G 緑色光源
310R 赤色光源
310V 紫色光源
330 絞り
340 集光レンズ
350 光源制御部
400 モニタ
562 CNN
562A 入力層
562B 中間層
562C 出力層
564 畳み込み層
565 プーリング層
566 全結合層
800 内視鏡画像
802 注目領域
804 図形
804A 図形
806 矢印
808 フレーム
810 フレーム
812 星印
820 内視鏡画像
822 認識結果表示画像
830 内視鏡画像
832 注目領域
834 枠
836 部位情報
840 内視鏡画像
842 シェーマ図
842A 矢印
850 内視鏡画像
852 内視鏡画像
854 フレーム
856 フレーム
F1 フィルタ
F2 フィルタ
Fn フィルタ
S100~S170 医療画像処理方法の各ステップ
10 endoscope system 100 endoscope scope 102 hand operation section 104 insertion section 106 universal cable 108 light guide connector 112 flexible section 114 bending section 116 distal end rigid section 116A distal end face 123 illumination section

123A illumination lens 123B illumination lens 126 forceps port 130 photographing optical system 132 photographing lens 134 image sensor 136 drive circuit 138 AFE
141 Air supply/water supply button 142 Suction button 143 Function button 144 Shooting button 170 Light guide 200 Processor 202 Image input controller 204 Image processing unit 205 Communication control unit 206 Video output unit 207 Recording unit 208 Operation unit 209 Audio processing unit 209A Speaker 210 CPU
211 ROMs
212 RAM
220 medical image acquisition unit 222 information acquisition unit 224A detector 224B classifier 224C measuring instrument 226 mode setting unit 228 display control unit 230 recording control unit 232 reception unit 234 first time information acquisition unit 235 second time information acquisition unit 260 Endoscope image 262 Recognition result 264 Display mode setting information 300 Light source device 310 Light source 310B Blue light source 310G Green light source 310R Red light source 310V Violet light source 330 Diaphragm 340 Collecting lens 350 Light source controller 400 Monitor 562 CNN
562A Input layer 562B Intermediate layer 562C Output layer 564 Convolution layer 565 Pooling layer 566 Fully connected layer 800 Endoscope image 802 Attention area 804 Figure 804A Figure 806 Arrow 808 Frame 810 Frame 812 Star 820 Endoscope image 822 Recognition result display image 830 endoscopic image 832 attention area 834 frame 836 part information 840 endoscopic image 842 schema 842A arrow 850 endoscopic image 852 endoscopic image 854 frame 856 frame F1 filter F2 filter Fn filter S100 to S170 medical image processing method each step of

Claims (7)

医療画像を取得する医療画像取得部と、
前記医療画像における注目領域の情報を取得する情報取得部と、
前記情報に基づいて、前記注目領域の強調表示を、前記医療画像が非リアルタイムで取得された非リアルタイム画像である場合の強調度合いが、前記医療画像がリアルタイムで取得されたリアルタイム画像である場合の強調度合いよりも高い表示態様に設定する態様設定部と、
前記医療画像を前記設定された表示態様で表示装置に表示させる表示制御部と、
前記医療画像と前記情報とを関連付けて記録装置に記録させる記録制御部と、
を備え、
前記表示制御部は、前記医療画像の前記表示と合わせて、前記医療画像に写った部位を示す情報である部位情報を前記表示装置に表示させる医療画像処理装置。
a medical image acquisition unit that acquires a medical image;
an information acquisition unit that acquires information on the region of interest in the medical image;
Based on the information, the degree of highlighting of the region of interest when the medical image is a non-real-time image obtained in non-real time is set to the degree of emphasis when the medical image is a real-time image obtained in real time. a mode setting unit that sets a display mode higher than the degree of emphasis;
a display control unit that causes a display device to display the medical image in the set display mode;
a recording control unit that associates the medical image with the information and records it in a recording device;
with
The display control unit causes the display device to display, together with the display of the medical image, region information, which is information indicating a region captured in the medical image.
前記表示制御部は、前記医療画像に映った注目領域を囲む枠と、前記部位情報を示す文字とを前記表示装置に表示させる請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the display control unit causes the display device to display a frame surrounding the region of interest shown in the medical image and characters indicating the region information. 前記表示制御部は、シェーマ図上の矢印、及び/または部位を示すアイコンにより前記部位情報を表示させる請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the display control unit displays the part information by an arrow on a schematic diagram and/or an icon indicating the part. 前記表示制御部は、前記部位に応じて前記部位情報の表示態様を変化させる請求項1から3のいずれか1項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 3, wherein the display control unit changes a display mode of the part information according to the part. 前記表示制御部は、前記部位情報としての文字及び/または記号の内容、位置、形状、色彩のうち一つ以上を前記部位に応じて変化させる請求項1から4のいずれか1項に記載の医療画像処理装置。 5. The display control unit according to any one of claims 1 to 4, wherein the display control unit changes one or more of content, position, shape, and color of characters and/or symbols as the part information according to the part. Medical imaging equipment. 請求項1から5のいずれか1項に記載の医療画像処理装置と、
前記表示装置と、
被検体に挿入される内視鏡スコープであって、前記医療画像を撮影する撮影部を有する内視鏡スコープと、を備える内視鏡システム。
a medical image processing apparatus according to any one of claims 1 to 5;
the display device;
An endoscope system comprising: an endoscope to be inserted into a subject, the endoscope having an imaging unit that captures the medical image.
プロセッサを備える医療画像処理装置の作動方法であって、
前記プロセッサは、
医療画像を取得し、
前記医療画像における注目領域の情報を取得し、
前記情報に基づいて、前記注目領域の強調表示を、前記医療画像が非リアルタイムで取得された非リアルタイム画像である場合の強調度合いが、前記医療画像がリアルタイムで取得されたリアルタイム画像である場合の強調度合いよりも高い表示態様に設定し、
前記医療画像を前記設定された表示態様で表示装置に表示させ、
前記医療画像と前記情報とを関連付けて記録装置に記録させ、
前記医療画像の前記表示と合わせて、前記医療画像に写った部位を示す情報である部位情報を前記表示装置に表示させる作動方法。
A method of operating a medical imaging device comprising a processor, comprising:
The processor
acquire medical images,
Acquiring information on a region of interest in the medical image;
Based on the information, the degree of highlighting of the region of interest when the medical image is a non-real-time image obtained in non-real time is set to the degree of emphasis when the medical image is a real-time image obtained in real time. Set to a display mode higher than the degree of emphasis,
causing the display device to display the medical image in the set display mode;
causing the medical image and the information to be associated and recorded in a recording device;
An operation method for causing the display device to display, together with the display of the medical image, region information, which is information indicating a region captured in the medical image.
JP2022200252A 2019-02-19 2022-12-15 Medical image processing device, endoscope system, and operation method of medical image processing device Pending JP2023026480A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019027514 2019-02-19
JP2019027514 2019-02-19
PCT/JP2020/004224 WO2020170809A1 (en) 2019-02-19 2020-02-05 Medical image processing device, endoscope system, and medical image processing method
JP2021501830A JPWO2020170809A1 (en) 2019-02-19 2020-02-05 Medical image processing equipment, endoscopic system, and medical image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021501830A Division JPWO2020170809A1 (en) 2019-02-19 2020-02-05 Medical image processing equipment, endoscopic system, and medical image processing method

Publications (1)

Publication Number Publication Date
JP2023026480A true JP2023026480A (en) 2023-02-24

Family

ID=72144653

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021501830A Pending JPWO2020170809A1 (en) 2019-02-19 2020-02-05 Medical image processing equipment, endoscopic system, and medical image processing method
JP2022200252A Pending JP2023026480A (en) 2019-02-19 2022-12-15 Medical image processing device, endoscope system, and operation method of medical image processing device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021501830A Pending JPWO2020170809A1 (en) 2019-02-19 2020-02-05 Medical image processing equipment, endoscopic system, and medical image processing method

Country Status (2)

Country Link
JP (2) JPWO2020170809A1 (en)
WO (1) WO2020170809A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022163514A1 (en) * 2021-01-27 2022-08-04 富士フイルム株式会社 Medical image processing device, method, and program
WO2022202401A1 (en) * 2021-03-22 2022-09-29 富士フイルム株式会社 Medical image processing device, endoscope system, medical image processing method, and medical image processing program
WO2023276017A1 (en) * 2021-06-30 2023-01-05 オリンパスメディカルシステムズ株式会社 Image processing device, endoscope system, and image processing method
WO2023090091A1 (en) * 2021-11-19 2023-05-25 富士フイルム株式会社 Image processing device and endoscope system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189812A (en) * 2015-03-30 2016-11-10 富士フイルム株式会社 Device, method and program for identifying endoscopically photographed region
US20160324420A1 (en) * 2014-01-08 2016-11-10 Board Of Regents Of The University Of Texas System System and method for intraoperative fluorescence imaging in ambient light
WO2017057574A1 (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Image processing apparatus, endoscope system, and image processing method
WO2017183307A1 (en) * 2016-04-20 2017-10-26 富士フイルム株式会社 Endoscope system, image processing device, and image processing device operation method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2594627B2 (en) * 1988-02-26 1997-03-26 オリンパス光学工業株式会社 Electronic endoscope device
JP3461499B2 (en) * 1991-03-11 2003-10-27 オリンパス光学工業株式会社 Image processing device
CN101686799B (en) * 2007-07-12 2012-08-22 奥林巴斯医疗株式会社 Image processing device, and its operating method
JP2010172673A (en) * 2009-02-02 2010-08-12 Fujifilm Corp Endoscope system, processor for endoscope, and endoscopy aiding method
JPWO2018020558A1 (en) * 2016-07-25 2019-05-09 オリンパス株式会社 Image processing apparatus, image processing method and program
WO2018198327A1 (en) * 2017-04-28 2018-11-01 オリンパス株式会社 Endoscope diagnosis assist system, endoscope diagnosis assist program, and endoscope diagnosis assist method
WO2018216617A1 (en) * 2017-05-25 2018-11-29 日本電気株式会社 Information processing device, control method, and program
CN114145693A (en) * 2017-06-02 2022-03-08 富士胶片株式会社 Medical image processing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160324420A1 (en) * 2014-01-08 2016-11-10 Board Of Regents Of The University Of Texas System System and method for intraoperative fluorescence imaging in ambient light
JP2016189812A (en) * 2015-03-30 2016-11-10 富士フイルム株式会社 Device, method and program for identifying endoscopically photographed region
WO2017057574A1 (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Image processing apparatus, endoscope system, and image processing method
WO2017183307A1 (en) * 2016-04-20 2017-10-26 富士フイルム株式会社 Endoscope system, image processing device, and image processing device operation method

Also Published As

Publication number Publication date
JPWO2020170809A1 (en) 2021-12-02
WO2020170809A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
JP7252970B2 (en) Medical image processing device, endoscope system, and method of operating medical image processing device
WO2020162275A1 (en) Medical image processing device, endoscope system, and medical image processing method
WO2020170809A1 (en) Medical image processing device, endoscope system, and medical image processing method
JP7125484B2 (en) endoscope system
WO2019198637A1 (en) Image processing device, endoscope system, and image processing method
JP7048732B2 (en) Image processing equipment, endoscope system, and image processing method
JP6941233B2 (en) Image processing equipment, endoscopic system, and image processing method
JP7289296B2 (en) Image processing device, endoscope system, and method of operating image processing device
JP7290729B2 (en) Image diagnosis support device, endoscope system, operating method of image diagnosis support device, and image diagnosis support program
JPWO2020031851A1 (en) Image processing method and image processing equipment
EP4094673A1 (en) Medical image processing device, method for operating medical image processing device, and endoscope system
US20220383533A1 (en) Medical image processing apparatus, endoscope system, medical image processing method, and program
JP7125499B2 (en) Image processing device and image processing method
US20230157768A1 (en) Medical image processing apparatus, medical image processing method, endoscope system, and medical image processing program
JP2023014288A (en) Medical image processing device, processor device, endoscope system, operation method of medical image processing device, and program
WO2022181748A1 (en) Medical image processing device, endoscope system, medical image processing method, and medical image processing program
WO2022186109A1 (en) Medical image processing device, endoscope system, medical image processing method, and medical image processing program
JP7507797B2 (en) Medical image processing device, endoscope system, operation method of medical image processing device, program, and recording medium
WO2021029293A1 (en) Medical image processing device, endoscope system, and medical image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240502