JP7326308B2 - MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM - Google Patents

MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM Download PDF

Info

Publication number
JP7326308B2
JP7326308B2 JP2020545949A JP2020545949A JP7326308B2 JP 7326308 B2 JP7326308 B2 JP 7326308B2 JP 2020545949 A JP2020545949 A JP 2020545949A JP 2020545949 A JP2020545949 A JP 2020545949A JP 7326308 B2 JP7326308 B2 JP 7326308B2
Authority
JP
Japan
Prior art keywords
image
classification
unit
behavior
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020545949A
Other languages
Japanese (ja)
Other versions
JPWO2020054543A1 (en
Inventor
星矢 竹之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020054543A1 publication Critical patent/JPWO2020054543A1/en
Application granted granted Critical
Publication of JP7326308B2 publication Critical patent/JP7326308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)

Description

本発明は、医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラムに係り、特に、時系列の医療画像を処理することにより、診断を支援する情報を提供する画像処理技術に関する。 The present invention relates to a medical image processing apparatus and method, an endoscope system, a processor, a diagnosis support apparatus, and a program, and in particular, image processing that provides information for supporting diagnosis by processing time-series medical images. Regarding technology.

医療分野において、内視鏡システムを用いた検査が行われている。近年は画像解析の技術を用いることにより、医療画像に含まれる病変の認識を行うシステムが知られている。特許文献1及び特許文献2に示されているように、内視鏡システムにおいて、スコープの先端にあるカメラを用いて体腔を撮影し、得られた観察画像に対して、プロセッサ装置が認識処理を行い、認識結果をユーザーに報知することがある。ユーザーは、報知された認識結果に応じて適切な処置を講じることができる。 In the medical field, examinations using endoscope systems are performed. In recent years, there has been known a system that recognizes a lesion contained in a medical image by using image analysis technology. As disclosed in Patent Document 1 and Patent Document 2, in an endoscope system, a body cavity is photographed using a camera at the tip of a scope, and a processor device performs recognition processing on the obtained observation image. and notify the user of the recognition result. The user can take appropriate measures according to the reported recognition result.

例えば、病変が撮影されている場合であれば、プロセッサ装置は、画像解析を行うことによって画像から病変の領域を認識し、かつ、癌性であるか非癌性であるかを認識して、認識結果をユーザーに報知する。ユーザーは報知された情報を参考にして、病変を更に詳細に観察し、癌性であると判断できた際には、病変を切除するなどの処置を講じることができる。このような機能を持つシステムは、医師などによる診断所見などの意思決定を支援する。 For example, if a lesion is being imaged, the processor device recognizes the area of the lesion from the image by performing image analysis, and recognizes whether it is cancerous or non-cancerous, Notify the user of the recognition result. The user can refer to the reported information to observe the lesion in more detail, and if it can be determined that the lesion is cancerous, can take measures such as excision of the lesion. A system with such a function supports decision-making such as diagnostic findings by a doctor or the like.

特許第6150554号公報Japanese Patent No. 6150554 国際公開第2017/002184号WO2017/002184 特公平7-27481号公報Japanese Patent Publication No. 7-27481

上述した内視鏡システムのような診断支援機能において、非癌性の病変を癌性と誤認識したり、又は、癌性の病変を非癌性と誤認識したりして、誤った認識結果をユーザーに報知することは問題である。しかし、内視鏡検査においては、スコープの操作、胎動、又は残渣などにより病変の部位が隠れたり、観察画像がぼけたりすることがあり、画像解析によって病変の認識を正確に行うことが困難な場合がある。 In the diagnostic support function such as the endoscope system described above, misrecognizing a non-cancerous lesion as cancerous, or misrecognizing a cancerous lesion as non-cancerous, resulting in an incorrect recognition result is a problem. However, during endoscopic examination, the lesion may be hidden or the observed image may be blurred due to manipulation of the scope, fetal movement, or debris, making it difficult to accurately recognize the lesion by image analysis. Sometimes.

そのような場合には、例えば、特許文献3に記載されているように、異常を検出した際に通常の画像表示から異常メッセージの表示に切り替える異常表示処理方式の技術を応用して、画像認識には不適な画像であることを報知することが考えられる。 In such a case, for example, as described in Patent Literature 3, image recognition is performed by applying a technology of an abnormality display processing method that switches from normal image display to display of an abnormality message when an abnormality is detected. It is conceivable to notify that the image is unsuitable for

しかし、内視鏡操作は複雑であり、ユーザーはスコープの操作と観察画像の確認などを並行して行う必要がある。診断支援機能による認識結果の報知は、ユーザーの鑑別作業を効率化する一方で、例えば、画像を観察しているユーザーに病変を鑑別する意図が無いような場合でも画像認識の結果が報知されると、却ってユーザーの注意力を損ない、観察の阻害に繋がり、また別の病変領域などの注目領域の見落としに繋がるおそれがある。 However, operation of the endoscope is complicated, and the user needs to operate the scope and check the observation image in parallel. Notification of the recognition results by the diagnosis support function makes the user's identification work more efficient, while for example, the image recognition results are notified even when the user who is observing the image has no intention of distinguishing lesions. This, in turn, impairs the user's attention, hinders observation, and may lead to overlooking an attention area such as another lesion area.

かかる課題は、内視鏡システムに限らず、超音波診断装置など、時系列に撮影される医療画像を処理して支援を行うシステムについて共通する課題である。 This problem is not limited to endoscope systems, but is common to systems such as ultrasonic diagnostic equipment that process medical images captured in time series to provide support.

本発明はこのような事情に鑑みてなされたものであり、ユーザーによる画像の観察を阻害せず、かつ観察の際に要するユーザーの注意力を損ねずに、診断を支援することができる医療画像処理装置及び方法、内視鏡システム、診断支援装置、並びにプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is a medical image that can assist diagnosis without hindering the user's observation of the image and without impairing the user's attention required during observation. An object of the present invention is to provide a processing device and method, an endoscope system, a diagnostic support device, and a program.

本開示の一態様に係る医療画像処理装置は、被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、を備える。 A medical image processing apparatus according to an aspect of the present disclosure includes an image acquisition unit that acquires a plurality of time-series images including a subject image, and whether or not the image obtained from the image acquisition unit is an image that is unsuitable for recognition. a motion estimation unit that performs motion estimation from two or more images obtained from the image acquisition unit; and a motion information obtained from the motion estimation unit. Notification information is controlled based on the determination unit, the classification unit that recognizes and classifies images obtained from the image acquisition unit, and the behavior information obtained from the behavior determination unit and the classification results obtained from the classification unit. and a notification control unit for

本態様に係る医療画像処理装置によれば、取得された画像からユーザーの所作を判定し、その所作の意図に合わせた形で画像認識による分類結果の報知、又は、非報知などの支援を行うことができる。また、本態様によれば、認識に不適な画像について分類結果の報知を回避するなどの対応が可能となり、誤った情報が提供されてしまうことを抑制でき、時系列の画像群の中で精度の高い分類結果の情報を提供することができる。 According to the medical image processing apparatus according to this aspect, the behavior of the user is determined from the acquired image, and the classification result by image recognition is reported or not supported in accordance with the intention of the behavior. be able to. In addition, according to this aspect, it is possible to avoid notification of classification results for images that are unsuitable for recognition. can provide information with high classification results.

時系列の複数の画像は、動画であってもよいし、連写若しくはインターバル撮影などのように、特定の時間間隔で撮影される画像群であってもよい。また、時系列による撮影の時間間隔は必ずしも一定でなくてもよい。 The plurality of time-series images may be a moving image, or a group of images captured at specific time intervals such as continuous shooting or interval shooting. In addition, the time intervals of time-series photography do not necessarily have to be constant.

医療画像処理装置は、単一の装置として構成されてもよいし、複数の装置を組み合わせて構成されてもよい。例えば、医療画像処理装置は、1台又は複数台のコンピュータを用いて実現し得る。「装置」は、「システム」及び「モジュール」の概念を含む。 The medical image processing apparatus may be configured as a single device, or may be configured by combining a plurality of devices. For example, a medical image processing device may be implemented using one or more computers. "Apparatus" includes the concepts of "system" and "module".

「不適な画像」は、例えば、被写体がボケている画像、被写体がブレている画像、被写体に水がかぶっている画像、又は、被写体に残渣がある画像のいずれかであってよい。 The “unsuitable image” may be, for example, an image in which the subject is blurred, an image in which the subject is blurred, an image in which the subject is covered with water, or an image in which the subject has residue.

本開示の他の態様に係る医療画像処理装置において、可否判定部は、画像取得部から得られた画像が認識に不適な画像であるか否かを認識する認識部を含む構成であってよい。 In the medical image processing apparatus according to another aspect of the present disclosure, the propriety determination unit may include a recognition unit that recognizes whether the image obtained from the image acquisition unit is an image unsuitable for recognition. .

「認識」という用語は、識別、判別、推論、推定、検出、分類、及び領域抽出などの概念を含む。「認識部」は、認識器、識別器、判別器、検出器、分類器及び認識モデルなどの概念を含む。「認識モデル」は、例えば、機械学習によって認識性能を獲得した学習済みモデルであってよい。 The term "recognition" includes concepts such as identification, discrimination, inference, estimation, detection, classification, and region extraction. "Recognizer" includes concepts such as recognizer, classifier, discriminator, detector, classifier, and recognition model. A "recognition model" may be, for example, a trained model that has acquired recognition performance through machine learning.

本開示の更に他の態様に係る医療画像処理装置において、可否判定部が不適な画像であると判定した画像について、動き推定部及び所作判定部における処理を不実施とする構成であってよい。 The medical image processing apparatus according to still another aspect of the present disclosure may be configured such that the motion estimation unit and the motion determination unit do not perform processing on an image that the propriety determination unit determines to be an inappropriate image.

本開示の更に他の態様に係る医療画像処理装置において、可否判定部が不適な画像であると判定した画像について、分類部における分類処理を不実施とする構成であってよい。 The medical image processing apparatus according to still another aspect of the present disclosure may be configured so that the classifying unit does not perform the classification process on the image that the propriety determining unit determines to be an inappropriate image.

かかる態様によれば、不正確な分類結果の提供を回避することができる。 According to this aspect, it is possible to avoid providing inaccurate classification results.

本開示の更に他の態様に係る医療画像処理装置において、動き情報は、動きベクトルを含み、所作判定部は、動きベクトルの大きさを基にユーザーの所作を判定する構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the motion information may include a motion vector, and the action determination unit may determine the user's action based on the magnitude of the motion vector.

本開示の更に他の態様に係る医療画像処理装置において、所作判定部は、動き情報とユーザーの所作との対応関係が規定されたデータベースを用いて所作を判定する構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the gesture determination unit may be configured to determine gestures using a database that defines correspondence relationships between motion information and user's gestures.

本開示の更に他の態様に係る医療画像処理装置において、データベースを記憶しておく記憶部を備える構成であってよい。 A medical image processing apparatus according to still another aspect of the present disclosure may be configured to include a storage unit that stores a database.

本開示の更に他の態様に係る医療画像処理装置において、所作は、鑑別の所作を含む構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the action may include the action of discrimination.

本開示の更に他の態様に係る医療画像処理装置において、報知制御部は、所作判定部の判定結果が鑑別の所作に非該当の画像について、分類部の分類結果を非報知とする構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the notification control unit is configured to not notify the classification result of the classification unit for images for which the determination result of the behavior determination unit does not correspond to the behavior of discrimination. you can

本開示の更に他の態様に係る医療画像処理装置において、分類部は、画像取得部から得られた画像から病変の領域を認識し、かつ、病変のクラス分類を行う構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the classification unit may be configured to recognize the lesion area from the image obtained from the image acquisition unit and classify the lesion into classes.

本開示の更に他の態様に係る医療画像処理装置において、分類部は、畳み込みニューラルネットワークを用いて構成されてよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the classifier may be configured using a convolutional neural network.

本開示の更に他の態様に係る医療画像処理装置において、報知制御部の制御に基づき、分類部の分類結果を報知する報知部を備える構成であってよい。 The medical image processing apparatus according to still another aspect of the present disclosure may be configured to include a notification unit that notifies the classification result of the classification unit based on the control of the notification control unit.

本開示の更に他の態様に係る医療画像処理装置において、時系列の複数の画像の各々は、電子内視鏡を用いて撮影される内視鏡画像であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, each of the plurality of time-series images may be an endoscopic image captured using an electronic endoscope.

本開示の更に他の態様に係る医療画像処理方法は、被写体像を含む時系列の複数の画像を取得する画像取得工程と、画像取得工程から得られた画像が認識に不適な画像であるか否かを判定する可否判定工程と、画像取得工程から得られた2つ以上の画像から動き推定を行う動き推定工程と、動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、画像取得工程から得られた画像を認識して分類処理を行う分類工程と、所作判定工程から得られた所作情報及び分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、を含む。 A medical image processing method according to still another aspect of the present disclosure includes an image acquisition step of acquiring a plurality of time-series images including a subject image; a motion estimation step of estimating motion from two or more images obtained from the image acquisition step; and determining the user's behavior based on the motion information obtained from the motion estimation step. a classification step of recognizing and classifying the image obtained from the image acquisition step; based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step, the notification information and a notification control step for controlling the

本態様の医療画像処理方法において、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。その場合、医療画像処理装置において特定される処理や動作を担う手段としての処理部や機能部の要素は、これに対応する処理や動作の工程(ステップ)の要素として把握することができる。また、本態様の医療画像処理方法は、医療画像処理装置の作動方法と理解することができる。 In the medical image processing method of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined. In this case, elements of the processing units and functional units as means for carrying out the processing and operations specified in the medical image processing apparatus can be grasped as the elements of the processes (steps) of the corresponding processing and operations. Also, the medical image processing method of this aspect can be understood as a method of operating a medical image processing apparatus.

本開示の更に他の態様に係る内視鏡システムは、体腔内を撮影する電子内視鏡と、電子内視鏡から得られる画像信号を処理するプロセッサ装置と、を含む内視鏡システムであって、プロセッサ装置は、電子内視鏡を用いて撮影された被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、を備える。 An endoscope system according to still another aspect of the present disclosure is an endoscope system that includes an electronic endoscope that captures images of the inside of a body cavity and a processor device that processes image signals obtained from the electronic endoscope. The processor device includes an image acquisition unit that acquires a plurality of time-series images including a subject image captured using an electronic endoscope, and an image acquired from the image acquisition unit that is an image unsuitable for recognition. a motion estimation unit that performs motion estimation from two or more images obtained from the image acquisition unit; and motion information obtained from the motion estimation unit. Based on the behavior determination unit that judges, the classification unit that recognizes and classifies images obtained from the image acquisition unit, and the behavior information obtained from the behavior determination unit and the classification results obtained from the classification unit. and a notification control unit that controls information.

本態様の内視鏡システムにおいて、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。 In the endoscope system of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined.

本開示の更に他の態様に係るプロセッサ装置は、電子内視鏡から得られる画像信号を処理するプロセッサ装置であって、電子内視鏡を用いて撮影された被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、を備える。 A processor device according to still another aspect of the present disclosure is a processor device that processes an image signal obtained from an electronic endoscope, and includes a plurality of time-series images including subject images captured using the electronic endoscope. an image acquisition unit that acquires an image; a propriety determination unit that determines whether the image obtained from the image acquisition unit is an image unsuitable for recognition; A motion estimation unit that performs estimation, a motion determination unit that determines the user's actions based on the motion information obtained from the motion estimation unit, and a classification unit that recognizes and classifies images obtained from the image acquisition unit. and a notification control unit for controlling notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit.

本態様のプロセッサ装置において、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。 In the processor device of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined.

本開示の更に他の態様に係る診断支援装置は、被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、報知制御部の制御に基づき、分類部の分類結果を含む情報を報知する報知部と、を備える。 A diagnosis support device according to still another aspect of the present disclosure includes an image acquisition unit that acquires a plurality of time-series images including a subject image, a motion estimation unit that performs motion estimation from two or more images obtained from the image acquisition unit; and a motion information obtained from the motion estimation unit. A behavior determination unit, a classification unit that recognizes images obtained from the image acquisition unit and performs classification processing, and notification information based on the behavior information obtained from the behavior determination unit and the classification results obtained from the classification unit. A notification control unit for controlling, and a notification unit for notifying information including the classification result of the classification unit based on the control of the notification control unit.

本態様の診断支援装置において、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。分類部の分類結果を表示する表示部は、報知部の一形態となり得る。 In the diagnosis support device of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined. The display section that displays the classification result of the classification section can be one form of the notification section.

本開示の更に他の態様に係るプログラムは、コンピュータに、被写体像を含む時系列の複数の画像を取得する画像取得工程と、画像取得工程から得られた画像が認識に不適な画像であるか否かを判定する可否判定工程と、画像取得工程から得られた2つ以上の画像から動き推定を行う動き推定工程と、動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、画像取得工程から得られた画像を認識して分類処理を行う分類工程と、所作判定工程から得られた所作情報及び分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、を実行させる。 A program according to still another aspect of the present disclosure provides a computer with an image acquisition step of acquiring a plurality of time-series images including a subject image, and whether the image obtained from the image acquisition step is an image unsuitable for recognition. a motion estimation step of estimating motion from two or more images obtained from the image acquisition step; and determining the user's behavior based on the motion information obtained from the motion estimation step. a classification step of recognizing and classifying the image obtained from the image acquisition step; based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step, the notification information and a notification control step for controlling the

本態様のプログラムにおいて、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。その場合、医療画像処理装置において特定される処理や動作を担う手段としての処理部や機能部の要素は、これに対応する処理や動作の工程若しくは機能を実現するプログラム要素として把握することができる。 In the program of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined. In that case, the elements of the processing unit and functional unit as means for carrying out the processing and operation specified in the medical image processing apparatus can be grasped as program elements that implement the steps or functions of the corresponding processing and operation. .

本発明によれば、時系列の画像からユーザーの所作を判定し、得られた所作情報を基に報知情報を制御するため、ユーザーの所作に合わせた支援を実現することが可能である。本発明によれば、ユーザーによる画像の観察を阻害せずに、かつ観察の際に要するユーザーの注意力を損ねることなく、画像の分類結果などの有益な支援情報を提供することができる。 According to the present invention, the behavior of the user is determined from time-series images, and notification information is controlled based on the obtained behavior information. Therefore, it is possible to realize support that matches the behavior of the user. According to the present invention, useful support information such as image classification results can be provided without hindering the user's observation of images and without impairing the user's attention required for observation.

図1は、本発明の実施形態に係る内視鏡システムの概略構成を示した全体構成図である。FIG. 1 is an overall configuration diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention. 図2は、電子内視鏡の先端硬質部の先端面を示した正面図である。FIG. 2 is a front view showing the distal end face of the rigid distal end portion of the electronic endoscope. 図3は、内視鏡システムの制御系を示したブロック図である。FIG. 3 is a block diagram showing the control system of the endoscope system. 図4は、本発明の第1実施形態に係る医療画像処理装置の機能を示すブロック図である。FIG. 4 is a block diagram showing functions of the medical image processing apparatus according to the first embodiment of the present invention. 図5は、病変が映っていない画像の例である。FIG. 5 is an example of an image showing no lesion. 図6は、ピントずれによって病変がボケている画像の例である。FIG. 6 is an example of an image in which a lesion is blurred due to defocus. 図7は、動きブレによって病変がボケている画像の例である。FIG. 7 is an example of an image in which a lesion is blurred due to motion blur. 図8は、時系列で得られる3枚の画像群の例である。FIG. 8 is an example of a group of three images obtained in time series. 図9は、画像の動きが小さい場合の画像例である。FIG. 9 is an example of an image when the motion of the image is small. 図10は、画像の動きが大きい場合の画像例である。FIG. 10 is an example of an image when the motion of the image is large. 図11は、動き情報とユーザーの所作との対応関係を規定したデータベースの例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of a database that defines the correspondence between motion information and user's actions. 図12は、分類部から得られる分類結果の報知例を示す図である。FIG. 12 is a diagram showing an example of notification of classification results obtained from the classification unit. 図13は、分類結果を非報知とした場合の報知例を示す図である。FIG. 13 is a diagram showing an example of notification when the classification result is set to non-notification. 図14は、分類処理が起動していない旨を報知する情報を提示する報知例を示す図である。FIG. 14 is a diagram showing an example of notification that presents information indicating that the classification process has not started. 図15は、第1実施形態に係る医療画像処理装置の動作の例を示すフローチャートである。15 is a flowchart illustrating an example of the operation of the medical image processing apparatus according to the first embodiment; FIG. 図16は、第2実施形態に係る医療情報管理システムの構成例を示すブロック図である。FIG. 16 is a block diagram showing a configuration example of a medical information management system according to the second embodiment.

以下、添付図面に従って本発明の好ましい実施形態について詳説する。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

《内視鏡システムの構成例》
図1は、本発明の実施形態に係る内視鏡システムの概略構成を示した全体構成図である。内視鏡システム10は、電子内視鏡12と、光源装置14と、プロセッサ装置16と、を含む。プロセッサ装置16には、表示装置18と入力装置19とが接続される。電子内視鏡12は、「スコープ」、「電子スコープ」、或いは単に「内視鏡」と呼ばれる場合がある。
<<Configuration example of endoscope system>>
FIG. 1 is an overall configuration diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention. The endoscope system 10 includes an electronic endoscope 12 , a light source device 14 and a processor device 16 . A display device 18 and an input device 19 are connected to the processor device 16 . The electronic endoscope 12 may be called a "scope", an "electronic scope", or simply an "endoscope".

本例の電子内視鏡12は、軟性内視鏡である。電子内視鏡12は、挿入部20と、操作部30と、ユニバーサルコード40と、を備えている。挿入部20は、検査対象者の体腔内に挿入される部分である。挿入部20は、先端側から順に、手元側に向かって、先端硬質部22、湾曲部24、及び軟性部26を含んで構成される。先端硬質部22の内部には、照明光学系と対物光学系と撮像素子等が配置されている。湾曲部24は、アングルノブ31の操作に応じて、基準の位置から上下左右の4方向へ円滑に曲がる構造になっている。軟性部26の手元側を挿入部20の基端部という。 The electronic endoscope 12 of this example is a flexible endoscope. The electronic endoscope 12 includes an insertion section 20 , an operation section 30 and a universal cord 40 . The insertion portion 20 is a portion that is inserted into the body cavity of the person to be examined. The insertion section 20 includes a distal rigid section 22, a bending section 24, and a flexible section 26 in order from the distal end toward the proximal side. An illumination optical system, an objective optical system, an imaging element, and the like are arranged inside the distal end rigid portion 22 . The bending portion 24 has a structure that smoothly bends in four directions of up, down, left, and right from a reference position according to the operation of the angle knob 31 . The proximal side of the flexible portion 26 is called the proximal end portion of the insertion portion 20 .

操作部30は、挿入部20の基端部に設けられている。操作部30は、術者によって操作される各種操作部材を含む。例えば、操作部30には、湾曲部24の湾曲操作に用いられるアングルノブ31と、送気送水の操作を行うための送気送水ボタン32と、吸引操作を行うための吸引ボタン33と、が設けられている。術者(ユーザーの一例)は、アングルノブ31を操作することにより、湾曲部24を湾曲させて先端硬質部22の向きを自在に変えることができる。操作部30には、他に、観察モードの切り替え操作に用いられるモード切替スイッチ34、ズーム操作部35、及び被観察部位の静止画の撮影指示を行うための図示せぬ静止画撮影指示部が設けられている。 The operation portion 30 is provided at the proximal end portion of the insertion portion 20 . The operation unit 30 includes various operation members operated by the operator. For example, the operation unit 30 includes an angle knob 31 used for bending operation of the bending portion 24, an air/water supply button 32 for performing an air/water supply operation, and a suction button 33 for performing a suction operation. is provided. An operator (an example of a user) can bend the bending portion 24 and freely change the direction of the distal end rigid portion 22 by operating the angle knob 31 . The operation unit 30 also includes a mode switching switch 34 used for switching observation modes, a zoom operation unit 35, and a still image photographing instruction unit (not shown) for instructing photographing of a still image of the site to be observed. is provided.

また、操作部30には、処置具導入口36が設けられている。処置具導入口36は、挿入部20内を挿通している図示せぬ処置具挿通路内に、図示せぬ処置具を挿入するための開口部である。処置具としては、例えば、生検鉗子、カテーテル、高周波スネアなどがあり得る。また、処置具には、カイドチューブ、トラカールチューブ、スライディングチューブなども含まれる。処置具導入口36は、鉗子口と呼ばれる場合がある。 Further, a treatment instrument introduction port 36 is provided in the operation section 30 . The treatment instrument introduction port 36 is an opening for inserting a treatment instrument (not shown) into a treatment instrument insertion passage (not shown) passing through the insertion portion 20 . Examples of treatment tools include biopsy forceps, catheters, high-frequency snares, and the like. Treatment tools also include guide tubes, trocar tubes, sliding tubes, and the like. The treatment instrument introduction port 36 may be called a forceps port.

ユニバーサルコード40は、電子内視鏡12を光源装置14及びプロセッサ装置16に接続するためのコードである。ユニバーサルコード40には、挿入部20から延設されるケーブル及びライトガイドが挿通されている。挿入部20から延設されるケーブルには、信号の伝達に用いる通信ケーブルと、電力供給に用いる給電ケーブルとが含まれる。ユニバーサルコード40の一端には、コネクタ42が設けられている。 The universal cord 40 is a cord for connecting the electronic endoscope 12 to the light source device 14 and processor device 16 . A cable extending from the insertion portion 20 and a light guide are inserted through the universal cord 40 . The cables extending from the insertion portion 20 include a communication cable used for signal transmission and a power supply cable used for power supply. A connector 42 is provided at one end of the universal cord 40 .

コネクタ42は、ビデオコネクタ42Aとライトガイドコネクタ42Bとを備えた複合タイプのコネクタである。ビデオコネクタ42Aには、ケーブルの一端が配置されている。ビデオコネクタ42Aはプロセッサ装置16に対して着脱自在に接続される。ライトガイドコネクタ42Bには、ライトガイドの一端が配置されている。ライトガイドコネクタ42Bは光源装置14に対して着脱自在に接続される。また、ライトガイドコネクタ42Bには、送水コネクタ42Cが設けられ、送水コネクタ42Cを介して送水タンク44が接続される。 The connector 42 is a composite type connector including a video connector 42A and a light guide connector 42B. One end of a cable is arranged in the video connector 42A. The video connector 42A is detachably connected to the processor device 16. As shown in FIG. One end of a light guide is arranged in the light guide connector 42B. The light guide connector 42B is detachably connected to the light source device 14 . A water supply connector 42C is provided to the light guide connector 42B, and the water supply tank 44 is connected via the water supply connector 42C.

プロセッサ装置16は、コネクタ42を介して光源装置14と電気的に接続されている。プロセッサ装置16は、光源装置14を含む内視鏡システム10の動作を統括的に制御する。プロセッサ装置16は、ユニバーサルコード40内に挿通されたケーブルを介して電子内視鏡12に給電を行い、かつ、撮像素子の駆動を制御する。また、プロセッサ装置16は、電子内視鏡12からケーブルを介して伝送された撮像信号を受信し、受信した撮像信号に各種信号処理を施して画像データに変換する。プロセッサ装置16で変換された画像データは、表示装置18に内視鏡撮影画像(観察画像)として表示される。 The processor device 16 is electrically connected to the light source device 14 via the connector 42 . The processor device 16 centrally controls the operation of the endoscope system 10 including the light source device 14 . The processor unit 16 supplies power to the electronic endoscope 12 via a cable inserted through the universal cord 40, and controls the driving of the imaging device. The processor unit 16 also receives an imaging signal transmitted from the electronic endoscope 12 via a cable, performs various signal processing on the received imaging signal, and converts it into image data. The image data converted by the processor device 16 is displayed on the display device 18 as an endoscope-captured image (observation image).

図2は、電子内視鏡12の先端硬質部22の先端面22Aを示した正面図である。先端硬質部22の先端面22Aには、照明窓50と、観察窓52と、鉗子出口54と、送気送水用ノズル56とが設けられている。図2には示されていないが、照明窓50の奥には、光源装置14からの光を導くライトガイド120の出射端122が配置されている(図3参照)。照明窓50から被観察領域へ照明光が照射される。照明窓50は、観察窓52を挟んで対称な位置に2個配置されている。 FIG. 2 is a front view showing the distal end face 22A of the rigid distal end portion 22 of the electronic endoscope 12. As shown in FIG. An illumination window 50 , an observation window 52 , a forceps outlet 54 , and an air/water supply nozzle 56 are provided on the distal end surface 22</b>A of the distal end rigid portion 22 . Although not shown in FIG. 2, an emission end 122 of the light guide 120 that guides the light from the light source device 14 is arranged behind the illumination window 50 (see FIG. 3). Illumination light is emitted from the illumination window 50 to the observation area. Two illumination windows 50 are arranged at symmetrical positions with the observation window 52 interposed therebetween.

観察窓52は、被観察領域からの反射光を取り込み、被観察領域を撮像するための窓である。図2には示されていないが、観察窓52の奥には、体腔内の被観察領域の像光を取り込むための対物光学系60と撮像素子62とが配置されている(図3参照)。 The observation window 52 is a window for taking in the reflected light from the observed area and capturing an image of the observed area. Although not shown in FIG. 2, behind the observation window 52, an objective optical system 60 and an imaging device 62 for taking in image light of the region to be observed in the body cavity are arranged (see FIG. 3). .

鉗子出口54は、挿入部20内に配置された図示せぬ鉗子チャンネルに接続され、操作部30に設けられた処置具導入口36(図1参照)に連通している。処置具導入口36から挿入された処置具が鉗子出口54から体腔内に出される。 The forceps outlet 54 is connected to a forceps channel (not shown) arranged in the insertion section 20 and communicates with the treatment instrument introduction port 36 (see FIG. 1) provided in the operation section 30 . The treatment instrument inserted from the treatment instrument introduction port 36 is taken out from the forceps outlet 54 into the body cavity.

送気送水用ノズル56は、操作部30に設けられた送気送水ボタン32(図1参照)の操作に応じて、洗浄水又は空気を、観察窓52及び/又は体腔内に向けて噴射する。なお、洗浄水及び空気は、光源装置14に内蔵された送気送水装置から供給される。 The air/water nozzle 56 jets cleansing water or air toward the observation window 52 and/or into the body cavity in response to the operation of the air/water button 32 (see FIG. 1) provided on the operation unit 30. . The cleaning water and air are supplied from an air/water supply device incorporated in the light source device 14 .

図3は、内視鏡システム10の制御系を示したブロック図である。電子内視鏡12の先端硬質部22には、対物光学系60と、撮像素子62と、アナログフロントエンド(AFE:Analog Front End)回路64と、タイミングジェネレータ(TG:Timing Generator)65と、CPU(Central Processing Unit)66と、が設けられている。 FIG. 3 is a block diagram showing the control system of the endoscope system 10. As shown in FIG. The distal end rigid portion 22 of the electronic endoscope 12 includes an objective optical system 60, an imaging element 62, an analog front end (AFE) circuit 64, a timing generator (TG) 65, a CPU (Central Processing Unit) 66 is provided.

対物光学系60は、ズームレンズを用いて構成される。対物光学系60と撮像素子62の間に、図示しない導光用のプリズムが配置される。撮像素子62は、CMOS(complementary metal oxide semiconductor)型の撮像素子であってもよいし、CCD(Charged Coupled Device)型の撮像素子であってもよい。ここではCMOS型の撮像素子を用いる例を説明する。 The objective optical system 60 is configured using a zoom lens. A light guiding prism (not shown) is arranged between the objective optical system 60 and the imaging element 62 . The imaging element 62 may be a CMOS (complementary metal oxide semiconductor) type imaging element or a CCD (Charged Coupled Device) type imaging element. Here, an example using a CMOS type image sensor will be described.

図示は省略するが、撮像素子62は、複数の色セグメントからなるカラーフィルタを備えた単板カラー撮像方式の固体撮像素子である。カラーフィルタは、例えば、赤(R)、緑(G)、及び青(B)を含むベイヤー配列の原色カラーフィルタであってよい。 Although not shown, the imaging device 62 is a solid-state imaging device of a single-plate color imaging system having a color filter composed of a plurality of color segments. The color filters may be, for example, Bayer array primary color filters including red (R), green (G), and blue (B).

撮像素子62の撮像面には、多数の画素がマトリクス状に配置されており、各画素にはそれぞれフォトセンサが設けられている。撮像素子62の撮像面に入射した光は各画素のフォトセンサに電荷として蓄積される。各画素のフォトセンサに蓄積された信号電荷量は、垂直走査回路及び水平走査回路(いずれも不図示)による垂直方向と水平方向の走査によって、画素信号として順次読み出され、所定のフレームレートで出力される。 A large number of pixels are arranged in a matrix on the imaging surface of the imaging device 62, and each pixel is provided with a photosensor. Light incident on the imaging surface of the imaging device 62 is accumulated as electric charge in the photosensor of each pixel. The amount of signal charge accumulated in the photosensor of each pixel is sequentially read out as a pixel signal by scanning in the vertical and horizontal directions by a vertical scanning circuit and a horizontal scanning circuit (both not shown), and is read out at a predetermined frame rate. output.

タイミングジェネレータ65は、CPU66の制御に基づき、撮像素子62の駆動パルスと、アナログフロントエンド回路64への同期パルスとを発生する。撮像素子62の駆動パルスには、垂直走査パルス、水平走査パルス、及びリセットパルス等が含まれる。 A timing generator 65 generates driving pulses for the imaging element 62 and synchronization pulses for the analog front-end circuit 64 under the control of the CPU 66 . Driving pulses for the imaging device 62 include a vertical scanning pulse, a horizontal scanning pulse, a reset pulse, and the like.

撮像素子62は、タイミングジェネレータ65から入力される駆動パルスにより駆動され、対物光学系60を介して撮像面に結像された光学像を光電変換して撮像信号として出力する。 The imaging element 62 is driven by a driving pulse input from the timing generator 65, photoelectrically converts an optical image formed on the imaging surface through the objective optical system 60, and outputs the resultant as an imaging signal.

アナログフロントエンド回路64は、相関二重サンプリング(CDS:correlated double sampling)回路と、自動ゲイン制御(AGC:Automatic Gain Control)回路と、A/D変換器とを含む。CDS回路は、撮像素子62から出力される撮像信号に対して相関二重サンプリング処理を施し、撮像素子62で生じるリセット雑音及びアンプ雑音の除去を行う。 Analog front end circuitry 64 includes correlated double sampling (CDS) circuitry, automatic gain control (AGC) circuitry, and an A/D converter. The CDS circuit performs correlated double sampling processing on the imaging signal output from the imaging device 62 to remove reset noise and amplifier noise generated in the imaging device 62 .

AGC回路は、CDS回路によりノイズ除去が行われた撮像信号を、CPU66から指定されたゲイン(増幅率)で増幅する。A/D変換器は、AGC回路により増幅された撮像信号を、所定のビット数のデジタル信号に変換して出力する。アナログフロントエンド回路64にてデジタル化されて出力された撮像信号は、信号線を通してプロセッサ装置16に入力される。 The AGC circuit amplifies the imaging signal from which noise has been removed by the CDS circuit with a gain (amplification factor) designated by the CPU 66 . The A/D converter converts the imaging signal amplified by the AGC circuit into a digital signal having a predetermined number of bits and outputs the digital signal. The imaging signal digitized and output by the analog front-end circuit 64 is input to the processor unit 16 through the signal line.

なお、撮像素子62、アナログフロントエンド回路64及びタイミングジェネレータ65は、モノリシック集積回路として構成することができ、これらの各回路素子は、1つの撮像チップ68に含まれる。本例の電子内視鏡12に搭載される撮像チップ68は、いわゆる「CMOSセンサチップ」であり、図示せぬ支持基板上に実装されている。 Note that the imaging element 62 , the analog front-end circuit 64 and the timing generator 65 can be configured as a monolithic integrated circuit, and each of these circuit elements is included in one imaging chip 68 . The imaging chip 68 mounted on the electronic endoscope 12 of this example is a so-called "CMOS sensor chip" and is mounted on a support substrate (not shown).

プロセッサ装置16は、CPU70と、ROM(read-only memory)72と、RAM(Random Access Memory)74と、デジタル信号処理回路(DSP:Digital Signal Processor)76と、表示制御回路78とを備える。 The processor device 16 includes a CPU 70 , a ROM (read-only memory) 72 , a RAM (Random Access Memory) 74 , a digital signal processor (DSP) 76 , and a display control circuit 78 .

CPU70は、プロセッサ装置16内の各部を制御し、かつ内視鏡システム10の全体を統括的に制御する。ROM72には、プロセッサ装置16の動作を制御するための各種プログラムや制御用データが記憶される。RAM74には、CPU70により実行されるプログラム及びデータなどが一時記憶される。 The CPU 70 controls each part in the processor device 16 and controls the entire endoscope system 10 in an integrated manner. Various programs and control data for controlling the operation of the processor device 16 are stored in the ROM 72 . The RAM 74 temporarily stores programs and data executed by the CPU 70 .

デジタル信号処理回路76は、CPU70の制御に基づき、アナログフロントエンド回路64から入力された撮像信号に対し、色補間、色分離、色バランス調整、ガンマ補正、画像強調処理等の各種信号処理を施して、画像データを生成する。また、デジタル信号処理回路76は、画像認識の処理を行う。デジタル信号処理回路76は、画像処理部として機能する。また、デジタル信号処理回路76は、画像認識の処理を行う画像認識部の機能を含んでいる。 Under the control of the CPU 70, the digital signal processing circuit 76 performs various signal processing such as color interpolation, color separation, color balance adjustment, gamma correction, and image enhancement on the imaging signal input from the analog front end circuit 64. to generate image data. The digital signal processing circuit 76 also performs image recognition processing. The digital signal processing circuit 76 functions as an image processing section. The digital signal processing circuit 76 also has the function of an image recognition section that performs image recognition processing.

デジタル信号処理回路76から出力された画像データは、表示制御回路78に入力される。表示制御回路78は、デジタル信号処理回路76から入力された画像データを、表示装置18に対応した信号形式に変換し、表示装置18の画面に表示させる。 Image data output from the digital signal processing circuit 76 is input to the display control circuit 78 . The display control circuit 78 converts the image data input from the digital signal processing circuit 76 into a signal format compatible with the display device 18 and displays it on the screen of the display device 18 .

表示装置18は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、若しくは、プロジェクタ、又はこれらの適宜の組み合わせであってよい。表示装置18は、プロセッサ装置16の処理に必要な各種設定情報、又は、処理結果を示す情報などの各種情報を表示し得る。 The display device 18 may be, for example, a liquid crystal display, an organic electro-luminescence (OEL) display, a projector, or an appropriate combination thereof. The display device 18 can display various types of information such as various setting information necessary for the processing of the processor device 16 or information indicating processing results.

表示装置18と入力装置19は、ユーザーインターフェースとして機能する。入力装置19は、例えば、キーボード、マウス、タッチパネル、操作ボタン、若しくは、音声入力装置、又はこれらの適宜の組み合わせであってよい。ユーザーは、入力装置19を用いて各種の指示及び/又は情報を入力することができる。プロセッサ装置16は、入力装置19から入力された指示及び/又は情報に応じて各種処理を実行し得る。 The display device 18 and the input device 19 function as a user interface. The input device 19 may be, for example, a keyboard, mouse, touch panel, operation buttons, voice input device, or an appropriate combination thereof. A user may use the input device 19 to enter various instructions and/or information. The processor device 16 can execute various processes according to instructions and/or information input from the input device 19 .

光源装置14は、電子内視鏡12内に挿通されたライトガイド120を通して体腔内を照明する光を発生する。光源装置14は、第1光源100と、第1光源駆動回路101と、第2光源102と、第2光源駆動回路103と、CPU104と、合波部105とを含む。CPU104は、プロセッサ装置16のCPU70と通信を行い、第1光源駆動回路101及び第2光源駆動回路103の制御を行う。 The light source device 14 generates light for illuminating the body cavity through a light guide 120 inserted into the electronic endoscope 12 . The light source device 14 includes a first light source 100 , a first light source drive circuit 101 , a second light source 102 , a second light source drive circuit 103 , a CPU 104 and a multiplexer 105 . The CPU 104 communicates with the CPU 70 of the processor device 16 and controls the first light source driving circuit 101 and the second light source driving circuit 103 .

第1光源駆動回路101は、CPU104からの指示に従い、第1光源100を発光させる。第2光源駆動回路103は、CPU104からの指示に従い、第2光源102を発光させる。 The first light source drive circuit 101 causes the first light source 100 to emit light according to instructions from the CPU 104 . The second light source drive circuit 103 causes the second light source 102 to emit light in accordance with instructions from the CPU 104 .

第1光源100は、例えば、波長445nmの青色レーザを発光するレーザダイオードである。第1光源100は、第1光源駆動回路101によりパルス駆動されて発光量が制御される。第2光源102は、例えば、波長405nmの青色レーザを発光するレーザダイオードである。第2光源102は、第2光源駆動回路103によりパルス駆動されて発光量が制御される。波長405nmの青色光は、特殊光観察の際に使用される。 The first light source 100 is, for example, a laser diode that emits a blue laser with a wavelength of 445 nm. The first light source 100 is pulse-driven by a first light source drive circuit 101 to control the amount of light emitted. The second light source 102 is, for example, a laser diode that emits a blue laser with a wavelength of 405 nm. The second light source 102 is pulse-driven by a second light source drive circuit 103 to control the amount of light emitted. Blue light with a wavelength of 405 nm is used for special light observation.

合波部105は、第1光源100と第2光源102のそれぞれの出射光を合波してライトガイド120の入射端121に出射する。 The multiplexing unit 105 multiplexes the light emitted from the first light source 100 and the light emitted from the second light source 102 and outputs the combined light to the incident end 121 of the light guide 120 .

ライトガイド120の出射端122と、電子内視鏡12の照明窓50との間には、蛍光体124が設けられている。ライトガイド120を通った青色レーザ光は蛍光体124に照射され、蛍光体124を励起状態にすると共に、その一部は蛍光体124を透過して青色光として照明窓50から出射される。 A phosphor 124 is provided between the exit end 122 of the light guide 120 and the illumination window 50 of the electronic endoscope 12 . The blue laser light that has passed through the light guide 120 irradiates the phosphor 124 to excite the phosphor 124 , and part of the laser light passes through the phosphor 124 and is emitted from the illumination window 50 as blue light.

蛍光体124は、青色レーザ光で励起され、光の波長帯域でいうと、青色と緑色の境界当たりの波長域から赤色の波長域までの広範囲の光(色としては黄色)を発光する。この黄色光と蛍光体124を透過する青色光とが混合されて白色光となり、照明窓50を通して被写体を照明することになる。なお、蛍光体124を透過する青色光には、蛍光体124で発光する青色光も一部含む。 The phosphor 124 is excited by blue laser light, and emits light (yellow in color) in a wide range of wavelengths from the boundary between blue and green to red. This yellow light and the blue light that passes through the phosphor 124 are mixed to form white light, which illuminates the subject through the illumination window 50 . The blue light that passes through phosphor 124 includes part of the blue light that is emitted from phosphor 124 .

蛍光体124は、上述のように、波長445nmの青色レーザ光の照射を受けた場合に黄色光を発光すると共に波長445nmの青色光を透過するが、波長405nmの青色レーザ光の照射を受けた場合にはその殆どを透過する性質を持つ。 As described above, the phosphor 124 emits yellow light and transmits blue light with a wavelength of 445 nm when irradiated with a blue laser beam with a wavelength of 445 nm, but is irradiated with a blue laser beam with a wavelength of 405 nm. In some cases, it has the property of penetrating most of it.

即ち、波長445nmの青色レーザ光と波長405nmの青色レーザ光との混合割合を制御することで、蛍光体124を透過する青色光と、蛍光体124で発光する黄色光との割合を制御することが可能である。 That is, by controlling the mixing ratio of the blue laser light having a wavelength of 445 nm and the blue laser light having a wavelength of 405 nm, the ratio of the blue light passing through the phosphor 124 and the yellow light emitted from the phosphor 124 can be controlled. is possible.

白色光を用いて照明された被写体からの反射光を、撮像素子62を用いて受光することにより、被写体のカラー画像が再現される。 A color image of the subject is reproduced by receiving reflected light from the subject illuminated with white light using the imaging element 62 .

上述のように構成された内視鏡システム10を用いて体腔内を観察する際には、電子内視鏡12と、光源装置14と、プロセッサ装置16と、表示装置18の各電源をオンにして、電子内視鏡12の挿入部20を体腔内に挿入し、光源装置14からの照明光で体腔内を照明しながら、撮像素子62により撮像される体腔内の画像を表示装置18の画面で観察することになる。 When observing the inside of a body cavity using the endoscope system 10 configured as described above, the electronic endoscope 12, the light source device 14, the processor device 16, and the display device 18 are all powered on. Then, the insertion portion 20 of the electronic endoscope 12 is inserted into the body cavity, and an image of the body cavity captured by the imaging device 62 is displayed on the screen of the display device 18 while illuminating the body cavity with illumination light from the light source device 14 . will be observed in

本例の内視鏡システム10は、白色光観察モードと狭帯域光観察モードを有する。白色光観察モードは、照明光に白色光を用いて観察対象を撮像して得られる撮影画像を用いて、自然な色合いの観察画像を表示装置18に表示するモードである。白色光観察モードで観察対象を撮像して得られる画像を「白色光観察画像」という。照明光は「観察光」と言い換えてもよい。 The endoscope system 10 of this example has a white light observation mode and a narrowband light observation mode. The white light observation mode is a mode in which an observation image with natural colors is displayed on the display device 18 using a captured image obtained by imaging an observation target using white light as illumination light. An image obtained by imaging an observation target in the white light observation mode is called a "white light observation image". The illumination light may also be called "observation light".

狭帯域光観察モードは、特定の波長帯域の狭帯域光を照明光として観察対象を撮像して得られる画像信号を用いて、例えば、観察対象の特定深さ領域に在る血管を強調した可視化画像を生成し、血管の観察に適した画像を表示装置18に表示するモードである。狭帯域光観察モードで観察対象を撮像して得られる画像を「狭帯域光観察画像」という。 The narrow-band light observation mode uses an image signal obtained by imaging the observation target with narrow-band light of a specific wavelength band as illumination light, for example, emphasizing the visualization of blood vessels in a specific depth region of the observation target. In this mode, an image is generated and an image suitable for observing blood vessels is displayed on the display device 18 . An image obtained by imaging an observation target in the narrow-band light observation mode is called a "narrow-band light observation image".

内視鏡システム10は、使用する狭帯域光の波長帯域の種類又はその組み合わせが異なる複数種類の狭帯域光観察モードを有していてもよい。 The endoscope system 10 may have a plurality of types of narrow-band light observation modes in which the types of wavelength bands of narrow-band light to be used or their combinations are different.

《内視鏡システム10における診断支援機能の概要》
内視鏡検査では、ユーザーである医師がスコープを操作して病変を検出するスクリーニング処理と、検出された病変の状態を詳細に確認する鑑別処理とが行われており、病変の見落としを防ぐことが重要な課題の1つである。例えば、ある病変の鑑別が終了した際に、ユーザーが周囲の病変の存在を忘れてしまう恐れがある。ユーザーは、スクリーニング作業から鑑別作業への移行、及び、鑑別作業からスクリーニング作業への移行をシームレスに実施しており、診断支援のシステムもそのようなユーザーの操作に合わせた動作が求められる。
<<Overview of Diagnosis Support Function in Endoscope System 10>>
In endoscopy, the user, the doctor, operates the scope to detect lesions in screening, and in detail, to check the condition of the detected lesions. is one of the important issues. For example, when the discrimination of a certain lesion is finished, the user may forget the presence of surrounding lesions. The user seamlessly transitions from screening work to discrimination work, and from discrimination work to screening work, and diagnostic support systems are required to operate in accordance with such user operations.

スクリーニング作業と鑑別作業とを切り替える手段として、光源の種類が切り替わるタイミングなどが考えられるが、同一光源のまま作業が移行している場合に対応できない。 As a means for switching between the screening work and the discrimination work, timing at which the type of light source is switched can be considered, but this cannot be done when the work is changed while the same light source is used.

本発明の実施形態に係る医療画像処理装置は、時系列で取得される複数の画像からユーザーの所作を判定し、その所作の意図に合わせた形で支援を行うように動作する。時系列で取得される複数の画像を「時系列画像」という。時系列画像は、例えば、動画であってよい。また、時系列で取得される複数の画像の各々は、一定の時間間隔で得られる動画のフレーム画像であってよい。 The medical image processing apparatus according to the embodiment of the present invention operates to determine a user's behavior from a plurality of images acquired in time series, and to provide support in a form that matches the intention of the behavior. A plurality of images acquired in time series are called "time series images". A time-series image may be, for example, a moving image. Also, each of the plurality of images acquired in time series may be frame images of a moving image acquired at regular time intervals.

《第1実施形態に係る医療画像処理装置の構成》
プロセッサ装置16は、本発明の実施形態に係る医療画像処理装置の一例である。図4は、第1実施形態に係る医療画像処理装置の機能を示すブロック図である。図4に示す医療画像処理装置160は、画像取得部162と、可否判定部164と、動き推定部166と、所作判定部168と、分類部170と、報知制御部172と、報知部174と、を備える。
<<Configuration of Medical Image Processing Apparatus According to First Embodiment>>
Processor device 16 is an example of a medical image processing device according to an embodiment of the present invention. FIG. 4 is a block diagram showing functions of the medical image processing apparatus according to the first embodiment. The medical image processing apparatus 160 shown in FIG. , provided.

画像取得部162、可否判定部164、動き推定部166、所作判定部168及び分類部170の機能は、図3で説明したデジタル信号処理回路76、若しくは、CPU70、又はこれらの組み合わせによって実現できる。また、報知制御部172は、図3で説明した表示制御回路78を含んでよい。 The functions of the image acquisition unit 162, the availability determination unit 164, the motion estimation unit 166, the gesture determination unit 168, and the classification unit 170 can be realized by the digital signal processing circuit 76 described with reference to FIG. 3, the CPU 70, or a combination thereof. Also, the notification control unit 172 may include the display control circuit 78 described with reference to FIG.

図4に示す画像取得部162は、電子内視鏡12を用いて撮影された時系列の画像IM1、IM2、IM3・・・を取得するインターフェースである。画像取得部162は、例えば、ビデオコネクタ42Aが接続されるコネクタ端子であってもよいし、デジタル信号処理回路76の信号入力端子であってもよい。また、画像取得部162は、プロセッサ装置16に設けられた通信ネットワーク端子、外部記憶メディア用のメディアインターフェース端子、若しくは、外部機器の接続用端子、又は、これらの適宜の組み合わせであってもよい。 The image acquisition unit 162 shown in FIG. 4 is an interface that acquires time-series images IM1, IM2, IM3, . The image acquisition unit 162 may be, for example, a connector terminal to which the video connector 42A is connected, or may be a signal input terminal of the digital signal processing circuit 76 . The image acquisition unit 162 may be a communication network terminal provided in the processor device 16, a media interface terminal for external storage media, a connection terminal for external equipment, or an appropriate combination thereof.

医療画像処理装置160は、電子内視鏡12を介して時系列で取得される画像から病変の自動分類を行い、分類結果を報知することでユーザーによる診断を支援する。しかし、内視鏡検査において取得される画像には、図5から図7に例示するように、分類困難な画像が含まれ得る。 The medical image processing apparatus 160 automatically classifies lesions from images acquired in time series via the electronic endoscope 12, and notifies the user of the classification results to assist the user's diagnosis. However, images acquired during endoscopy may include images that are difficult to classify, as illustrated in FIGS.

図5は、病変が映っていない画像の例である。図6は、ピントずれによって病変182がボケている画像の例である。図7は、動きブレによって病変182がボケている画像の例である。図7は「ブレている画像」の一例である。 FIG. 5 is an example of an image showing no lesion. FIG. 6 is an example of an image in which a lesion 182 is blurred due to defocus. FIG. 7 is an example of an image in which the lesion 182 is blurred due to motion blur. FIG. 7 is an example of a "blurred image".

可否判定部164は、画像取得部162から取得された画像が認識に不適な画像であるか否かを判定する。可否判定部164は認識部164Aを含む。認識部164Aは、入力された画像が画像認識に適切であるか不適切であるかの認識を行う。ここでの「画像認識に適切である」とは、認識の主目的である病変の分類等を行う認識の処理に適する画像であることを意味する。「画像認識に不適切である」とは、主目的である病変の分類等の認識に不適な画像であることを意味する。認識に不適な画像を例示すると、例えば、ボケている画像、ブレている画像、被写体に水がかぶっている画像、被写体に残渣がある画像などである。認識に不適な画像を「不適切画像」という。 The propriety determination unit 164 determines whether or not the image acquired from the image acquisition unit 162 is an image unsuitable for recognition. The availability determination unit 164 includes a recognition unit 164A. The recognition unit 164A recognizes whether the input image is suitable for image recognition or not. Here, "appropriate for image recognition" means that the image is suitable for recognition processing such as classification of lesions, which is the main purpose of recognition. “Unsuitable for image recognition” means that the image is unsuitable for recognition, such as classification of lesions, which is the main purpose. Examples of images unsuitable for recognition include, for example, a blurred image, a blurred image, an image in which the subject is covered with water, and an image in which the subject has residue. An image unsuitable for recognition is called an "inappropriate image".

認識部164Aは、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて構成することができる。認識部164Aは、例えば、認識に適する画像であるか、認識に不適な画像であるかの2分類のタスクを行うように、機械学習によって学習した第1の学習済みモデルを用いて構成される。認識部164Aは、動画の各フレーム画像、又は間引かれた一定間隔のフレーム画像の特徴量を算出し、算出された特徴量を用いて認識に不適な画像であるか否かを判定し得る。 164 A of recognition parts can be comprised using a convolutional neural network (CNN:Convolutional Neural Network), for example. The recognition unit 164A is configured using a first trained model learned by machine learning so as to perform two classification tasks, for example, whether an image is suitable for recognition or an image is unsuitable for recognition. . The recognition unit 164A can calculate the feature amount of each frame image of the moving image or the thinned-out frame images at regular intervals, and use the calculated feature amount to determine whether the image is unsuitable for recognition. .

認識に不適な画像は、分類部170の分類処理にて分類が困難な画像である。また、認識に不適な画像は、動き推定部166での動き推定の処理にも適さない画像である。 An image unsuitable for recognition is an image that is difficult to be classified by the classification processing of the classification section 170 . An image unsuitable for recognition is also an image unsuitable for motion estimation processing in the motion estimation unit 166 .

したがって、可否判定部164にて分類困難と判断された場合は、動き推定部166、所作判定部168及び分類部170による処理を行わずに、報知制御部172の処理に移行する。 Therefore, when the possibility determination unit 164 determines that the classification is difficult, the processing by the motion estimation unit 166, the motion determination unit 168, and the classification unit 170 is skipped, and the processing by the notification control unit 172 is performed.

動き推定部166は、時系列で取得される画像群の動き情報を検出する。画像の動きを推定する方法の例としては、例えば、オプティカルフロー、ブロックマッチング、又は、テンプレートマッチングなどを挙げることができる。動きを推定する手法は、ここに例示した手法に限らず、様々なアルゴリズムを適用できる。 The motion estimation unit 166 detects motion information of a group of images acquired in time series. Examples of methods for estimating image motion include optical flow, block matching, template matching, and the like. The method of estimating motion is not limited to the methods exemplified here, and various algorithms can be applied.

また、動きを推定する際に使用する画像の枚数は2枚(現在の画像と1枚前の過去画像)に限らない。図8には、時系列で得られる3枚の画像群の例が示されている。図8は、一定の時間間隔で撮影される動画のフレーム画像を示している。図8に示す3枚のフレーム画像の各々に対して画像解析を行うことによって、画像ごとにクラス分類は可能である。 Also, the number of images used when estimating motion is not limited to two (the current image and the previous past image). FIG. 8 shows an example of a group of three images obtained in time series. FIG. 8 shows frame images of a moving image captured at regular time intervals. By performing image analysis on each of the three frame images shown in FIG. 8, it is possible to classify each image.

しかし、例えば、現在の時刻tにおける画像IM(t)に泡184などが映っており、泡184などによって画像が覆われている場合、現在の画像IM(t)と1枚前の過去画像IM(t-1)との2枚のみでは正確な動きを推定することが困難である。そのため、現在の画像IM(t)から見て過去の画像又は未来の画像を含め2枚以上のフレーム画像を選択することにより、動きの推定精度を向上させることが好ましい。 However, for example, if the image IM(t) at the current time t contains a bubble 184 or the like and the image is covered with the bubble 184 or the like, then the current image IM(t) and the previous past image IM It is difficult to accurately estimate the motion with only two images (t-1). Therefore, it is preferable to improve the accuracy of motion estimation by selecting two or more frame images including a past image or a future image from the current image IM(t).

また、可否判定部164により認識された画像の状態情報を、動き推定部166での動きの推定に用いてもよい。例えば、入力された画像がブレれている場合に、テンプレートマッチングのテンプレート自体をブレ画像化してもよい。また、例えば、入力された画像がブレている場合に、動き推定の対象画像におけるブレの成分を除去する処理を実施してもよい。 In addition, the image state information recognized by the propriety determination unit 164 may be used for motion estimation by the motion estimation unit 166 . For example, when the input image is blurred, the template itself for template matching may be converted into a blurred image. Further, for example, when the input image is blurred, a process of removing the blurring component in the target image for motion estimation may be performed.

所作判定部168は、動き推定部166にて検出された動き情報に応じてユーザーの所作を判定する。図9及び図10は、動き推定結果に基づくユーザー所作の判定例を示す。図9は、画像の動きが小さい場合の画像例を示す。図9において観察画像内に表示した矢印Aは、画像IM(t)と、次のフレームの画像IM(t+1)との画像間における病変182の領域の動きベクトルを表している。 The gesture determination unit 168 determines the gesture of the user according to the motion information detected by the motion estimation unit 166 . 9 and 10 show examples of determination of user actions based on motion estimation results. FIG. 9 shows an example of an image when the motion of the image is small. The arrow A displayed in the observed image in FIG. 9 represents the motion vector of the area of the lesion 182 between the image IM(t) and the image IM(t+1) of the next frame.

図10は、画像の動きが大きい場合の画像例を示す。図10において観察画像内に表示した矢印Bは、画像IM(t)と、次のフレームの画像IM(t+1)との画像間における病変182の領域の動きベクトルを表している。例えば、図9に示すように、動きベクトルが小さい場合は、ユーザーの鑑別中にスコープの位置が動いたと判定できる。その一方、図10に示すように、動きベクトルが大きい場合は、ユーザーに鑑別の意図が無いと判定できる。 FIG. 10 shows an example of an image when the motion of the image is large. The arrow B displayed in the observed image in FIG. 10 represents the motion vector of the area of the lesion 182 between the image IM(t) and the image IM(t+1) of the next frame. For example, as shown in FIG. 9, when the motion vector is small, it can be determined that the position of the scope has moved during user discrimination. On the other hand, as shown in FIG. 10, when the motion vector is large, it can be determined that the user has no intention of discrimination.

所作判定部168は、動きベクトルの大きさを閾値と比較するなどして、ユーザーの所作を判定する。動きベクトルの大きさは、画像の移動量を反映している。つまり、動きベクトルの大きさから、ユーザーの所作が鑑別を意図しているか、否かを判定することができる。なお、動きベクトルは、画像全体での動きとして取得してもよいし、ある注目領域のみの動きとして取得してもよい。 The behavior determination unit 168 determines the behavior of the user by comparing the magnitude of the motion vector with a threshold value. The magnitude of the motion vector reflects the amount of movement of the image. In other words, it is possible to determine whether or not the user's behavior is intended for discrimination from the magnitude of the motion vector. Note that the motion vector may be acquired as the motion of the entire image, or may be acquired as the motion of only a given region of interest.

また、所作判定部168は、画像の移動量に基づいてユーザーの所作を判定する態様に限らず、予め定義されたデータベース、若しくは時系列上で更新されるデータベースと照らし合わせてユーザーの所作を判定してもよい。 In addition, the behavior determination unit 168 determines the behavior of the user not only based on the amount of movement of the image, but also in comparison with a predefined database or a database that is updated in chronological order. You may

図11は、動き情報とユーザーの所作との対応関係を規定したデータベースの例である。医療画像処理装置160は、データベース167を格納しておく記憶部169を含んでよい。記憶部169は、半導体メモリ、ハードディスクドライブ、ソリッドステートドライブ、若しくは光ディスクなどに例示される記憶装置であってよく、又はこれらの適宜の組み合わせであってよい。記憶部169は、医療画像処理装置160に内蔵された内部記憶装置であってもよいし、医療画像処理装置160に接続される外部記憶装置であってもよい。 FIG. 11 is an example of a database that defines the correspondence between motion information and user's actions. The medical image processing apparatus 160 may include a storage unit 169 that stores a database 167. FIG. The storage unit 169 may be a storage device exemplified by a semiconductor memory, a hard disk drive, a solid state drive, an optical disk, or an appropriate combination thereof. The storage unit 169 may be an internal storage device built into the medical image processing apparatus 160 or an external storage device connected to the medical image processing apparatus 160 .

所作判定部168は、動き推定部166から得られる動き情報を基にデータベース167と照合してユーザーの所作の意図を判定し得る。例えば、動き情報の示す画像の動きが停止している場合、若しくは動きは非常に小さい場合には鑑別中であると判定される。また、動き情報の示す画像の動きが等速運動又は回転運動である場合には鑑別中であると判定される。動き情報の示す画像の動きが等加速度運動である場合にはスクリーニング中であると判定される。所作判定部168の判定結果は、報知制御部172に送られる(図4参照)。所作判定部168の判定結果は、ユーザーの所作意図を推定した所作情報に相当する。 The motion determining unit 168 can determine the intention of the user's motion by comparing the motion information obtained from the motion estimating unit 166 with the database 167 . For example, when the motion of the image indicated by the motion information has stopped, or when the motion is very small, it is determined that discrimination is in progress. Further, when the motion of the image indicated by the motion information is uniform motion or rotational motion, it is determined that discrimination is in progress. If the motion of the image indicated by the motion information is uniformly accelerated motion, it is determined that screening is in progress. The determination result of the behavior determination unit 168 is sent to the notification control unit 172 (see FIG. 4). The determination result of the behavior determination unit 168 corresponds to behavior information that estimates the user's behavior intention.

図4に示す分類部170は、可否判定部164にて分類可能と判定された画像を対象に、ある特定のクラスへの分類処理が行われる。分類方法としては例えば、下記の分類クラスが挙げられる。 The classification unit 170 shown in FIG. 4 performs classification processing into a specific class for images that have been determined to be classifiable by the propriety determination unit 164 . Classification methods include, for example, the following classification classes.

〈分類クラスの具体例〉
[例1]腫瘍性であるか、非腫瘍性であるかの2分類のクラス分けを採用し得る。
<Specific examples of classification classes>
[Example 1] Two classifications can be adopted: neoplastic and non-neoplastic.

[例2]内視鏡所見分類、具体的にはNICE分類、又はJNET分類などを採用し得る。 [Example 2] Endoscopic findings classification, specifically NICE classification, JNET classification, or the like can be adopted.

[例3]病種による分類、例えば、過形成性ポリープ、腺腫、粘膜内癌、高度浸潤癌、炎症性ポリープなどに分類する態様を採用し得る。 [Example 3] Classification by disease type, for example, classification into hyperplastic polyp, adenoma, intramucosal carcinoma, highly invasive carcinoma, inflammatory polyp, etc., can be adopted.

なお、「NICE」は、NBI(Narrow band imaging) International Colorectal Endoscopic の略語である。「JNET」は、「the Japan NBI Expert Team」の略語である。 "NICE" is an abbreviation for NBI (Narrow band imaging) International Colorectal Endoscopic. "JNET" is an abbreviation for "the Japan NBI Expert Team."

NICE分類は、非拡大のNBIによる分類であり、病変の色調(Color)、微小血管模様(Vessels)、及び表面模様(Surface pattern)の3項目の各項目について、Type1、Type2及びType3に分類される。Type1は過形成病変、Type2は腺腫~粘膜内癌、Type3はSM(submucosa)深部浸潤癌の診断指標である。JNET分類は、大腸腫瘍に対するNBI拡大内視鏡所見の分類である。JNET分類は、「vessel pattern」と「surface pattern」の各項目について、Type1、Type2A、Type2B、及びType3に分類される。 The NICE classification is a classification by non-magnified NBI, and is classified into Type 1, Type 2 and Type 3 for each of the three items of lesion color (Color), microvessel pattern (Vessels), and surface pattern (Surface pattern). be. Type 1 is a hyperplastic lesion, Type 2 is an adenoma to intramucosal carcinoma, and Type 3 is a diagnostic index for SM (submucosa) deep invasive cancer. The JNET classification is a classification of NBI magnified endoscopy findings for colon tumors. The JNET classification is classified into Type1, Type2A, Type2B, and Type3 for each item of "vessel pattern" and "surface pattern."

分類部170は、NICE分類などの詳細な分類に代えて、又は、これと組み合わせて、単に「癌性」であるか「非癌性」であるかの2分類の認識を行ってもよい。 The classification unit 170 may simply recognize two classifications of “cancerous” and “non-cancerous” instead of detailed classification such as the NICE classification, or in combination with this.

図4に示す分類部170の分類処理には、例えば、畳み込みニューラルネットワーク(CNN)が用いられる。分類部170は、[例1]~[例3]に例示したような特定のクラスに分類する画像分類のタスクを行うように、機械学習によって学習した第2の学習済みモデルを用いて構成することができる。 For example, a convolutional neural network (CNN) is used for the classification processing of the classification unit 170 shown in FIG. The classification unit 170 is configured using a second trained model learned by machine learning so as to perform the image classification task of classifying images into specific classes as exemplified in [Example 1] to [Example 3]. be able to.

可否判定部164から得られた判定結果が「認識に適する画像」である場合に、分類部170による分類処理が実行される。分類部170は、画像から特徴量を抽出し、画像の分類を行う。分類部170は、算出された特徴量を基に注目領域(例えば、病変の領域)の検出及び病変の領域の検出、及び/又は、セグメンテーションを実施してもよい。また、分類部170は、認識部164Aで算出した特徴量を利用して分類処理を実施してもよい。 When the determination result obtained from the propriety determination unit 164 is "an image suitable for recognition", the classification process by the classification unit 170 is executed. The classification unit 170 extracts feature amounts from images and classifies the images. The classification unit 170 may perform detection of a region of interest (for example, a lesion region), detection of a lesion region, and/or segmentation based on the calculated feature amount. Further, the classification unit 170 may perform classification processing using the feature amount calculated by the recognition unit 164A.

報知制御部172は、可否判定部164から得られる判定結果と、所作判定部168から得られる判定結果と、分類部170から得られる分類結果と、に基づき、報知部174での動作を制御する。報知部174は、表示装置18を含んで構成されてよい(図1及び図2参照)。また、報知部174は、表示装置18とは別の表示装置であってもよい。報知制御部172は、報知部174に出力する情報内容を制御し得る。 The notification control unit 172 controls the operation of the notification unit 174 based on the determination result obtained from the propriety determination unit 164, the determination result obtained from the behavior determination unit 168, and the classification result obtained from the classification unit 170. . The notification unit 174 may be configured including the display device 18 (see FIGS. 1 and 2). Also, the notification unit 174 may be a display device different from the display device 18 . The notification control section 172 can control the content of information output to the notification section 174 .

図12は、分類部170から得られる分類結果の報知例を示す図である。図12の例では、観察画像内に病変182であるポリープが検出されており、内視鏡撮影画像の表示領域の右横に、分類結果を示す報知情報としての「result: neoplasm」(腫瘍)という文字情報が表示されている。分類結果を示す報知情報は、内視鏡撮影画像と共に同一画面内に表示されることが好ましい。 FIG. 12 is a diagram showing an example of notification of classification results obtained from the classification unit 170. As shown in FIG. In the example of FIG. 12, a polyp, which is a lesion 182, is detected in the observation image, and "result: neoplasm" (tumor) is displayed on the right side of the display area of the endoscopic image as notification information indicating the classification result. character information is displayed. The notification information indicating the classification result is preferably displayed on the same screen together with the endoscope-captured image.

その一方で、所作判定部168によりユーザーに鑑別の意図が無いと判定された場合にも、自動分類結果などを報知すると、ユーザーの注意力を損ない、観察の阻害、また別の病変の見落としに繋がる恐れがある。そこで、報知制御部172は、所作判定部168によりユーザーに鑑別の意図が無いと判定された場合には、図13又は図14に示すような表示を行うよう報知制御を実施する。 On the other hand, even if the behavior determination unit 168 determines that the user has no intention of discrimination, reporting the automatic classification result or the like may impair the user's attention, hinder observation, or cause another lesion to be overlooked. are likely to be connected. Therefore, when the action determination unit 168 determines that the user does not intend to discriminate, the notification control unit 172 performs notification control so as to perform a display as shown in FIG. 13 or 14 .

図13は、分類結果を報知させないようにした例である。図13に示す例では、内視鏡撮影画像の表示領域の右横に、分類結果が報知されないことを明示する情報としての「result: - 」という情報が表示されている。 FIG. 13 shows an example in which classification results are not reported. In the example shown in FIG. 13, the information "result: -" is displayed on the right side of the display area of the endoscopically captured image as information clearly indicating that the classification result is not reported.

図14は、分類結果を示す文字情報に代えて、分類処理が起動していない旨を報知する情報を提示する報知例である。図14に示す例では内視鏡撮影画像の表示領域の右横に、分類処理が起動していないことを明示する情報としての「classification off」という情報が表示され、「on」の文字は非表示又はグレーアウト表示となっている。図13に示すような報知形態に代えて、図14に示すような報知形態を採用してもよい。また、図13に示す報知形態と図14に示す報知形態とを組み合わせた報知形態を採用してもよい。 FIG. 14 shows an example of notification in which information indicating that the classification process has not started is presented instead of character information indicating the classification result. In the example shown in FIG. 14, the information "classification off" is displayed to the right of the display area of the endoscopic image as information indicating that the classification process is not activated, and the characters "on" are disabled. It is displayed or grayed out. Instead of the notification form as shown in FIG. 13, a notification form as shown in FIG. 14 may be employed. Further, a notification form that is a combination of the notification form shown in FIG. 13 and the notification form shown in FIG. 14 may be adopted.

《第1実施形態に係る医療画像処理装置の動作の例》
医療画像処理装置160を用いた医療画像処理方法について説明する。図15は、第1実施形態に係る医療画像処理装置160の動作の例を示すフローチャートである。医療画像処理装置の動作は、医療画像処理装置の作動方法と理解してもよいし、若しくはプロセッサ装置の作動方法と理解してもよい。
<<Example of Operation of Medical Image Processing Apparatus According to First Embodiment>>
A medical image processing method using the medical image processing apparatus 160 will be described. FIG. 15 is a flow chart showing an example of the operation of the medical image processing apparatus 160 according to the first embodiment. The operation of the medical imaging device may be understood as the way the medical imaging device operates, or it may be understood as the way the processor device operates.

ステップS11において、医療画像処理装置160は、画像取得部162を介して現在の画像を受信する。画像取得部162が取得する画像は、電子内視鏡12を用いて撮影された被写体像を含む医療画像であり、時系列で順次に撮影される時系列画像の1つの画像である。例えば、画像は、動画を構成する1フレームの画像である。ステップS11は本開示における「画像取得工程」の一例である。 In step S<b>11 , the medical image processing apparatus 160 receives the current image via the image acquisition section 162 . The image acquired by the image acquiring unit 162 is a medical image including a subject image captured using the electronic endoscope 12, and is one image of time-series images sequentially captured in time series. For example, the image is a one-frame image forming a moving image. Step S11 is an example of the "image acquisition step" in the present disclosure.

ステップS12において、可否判定部164は、入力された現在の画像について画像の状態を認識する処理を行う。具体的には、可否判定部164は、分類処理に適した画像であるか否かを認識する処理を行う。 In step S12, the propriety determination unit 164 performs processing for recognizing the state of the input current image. Specifically, the propriety determination unit 164 performs processing for recognizing whether or not the image is suitable for classification processing.

ステップS14において、可否判定部164は、分類が可能であるか否かを判定する。ステップS12とステップS14は本開示における「可否判定工程」の一例である。ステップS14の判定処理において可否判定部164が分類可能と判定した場合には、ステップS16及びステップS20に移行する。 In step S14, the propriety determination unit 164 determines whether or not classification is possible. Steps S12 and S14 are an example of the "possibility determination step" in the present disclosure. In the judgment process of step S14, when the possibility judgment unit 164 judges that classification is possible, the process proceeds to steps S16 and S20.

ステップS16において、動き推定部166は、過去又は未来の画像を含む2枚以上の複数の画像を用いて画像の動きを推定する。ステップS16は本開示における「動き推定工程」の一例である。 In step S16, the motion estimator 166 estimates motion of images using two or more images including past or future images. Step S16 is an example of the "motion estimation step" in the present disclosure.

ステップS16の後、ステップS18において、所作判定部168は、動き推定部166の推定結果である動き情報を基にユーザーの所作を判定する。ステップS18は本開示における「所作判定工程」の一例である。 After step S<b>16 , in step S<b>18 , the behavior determining unit 168 determines the user's behavior based on the motion information that is the estimation result of the motion estimating unit 166 . Step S18 is an example of a "behavior determination step" in the present disclosure.

また、ステップS16及びステップS18の処理と並行して、ステップS20において、分類部170は、画像内から病変の領域を認識して所定のクラスに分類する処理を行う。ステップS20は本開示における「分類工程」の一例である。 Further, in parallel with the processes of steps S16 and S18, in step S20, the classification unit 170 performs a process of recognizing a lesion area from within the image and classifying it into a predetermined class. Step S20 is an example of the "classification step" in the present disclosure.

ステップS18及びステップS20の後、ステップS22に移行する。またステップS14の判定結果が「No判定」すなわち、分類不能と判定された場合は、ステップS16からステップS20の処理を省略して、ステップS22に移行する。 After steps S18 and S20, the process proceeds to step S22. If the determination result of step S14 is "No", that is, if it is determined that the classification is not possible, the processing from step S16 to step S20 is omitted, and the process proceeds to step S22.

ステップS22において、報知制御部172は、報知部174に出力する報知情報の設定を行う。報知制御部172は、所作判定部168の判定結果が「鑑別」の所作に該当する場合には、分類部170の分類結果を報知するよう報知情報を設定する(図12参照)。その一方、報知制御部172は、所作判定部168の判定結果が「鑑別」の所作に非該当である場合には、分類部170の分類結果を非報知とするよう報知情報を設定する(図13及び図14参照)。ステップS22は本開示における「報知制御工程」の一例である。 In step S<b>22 , the notification control unit 172 sets notification information to be output to the notification unit 174 . The notification control unit 172 sets notification information to notify the classification result of the classification unit 170 when the determination result of the behavior determination unit 168 corresponds to the behavior of “discrimination” (see FIG. 12). On the other hand, the notification control unit 172 sets the notification information so that the classification result of the classification unit 170 is not notified when the determination result of the behavior determination unit 168 does not correspond to the behavior of “discrimination” (Fig. 13 and FIG. 14). Step S22 is an example of the "notification control step" in the present disclosure.

ステップS22の後、図15のフローチャートを終了する。時系列で取得される画像ごとに、図15に示すフローチャートの処理が繰り返される。 After step S22, the flow chart of FIG. 15 ends. The processing of the flowchart shown in FIG. 15 is repeated for each image acquired in time series.

なお、図15に示すフローチャートの処理は、時系列で取得される画像ごとに実施する態様に限らず、時系列で取得される画像の一部の画像のみについて実施してもよい。 Note that the processing of the flowchart shown in FIG. 15 is not limited to being performed for each image acquired in time series, and may be performed only for some of the images acquired in time series.

《第1実施形態による利点》
上述した第1実施形態の構成によれば、次のような利点がある。
<<Advantages of the First Embodiment>>
The configuration of the first embodiment described above has the following advantages.

(1)医療画像処理装置160によれば、時系列で得られる複数の画像からユーザーの所作の意図を判定し、鑑別の意図があると判定した画像について分類結果を報知する一方、鑑別の意図が無いと判定した画像について分類結果を非報知とすることができる。これにより、不必要なタイミングでの過剰な報知を抑制でき、支援が必要なタイミングで適切な情報を提供することができる。 (1) According to the medical image processing apparatus 160, the intention of the user's gesture is determined from a plurality of images obtained in time series, and the classification result is reported for the image determined to have the intention of discrimination, while the intention of discrimination It is possible to set the classification result to non-notification for an image determined to have no image. As a result, excessive notification at unnecessary timing can be suppressed, and appropriate information can be provided at the timing when support is required.

(2)医療画像処理装置160によれば、ユーザーによる画像の観察を阻害せずに、観察の際に要するユーザーの注意力を持続させることできる。医療画像処理装置160によれば、病変領域などの注目領域の見落としを抑制することができる。 (2) According to the medical image processing apparatus 160, the user's attention required for observation can be sustained without hindering the user's observation of the image. According to the medical image processing apparatus 160, it is possible to suppress the oversight of a region of interest such as a lesion region.

(3)医療画像処理装置160によれば、時系列で得られる画像の中に、認識に不適な画像が一時的に含まれた場合に、その不適な画像についての動き推定の処理、所作判定の処理、及び分類処理が省略され、これらの処理が不実施となる。このため、認識に不適な画像から真実性の低い分類結果(誤った認識結果)が生成されてユーザーに提供されてしまうことを回避できる。また、認識に不適な画像について分類結果の報知を回避することができ、時系列の画像群の中で正確性のある分類結果の情報を提供することができる。 (3) According to the medical image processing device 160, when an image that is unsuitable for recognition is temporarily included in the images obtained in time series, motion estimation processing and behavior determination for the unsuitable image are performed. and the classification process are omitted, and these processes are not performed. Therefore, it is possible to avoid generating a classification result (erroneous recognition result) with low truthfulness from an image unsuitable for recognition and providing it to the user. In addition, it is possible to avoid notification of classification results for images that are unsuitable for recognition, and to provide accurate classification result information among time-series image groups.

(4)医療画像処理装置160によれば、検査中の連続的な撮影によって得られる動画の表示中に、分類結果をリアルタイムでユーザーに報知することができる。 (4) According to the medical image processing apparatus 160, it is possible to notify the user of the classification result in real time while displaying moving images obtained by continuous imaging during examination.

(5)医療画像処理装置160によれば、医師等のユーザーにとって有益な診断支援を行うことができる。 (5) According to the medical image processing apparatus 160, it is possible to provide useful diagnostic support for users such as doctors.

《第2実施形態:医療情報管理システムへの応用例》
本発明に係る医療画像処理装置は、図1に例示した内視鏡システム10のプロセッサ装置16に適用する形態に限らず、様々な応用が可能である。例えば、医療画像処理装置は、内視鏡画像を含む様々な医療情報を管理する医療情報管理システムに応用することができる。
<<Second Embodiment: Example of Application to Medical Information Management System>>
The medical image processing apparatus according to the present invention is not limited to being applied to the processor device 16 of the endoscope system 10 illustrated in FIG. 1, and various applications are possible. For example, the medical image processing apparatus can be applied to a medical information management system that manages various medical information including endoscopic images.

図16は、医療情報管理システムの構成例を示すブロック図である。医療情報管理システム200は、画像取込端末202と、画像保存サーバ204と、情報管理装置210と、表示装置218と、入力装置219と、を備える。画像取込端末202、画像保存サーバ204及び情報管理装置210の各々は、電気通信回線230に接続される。「接続」という用語は、有線接続に限らず、無線接続の概念も含む。 FIG. 16 is a block diagram showing a configuration example of a medical information management system. The medical information management system 200 includes an image acquisition terminal 202 , an image storage server 204 , an information management device 210 , a display device 218 and an input device 219 . Each of the image capture terminal 202 , the image storage server 204 and the information management device 210 is connected to an electric communication line 230 . The term "connection" is not limited to wired connections, but also includes the concept of wireless connections.

電気通信回線230は、ローカルエリアネットワークであってもよいし、ワイドエリアネットワークであってもよい。電気通信回線230は、有線及び無線の適宜の組み合わせによって構成される。 Telecommunications line 230 may be a local area network or a wide area network. The electric communication line 230 is configured by an appropriate combination of wired and wireless.

内視鏡システム10のプロセッサ装置16は、電気通信回線230に接続される。プロセッサ装置16によって生成された医療画像は、電気通信回線230を介して、画像取込端末202、画像保存サーバ204、及び情報管理装置210のうち少なくとも1つに取り込まれる。例えば、プロセッサ装置16によって生成された医療画像は、画像取込端末202に送られる。画像取込端末202は、プロセッサ装置16から医療画像を受信する。 The processor unit 16 of the endoscope system 10 is connected to the telecommunications line 230 . Medical images generated by processor device 16 are captured by at least one of image capture terminal 202 , image storage server 204 , and information management device 210 via telecommunications line 230 . For example, medical images generated by processor unit 16 are sent to image capture terminal 202 . Image capture terminal 202 receives medical images from processor unit 16 .

画像取込端末202は、プロセッサ装置16から受信した医療画像を画像保存サーバ204に送る。また、画像取込端末202は、プロセッサ装置16から受信した医療画像を情報管理装置210に送信してもよい。 Image capture terminal 202 sends medical images received from processor unit 16 to image storage server 204 . The image capture terminal 202 may also transmit medical images received from the processor device 16 to the information management device 210 .

画像保存サーバ204は、様々な医療画像のデータベースを格納しておく記憶装置の役割を果たす。画像保存サーバ204に代えて、クラウドストレージであってもよい。画像保存サーバ204には、医療画像の他に、医療画像に含まれる注目領域(関心領域)、注目すべき対象の有無、画像分類の結果などの画像解析結果を記憶してもよい。 The image storage server 204 serves as a storage device that stores databases of various medical images. A cloud storage may be used instead of the image storage server 204 . In addition to the medical images, the image storage server 204 may also store image analysis results such as regions of interest (regions of interest) included in the medical images, presence or absence of a target of interest, and image classification results.

なお、図16には、1つの内視鏡システム10を示したが、電気通信回線230には、複数の内視鏡システムを接続し得る。また、電気通信回線230には、内視鏡システムに限らず、超音波診断装置など、他の医療画像撮影装置が接続されてもよい。超音波診断装置から得られる超音波画像は「医療画像」の一例である。医療画像撮影装置は、例えば、X線撮影装置、CT撮影装置、MRI(magnetic resonance imaging)撮影装置、核医学診断装置、若しくは、眼底カメラのうちの1つ又は組み合わせであってよい。 Although one endoscope system 10 is shown in FIG. 16 , a plurality of endoscope systems can be connected to the electrical communication line 230 . In addition, the electric communication line 230 may be connected to other medical imaging devices such as an ultrasonic diagnostic device as well as the endoscope system. An ultrasound image obtained from an ultrasound diagnostic apparatus is an example of a "medical image." The medical imaging device may be, for example, one or a combination of an X-ray imager, a CT imager, a magnetic resonance imaging (MRI) imager, a nuclear medicine diagnostic device, or a fundus camera.

情報管理装置210は、例えば、コンピュータのハードウェア及びソフトウェアによって実現される。情報管理装置210には、表示装置218と入力装置219が接続されている。情報管理装置210は、図4に示した医療画像処理装置160の機能の一部又は全部を含んでよい。例えば、情報管理装置210は、図4に示した画像取得部162、可否判定部164、動き推定部166、所作判定部168、分類部170及び報知制御部172の機能を含む。 The information management device 210 is realized by computer hardware and software, for example. A display device 218 and an input device 219 are connected to the information management device 210 . The information management device 210 may include some or all of the functions of the medical image processing device 160 shown in FIG. For example, the information management device 210 includes the functions of the image acquisition unit 162, availability determination unit 164, motion estimation unit 166, gesture determination unit 168, classification unit 170, and notification control unit 172 shown in FIG.

図16に示す表示装置218は、報知部174として機能し得る。情報管理装置210の機能は、1台又は複数台のコンピュータによって実現することができ、また、クラウドコンピューティングによって実現することもできる。情報管理装置210は、画像保存サーバ204の機能を含んでいてもよい。また、画像取込端末202は、画像取得部162として機能し得る。なお、画像取込端末202を省略した構成も可能であり、その場合、画像保存サーバ204及び/又は情報管理装置210がプロセッサ装置16から医療画像を取り込むよう構成される。 The display device 218 shown in FIG. 16 can function as the notification unit 174 . The functions of the information management device 210 can be realized by one or more computers, and can also be realized by cloud computing. The information management device 210 may include the functions of the image storage server 204 . Also, the image capture terminal 202 can function as the image acquisition unit 162 . A configuration in which the image capture terminal 202 is omitted is also possible, in which case the image storage server 204 and/or the information management device 210 are configured to capture medical images from the processor device 16 .

本実施形態に係る医療情報管理システム200によれば、電子内視鏡12からリアルタイムで得られる医療画像に限らず、画像保存サーバ204に保存されている動画等の再生の際にも、図15で説明したフローチャートの処理を行うことができる。 According to the medical information management system 200 according to the present embodiment, not only medical images obtained in real time from the electronic endoscope 12 but also moving images stored in the image storage server 204 can be reproduced as shown in FIG. can perform the processing of the flowchart described in .

情報管理装置210は、例えば、病院内の手術室、検査室、若しくは、カンファレンス室などに設置してもよいし、院外施設の医療機関、若しくは研究機関などに設置してもよい。情報管理装置210は、診察、治療、診断などの支援を行うワークステーションであってもよいし、医療業務を支援する業務支援装置であってもよい。業務支援装置は、臨床情報の蓄積、診断書類の作成支援、レポート作成支援などを行う機能を備えていてよい。情報管理装置210は本開示における「医療画像処理装置」の一例である。医療情報管理システム200は本開示における「診断支援装置」の一例である。 The information management device 210 may be installed, for example, in an operating room, an examination room, or a conference room in a hospital, or may be installed in an out-of-hospital medical institution, research institution, or the like. The information management device 210 may be a workstation that supports examination, treatment, diagnosis, etc., or may be a business support device that supports medical work. The work support device may have a function of accumulating clinical information, assisting in the creation of diagnostic documents, assisting in the creation of reports, and the like. The information management device 210 is an example of a “medical image processing device” in the present disclosure. The medical information management system 200 is an example of a “diagnosis support device” in the present disclosure.

《各処理部及び制御部のハードウェア構成について》
図4で説明した医療画像処理装置160の画像取得部162、可否判定部164、動き推定部166、所作判定部168、分類部170、及び報知制御部172などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。
<<Hardware configuration of each processing unit and control unit>>
A processing unit that executes various processes such as the image acquisition unit 162, the availability determination unit 164, the motion estimation unit 166, the gesture determination unit 168, the classification unit 170, and the notification control unit 172 of the medical image processing apparatus 160 described in FIG. The hardware structure of the (processing unit) is various processors as shown below.

各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 The various processors include a CPU (Central Processing Unit), which is a general-purpose processor that executes programs and functions as various processing units, a GPU (Graphics Processing Unit), which is a processor specialized for image processing, and an FPGA (Field Programmable Logic Device (PLD), which is a processor whose circuit configuration can be changed after manufacturing such as Programmable Gate Array), ASIC (Application Specific Integrated Circuit), etc. Specially designed to execute specific processing. A dedicated electric circuit, which is a processor having circuitry, and the like are included.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、若しくは、CPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types. For example, one processing unit may be configured by a plurality of FPGAs, a combination of CPU and FPGA, or a combination of CPU and GPU. Also, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with a single processor, first, as represented by a computer such as a client or a server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including multiple processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.

《変形例1》
電子内視鏡は、軟性内視鏡に限らず、硬性内視鏡であってもよいし、カプセル内視鏡であってもよい。また、被写体像を含む時系列の医療画像を生成する装置は、電子内視鏡に限らず、例えば、超音波診断装置などであってもよい。
<<Modification 1>>
The electronic endoscope is not limited to a flexible endoscope, and may be a rigid endoscope or a capsule endoscope. Further, an apparatus that generates time-series medical images including subject images is not limited to an electronic endoscope, and may be, for example, an ultrasonic diagnostic apparatus.

《変形例2》
本開示の医療画像処理装置は、医師等による診察、治療、又は診断などを支援する診断支援装置として用いることができる。「診断支援」という用語は、診察支援、及び/又は治療支援の概念を含む。
<<Modification 2>>
The medical image processing apparatus of the present disclosure can be used as a diagnosis support apparatus that supports examination, treatment, diagnosis, or the like by a doctor or the like. The term "diagnostic aid" includes the concepts of diagnostic aid and/or therapeutic aid.

《内視鏡システムの観察光について》
観察光は、白色光、或いは1又は複数の特定の波長帯域の光、或いはこれらの組み合わせなど観察目的に応じた各種波長帯域の光が選択される。白色光は、白色の波長帯域の光又は複数の波長帯域の光である。「特定の波長帯域」は、白色の波長帯域よりも狭い帯域である。特定の波長帯域に関する具体例を以下に示す。
《About the observation light of the endoscope system》
As the observation light, light in various wavelength bands such as white light, light in one or more specific wavelength bands, or a combination thereof is selected according to the purpose of observation. White light is light in a white wavelength band or light in multiple wavelength bands. A "specific wavelength band" is a band narrower than the white wavelength band. Specific examples for specific wavelength bands are shown below.

〈第1例〉
特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下の波長帯域又は530nm以上550nm以下の波長帯域を含み、且つ第1例の光は、390nm以上450nm以下の波長帯域内又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
<First example>
A first example of a specific wavelength band is, for example, the blue band or the green band in the visible range. The wavelength band of this first example includes a wavelength band of 390 nm or more and 450 nm or less or a wavelength band of 530 nm or more and 550 nm or less, and the light of the first example is within the wavelength band of 390 nm or more and 450 nm or less or a wavelength of 530 nm or more and 550 nm or less. It has a peak wavelength within the band.

〈第2例〉
特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下の波長帯域又は610nm以上730nm以下の波長帯域を含み、且つ第2例の光は、585nm以上615nmの波長帯域内以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
<Second example>
A second example of a specific wavelength band is, for example, the visible red band. The wavelength band of this second example includes a wavelength band of 585 nm or more and 615 nm or less or a wavelength band of 610 nm or more and 730 nm or less, and the light of the second example is within the wavelength band of 585 nm or more and 615 nm or less or a wavelength of 610 nm or more and 730 nm or less. It has a peak wavelength within the band.

〈第3例〉
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nmの波長帯域、470±10nmの波長帯域、又は600nm以上750nm以下の波長帯域を含み、且つ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域内にピーク波長を有する。
<Third example>
A third example of the specific wavelength band includes a wavelength band in which oxygenated hemoglobin and reduced hemoglobin have different absorption coefficients, and the light in the third example has a peak wavelength in the wavelength band in which oxygenated hemoglobin and reduced hemoglobin have different absorption coefficients. have The wavelength band of this third example includes a wavelength band of 400 ± 10 nm, a wavelength band of 440 ± 10 nm, a wavelength band of 470 ± 10 nm, or a wavelength band of 600 nm or more and 750 nm or less, and the light of the third example is the above 400 ± 10 nm , 440±10 nm, 470±10 nm, or a wavelength band of 600 nm or more and 750 nm or less.

〈第4例〉
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ、且つこの蛍光物質を励起させる励起光の波長帯域、例えば、390nmから470nmである。
<Fourth example>
A fourth example of the specific wavelength band is a wavelength band of excitation light that is used for observing fluorescence emitted by a fluorescent substance in vivo (fluorescence observation) and that excites this fluorescent substance, for example, from 390 nm to 470 nm.

〈第5例〉
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下の波長帯域又は905nm以上970nm以下の波長帯域を含み、且つ第5例の光は、790nm以上820nm以下の波長帯域内又は905nm以上970nm以下の波長帯域内にピーク波長を有する。
<Fifth example>
A fifth example of the specific wavelength band is the wavelength band of infrared light. The wavelength band of this fifth example includes a wavelength band of 790 nm or more and 820 nm or less or a wavelength band of 905 nm or more and 970 nm or less, and the light of the fifth example includes a wavelength band of 790 nm or more and 820 nm or less or a wavelength of 905 nm or more and 970 nm or less. It has a peak wavelength within the band.

《観察光の切り替えについて》
光源の種類は、レーザ光源、キセノン光源、若しくは、LED光源(LED:Light-Emitting Diode)又はこれらの適宜の組み合わせを採用し得る。光源の種類、波長、フィルタの有無等は被写体の種類、観察の目的等に応じて構成することが好ましく、また観察の際は被写体の種類、観察の目的等に応じて照明光の波長を組み合わせ及び/又は切り替えることが好ましい。波長を切り替える場合、例えば光源の前方に配置され特定波長の光を透過又は遮光するフィルタが設けられた円板状のフィルタ(ロータリカラーフィルタ)を回転させることにより、照射する光の波長を切り替えてもよい。
《Switching observation light》
A laser light source, a xenon light source, an LED light source (LED: Light-Emitting Diode), or an appropriate combination thereof can be used as the light source. The type and wavelength of the light source, the presence or absence of a filter, etc. are preferably configured according to the type of subject and the purpose of observation. and/or preferably switch. When switching the wavelength, for example, by rotating a disc-shaped filter (rotary color filter) that is placed in front of the light source and provided with a filter that transmits or blocks light of a specific wavelength, the wavelength of the irradiated light is switched. good too.

電子内視鏡に用いる撮像素子は、各画素に対しカラーフィルタが配置されたカラー撮像素子に限定されるものではなく、モノクロ撮像素子でもよい。モノクロ撮像素子を用いる場合、照明光の波長を順次切り替えて面順次(色順次)で撮像することができる。例えば出射する照明光の波長を、紫色、青色、緑色、及び赤色の間で順次切り替えてもよいし、広帯域光(白色光)を照射してロータリカラーフィルタ(赤色、緑色、青色等)により出射する照明光の波長を切り替えてもよい。また、1又は複数の狭帯域光を照射してロータリカラーフィルタにより出射する照明光の波長を切り替えてもよい。狭帯域光は波長の異なる2波長以上の赤外光でもよい。 The image pickup device used in the electronic endoscope is not limited to a color image pickup device in which a color filter is arranged for each pixel, and may be a monochrome image pickup device. When a monochrome imaging device is used, it is possible to sequentially switch the wavelength of illumination light and perform frame sequential (color sequential) imaging. For example, the wavelength of emitted illumination light may be sequentially switched between violet, blue, green, and red, or broadband light (white light) may be emitted and emitted by a rotary color filter (red, green, blue, etc.). The wavelength of illumination light may be switched. Alternatively, one or a plurality of narrow band lights may be applied and the wavelength of the illumination light emitted by the rotary color filter may be switched. The narrowband light may be infrared light having two or more wavelengths different from each other.

《特殊光画像の生成例》
プロセッサ装置16は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成には「取得」の概念が含まれる。この場合、プロセッサ装置16は、特殊光画像取得部として機能する。プロセッサ装置16は、特定の波長帯域の信号を、通常光画像に含まれる赤(R)、緑(G)、及び青(B)、或いはシアン(C)、マゼンタ(M)、及びイエロー(Y)の色情報に基づく演算を行うことで得ることができる。
<<Generation example of special light image>>
The processor device 16 may generate a special light image having information of a specific wavelength band based on a normal light image obtained by imaging using white light. Note that the generation here includes the concept of “acquisition”. In this case, the processor device 16 functions as a special light image acquisition unit. The processor unit 16 converts signals in specific wavelength bands into red (R), green (G), and blue (B), or cyan (C), magenta (M), and yellow (Y), which are normally included in an optical image. ) can be obtained by performing an operation based on the color information.

《特徴量画像の生成例》
プロセッサ装置16は、医療画像として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像、並びに特定の波長帯域の光を照射して得る特殊光画像の少なくともいずれかに基づく演算を用いて、特徴量画像を生成し得る。特徴量画像は医療画像の一形態である。
《Generation example of feature quantity image》
The processor device 16 produces, as medical images, a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band, and a special light image obtained by irradiating light in a specific wavelength band. may be used to generate the feature image. A feature image is a form of medical image.

《コンピュータに医療画像処理装置の機能を実現させるプログラムについて》
上述の実施形態で説明した医療画像処理装置の機能をコンピュータに実現させるプログラムを光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。またこのような有体物たる非一時的な情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
《About the program that realizes the functions of a medical image processing device on a computer》
A program that causes a computer to realize the functions of the medical image processing apparatus described in the above embodiments is recorded on a computer-readable medium that is a non-temporary information storage medium that is an optical disk, magnetic disk, semiconductor memory, or other tangible object, and this It is possible to provide the program through an information storage medium. Instead of storing the program in a tangible non-temporary information storage medium and providing it, it is also possible to provide the program signal as a download service using an electric communication line such as the Internet.

また、上述の実施形態で説明した医療画像処理装置の機能の一部又は全部をアプリケーションサーバとして提供し、電気通信回線を通じて処理機能を提供するサービスを行うことも可能である。 It is also possible to provide a part or all of the functions of the medical image processing apparatus described in the above embodiment as an application server, and provide a service of providing processing functions through an electric communication line.

《実施形態及び変形例等の組み合わせについて》
上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
<<Combination of Embodiments and Modifications>>
The components described in the above embodiments and the components described in the modified examples can be used in combination as appropriate, and some of the components can be replaced.

《付記》
本明細書は、上述した各実施形態及び変形例等に加えて、以下に記載の発明の開示を含む。
<<Note>>
In addition to the embodiments and modifications described above, the present specification includes disclosure of the invention described below.

(付記1)
医療画像処理装置は、医療画像解析処理部と、医療画像解析結果取得部と、を有し、医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 1)
The medical image processing apparatus includes a medical image analysis processing unit and a medical image analysis result acquisition unit. A medical image processing apparatus that detects an area and a medical image analysis result acquisition unit acquires the analysis result of the medical image analysis processing unit.

医療画像解析処理部は、画像認識部を含んでよい。 The medical image analysis processing section may include an image recognition section.

(付記2)
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 2)
The medical image analysis processing unit detects the presence or absence of an object of interest based on the pixel feature amount of the medical image, and the medical image analysis result acquisition unit acquires the analysis result of the medical image analysis processing unit Medical image processing. Device.

(付記3)
医療画像解析結果取得部は、医療画像の解析結果を記録する記録装置から取得し、解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、若しくは両方である医療画像処理装置。
(Appendix 3)
The medical image analysis result acquisition unit acquires the analysis result of the medical image from a recording device that records the analysis result. , or both.

(付記4)
医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
(Appendix 4)
A medical image processing apparatus in which the medical image is a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in the white band.

(付記5)
医療画像は、特定の波長帯域の光を照射して得た画像であり、特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
(Appendix 5)
A medical image processing apparatus in which a medical image is an image obtained by irradiating light of a specific wavelength band, and the specific wavelength band is a narrower band than the wavelength band of white.

(付記6)
特定の波長帯域は、可視域の青色若しくは、緑色帯域である医療画像処理装置。
(Appendix 6)
A medical image processing device in which the specific wavelength band is a visible blue or green band.

(付記7)
特定の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 7)
The specific wavelength band includes a wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less, and the light of the specific wavelength band has a peak wavelength within the wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less. Image processing device.

(付記8)
特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
(Appendix 8)
A medical image processing device in which the specific wavelength band is the visible red band.

(付記9)
特定の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 9)
The specific wavelength band includes a wavelength band of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less, and the light of the specific wavelength band has a peak wavelength within the wavelength band of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less. Image processing device.

(付記10)
特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 10)
The specific wavelength band includes a wavelength band in which oxyhemoglobin and reduced hemoglobin have different absorption coefficients, and the light in the specific wavelength band has a peak wavelength in the wavelength band in which oxidized hemoglobin and reduced hemoglobin have different absorption coefficients. Medical imaging equipment.

(付記11)
特定の波長帯域は、400±10nm、440±10nm、470±10nm、又は、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、又は、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 11)
The specific wavelength band includes a wavelength band of 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or a wavelength band of 600 nm or more and 750 nm or less, and the light in the specific wavelength band is 400 ± 10 nm, 440 ± 10 nm, 470 ± A medical image processing apparatus having a peak wavelength in a wavelength band of 10 nm or from 600 nm to 750 nm.

(付記12)
医療画像は生体内を写した生体内画像であり、生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
(Appendix 12)
A medical image is an in-vivo image of the inside of a living body, and the in-vivo image is a medical image processing apparatus having information on fluorescence emitted by fluorescent substances in the living body.

(付記13)
蛍光は、ピークが390nm以上470nm以下である励起光を生体内に照射して得る医療画像処理装置。
(Appendix 13)
Fluorescence is a medical image processing apparatus obtained by irradiating the living body with excitation light having a peak of 390 nm or more and 470 nm or less.

(付記14)
医療画像は生体内を写した生体内画像であり、特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
(Appendix 14)
A medical image processing apparatus in which the medical image is an in vivo image of the inside of a living body, and the specific wavelength band is the wavelength band of infrared light.

(付記15)
特定の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 15)
The specific wavelength band includes a wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less. processing equipment.

(付記16)
医療画像取得部は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、医療画像は特殊光画像である医療画像処理装置。
(Appendix 16)
The medical image acquisition unit acquires a special light image having information of a specific wavelength band based on a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band. A medical image processing apparatus comprising an optical image acquisition unit, wherein the medical image is a special optical image.

(付記17)
特定の波長帯域の信号は、通常光画像に含まれるRGB或いはCMYの色情報に基づく演算により得る医療画像処理装置。
(Appendix 17)
A medical image processing apparatus in which a signal in a specific wavelength band is obtained by calculation based on RGB or CMY color information normally included in an optical image.

(付記18)
白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、医療画像は特徴量画像である医療画像処理装置。
(Appendix 18)
By calculation based on at least one of a normal light image obtained by irradiating light of a plurality of wavelength bands as white band light or light of a white band, and a special light image obtained by irradiating light of a specific wavelength band, A medical image processing apparatus comprising a feature amount image generating unit for generating a feature amount image, wherein the medical image is the feature amount image.

(付記19)
付記1から付記18のいずれか1つに記載の医療画像処理装置と、白色の波長帯域の光、又は、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、を備える内視鏡装置。
(Appendix 19)
The medical image processing apparatus according to any one of appendices 1 to 18, and an endoscope that acquires an image by irradiating at least one of light in a white wavelength band and light in a specific wavelength band , an endoscopic device comprising:

(付記20)
付記1から付記18のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
(Appendix 20)
A diagnosis support apparatus comprising the medical image processing apparatus according to any one of appendices 1 to 18.

(付記21)
付記1から付記18のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
(Appendix 21)
A medical service support apparatus comprising the medical image processing apparatus according to any one of appendices 1 to 18.

[その他]
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、又は削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で同等関連分野の通常の知識を有する者により、多くの変形が可能である。
[others]
In the embodiments of the present invention described above, it is possible to appropriately change, add, or delete constituent elements without departing from the gist of the present invention. The present invention is not limited to the embodiments described above, and many modifications are possible within the technical concept of the present invention by those having ordinary knowledge in equivalent and related fields.

10 内視鏡システム
12 電子内視鏡
14 光源装置
16 プロセッサ装置
18 表示装置
19 入力装置
20 挿入部
22 先端硬質部
22A 先端面
24 湾曲部
26 軟性部
30 操作部
31 アングルノブ
32 送気送水ボタン
33 吸引ボタン
34 モード切替スイッチ
35 ズーム操作部
36 処置具導入口
40 ユニバーサルコード
42 コネクタ
42A ビデオコネクタ
42B ライトガイドコネクタ
42C 送水コネクタ
44 送水タンク
50 照明窓
52 観察窓
54 鉗子出口
56 送気送水用ノズル
60 対物光学系
62 撮像素子
64 アナログフロントエンド回路
65 タイミングジェネレータ
66 CPU
68 撮像チップ
70 CPU
72 ROM
74 RAM
76 デジタル信号処理回路
78 表示制御回路
100 第1光源
101 第1光源駆動回路
102 第2光源
103 第2光源駆動回路
105 合波部
120 ライトガイド
121 入射端
122 出射端
124 蛍光体
160 医療画像処理装置
162 画像取得部
164 可否判定部
164A 認識部
166 動き推定部
167 データベース
168 所作判定部
169 記憶部
170 分類部
172 報知制御部
174 報知部
182 病変
184 泡
200 医療情報管理システム
202 画像取込端末
204 画像保存サーバ
210 情報管理装置
218 表示装置
219 入力装置
230 電気通信回線
IM1、IM2、IM3 画像
IM(t) 現在の画像
IM(t-1) 過去画像
IM(t+1) 次のフレームの画像
S11~S22 医療画像処理装置における処理のステップ
10 endoscope system 12 electronic endoscope 14 light source device 16 processor device 18 display device 19 input device 20 insertion section 22 distal end rigid section 22A distal end surface 24 bending section 26 flexible section 30 operating section 31 angle knob 32 air/water supply button 33 Suction button 34 Mode changeover switch 35 Zoom operation unit 36 Treatment instrument introduction port 40 Universal cord 42 Connector 42A Video connector 42B Light guide connector 42C Water supply connector 44 Water supply tank 50 Illumination window 52 Observation window 54 Forceps outlet 56 Air/water supply nozzle 60 Objective Optical system 62 Image sensor 64 Analog front end circuit 65 Timing generator 66 CPU
68 imaging chip 70 CPU
72 ROMs
74 RAM
76 digital signal processing circuit 78 display control circuit 100 first light source 101 first light source drive circuit 102 second light source 103 second light source drive circuit 105 combiner 120 light guide 121 incident end 122 exit end 124 phosphor 160 medical image processing apparatus 162 Image acquisition unit 164 Availability determination unit 164A Recognition unit 166 Motion estimation unit 167 Database 168 Action determination unit 169 Storage unit 170 Classification unit 172 Notification control unit 174 Notification unit 182 Lesion 184 Bubble 200 Medical information management system 202 Image capture terminal 204 Image Storage server 210 Information management device 218 Display device 219 Input device 230 Electric communication lines IM1, IM2, IM3 Image IM(t) Current image IM(t−1) Past image IM(t+1) Next frame images S11 to S22 Medical Processing steps in the image processing device

Claims (19)

被写体像を含む時系列の複数のフレーム画像を取得する画像取得部と、
前記画像取得部から得られたフレーム画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上のフレーム画像から動き推定を行う動き推定部と、
前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、
前記画像取得部から得られたフレーム画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
を備え、
前記所作は、鑑別の所作を含み、
前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とが並行して実行され、
前記報知制御部は、前記所作判定部の判定結果が前記鑑別の所作に非該当のフレーム画像について、前記分類部の分類結果を非報知とし、
前記可否判定部が前記不適な画像であると判定したフレーム画像について、前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とを不実施とし、
前記分類処理が行われなかった場合に、前記報知制御部は、前記分類処理が起動していな旨を報知する情報を表示させる
医療画像処理装置。
an image acquisition unit that acquires a plurality of time-series frame images including a subject image;
a determination unit for determining whether the frame image obtained from the image acquisition unit is an image unsuitable for recognition;
a motion estimation unit that performs motion estimation from two or more frame images obtained from the image acquisition unit;
a motion determination unit that determines a user's motion based on the motion information obtained from the motion estimation unit;
a classification unit that recognizes the frame image obtained from the image acquisition unit and performs classification processing;
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit;
with
The behavior includes the behavior of identification,
the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are executed in parallel,
The notification control unit sets the classification result of the classification unit as non-notification for frame images for which the determination result of the behavior determination unit does not correspond to the behavior for discrimination,
With respect to the frame image determined by the propriety determination unit to be the inappropriate image, the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are not performed ,
When the classification process is not performed, the notification control unit displays information notifying that the classification process is not started.
Medical imaging equipment.
前記不適な画像は、被写体がボケている画像である請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the inappropriate image is an image in which the subject is blurred. 前記不適な画像は、被写体がブレている画像である請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the inappropriate image is an image in which a subject is blurred. 前記不適な画像は、被写体に水がかぶっている画像である請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the inappropriate image is an image in which the subject is covered with water. 前記不適な画像は、被写体に残渣がある画像である請求項1に記載の医療画像処理装置。 2. The medical image processing apparatus according to claim 1, wherein the inappropriate image is an image in which a subject has residue. 前記可否判定部は、前記画像取得部から得られたフレーム画像が認識に不適な画像であるか否かを認識する認識部を含む請求項1から5のいずれか一項に記載の医療画像処理装置。 The medical image processing according to any one of claims 1 to 5, wherein the propriety determination unit includes a recognition unit that recognizes whether the frame image obtained from the image acquisition unit is an image unsuitable for recognition. Device. 前記動き情報は、動きベクトルを含み、
前記所作判定部は、前記動きベクトルの大きさを基にユーザーの所作を判定する請求項1からのいずれか一項に記載の医療画像処理装置。
the motion information includes motion vectors;
The medical image processing apparatus according to any one of claims 1 to 6 , wherein the behavior determination unit determines the behavior of the user based on the magnitude of the motion vector.
前記所作判定部は、前記動き情報とユーザーの所作との対応関係が規定されたデータベースを用いて前記所作を判定する請求項1からのいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 7 , wherein the behavior determining unit determines the behavior using a database that defines a correspondence relationship between the movement information and user's behavior. 前記データベースを記憶しておく記憶部を備える請求項に記載の医療画像処理装置。 9. The medical image processing apparatus according to claim 8 , further comprising a storage unit for storing said database. 前記分類部は、前記画像取得部から得られたフレーム画像から病変の領域を認識し、かつ、前記病変のクラス分類を行う請求項1からのいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 9 , wherein the classification unit recognizes a lesion area from the frame image obtained from the image acquisition unit, and classifies the lesion into classes. 前記分類部は、畳み込みニューラルネットワークを用いて構成される請求項1から10のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 10 , wherein the classifier is configured using a convolutional neural network. 前記報知制御部の制御に基づき、前記分類部の分類結果を報知する報知部を備える請求項1から11のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 11 , further comprising a notification unit that notifies the classification result of the classification unit under the control of the notification control unit. 前記時系列の複数のフレーム画像の各々は、電子内視鏡を用いて撮影される内視鏡画像である請求項1から12のいずれか一項に記載の医療画像処理装置。 13. The medical image processing apparatus according to any one of claims 1 to 12 , wherein each of the plurality of time-series frame images is an endoscopic image captured using an electronic endoscope. 1つ以上のプロセッサを含む医療画像処理装置の作動方法であって、
前記1つ以上のプロセッサが、被写体像を含む時系列の複数のフレーム画像を取得する画像取得工程と、
前記1つ以上のプロセッサが、前記画像取得工程から得られたフレーム画像が認識に不適な画像であるか否かを判定する可否判定工程と、
前記1つ以上のプロセッサが、前記画像取得工程から得られた2つ以上のフレーム画像から動き推定を行う動き推定工程と、
前記1つ以上のプロセッサが、前記動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、
前記1つ以上のプロセッサが、前記画像取得工程から得られたフレーム画像を認識して分類処理を行う分類工程と、
前記1つ以上のプロセッサが、前記所作判定工程から得られた所作情報及び前記分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、
を含み、
前記所作は、鑑別の所作を含み、
前記動き推定工程及び前記所作判定工程における処理と、前記分類工程における前記分類処理とが並行して実行され、
前記報知制御工程は、前記所作判定工程の判定結果が前記鑑別の所作に非該当のフレーム画像について、前記分類工程の分類結果を非報知とし、
前記可否判定工程により前記不適な画像であると判定したフレーム画像について、前記動き推定工程及び前記所作判定工程における処理と、前記分類工程における前記分類処理とを不実施とし、
前記分類処理が行われなかった場合に、前記報知制御工程は、前記分類処理が起動していな旨を報知する情報を表示させる
医療画像処理装置の作動方法。
A method of operating a medical imaging device comprising one or more processors, comprising:
an image acquisition step in which the one or more processors acquire a plurality of time-series frame images including a subject image;
a propriety determination step in which the one or more processors determine whether or not the frame image obtained from the image acquisition step is an image unsuitable for recognition;
a motion estimation step in which the one or more processors perform motion estimation from two or more frame images obtained from the image acquisition step;
a gesture determination step in which the one or more processors determine a user's gesture based on the motion information obtained from the motion estimation step;
a classification step in which the one or more processors recognize and classify the frame images obtained from the image acquisition step;
a notification control step in which the one or more processors control notification information based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step;
including
The behavior includes the behavior of identification,
the processing in the motion estimation step and the gesture determination step and the classification processing in the classification step are performed in parallel,
The notification control step sets the classification result of the classification step as non-notification for frame images for which the determination result of the behavior determination step does not correspond to the behavior of the discrimination,
With respect to the frame image determined to be the inappropriate image in the propriety determination step, the processing in the motion estimation step and the movement determination step and the classification processing in the classification step are not performed ,
When the classification process is not performed, the notification control step displays information notifying that the classification process is not activated.
A method of operating a medical imaging device .
体腔内を撮影する電子内視鏡と、
前記電子内視鏡から得られる画像信号を処理するプロセッサ装置と、を含む内視鏡システムであって、
前記プロセッサ装置は、
前記電子内視鏡を用いて撮影された被写体像を含む時系列の複数のフレーム画像を取得する画像取得部と、
前記画像取得部から得られたフレーム画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上のフレーム画像から動き推定を行う動き推定部と、 前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、 前記画像取得部から得られたフレーム画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
を備え、
前記所作は、鑑別の所作を含み、
前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とが並行して実行され、
前記報知制御部は、前記所作判定部の判定結果が前記鑑別の所作に非該当のフレーム画像について、前記分類部の分類結果を非報知とし、
前記可否判定部が前記不適な画像であると判定したフレーム画像について、前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とを不実施とし、
前記分類処理が行われなかった場合に、前記報知制御部は、前記分類処理が起動していな旨を報知する情報を表示させる
内視鏡システム。
an electronic endoscope for imaging inside body cavities;
and a processor for processing image signals obtained from the electronic endoscope,
The processor device
an image acquisition unit configured to acquire a plurality of time-series frame images including a subject image captured using the electronic endoscope;
a determination unit for determining whether the frame image obtained from the image acquisition unit is an image unsuitable for recognition;
a motion estimation unit that estimates motion from two or more frame images obtained from the image acquisition unit; a behavior determination unit that determines a user's behavior based on the motion information obtained from the motion estimation unit; a classification unit that recognizes frame images obtained from the image acquisition unit and performs classification processing;
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit;
with
The behavior includes the behavior of identification,
the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are executed in parallel,
The notification control unit sets the classification result of the classification unit as non-notification for frame images for which the determination result of the behavior determination unit does not correspond to the behavior for discrimination,
With respect to the frame image determined by the propriety determination unit to be the inappropriate image, the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are not performed ,
When the classification process is not performed, the notification control unit displays information notifying that the classification process is not started.
endoscope system.
電子内視鏡から得られる画像信号を処理するプロセッサ装置であって、
前記電子内視鏡を用いて撮影された被写体像を含む時系列の複数のフレーム画像を取得する画像取得部と、
前記画像取得部から得られたフレーム画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上のフレーム画像から動き推定を行う動き推定部と、
前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、
前記画像取得部から得られたフレーム画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
を備え、
前記所作は、鑑別の所作を含み、
前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とが並行して実行され、
前記報知制御部は、前記所作判定部の判定結果が前記鑑別の所作に非該当のフレーム画像について、前記分類部の分類結果を非報知とし、
前記可否判定部が前記不適な画像であると判定したフレーム画像について、前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とを不実施とし、
前記分類処理が行われなかった場合に、前記報知制御部は、前記分類処理が起動していな旨を報知する情報を表示させる
プロセッサ装置。
A processor device for processing an image signal obtained from an electronic endoscope,
an image acquisition unit configured to acquire a plurality of time-series frame images including a subject image captured using the electronic endoscope;
a determination unit for determining whether the frame image obtained from the image acquisition unit is an image unsuitable for recognition;
a motion estimation unit that performs motion estimation from two or more frame images obtained from the image acquisition unit;
a motion determination unit that determines a user's motion based on the motion information obtained from the motion estimation unit;
a classification unit that recognizes the frame image obtained from the image acquisition unit and performs classification processing;
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit;
with
The behavior includes the behavior of identification,
the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are executed in parallel,
The notification control unit sets the classification result of the classification unit as non-notification for frame images for which the determination result of the behavior determination unit does not correspond to the behavior for discrimination,
With respect to the frame image determined by the propriety determination unit to be the inappropriate image, the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are not performed ,
When the classification process is not performed, the notification control unit displays information notifying that the classification process is not started.
processor unit.
被写体像を含む時系列の複数のフレーム画像を取得する画像取得部と、
前記画像取得部から得られたフレーム画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上のフレーム画像から動き推定を行う動き推定部と、
前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、
前記画像取得部から得られたフレーム画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
前記報知制御部の制御に基づき、前記分類部の分類結果を含む情報を報知する報知部と、
を備え、
前記所作は、鑑別の所作を含み、
前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とが並行して実行され、
前記報知制御部は、前記所作判定部の判定結果が前記鑑別の所作に非該当のフレーム画像について、前記分類部の分類結果を非報知とし、
前記可否判定部が前記不適な画像であると判定したフレーム画像について、前記動き推定部及び前記所作判定部における処理と、前記分類部における前記分類処理とを不実施とし、
前記分類処理が行われなかった場合に、前記報知制御部は、前記分類処理が起動していな旨を報知する情報を表示させる
診断支援装置。
an image acquisition unit that acquires a plurality of time-series frame images including a subject image;
a determination unit for determining whether the frame image obtained from the image acquisition unit is an image unsuitable for recognition;
a motion estimation unit that performs motion estimation from two or more frame images obtained from the image acquisition unit;
a motion determination unit that determines a user's motion based on the motion information obtained from the motion estimation unit;
a classification unit that recognizes the frame image obtained from the image acquisition unit and performs classification processing;
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit;
a notification unit that notifies information including the classification result of the classification unit under the control of the notification control unit;
with
The behavior includes the behavior of identification,
the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are executed in parallel,
The notification control unit sets the classification result of the classification unit as non-notification for frame images for which the determination result of the behavior determination unit does not correspond to the behavior for discrimination,
With respect to the frame image determined by the propriety determination unit to be the inappropriate image, the processing in the motion estimation unit and the movement determination unit and the classification processing in the classification unit are not performed ,
When the classification process is not performed, the notification control unit displays information notifying that the classification process is not started.
Diagnostic support device.
コンピュータに、
被写体像を含む時系列の複数のフレーム画像を取得する画像取得工程と、
前記画像取得工程から得られたフレーム画像が認識に不適な画像であるか否かを判定する可否判定工程と、
前記画像取得工程から得られた2つ以上のフレーム画像から動き推定を行う動き推定工程と、
前記動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、
前記画像取得工程から得られたフレーム画像を認識して分類処理を行う分類工程と、
前記所作判定工程から得られた所作情報及び前記分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、
を実行させ、
前記所作は、鑑別の所作を含み、
前記動き推定工程及び前記所作判定工程における処理と、前記分類工程における前記分類処理とが並行して実行され、
前記報知制御工程は、前記所作判定工程の判定結果が前記鑑別の所作に非該当のフレーム画像について、前記分類工程の分類結果を非報知とし、
前記可否判定工程により前記不適な画像であると判定したフレーム画像について、前記動き推定工程及び前記所作判定工程における処理と、前記分類工程における前記分類処理とを不実施とし、
前記分類処理が行われなかった場合に、前記報知制御工程は、前記分類処理が起動していな旨を報知する情報を表示させる
プログラム。
to the computer,
an image acquisition step of acquiring a plurality of time-series frame images including a subject image;
a propriety determination step of determining whether or not the frame image obtained from the image acquisition step is an image unsuitable for recognition;
A motion estimation step of estimating motion from two or more frame images obtained from the image acquisition step;
a motion determination step of determining a user's motion based on the motion information obtained from the motion estimation step;
a classification step of recognizing and classifying the frame image obtained from the image acquisition step;
a notification control step of controlling notification information based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step;
and
The behavior includes the behavior of identification,
the processing in the motion estimation step and the gesture determination step, and the classification processing in the classification step are performed in parallel,
The notification control step sets the classification result of the classification step as non-notification for frame images for which the determination result of the behavior determination step does not correspond to the behavior of the discrimination,
With respect to the frame image determined to be the inappropriate image in the propriety determination step, the processing in the motion estimation step and the movement determination step and the classification processing in the classification step are not performed ,
When the classification process is not performed, the notification control step displays information notifying that the classification process is not started.
program.
非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
被写体像を含む時系列の複数のフレーム画像を取得する画像取得工程と、
前記画像取得工程から得られたフレーム画像が認識に不適な画像であるか否かを判定する可否判定工程と、
前記画像取得工程から得られた2つ以上のフレーム画像から動き推定を行う動き推定工程と、
前記動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、
前記画像取得工程から得られたフレーム画像を認識して分類処理を行う分類工程と、
前記所作判定工程から得られた所作情報及び前記分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、
をコンピュータに実行させ、
前記所作は、鑑別の所作を含み、
前記動き推定工程及び前記所作判定工程における処理と、前記分類工程における前記分類処理とが並行して実行され、
前記報知制御工程は、前記所作判定工程の判定結果が前記鑑別の所作に非該当のフレーム画像について、前記分類工程の分類結果を非報知とし、
前記可否判定工程により前記不適な画像であると判定したフレーム画像について、前記動き推定工程及び前記所作判定工程における処理と、前記分類工程における前記分類処理とを不実施とし、
前記分類処理が行われなかった場合に、前記報知制御工程は、前記分類処理が起動していな旨を報知する情報を表示させる
記憶媒体。
A non-transitory computer-readable storage medium, wherein when instructions stored on the storage medium are read by a computer,
an image acquisition step of acquiring a plurality of time-series frame images including a subject image;
a propriety determination step of determining whether or not the frame image obtained from the image acquisition step is an image unsuitable for recognition;
A motion estimation step of estimating motion from two or more frame images obtained from the image acquisition step;
a motion determination step of determining a user's motion based on the motion information obtained from the motion estimation step;
a classification step of recognizing and classifying the frame image obtained from the image acquisition step;
a notification control step of controlling notification information based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step;
on the computer, and
The behavior includes the behavior of identification,
the processing in the motion estimation step and the gesture determination step, and the classification processing in the classification step are performed in parallel,
The notification control step sets the classification result of the classification step as non-notification for frame images for which the determination result of the behavior determination step does not correspond to the behavior of the discrimination,
With respect to the frame image determined to be the inappropriate image in the propriety determination step, the processing in the motion estimation step and the movement determination step and the classification processing in the classification step are not performed ,
When the classification process is not performed, the notification control step displays information notifying that the classification process is not started.
storage medium.
JP2020545949A 2018-09-11 2019-09-04 MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM Active JP7326308B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018170038 2018-09-11
JP2018170038 2018-09-11
PCT/JP2019/034791 WO2020054543A1 (en) 2018-09-11 2019-09-04 Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program

Publications (2)

Publication Number Publication Date
JPWO2020054543A1 JPWO2020054543A1 (en) 2021-08-30
JP7326308B2 true JP7326308B2 (en) 2023-08-15

Family

ID=69777592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020545949A Active JP7326308B2 (en) 2018-09-11 2019-09-04 MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM

Country Status (2)

Country Link
JP (1) JP7326308B2 (en)
WO (1) WO2020054543A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021199961A1 (en) * 2020-03-30 2021-10-07
JP7478245B2 (en) * 2020-09-24 2024-05-02 富士フイルム株式会社 Medical imaging device and method of operation thereof
JPWO2022163514A1 (en) * 2021-01-27 2022-08-04
WO2023026538A1 (en) * 2021-08-27 2023-03-02 ソニーグループ株式会社 Medical assistance system, medical assistance method, and evaluation assistance device
WO2023053991A1 (en) * 2021-09-30 2023-04-06 富士フイルム株式会社 Medical image processing device, method for operating medical image processing device, and medical image processing device program
WO2024166731A1 (en) * 2023-02-07 2024-08-15 富士フイルム株式会社 Image processing device, endoscope, image processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014188222A (en) 2013-03-27 2014-10-06 Olympus Corp Image processor, endoscope device, program and image processing method
JP2015146970A (en) 2014-02-07 2015-08-20 国立大学法人広島大学 Endoscope image diagnosis support system
JP2016158682A (en) 2015-02-27 2016-09-05 Hoya株式会社 Image processing device
JP2017158628A (en) 2016-03-07 2017-09-14 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
WO2018105063A1 (en) 2016-12-07 2018-06-14 オリンパス株式会社 Image processing device
US20180225820A1 (en) 2015-08-07 2018-08-09 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
WO2018159461A1 (en) 2017-03-03 2018-09-07 富士フイルム株式会社 Endoscope system, processor device, and method of operating endoscope system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2054852B1 (en) * 2006-08-21 2010-06-23 STI Medical Systems, LLC Computer aided analysis using video from endoscopes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014188222A (en) 2013-03-27 2014-10-06 Olympus Corp Image processor, endoscope device, program and image processing method
JP2015146970A (en) 2014-02-07 2015-08-20 国立大学法人広島大学 Endoscope image diagnosis support system
JP2016158682A (en) 2015-02-27 2016-09-05 Hoya株式会社 Image processing device
US20180225820A1 (en) 2015-08-07 2018-08-09 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
JP2017158628A (en) 2016-03-07 2017-09-14 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
WO2018105063A1 (en) 2016-12-07 2018-06-14 オリンパス株式会社 Image processing device
WO2018159461A1 (en) 2017-03-03 2018-09-07 富士フイルム株式会社 Endoscope system, processor device, and method of operating endoscope system

Also Published As

Publication number Publication date
WO2020054543A1 (en) 2020-03-19
JPWO2020054543A1 (en) 2021-08-30

Similar Documents

Publication Publication Date Title
JP7326308B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM
JP7383105B2 (en) Medical image processing equipment and endoscope systems
JP7346285B2 (en) Medical image processing device, endoscope system, operating method and program for medical image processing device
JP6890184B2 (en) Medical image processing equipment and medical image processing program
CN111936032B (en) Image processing device, endoscope system, and image processing method
JP7289373B2 (en) Medical image processing device, endoscope system, diagnosis support method and program
JP2010172673A (en) Endoscope system, processor for endoscope, and endoscopy aiding method
JP6941233B2 (en) Image processing equipment, endoscopic system, and image processing method
JP6949999B2 (en) Image processing equipment, endoscopic systems, image processing methods, programs and recording media
WO2020162275A1 (en) Medical image processing device, endoscope system, and medical image processing method
CN112367896A (en) Medical image processing apparatus, medical image processing system, medical image processing method, and program
US20200170484A1 (en) Diagnosis support system, endoscope system, processor and diagnosis support method
JP7387859B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
JP2023115352A (en) Medical image processing apparatus, medical image processing system, operation method of medical image processing apparatus and medical image processing program
US20210366593A1 (en) Medical image processing apparatus and medical image processing method
JP2023026480A (en) Medical image processing device, endoscope system, and operation method of medical image processing device
JP7289241B2 (en) Filing device, filing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150