JPWO2020054543A1 - Medical image processing equipment and methods, endoscopic systems, processor equipment, diagnostic support equipment and programs - Google Patents

Medical image processing equipment and methods, endoscopic systems, processor equipment, diagnostic support equipment and programs Download PDF

Info

Publication number
JPWO2020054543A1
JPWO2020054543A1 JP2020545949A JP2020545949A JPWO2020054543A1 JP WO2020054543 A1 JPWO2020054543 A1 JP WO2020054543A1 JP 2020545949 A JP2020545949 A JP 2020545949A JP 2020545949 A JP2020545949 A JP 2020545949A JP WO2020054543 A1 JPWO2020054543 A1 JP WO2020054543A1
Authority
JP
Japan
Prior art keywords
image
unit
classification
behavior
image acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020545949A
Other languages
Japanese (ja)
Other versions
JP7326308B2 (en
Inventor
星矢 竹之内
星矢 竹之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020054543A1 publication Critical patent/JPWO2020054543A1/en
Application granted granted Critical
Publication of JP7326308B2 publication Critical patent/JP7326308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

ユーザーによる画像の観察を阻害せず、かつ観察の際に要するユーザーの注意力を損ねずに、診断を支援することができる医療画像処理装置及び方法、内視鏡システム、診断支援装置、並びにプログラムを提供する。医療画像処理装置(160)は、被写体像を含む時系列の複数の画像を取得する画像取得部(162)と、得られた画像が認識に不適な画像であるか否かを判定する可否判定部(164)と、2つ以上の画像から動き推定を行う動き推定部(166)と、動き情報を基にユーザーの所作を判定する所作判定部(168)と、画像を認識して分類処理を行う分類部(170)と、所作判定部(168)から得られた所作情報及び分類部(170)から得られた分類結果を基に、報知情報を制御する報知制御部(172)と、を備える。Medical image processing devices and methods, endoscopic systems, diagnostic support devices, and programs that can support diagnosis without disturbing the user's observation of images and without impairing the user's attention required for observation. I will provide a. The medical image processing device (160) has an image acquisition unit (162) that acquires a plurality of time-series images including a subject image, and a determination as to whether or not the obtained image is an image unsuitable for recognition. A unit (164), a motion estimation unit (166) that estimates motion from two or more images, a behavior determination unit (168) that determines a user's behavior based on motion information, and a classification process that recognizes images. A notification control unit (172) that controls notification information based on the behavior information obtained from the behavior determination unit (168) and the classification result obtained from the classification unit (170). To be equipped.

Description

本発明は、医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラムに係り、特に、時系列の医療画像を処理することにより、診断を支援する情報を提供する画像処理技術に関する。 The present invention relates to medical image processing devices and methods, endoscopic systems, processor devices, diagnostic support devices and programs, and in particular, image processing that provides information that supports diagnosis by processing time-series medical images. Regarding technology.

医療分野において、内視鏡システムを用いた検査が行われている。近年は画像解析の技術を用いることにより、医療画像に含まれる病変の認識を行うシステムが知られている。特許文献1及び特許文献2に示されているように、内視鏡システムにおいて、スコープの先端にあるカメラを用いて体腔を撮影し、得られた観察画像に対して、プロセッサ装置が認識処理を行い、認識結果をユーザーに報知することがある。ユーザーは、報知された認識結果に応じて適切な処置を講じることができる。 In the medical field, examinations using an endoscopic system are performed. In recent years, a system for recognizing a lesion contained in a medical image by using an image analysis technique has been known. As shown in Patent Document 1 and Patent Document 2, in an endoscopic system, a body cavity is photographed using a camera at the tip of a scope, and a processor device performs recognition processing on the obtained observation image. It may be done and the recognition result may be notified to the user. The user can take appropriate measures according to the notified recognition result.

例えば、病変が撮影されている場合であれば、プロセッサ装置は、画像解析を行うことによって画像から病変の領域を認識し、かつ、癌性であるか非癌性であるかを認識して、認識結果をユーザーに報知する。ユーザーは報知された情報を参考にして、病変を更に詳細に観察し、癌性であると判断できた際には、病変を切除するなどの処置を講じることができる。このような機能を持つシステムは、医師などによる診断所見などの意思決定を支援する。 For example, if the lesion has been imaged, the processor device recognizes the area of the lesion from the image by performing image analysis and recognizes whether it is cancerous or non-cancerous. Notify the user of the recognition result. The user can observe the lesion in more detail by referring to the notified information, and when it is determined that the lesion is cancerous, the user can take measures such as excising the lesion. A system having such a function supports decision-making such as diagnostic findings by doctors and the like.

特許第6150554号公報Japanese Patent No. 6150554 国際公開第2017/002184号International Publication No. 2017/002184 特公平7−27481号公報Special Fair 7-27481

上述した内視鏡システムのような診断支援機能において、非癌性の病変を癌性と誤認識したり、又は、癌性の病変を非癌性と誤認識したりして、誤った認識結果をユーザーに報知することは問題である。しかし、内視鏡検査においては、スコープの操作、胎動、又は残渣などにより病変の部位が隠れたり、観察画像がぼけたりすることがあり、画像解析によって病変の認識を正確に行うことが困難な場合がある。 In the diagnostic support function such as the endoscopic system described above, a non-cancerous lesion is mistakenly recognized as cancerous, or a cancerous lesion is mistakenly recognized as non-cancerous, resulting in an erroneous recognition result. Is a problem to inform the user. However, in endoscopy, the lesion site may be hidden or the observed image may be blurred due to the operation of the scope, fetal movement, or residue, and it is difficult to accurately recognize the lesion by image analysis. In some cases.

そのような場合には、例えば、特許文献3に記載されているように、異常を検出した際に通常の画像表示から異常メッセージの表示に切り替える異常表示処理方式の技術を応用して、画像認識には不適な画像であることを報知することが考えられる。 In such a case, for example, as described in Patent Document 3, image recognition is applied by applying a technique of an abnormality display processing method that switches from a normal image display to an abnormality message display when an abnormality is detected. It is conceivable to notify that the image is unsuitable for.

しかし、内視鏡操作は複雑であり、ユーザーはスコープの操作と観察画像の確認などを並行して行う必要がある。診断支援機能による認識結果の報知は、ユーザーの鑑別作業を効率化する一方で、例えば、画像を観察しているユーザーに病変を鑑別する意図が無いような場合でも画像認識の結果が報知されると、却ってユーザーの注意力を損ない、観察の阻害に繋がり、また別の病変領域などの注目領域の見落としに繋がるおそれがある。 However, the operation of the endoscope is complicated, and the user needs to operate the scope and check the observed image in parallel. The notification of the recognition result by the diagnosis support function streamlines the user's discrimination work, and at the same time, the image recognition result is notified even when the user who is observing the image does not intend to discriminate the lesion, for example. On the contrary, it may impair the user's attention, lead to obstruction of observation, and may lead to oversight of a region of interest such as another lesion region.

かかる課題は、内視鏡システムに限らず、超音波診断装置など、時系列に撮影される医療画像を処理して支援を行うシステムについて共通する課題である。 This problem is not limited to endoscopic systems, but is a common problem for systems that process and support medical images taken in time series, such as ultrasonic diagnostic equipment.

本発明はこのような事情に鑑みてなされたものであり、ユーザーによる画像の観察を阻害せず、かつ観察の際に要するユーザーの注意力を損ねずに、診断を支援することができる医療画像処理装置及び方法、内視鏡システム、診断支援装置、並びにプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is a medical image capable of supporting diagnosis without hindering the user's observation of the image and without impairing the user's attention required for the observation. It is an object of the present invention to provide processing devices and methods, endoscopic systems, diagnostic support devices, and programs.

本開示の一態様に係る医療画像処理装置は、被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、を備える。 The medical image processing apparatus according to one aspect of the present disclosure includes an image acquisition unit that acquires a plurality of time-series images including a subject image, and whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition. Based on the motion estimation unit that estimates motion from two or more images obtained from the image acquisition unit and the motion estimation unit, and the motion information obtained from the motion estimation unit, the action of determining the user's behavior. The notification information is controlled based on the judgment unit, the classification unit that recognizes the image obtained from the image acquisition unit and performs the classification process, the behavior information obtained from the behavior judgment unit, and the classification result obtained from the classification unit. The notification control unit is provided.

本態様に係る医療画像処理装置によれば、取得された画像からユーザーの所作を判定し、その所作の意図に合わせた形で画像認識による分類結果の報知、又は、非報知などの支援を行うことができる。また、本態様によれば、認識に不適な画像について分類結果の報知を回避するなどの対応が可能となり、誤った情報が提供されてしまうことを抑制でき、時系列の画像群の中で精度の高い分類結果の情報を提供することができる。 According to the medical image processing device according to this aspect, the user's behavior is determined from the acquired image, and the classification result is notified or non-notified by image recognition in a form according to the intention of the behavior. be able to. In addition, according to this aspect, it is possible to take measures such as avoiding notification of the classification result for images that are unsuitable for recognition, and it is possible to suppress the provision of erroneous information, and the accuracy in the time-series image group. It is possible to provide information on high classification results.

時系列の複数の画像は、動画であってもよいし、連写若しくはインターバル撮影などのように、特定の時間間隔で撮影される画像群であってもよい。また、時系列による撮影の時間間隔は必ずしも一定でなくてもよい。 The plurality of images in the time series may be moving images, or may be a group of images taken at specific time intervals such as continuous shooting or interval shooting. In addition, the time interval of shooting in chronological order does not necessarily have to be constant.

医療画像処理装置は、単一の装置として構成されてもよいし、複数の装置を組み合わせて構成されてもよい。例えば、医療画像処理装置は、1台又は複数台のコンピュータを用いて実現し得る。「装置」は、「システム」及び「モジュール」の概念を含む。 The medical image processing device may be configured as a single device, or may be configured by combining a plurality of devices. For example, a medical image processing apparatus can be realized by using one or a plurality of computers. "Device" includes the concepts of "system" and "module".

「不適な画像」は、例えば、被写体がボケている画像、被写体がブレている画像、被写体に水がかぶっている画像、又は、被写体に残渣がある画像のいずれかであってよい。 The "inappropriate image" may be, for example, an image in which the subject is blurred, an image in which the subject is blurred, an image in which the subject is covered with water, or an image in which the subject has a residue.

本開示の他の態様に係る医療画像処理装置において、可否判定部は、画像取得部から得られた画像が認識に不適な画像であるか否かを認識する認識部を含む構成であってよい。 In the medical image processing apparatus according to another aspect of the present disclosure, the pass / fail determination unit may include a recognition unit that recognizes whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition. ..

「認識」という用語は、識別、判別、推論、推定、検出、分類、及び領域抽出などの概念を含む。「認識部」は、認識器、識別器、判別器、検出器、分類器及び認識モデルなどの概念を含む。「認識モデル」は、例えば、機械学習によって認識性能を獲得した学習済みモデルであってよい。 The term "recognition" includes concepts such as identification, discrimination, reasoning, estimation, detection, classification, and region extraction. The "recognition unit" includes concepts such as a recognizer, a classifier, a discriminator, a detector, a classifier, and a recognition model. The "recognition model" may be, for example, a trained model whose recognition performance has been acquired by machine learning.

本開示の更に他の態様に係る医療画像処理装置において、可否判定部が不適な画像であると判定した画像について、動き推定部及び所作判定部における処理を不実施とする構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the motion estimation unit and the behavior determination unit may not perform the processing on the image determined by the admissibility determination unit to be an inappropriate image.

本開示の更に他の態様に係る医療画像処理装置において、可否判定部が不適な画像であると判定した画像について、分類部における分類処理を不実施とする構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the classification process of the image determined by the pass / fail determination unit to be an inappropriate image may not be performed by the classification unit.

かかる態様によれば、不正確な分類結果の提供を回避することができる。 According to such an embodiment, it is possible to avoid providing an inaccurate classification result.

本開示の更に他の態様に係る医療画像処理装置において、動き情報は、動きベクトルを含み、所作判定部は、動きベクトルの大きさを基にユーザーの所作を判定する構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the motion information may include a motion vector, and the motion determination unit may be configured to determine the user's motion based on the magnitude of the motion vector.

本開示の更に他の態様に係る医療画像処理装置において、所作判定部は、動き情報とユーザーの所作との対応関係が規定されたデータベースを用いて所作を判定する構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the behavior determination unit may be configured to determine the behavior using a database in which the correspondence between the motion information and the user's behavior is defined.

本開示の更に他の態様に係る医療画像処理装置において、データベースを記憶しておく記憶部を備える構成であってよい。 The medical image processing apparatus according to still another aspect of the present disclosure may be configured to include a storage unit for storing a database.

本開示の更に他の態様に係る医療画像処理装置において、所作は、鑑別の所作を含む構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the action may be configured to include a differential action.

本開示の更に他の態様に係る医療画像処理装置において、報知制御部は、所作判定部の判定結果が鑑別の所作に非該当の画像について、分類部の分類結果を非報知とする構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the notification control unit has a configuration in which the classification result of the classification unit is not notified for an image whose judgment result of the behavior determination unit does not correspond to the behavior of discrimination. It's okay.

本開示の更に他の態様に係る医療画像処理装置において、分類部は、画像取得部から得られた画像から病変の領域を認識し、かつ、病変のクラス分類を行う構成であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the classification unit may be configured to recognize the region of the lesion from the image obtained from the image acquisition unit and classify the lesion.

本開示の更に他の態様に係る医療画像処理装置において、分類部は、畳み込みニューラルネットワークを用いて構成されてよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, the classification unit may be configured by using a convolutional neural network.

本開示の更に他の態様に係る医療画像処理装置において、報知制御部の制御に基づき、分類部の分類結果を報知する報知部を備える構成であってよい。 The medical image processing apparatus according to still another aspect of the present disclosure may be configured to include a notification unit that notifies the classification result of the classification unit based on the control of the notification control unit.

本開示の更に他の態様に係る医療画像処理装置において、時系列の複数の画像の各々は、電子内視鏡を用いて撮影される内視鏡画像であってよい。 In the medical image processing apparatus according to still another aspect of the present disclosure, each of the plurality of images in the time series may be an endoscopic image taken by using an electronic endoscope.

本開示の更に他の態様に係る医療画像処理方法は、被写体像を含む時系列の複数の画像を取得する画像取得工程と、画像取得工程から得られた画像が認識に不適な画像であるか否かを判定する可否判定工程と、画像取得工程から得られた2つ以上の画像から動き推定を行う動き推定工程と、動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、画像取得工程から得られた画像を認識して分類処理を行う分類工程と、所作判定工程から得られた所作情報及び分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、を含む。 The medical image processing method according to still another aspect of the present disclosure includes an image acquisition step of acquiring a plurality of time-series images including a subject image, and whether the image obtained from the image acquisition step is an image unsuitable for recognition. The user's behavior is determined based on the motion estimation process that determines whether or not the motion is valid, the motion estimation process that estimates the motion from two or more images obtained from the image acquisition process, and the motion information obtained from the motion estimation process. Notification information based on the behavior determination process, the classification process that recognizes the image obtained from the image acquisition process and performs the classification process, the behavior information obtained from the behavior determination process, and the classification result obtained from the classification process. The notification control step for controlling the above is included.

本態様の医療画像処理方法において、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。その場合、医療画像処理装置において特定される処理や動作を担う手段としての処理部や機能部の要素は、これに対応する処理や動作の工程(ステップ)の要素として把握することができる。また、本態様の医療画像処理方法は、医療画像処理装置の作動方法と理解することができる。 In the medical image processing method of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined. In that case, the elements of the processing unit and the functional unit as means for carrying out the processing and operation specified in the medical image processing apparatus can be grasped as the elements of the corresponding processing and operation processes (steps). Further, the medical image processing method of this aspect can be understood as an operation method of the medical image processing device.

本開示の更に他の態様に係る内視鏡システムは、体腔内を撮影する電子内視鏡と、電子内視鏡から得られる画像信号を処理するプロセッサ装置と、を含む内視鏡システムであって、プロセッサ装置は、電子内視鏡を用いて撮影された被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、を備える。 The endoscopic system according to still another aspect of the present disclosure is an endoscopic system including an electronic endoscope that images the inside of a body cavity and a processor device that processes an image signal obtained from the electronic endoscope. The processor device is an image acquisition unit that acquires a plurality of time-series images including a subject image taken by using an electronic endoscope, and an image obtained from the image acquisition unit is an image that is unsuitable for recognition. Based on the motion estimation unit that determines whether or not it is possible, the motion estimation unit that estimates motion from two or more images obtained from the image acquisition unit, and the motion information obtained from the motion estimation unit, the user's actions are taken. Notification based on the behavior judgment unit to be determined, the classification unit that recognizes the image obtained from the image acquisition unit and performs classification processing, the behavior information obtained from the behavior judgment unit, and the classification result obtained from the classification unit. It includes a notification control unit that controls information.

本態様の内視鏡システムにおいて、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。 In the endoscope system of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined.

本開示の更に他の態様に係るプロセッサ装置は、電子内視鏡から得られる画像信号を処理するプロセッサ装置であって、電子内視鏡を用いて撮影された被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、を備える。 The processor device according to still another aspect of the present disclosure is a processor device that processes an image signal obtained from an electronic endoscope, and is a plurality of time series including a subject image taken by the electronic endoscope. An image acquisition unit that acquires an image, a pass / fail determination unit that determines whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition, and a motion from two or more images obtained from the image acquisition unit. A motion estimation unit that performs estimation, a behavior determination unit that determines the user's behavior based on the motion information obtained from the motion estimation unit, and a classification unit that recognizes the image obtained from the image acquisition unit and performs classification processing. And a notification control unit that controls the notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit.

本態様のプロセッサ装置において、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。 In the processor device of this embodiment, the same items as those specified in each aspect of the medical image processing device described above can be appropriately combined.

本開示の更に他の態様に係る診断支援装置は、被写体像を含む時系列の複数の画像を取得する画像取得部と、画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、画像取得部から得られた画像を認識して分類処理を行う分類部と、所作判定部から得られた所作情報及び分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、報知制御部の制御に基づき、分類部の分類結果を含む情報を報知する報知部と、を備える。 The diagnostic support device according to still another aspect of the present disclosure includes an image acquisition unit that acquires a plurality of time-series images including a subject image, and whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition. The user's behavior is determined based on the motion estimation unit that estimates the motion from two or more images obtained from the image acquisition unit and the motion information obtained from the motion estimation unit. Notification information is provided based on the behavior determination unit, the classification unit that recognizes the image obtained from the image acquisition unit and performs classification processing, the behavior information obtained from the behavior determination unit, and the classification result obtained from the classification unit. A notification control unit for controlling and a notification unit for notifying information including the classification result of the classification unit based on the control of the notification control unit are provided.

本態様の診断支援装置において、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。分類部の分類結果を表示する表示部は、報知部の一形態となり得る。 In the diagnostic support device of this aspect, the same items as those specified in each aspect of the medical image processing device described above can be appropriately combined. The display unit that displays the classification result of the classification unit can be a form of the notification unit.

本開示の更に他の態様に係るプログラムは、コンピュータに、被写体像を含む時系列の複数の画像を取得する画像取得工程と、画像取得工程から得られた画像が認識に不適な画像であるか否かを判定する可否判定工程と、画像取得工程から得られた2つ以上の画像から動き推定を行う動き推定工程と、動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、画像取得工程から得られた画像を認識して分類処理を行う分類工程と、所作判定工程から得られた所作情報及び分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、を実行させる。 The program according to still another aspect of the present disclosure includes an image acquisition step of acquiring a plurality of time-series images including a subject image on a computer, and whether the image obtained from the image acquisition step is an image unsuitable for recognition. The user's behavior is determined based on the motion estimation process that determines whether or not the motion is valid, the motion estimation process that estimates the motion from two or more images obtained from the image acquisition process, and the motion information obtained from the motion estimation process. Notification information based on the behavior determination process, the classification process that recognizes the image obtained from the image acquisition process and performs the classification process, the behavior information obtained from the behavior determination process, and the classification result obtained from the classification process. The notification control process for controlling the above is executed.

本態様のプログラムにおいて、上述した医療画像処理装置の各態様にて特定した事項と同様の事項を適宜組み合わせることができる。その場合、医療画像処理装置において特定される処理や動作を担う手段としての処理部や機能部の要素は、これに対応する処理や動作の工程若しくは機能を実現するプログラム要素として把握することができる。 In the program of this aspect, the same items as those specified in each aspect of the medical image processing apparatus described above can be appropriately combined. In that case, the elements of the processing unit and the functional unit as means for carrying out the processing and operation specified in the medical image processing apparatus can be grasped as program elements that realize the processes or functions of the corresponding processing and operation. ..

本発明によれば、時系列の画像からユーザーの所作を判定し、得られた所作情報を基に報知情報を制御するため、ユーザーの所作に合わせた支援を実現することが可能である。本発明によれば、ユーザーによる画像の観察を阻害せずに、かつ観察の際に要するユーザーの注意力を損ねることなく、画像の分類結果などの有益な支援情報を提供することができる。 According to the present invention, since the user's behavior is determined from the time-series images and the notification information is controlled based on the obtained behavior information, it is possible to realize support according to the user's behavior. According to the present invention, it is possible to provide useful support information such as an image classification result without hindering the user's observation of the image and without impairing the user's attention required for the observation.

図1は、本発明の実施形態に係る内視鏡システムの概略構成を示した全体構成図である。FIG. 1 is an overall configuration diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention. 図2は、電子内視鏡の先端硬質部の先端面を示した正面図である。FIG. 2 is a front view showing the tip surface of the tip rigid portion of the electronic endoscope. 図3は、内視鏡システムの制御系を示したブロック図である。FIG. 3 is a block diagram showing a control system of the endoscopic system. 図4は、本発明の第1実施形態に係る医療画像処理装置の機能を示すブロック図である。FIG. 4 is a block diagram showing a function of the medical image processing apparatus according to the first embodiment of the present invention. 図5は、病変が映っていない画像の例である。FIG. 5 is an example of an image in which no lesion is shown. 図6は、ピントずれによって病変がボケている画像の例である。FIG. 6 is an example of an image in which the lesion is out of focus due to out of focus. 図7は、動きブレによって病変がボケている画像の例である。FIG. 7 is an example of an image in which the lesion is blurred due to motion blur. 図8は、時系列で得られる3枚の画像群の例である。FIG. 8 is an example of three image groups obtained in chronological order. 図9は、画像の動きが小さい場合の画像例である。FIG. 9 is an image example when the movement of the image is small. 図10は、画像の動きが大きい場合の画像例である。FIG. 10 is an image example when the movement of the image is large. 図11は、動き情報とユーザーの所作との対応関係を規定したデータベースの例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of a database that defines the correspondence between motion information and user behavior. 図12は、分類部から得られる分類結果の報知例を示す図である。FIG. 12 is a diagram showing an example of notification of the classification result obtained from the classification unit. 図13は、分類結果を非報知とした場合の報知例を示す図である。FIG. 13 is a diagram showing an example of notification when the classification result is not notified. 図14は、分類処理が起動していない旨を報知する情報を提示する報知例を示す図である。FIG. 14 is a diagram showing an example of notification that presents information for notifying that the classification process has not been activated. 図15は、第1実施形態に係る医療画像処理装置の動作の例を示すフローチャートである。FIG. 15 is a flowchart showing an example of the operation of the medical image processing apparatus according to the first embodiment. 図16は、第2実施形態に係る医療情報管理システムの構成例を示すブロック図である。FIG. 16 is a block diagram showing a configuration example of the medical information management system according to the second embodiment.

以下、添付図面に従って本発明の好ましい実施形態について詳説する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

《内視鏡システムの構成例》
図1は、本発明の実施形態に係る内視鏡システムの概略構成を示した全体構成図である。内視鏡システム10は、電子内視鏡12と、光源装置14と、プロセッサ装置16と、を含む。プロセッサ装置16には、表示装置18と入力装置19とが接続される。電子内視鏡12は、「スコープ」、「電子スコープ」、或いは単に「内視鏡」と呼ばれる場合がある。
<< Configuration example of endoscopic system >>
FIG. 1 is an overall configuration diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention. The endoscope system 10 includes an electronic endoscope 12, a light source device 14, and a processor device 16. A display device 18 and an input device 19 are connected to the processor device 16. The electronic endoscope 12 may be referred to as a "scope", an "electronic scope", or simply an "endoscope".

本例の電子内視鏡12は、軟性内視鏡である。電子内視鏡12は、挿入部20と、操作部30と、ユニバーサルコード40と、を備えている。挿入部20は、検査対象者の体腔内に挿入される部分である。挿入部20は、先端側から順に、手元側に向かって、先端硬質部22、湾曲部24、及び軟性部26を含んで構成される。先端硬質部22の内部には、照明光学系と対物光学系と撮像素子等が配置されている。湾曲部24は、アングルノブ31の操作に応じて、基準の位置から上下左右の4方向へ円滑に曲がる構造になっている。軟性部26の手元側を挿入部20の基端部という。 The electronic endoscope 12 of this example is a flexible endoscope. The electronic endoscope 12 includes an insertion unit 20, an operation unit 30, and a universal cord 40. The insertion portion 20 is a portion to be inserted into the body cavity of the subject to be inspected. The insertion portion 20 includes a tip hard portion 22, a curved portion 24, and a soft portion 26 in order from the tip side toward the hand side. An illumination optical system, an objective optical system, an image sensor, and the like are arranged inside the hard tip portion 22. The curved portion 24 has a structure that smoothly bends in four directions of up, down, left, and right from the reference position according to the operation of the angle knob 31. The hand side of the flexible portion 26 is referred to as the base end portion of the insertion portion 20.

操作部30は、挿入部20の基端部に設けられている。操作部30は、術者によって操作される各種操作部材を含む。例えば、操作部30には、湾曲部24の湾曲操作に用いられるアングルノブ31と、送気送水の操作を行うための送気送水ボタン32と、吸引操作を行うための吸引ボタン33と、が設けられている。術者(ユーザーの一例)は、アングルノブ31を操作することにより、湾曲部24を湾曲させて先端硬質部22の向きを自在に変えることができる。操作部30には、他に、観察モードの切り替え操作に用いられるモード切替スイッチ34、ズーム操作部35、及び被観察部位の静止画の撮影指示を行うための図示せぬ静止画撮影指示部が設けられている。 The operation unit 30 is provided at the base end portion of the insertion unit 20. The operation unit 30 includes various operation members operated by the operator. For example, the operation unit 30 includes an angle knob 31 used for the bending operation of the bending unit 24, an air supply water supply button 32 for performing an air supply / water supply operation, and a suction button 33 for performing a suction operation. It is provided. An operator (an example of a user) can bend the curved portion 24 and freely change the direction of the hard tip portion 22 by operating the angle knob 31. The operation unit 30 also includes a mode changeover switch 34 used for the observation mode switching operation, a zoom operation unit 35, and a still image shooting instruction unit (not shown) for giving a still image shooting instruction of the observed portion. It is provided.

また、操作部30には、処置具導入口36が設けられている。処置具導入口36は、挿入部20内を挿通している図示せぬ処置具挿通路内に、図示せぬ処置具を挿入するための開口部である。処置具としては、例えば、生検鉗子、カテーテル、高周波スネアなどがあり得る。また、処置具には、カイドチューブ、トラカールチューブ、スライディングチューブなども含まれる。処置具導入口36は、鉗子口と呼ばれる場合がある。 Further, the operation unit 30 is provided with a treatment tool introduction port 36. The treatment tool introduction port 36 is an opening for inserting a treatment tool (not shown) into the treatment tool insertion passage (not shown) that is inserted through the insertion portion 20. Treatment tools may include, for example, biopsy forceps, catheters, high frequency snares, and the like. The treatment tool also includes a guide tube, a tracal tube, a sliding tube and the like. The treatment tool introduction port 36 may be called a forceps port.

ユニバーサルコード40は、電子内視鏡12を光源装置14及びプロセッサ装置16に接続するためのコードである。ユニバーサルコード40には、挿入部20から延設されるケーブル及びライトガイドが挿通されている。挿入部20から延設されるケーブルには、信号の伝達に用いる通信ケーブルと、電力供給に用いる給電ケーブルとが含まれる。ユニバーサルコード40の一端には、コネクタ42が設けられている。 The universal cord 40 is a cord for connecting the electronic endoscope 12 to the light source device 14 and the processor device 16. A cable and a light guide extending from the insertion portion 20 are inserted into the universal cord 40. The cable extending from the insertion portion 20 includes a communication cable used for signal transmission and a power supply cable used for power supply. A connector 42 is provided at one end of the universal cord 40.

コネクタ42は、ビデオコネクタ42Aとライトガイドコネクタ42Bとを備えた複合タイプのコネクタである。ビデオコネクタ42Aには、ケーブルの一端が配置されている。ビデオコネクタ42Aはプロセッサ装置16に対して着脱自在に接続される。ライトガイドコネクタ42Bには、ライトガイドの一端が配置されている。ライトガイドコネクタ42Bは光源装置14に対して着脱自在に接続される。また、ライトガイドコネクタ42Bには、送水コネクタ42Cが設けられ、送水コネクタ42Cを介して送水タンク44が接続される。 The connector 42 is a composite type connector including a video connector 42A and a light guide connector 42B. One end of the cable is arranged on the video connector 42A. The video connector 42A is detachably connected to the processor device 16. One end of the light guide is arranged on the light guide connector 42B. The light guide connector 42B is detachably connected to the light source device 14. Further, the light guide connector 42B is provided with a water supply connector 42C, and the water supply tank 44 is connected via the water supply connector 42C.

プロセッサ装置16は、コネクタ42を介して光源装置14と電気的に接続されている。プロセッサ装置16は、光源装置14を含む内視鏡システム10の動作を統括的に制御する。プロセッサ装置16は、ユニバーサルコード40内に挿通されたケーブルを介して電子内視鏡12に給電を行い、かつ、撮像素子の駆動を制御する。また、プロセッサ装置16は、電子内視鏡12からケーブルを介して伝送された撮像信号を受信し、受信した撮像信号に各種信号処理を施して画像データに変換する。プロセッサ装置16で変換された画像データは、表示装置18に内視鏡撮影画像(観察画像)として表示される。 The processor device 16 is electrically connected to the light source device 14 via the connector 42. The processor device 16 comprehensively controls the operation of the endoscope system 10 including the light source device 14. The processor device 16 supplies power to the electronic endoscope 12 via a cable inserted in the universal cord 40, and controls the drive of the image sensor. Further, the processor device 16 receives an image pickup signal transmitted from the electronic endoscope 12 via a cable, and performs various signal processing on the received image pickup signal to convert it into image data. The image data converted by the processor device 16 is displayed on the display device 18 as an endoscopically captured image (observation image).

図2は、電子内視鏡12の先端硬質部22の先端面22Aを示した正面図である。先端硬質部22の先端面22Aには、照明窓50と、観察窓52と、鉗子出口54と、送気送水用ノズル56とが設けられている。図2には示されていないが、照明窓50の奥には、光源装置14からの光を導くライトガイド120の出射端122が配置されている(図3参照)。照明窓50から被観察領域へ照明光が照射される。照明窓50は、観察窓52を挟んで対称な位置に2個配置されている。 FIG. 2 is a front view showing the tip surface 22A of the tip rigid portion 22 of the electronic endoscope 12. The tip surface 22A of the tip rigid portion 22 is provided with an illumination window 50, an observation window 52, a forceps outlet 54, and an air supply / water supply nozzle 56. Although not shown in FIG. 2, an emission end 122 of the light guide 120 that guides the light from the light source device 14 is arranged behind the illumination window 50 (see FIG. 3). Illumination light is emitted from the illumination window 50 to the observed area. Two illumination windows 50 are arranged symmetrically with respect to the observation window 52.

観察窓52は、被観察領域からの反射光を取り込み、被観察領域を撮像するための窓である。図2には示されていないが、観察窓52の奥には、体腔内の被観察領域の像光を取り込むための対物光学系60と撮像素子62とが配置されている(図3参照)。 The observation window 52 is a window for taking in the reflected light from the observed area and taking an image of the observed area. Although not shown in FIG. 2, an objective optical system 60 and an image sensor 62 for capturing the image light of the observed region in the body cavity are arranged behind the observation window 52 (see FIG. 3). ..

鉗子出口54は、挿入部20内に配置された図示せぬ鉗子チャンネルに接続され、操作部30に設けられた処置具導入口36(図1参照)に連通している。処置具導入口36から挿入された処置具が鉗子出口54から体腔内に出される。 The forceps outlet 54 is connected to a forceps channel (not shown) arranged in the insertion portion 20 and communicates with a treatment tool introduction port 36 (see FIG. 1) provided in the operation portion 30. The treatment tool inserted from the treatment tool introduction port 36 is taken out into the body cavity from the forceps outlet 54.

送気送水用ノズル56は、操作部30に設けられた送気送水ボタン32(図1参照)の操作に応じて、洗浄水又は空気を、観察窓52及び/又は体腔内に向けて噴射する。なお、洗浄水及び空気は、光源装置14に内蔵された送気送水装置から供給される。 The air supply water supply nozzle 56 injects wash water or air toward the observation window 52 and / or the body cavity in response to the operation of the air supply water supply button 32 (see FIG. 1) provided in the operation unit 30. .. The washing water and air are supplied from the air supply / water supply device built in the light source device 14.

図3は、内視鏡システム10の制御系を示したブロック図である。電子内視鏡12の先端硬質部22には、対物光学系60と、撮像素子62と、アナログフロントエンド(AFE:Analog Front End)回路64と、タイミングジェネレータ(TG:Timing Generator)65と、CPU(Central Processing Unit)66と、が設けられている。 FIG. 3 is a block diagram showing a control system of the endoscope system 10. The hard tip portion 22 of the electronic endoscope 12 includes an objective optical system 60, an image sensor 62, an analog front end (AFE) circuit 64, a timing generator (TG) 65, and a CPU. (Central Processing Unit) 66 and.

対物光学系60は、ズームレンズを用いて構成される。対物光学系60と撮像素子62の間に、図示しない導光用のプリズムが配置される。撮像素子62は、CMOS(complementary metal oxide semiconductor)型の撮像素子であってもよいし、CCD(Charged Coupled Device)型の撮像素子であってもよい。ここではCMOS型の撮像素子を用いる例を説明する。 The objective optical system 60 is configured by using a zoom lens. A prism for guiding light (not shown) is arranged between the objective optical system 60 and the image sensor 62. The image pickup device 62 may be a CMOS (complementary metal oxide semiconductor) type image pickup device or a CCD (Charged Coupled Device) type image pickup device. Here, an example of using a CMOS type image sensor will be described.

図示は省略するが、撮像素子62は、複数の色セグメントからなるカラーフィルタを備えた単板カラー撮像方式の固体撮像素子である。カラーフィルタは、例えば、赤(R)、緑(G)、及び青(B)を含むベイヤー配列の原色カラーフィルタであってよい。 Although not shown, the image sensor 62 is a solid-state image sensor of a single plate color image pickup system including a color filter composed of a plurality of color segments. The color filter may be, for example, a Bayer-arranged primary color filter including red (R), green (G), and blue (B).

撮像素子62の撮像面には、多数の画素がマトリクス状に配置されており、各画素にはそれぞれフォトセンサが設けられている。撮像素子62の撮像面に入射した光は各画素のフォトセンサに電荷として蓄積される。各画素のフォトセンサに蓄積された信号電荷量は、垂直走査回路及び水平走査回路(いずれも不図示)による垂直方向と水平方向の走査によって、画素信号として順次読み出され、所定のフレームレートで出力される。 A large number of pixels are arranged in a matrix on the image pickup surface of the image pickup device 62, and each pixel is provided with a photo sensor. The light incident on the image pickup surface of the image pickup element 62 is stored as an electric charge in the photosensor of each pixel. The amount of signal charge accumulated in the photosensor of each pixel is sequentially read out as a pixel signal by scanning in the vertical and horizontal directions by a vertical scanning circuit and a horizontal scanning circuit (both not shown), and at a predetermined frame rate. It is output.

タイミングジェネレータ65は、CPU66の制御に基づき、撮像素子62の駆動パルスと、アナログフロントエンド回路64への同期パルスとを発生する。撮像素子62の駆動パルスには、垂直走査パルス、水平走査パルス、及びリセットパルス等が含まれる。 The timing generator 65 generates a drive pulse of the image sensor 62 and a synchronous pulse to the analog front end circuit 64 based on the control of the CPU 66. The drive pulse of the image pickup device 62 includes a vertical scan pulse, a horizontal scan pulse, a reset pulse, and the like.

撮像素子62は、タイミングジェネレータ65から入力される駆動パルスにより駆動され、対物光学系60を介して撮像面に結像された光学像を光電変換して撮像信号として出力する。 The image sensor 62 is driven by a drive pulse input from the timing generator 65, photoelectrically converts an optical image imaged on the image pickup surface via the objective optical system 60, and outputs the image sensor 62 as an image pickup signal.

アナログフロントエンド回路64は、相関二重サンプリング(CDS:correlated double sampling)回路と、自動ゲイン制御(AGC:Automatic Gain Control)回路と、A/D変換器とを含む。CDS回路は、撮像素子62から出力される撮像信号に対して相関二重サンプリング処理を施し、撮像素子62で生じるリセット雑音及びアンプ雑音の除去を行う。 The analog front-end circuit 64 includes a correlated double sampling (CDS) circuit, an automatic gain control (AGC) circuit, and an A / D converter. The CDS circuit performs a correlation double sampling process on the image pickup signal output from the image pickup element 62, and removes the reset noise and the amplifier noise generated in the image pickup element 62.

AGC回路は、CDS回路によりノイズ除去が行われた撮像信号を、CPU66から指定されたゲイン(増幅率)で増幅する。A/D変換器は、AGC回路により増幅された撮像信号を、所定のビット数のデジタル信号に変換して出力する。アナログフロントエンド回路64にてデジタル化されて出力された撮像信号は、信号線を通してプロセッサ装置16に入力される。 The AGC circuit amplifies the image pickup signal whose noise has been removed by the CDS circuit with a gain (amplification rate) specified by the CPU 66. The A / D converter converts the imaging signal amplified by the AGC circuit into a digital signal having a predetermined number of bits and outputs the signal. The image pickup signal digitized and output by the analog front-end circuit 64 is input to the processor device 16 through the signal line.

なお、撮像素子62、アナログフロントエンド回路64及びタイミングジェネレータ65は、モノリシック集積回路として構成することができ、これらの各回路素子は、1つの撮像チップ68に含まれる。本例の電子内視鏡12に搭載される撮像チップ68は、いわゆる「CMOSセンサチップ」であり、図示せぬ支持基板上に実装されている。 The image sensor 62, the analog front end circuit 64, and the timing generator 65 can be configured as a monolithic integrated circuit, and each of these circuit elements is included in one image pickup chip 68. The imaging chip 68 mounted on the electronic endoscope 12 of this example is a so-called “CMOS sensor chip” and is mounted on a support substrate (not shown).

プロセッサ装置16は、CPU70と、ROM(read-only memory)72と、RAM(Random Access Memory)74と、デジタル信号処理回路(DSP:Digital Signal Processor)76と、表示制御回路78とを備える。 The processor device 16 includes a CPU 70, a ROM (read-only memory) 72, a RAM (Random Access Memory) 74, a digital signal processor (DSP) 76, and a display control circuit 78.

CPU70は、プロセッサ装置16内の各部を制御し、かつ内視鏡システム10の全体を統括的に制御する。ROM72には、プロセッサ装置16の動作を制御するための各種プログラムや制御用データが記憶される。RAM74には、CPU70により実行されるプログラム及びデータなどが一時記憶される。 The CPU 70 controls each part in the processor device 16 and comprehensively controls the entire endoscope system 10. Various programs and control data for controlling the operation of the processor device 16 are stored in the ROM 72. The program and data executed by the CPU 70 are temporarily stored in the RAM 74.

デジタル信号処理回路76は、CPU70の制御に基づき、アナログフロントエンド回路64から入力された撮像信号に対し、色補間、色分離、色バランス調整、ガンマ補正、画像強調処理等の各種信号処理を施して、画像データを生成する。また、デジタル信号処理回路76は、画像認識の処理を行う。デジタル信号処理回路76は、画像処理部として機能する。また、デジタル信号処理回路76は、画像認識の処理を行う画像認識部の機能を含んでいる。 Based on the control of the CPU 70, the digital signal processing circuit 76 performs various signal processing such as color interpolation, color separation, color balance adjustment, gamma correction, and image enhancement processing on the image pickup signal input from the analog front end circuit 64. To generate image data. Further, the digital signal processing circuit 76 performs image recognition processing. The digital signal processing circuit 76 functions as an image processing unit. Further, the digital signal processing circuit 76 includes a function of an image recognition unit that performs image recognition processing.

デジタル信号処理回路76から出力された画像データは、表示制御回路78に入力される。表示制御回路78は、デジタル信号処理回路76から入力された画像データを、表示装置18に対応した信号形式に変換し、表示装置18の画面に表示させる。 The image data output from the digital signal processing circuit 76 is input to the display control circuit 78. The display control circuit 78 converts the image data input from the digital signal processing circuit 76 into a signal format corresponding to the display device 18 and displays it on the screen of the display device 18.

表示装置18は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、若しくは、プロジェクタ、又はこれらの適宜の組み合わせであってよい。表示装置18は、プロセッサ装置16の処理に必要な各種設定情報、又は、処理結果を示す情報などの各種情報を表示し得る。 The display device 18 may be, for example, a liquid crystal display, an organic electro-luminescence (OEL) display, a projector, or an appropriate combination thereof. The display device 18 can display various setting information necessary for the processing of the processor device 16 or various information such as information indicating the processing result.

表示装置18と入力装置19は、ユーザーインターフェースとして機能する。入力装置19は、例えば、キーボード、マウス、タッチパネル、操作ボタン、若しくは、音声入力装置、又はこれらの適宜の組み合わせであってよい。ユーザーは、入力装置19を用いて各種の指示及び/又は情報を入力することができる。プロセッサ装置16は、入力装置19から入力された指示及び/又は情報に応じて各種処理を実行し得る。 The display device 18 and the input device 19 function as a user interface. The input device 19 may be, for example, a keyboard, a mouse, a touch panel, operation buttons, a voice input device, or an appropriate combination thereof. The user can input various instructions and / or information using the input device 19. The processor device 16 can execute various processes according to the instruction and / or information input from the input device 19.

光源装置14は、電子内視鏡12内に挿通されたライトガイド120を通して体腔内を照明する光を発生する。光源装置14は、第1光源100と、第1光源駆動回路101と、第2光源102と、第2光源駆動回路103と、CPU104と、合波部105とを含む。CPU104は、プロセッサ装置16のCPU70と通信を行い、第1光源駆動回路101及び第2光源駆動回路103の制御を行う。 The light source device 14 generates light that illuminates the inside of the body cavity through the light guide 120 inserted in the electronic endoscope 12. The light source device 14 includes a first light source 100, a first light source drive circuit 101, a second light source 102, a second light source drive circuit 103, a CPU 104, and a combiner 105. The CPU 104 communicates with the CPU 70 of the processor device 16 to control the first light source drive circuit 101 and the second light source drive circuit 103.

第1光源駆動回路101は、CPU104からの指示に従い、第1光源100を発光させる。第2光源駆動回路103は、CPU104からの指示に従い、第2光源102を発光させる。 The first light source drive circuit 101 causes the first light source 100 to emit light according to the instruction from the CPU 104. The second light source drive circuit 103 causes the second light source 102 to emit light according to the instruction from the CPU 104.

第1光源100は、例えば、波長445nmの青色レーザを発光するレーザダイオードである。第1光源100は、第1光源駆動回路101によりパルス駆動されて発光量が制御される。第2光源102は、例えば、波長405nmの青色レーザを発光するレーザダイオードである。第2光源102は、第2光源駆動回路103によりパルス駆動されて発光量が制御される。波長405nmの青色光は、特殊光観察の際に使用される。 The first light source 100 is, for example, a laser diode that emits a blue laser having a wavelength of 445 nm. The first light source 100 is pulse-driven by the first light source drive circuit 101 to control the amount of light emitted. The second light source 102 is, for example, a laser diode that emits a blue laser having a wavelength of 405 nm. The second light source 102 is pulse-driven by the second light source drive circuit 103 to control the amount of light emitted. Blue light with a wavelength of 405 nm is used for special light observation.

合波部105は、第1光源100と第2光源102のそれぞれの出射光を合波してライトガイド120の入射端121に出射する。 The combined wave unit 105 combines the emitted lights of the first light source 100 and the second light source 102 and emits them to the incident end 121 of the light guide 120.

ライトガイド120の出射端122と、電子内視鏡12の照明窓50との間には、蛍光体124が設けられている。ライトガイド120を通った青色レーザ光は蛍光体124に照射され、蛍光体124を励起状態にすると共に、その一部は蛍光体124を透過して青色光として照明窓50から出射される。 A phosphor 124 is provided between the emission end 122 of the light guide 120 and the illumination window 50 of the electronic endoscope 12. The blue laser light that has passed through the light guide 120 irradiates the phosphor 124 with an excited state, and a part of the blue laser light passes through the phosphor 124 and is emitted from the illumination window 50 as blue light.

蛍光体124は、青色レーザ光で励起され、光の波長帯域でいうと、青色と緑色の境界当たりの波長域から赤色の波長域までの広範囲の光(色としては黄色)を発光する。この黄色光と蛍光体124を透過する青色光とが混合されて白色光となり、照明窓50を通して被写体を照明することになる。なお、蛍光体124を透過する青色光には、蛍光体124で発光する青色光も一部含む。 The phosphor 124 is excited by blue laser light and emits a wide range of light (yellow as a color) from the wavelength range per boundary between blue and green to the red wavelength range in terms of the wavelength band of light. The yellow light and the blue light transmitted through the phosphor 124 are mixed to form white light, which illuminates the subject through the illumination window 50. The blue light transmitted through the phosphor 124 includes a part of the blue light emitted by the phosphor 124.

蛍光体124は、上述のように、波長445nmの青色レーザ光の照射を受けた場合に黄色光を発光すると共に波長445nmの青色光を透過するが、波長405nmの青色レーザ光の照射を受けた場合にはその殆どを透過する性質を持つ。 As described above, the phosphor 124 emits yellow light when irradiated with a blue laser light having a wavelength of 445 nm and transmits blue light having a wavelength of 445 nm, but is irradiated with a blue laser light having a wavelength of 405 nm. In some cases, it has the property of transmitting most of it.

即ち、波長445nmの青色レーザ光と波長405nmの青色レーザ光との混合割合を制御することで、蛍光体124を透過する青色光と、蛍光体124で発光する黄色光との割合を制御することが可能である。 That is, by controlling the mixing ratio of the blue laser light having a wavelength of 445 nm and the blue laser light having a wavelength of 405 nm, the ratio of the blue light transmitted through the phosphor 124 and the yellow light emitted by the phosphor 124 is controlled. Is possible.

白色光を用いて照明された被写体からの反射光を、撮像素子62を用いて受光することにより、被写体のカラー画像が再現される。 A color image of the subject is reproduced by receiving the reflected light from the subject illuminated by the white light by using the image sensor 62.

上述のように構成された内視鏡システム10を用いて体腔内を観察する際には、電子内視鏡12と、光源装置14と、プロセッサ装置16と、表示装置18の各電源をオンにして、電子内視鏡12の挿入部20を体腔内に挿入し、光源装置14からの照明光で体腔内を照明しながら、撮像素子62により撮像される体腔内の画像を表示装置18の画面で観察することになる。 When observing the inside of the body cavity using the endoscope system 10 configured as described above, the power of the electronic endoscope 12, the light source device 14, the processor device 16, and the display device 18 is turned on. Then, the insertion portion 20 of the electronic endoscope 12 is inserted into the body cavity, and the image in the body cavity captured by the image pickup element 62 is displayed on the screen of the display device 18 while illuminating the inside of the body cavity with the illumination light from the light source device 14. Will be observed at.

本例の内視鏡システム10は、白色光観察モードと狭帯域光観察モードを有する。白色光観察モードは、照明光に白色光を用いて観察対象を撮像して得られる撮影画像を用いて、自然な色合いの観察画像を表示装置18に表示するモードである。白色光観察モードで観察対象を撮像して得られる画像を「白色光観察画像」という。照明光は「観察光」と言い換えてもよい。 The endoscope system 10 of this example has a white light observation mode and a narrow band light observation mode. The white light observation mode is a mode in which an observation image having a natural hue is displayed on the display device 18 by using a photographed image obtained by imaging an observation target using white light as illumination light. An image obtained by imaging an observation target in the white light observation mode is called a "white light observation image". Illumination light may be paraphrased as "observation light".

狭帯域光観察モードは、特定の波長帯域の狭帯域光を照明光として観察対象を撮像して得られる画像信号を用いて、例えば、観察対象の特定深さ領域に在る血管を強調した可視化画像を生成し、血管の観察に適した画像を表示装置18に表示するモードである。狭帯域光観察モードで観察対象を撮像して得られる画像を「狭帯域光観察画像」という。 In the narrow-band light observation mode, for example, visualization of blood vessels in a specific depth region of an observation target is emphasized by using an image signal obtained by imaging an observation target using narrow-band light of a specific wavelength band as illumination light. This mode generates an image and displays an image suitable for observing blood vessels on the display device 18. An image obtained by imaging an observation target in the narrow band light observation mode is called a "narrow band light observation image".

内視鏡システム10は、使用する狭帯域光の波長帯域の種類又はその組み合わせが異なる複数種類の狭帯域光観察モードを有していてもよい。 The endoscope system 10 may have a plurality of types of narrow-band light observation modes in which the types of wavelength bands of narrow-band light used or combinations thereof are different.

《内視鏡システム10における診断支援機能の概要》
内視鏡検査では、ユーザーである医師がスコープを操作して病変を検出するスクリーニング処理と、検出された病変の状態を詳細に確認する鑑別処理とが行われており、病変の見落としを防ぐことが重要な課題の1つである。例えば、ある病変の鑑別が終了した際に、ユーザーが周囲の病変の存在を忘れてしまう恐れがある。ユーザーは、スクリーニング作業から鑑別作業への移行、及び、鑑別作業からスクリーニング作業への移行をシームレスに実施しており、診断支援のシステムもそのようなユーザーの操作に合わせた動作が求められる。
<< Overview of diagnostic support function in endoscope system 10 >>
In endoscopy, a screening process in which a doctor who is a user operates a scope to detect a lesion and a differential process in which the state of the detected lesion is confirmed in detail are performed to prevent oversight of the lesion. Is one of the important issues. For example, when the differentiation of a certain lesion is completed, the user may forget the existence of the surrounding lesion. The user seamlessly implements the transition from the screening work to the discrimination work and the transition from the discrimination work to the screening work, and the diagnostic support system is also required to operate according to such user's operation.

スクリーニング作業と鑑別作業とを切り替える手段として、光源の種類が切り替わるタイミングなどが考えられるが、同一光源のまま作業が移行している場合に対応できない。 As a means for switching between the screening work and the discrimination work, the timing at which the type of the light source is switched can be considered, but it cannot be dealt with when the work is shifting with the same light source.

本発明の実施形態に係る医療画像処理装置は、時系列で取得される複数の画像からユーザーの所作を判定し、その所作の意図に合わせた形で支援を行うように動作する。時系列で取得される複数の画像を「時系列画像」という。時系列画像は、例えば、動画であってよい。また、時系列で取得される複数の画像の各々は、一定の時間間隔で得られる動画のフレーム画像であってよい。 The medical image processing apparatus according to the embodiment of the present invention operates so as to determine a user's action from a plurality of images acquired in a time series and provide support in a form according to the intention of the action. A plurality of images acquired in time series are called "time series images". The time-series image may be, for example, a moving image. Further, each of the plurality of images acquired in time series may be a frame image of a moving image obtained at regular time intervals.

《第1実施形態に係る医療画像処理装置の構成》
プロセッサ装置16は、本発明の実施形態に係る医療画像処理装置の一例である。図4は、第1実施形態に係る医療画像処理装置の機能を示すブロック図である。図4に示す医療画像処理装置160は、画像取得部162と、可否判定部164と、動き推定部166と、所作判定部168と、分類部170と、報知制御部172と、報知部174と、を備える。
<< Configuration of Medical Image Processing Device According to First Embodiment >>
The processor device 16 is an example of the medical image processing device according to the embodiment of the present invention. FIG. 4 is a block diagram showing the functions of the medical image processing apparatus according to the first embodiment. The medical image processing device 160 shown in FIG. 4 includes an image acquisition unit 162, a pass / fail determination unit 164, a motion estimation unit 166, an action determination unit 168, a classification unit 170, a notification control unit 172, and a notification unit 174. , Equipped with.

画像取得部162、可否判定部164、動き推定部166、所作判定部168及び分類部170の機能は、図3で説明したデジタル信号処理回路76、若しくは、CPU70、又はこれらの組み合わせによって実現できる。また、報知制御部172は、図3で説明した表示制御回路78を含んでよい。 The functions of the image acquisition unit 162, the pass / fail determination unit 164, the motion estimation unit 166, the action determination unit 168, and the classification unit 170 can be realized by the digital signal processing circuit 76 described in FIG. 3, the CPU 70, or a combination thereof. Further, the notification control unit 172 may include the display control circuit 78 described with reference to FIG.

図4に示す画像取得部162は、電子内視鏡12を用いて撮影された時系列の画像IM1、IM2、IM3・・・を取得するインターフェースである。画像取得部162は、例えば、ビデオコネクタ42Aが接続されるコネクタ端子であってもよいし、デジタル信号処理回路76の信号入力端子であってもよい。また、画像取得部162は、プロセッサ装置16に設けられた通信ネットワーク端子、外部記憶メディア用のメディアインターフェース端子、若しくは、外部機器の接続用端子、又は、これらの適宜の組み合わせであってもよい。 The image acquisition unit 162 shown in FIG. 4 is an interface for acquiring time-series images IM1, IM2, IM3 ... Taken by using the electronic endoscope 12. The image acquisition unit 162 may be, for example, a connector terminal to which the video connector 42A is connected, or a signal input terminal of the digital signal processing circuit 76. Further, the image acquisition unit 162 may be a communication network terminal provided in the processor device 16, a media interface terminal for external storage media, a terminal for connecting an external device, or an appropriate combination thereof.

医療画像処理装置160は、電子内視鏡12を介して時系列で取得される画像から病変の自動分類を行い、分類結果を報知することでユーザーによる診断を支援する。しかし、内視鏡検査において取得される画像には、図5から図7に例示するように、分類困難な画像が含まれ得る。 The medical image processing device 160 automatically classifies lesions from images acquired in time series via the electronic endoscope 12, and notifies the classification result to support the diagnosis by the user. However, the images obtained in the endoscopy may include images that are difficult to classify, as illustrated in FIGS. 5-7.

図5は、病変が映っていない画像の例である。図6は、ピントずれによって病変182がボケている画像の例である。図7は、動きブレによって病変182がボケている画像の例である。図7は「ブレている画像」の一例である。 FIG. 5 is an example of an image in which no lesion is shown. FIG. 6 is an example of an image in which the lesion 182 is out of focus due to out of focus. FIG. 7 is an example of an image in which the lesion 182 is blurred due to motion blur. FIG. 7 is an example of a “blurred image”.

可否判定部164は、画像取得部162から取得された画像が認識に不適な画像であるか否かを判定する。可否判定部164は認識部164Aを含む。認識部164Aは、入力された画像が画像認識に適切であるか不適切であるかの認識を行う。ここでの「画像認識に適切である」とは、認識の主目的である病変の分類等を行う認識の処理に適する画像であることを意味する。「画像認識に不適切である」とは、主目的である病変の分類等の認識に不適な画像であることを意味する。認識に不適な画像を例示すると、例えば、ボケている画像、ブレている画像、被写体に水がかぶっている画像、被写体に残渣がある画像などである。認識に不適な画像を「不適切画像」という。 The approval / disapproval determination unit 164 determines whether or not the image acquired from the image acquisition unit 162 is an image unsuitable for recognition. The pass / fail determination unit 164 includes a recognition unit 164A. The recognition unit 164A recognizes whether the input image is appropriate or inappropriate for image recognition. Here, "suitable for image recognition" means that the image is suitable for recognition processing for classifying lesions, which is the main purpose of recognition. "Inappropriate for image recognition" means that the image is unsuitable for recognition such as classification of lesions, which is the main purpose. Examples of images that are unsuitable for recognition include blurred images, blurred images, images in which the subject is covered with water, and images in which the subject has residues. An image that is unsuitable for recognition is called an "inappropriate image".

認識部164Aは、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて構成することができる。認識部164Aは、例えば、認識に適する画像であるか、認識に不適な画像であるかの2分類のタスクを行うように、機械学習によって学習した第1の学習済みモデルを用いて構成される。認識部164Aは、動画の各フレーム画像、又は間引かれた一定間隔のフレーム画像の特徴量を算出し、算出された特徴量を用いて認識に不適な画像であるか否かを判定し得る。 The recognition unit 164A can be configured by using, for example, a convolutional neural network (CNN). The recognition unit 164A is configured by using the first trained model learned by machine learning so as to perform two classification tasks, for example, an image suitable for recognition and an image unsuitable for recognition. .. The recognition unit 164A can calculate the feature amount of each frame image of the moving image or the frame image at regular intervals thinned out, and can determine whether or not the image is unsuitable for recognition by using the calculated feature amount. ..

認識に不適な画像は、分類部170の分類処理にて分類が困難な画像である。また、認識に不適な画像は、動き推定部166での動き推定の処理にも適さない画像である。 An image that is unsuitable for recognition is an image that is difficult to classify by the classification process of the classification unit 170. Further, the image unsuitable for recognition is an image that is not suitable for the motion estimation process in the motion estimation unit 166.

したがって、可否判定部164にて分類困難と判断された場合は、動き推定部166、所作判定部168及び分類部170による処理を行わずに、報知制御部172の処理に移行する。 Therefore, when the possibility determination unit 164 determines that the classification is difficult, the process proceeds to the notification control unit 172 without performing the processing by the motion estimation unit 166, the action determination unit 168, and the classification unit 170.

動き推定部166は、時系列で取得される画像群の動き情報を検出する。画像の動きを推定する方法の例としては、例えば、オプティカルフロー、ブロックマッチング、又は、テンプレートマッチングなどを挙げることができる。動きを推定する手法は、ここに例示した手法に限らず、様々なアルゴリズムを適用できる。 The motion estimation unit 166 detects the motion information of the image group acquired in time series. Examples of the method of estimating the motion of the image include optical flow, block matching, template matching, and the like. The method for estimating the motion is not limited to the method illustrated here, and various algorithms can be applied.

また、動きを推定する際に使用する画像の枚数は2枚(現在の画像と1枚前の過去画像)に限らない。図8には、時系列で得られる3枚の画像群の例が示されている。図8は、一定の時間間隔で撮影される動画のフレーム画像を示している。図8に示す3枚のフレーム画像の各々に対して画像解析を行うことによって、画像ごとにクラス分類は可能である。 Further, the number of images used when estimating the movement is not limited to two (the current image and the previous image). FIG. 8 shows an example of three image groups obtained in chronological order. FIG. 8 shows a frame image of a moving image taken at regular time intervals. By performing image analysis on each of the three frame images shown in FIG. 8, it is possible to classify each image.

しかし、例えば、現在の時刻tにおける画像IM(t)に泡184などが映っており、泡184などによって画像が覆われている場合、現在の画像IM(t)と1枚前の過去画像IM(t−1)との2枚のみでは正確な動きを推定することが困難である。そのため、現在の画像IM(t)から見て過去の画像又は未来の画像を含め2枚以上のフレーム画像を選択することにより、動きの推定精度を向上させることが好ましい。 However, for example, when the bubble 184 or the like is reflected in the image IM (t) at the current time t and the image is covered by the bubble 184 or the like, the current image IM (t) and the previous past image IM are It is difficult to estimate an accurate movement only with the two images (t-1). Therefore, it is preferable to improve the motion estimation accuracy by selecting two or more frame images including the past image or the future image when viewed from the current image IM (t).

また、可否判定部164により認識された画像の状態情報を、動き推定部166での動きの推定に用いてもよい。例えば、入力された画像がブレれている場合に、テンプレートマッチングのテンプレート自体をブレ画像化してもよい。また、例えば、入力された画像がブレている場合に、動き推定の対象画像におけるブレの成分を除去する処理を実施してもよい。 Further, the state information of the image recognized by the pass / fail determination unit 164 may be used for the motion estimation by the motion estimation unit 166. For example, when the input image is blurred, the template matching template itself may be converted into a blurred image. Further, for example, when the input image is blurred, a process of removing the blur component in the target image for motion estimation may be performed.

所作判定部168は、動き推定部166にて検出された動き情報に応じてユーザーの所作を判定する。図9及び図10は、動き推定結果に基づくユーザー所作の判定例を示す。図9は、画像の動きが小さい場合の画像例を示す。図9において観察画像内に表示した矢印Aは、画像IM(t)と、次のフレームの画像IM(t+1)との画像間における病変182の領域の動きベクトルを表している。 The behavior determination unit 168 determines the user's behavior according to the motion information detected by the motion estimation unit 166. 9 and 10 show an example of determining the user's behavior based on the motion estimation result. FIG. 9 shows an example of an image when the movement of the image is small. The arrow A displayed in the observation image in FIG. 9 represents the motion vector of the region of the lesion 182 between the images of the image IM (t) and the image IM (t + 1) of the next frame.

図10は、画像の動きが大きい場合の画像例を示す。図10において観察画像内に表示した矢印Bは、画像IM(t)と、次のフレームの画像IM(t+1)との画像間における病変182の領域の動きベクトルを表している。例えば、図9に示すように、動きベクトルが小さい場合は、ユーザーの鑑別中にスコープの位置が動いたと判定できる。その一方、図10に示すように、動きベクトルが大きい場合は、ユーザーに鑑別の意図が無いと判定できる。 FIG. 10 shows an example of an image when the movement of the image is large. The arrow B displayed in the observation image in FIG. 10 represents the motion vector of the region of the lesion 182 between the images of the image IM (t) and the image IM (t + 1) of the next frame. For example, as shown in FIG. 9, when the motion vector is small, it can be determined that the position of the scope has moved during the discrimination of the user. On the other hand, as shown in FIG. 10, when the motion vector is large, it can be determined that the user has no intention of discrimination.

所作判定部168は、動きベクトルの大きさを閾値と比較するなどして、ユーザーの所作を判定する。動きベクトルの大きさは、画像の移動量を反映している。つまり、動きベクトルの大きさから、ユーザーの所作が鑑別を意図しているか、否かを判定することができる。なお、動きベクトルは、画像全体での動きとして取得してもよいし、ある注目領域のみの動きとして取得してもよい。 The behavior determination unit 168 determines the user's behavior by comparing the magnitude of the motion vector with the threshold value. The magnitude of the motion vector reflects the amount of movement of the image. That is, it is possible to determine whether or not the user's behavior is intended for discrimination from the magnitude of the motion vector. The motion vector may be acquired as the motion of the entire image, or may be acquired as the motion of only a certain region of interest.

また、所作判定部168は、画像の移動量に基づいてユーザーの所作を判定する態様に限らず、予め定義されたデータベース、若しくは時系列上で更新されるデータベースと照らし合わせてユーザーの所作を判定してもよい。 Further, the behavior determination unit 168 is not limited to the mode of determining the user's behavior based on the amount of movement of the image, and determines the user's behavior by comparing it with a predefined database or a database updated in time series. You may.

図11は、動き情報とユーザーの所作との対応関係を規定したデータベースの例である。医療画像処理装置160は、データベース167を格納しておく記憶部169を含んでよい。記憶部169は、半導体メモリ、ハードディスクドライブ、ソリッドステートドライブ、若しくは光ディスクなどに例示される記憶装置であってよく、又はこれらの適宜の組み合わせであってよい。記憶部169は、医療画像処理装置160に内蔵された内部記憶装置であってもよいし、医療画像処理装置160に接続される外部記憶装置であってもよい。 FIG. 11 is an example of a database that defines the correspondence between motion information and user behavior. The medical image processing apparatus 160 may include a storage unit 169 that stores a database 167. The storage unit 169 may be a storage device exemplified by a semiconductor memory, a hard disk drive, a solid state drive, an optical disk, or the like, or may be an appropriate combination thereof. The storage unit 169 may be an internal storage device built in the medical image processing device 160, or an external storage device connected to the medical image processing device 160.

所作判定部168は、動き推定部166から得られる動き情報を基にデータベース167と照合してユーザーの所作の意図を判定し得る。例えば、動き情報の示す画像の動きが停止している場合、若しくは動きは非常に小さい場合には鑑別中であると判定される。また、動き情報の示す画像の動きが等速運動又は回転運動である場合には鑑別中であると判定される。動き情報の示す画像の動きが等加速度運動である場合にはスクリーニング中であると判定される。所作判定部168の判定結果は、報知制御部172に送られる(図4参照)。所作判定部168の判定結果は、ユーザーの所作意図を推定した所作情報に相当する。 The behavior determination unit 168 can determine the intention of the user's behavior by collating with the database 167 based on the motion information obtained from the motion estimation unit 166. For example, if the movement of the image indicated by the movement information is stopped, or if the movement is very small, it is determined that the image is being discriminated. Further, when the movement of the image indicated by the movement information is a constant velocity motion or a rotational motion, it is determined that the image is being discriminated. If the movement of the image indicated by the movement information is a constant acceleration motion, it is determined that screening is in progress. The determination result of the action determination unit 168 is sent to the notification control unit 172 (see FIG. 4). The determination result of the action determination unit 168 corresponds to the action information in which the user's action intention is estimated.

図4に示す分類部170は、可否判定部164にて分類可能と判定された画像を対象に、ある特定のクラスへの分類処理が行われる。分類方法としては例えば、下記の分類クラスが挙げられる。 The classification unit 170 shown in FIG. 4 performs classification processing into a specific class for images determined to be classable by the pass / fail determination unit 164. Examples of the classification method include the following classification classes.

〈分類クラスの具体例〉
[例1]腫瘍性であるか、非腫瘍性であるかの2分類のクラス分けを採用し得る。
<Specific example of classification class>
[Example 1] Two classifications, neoplastic or non-neoplastic, can be adopted.

[例2]内視鏡所見分類、具体的にはNICE分類、又はJNET分類などを採用し得る。 [Example 2] Endoscopic findings classification, specifically NICE classification, JNET classification, or the like can be adopted.

[例3]病種による分類、例えば、過形成性ポリープ、腺腫、粘膜内癌、高度浸潤癌、炎症性ポリープなどに分類する態様を採用し得る。 [Example 3] Classification by disease type, for example, a mode of classifying into hyperplastic polyps, adenomas, intramucosal cancers, highly invasive cancers, inflammatory polyps and the like can be adopted.

なお、「NICE」は、NBI(Narrow band imaging) International Colorectal Endoscopic の略語である。「JNET」は、「the Japan NBI Expert Team」の略語である。 "NICE" is an abbreviation for NBI (Narrow band imaging) International Colorectal Endoscopic. "JNET" is an abbreviation for "the Japan NBI Expert Team".

NICE分類は、非拡大のNBIによる分類であり、病変の色調(Color)、微小血管模様(Vessels)、及び表面模様(Surface pattern)の3項目の各項目について、Type1、Type2及びType3に分類される。Type1は過形成病変、Type2は腺腫〜粘膜内癌、Type3はSM(submucosa)深部浸潤癌の診断指標である。JNET分類は、大腸腫瘍に対するNBI拡大内視鏡所見の分類である。JNET分類は、「vessel pattern」と「surface pattern」の各項目について、Type1、Type2A、Type2B、及びType3に分類される。 The NICE classification is a non-expanded NBI classification, and each of the three items of lesion color tone (Color), microvascular pattern (Vessels), and surface pattern (Surface pattern) is classified into Type1, Type2, and Type3. NS. Type 1 is a diagnostic index for hyperplastic lesions, Type 2 is a diagnostic index for adenoma to intramucosal cancer, and Type 3 is a diagnostic index for SM (submucosa) deep infiltration cancer. The JNET classification is a classification of NBI magnifying endoscopic findings for colorectal tumors. The JNET classification is classified into Type1, Type2A, Type2B, and Type3 for each item of "vessel pattern" and "surface pattern".

分類部170は、NICE分類などの詳細な分類に代えて、又は、これと組み合わせて、単に「癌性」であるか「非癌性」であるかの2分類の認識を行ってもよい。 The classification unit 170 may recognize two classifications, which are simply "cancerous" or "non-cancerous", in place of or in combination with detailed classification such as NICE classification.

図4に示す分類部170の分類処理には、例えば、畳み込みニューラルネットワーク(CNN)が用いられる。分類部170は、[例1]〜[例3]に例示したような特定のクラスに分類する画像分類のタスクを行うように、機械学習によって学習した第2の学習済みモデルを用いて構成することができる。 For example, a convolutional neural network (CNN) is used for the classification process of the classification unit 170 shown in FIG. The classification unit 170 is configured by using a second trained model learned by machine learning so as to perform an image classification task of classifying into a specific class as illustrated in [Example 1] to [Example 3]. be able to.

可否判定部164から得られた判定結果が「認識に適する画像」である場合に、分類部170による分類処理が実行される。分類部170は、画像から特徴量を抽出し、画像の分類を行う。分類部170は、算出された特徴量を基に注目領域(例えば、病変の領域)の検出及び病変の領域の検出、及び/又は、セグメンテーションを実施してもよい。また、分類部170は、認識部164Aで算出した特徴量を利用して分類処理を実施してもよい。 When the determination result obtained from the pass / fail determination unit 164 is an "image suitable for recognition", the classification process by the classification unit 170 is executed. The classification unit 170 extracts the feature amount from the image and classifies the image. The classification unit 170 may perform detection of a region of interest (for example, a region of a lesion), detection of a region of a lesion, and / or segmentation based on the calculated feature amount. Further, the classification unit 170 may perform the classification process using the feature amount calculated by the recognition unit 164A.

報知制御部172は、可否判定部164から得られる判定結果と、所作判定部168から得られる判定結果と、分類部170から得られる分類結果と、に基づき、報知部174での動作を制御する。報知部174は、表示装置18を含んで構成されてよい(図1及び図2参照)。また、報知部174は、表示装置18とは別の表示装置であってもよい。報知制御部172は、報知部174に出力する情報内容を制御し得る。 The notification control unit 172 controls the operation of the notification unit 174 based on the determination result obtained from the pass / fail determination unit 164, the determination result obtained from the action determination unit 168, and the classification result obtained from the classification unit 170. .. The notification unit 174 may be configured to include a display device 18 (see FIGS. 1 and 2). Further, the notification unit 174 may be a display device different from the display device 18. The notification control unit 172 can control the information content output to the notification unit 174.

図12は、分類部170から得られる分類結果の報知例を示す図である。図12の例では、観察画像内に病変182であるポリープが検出されており、内視鏡撮影画像の表示領域の右横に、分類結果を示す報知情報としての「result: neoplasm」(腫瘍)という文字情報が表示されている。分類結果を示す報知情報は、内視鏡撮影画像と共に同一画面内に表示されることが好ましい。 FIG. 12 is a diagram showing an example of notification of the classification result obtained from the classification unit 170. In the example of FIG. 12, a polyp, which is a lesion 182, is detected in the observation image, and “result: neoplasm” (tumor) as notification information indicating the classification result is on the right side of the display area of the endoscopically photographed image. Character information is displayed. It is preferable that the notification information indicating the classification result is displayed on the same screen together with the endoscopically captured image.

その一方で、所作判定部168によりユーザーに鑑別の意図が無いと判定された場合にも、自動分類結果などを報知すると、ユーザーの注意力を損ない、観察の阻害、また別の病変の見落としに繋がる恐れがある。そこで、報知制御部172は、所作判定部168によりユーザーに鑑別の意図が無いと判定された場合には、図13又は図14に示すような表示を行うよう報知制御を実施する。 On the other hand, even if the behavior determination unit 168 determines that the user has no intention of discrimination, if the automatic classification result is notified, the user's attention will be impaired, observation will be hindered, and another lesion will be overlooked. There is a risk of being connected. Therefore, when the action determination unit 168 determines that the user has no intention of discrimination, the notification control unit 172 implements notification control so as to display as shown in FIGS. 13 or 14.

図13は、分類結果を報知させないようにした例である。図13に示す例では、内視鏡撮影画像の表示領域の右横に、分類結果が報知されないことを明示する情報としての「result: − 」という情報が表示されている。 FIG. 13 is an example in which the classification result is not notified. In the example shown in FIG. 13, the information "result: −" is displayed on the right side of the display area of the endoscopically captured image as information clearly indicating that the classification result is not notified.

図14は、分類結果を示す文字情報に代えて、分類処理が起動していない旨を報知する情報を提示する報知例である。図14に示す例では内視鏡撮影画像の表示領域の右横に、分類処理が起動していないことを明示する情報としての「classification off」という情報が表示され、「on」の文字は非表示又はグレーアウト表示となっている。図13に示すような報知形態に代えて、図14に示すような報知形態を採用してもよい。また、図13に示す報知形態と図14に示す報知形態とを組み合わせた報知形態を採用してもよい。 FIG. 14 is a notification example in which information for notifying that the classification process has not been activated is presented instead of the character information indicating the classification result. In the example shown in FIG. 14, the information "classification off" is displayed on the right side of the display area of the endoscopically captured image as information clearly indicating that the classification process has not been activated, and the character "on" is not. It is displayed or grayed out. Instead of the notification form as shown in FIG. 13, the notification form as shown in FIG. 14 may be adopted. Further, a notification form in which the notification form shown in FIG. 13 and the notification form shown in FIG. 14 may be combined may be adopted.

《第1実施形態に係る医療画像処理装置の動作の例》
医療画像処理装置160を用いた医療画像処理方法について説明する。図15は、第1実施形態に係る医療画像処理装置160の動作の例を示すフローチャートである。医療画像処理装置の動作は、医療画像処理装置の作動方法と理解してもよいし、若しくはプロセッサ装置の作動方法と理解してもよい。
<< Example of operation of the medical image processing apparatus according to the first embodiment >>
A medical image processing method using the medical image processing device 160 will be described. FIG. 15 is a flowchart showing an example of the operation of the medical image processing device 160 according to the first embodiment. The operation of the medical image processing device may be understood as an operating method of the medical image processing device, or may be understood as an operating method of the processor device.

ステップS11において、医療画像処理装置160は、画像取得部162を介して現在の画像を受信する。画像取得部162が取得する画像は、電子内視鏡12を用いて撮影された被写体像を含む医療画像であり、時系列で順次に撮影される時系列画像の1つの画像である。例えば、画像は、動画を構成する1フレームの画像である。ステップS11は本開示における「画像取得工程」の一例である。 In step S11, the medical image processing device 160 receives the current image via the image acquisition unit 162. The image acquired by the image acquisition unit 162 is a medical image including a subject image taken by using the electronic endoscope 12, and is one image of a time-series image sequentially taken in time series. For example, the image is a one-frame image constituting a moving image. Step S11 is an example of the “image acquisition step” in the present disclosure.

ステップS12において、可否判定部164は、入力された現在の画像について画像の状態を認識する処理を行う。具体的には、可否判定部164は、分類処理に適した画像であるか否かを認識する処理を行う。 In step S12, the pass / fail determination unit 164 performs a process of recognizing the state of the input current image. Specifically, the pass / fail determination unit 164 performs a process of recognizing whether or not the image is suitable for the classification process.

ステップS14において、可否判定部164は、分類が可能であるか否かを判定する。ステップS12とステップS14は本開示における「可否判定工程」の一例である。ステップS14の判定処理において可否判定部164が分類可能と判定した場合には、ステップS16及びステップS20に移行する。 In step S14, the approval / disapproval determination unit 164 determines whether or not classification is possible. Step S12 and step S14 are examples of the "possibility determination step" in the present disclosure. When the approval / disapproval determination unit 164 determines in the determination process of step S14 that it can be classified, the process proceeds to step S16 and step S20.

ステップS16において、動き推定部166は、過去又は未来の画像を含む2枚以上の複数の画像を用いて画像の動きを推定する。ステップS16は本開示における「動き推定工程」の一例である。 In step S16, the motion estimation unit 166 estimates the motion of an image using two or more images including past or future images. Step S16 is an example of the “motion estimation process” in the present disclosure.

ステップS16の後、ステップS18において、所作判定部168は、動き推定部166の推定結果である動き情報を基にユーザーの所作を判定する。ステップS18は本開示における「所作判定工程」の一例である。 After step S16, in step S18, the action determination unit 168 determines the user's action based on the motion information which is the estimation result of the motion estimation unit 166. Step S18 is an example of the “behavior determination step” in the present disclosure.

また、ステップS16及びステップS18の処理と並行して、ステップS20において、分類部170は、画像内から病変の領域を認識して所定のクラスに分類する処理を行う。ステップS20は本開示における「分類工程」の一例である。 Further, in parallel with the processes of steps S16 and S18, in step S20, the classification unit 170 performs a process of recognizing the lesion region from the image and classifying the lesion into a predetermined class. Step S20 is an example of the "classification step" in the present disclosure.

ステップS18及びステップS20の後、ステップS22に移行する。またステップS14の判定結果が「No判定」すなわち、分類不能と判定された場合は、ステップS16からステップS20の処理を省略して、ステップS22に移行する。 After step S18 and step S20, the process proceeds to step S22. Further, when the determination result in step S14 is "No determination", that is, when it is determined that the classification is impossible, the process of step S20 is omitted from step S16, and the process proceeds to step S22.

ステップS22において、報知制御部172は、報知部174に出力する報知情報の設定を行う。報知制御部172は、所作判定部168の判定結果が「鑑別」の所作に該当する場合には、分類部170の分類結果を報知するよう報知情報を設定する(図12参照)。その一方、報知制御部172は、所作判定部168の判定結果が「鑑別」の所作に非該当である場合には、分類部170の分類結果を非報知とするよう報知情報を設定する(図13及び図14参照)。ステップS22は本開示における「報知制御工程」の一例である。 In step S22, the notification control unit 172 sets the notification information to be output to the notification unit 174. When the determination result of the action determination unit 168 corresponds to the action of "discrimination", the notification control unit 172 sets the notification information so as to notify the classification result of the classification unit 170 (see FIG. 12). On the other hand, when the determination result of the action determination unit 168 does not correspond to the action of "discrimination", the notification control unit 172 sets the notification information so that the classification result of the classification unit 170 is not notified (FIG. 13 and FIG. 14). Step S22 is an example of the “notification control step” in the present disclosure.

ステップS22の後、図15のフローチャートを終了する。時系列で取得される画像ごとに、図15に示すフローチャートの処理が繰り返される。 After step S22, the flowchart of FIG. 15 ends. The processing of the flowchart shown in FIG. 15 is repeated for each image acquired in time series.

なお、図15に示すフローチャートの処理は、時系列で取得される画像ごとに実施する態様に限らず、時系列で取得される画像の一部の画像のみについて実施してもよい。 The processing of the flowchart shown in FIG. 15 is not limited to the mode of performing each image acquired in the time series, and may be performed only for a part of the images acquired in the time series.

《第1実施形態による利点》
上述した第1実施形態の構成によれば、次のような利点がある。
<< Advantages of the First Embodiment >>
According to the configuration of the first embodiment described above, there are the following advantages.

(1)医療画像処理装置160によれば、時系列で得られる複数の画像からユーザーの所作の意図を判定し、鑑別の意図があると判定した画像について分類結果を報知する一方、鑑別の意図が無いと判定した画像について分類結果を非報知とすることができる。これにより、不必要なタイミングでの過剰な報知を抑制でき、支援が必要なタイミングで適切な情報を提供することができる。 (1) According to the medical image processing device 160, the intention of the user's action is determined from a plurality of images obtained in time series, and the classification result is notified for the image determined to have the intention of discrimination, while the intention of discrimination is given. It is possible to make the classification result non-notification for the image determined to be absent. As a result, excessive notification at an unnecessary timing can be suppressed, and appropriate information can be provided at a timing when support is required.

(2)医療画像処理装置160によれば、ユーザーによる画像の観察を阻害せずに、観察の際に要するユーザーの注意力を持続させることできる。医療画像処理装置160によれば、病変領域などの注目領域の見落としを抑制することができる。 (2) According to the medical image processing device 160, it is possible to maintain the user's attention required for observation without hindering the user's observation of the image. According to the medical image processing apparatus 160, it is possible to suppress oversight of a region of interest such as a lesion region.

(3)医療画像処理装置160によれば、時系列で得られる画像の中に、認識に不適な画像が一時的に含まれた場合に、その不適な画像についての動き推定の処理、所作判定の処理、及び分類処理が省略され、これらの処理が不実施となる。このため、認識に不適な画像から真実性の低い分類結果(誤った認識結果)が生成されてユーザーに提供されてしまうことを回避できる。また、認識に不適な画像について分類結果の報知を回避することができ、時系列の画像群の中で正確性のある分類結果の情報を提供することができる。 (3) According to the medical image processing apparatus 160, when an image unsuitable for recognition is temporarily included in the images obtained in time series, motion estimation processing and behavior determination for the unsuitable image are performed. Processing and classification processing are omitted, and these processing is not performed. Therefore, it is possible to prevent a classification result (erroneous recognition result) having low truthfulness from being generated from an image unsuitable for recognition and being provided to the user. In addition, it is possible to avoid notification of the classification result for images that are unsuitable for recognition, and it is possible to provide accurate classification result information in the time-series image group.

(4)医療画像処理装置160によれば、検査中の連続的な撮影によって得られる動画の表示中に、分類結果をリアルタイムでユーザーに報知することができる。 (4) According to the medical image processing device 160, the classification result can be notified to the user in real time during the display of the moving image obtained by the continuous shooting during the examination.

(5)医療画像処理装置160によれば、医師等のユーザーにとって有益な診断支援を行うことができる。 (5) According to the medical image processing apparatus 160, it is possible to provide useful diagnostic support for users such as doctors.

《第2実施形態:医療情報管理システムへの応用例》
本発明に係る医療画像処理装置は、図1に例示した内視鏡システム10のプロセッサ装置16に適用する形態に限らず、様々な応用が可能である。例えば、医療画像処理装置は、内視鏡画像を含む様々な医療情報を管理する医療情報管理システムに応用することができる。
<< Second Embodiment: Application example to medical information management system >>
The medical image processing device according to the present invention is not limited to the form applied to the processor device 16 of the endoscope system 10 illustrated in FIG. 1, and various applications are possible. For example, the medical image processing device can be applied to a medical information management system that manages various medical information including endoscopic images.

図16は、医療情報管理システムの構成例を示すブロック図である。医療情報管理システム200は、画像取込端末202と、画像保存サーバ204と、情報管理装置210と、表示装置218と、入力装置219と、を備える。画像取込端末202、画像保存サーバ204及び情報管理装置210の各々は、電気通信回線230に接続される。「接続」という用語は、有線接続に限らず、無線接続の概念も含む。 FIG. 16 is a block diagram showing a configuration example of a medical information management system. The medical information management system 200 includes an image acquisition terminal 202, an image storage server 204, an information management device 210, a display device 218, and an input device 219. Each of the image acquisition terminal 202, the image storage server 204, and the information management device 210 is connected to the telecommunication line 230. The term "connection" is not limited to wired connection, but also includes the concept of wireless connection.

電気通信回線230は、ローカルエリアネットワークであってもよいし、ワイドエリアネットワークであってもよい。電気通信回線230は、有線及び無線の適宜の組み合わせによって構成される。 The telecommunication line 230 may be a local area network or a wide area network. The telecommunication line 230 is composed of an appropriate combination of wired and wireless.

内視鏡システム10のプロセッサ装置16は、電気通信回線230に接続される。プロセッサ装置16によって生成された医療画像は、電気通信回線230を介して、画像取込端末202、画像保存サーバ204、及び情報管理装置210のうち少なくとも1つに取り込まれる。例えば、プロセッサ装置16によって生成された医療画像は、画像取込端末202に送られる。画像取込端末202は、プロセッサ装置16から医療画像を受信する。 The processor device 16 of the endoscope system 10 is connected to the telecommunication line 230. The medical image generated by the processor device 16 is taken into at least one of the image acquisition terminal 202, the image storage server 204, and the information management device 210 via the telecommunication line 230. For example, the medical image generated by the processor device 16 is sent to the image acquisition terminal 202. The image acquisition terminal 202 receives a medical image from the processor device 16.

画像取込端末202は、プロセッサ装置16から受信した医療画像を画像保存サーバ204に送る。また、画像取込端末202は、プロセッサ装置16から受信した医療画像を情報管理装置210に送信してもよい。 The image acquisition terminal 202 sends the medical image received from the processor device 16 to the image storage server 204. Further, the image acquisition terminal 202 may transmit the medical image received from the processor device 16 to the information management device 210.

画像保存サーバ204は、様々な医療画像のデータベースを格納しておく記憶装置の役割を果たす。画像保存サーバ204に代えて、クラウドストレージであってもよい。画像保存サーバ204には、医療画像の他に、医療画像に含まれる注目領域(関心領域)、注目すべき対象の有無、画像分類の結果などの画像解析結果を記憶してもよい。 The image storage server 204 serves as a storage device for storing a database of various medical images. Instead of the image storage server 204, cloud storage may be used. In addition to the medical image, the image storage server 204 may store image analysis results such as a region of interest (region of interest) included in the medical image, the presence or absence of an object of interest, and the result of image classification.

なお、図16には、1つの内視鏡システム10を示したが、電気通信回線230には、複数の内視鏡システムを接続し得る。また、電気通信回線230には、内視鏡システムに限らず、超音波診断装置など、他の医療画像撮影装置が接続されてもよい。超音波診断装置から得られる超音波画像は「医療画像」の一例である。医療画像撮影装置は、例えば、X線撮影装置、CT撮影装置、MRI(magnetic resonance imaging)撮影装置、核医学診断装置、若しくは、眼底カメラのうちの1つ又は組み合わせであってよい。 Although one endoscope system 10 is shown in FIG. 16, a plurality of endoscope systems can be connected to the telecommunication line 230. Further, the telecommunication line 230 may be connected not only to an endoscopic system but also to another medical imaging device such as an ultrasonic diagnostic device. The ultrasonic image obtained from the ultrasonic diagnostic apparatus is an example of a "medical image". The medical imaging device may be, for example, one or a combination of an X-ray imaging device, a CT imaging device, an MRI (magnetic resonance imaging) imaging device, a nuclear medicine diagnostic device, or a fundus camera.

情報管理装置210は、例えば、コンピュータのハードウェア及びソフトウェアによって実現される。情報管理装置210には、表示装置218と入力装置219が接続されている。情報管理装置210は、図4に示した医療画像処理装置160の機能の一部又は全部を含んでよい。例えば、情報管理装置210は、図4に示した画像取得部162、可否判定部164、動き推定部166、所作判定部168、分類部170及び報知制御部172の機能を含む。 The information management device 210 is realized by, for example, computer hardware and software. A display device 218 and an input device 219 are connected to the information management device 210. The information management device 210 may include a part or all of the functions of the medical image processing device 160 shown in FIG. For example, the information management device 210 includes the functions of the image acquisition unit 162, the pass / fail determination unit 164, the motion estimation unit 166, the action determination unit 168, the classification unit 170, and the notification control unit 172 shown in FIG.

図16に示す表示装置218は、報知部174として機能し得る。情報管理装置210の機能は、1台又は複数台のコンピュータによって実現することができ、また、クラウドコンピューティングによって実現することもできる。情報管理装置210は、画像保存サーバ204の機能を含んでいてもよい。また、画像取込端末202は、画像取得部162として機能し得る。なお、画像取込端末202を省略した構成も可能であり、その場合、画像保存サーバ204及び/又は情報管理装置210がプロセッサ装置16から医療画像を取り込むよう構成される。 The display device 218 shown in FIG. 16 can function as a notification unit 174. The function of the information management device 210 can be realized by one or a plurality of computers, and can also be realized by cloud computing. The information management device 210 may include the function of the image storage server 204. Further, the image acquisition terminal 202 can function as an image acquisition unit 162. It is also possible to omit the image acquisition terminal 202, in which case the image storage server 204 and / or the information management device 210 is configured to acquire medical images from the processor device 16.

本実施形態に係る医療情報管理システム200によれば、電子内視鏡12からリアルタイムで得られる医療画像に限らず、画像保存サーバ204に保存されている動画等の再生の際にも、図15で説明したフローチャートの処理を行うことができる。 According to the medical information management system 200 according to the present embodiment, not only the medical image obtained from the electronic endoscope 12 in real time, but also when playing back a moving image or the like stored in the image storage server 204, FIG. The flowchart described in the above can be processed.

情報管理装置210は、例えば、病院内の手術室、検査室、若しくは、カンファレンス室などに設置してもよいし、院外施設の医療機関、若しくは研究機関などに設置してもよい。情報管理装置210は、診察、治療、診断などの支援を行うワークステーションであってもよいし、医療業務を支援する業務支援装置であってもよい。業務支援装置は、臨床情報の蓄積、診断書類の作成支援、レポート作成支援などを行う機能を備えていてよい。情報管理装置210は本開示における「医療画像処理装置」の一例である。医療情報管理システム200は本開示における「診断支援装置」の一例である。 The information management device 210 may be installed in, for example, an operating room, an examination room, a conference room, or the like in a hospital, or may be installed in a medical institution, a research institution, or the like of an out-of-hospital facility. The information management device 210 may be a workstation that supports medical examination, treatment, diagnosis, or the like, or may be a business support device that supports medical work. The business support device may have a function of accumulating clinical information, supporting the creation of diagnostic documents, supporting the creation of reports, and the like. The information management device 210 is an example of the “medical image processing device” in the present disclosure. The medical information management system 200 is an example of the "diagnosis support device" in the present disclosure.

《各処理部及び制御部のハードウェア構成について》
図4で説明した医療画像処理装置160の画像取得部162、可否判定部164、動き推定部166、所作判定部168、分類部170、及び報知制御部172などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。
<< Hardware configuration of each processing unit and control unit >>
A processing unit that executes various processes such as an image acquisition unit 162, a pass / fail determination unit 164, a motion estimation unit 166, an action determination unit 168, a classification unit 170, and a notification control unit 172 of the medical image processing unit 160 described with reference to FIG. The hardware structure of the (processing unit) is various processors as shown below.

各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 The various processors include a CPU (Central Processing Unit), which is a general-purpose processor that executes programs and functions as various processing units, a GPU (Graphics Processing Unit), which is a processor specialized for image processing, and an FPGA (Field). Programmable Logic Device (PLD), which is a processor whose circuit configuration can be changed after manufacturing such as Programmable Gate Array), and ASIC (Application Specific Integrated Circuit), which are specially designed to execute specific processing. A dedicated electric circuit or the like, which is a processor having a circuit configuration, is included.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、若しくは、CPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types. For example, one processing unit may be composed of a plurality of FPGAs, a combination of a CPU and an FPGA, or a combination of a CPU and a GPU. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which a processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. be. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.

更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.

《変形例1》
電子内視鏡は、軟性内視鏡に限らず、硬性内視鏡であってもよいし、カプセル内視鏡であってもよい。また、被写体像を含む時系列の医療画像を生成する装置は、電子内視鏡に限らず、例えば、超音波診断装置などであってもよい。
<< Modification 1 >>
The electronic endoscope is not limited to a flexible endoscope, and may be a rigid endoscope or a capsule endoscope. Further, the device for generating a time-series medical image including a subject image is not limited to an electronic endoscope, and may be, for example, an ultrasonic diagnostic device.

《変形例2》
本開示の医療画像処理装置は、医師等による診察、治療、又は診断などを支援する診断支援装置として用いることができる。「診断支援」という用語は、診察支援、及び/又は治療支援の概念を含む。
<< Modification 2 >>
The medical image processing device of the present disclosure can be used as a diagnostic support device that supports medical examination, treatment, diagnosis, etc. by a doctor or the like. The term "diagnostic support" includes the concept of diagnostic support and / or treatment support.

《内視鏡システムの観察光について》
観察光は、白色光、或いは1又は複数の特定の波長帯域の光、或いはこれらの組み合わせなど観察目的に応じた各種波長帯域の光が選択される。白色光は、白色の波長帯域の光又は複数の波長帯域の光である。「特定の波長帯域」は、白色の波長帯域よりも狭い帯域である。特定の波長帯域に関する具体例を以下に示す。
<< About the observation light of the endoscopic system >>
As the observation light, white light, light in one or a plurality of specific wavelength bands, or light in various wavelength bands according to the observation purpose such as a combination thereof is selected. White light is light in a white wavelength band or light in a plurality of wavelength bands. The "specific wavelength band" is a band narrower than the white wavelength band. Specific examples relating to a specific wavelength band are shown below.

〈第1例〉
特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下の波長帯域又は530nm以上550nm以下の波長帯域を含み、且つ第1例の光は、390nm以上450nm以下の波長帯域内又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
<First example>
A first example of a particular wavelength band is, for example, the blue or green band in the visible range. The wavelength band of the first example includes a wavelength band of 390 nm or more and 450 nm or less or a wavelength band of 530 nm or more and 550 nm or less, and the light of the first example is in the wavelength band of 390 nm or more and 450 nm or less or a wavelength of 530 nm or more and 550 nm or less. It has a peak wavelength in the band.

〈第2例〉
特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下の波長帯域又は610nm以上730nm以下の波長帯域を含み、且つ第2例の光は、585nm以上615nmの波長帯域内以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
<Second example>
A second example of a particular wavelength band is, for example, the red band in the visible range. The wavelength band of the second example includes a wavelength band of 585 nm or more and 615 nm or less or a wavelength band of 610 nm or more and 730 nm or less, and the light of the second example has a wavelength of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less. It has a peak wavelength in the band.

〈第3例〉
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nmの波長帯域、470±10nmの波長帯域、又は600nm以上750nm以下の波長帯域を含み、且つ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域内にピーク波長を有する。
<Third example>
The third example of a specific wavelength band includes a wavelength band in which the absorption coefficient of hemoglobin oxide and reduced hemoglobin are different, and the light of the third example has a peak wavelength in a wavelength band in which the absorption coefficient of hemoglobin oxide and reduced hemoglobin are different. Has. The wavelength band of the third example includes a wavelength band of 400 ± 10 nm, 440 ± 10 nm, a wavelength band of 470 ± 10 nm, or a wavelength band of 600 nm or more and 750 nm or less, and the light of the third example is 400 ± 10 nm. It has a peak wavelength in the wavelength band of 440 ± 10 nm, 470 ± 10 nm, or 600 nm or more and 750 nm or less.

〈第4例〉
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ、且つこの蛍光物質を励起させる励起光の波長帯域、例えば、390nmから470nmである。
<4th example>
The fourth example of the specific wavelength band is used for observing the fluorescence emitted by the fluorescent substance in the living body (fluorescence observation), and the wavelength band of the excitation light that excites the fluorescent substance, for example, 390 nm to 470 nm.

〈第5例〉
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下の波長帯域又は905nm以上970nm以下の波長帯域を含み、且つ第5例の光は、790nm以上820nm以下の波長帯域内又は905nm以上970nm以下の波長帯域内にピーク波長を有する。
<Example 5>
A fifth example of a specific wavelength band is the wavelength band of infrared light. The wavelength band of the fifth example includes a wavelength band of 790 nm or more and 820 nm or less or a wavelength band of 905 nm or more and 970 nm or less, and the light of the fifth example is within the wavelength band of 790 nm or more and 820 nm or less or a wavelength of 905 nm or more and 970 nm or less. It has a peak wavelength in the band.

《観察光の切り替えについて》
光源の種類は、レーザ光源、キセノン光源、若しくは、LED光源(LED:Light-Emitting Diode)又はこれらの適宜の組み合わせを採用し得る。光源の種類、波長、フィルタの有無等は被写体の種類、観察の目的等に応じて構成することが好ましく、また観察の際は被写体の種類、観察の目的等に応じて照明光の波長を組み合わせ及び/又は切り替えることが好ましい。波長を切り替える場合、例えば光源の前方に配置され特定波長の光を透過又は遮光するフィルタが設けられた円板状のフィルタ(ロータリカラーフィルタ)を回転させることにより、照射する光の波長を切り替えてもよい。
<< Switching of observation light >>
As the type of light source, a laser light source, a xenon light source, an LED light source (LED: Light-Emitting Diode), or an appropriate combination thereof may be adopted. The type and wavelength of the light source, the presence or absence of a filter, etc. are preferably configured according to the type of subject, the purpose of observation, etc., and when observing, the wavelength of the illumination light is combined according to the type of subject, the purpose of observation, etc. And / or switching is preferred. When switching the wavelength, for example, by rotating a disk-shaped filter (rotary color filter) arranged in front of the light source and provided with a filter that transmits or blocks light of a specific wavelength, the wavelength of the emitted light is switched. May be good.

電子内視鏡に用いる撮像素子は、各画素に対しカラーフィルタが配置されたカラー撮像素子に限定されるものではなく、モノクロ撮像素子でもよい。モノクロ撮像素子を用いる場合、照明光の波長を順次切り替えて面順次(色順次)で撮像することができる。例えば出射する照明光の波長を、紫色、青色、緑色、及び赤色の間で順次切り替えてもよいし、広帯域光(白色光)を照射してロータリカラーフィルタ(赤色、緑色、青色等)により出射する照明光の波長を切り替えてもよい。また、1又は複数の狭帯域光を照射してロータリカラーフィルタにより出射する照明光の波長を切り替えてもよい。狭帯域光は波長の異なる2波長以上の赤外光でもよい。 The image sensor used in the electronic endoscope is not limited to the color image sensor in which the color filter is arranged for each pixel, and may be a monochrome image sensor. When a monochrome image sensor is used, the wavelength of the illumination light can be sequentially switched to perform surface-sequential (color-sequential) imaging. For example, the wavelength of the emitted illumination light may be sequentially switched between purple, blue, green, and red, or a wide band light (white light) is irradiated and emitted by a rotary color filter (red, green, blue, etc.). The wavelength of the illumination light to be used may be switched. Further, the wavelength of the illumination light emitted by the rotary color filter by irradiating one or a plurality of narrow band lights may be switched. The narrow band light may be infrared light having two or more wavelengths having different wavelengths.

《特殊光画像の生成例》
プロセッサ装置16は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成には「取得」の概念が含まれる。この場合、プロセッサ装置16は、特殊光画像取得部として機能する。プロセッサ装置16は、特定の波長帯域の信号を、通常光画像に含まれる赤(R)、緑(G)、及び青(B)、或いはシアン(C)、マゼンタ(M)、及びイエロー(Y)の色情報に基づく演算を行うことで得ることができる。
<< Example of generating a special light image >>
The processor device 16 may generate a special optical image having information in a specific wavelength band based on a normal optical image obtained by imaging with white light. The generation referred to here includes the concept of "acquisition". In this case, the processor device 16 functions as a special optical image acquisition unit. The processor device 16 transmits signals in a specific wavelength band to red (R), green (G), and blue (B), or cyan (C), magenta (M), and yellow (Y), which are usually contained in an optical image. ) Can be obtained by performing an operation based on the color information.

《特徴量画像の生成例》
プロセッサ装置16は、医療画像として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像、並びに特定の波長帯域の光を照射して得る特殊光画像の少なくともいずれかに基づく演算を用いて、特徴量画像を生成し得る。特徴量画像は医療画像の一形態である。
<< Example of feature image generation >>
The processor device 16 is a medical image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band, and a special optical image obtained by irradiating light in a specific wavelength band. An operation based on at least one of the above can be used to generate a feature image. A feature image is a form of medical image.

《コンピュータに医療画像処理装置の機能を実現させるプログラムについて》
上述の実施形態で説明した医療画像処理装置の機能をコンピュータに実現させるプログラムを光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。またこのような有体物たる非一時的な情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
<< About the program that makes the computer realize the function of the medical image processing device >>
A program for realizing the function of the medical image processing apparatus described in the above-described embodiment on a computer is recorded on an optical disk, a magnetic disk, or a computer-readable medium such as a semiconductor memory or other tangible non-temporary information storage medium. It is possible to provide a program through an information storage medium. Further, instead of the mode in which the program is stored and provided in such a tangible non-temporary information storage medium, it is also possible to provide the program signal as a download service by using a telecommunication line such as the Internet.

また、上述の実施形態で説明した医療画像処理装置の機能の一部又は全部をアプリケーションサーバとして提供し、電気通信回線を通じて処理機能を提供するサービスを行うことも可能である。 It is also possible to provide a part or all of the functions of the medical image processing apparatus described in the above-described embodiment as an application server, and provide a service that provides the processing function through a telecommunication line.

《実施形態及び変形例等の組み合わせについて》
上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
<< Combination of Embodiments and Modifications >>
The components described in the above-described embodiment and the components described in the modified examples can be used in combination as appropriate, or some components can be replaced.

《付記》
本明細書は、上述した各実施形態及び変形例等に加えて、以下に記載の発明の開示を含む。
<< Additional notes >>
The present specification includes the disclosure of the invention described below in addition to the above-described embodiments and modifications.

(付記1)
医療画像処理装置は、医療画像解析処理部と、医療画像解析結果取得部と、を有し、医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 1)
The medical image processing apparatus includes a medical image analysis processing unit and a medical image analysis result acquisition unit, and the medical image analysis processing unit is a notable area based on the feature amount of pixels of a medical image. The medical image analysis result acquisition unit is a medical image processing device that detects an area and acquires the analysis result of the medical image analysis processing unit.

医療画像解析処理部は、画像認識部を含んでよい。 The medical image analysis processing unit may include an image recognition unit.

(付記2)
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(Appendix 2)
The medical image analysis processing unit detects the presence or absence of a noteworthy object based on the feature amount of the pixel of the medical image, and the medical image analysis result acquisition unit acquires the analysis result of the medical image analysis processing unit. Device.

(付記3)
医療画像解析結果取得部は、医療画像の解析結果を記録する記録装置から取得し、解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、若しくは両方である医療画像処理装置。
(Appendix 3)
The medical image analysis result acquisition unit acquires from a recording device that records the analysis result of the medical image, and the analysis result is either a notable area included in the medical image or the presence or absence of a notable object. A medical image processor that is, or both.

(付記4)
医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
(Appendix 4)
A medical image is a medical image processing apparatus that is a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band.

(付記5)
医療画像は、特定の波長帯域の光を照射して得た画像であり、特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
(Appendix 5)
A medical image is an image obtained by irradiating light in a specific wavelength band, and the specific wavelength band is a narrower band than the white wavelength band.

(付記6)
特定の波長帯域は、可視域の青色若しくは、緑色帯域である医療画像処理装置。
(Appendix 6)
A medical image processing device in which a specific wavelength band is a blue or green band in the visible range.

(付記7)
特定の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 7)
A medical treatment in which a specific wavelength band includes a wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less, and light in a specific wavelength band has a peak wavelength in a wavelength band of 390 nm or more and 450 nm or less or 530 nm or more and 550 nm or less. Image processing device.

(付記8)
特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
(Appendix 8)
A medical image processing device in which a specific wavelength band is a red band in the visible range.

(付記9)
特定の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(Appendix 9)
The specific wavelength band includes a wavelength band of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less, and the light of the specific wavelength band has a peak wavelength in the wavelength band of 585 nm or more and 615 nm or less or 610 nm or more and 730 nm or less. Image processing device.

(付記10)
特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 10)
The specific wavelength band includes a wavelength band in which the absorption coefficient differs between the oxidized hemoglobin and the reduced hemoglobin, and the light in the specific wavelength band has a peak wavelength in the wavelength band in which the absorption coefficient differs between the oxidized hemoglobin and the reduced hemoglobin. Medical image processing device.

(付記11)
特定の波長帯域は、400±10nm、440±10nm、470±10nm、又は、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、又は、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 11)
The specific wavelength band includes 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or 600 nm or more and 750 nm or less, and the light in the specific wavelength band is 400 ± 10 nm, 440 ± 10 nm, 470 ±. A medical image processing apparatus having a peak wavelength in a wavelength band of 10 nm or 600 nm or more and 750 nm or less.

(付記12)
医療画像は生体内を写した生体内画像であり、生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
(Appendix 12)
A medical image is an in-vivo image that captures the inside of a living body, and an in-vivo image is a medical image processing device that has information on fluorescence emitted by a fluorescent substance in the living body.

(付記13)
蛍光は、ピークが390nm以上470nm以下である励起光を生体内に照射して得る医療画像処理装置。
(Appendix 13)
Fluorescence is a medical image processing device obtained by irradiating a living body with excitation light having a peak of 390 nm or more and 470 nm or less.

(付記14)
医療画像は生体内を写した生体内画像であり、特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
(Appendix 14)
A medical image is an in-vivo image of the inside of a living body, and a specific wavelength band is a wavelength band of infrared light.

(付記15)
特定の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(Appendix 15)
A medical image in which a specific wavelength band includes a wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less, and light in a specific wavelength band has a peak wavelength in a wavelength band of 790 nm or more and 820 nm or less or 905 nm or more and 970 nm or less. Processing equipment.

(付記16)
医療画像取得部は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、医療画像は特殊光画像である医療画像処理装置。
(Appendix 16)
The medical image acquisition unit acquires a special optical image having information in a specific wavelength band based on a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in the white band. A medical image processing device equipped with an optical image acquisition unit and a medical image is a special optical image.

(付記17)
特定の波長帯域の信号は、通常光画像に含まれるRGB或いはCMYの色情報に基づく演算により得る医療画像処理装置。
(Appendix 17)
A medical image processing device that obtains a signal in a specific wavelength band by calculation based on RGB or CMY color information included in a normal optical image.

(付記18)
白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、医療画像は特徴量画像である医療画像処理装置。
(Appendix 18)
By calculation based on at least one of a normal light image obtained by irradiating light in a white band or light in a plurality of wavelength bands as light in a white band and a special light image obtained by irradiating light in a specific wavelength band. A medical image processing device including a feature amount image generation unit that generates a feature amount image, and the medical image is a feature amount image.

(付記19)
付記1から付記18のいずれか1つに記載の医療画像処理装置と、白色の波長帯域の光、又は、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、を備える内視鏡装置。
(Appendix 19)
The medical image processing apparatus according to any one of Supplementary note 1 to Supplementary note 18, and an endoscope that acquires an image by irradiating at least one of light in a white wavelength band or light in a specific wavelength band. An endoscopic device comprising.

(付記20)
付記1から付記18のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
(Appendix 20)
A diagnostic support device including the medical image processing device according to any one of Supplementary Note 1 to Supplementary Note 18.

(付記21)
付記1から付記18のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
(Appendix 21)
A medical business support device including the medical image processing device according to any one of Supplementary Note 1 to Supplementary Note 18.

[その他]
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、又は削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で同等関連分野の通常の知識を有する者により、多くの変形が可能である。
[others]
In the embodiment of the present invention described above, the constituent requirements can be appropriately changed, added, or deleted without departing from the spirit of the present invention. The present invention is not limited to the embodiments described above, and many modifications can be made by a person having ordinary knowledge in an equivalent related field within the technical idea of the present invention.

10 内視鏡システム
12 電子内視鏡
14 光源装置
16 プロセッサ装置
18 表示装置
19 入力装置
20 挿入部
22 先端硬質部
22A 先端面
24 湾曲部
26 軟性部
30 操作部
31 アングルノブ
32 送気送水ボタン
33 吸引ボタン
34 モード切替スイッチ
35 ズーム操作部
36 処置具導入口
40 ユニバーサルコード
42 コネクタ
42A ビデオコネクタ
42B ライトガイドコネクタ
42C 送水コネクタ
44 送水タンク
50 照明窓
52 観察窓
54 鉗子出口
56 送気送水用ノズル
60 対物光学系
62 撮像素子
64 アナログフロントエンド回路
65 タイミングジェネレータ
66 CPU
68 撮像チップ
70 CPU
72 ROM
74 RAM
76 デジタル信号処理回路
78 表示制御回路
100 第1光源
101 第1光源駆動回路
102 第2光源
103 第2光源駆動回路
105 合波部
120 ライトガイド
121 入射端
122 出射端
124 蛍光体
160 医療画像処理装置
162 画像取得部
164 可否判定部
164A 認識部
166 動き推定部
167 データベース
168 所作判定部
169 記憶部
170 分類部
172 報知制御部
174 報知部
182 病変
184 泡
200 医療情報管理システム
202 画像取込端末
204 画像保存サーバ
210 情報管理装置
218 表示装置
219 入力装置
230 電気通信回線
IM1、IM2、IM3 画像
IM(t) 現在の画像
IM(t−1) 過去画像
IM(t+1) 次のフレームの画像
S11〜S22 医療画像処理装置における処理のステップ
10 Endoscope system 12 Electronic endoscope 14 Light source device 16 Processor device 18 Display device 19 Input device 20 Insertion part 22 Tip hard part 22A Tip surface 24 Curved part 26 Flexible part 30 Operation part 31 Angle knob 32 Air supply / water supply button 33 Suction button 34 Mode selector switch 35 Zoom operation unit 36 Treatment tool introduction port 40 Universal cord 42 Connector 42A Video connector 42B Light guide connector 42C Water supply connector 44 Water supply tank 50 Lighting window 52 Observation window 54 Force outlet 56 Air supply water supply nozzle 60 Objective Optical system 62 Imaging element 64 Analog front-end circuit 65 Timing generator 66 CPU
68 Imaging chip 70 CPU
72 ROM
74 RAM
76 Digital signal processing circuit 78 Display control circuit 100 1st light source 101 1st light source drive circuit 102 2nd light source 103 2nd light source drive circuit 105 Converging part 120 Light guide 121 Incident end 122 Exit end 124 Phosphorant 160 Medical image processing device 162 Image acquisition unit 164 Possibility judgment unit 164A Recognition unit 166 Motion estimation unit 167 Database 168 Action judgment unit 169 Storage unit 170 Classification unit 172 Notification control unit 174 Notification unit 182 Disease 184 Bubble 200 Medical information management system 202 Image acquisition terminal 204 Image Storage server 210 Information management device 218 Display device 219 Input device 230 Telecommunications line IM1, IM2, IM3 Image IM (t) Current image IM (t-1) Past image IM (t + 1) Image of next frame S11-S22 Medical Processing steps in the image processing device

Claims (23)

被写体像を含む時系列の複数の画像を取得する画像取得部と、
前記画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、
前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、
前記画像取得部から得られた画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
を備える医療画像処理装置。
An image acquisition unit that acquires multiple time-series images including a subject image,
A feasibility determination unit for determining whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition, and a feasibility determination unit.
A motion estimation unit that estimates motion from two or more images obtained from the image acquisition unit, and a motion estimation unit.
Based on the motion information obtained from the motion estimation unit, the behavior determination unit that determines the user's behavior and the behavior determination unit
A classification unit that recognizes the image obtained from the image acquisition unit and performs classification processing,
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit.
Medical image processing device including.
前記不適な画像は、被写体がボケている画像である請求項1に記載の医療画像処理装置。 The medical image processing apparatus according to claim 1, wherein the unsuitable image is an image in which the subject is blurred. 前記不適な画像は、被写体がブレている画像である請求項1に記載の医療画像処理装置。 The medical image processing apparatus according to claim 1, wherein the unsuitable image is an image in which the subject is blurred. 前記不適な画像は、被写体に水がかぶっている画像である請求項1に記載の医療画像処理装置。 The medical image processing apparatus according to claim 1, wherein the unsuitable image is an image in which the subject is covered with water. 前記不適な画像は、被写体に残渣がある画像である請求項1に記載の医療画像処理装置。 The medical image processing apparatus according to claim 1, wherein the unsuitable image is an image having a residue on the subject. 前記可否判定部は、前記画像取得部から得られた画像が認識に不適な画像であるか否かを認識する認識部を含む請求項1から5のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 5, wherein the pass / fail determination unit includes a recognition unit that recognizes whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition. .. 前記可否判定部が前記不適な画像であると判定した画像について、前記動き推定部及び前記所作判定部における処理を不実施とする請求項1から6のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 6, wherein the motion estimation unit and the behavior determination unit do not perform processing on an image determined by the possibility determination unit to be an inappropriate image. .. 前記可否判定部が前記不適な画像であると判定した画像について、前記分類部における前記分類処理を不実施とする請求項1から7のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 7, wherein the classification process of the classification unit does not perform the classification process of the image determined by the pass / fail determination unit to be an unsuitable image. 前記動き情報は、動きベクトルを含み、
前記所作判定部は、前記動きベクトルの大きさを基にユーザーの所作を判定する請求項1から8のいずれか一項に記載の医療画像処理装置。
The motion information includes a motion vector.
The medical image processing apparatus according to any one of claims 1 to 8, wherein the action determination unit determines a user's action based on the magnitude of the motion vector.
前記所作判定部は、前記動き情報とユーザーの所作との対応関係が規定されたデータベースを用いて前記所作を判定する請求項1から9のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 9, wherein the action determination unit determines the action using a database in which a correspondence relationship between the movement information and the user's action is defined. 前記データベースを記憶しておく記憶部を備える請求項10に記載の医療画像処理装置。 The medical image processing apparatus according to claim 10, further comprising a storage unit for storing the database. 前記所作は、鑑別の所作を含む請求項1から11のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 11, wherein the action includes a discrimination action. 前記報知制御部は、前記所作判定部の判定結果が前記鑑別の所作に非該当の画像について、前記分類部の分類結果を非報知とする請求項12に記載の医療画像処理装置。 The medical image processing device according to claim 12, wherein the notification control unit does not notify the classification result of the classification unit for an image whose determination result of the behavior determination unit does not correspond to the behavior of the discrimination. 前記分類部は、前記画像取得部から得られた画像から病変の領域を認識し、かつ、前記病変のクラス分類を行う請求項1から13のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 13, wherein the classification unit recognizes a lesion region from an image obtained from the image acquisition unit and classifies the lesion. 前記分類部は、畳み込みニューラルネットワークを用いて構成される請求項1から14のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 14, wherein the classification unit is configured by using a convolutional neural network. 前記報知制御部の制御に基づき、前記分類部の分類結果を報知する報知部を備える請求項1から15のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 15, further comprising a notification unit that notifies the classification result of the classification unit based on the control of the notification control unit. 前記時系列の複数の画像の各々は、電子内視鏡を用いて撮影される内視鏡画像である請求項1から16のいずれか一項に記載の医療画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 16, wherein each of the plurality of images in the time series is an endoscopic image taken by using an electronic endoscope. 被写体像を含む時系列の複数の画像を取得する画像取得工程と、
前記画像取得工程から得られた画像が認識に不適な画像であるか否かを判定する可否判定工程と、
前記画像取得工程から得られた2つ以上の画像から動き推定を行う動き推定工程と、
前記動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、
前記画像取得工程から得られた画像を認識して分類処理を行う分類工程と、
前記所作判定工程から得られた所作情報及び前記分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、
を含む医療画像処理方法。
An image acquisition process for acquiring multiple time-series images including a subject image,
A step of determining whether or not the image obtained from the image acquisition step is an image unsuitable for recognition, and a step of determining whether or not the image is unsuitable for recognition.
A motion estimation step of estimating motion from two or more images obtained from the image acquisition step, and a motion estimation step.
Based on the motion information obtained from the motion estimation process, the behavior determination process for determining the user's behavior and the behavior determination process
A classification step of recognizing an image obtained from the image acquisition step and performing a classification process,
A notification control step that controls notification information based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step, and
Medical image processing methods including.
体腔内を撮影する電子内視鏡と、
前記電子内視鏡から得られる画像信号を処理するプロセッサ装置と、
を含む内視鏡システムであって、
前記プロセッサ装置は、
前記電子内視鏡を用いて撮影された被写体像を含む時系列の複数の画像を取得する画像取得部と、
前記画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、
前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、
前記画像取得部から得られた画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
を備える内視鏡システム。
An electronic endoscope that photographs the inside of the body cavity,
A processor device that processes an image signal obtained from the electronic endoscope, and
Is an endoscopic system that includes
The processor device is
An image acquisition unit that acquires a plurality of time-series images including a subject image taken by using the electronic endoscope, and an image acquisition unit.
A feasibility determination unit for determining whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition, and a feasibility determination unit.
A motion estimation unit that estimates motion from two or more images obtained from the image acquisition unit, and a motion estimation unit.
Based on the motion information obtained from the motion estimation unit, the behavior determination unit that determines the user's behavior and the behavior determination unit
A classification unit that recognizes the image obtained from the image acquisition unit and performs classification processing,
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit.
Endoscopic system with.
電子内視鏡から得られる画像信号を処理するプロセッサ装置であって、
前記電子内視鏡を用いて撮影された被写体像を含む時系列の複数の画像を取得する画像取得部と、
前記画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、
前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、
前記画像取得部から得られた画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
を備えるプロセッサ装置。
A processor device that processes image signals obtained from an electronic endoscope.
An image acquisition unit that acquires a plurality of time-series images including a subject image taken by using the electronic endoscope, and an image acquisition unit.
A feasibility determination unit for determining whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition, and a feasibility determination unit.
A motion estimation unit that estimates motion from two or more images obtained from the image acquisition unit, and a motion estimation unit.
Based on the motion information obtained from the motion estimation unit, the behavior determination unit that determines the user's behavior and the behavior determination unit
A classification unit that recognizes the image obtained from the image acquisition unit and performs classification processing,
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit.
A processor device comprising.
被写体像を含む時系列の複数の画像を取得する画像取得部と、
前記画像取得部から得られた画像が認識に不適な画像であるか否かを判定する可否判定部と、
前記画像取得部から得られた2つ以上の画像から動き推定を行う動き推定部と、
前記動き推定部から得られた動き情報を基に、ユーザーの所作を判定する所作判定部と、
前記画像取得部から得られた画像を認識して分類処理を行う分類部と、
前記所作判定部から得られた所作情報及び前記分類部から得られた分類結果を基に、報知情報を制御する報知制御部と、
前記報知制御部の制御に基づき、前記分類部の分類結果を含む情報を報知する報知部と、
を備える診断支援装置。
An image acquisition unit that acquires multiple time-series images including a subject image,
A feasibility determination unit for determining whether or not the image obtained from the image acquisition unit is an image unsuitable for recognition, and a feasibility determination unit.
A motion estimation unit that estimates motion from two or more images obtained from the image acquisition unit, and a motion estimation unit.
Based on the motion information obtained from the motion estimation unit, the behavior determination unit that determines the user's behavior and the behavior determination unit
A classification unit that recognizes the image obtained from the image acquisition unit and performs classification processing,
A notification control unit that controls notification information based on the behavior information obtained from the behavior determination unit and the classification result obtained from the classification unit.
A notification unit that notifies information including the classification result of the classification unit based on the control of the notification control unit, and a notification unit.
Diagnostic support device equipped with.
コンピュータに、
被写体像を含む時系列の複数の画像を取得する画像取得工程と、
前記画像取得工程から得られた画像が認識に不適な画像であるか否かを判定する可否判定工程と、
前記画像取得工程から得られた2つ以上の画像から動き推定を行う動き推定工程と、
前記動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、
前記画像取得工程から得られた画像を認識して分類処理を行う分類工程と、
前記所作判定工程から得られた所作情報及び前記分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、
を実行させるプログラム。
On the computer
An image acquisition process for acquiring multiple time-series images including a subject image,
A step of determining whether or not the image obtained from the image acquisition step is an image unsuitable for recognition, and a step of determining whether or not the image is unsuitable for recognition.
A motion estimation step of estimating motion from two or more images obtained from the image acquisition step, and a motion estimation step.
Based on the motion information obtained from the motion estimation process, the behavior determination process for determining the user's behavior and the behavior determination process
A classification step of recognizing an image obtained from the image acquisition step and performing a classification process,
A notification control step that controls notification information based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step, and
A program that executes.
非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
被写体像を含む時系列の複数の画像を取得する画像取得工程と、
前記画像取得工程から得られた画像が認識に不適な画像であるか否かを判定する可否判定工程と、
前記画像取得工程から得られた2つ以上の画像から動き推定を行う動き推定工程と、
前記動き推定工程から得られた動き情報を基に、ユーザーの所作を判定する所作判定工程と、
前記画像取得工程から得られた画像を認識して分類処理を行う分類工程と、
前記所作判定工程から得られた所作情報及び前記分類工程から得られた分類結果を基に、報知情報を制御する報知制御工程と、
をコンピュータに実行させる記憶媒体。
A non-temporary, computer-readable storage medium when the instructions stored in the storage medium are read by a computer.
An image acquisition process for acquiring multiple time-series images including a subject image,
A step of determining whether or not the image obtained from the image acquisition step is an image unsuitable for recognition, and a step of determining whether or not the image is unsuitable for recognition.
A motion estimation step of estimating motion from two or more images obtained from the image acquisition step, and a motion estimation step.
Based on the motion information obtained from the motion estimation process, the behavior determination process for determining the user's behavior and the behavior determination process
A classification step of recognizing an image obtained from the image acquisition step and performing a classification process,
A notification control step that controls notification information based on the behavior information obtained from the behavior determination step and the classification result obtained from the classification step, and
A storage medium that causes a computer to execute.
JP2020545949A 2018-09-11 2019-09-04 MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM Active JP7326308B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018170038 2018-09-11
JP2018170038 2018-09-11
PCT/JP2019/034791 WO2020054543A1 (en) 2018-09-11 2019-09-04 Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program

Publications (2)

Publication Number Publication Date
JPWO2020054543A1 true JPWO2020054543A1 (en) 2021-08-30
JP7326308B2 JP7326308B2 (en) 2023-08-15

Family

ID=69777592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020545949A Active JP7326308B2 (en) 2018-09-11 2019-09-04 MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM

Country Status (2)

Country Link
JP (1) JP7326308B2 (en)
WO (1) WO2020054543A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199961A1 (en) * 2020-03-30 2021-10-07 テルモ株式会社 Computer program, information processing method, and information processing device
WO2022065301A1 (en) * 2020-09-24 2022-03-31 富士フイルム株式会社 Medical image device and method for operating same
WO2023026538A1 (en) * 2021-08-27 2023-03-02 ソニーグループ株式会社 Medical assistance system, medical assistance method, and evaluation assistance device
WO2023053991A1 (en) * 2021-09-30 2023-04-06 富士フイルム株式会社 Medical image processing device, method for operating medical image processing device, and medical image processing device program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014188222A (en) * 2013-03-27 2014-10-06 Olympus Corp Image processor, endoscope device, program and image processing method
JP2015146970A (en) * 2014-02-07 2015-08-20 国立大学法人広島大学 Endoscope image diagnosis support system
JP2016158682A (en) * 2015-02-27 2016-09-05 Hoya株式会社 Image processing device
JP2017158628A (en) * 2016-03-07 2017-09-14 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
WO2018105063A1 (en) * 2016-12-07 2018-06-14 オリンパス株式会社 Image processing device
US20180225820A1 (en) * 2015-08-07 2018-08-09 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
WO2018159461A1 (en) * 2017-03-03 2018-09-07 富士フイルム株式会社 Endoscope system, processor device, and method of operating endoscope system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008024419A1 (en) * 2006-08-21 2008-02-28 Sti Medical Systems, Llc Computer aided analysis using video from endoscopes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014188222A (en) * 2013-03-27 2014-10-06 Olympus Corp Image processor, endoscope device, program and image processing method
JP2015146970A (en) * 2014-02-07 2015-08-20 国立大学法人広島大学 Endoscope image diagnosis support system
JP2016158682A (en) * 2015-02-27 2016-09-05 Hoya株式会社 Image processing device
US20180225820A1 (en) * 2015-08-07 2018-08-09 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
JP2017158628A (en) * 2016-03-07 2017-09-14 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
WO2018105063A1 (en) * 2016-12-07 2018-06-14 オリンパス株式会社 Image processing device
WO2018159461A1 (en) * 2017-03-03 2018-09-07 富士フイルム株式会社 Endoscope system, processor device, and method of operating endoscope system

Also Published As

Publication number Publication date
JP7326308B2 (en) 2023-08-15
WO2020054543A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP6889282B2 (en) Medical image processing equipment and methods, endoscopic systems, processor equipment, diagnostic support equipment and programs
JP7346285B2 (en) Medical image processing device, endoscope system, operating method and program for medical image processing device
JP7326308B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM
US20230086972A1 (en) Medical image processing device, endoscope system, medical image processing method, and program
JPWO2019054045A1 (en) Medical image processing equipment, medical image processing methods and medical image processing programs
JP2010172673A (en) Endoscope system, processor for endoscope, and endoscopy aiding method
JP6949999B2 (en) Image processing equipment, endoscopic systems, image processing methods, programs and recording media
US20210076917A1 (en) Image processing apparatus, endoscope system, and image processing method
JPWO2019198637A1 (en) Image processing equipment, endoscopic system, and image processing method
JPWO2019087790A1 (en) Examination support equipment, endoscopy equipment, examination support methods, and examination support programs
WO2020008834A1 (en) Image processing device, method, and endoscopic system
JP7289373B2 (en) Medical image processing device, endoscope system, diagnosis support method and program
JP2023115352A (en) Medical image processing apparatus, medical image processing system, operation method of medical image processing apparatus and medical image processing program
US20210366593A1 (en) Medical image processing apparatus and medical image processing method
WO2021229684A1 (en) Image processing system, endoscope system, image processing method, and learning method
JPWO2020054255A1 (en) How to operate the endoscope device, the endoscope processor, and the endoscope device
CN116745861A (en) Control method, device and program of lesion judgment system obtained through real-time image
JP7373335B2 (en) Medical image processing device, processor device, endoscope system, operating method of medical image processing device, and program
WO2022230607A1 (en) Medical image processing device, endoscope system, and operation method for medical image processing device
US20230410304A1 (en) Medical image processing apparatus, medical image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150