JP2024025181A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2024025181A
JP2024025181A JP2022128419A JP2022128419A JP2024025181A JP 2024025181 A JP2024025181 A JP 2024025181A JP 2022128419 A JP2022128419 A JP 2022128419A JP 2022128419 A JP2022128419 A JP 2022128419A JP 2024025181 A JP2024025181 A JP 2024025181A
Authority
JP
Japan
Prior art keywords
image
specimen
feature
feature amount
extractor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022128419A
Other languages
Japanese (ja)
Inventor
学 高松
直子 津山
秀謙 溝部
峻也 植野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japanese Foundation for Cancer Research
Canon Medical Systems Corp
Original Assignee
Japanese Foundation for Cancer Research
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japanese Foundation for Cancer Research, Canon Medical Systems Corp filed Critical Japanese Foundation for Cancer Research
Priority to JP2022128419A priority Critical patent/JP2024025181A/en
Publication of JP2024025181A publication Critical patent/JP2024025181A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

Figure 2024025181000001

【課題】撮影条件の違いにより生じる特徴量の差異を低減すること。
【解決手段】情報処理装置は、画像取得部と、機械学習部と、を備える。前記画像取得部は、病理検体を撮影した第1の画像と、当該病理検体を前記第1の画像の撮影条件とは異なる撮影条件で撮影した第2の画像とを取得する。前記機械学習部は、画像の特徴を表す特徴量を出力する第1の特徴量抽出器により出力された前記第1の画像の特徴量と、前記第1の特徴量抽出器により出力された前記第2の画像の特徴量との誤差を示す損失値が、前記第1の画像の病理検体が有する特徴と前記第2の画像の病理検体が有する特徴との一致度に応じた値になるように、前記第1の特徴量抽出器のパラメータを更新する。
【選択図】図1

Figure 2024025181000001

An object of the present invention is to reduce differences in feature amounts caused by differences in imaging conditions.
An information processing device includes an image acquisition section and a machine learning section. The image acquisition unit acquires a first image obtained by photographing a pathological specimen, and a second image obtained by photographing the pathological specimen under photographing conditions different from photographing conditions for the first image. The machine learning unit extracts the feature amount of the first image outputted by a first feature amount extractor that outputs a feature amount representing the feature of the image, and the feature amount outputted by the first feature amount extractor. The loss value indicating the error with the feature amount of the second image is set to a value corresponding to the degree of coincidence between the feature of the pathological specimen in the first image and the feature of the pathological specimen in the second image. Then, the parameters of the first feature extractor are updated.
[Selection diagram] Figure 1

Description

本明細書及び図面に開示の実施形態は、情報処理装置、情報処理方法、およびプログラムに関する。 Embodiments disclosed in this specification and drawings relate to an information processing device, an information processing method, and a program.

従来、病理分野では、被検体の組織や標本などの病理画像を用いた組織診断が行われている。近年では病理画像を解析して得られる情報を医師等に提示することによって、組織診断を効率化しようとする技術の研究及び開発が行われている。 Conventionally, in the field of pathology, tissue diagnosis has been performed using pathological images of tissues and specimens of subjects. In recent years, research and development have been conducted on techniques to improve the efficiency of tissue diagnosis by presenting information obtained by analyzing pathological images to doctors and the like.

病理分野の画像解析技術には、例えば、病理画像中のある領域の特徴を解析することによって、異常を含んでいるか否かを判定する画像分類技術や、異常である領域を抽出する画像セグメンテーション技術等がある。 Image analysis technology in the field of pathology includes, for example, image classification technology that determines whether a certain region in a pathological image contains an abnormality by analyzing its characteristics, and image segmentation technology that extracts abnormal regions. etc.

しかしながら、病理画像は、染色や撮影装置等の撮影条件の違いによって、同じ被検体であっても描出されている態様が異なることがあり、それに伴って画像解析の結果も異なることがある。 However, pathological images may differ in the manner in which they are depicted even for the same subject due to differences in imaging conditions such as staining and imaging equipment, and accordingly, the results of image analysis may also differ.

特開2021-065293号公報JP 2021-065293 Publication

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、撮影条件の違いにより生じる特徴量の差異を低減することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems that the embodiments disclosed in this specification and drawings are intended to solve is to reduce differences in feature amounts caused by differences in imaging conditions. However, the problems to be solved by the embodiments disclosed in this specification and the drawings are not limited to the above problems. Problems corresponding to the effects of each configuration shown in the embodiments described later can also be positioned as other problems.

実施形態に係る情報処理装置は、画像取得部と、機械学習部と、を備える。前記画像取得部は、病理検体を撮影した第1の画像と、当該病理検体を前記第1の画像の撮影条件とは異なる撮影条件で撮影した第2の画像とを取得する。前記機械学習部は、画像の特徴を表す特徴量を出力する第1の特徴量抽出器により出力された前記第1の画像の特徴量と、前記第1の特徴量抽出器により出力された前記第2の画像の特徴量との誤差を示す損失値が、前記第1の画像の病理検体が有する特徴と前記第2の画像の病理検体が有する特徴との一致度に応じた値になるように、前記第1の特徴量抽出器のパラメータを更新する。 The information processing device according to the embodiment includes an image acquisition section and a machine learning section. The image acquisition unit acquires a first image obtained by photographing a pathological specimen, and a second image obtained by photographing the pathological specimen under photographing conditions different from photographing conditions for the first image. The machine learning unit uses the feature amount of the first image outputted by a first feature amount extractor that outputs a feature amount representing the feature of the image, and the feature amount outputted by the first feature amount extractor. The loss value indicating the error with the feature amount of the second image is set to a value corresponding to the degree of matching between the feature of the pathological specimen in the first image and the feature of the pathological specimen in the second image. Then, the parameters of the first feature extractor are updated.

図1は、第1の実施形態に係る病理情報処理システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a pathological information processing system according to the first embodiment. 図2は、第1の実施形態に係る情報処理装置が実行する第1特徴量抽出器のパラメータを更新するフローの一例を示す図である。FIG. 2 is a diagram illustrating an example of a flow for updating the parameters of the first feature extractor, which is executed by the information processing apparatus according to the first embodiment. 図3は、第1の実施形態に係る情報処理装置が実行する学習処理の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of a learning process executed by the information processing apparatus according to the first embodiment. 図4は、第2の実施形態に係る病理情報処理システムの構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of the configuration of a pathological information processing system according to the second embodiment. 図5は、第2の実施形態に係る情報処理装置が実行する第1特徴量抽出器を第1ニューラルネットワークに適用させるフローの一例を示す図である。FIG. 5 is a diagram illustrating an example of a flow for applying the first feature amount extractor to the first neural network, which is executed by the information processing apparatus according to the second embodiment. 図6は、第2の実施形態に係る情報処理装置が実行する学習処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a learning process executed by the information processing apparatus according to the second embodiment. 図7は、第3の実施形態に係る病理情報処理システムの構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of the configuration of a pathological information processing system according to the third embodiment. 図8は、第3の実施形態に係る情報処理装置が実行する検体画像に対する位置合わせなどの調整のフローの一例を示す図である。FIG. 8 is a diagram illustrating an example of a flow of adjustment such as positioning of a specimen image performed by the information processing apparatus according to the third embodiment. 図9は、第3の実施形態に係る情報処理装置が実行する学習処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a learning process executed by the information processing apparatus according to the third embodiment. 図10は、第4の実施形態に係る病理情報処理システムの構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of the configuration of a pathological information processing system according to the fourth embodiment. 図11は、第4の実施形態に係る情報処理装置が実行する検体画像の切り出すフローの一例を示す図である。FIG. 11 is a diagram illustrating an example of a sample image extraction flow executed by the information processing apparatus according to the fourth embodiment. 図12は、第4の実施形態に係る情報処理装置が実行する学習処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a learning process executed by the information processing apparatus according to the fourth embodiment. 図13は、第5の実施形態に係る病理情報処理システムの構成の一例を示す図である。FIG. 13 is a diagram illustrating an example of the configuration of a pathological information processing system according to the fifth embodiment. 図14は、第5の実施形態に係る情報処理装置が実行する検体画像を生成するフローの一例を示す図である。FIG. 14 is a diagram illustrating an example of a flow for generating a specimen image executed by the information processing apparatus according to the fifth embodiment. 図15は、第5の実施形態に係る情報処理装置が実行する学習処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of a learning process executed by the information processing apparatus according to the fifth embodiment.

以下、図面を参照しながら、本実施形態に関する情報処理装置、情報処理方法、およびプログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。 Hereinafter, an information processing apparatus, an information processing method, and a program related to the present embodiment will be described with reference to the drawings. In the following embodiments, parts with the same reference numerals perform similar operations, and redundant explanations will be omitted as appropriate.

(第1の実施形態)
図1は、第1の実施形態に係る病理情報処理システム1の構成の一例を示す図である。図1に示すように、病理情報処理システム1は、第1の撮影装置10と、第2の撮影装置20と、情報処理装置30とを備える。第1の撮影装置10と、第2の撮影装置20と、情報処理装置30とは、ネットワーク40を介して相互に通信可能に接続する。なお、図1に示す構成は、一例であり、各装置の台数は任意に変更してもよい。また、図1に示されていない装置がネットワーク40に接続されていてもよい。
(First embodiment)
FIG. 1 is a diagram showing an example of the configuration of a pathological information processing system 1 according to the first embodiment. As shown in FIG. 1, the pathological information processing system 1 includes a first imaging device 10, a second imaging device 20, and an information processing device 30. The first photographing device 10, the second photographing device 20, and the information processing device 30 are connected to each other via a network 40 so as to be able to communicate with each other. Note that the configuration shown in FIG. 1 is an example, and the number of each device may be changed arbitrarily. Furthermore, devices not shown in FIG. 1 may be connected to the network 40.

第1の撮影装置10は、病理検体を撮影する。例えば、第1の撮影装置10は、病理検体を撮影するカメラであってもよいし、病理検体を撮影するデジタルスライドスキャナであってもよいし、他の装置であってもよい。そして、第1の撮影装置10は、病理検体を撮影した検体画像を情報処理装置30に送信する。 The first imaging device 10 photographs a pathological specimen. For example, the first imaging device 10 may be a camera that photographs a pathological specimen, a digital slide scanner that photographs a pathological specimen, or another device. The first imaging device 10 then transmits a specimen image obtained by photographing the pathological specimen to the information processing device 30.

第2の撮影装置20は、病理検体を撮影する。例えば、第2の撮影装置20は、病理検体を撮影するカメラであってもよいし、病理検体を撮影するデジタルスライドスキャナであってもよいし、他の装置であってもよい。そして、第2の撮影装置20は、病理検体を撮影した検体画像を情報処理装置30に送信する。 The second imaging device 20 photographs a pathological specimen. For example, the second imaging device 20 may be a camera that photographs pathological specimens, a digital slide scanner that photographs pathological specimens, or another device. The second imaging device 20 then transmits a specimen image obtained by photographing the pathological specimen to the information processing device 30.

情報処理装置30は、パーソナルコンピュータや、サーバ装置や、ワークステーションなどのコンピュータ機器である。情報処理装置30は、第1の撮影装置10及び第2の撮影装置20から検体画像を取得する。情報処理装置30は、第1の撮影装置10又は第2の撮影装置20から取得した検体画像から、画像の特徴を表す特徴量を抽出する。さらに、情報処理装置30は、抽出した特徴量に基づいて、各種処理を実行するニューラルネットワークを有していてもよい。 The information processing device 30 is computer equipment such as a personal computer, a server device, or a workstation. The information processing device 30 acquires specimen images from the first imaging device 10 and the second imaging device 20. The information processing device 30 extracts feature amounts representing the characteristics of the image from the sample image acquired from the first imaging device 10 or the second imaging device 20. Furthermore, the information processing device 30 may include a neural network that executes various processes based on the extracted feature amounts.

情報処理装置30について詳細に説明する。 The information processing device 30 will be explained in detail.

例えば、情報処理装置30は、NW(ネットワーク)インタフェース310と、入力インタフェース320と、ディスプレイ330と、記憶回路340と、処理回路350とを有する。 For example, the information processing device 30 includes an NW (network) interface 310, an input interface 320, a display 330, a storage circuit 340, and a processing circuit 350.

NWインタフェース310は、処理回路350に接続され、ネットワーク40を介して接続された各装置との間で行われる各種データの伝送及び通信を制御する。例えば、NWインタフェース310は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。 The NW interface 310 is connected to the processing circuit 350 and controls the transmission and communication of various data with each device connected via the network 40. For example, the NW interface 310 is implemented by a network card, network adapter, NIC (Network Interface Controller), or the like.

入力インタフェース320は、処理回路350に接続され、操作者から受け付けた入力操作を電気信号に変換して処理回路350に出力する。具体的には、入力インタフェース320は、操作者から受け付けた入力操作を電気信号へ変換して処理回路350に出力する。例えば、入力インタフェース320は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インタフェース320は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース320の例に含まれる。 The input interface 320 is connected to the processing circuit 350 , converts an input operation received from an operator into an electrical signal, and outputs the electrical signal to the processing circuit 350 . Specifically, the input interface 320 converts an input operation received from an operator into an electrical signal and outputs it to the processing circuit 350. For example, the input interface 320 may include a trackball, a switch button, a mouse, a keyboard, a touchpad that performs input operations by touching the operation surface, a touchscreen that integrates a display screen and a touchpad, and a non-control device that uses an optical sensor. This is realized by a touch input circuit, a voice input circuit, etc. Note that in this specification, the input interface 320 is not limited to one that includes physical operation parts such as a mouse and a keyboard. For example, an example of the input interface 320 includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs this electrical signal to a control circuit.

ディスプレイ330は、処理回路350に接続され、処理回路350から出力される各種情報及び各種画像データを表示する。例えば、ディスプレイ330は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ、プラズマディスプレイ、タッチパネル等によって実現される。 The display 330 is connected to the processing circuit 350 and displays various information and various image data output from the processing circuit 350. For example, the display 330 is realized by a liquid crystal display, a CRT (Cathode Ray Tube) display, an organic EL display, a plasma display, a touch panel, or the like.

記憶回路340は、処理回路350に接続され、各種データを記憶する。また、記憶回路340は、処理回路350が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路340は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。 The storage circuit 340 is connected to the processing circuit 350 and stores various data. Furthermore, the storage circuit 340 stores various programs for realizing various functions by being read and executed by the processing circuit 350. For example, the storage circuit 340 is realized by a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, a hard disk, an optical disk, or the like.

処理回路350は、情報処理装置30全体の動作を制御する。処理回路350は、例えば、画像取得機能351、及び機械学習機能352を有する。実施形態では、構成要素である画像取得機能351、及び機械学習機能352にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路340へ記憶されている。処理回路350は、プログラムを記憶回路340から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路350は、図1の処理回路350内に示された各機能を有することになる。 The processing circuit 350 controls the overall operation of the information processing device 30. The processing circuit 350 has, for example, an image acquisition function 351 and a machine learning function 352. In the embodiment, each processing function performed by the component image acquisition function 351 and machine learning function 352 is stored in the storage circuit 340 in the form of a computer-executable program. The processing circuit 350 is a processor that reads programs from the storage circuit 340 and executes them to implement functions corresponding to each program. In other words, the processing circuit 350 in a state where each program is read has each function shown in the processing circuit 350 of FIG.

なお、図1においては単一のプロセッサにて、画像取得機能351、及び機械学習機能352を実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路350を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、図1においては、記憶回路340等の単一の記憶回路が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路350は、個別の記憶回路から対応するプログラムを読み出す構成としても構わない。 Although the image acquisition function 351 and the machine learning function 352 are described as being implemented in a single processor in FIG. 1, the processing circuit 350 is configured by combining a plurality of independent processors, and each processor The functions may be implemented by executing a program. In addition, in FIG. 1, a single storage circuit such as the storage circuit 340 stores programs corresponding to each processing function, but a plurality of storage circuits may be distributed and arranged, and the processing circuit 350 , a configuration may be adopted in which the corresponding program is read from an individual storage circuit.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD),及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路340に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路340にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 The word "processor" used in the above explanation refers to, for example, a CPU (Central Processing Unit), a GPU (Graphical Processing Unit), an Application Specific Integrated Circuit (ASIC), a programmable logic device (for example, a simple Refers to circuits such as a programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor realizes its functions by reading and executing programs stored in the storage circuit 340. Note that instead of storing the program in the storage circuit 340, the program may be directly incorporated into the circuit of the processor. In this case, the processor realizes its functions by reading and executing a program built into the circuit.

画像取得機能351は、病理検体を撮影した第1の画像と、当該病理検体を第1の画像の撮影条件とは異なる撮影条件で撮影した第2の画像とを取得する。画像取得機能351は、画像取得部の一例である。撮影条件とは、撮影装置の種類、撮影装置の設定、撮影時期、撮影した被検体の位置、撮影した被検体の向き、撮影における環境等である。 The image acquisition function 351 acquires a first image obtained by photographing a pathological specimen, and a second image obtained by photographing the pathological specimen under photographing conditions different from the photographing conditions for the first image. The image acquisition function 351 is an example of an image acquisition unit. The imaging conditions include the type of imaging device, the settings of the imaging device, the imaging time, the position of the photographed subject, the orientation of the photographed subject, the environment during imaging, and the like.

更に詳しくは、画像取得機能351は、病理検体を撮影した検体画像を第1の撮影装置10及び第2の撮影装置20から取得する。また、画像取得機能351は、撮影条件が異なる複数の検体画像を取得してもよい。なお、画像取得機能351は、第1の撮影装置10及び第2の撮影装置20に限らず、病理検体を撮影した画像を有するサーバ装置から取得してもよい。 More specifically, the image acquisition function 351 acquires specimen images obtained by photographing a pathological specimen from the first imaging device 10 and the second imaging device 20. Further, the image acquisition function 351 may acquire a plurality of specimen images under different imaging conditions. Note that the image acquisition function 351 is not limited to the first imaging device 10 and the second imaging device 20, and may acquire images from a server device that has an image of a pathological specimen.

機械学習機能352は、画像の特徴を表す特徴量を出力する特徴量抽出器により出力された第1の画像の特徴量と、特徴量抽出器により出力された第2の画像の特徴量との誤差を示す損失値が、第1の画像の病理検体が有する特徴と第2の画像の病理検体が有する特徴との一致度に応じた値になるように、特徴量抽出器のパラメータを更新する。機械学習機能352は、機械学習部の一例である。 The machine learning function 352 combines the feature amount of the first image outputted by the feature amount extractor that outputs the feature amount representing the feature of the image and the feature amount of the second image outputted by the feature amount extractor. Update the parameters of the feature extractor so that the loss value indicating the error becomes a value corresponding to the degree of matching between the features of the pathological specimen in the first image and the features of the pathological specimen in the second image. . The machine learning function 352 is an example of a machine learning section.

更に詳しくは、機械学習機能352は、特徴量抽出器に入力する2つの検体画像の病理検体が有する特徴の一致度が高くなるに従いそれぞれの検体画像から抽出した特徴量が類似するように学習させる。言い換えると、機械学習機能352は、特徴量抽出器に入力する第1の画像の病理検体が有する特徴と第2の画像の病理検体が有する特徴との一致度が高くなるに従い損失値が小さくなるように、特徴量抽出器のパラメータを更新する。 More specifically, the machine learning function 352 learns so that as the degree of matching between the features of the pathological specimens of the two specimen images input to the feature extractor increases, the features extracted from the respective specimen images become similar. . In other words, the machine learning function 352 reduces the loss value as the degree of matching between the features of the pathological specimen in the first image input to the feature extractor and the characteristics of the pathological specimen in the second image increases. Update the parameters of the feature extractor as follows.

病理検体が有する特徴とは、検体画像に描出された病理検体の形状、病理検体の色、病理検体の向き、病理検体の大きさなどである。なお、病理検体が有する特徴は、これら特徴に限らず他の特徴が含まれていてもよいし、これら特徴の一部が含まれていなくてもよい。機械学習機能352は、病理検体が有する特徴の一部が異なっていても、他の特徴の一致度が高くなるに従い、損失値が小さくなるように、特徴量抽出器のパラメータを更新する。 The characteristics that the pathological specimen has include the shape of the pathological specimen depicted in the specimen image, the color of the pathological specimen, the orientation of the pathological specimen, and the size of the pathological specimen. Note that the characteristics that a pathological specimen has are not limited to these characteristics, and may include other characteristics, or may not include some of these characteristics. The machine learning function 352 updates the parameters of the feature amount extractor so that even if some of the features of the pathological specimens are different, the loss value becomes smaller as the degree of matching of other features becomes higher.

また、特徴量抽出器に入力する2つの検体画像において、病理検体の位置が近い場合、病理検体が有する特徴の一致度は高くなる。一方、特徴量抽出器に入力する2つの検体画像において、病理検体の位置が遠い場合、病理検体が有する特徴の一致度は低くなる。 Furthermore, when the positions of the pathological specimens are close in the two specimen images input to the feature extractor, the degree of matching between the features of the pathological specimens becomes high. On the other hand, in the two specimen images input to the feature extractor, if the location of the pathological specimen is far away, the degree of matching between the features of the pathological specimen will be low.

そこで、機械学習機能352は、第1の画像の病理検体の位置と第2の画像の病理検体の位置とが近くになるに従い、第1の画像の特徴量と、第2の画像の特徴量との誤差を示す損失値が小さくなるように、特徴量抽出器のパラメータを更新してもよい。言い換えると、機械学習機能352は、2つの検体画像において、病理検体が有する特徴の一致度が高い場合に、病理検体の位置が近いと判定して、第1の画像の特徴量と、第2の画像の特徴量との誤差を示す損失値が小さくなるように、特徴量抽出器のパラメータを更新する。 Therefore, the machine learning function 352 changes the feature amount of the first image and the feature amount of the second image as the position of the pathological specimen in the first image and the position of the pathological specimen in the second image become closer. The parameters of the feature extractor may be updated so that the loss value indicating the error between In other words, the machine learning function 352 determines that the position of the pathological specimen is close when the degree of coincidence between the features of the pathological specimen is high in the two specimen images, and the feature amount of the first image and the second The parameters of the feature extractor are updated so that the loss value indicating the error with the feature of the image becomes smaller.

また、特徴量は、特徴量抽出器の最終層が出力する値に加えて、特徴量抽出器の隠れ層の出力値や、隠れ層の出力値の一部の組み合わせであってもよい。隠れ層の出力値の一部とは、隠れ層の出力値の空間的形状に対して、各次元軸に沿って選択的に切り取られた出力値である。 In addition to the value output by the final layer of the feature extractor, the feature value may be an output value of a hidden layer of the feature extractor, or a combination of a part of the output values of the hidden layer. A portion of the output value of the hidden layer is an output value that is selectively cut out along each dimensional axis with respect to the spatial shape of the output value of the hidden layer.

ここで、第1特徴量抽出器E1のパラメータを更新するフローについて説明する。図2は、第1の実施形態に係る情報処理装置30が実行する第1特徴量抽出器E1のパラメータを更新するフローの一例を示す図である。 Here, a flow for updating the parameters of the first feature extractor E1 will be described. FIG. 2 is a diagram illustrating an example of a flow of updating the parameters of the first feature extractor E1 executed by the information processing device 30 according to the first embodiment.

画像取得機能351は、例えば第1の撮影装置10が撮影した第1検体画像G1と、第3検体画像G3とを取得する。また、画像取得機能351は、例えば第2の撮影装置20が撮影した第2検体画像G2を取得する。画像取得機能351は、第1検体画像G1と同一の病理検体の同一の位置の画像である第2検体画像G2を取得する。また、画像取得機能351は、第1検体画像G1の病理検体と位置との少なくとも一方が異なる第3検体画像G3を取得する。 The image acquisition function 351 acquires, for example, a first specimen image G1 and a third specimen image G3 photographed by the first imaging device 10. Further, the image acquisition function 351 acquires, for example, the second specimen image G2 photographed by the second photographing device 20. The image acquisition function 351 acquires a second specimen image G2, which is an image of the same position of the same pathological specimen as the first specimen image G1. Furthermore, the image acquisition function 351 acquires a third specimen image G3 in which at least one of the locations is different from that of the pathological specimen in the first specimen image G1.

第1検体画像G1と、第2検体画像G2とは、同一の病理検体の同一の位置が描出されている。言い換えると、第1検体画像G1の病理検体と、第2検体画像G2の病理検体とは、同一の特徴を有している。また、第1検体画像G1と、第2検体画像G2とは、異なる撮影条件により撮影されている。例えば、第1検体画像G1と、第2検体画像G2とは、染色が異なっている。 The first specimen image G1 and the second specimen image G2 depict the same position of the same pathological specimen. In other words, the pathological specimen in the first specimen image G1 and the pathological specimen in the second specimen image G2 have the same characteristics. Further, the first specimen image G1 and the second specimen image G2 are photographed under different photographing conditions. For example, the first specimen image G1 and the second specimen image G2 have different staining.

第1検体画像G1と、第3検体画像G3とは、病理検体と位置との少なくとも一方が異なっている。言い換えると、第1検体画像G1の病理検体と、第3検体画像G3の病理検体とは、異なる特徴を有している。そして、第3検体画像G3の病理検体は、第2検体画像G2の病理検体とも異なる特徴を有している。 The first specimen image G1 and the third specimen image G3 differ in at least one of the pathological specimen and the position. In other words, the pathological specimen in the first specimen image G1 and the pathological specimen in the third specimen image G3 have different characteristics. The pathological specimen in the third specimen image G3 has different characteristics from the pathological specimen in the second specimen image G2.

第1特徴量抽出器E1は、検体画像から特徴量を抽出する特徴量抽出器である。第1特徴量抽出器E1は、第1検体画像G1から第1特徴量Z1を抽出する。また、第1特徴量抽出器E1は、第2検体画像G2から第2特徴量Z2を抽出する。また、第1特徴量抽出器E1は、第3検体画像G3から第3特徴量Z3を抽出する。 The first feature extractor E1 is a feature extractor that extracts a feature from the specimen image. The first feature extractor E1 extracts the first feature Z1 from the first specimen image G1. Further, the first feature extractor E1 extracts the second feature Z2 from the second specimen image G2. Further, the first feature extractor E1 extracts the third feature Z3 from the third specimen image G3.

機械学習機能352は、特徴量間の誤差を表す損失関数により損失値を算出する。損失関数には、例えば、交差エントロピーや距離関数などを利用する。例えば、機械学習機能352は、損失関数により第1特徴量Z1と第2特徴量Z2との誤差を表す第1損失値L1を算出する。また、機械学習機能352は、損失関数により第1特徴量Z1と第3特徴量Z3との誤差を表す第2損失値L2を算出する。また、機械学習機能352は、損失関数により第2特徴量Z2と第3特徴量Z3との誤差を表す第3損失値L3を算出する。 The machine learning function 352 calculates a loss value using a loss function representing an error between feature amounts. For example, cross entropy, distance function, etc. are used as the loss function. For example, the machine learning function 352 calculates a first loss value L1 representing an error between the first feature amount Z1 and the second feature amount Z2 using a loss function. Furthermore, the machine learning function 352 calculates a second loss value L2 representing an error between the first feature amount Z1 and the third feature amount Z3 using a loss function. Furthermore, the machine learning function 352 calculates a third loss value L3 representing an error between the second feature amount Z2 and the third feature amount Z3 using a loss function.

機械学習機能352は、算出した損失値に基づいて、各検体画像の病理検体が有する一致度が高くなるに従い損失値が小さくなるように、第1特徴量抽出器E1のパラメータを更新する。例えば、機械学習機能352は、下記数式(1)が満たされるように第1特徴量抽出器E1のパラメータを更新する。 The machine learning function 352 updates the parameters of the first feature extractor E1 based on the calculated loss value so that the loss value decreases as the degree of matching of the pathological specimen in each specimen image increases. For example, the machine learning function 352 updates the parameters of the first feature extractor E1 so that the following formula (1) is satisfied.

L(Z1,Z2)<L(Z1,Z3)・・・(1) L(Z1, Z2)<L(Z1, Z3)...(1)

数式(1)において、Lは、損失関数を示す。Z1は、第1特徴量Z1を示す。Z2は、第2特徴量Z2を示す。Z3は、第3特徴量Z3を示す。 In formula (1), L represents a loss function. Z1 indicates the first feature amount Z1. Z2 indicates the second feature amount Z2. Z3 indicates the third feature amount Z3.

機械学習機能352は、検体画像の病理検体が有する特徴の一致度が高くなるに従い、特徴量間の誤差を示す損失値が小さくなるように、第1特徴量抽出器E1のパラメータを更新する。更に詳しくは、機械学習機能352は、各特徴量を組み合わせて算出した損失値の相対的な大小を考慮した最終的な損失として第1特徴量抽出器E1のパラメータの更新のための学習を進める。例えば、機械学習機能352は、交差エントロピー誤差による損失計算を実行する。 The machine learning function 352 updates the parameters of the first feature amount extractor E1 so that as the degree of matching of the features of the pathological specimen in the specimen image increases, the loss value indicating the error between the feature amounts becomes smaller. More specifically, the machine learning function 352 performs learning to update the parameters of the first feature extractor E1 as the final loss considering the relative magnitude of the loss value calculated by combining each feature. . For example, machine learning functionality 352 performs loss calculations due to cross-entropy errors.

交差エントロピー誤差を利用する場合において、機械学習機能352は、図2に示す第1特徴量Z1と第2特徴量Z2、第1特徴量Z1と第3特徴量Z3、第2特徴量Z2と第3特徴量Z3のそれぞれの組み合わせに関して、それぞれ第1損失値L1、第2損失値L2、第3損失値L3を算出する。機械学習機能352は、第1損失値L1、第2損失値L2、第3損失値L3を推定確率分布に変換する。 In the case of using the cross-entropy error, the machine learning function 352 uses the first feature amount Z1 and the second feature amount Z2, the first feature amount Z1 and the third feature amount Z3, and the second feature amount Z2 and the second feature amount Z2 shown in FIG. A first loss value L1, a second loss value L2, and a third loss value L3 are calculated for each combination of the three feature quantities Z3. The machine learning function 352 converts the first loss value L1, second loss value L2, and third loss value L3 into an estimated probability distribution.

例えば、機械学習機能352は、損失値が小さい値ほど1に、大きい値ほど0になるように変換する。そして、機械学習機能352は、真の確率分布を「1、0、0」として交差エントロピー誤差を計算する。すなわち、機械学習機能352は、病理検体が有する特徴の一致度が高い組み合わせである第1特徴量Z1と第2特徴量Z2に相当する推定確率が最大化されたときに交差エントロピー誤差が最小となるように最終的な損失値を出力し、学習に用いる。 For example, the machine learning function 352 converts the smaller the loss value to 1 and the larger the loss value to 0. Then, the machine learning function 352 calculates the cross-entropy error by assuming that the true probability distribution is "1, 0, 0." In other words, the machine learning function 352 determines that the cross-entropy error is minimized when the estimated probability corresponding to the first feature Z1 and the second feature Z2, which are a combination of features with a high degree of matching in the pathological specimen, is maximized. The final loss value is output and used for learning.

また、第1検体画像G1と第2検体画像G2とは、同一の病理検体の同一の位置が撮影された画像である。よって、機械学習機能352は、位置が異なる検体画像の組み合わせよりも、損失値が小さくなるようにパラメータを更新する。すなわち、機械学習機能352は、第1検体画像G1と第2検体画像G2とが同一の病理検体の同一の位置が撮影された検体画像の組み合わせの場合に、撮影された位置が異なる検体画像の組み合わせよりも、損失値が小さくなるようにパラメータを更新する。 Further, the first specimen image G1 and the second specimen image G2 are images obtained by photographing the same position of the same pathological specimen. Therefore, the machine learning function 352 updates the parameters so that the loss value is smaller than that of a combination of sample images at different positions. That is, when the first specimen image G1 and the second specimen image G2 are a combination of specimen images in which the same position of the same pathological specimen was photographed, the machine learning function 352 performs a combination of specimen images photographed in different positions. Update the parameters so that the loss value is smaller than the combination.

次に、第1の実施形態に係る情報処理装置30が実行する学習処理について説明する。図3は、第1の実施形態に係る情報処理装置30が実行する学習処理の一例を示すフローチャートである。 Next, a learning process executed by the information processing device 30 according to the first embodiment will be described. FIG. 3 is a flowchart illustrating an example of a learning process executed by the information processing device 30 according to the first embodiment.

画像取得機能351は、複数の検体画像を取得する(ステップS11)。 The image acquisition function 351 acquires a plurality of specimen images (step S11).

機械学習機能352は、画像取得機能351により取得された複数の検体画像を特徴量抽出器に入力することで、複数の検体画像のそれぞれ特徴量を取得する(ステップS12)。 The machine learning function 352 inputs the plurality of specimen images acquired by the image acquisition function 351 to the feature quantity extractor, thereby acquiring the feature quantity of each of the plurality of specimen images (step S12).

機械学習機能352は、複数の特徴量のそれぞれの組み合わせでの損失値を算出する(ステップS13)。 The machine learning function 352 calculates a loss value for each combination of a plurality of feature amounts (step S13).

機械学習機能352は、損失値に基づいて、学習を終了する条件が満たされたか否かを判定する(ステップS14)。例えば、機械学習機能352は、各損失値が、組み合わせとなった各検体画像の病理検体が有する一致度に応じた値になっているか否かを判定する。 The machine learning function 352 determines whether a condition for terminating learning is satisfied based on the loss value (step S14). For example, the machine learning function 352 determines whether each loss value has a value that corresponds to the matching degree of the pathological specimen of each combined specimen image.

学習を終了する条件が満たされていない場合に(ステップS14;No)、機械学習機能352は、特徴量抽出器のパラメータを更新する(ステップS15)。そして、機械学習機能352は、ステップS12に移行する。 If the conditions for terminating learning are not met (step S14; No), the machine learning function 352 updates the parameters of the feature extractor (step S15). Then, the machine learning function 352 moves to step S12.

学習を終了する条件が満たされている場合に(ステップS14;Yes)、機械学習機能352は、学習処理を終了する。 If the conditions for terminating the learning are satisfied (step S14; Yes), the machine learning function 352 terminates the learning process.

以上のように、第1の実施形態に係る情報処理装置30は、病理検体を撮影した第1の画像と、当該病理検体を第1の画像の撮影条件とは異なる撮影条件で撮影した第2の画像とを取得する。情報処理装置30は、特徴量抽出器により出力された第1の画像の特徴量と、特徴量抽出器により出力された第2の画像の特徴量との誤差を示す損失値が、第1の画像の病理検体が有する特徴と第2の画像の病理検体が有する特徴との一致度に応じた値になるように、特徴量抽出器のパラメータを更新する。このように、情報処理装置30は、第1の画像の特徴量と、第2の画像の特徴量との誤差が小さくなるように、特徴量抽出器を学習させる。よって、情報処理装置30は、撮影条件の違いにより生じる特徴量の差異を低減することができる。 As described above, the information processing device 30 according to the first embodiment has a first image obtained by photographing a pathological specimen, and a second image obtained by photographing the pathological specimen under photographing conditions different from the photographing conditions for the first image. Get the image of. The information processing device 30 has a loss value indicating an error between the feature amount of the first image outputted by the feature amount extractor and the feature amount of the second image outputted by the feature amount extractor. The parameters of the feature amount extractor are updated so that the parameters of the feature extractor become values corresponding to the degree of matching between the features of the pathological specimen in the image and the features of the pathological specimen in the second image. In this way, the information processing device 30 causes the feature extractor to learn so that the error between the feature amount of the first image and the feature amount of the second image becomes small. Therefore, the information processing device 30 can reduce differences in feature amounts caused by differences in imaging conditions.

(第2の実施形態)
図4は、第2の実施形態に係る病理情報処理システム1aの構成の一例を示す図である。
(Second embodiment)
FIG. 4 is a diagram showing an example of the configuration of a pathological information processing system 1a according to the second embodiment.

情報処理装置30aの処理回路350aは、転移学習機能353を有する。 The processing circuit 350a of the information processing device 30a has a transfer learning function 353.

転移学習機能353は、機械学習機能352により生成された特徴量抽出器を転移学習により学習済みモデルに適用する。すなわち、転移学習機能353は、機械学習機能352により生成された特徴量抽出器を再構成した特徴量抽出器のパラメータを更新する。転移学習機能353は、転移学習部の一例である。これにより、転移学習機能353は、機械学習機能352により生成された特徴量抽出器の転移学習を実行する。例えば、転移学習機能353は、分類タスクやセグメンテーションタスク等の最終的なタスクを実行するニューラルネットワークに、機械学習機能352により生成された特徴量抽出器を適用させる転移学習を実行する。 The transfer learning function 353 applies the feature extractor generated by the machine learning function 352 to the trained model by transfer learning. That is, the transfer learning function 353 updates the parameters of a feature extractor that is a reconfigured feature extractor generated by the machine learning function 352. The transfer learning function 353 is an example of a transfer learning unit. Thereby, the transfer learning function 353 executes transfer learning of the feature extractor generated by the machine learning function 352. For example, the transfer learning function 353 performs transfer learning in which the feature extractor generated by the machine learning function 352 is applied to a neural network that executes a final task such as a classification task or a segmentation task.

ここで、ニューラルネットワークは、如何なる機械学習を行うものであってもよい。例えば、ニューラルネットワークは、入力画像の分類を実行するものであってもよいし、入力画像に含まれる物体ごとに領域を分割したセグメンテーション結果を出力するものであってもよいし、入力画像に含まれる物体を検出するものであってもよいし、又は入力画像から生成した画像を出力するものであってもよい。 Here, the neural network may perform any kind of machine learning. For example, a neural network may classify an input image, output a segmentation result that divides a region for each object included in the input image, or It may be a device that detects objects that appear in the image, or a device that outputs an image generated from an input image.

転移学習機能353は、転移学習によりニューラルネットワークに特徴量抽出器を適用することで特徴量抽出器を再構築する。転移学習後のニューラルネットワークは、検体画像の態様が異なったとしても、同一の病理検体であって同一の位置の検体画像であれば同じ特徴量を抽出するように学習された特徴量抽出器の特徴量抽出能力を継承している可能性が高い。そのため、転移学習後のニューラルネットワークは、検体画像の態様が異なったとしても、同一の病理検体であって同一の位置の検体画像が入力された場合、同じ結果を出力することが期待することができる。 The transfer learning function 353 reconstructs the feature extractor by applying the feature extractor to the neural network by transfer learning. After transfer learning, the neural network uses a feature extractor that has been trained to extract the same features from images of the same pathological specimen and at the same position, even if the aspect of the specimen image is different. It is highly likely that the ability to extract features has been inherited. Therefore, a neural network after transfer learning can be expected to output the same results when inputted with specimen images of the same pathological specimen and at the same position, even if the specimen images have different aspects. can.

ニューラルネットワークの学習方法としては、2つの方法が考えられる。再構成した新しいニューラルネットワークの構造のうち、特徴量抽出器から引き継いだパラメータを固定(Freeze)して新しい構造部分のみパラメータ更新する学習方法と、すべてのパラメータを学習する方法とがある。前者は、短時間で学習が完了する点と、訓練データを過学習しにくい点等で優れている。一方、後者は訓練データが十分に多いときにより性能が高いニューラルネットワークになる可能性が高い点で優れている。 There are two possible methods for learning neural networks. Among the new reconfigured neural network structures, there is a learning method in which the parameters inherited from the feature extractor are fixed (Freeze) and the parameters are updated only for the new structure, and a method in which all parameters are learned. The former is superior in that learning can be completed in a short time and that it is difficult to overfit the training data. On the other hand, the latter is superior in that it is more likely to result in a neural network with higher performance when there is a sufficient amount of training data.

ここで、特徴量抽出器をニューラルネットワークに適用させるフローについて説明する。図5は、第2の実施形態に係る情報処理装置30aが実行する第1特徴量抽出器E1を第1ニューラルネットワークM1に適用させるフローの一例を示す図である。 Here, a flow for applying the feature extractor to the neural network will be described. FIG. 5 is a diagram illustrating an example of a flow for applying the first feature extractor E1 to the first neural network M1, which is executed by the information processing device 30a according to the second embodiment.

機械学習機能352は、第1の実施形態と同様に、検体画像の病理検体が有する特徴の一致度が高くなるに従い損失値が小さくなり、検体画像の病理検体が有する特徴の一致度が低くなるに従い損失値が大きくなるように第1特徴量抽出器E1を学習させる。 In the machine learning function 352, as in the first embodiment, the loss value decreases as the degree of matching of the features of the pathological specimen in the specimen image increases, and the degree of matching of the characteristics of the pathological specimen in the specimen image decreases. The first feature extractor E1 is trained so that the loss value increases according to the following.

転移学習機能353は、第1特徴量抽出器E1を、第1ニューラルネットワークM1に適用させる転移学習を実行する。これにより、転移学習機能353は、転移学習により再構築された第2特徴量抽出器E2を有する第1ニューラルネットワークM1を生成する。なお、転移学習機能353の転移学習において、第2特徴量抽出器E2のパラメータの初期値として第1特徴量抽出器E1のパラメータの一部あるいは全てを用いるが、転移学習の手続きによって更新するパラメータを選択することによって、転移学習に用いる教師データへの適合の程度を調整して、第1ニューラルネットワークM1を生成してもよい。具体的には、転移学習機能353の転移学習において、第2特徴量抽出器E2の全てのパラメータを更新するように学習すると、転移学習に用いる教師データに適合しやすくなる可能性が高い。一方で、転移学習機能353の転移学習において、第2特徴量抽出器E2のパラメータのうち、出力層のパラメータのみを更新するように学習すると、転移学習に用いる教師データへの適合の程度が低下するが、学習に用いていない未知データにおいて精度等が高い第1ニューラルネットワークM1を生成できる可能性がある。 The transfer learning function 353 executes transfer learning that applies the first feature extractor E1 to the first neural network M1. Thereby, the transfer learning function 353 generates the first neural network M1 having the second feature extractor E2 reconstructed by transfer learning. In addition, in the transfer learning of the transfer learning function 353, some or all of the parameters of the first feature extractor E1 are used as the initial values of the parameters of the second feature extractor E2, but the parameters updated by the transfer learning procedure By selecting , the first neural network M1 may be generated by adjusting the degree of adaptation to the teacher data used for transfer learning. Specifically, in the transfer learning of the transfer learning function 353, if all parameters of the second feature extractor E2 are learned to be updated, there is a high possibility that the second feature extractor E2 is more likely to be adapted to the teacher data used in the transfer learning. On the other hand, in transfer learning of the transfer learning function 353, when learning to update only the parameters of the output layer among the parameters of the second feature extractor E2, the degree of adaptation to the teacher data used for transfer learning decreases. However, it is possible to generate the first neural network M1 with high accuracy using unknown data that is not used for learning.

第1ニューラルネットワークM1は、第1検体画像G1が入力された場合に、実行結果を出力する。なお、図5では、一例として第1ニューラルネットワークM1に第1検体画像G1を入力したが、如何なる検体画像を入力してもよい。 The first neural network M1 outputs an execution result when the first specimen image G1 is input. Note that in FIG. 5, the first specimen image G1 is input to the first neural network M1 as an example, but any specimen image may be input.

次に、第2の実施形態に係る情報処理装置30aが実行する学習処理について説明する。図6は、第2の実施形態に係る情報処理装置30aが実行する学習処理の一例を示すフローチャートである。 Next, a learning process executed by the information processing device 30a according to the second embodiment will be described. FIG. 6 is a flowchart illustrating an example of a learning process executed by the information processing device 30a according to the second embodiment.

画像取得機能351は、複数の検体画像を取得する(ステップS21)。 The image acquisition function 351 acquires a plurality of specimen images (step S21).

機械学習機能352は、画像取得機能351により取得された複数の検体画像を特徴量抽出器に入力することで、複数の検体画像のそれぞれ特徴量を取得する(ステップS22)。 The machine learning function 352 inputs the plurality of specimen images acquired by the image acquisition function 351 to the feature quantity extractor, thereby acquiring the feature quantity of each of the plurality of specimen images (step S22).

機械学習機能352は、複数の特徴量のそれぞれの組み合わせでの損失値を算出する(ステップS23)。 The machine learning function 352 calculates a loss value for each combination of a plurality of feature amounts (step S23).

機械学習機能352は、損失値に基づいて、学習を終了する条件が満たされたか否かを判定する(ステップS24)。 The machine learning function 352 determines whether a condition for terminating learning is satisfied based on the loss value (step S24).

学習を終了する条件が満たされていない場合に(ステップS24;No)、機械学習機能352は、特徴量抽出器のパラメータを更新する(ステップS25)。そして、機械学習機能352は、ステップS22に移行する。 If the conditions for terminating learning are not met (step S24; No), the machine learning function 352 updates the parameters of the feature extractor (step S25). The machine learning function 352 then proceeds to step S22.

学習を終了する条件が満たされている場合に(ステップS24;Yes)、転移学習機能353は、特徴量抽出器をニューラルネットワークに適用させる転移学習を実行する(ステップS26)。 If the conditions for terminating the learning are satisfied (step S24; Yes), the transfer learning function 353 executes transfer learning to apply the feature extractor to the neural network (step S26).

以上により、情報処理装置30aは、学習処理を終了する。 With the above, the information processing device 30a ends the learning process.

以上のように、第2の実施形態に係る情報処理装置30aは、機械学習機能352により生成された特徴量抽出器を、転移学習により任意のモデルに適用させる。これにより、特徴量抽出器が適用されたモデルは、同一の病理検体の同一の位置が撮影された2以上の検体画像が入力された場合、撮影条件が異なっていても、略同一の特徴量に基づいて、処理を実行することができる。 As described above, the information processing device 30a according to the second embodiment applies the feature extractor generated by the machine learning function 352 to an arbitrary model by transfer learning. As a result, when two or more specimen images of the same pathological specimen taken at the same position are input, the model to which the feature extractor is applied will produce approximately the same feature values even if the imaging conditions are different. Processing can be performed based on the

(第3の実施形態)
図7は、第3の実施形態に係る病理情報処理システム1bの構成の一例を示す図である。
(Third embodiment)
FIG. 7 is a diagram showing an example of the configuration of a pathological information processing system 1b according to the third embodiment.

情報処理装置30bの処理回路350bは、画像調整機能354を有する。 The processing circuit 350b of the information processing device 30b has an image adjustment function 354.

画像調整機能354は、第1の画像と、第2の画像とにおける画像中の病理検体の位置、向き、及び形状の少なくとも一つを合わせる。画像調整機能354は、調整部の一例である。例えば、検体画像は、撮影条件が異なっていると、検体画像の大きさや、検体画像内に描出される病理検体の位置や向きや形状が異なっている場合がある。このような場合に、画像調整機能354は、検体画像の移動、拡大、縮小、回転、反転、台形補正などの調整処理を実施する。 The image adjustment function 354 matches at least one of the position, orientation, and shape of the pathological specimen in the first image and the second image. The image adjustment function 354 is an example of an adjustment section. For example, when specimen images are captured under different imaging conditions, the size of the specimen images and the position, orientation, and shape of the pathological specimen depicted in the specimen images may differ. In such a case, the image adjustment function 354 performs adjustment processing such as movement, enlargement, reduction, rotation, inversion, and keystone correction of the specimen image.

例えば、転移学習先のタスクがセグメンテーションタスクの場合、特徴量抽出器が抽出する特徴量に位置や向きに関する特徴量が含まれていると有用である場合が多い。そのため、特徴量抽出器を学習する段階において、検体画像のペアの位置合わせなどの調整が実行された上で、特徴量抽出器に入力されることが望ましい。 For example, when the target task for transfer learning is a segmentation task, it is often useful if the features extracted by the feature extractor include features related to position and orientation. Therefore, at the stage of learning the feature extractor, it is desirable that adjustments such as positioning of pairs of specimen images are performed before inputting them to the feature extractor.

そこで、画像調整機能354は、ペアとなる検体画像が同一の病理検体の近い位置の画像であるか否かを判定する。例えば、画像調整機能354は、ペアとなる検体画像の病理検体が有する特徴の一致度が高いか否かにより近い位置の画像であるか否かを判定する。または、画像調整機能354は、第1の撮影装置10や、第2の撮影装置20から取得した撮影条件により近い位置の画像であるか否かを判定する。 Therefore, the image adjustment function 354 determines whether the pair of specimen images are images of the same pathological specimen at a close position. For example, the image adjustment function 354 determines whether the paired specimen images are images located close to each other based on whether the characteristics of the pathological specimen have a high degree of matching. Alternatively, the image adjustment function 354 determines whether the image is located closer to the imaging conditions acquired from the first imaging device 10 or the second imaging device 20.

画像調整機能354は、ペアとなる検体画像が同一の病理検体の近い位置の画像である場合に、位置合わせなどの調整処理を実行する。例えば、画像調整機能354は、ペアとなる検体画像の移動、拡大、縮小、回転、反転、台形補正などの調整処理を実施する。 The image adjustment function 354 executes adjustment processing such as alignment when the paired specimen images are images of the same pathological specimen at close positions. For example, the image adjustment function 354 performs adjustment processing such as movement, enlargement, reduction, rotation, inversion, and trapezoidal correction of paired specimen images.

機械学習機能352bは、画像取得機能351や取得した検体画像や、画像調整機能354が位置合わせなどの調整処理を実行した検体画像の病理検体が有する特徴の一致度が高くなるに従い損失値が小さくなり、検体画像の病理検体が有する特徴の一致度が低くなるに従い損失値が大きくなるように第1特徴量抽出器E1を学習させる。 The machine learning function 352b reduces the loss value as the degree of matching of the features of the pathological specimen of the image acquisition function 351, the acquired specimen image, and the specimen image on which the image adjustment function 354 has performed adjustment processing such as alignment increases. The first feature extractor E1 is trained so that the loss value increases as the degree of matching of the features of the pathological specimen in the specimen image decreases.

ここで、検体画像に対する位置合わせなどの調整処理を実行するフローについて説明する。図8は、第3の実施形態に係る情報処理装置30bが実行する検体画像に対する位置合わせなどの調整のフローの一例を示す図である。 Here, a flow for executing adjustment processing such as alignment with respect to a specimen image will be described. FIG. 8 is a diagram illustrating an example of a flow of adjustment such as positioning of a specimen image performed by the information processing device 30b according to the third embodiment.

画像取得機能351は、例えば第1の撮影装置10が撮影した第1検体画像G1と、第3検体画像G3とを取得する。また、画像取得機能351は、例えば第2の撮影装置20が撮影した第2検体画像G2を取得する。 The image acquisition function 351 acquires, for example, a first specimen image G1 and a third specimen image G3 photographed by the first imaging device 10. Further, the image acquisition function 351 acquires, for example, the second specimen image G2 photographed by the second photographing device 20.

画像調整機能354は、画像取得機能351により取得された第1検体画像G1と、第2検体画像G2と、第3検体画像G3とについて同一の病理検体の近い位置の画像であるか否かを判定する。 The image adjustment function 354 determines whether the first specimen image G1, the second specimen image G2, and the third specimen image G3 acquired by the image acquisition function 351 are images of the same pathological specimen at close positions. judge.

図8に示すフローでは、画像調整機能354は、画像取得機能351により取得された第1検体画像G1と、第2検体画像G2とが同一の病理検体の近い位置の画像であるかと判定する。また、画像調整機能354は、第3検体画像G3には同一の病理検体の近い位置の画像は無いと判定する。画像調整機能354は、第1検体画像G1と、第2検体画像G2との病理検体の位置合わせなどの調整処理を実行する。 In the flow shown in FIG. 8, the image adjustment function 354 determines whether the first specimen image G1 and the second specimen image G2 acquired by the image acquisition function 351 are images of the same pathological specimen at close positions. Furthermore, the image adjustment function 354 determines that there is no image of the same pathological specimen in a nearby position in the third specimen image G3. The image adjustment function 354 executes adjustment processing such as alignment of the pathological specimen between the first specimen image G1 and the second specimen image G2.

第1特徴量抽出器E1は、調整処理が実行された第1検体画像G1、及び第2検体画像G2が入力される。また、第1特徴量抽出器E1は、同一の病理検体の近い位置の画像ではないと判定されたため、調整処理が実行されていない第3検体画像G3が入力される。 The first feature extractor E1 receives the first specimen image G1 and the second specimen image G2 on which the adjustment process has been performed. Furthermore, since it is determined that the image is not a close-position image of the same pathological specimen, the first feature amount extractor E1 receives the third specimen image G3 on which the adjustment process has not been performed.

機械学習機能352bは、第1の実施形態と同様に、検体画像の病理検体が有する特徴の一致度が高くなるに従い損失値が小さくなり、検体画像の病理検体が有する特徴の一致度が低くなるに従い損失値が大きくなるように第1特徴量抽出器E1を学習させる。 As in the first embodiment, the machine learning function 352b has a loss value that decreases as the degree of matching of the features of the pathological specimen in the specimen image increases, and the degree of matching of the characteristics of the pathological specimen in the specimen image decreases. The first feature extractor E1 is trained so that the loss value increases according to the following.

次に、第3の実施形態に係る情報処理装置30bが実行する学習処理について説明する。図9は、第3の実施形態に係る情報処理装置30bが実行する学習処理の一例を示すフローチャートである。 Next, a learning process executed by the information processing device 30b according to the third embodiment will be described. FIG. 9 is a flowchart illustrating an example of a learning process executed by the information processing device 30b according to the third embodiment.

画像取得機能351は、複数の検体画像を取得する(ステップS31)。 The image acquisition function 351 acquires a plurality of specimen images (step S31).

画像調整機能354は、複数の検体画像から選択された検体画像のペアにおいて、同一の病理検体の近い位置の画像であるか否かを判定する(ステップS32)。同一の病理検体の近い位置の画像ではない場合に(ステップS32;No)、画像調整機能354は、ステップS34に移行する。 The image adjustment function 354 determines whether or not a pair of specimen images selected from a plurality of specimen images are images of the same pathological specimen at close positions (step S32). If the images are not images of the same pathological specimen at a close position (step S32; No), the image adjustment function 354 moves to step S34.

同一の病理検体の近い位置の画像の場合に(ステップS32;Yes)、画像調整機能354は、検体画像のペアにおいて、位置合わせなどの調整処理を実行する(ステップS33)。 In the case of images of the same pathological specimen at close positions (step S32; Yes), the image adjustment function 354 performs adjustment processing such as alignment on the pair of specimen images (step S33).

機械学習機能352bは、検体画像を特徴量抽出器に入力することで、複数の検体画像のそれぞれ特徴量を取得する(ステップS34)。 The machine learning function 352b inputs the sample image to the feature extractor to acquire the feature amount of each of the plurality of sample images (step S34).

機械学習機能352bは、複数の特徴量のそれぞれの組み合わせでの損失値を算出する(ステップS35)。 The machine learning function 352b calculates a loss value for each combination of a plurality of feature amounts (step S35).

機械学習機能352bは、損失値に基づいて、学習を終了する条件が満たされたか否かを判定する(ステップS36)。 The machine learning function 352b determines whether a condition for terminating learning is satisfied based on the loss value (step S36).

学習を終了する条件が満たされていない場合に(ステップS36;No)、機械学習機能352bは、特徴量抽出器のパラメータを更新する(ステップS37)。そして、機械学習機能352bは、ステップS34に移行する。 If the conditions for terminating learning are not met (step S36; No), the machine learning function 352b updates the parameters of the feature extractor (step S37). The machine learning function 352b then proceeds to step S34.

学習を終了する条件が満たされている場合に(ステップS36;Yes)、情報処理装置30bは、学習処理を終了する。 If the conditions for terminating the learning are satisfied (step S36; Yes), the information processing device 30b terminates the learning process.

以上のように、第3の実施形態に係る情報処理装置30bは、第1の画像と、第2の画像とにおける画像中の病理検体の位置、向き、及び形状の少なくとも一つを合わせる。よって、情報処理装置30bは、学習段階において、位置が合わせられた検体画像のペアで学習した方がよいモデルに対応することができる。 As described above, the information processing device 30b according to the third embodiment matches at least one of the position, orientation, and shape of the pathological specimen in the first image and the second image. Therefore, in the learning stage, the information processing device 30b can handle a model that is better learned using a pair of aligned sample images.

(第4の実施形態)
図10は、第4の実施形態に係る病理情報処理システム1cの構成の一例を示す図である。
(Fourth embodiment)
FIG. 10 is a diagram showing an example of the configuration of a pathological information processing system 1c according to the fourth embodiment.

情報処理装置30cの処理回路350cは、画像調整機能354と、切り出し機能355とを有する。 The processing circuit 350c of the information processing device 30c has an image adjustment function 354 and a cutting function 355.

画像調整機能354は、第3の実施形態に係る画像調整機能354と同様に、ペアとなる検体画像が同一の病理検体の近い位置の画像である場合に、位置合わせなどの調整処理を実行する。すなわち、画像調整機能354は、ペアとなる検体画像の移動、拡大、縮小、回転、反転、台形補正などの調整処理を実施する。 Similar to the image adjustment function 354 according to the third embodiment, the image adjustment function 354 executes adjustment processing such as alignment when the paired sample images are images of the same pathological sample at close positions. . That is, the image adjustment function 354 performs adjustment processing such as movement, enlargement, reduction, rotation, inversion, and trapezoidal correction of paired specimen images.

ここで、画像調整機能354は、切り出し機能355が切り出す部分領域に関して、ペアとなる部分領域画像に同じ特徴を含ませるか、違う特徴を含ませるかコントロールする必要があるため、切り出す前に位置合わせなどの調整処理を実行する。このように、画像調整機能354は、それぞれの検体画像間で病理検体の位置関係を一致した状態にしておくことで、切り出し処理のステップを簡単化することができる。 Here, the image adjustment function 354 needs to control whether the paired partial area images include the same features or different features with respect to the partial area to be cut out by the cutting function 355, so the image adjustment function 354 performs alignment before cutting out. Perform adjustment processing such as In this way, the image adjustment function 354 can simplify the steps of the cutting process by keeping the positional relationship of the pathological specimen consistent between the respective specimen images.

切り出し機能355は、画像から部分画像を切り出す。切り出し機能355は、切り出す切り出し部の一例である。部分画像は、検体画像の一部分を切り出した検体画像である。 The cutting function 355 cuts out a partial image from an image. The cutting function 355 is an example of a cutting unit that cuts out. The partial image is a sample image obtained by cutting out a portion of the sample image.

ここで、画像調整機能354によりペアとなる検体画像の病理検体は、位置関係が合わされている。そこで、切り出し機能355は、ペアとなる検体画像において、検体画像の同一位置及び同一サイズの部分画像を切り出すことにより、同じ特徴を含む部分画像のペアを取得することができる。一方、切り出し機能355は、ペアとなる検体画像において、検体画像の異なる位置または異なるサイズの部分画像を切り出すことにより、違う特徴を含む部分画像のペアを取得することができる。 Here, the positional relationship of the pathological specimens in the paired specimen images is adjusted by the image adjustment function 354. Therefore, the cropping function 355 can acquire a pair of partial images that include the same features by cropping partial images at the same position and the same size of the specimen images to be paired. On the other hand, the cropping function 355 can acquire a pair of partial images including different features by cropping partial images at different positions or different sizes of the paired specimen images.

また、切り出し機能355は、画像調整機能354によりペアとなる検体画像の病理検体の位置関係が合わされていない場合に、位置合わせ等の調整処理に用いるパラメータを事前に計算して記憶する。そして、切り出し機能355は、切り出し処理を実行する時に、記憶したパラメータを利用して部分画像を切り出す。これにより、切り出し機能355は、同じ特徴を含む部分画像のペア、又は違う特徴を含む部分画像のペアを取得することができる。 Furthermore, the cutout function 355 calculates and stores in advance parameters used for adjustment processing such as position alignment when the positional relationship of the pathological specimens in paired specimen images is not adjusted by the image adjustment function 354. Then, the cutout function 355 cuts out a partial image using the stored parameters when executing the cutout process. Thereby, the cutout function 355 can obtain a pair of partial images that include the same feature or a pair of partial images that include different features.

機械学習機能352cは、特徴量抽出器により出力された第1の画像の一部分である第1の部分画像の特徴量と、特徴量抽出器により出力された第2の画像の一部分である第2の部分画像の特徴量との誤差を示す損失値が、第1の部分画像の病理検体が有する特徴と第2の部分画像の病理検体が有する特徴との一致度に応じた値になるように、特徴量抽出器のパラメータを更新する。 The machine learning function 352c uses the feature amount of the first partial image, which is a part of the first image outputted by the feature amount extractor, and the second image, which is a part of the second image outputted by the feature amount extractor. The loss value indicating the error with the feature amount of the partial image is set to a value corresponding to the degree of matching between the features of the pathological specimen in the first partial image and the characteristics of the pathological specimen in the second partial image. , update the parameters of the feature extractor.

ここで、検体画像の切り出し実行するフローについて説明する。図11は、第4の実施形態に係る情報処理装置30cが実行する検体画像の切り出すフローの一例を示す図である。 Here, a flow of cutting out a sample image will be described. FIG. 11 is a diagram illustrating an example of a sample image extraction flow executed by the information processing device 30c according to the fourth embodiment.

画像取得機能351は、例えば第1の撮影装置10が撮影した第1検体全体画像G4と、第2の撮影装置20が撮影した第2検体全体画像G5とを取得する。第1検体全体画像G4と第2検体全体画像G5とは、病理検体の略全体が描出された画像である。図11において、第1検体全体画像G4と第2検体全体画像G5とは、同一の病理検体の画像であって、拡大率が異なっている画像であるが、異なる病理検体を撮影した画像でもいい。 The image acquisition function 351 acquires, for example, a first specimen whole image G4 photographed by the first photographing device 10 and a second specimen whole image G5 photographed by the second photographing device 20. The first entire specimen image G4 and the second entire specimen image G5 are images in which substantially the entire pathological specimen is depicted. In FIG. 11, the first whole specimen image G4 and the second whole specimen image G5 are images of the same pathological specimen but have different magnification ratios, but they may also be images taken of different pathological specimens. .

画像調整機能354は、第1検体全体画像G4と第2検体全体画像G5が、同一の病理検体であるか否かを判定する。言い換えると、画像調整機能354は、位置合わせなどの調整処理を実行する対象であるか否かを判定する。第1検体全体画像G4と第2検体全体画像G5が同一の病理検体であると判定された場合、画像調整機能354は、第1検体全体画像G4と第2検体全体画像G5とに対して、位置合わせなどの調整処理を実行する。第1検体全体画像G4と第2検体全体画像G5が同一の病理検体でないと判定された場合、画像調整機能354は、第1検体全体画像G4と第2検体全体画像G5とに対して位置合わせなどの調整処理を実行しない。 The image adjustment function 354 determines whether the first whole specimen image G4 and the second whole specimen image G5 are the same pathological specimen. In other words, the image adjustment function 354 determines whether or not the image is to be subjected to adjustment processing such as alignment. When it is determined that the first whole specimen image G4 and the second whole specimen image G5 are the same pathological specimen, the image adjustment function 354 performs the following on the first whole specimen image G4 and the second whole specimen image G5: Perform adjustment processing such as alignment. If it is determined that the first whole specimen image G4 and the second whole specimen image G5 are not the same pathological specimen, the image adjustment function 354 aligns the first whole specimen image G4 and the second whole specimen image G5. Do not perform adjustment processing such as

切り出し機能355は、同一の病理検体が撮影されており、位置合わせなどの調整処理が実行された第1検体全体画像G4と第2検体全体画像G5、または、異なる病理検体が撮影されている第1検体全体画像G4と第2検体全体画像G5から部分画像を切り出す。位置合わせなどの調整処理が実行された第1検体全体画像G4から部分画像として、第1検体画像G1が切り出され、位置合わせなどの調整処理が実行された第2検体全体画像G5から部分画像として、第1検体画像G1と同一の位置から第2検体画像G2が切り出された場合、第1検体画像G1と第2検体画像G2とのペアは特徴が一致するため、第1特徴量抽出器E1が略同一の特徴量を抽出すべき正例ペアとなる。位置合わせなどの調整処理が実行された第1検体全体画像G4から部分画像として、第2検体画像G2と異なる位置から第3検体画像G3が切り出された場合、第2検体画像G2と第3検体画像G3とのペアは特徴が一致しないため、第1特徴量抽出器E1が異なる特徴量を抽出すべき負例ペアとなる。異なる病理検体が撮影されている第1検体全体画像G4から第1検体画像G1が切り出され、第2検体全体画像G5から第1検体画像G1が切り出された場合、第1検体画像G1と第2検体画像G2とのペアは特徴が一致しないため、第1特徴量抽出器E1が異なる特徴量を抽出すべき負例ペアとなる。 The cropping function 355 can be used to extract a first specimen whole image G4 and a second specimen whole image G5 in which the same pathological specimen has been photographed and adjustment processing such as alignment has been performed, or a second specimen whole image G5 in which a different pathological specimen has been photographed. A partial image is cut out from the first specimen whole image G4 and the second specimen whole image G5. The first specimen image G1 is cut out as a partial image from the first specimen whole image G4 on which adjustment processing such as alignment has been performed, and as a partial image from the second specimen whole image G5 on which adjustment processing such as registration has been performed. , when the second specimen image G2 is cut out from the same position as the first specimen image G1, the features of the pair of the first specimen image G1 and the second specimen image G2 match, so the first feature amount extractor E1 are positive example pairs from which substantially the same feature quantities should be extracted. When the third specimen image G3 is cut out from a different position from the second specimen image G2 as a partial image from the first specimen whole image G4 that has undergone adjustment processing such as alignment, the second specimen image G2 and the third specimen image G3 Since the pair with image G3 does not match in features, it becomes a negative example pair from which the first feature amount extractor E1 should extract different feature amounts. When the first specimen image G1 is cut out from the first whole specimen image G4 in which different pathological specimens are photographed, and the first specimen image G1 is cut out from the second whole specimen image G5, the first specimen image G1 and the second Since the pair with the specimen image G2 does not match in features, it becomes a negative example pair from which the first feature amount extractor E1 should extract different feature amounts.

機械学習機能352cは、第1の実施形態と同様に、検体画像の病理検体が有する特徴の一致度が高くなるに従い損失値が小さくなり、検体画像の病理検体が有する特徴の一致度が低くなるに従い損失値が大きくなるように第1特徴量抽出器E1を学習させる。 As in the first embodiment, the machine learning function 352c has a loss value that decreases as the degree of matching of the features of the pathological specimen in the specimen image increases, and the degree of matching of the characteristics of the pathological specimen in the specimen image decreases. The first feature extractor E1 is trained so that the loss value increases according to the following.

次に、第4の実施形態に係る情報処理装置30cが実行する学習処理について説明する。図12は、第4の実施形態に係る情報処理装置30cが実行する学習処理の一例を示すフローチャートである。 Next, a learning process executed by the information processing device 30c according to the fourth embodiment will be described. FIG. 12 is a flowchart illustrating an example of a learning process executed by the information processing device 30c according to the fourth embodiment.

画像取得機能351は、複数の検体画像を取得する(ステップS41)。 The image acquisition function 351 acquires a plurality of specimen images (step S41).

画像調整機能354は、複数の検体画像から選択された検体画像のペアにおいて、同一の病理検体の画像であるか否かを判定する(ステップS42)。同一の病理検体の画像ではない場合に(ステップS42;No)、画像調整機能354は、ステップS45に移行する。 The image adjustment function 354 determines whether or not a pair of specimen images selected from a plurality of specimen images are images of the same pathological specimen (step S42). If the images are not of the same pathological specimen (step S42; No), the image adjustment function 354 moves to step S45.

同一の病理検体の画像の場合に(ステップS42;Yes)、画像調整機能354は、検体画像のペアにおいて、位置合わせなどの調整処理を実行する(ステップS43)。 In the case of images of the same pathological specimen (step S42; Yes), the image adjustment function 354 performs adjustment processing such as alignment on the pair of specimen images (step S43).

切り出し機能355は、位置合わせなどの調整処理が実行された検体画像、または、異なる検体を撮影した検体画像から、部分画像を切り出す(ステップS44)。 The cutout function 355 cuts out a partial image from a sample image that has undergone adjustment processing such as alignment, or a sample image obtained by photographing a different sample (step S44).

機械学習機能352cは、部分画像を検体画像として特徴量抽出器に入力することで、複数の部分画像のそれぞれ特徴量を取得する(ステップS45)。 The machine learning function 352c acquires the feature amount of each of the plurality of partial images by inputting the partial image as a sample image to the feature amount extractor (step S45).

機械学習機能352cは、複数の特徴量のそれぞれの組み合わせでの損失値を算出する(ステップS46)。 The machine learning function 352c calculates a loss value for each combination of a plurality of feature amounts (step S46).

機械学習機能352cは、損失値に基づいて、学習を終了する条件が満たされたか否かを判定する(ステップS47)。 The machine learning function 352c determines whether a condition for terminating learning is satisfied based on the loss value (step S47).

学習を終了する条件が満たされていない場合に(ステップS47;No)、機械学習機能352cは、特徴量抽出器のパラメータを更新する(ステップS48)。そして、機械学習機能352cは、ステップS45に移行する。 If the conditions for terminating learning are not met (step S47; No), the machine learning function 352c updates the parameters of the feature extractor (step S48). The machine learning function 352c then proceeds to step S45.

学習を終了する条件が満たされている場合に(ステップS47;Yes)、情報処理装置30cは、学習処理を終了する。 If the conditions for terminating the learning are satisfied (step S47; Yes), the information processing device 30c terminates the learning process.

以上のように、第4の実施形態に係る情報処理装置30cは、第1の画像と、第2の画像とにおける画像中の病理検体の位置、向き、及び形状の少なくとも一つを合わせる。情報処理装置30cは、位置が合わせられた画像の一部分を切り出す。この時、情報処理装置30cは、同一の位置から切り出すことにより、同じ特徴を含む部分画像のペアが取得できる。また、情報処理装置30cは、異なる位置から切り出すことにより、異なる特徴を含む部分画像のペアが取得できる。よって、情報処理装置30cは、学習に用いる画像を容易に収集することができる。 As described above, the information processing device 30c according to the fourth embodiment matches at least one of the position, orientation, and shape of the pathological specimen in the first image and the second image. The information processing device 30c cuts out a portion of the aligned image. At this time, the information processing device 30c can obtain a pair of partial images including the same features by cutting out the images from the same position. Further, the information processing device 30c can obtain a pair of partial images including different features by cutting out images from different positions. Therefore, the information processing device 30c can easily collect images used for learning.

(第5の実施形態)
図13は、第5の実施形態に係る病理情報処理システム1dの構成の一例を示す図である。
(Fifth embodiment)
FIG. 13 is a diagram showing an example of the configuration of a pathological information processing system 1d according to the fifth embodiment.

情報処理装置30dの処理回路350dは、画像生成機能356を有する。 The processing circuit 350d of the information processing device 30d has an image generation function 356.

画像生成機能356は、画像取得機能351により取得された検体画像から、検体画像を生成する。また、画像生成機能356は、切り出し機能355により切り出された部分検体画像から検体画像を生成してもよい。すなわち、画像生成機能356は、画像取得機能351により取得された検体画像と、切り出し機能355により切り出された部分検体画像との少なくとも一つから検体画像を生成する。画像生成機能356は、生成部の一例である。 The image generation function 356 generates a specimen image from the specimen image acquired by the image acquisition function 351. Further, the image generation function 356 may generate a sample image from the partial sample image cut out by the cutout function 355. That is, the image generation function 356 generates a specimen image from at least one of the specimen image acquired by the image acquisition function 351 and the partial specimen image cut out by the cutting function 355. The image generation function 356 is an example of a generation unit.

更に詳しくは、画像生成機能356は、データ拡張(Data Augmentation)処理により検体画像を生成する。すなわち、画像生成機能356は、回転、移動、拡大縮小、変形、反転、台形補正等の幾何的操作により検体画像を生成する。または、画像生成機能356は、ぼかし、ノイズ付加、明るさ補正、コントラスト補正、ガンマ補正等の画像加工操作により検体画像を生成する。 More specifically, the image generation function 356 generates a specimen image through data augmentation processing. That is, the image generation function 356 generates a specimen image by performing geometric operations such as rotation, movement, scaling, deformation, inversion, and keystone correction. Alternatively, the image generation function 356 generates a specimen image through image processing operations such as blurring, noise addition, brightness correction, contrast correction, and gamma correction.

また、相関値を算出する検体画像のペアに対して同じ幾何的操作をしない場合、病理検体の位置や向きなどの構造的特徴が変化するため、特徴量抽出器の特性が変化する。具体的には、幾何的操作により検体画像を生成した場合、特徴量抽出器が出力する特徴量から病理検体の位置や向きが同じであるか否かを判定するための特徴量が失われる可能性が高い。 Furthermore, if the same geometric operation is not performed on a pair of specimen images for which a correlation value is to be calculated, the structural features such as the position and orientation of the pathological specimen will change, and therefore the characteristics of the feature amount extractor will change. Specifically, when a specimen image is generated by geometric operations, the feature values used to determine whether the position and orientation of the pathological specimens are the same may be lost from the feature values output by the feature extractor. Highly sexual.

転移学習により特徴量抽出器が適用されるニューラルネットワークにおいて、病理検体の位置や向き等の特徴量が不要な場合、特徴量抽出器は、幾何的操作により生成された検体画像が使用されることにより最終的なロバスト性が向上する可能性がある。 In a neural network where a feature extractor is applied using transfer learning, if features such as the position and orientation of the pathological specimen are not required, the feature extractor uses a sample image generated by geometric operations. This may improve the final robustness.

例えば、分類タスクでは、病理検体の位置や向き等の特徴量は、不要なケースが多い。一方、セグメンテーションタスクでは、病理検体の位置や向き等の特徴量は、必要なケースが多い。 For example, in classification tasks, feature quantities such as the position and orientation of pathological specimens are often unnecessary. On the other hand, in segmentation tasks, feature quantities such as the position and orientation of pathological specimens are often required.

このように、幾何的操作、画像加工操作、又は、幾何的操作と画像加工操作との組み合わせとの何れの方法により検体画像を生成するのかは、特徴量抽出器が適用されるニューラルネットワークのタスクによって定められる。 In this way, the task of the neural network to which the feature extractor is applied determines whether a specimen image is generated using a geometric operation, an image processing operation, or a combination of a geometric operation and an image processing operation. determined by.

そこで、画像生成機能356は、特徴量抽出器が適用されるニューラルネットワークのタスクを示す操作や設定等に応じた方法により、画像取得機能351が取得した検体画像から、検体画像を生成する。 Therefore, the image generation function 356 generates a specimen image from the specimen image acquired by the image acquisition function 351 by a method according to the operation, setting, etc. indicating the task of the neural network to which the feature extractor is applied.

機械学習機能352dは、第1の実施形態と同様に、検体画像の病理検体が有する特徴の一致度が高くなるに従い損失値が小さくなり、検体画像の病理検体が有する特徴の一致度が低くなるに従い損失値が大きくなるように特徴量抽出器を学習させる。 Similar to the first embodiment, the machine learning function 352d has a loss value that decreases as the degree of matching of the features of the pathological specimen in the specimen image increases, and the degree of matching of the characteristics of the pathological specimen in the specimen image decreases. The feature extractor is trained so that the loss value increases according to .

画像生成機能356により生成された検体画像の特徴が、この検体画像の元になった検体画像の病理検体の特徴から変化している場合、機械学習機能352dは、検体画像の病理検体が有する特徴の一致度が高くなるに従い損失値が小さくなり、検体画像の病理検体が有する特徴の一致度が低くなるに従い損失値が大きくなるように特徴量抽出器を学習させる。 If the characteristics of the specimen image generated by the image generation function 356 have changed from the characteristics of the pathological specimen of the specimen image that is the source of this specimen image, the machine learning function 352d changes the characteristics of the pathological specimen of the specimen image. The feature quantity extractor is trained so that the loss value becomes smaller as the degree of matching of the features of the pathological specimen in the specimen image becomes higher, and the loss value becomes larger as the degree of matching of the features of the pathological specimen in the specimen image becomes lower.

なお、画像生成機能356により生成された検体画像の特徴が、この検体画像の元になった検体画像の病理検体の特徴から変化している場合であっても、病理検体が同一であり、且つ位置が同一の場合、機械学習機能352dは、損失値が小さくなるように特徴量抽出器に学習させてもよい。すなわち、機械学習機能352dは、損失値が小さくなるように特徴量抽出器のパラメータを更新してもよい。 Note that even if the characteristics of the specimen image generated by the image generation function 356 are different from the characteristics of the pathological specimen of the specimen image that is the source of this specimen image, the pathological specimen is the same and If the positions are the same, the machine learning function 352d may cause the feature extractor to learn so that the loss value is small. That is, the machine learning function 352d may update the parameters of the feature amount extractor so that the loss value becomes smaller.

例えば、画像生成機能356は、検体画像を回転することにより、新たに検体画像を生成する。この場合、特徴量抽出器は、元々の回転していない検体画像と、回転した検体画像とが入力されると、病理検体が同一であり且つ位置が同一であるため、それぞれ略同じ特徴量を出力する。すなわち、特徴量抽出器は、病理検体の向きに関する情報を含まない特徴量を出力する。 For example, the image generation function 356 generates a new specimen image by rotating the specimen image. In this case, when the original unrotated specimen image and the rotated specimen image are input, the feature extractor extracts approximately the same feature amounts from each of them because the pathological specimens are the same and the positions are the same. Output. That is, the feature extractor outputs a feature that does not include information regarding the orientation of the pathological specimen.

この特徴量抽出器が転移学習により適用されたニューラルネットワークは、検体画像の回転に対してロバスト性を有する。すなわち、ニューラルネットワークは、検体画像が回転を考慮せずに、処理結果を出力する。 A neural network to which this feature extractor is applied by transfer learning has robustness against rotation of the specimen image. That is, the neural network outputs the processing results without considering the rotation of the specimen image.

しかしながら、検体画像の向きは、ニューラルネットワークのタスクによっては重要な特徴量となる。 However, the orientation of the specimen image is an important feature depending on the task of the neural network.

そこで、機械学習機能352dは、特徴量抽出器が適用されるニューラルネットワークのタスクを示す操作や設定等に応じて、損失値が小さくなるように特徴量抽出器に学習させる、又は損失値が大きくなるように特徴量抽出器に学習させる。 Therefore, the machine learning function 352d makes the feature extractor learn so that the loss value is small, or the loss value is large, depending on the operation or settings indicating the task of the neural network to which the feature extractor is applied. Train the feature extractor to

すなわち、機械学習機能352dは、画像生成機能356により生成された検体画像の特徴が、この検体画像の元になった検体画像の病理検体の特徴から変化している場合であっても、病理検体が同一であり、且つ位置が同一の場合に、損失値を小さくするか否かは、操作や設定等に応じて決定する。 In other words, the machine learning function 352d recognizes the pathological specimen even if the characteristics of the specimen image generated by the image generation function 356 have changed from the characteristics of the pathological specimen of the specimen image that is the source of this specimen image. are the same and the positions are the same, whether or not to reduce the loss value is determined according to operations, settings, etc.

ここで、検体画像の生成を実行するフローについて説明する。図14は、第5の実施形態に係る情報処理装置30dが実行する検体画像を生成するフローの一例を示す図である。 Here, a flow for executing sample image generation will be described. FIG. 14 is a diagram illustrating an example of a flow for generating a specimen image executed by the information processing device 30d according to the fifth embodiment.

画像取得機能351は、例えば第1の撮影装置10が撮影した第1検体画像G1と、第2の撮影装置20が撮影した第2検体画像G2とを取得する。 The image acquisition function 351 acquires, for example, a first specimen image G1 photographed by the first imaging device 10 and a second specimen image G2 photographed by the second imaging device 20.

画像生成機能356は、第1検体画像G1をコピーし、コピーした画像を回転させることにより第4検体画像G6を生成する。 The image generation function 356 copies the first specimen image G1 and generates a fourth specimen image G6 by rotating the copied image.

機械学習機能352dは、検体画像の病理検体が有する特徴の一致度が高くなるに従い損失値が小さくなり、検体画像の病理検体が有する特徴の一致度が低くなるに従い損失値が大きくなるように第1特徴量抽出器E1を学習させる。 The machine learning function 352d is configured such that the loss value becomes smaller as the degree of matching of the features of the pathological specimen in the specimen image becomes higher, and the loss value becomes larger as the degree of matching of the features of the pathological specimen in the specimen image becomes lower. 1. Train the feature extractor E1.

機械学習機能352dは、画像生成機能356により生成された検体画像の特徴が、この検体画像の元になった検体画像の病理検体の特徴から変化している場合であっても、病理検体が同一であり、且つ位置が同一の場合に、損失値を小さくするか否かは、操作や設定等に応じて決定する。 The machine learning function 352d determines whether the pathological specimens are the same even if the characteristics of the specimen image generated by the image generation function 356 have changed from the characteristics of the pathological specimen of the specimen image that is the source of this specimen image. , and when the positions are the same, whether or not to reduce the loss value is determined according to operations, settings, etc.

すなわち、機械学習機能352dは、特徴量抽出器が適用されるニューラルネットワークのタスクを示す操作や設定等に応じて、第1検体画像G1から生成された第1特徴量Z1と、第3検体画像G3から生成された第3特徴量Z3とに対応する第2損失値L2を小さく又は大きくするように、第1特徴量抽出器E1のパラメータを更新する。 In other words, the machine learning function 352d extracts the first feature Z1 generated from the first specimen image G1 and the third specimen image according to the operation, setting, etc. indicating the task of the neural network to which the feature extractor is applied. The parameters of the first feature extractor E1 are updated so that the second loss value L2 corresponding to the third feature Z3 generated from G3 is made smaller or larger.

次に、第5の実施形態に係る情報処理装置30dが実行する学習処理について説明する。図15は、第5の実施形態に係る情報処理装置30dが実行する学習処理の一例を示すフローチャートである。 Next, a learning process executed by the information processing device 30d according to the fifth embodiment will be described. FIG. 15 is a flowchart illustrating an example of a learning process executed by the information processing device 30d according to the fifth embodiment.

画像取得機能351は、複数の検体画像を取得する(ステップS51)。 The image acquisition function 351 acquires a plurality of specimen images (step S51).

画像生成機能356は、画像取得機能351が取得した検体画像から、データ拡張により1以上の検体画像を生成する(ステップS52)。 The image generation function 356 generates one or more specimen images by data expansion from the specimen image acquired by the image acquisition function 351 (step S52).

機械学習機能352dは、画像取得機能351により取得された複数の検体画像、及び画像生成機能356により生成された検体画像を特徴量抽出器に入力することで、複数の検体画像のそれぞれ特徴量を取得する(ステップS53)。 The machine learning function 352d inputs the plurality of specimen images acquired by the image acquisition function 351 and the specimen image generated by the image generation function 356 to the feature quantity extractor, thereby extracting the characteristic quantities of each of the plurality of specimen images. Acquire (step S53).

機械学習機能352dは、複数の特徴量のそれぞれの組み合わせでの損失値を算出する(ステップS54)。 The machine learning function 352d calculates a loss value for each combination of a plurality of feature amounts (step S54).

機械学習機能352dは、損失値に基づいて、学習を終了する条件が満たされたか否かを判定する(ステップS55)。 The machine learning function 352d determines whether a condition for terminating learning is satisfied based on the loss value (step S55).

学習を終了する条件が満たされていない場合に(ステップS55;No)、機械学習機能352dは、特徴量抽出器のパラメータを更新する(ステップS56)。そして、機械学習機能352dは、ステップS53に移行する。 If the conditions for terminating learning are not met (step S55; No), the machine learning function 352d updates the parameters of the feature extractor (step S56). The machine learning function 352d then proceeds to step S53.

学習を終了する条件が満たされている場合に(ステップS55;Yes)、機械学習機能352dは、学習処理を終了する。 If the conditions for terminating the learning are satisfied (step S55; Yes), the machine learning function 352d terminates the learning process.

以上のように、第5の実施形態に係る情報処理装置30dは、第1の撮影装置10又は第2の撮影装置20が撮影した画像からデータ拡張により画像を生成する。よって、情報処理装置30dは、学習に用いる画像を容易に収集することができる。 As described above, the information processing device 30d according to the fifth embodiment generates an image by data expansion from an image photographed by the first photographing device 10 or the second photographing device 20. Therefore, the information processing device 30d can easily collect images used for learning.

(変形例1)
画像取得機能351は、第1の撮影装置10及び第2の撮影装置20から検体画像を取得すると説明した。しかしながら、病理情報処理システム1、1a、1b、1c、1dは、第2の撮影装置20を備えていなくてもよい。この場合、画像取得機能351は、第1の撮影装置10から撮影条件の異なる複数の検体画像を取得すればよい。
(Modification 1)
It has been explained that the image acquisition function 351 acquires specimen images from the first imaging device 10 and the second imaging device 20. However, the pathological information processing systems 1, 1a, 1b, 1c, and 1d do not need to include the second imaging device 20. In this case, the image acquisition function 351 may acquire a plurality of specimen images under different imaging conditions from the first imaging device 10.

(変形例2)
第1の撮影装置10及び第2の撮影装置20は、カメラやスキャナであると説明した。しかしながら、第1の撮影装置10及び第2の撮影装置20は、検体の三次元断層画像を撮影可能なOCT(Optical Coherence Tomography)装置、MicroCT(Computed Tomography)装置、MicroMRI(Magnetic Resonance Imaging)装置、またはX線CT装置、またはMRI(Magnetic Resonance Imaging)装置等であってもよい。すなわち、情報処理装置30、30a、30b、30c、30dは、病理分野における検体画像のような2次元画像に限らず、CT画像や、MRI画像等の3次元画像に対して処理を行ってもよい。
(Modification 2)
It has been explained that the first photographing device 10 and the second photographing device 20 are cameras or scanners. However, the first imaging device 10 and the second imaging device 20 are an OCT (Optical Coherence Tomography) device, a MicroCT (Computed Tomography) device, a MicroMRI (Magnetic Resonance Imaging) device, which can capture a three-dimensional tomographic image of a specimen, Alternatively, it may be an X-ray CT device, an MRI (Magnetic Resonance Imaging) device, or the like. That is, the information processing devices 30, 30a, 30b, 30c, and 30d are capable of processing not only two-dimensional images such as specimen images in the field of pathology, but also three-dimensional images such as CT images and MRI images. good.

(変形例2)
情報処理装置30、30a、30b、30c、30dは、画像取得機能351、機械学習機能352、352b、352c、352d、転移学習機能353、画像調整機能354、切り出し機能355、及び画像生成機能356を備えると説明した。しかしながら、これら機能部の全部又は一部は、情報処理装置30、30a、30b、30c、30d以外の他の装置が備えていてもよい。この場合、情報処理装置30、30a、30b、30c、30dは、検体画像を他の装置に送信すればよい。
(Modification 2)
The information processing devices 30, 30a, 30b, 30c, and 30d have an image acquisition function 351, a machine learning function 352, 352b, 352c, and 352d, a transfer learning function 353, an image adjustment function 354, a cutting function 355, and an image generation function 356. I explained that I would be prepared. However, all or part of these functional units may be included in devices other than the information processing devices 30, 30a, 30b, 30c, and 30d. In this case, the information processing devices 30, 30a, 30b, 30c, and 30d may transmit the sample images to other devices.

(変形例3)
情報処理装置30、30a、30b、30c、30dは、記憶回路340に記憶されているプログラムを実行することにより、画像取得機能351、機械学習機能352、352b、352c、352d、転移学習機能353、画像調整機能354、切り出し機能355、及び画像生成機能356を実現すると説明した。しかしながら、情報処理装置30、30a、30b、30c、30dは、画像取得機能351、機械学習機能352、352b、352c、352d、転移学習機能353、画像調整機能354、切り出し機能355、及び画像生成機能356の全部又は一部を半導体回路などのハードウェアにより実現してもよい。
(Modification 3)
The information processing devices 30, 30a, 30b, 30c, and 30d execute the programs stored in the storage circuit 340 to provide an image acquisition function 351, a machine learning function 352, 352b, 352c, and 352d, a transfer learning function 353, It has been explained that the image adjustment function 354, the cutout function 355, and the image generation function 356 are realized. However, the information processing devices 30, 30a, 30b, 30c, and 30d have an image acquisition function 351, a machine learning function 352, 352b, 352c, and 352d, a transfer learning function 353, an image adjustment function 354, a cutting function 355, and an image generation function. All or part of 356 may be realized by hardware such as a semiconductor circuit.

以上説明した少なくとも1つの実施形態等によれば、撮影条件の違いにより生じる特徴量の差異を低減することができる。 According to at least one embodiment described above, it is possible to reduce differences in feature amounts caused by differences in imaging conditions.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, changes, and combinations of embodiments can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

1、1a、1b、1c、1d 病理情報処理システム
10 第1の撮影装置
20 第2の撮影装置
30、30a、30b、30c、30d 情報処理装置
40 ネットワーク
310 NW(ネットワーク)インタフェース
320 入力インタフェース
330 ディスプレイ
340 記憶回路
350、350a、350b、350c、350d 処理回路
351 画像取得機能
352、352b、352c 機械学習機能
353 転移学習機能
354 画像調整機能
355 切り出し機能
356 画像生成機能
E1 第1特徴量抽出器
E2 第2特徴量抽出器
G1 第1検体画像
G2 第2検体画像
G3 第3検体画像
G4 第1検体全体画像
G5 第2検体全体画像
G6 第4検体画像
Z1 第1特徴量
Z2 第2特徴量
Z3 第3特徴量
L1 第1損失値
L2 第2損失値
L3 第3損失値
M1 第1ニューラルネットワーク

1, 1a, 1b, 1c, 1d pathological information processing system 10 first imaging device 20 second imaging device 30, 30a, 30b, 30c, 30d information processing device 40 network 310 NW (network) interface 320 input interface 330 display 340 Memory circuit 350, 350a, 350b, 350c, 350d Processing circuit 351 Image acquisition function 352, 352b, 352c Machine learning function 353 Transfer learning function 354 Image adjustment function 355 Cutting function 356 Image generation function E1 First feature extractor E2 2 feature extractor G1 First sample image G2 Second sample image G3 Third sample image G4 First sample entire image G5 Second sample entire image G6 Fourth sample image Z1 First feature Z2 Second feature Z3 Third Feature L1 First loss value L2 Second loss value L3 Third loss value M1 First neural network

Claims (12)

病理検体を撮影した第1の画像と、当該病理検体を前記第1の画像の撮影条件とは異なる撮影条件で撮影した第2の画像とを取得する画像取得部と、
画像の特徴を表す特徴量を出力する第1の特徴量抽出器により出力された前記第1の画像の特徴量と、前記第1の特徴量抽出器により出力された前記第2の画像の特徴量との誤差を示す損失値が、前記第1の画像の病理検体が有する特徴と前記第2の画像の病理検体が有する特徴との一致度に応じた値になるように、前記第1の特徴量抽出器のパラメータを更新する機械学習部と、
を備える情報処理装置。
an image acquisition unit that acquires a first image of a pathological specimen and a second image of the pathological specimen under imaging conditions different from imaging conditions of the first image;
A feature amount of the first image outputted by a first feature amount extractor that outputs a feature amount representing the feature of the image, and a feature amount of the second image outputted by the first feature amount extractor. the first image so that the loss value indicating the error with respect to the amount of a machine learning unit that updates parameters of the feature extractor;
An information processing device comprising:
前記機械学習部は、前記第1の画像の病理検体が有する特徴と前記第2の画像の病理検体が有する特徴との前記一致度が高くなるに従い前記損失値が小さくなるように、前記第1の特徴量抽出器のパラメータを更新する、
請求項1に記載の情報処理装置。
The machine learning unit is configured to calculate the loss value from the first image so that the loss value decreases as the degree of coincidence between the characteristics of the pathological specimen in the first image and the characteristics of the pathological specimen in the second image increases. Update the parameters of the feature extractor of
The information processing device according to claim 1.
前記機械学習部は、前記第1の画像の病理検体の位置と前記第2の画像の病理検体の位置とが近くになるに従い前記損失値が小さくなるように、前記第1の特徴量抽出器のパラメータを更新する、
請求項1に記載の情報処理装置。
The machine learning unit controls the first feature extractor so that the loss value decreases as the position of the pathological specimen in the first image and the position of the pathological specimen in the second image become closer. update the parameters of,
The information processing device according to claim 1.
前記第1の特徴量抽出器を再構成した第2の特徴量抽出器のパラメータを更新する転移学習部を更に備える、
請求項1に記載の情報処理装置。
further comprising a transfer learning unit that updates parameters of a second feature extractor that is the reconfigured first feature extractor;
The information processing device according to claim 1.
前記第2の特徴量抽出器を有するニューラルネットワークは、入力画像の分類を実行した実行結果、入力画像に含まれる物体ごとに領域を分割したセグメンテーション結果、入力画像に含まれる物体を検出した検出結果、又は入力画像から生成した画像を出力する、
請求項4に記載の情報処理装置。
The neural network having the second feature extractor extracts the execution result of classifying the input image, the segmentation result of dividing the area for each object included in the input image, and the detection result of detecting the object included in the input image. , or output an image generated from an input image,
The information processing device according to claim 4.
前記第1の画像と、前記第2の画像とにおける画像中の病理検体の位置、向き、及び形状の少なくとも一つを合わせる調整部を更に備える、
請求項1に記載の情報処理装置。
further comprising an adjustment unit that adjusts at least one of the position, orientation, and shape of the pathological specimen in the first image and the second image;
The information processing device according to claim 1.
画像の一部分を切り出す切り出し部を更に備え、
前記機械学習部は、前記第1の特徴量抽出器により出力された前記第1の画像の一部分である第1の部分画像の特徴量と、前記第1の特徴量抽出器により出力された前記第2の画像の一部分である第2の部分画像の特徴量との前記損失値が、前記第1の部分画像の病理検体が有する特徴と前記第2の部分画像の病理検体が有する特徴との一致度に応じた値になるように、前記第1の特徴量抽出器のパラメータを更新する、
請求項1に記載の情報処理装置。
It further includes a cutting section that cuts out a part of the image,
The machine learning unit is configured to calculate the feature amount of a first partial image that is a part of the first image output by the first feature amount extractor, and the feature amount of the first partial image that is a part of the first image output by the first feature amount extractor. The loss value between the feature amount of the second partial image, which is a part of the second image, is the difference between the feature of the pathological specimen of the first partial image and the characteristic of the pathological specimen of the second partial image. updating the parameters of the first feature extractor so that the values correspond to the degree of matching;
The information processing device according to claim 1.
前記第1の画像と、前記第2の画像と、前記第1の画像の一部分である第1の部分画像と、前記第2の画像の一部分である第2の部分画像との少なくとも一つから画像を生成する生成部を更に備える、
請求項1に記載の情報処理装置。
At least one of the first image, the second image, a first partial image that is a part of the first image, and a second partial image that is a part of the second image. further comprising a generation unit that generates an image;
The information processing device according to claim 1.
前記第1の画像と、前記第2の画像とは、同一の病理検体の同一の位置が撮影された画像である、
請求項1に記載の情報処理装置。
The first image and the second image are images taken at the same position of the same pathological specimen;
The information processing device according to claim 1.
前記機械学習部は、前記第1の画像と前記第2の画像とが同一の病理検体の同一の位置が撮影された画像の組み合わせの場合に、撮影された位置が異なる画像の組み合わせよりも、前記損失値が小さくなるように前記パラメータを更新する、
請求項1に記載の情報処理装置。
When the first image and the second image are a combination of images taken at the same position of the same pathological specimen, the machine learning unit determines that when the first image and the second image are a combination of images taken at the same position of the same pathological specimen, the machine learning unit updating the parameters so that the loss value becomes smaller;
The information processing device according to claim 1.
病理検体を撮影した第1の画像と、当該病理検体を前記第1の画像の撮影条件とは異なる撮影条件で撮影した第2の画像とを取得し
画像の特徴を表す特徴量を出力する第1の特徴量抽出器により出力された前記第1の画像の特徴量と、前記第1の特徴量抽出器により出力された前記第2の画像の特徴量との誤差を示す損失値が、前記第1の画像の病理検体が有する特徴と前記第2の画像の病理検体が有する特徴との一致度に応じた値になるように、前記第1の特徴量抽出器のパラメータを更新する、
ことを含む情報処理方法。
A first image obtained by photographing a pathological specimen and a second image obtained by photographing the pathological specimen under photographing conditions different from the photographing conditions for the first image, and outputting a feature amount representing the characteristics of the image. a loss value indicating an error between the feature amount of the first image outputted by the first feature amount extractor and the feature amount of the second image outputted by the first feature amount extractor; updating the parameters of the first feature extractor so that the parameters of the first feature extractor become values corresponding to the degree of matching between the features of the pathological specimen in the first image and the characteristics of the pathological specimen in the second image;
Information processing methods that include
コンピュータを、
病理検体を撮影した第1の画像と、当該病理検体を前記第1の画像の撮影条件とは異なる撮影条件で撮影した第2の画像とを取得する画像取得部と、
画像の特徴を表す特徴量を出力する第1の特徴量抽出器により出力された前記第1の画像の特徴量と、前記第1の特徴量抽出器により出力された前記第2の画像の特徴量との誤差を示す損失値が、前記第1の画像の病理検体が有する特徴と前記第2の画像の病理検体が有する特徴との一致度に応じた値になるように、前記第1の特徴量抽出器のパラメータを更新する機械学習部と、
して機能させるためのプログラム。
computer,
an image acquisition unit that acquires a first image of a pathological specimen and a second image of the pathological specimen under imaging conditions different from imaging conditions of the first image;
A feature amount of the first image outputted by a first feature amount extractor that outputs a feature amount representing the feature of the image, and a feature amount of the second image outputted by the first feature amount extractor. the first image so that the loss value indicating the error with respect to the amount of a machine learning unit that updates parameters of the feature extractor;
A program to make it work.
JP2022128419A 2022-08-10 2022-08-10 Information processing device, information processing method, and program Pending JP2024025181A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022128419A JP2024025181A (en) 2022-08-10 2022-08-10 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022128419A JP2024025181A (en) 2022-08-10 2022-08-10 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2024025181A true JP2024025181A (en) 2024-02-26

Family

ID=90011194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022128419A Pending JP2024025181A (en) 2022-08-10 2022-08-10 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2024025181A (en)

Similar Documents

Publication Publication Date Title
CN107480677B (en) Method and device for identifying interest region in three-dimensional CT image
TWI737659B (en) Method of deep learning - based examination of a semiconductor specimen and system thereof
WO2020036734A2 (en) Image segmentation and object detection using fully convolutional neural network
JP6746027B1 (en) Artificial intelligence based Parkinson&#39;s disease diagnostic device and method
WO2019037676A1 (en) Image processing method and device
KR20190141787A (en) Learning-Based Approach to Align Images Acquired with Various Modalities
JP4911029B2 (en) Abnormal shadow candidate detection method, abnormal shadow candidate detection device
CN110751719B (en) Breast three-dimensional point cloud reconstruction method, device, storage medium and computer equipment
US10650516B2 (en) Information processing apparatus, information processing method, and recording medium
WO2011074162A1 (en) Image processing apparatus, image processing method, image processing system, and program
JP6390746B2 (en) Diagnosis support apparatus, image processing method and program in diagnosis support apparatus
EP3939006A1 (en) Feature point detection
Sokooti et al. 3D convolutional neural networks image registration based on efficient supervised learning from artificial deformations
Fantini et al. Automatic detection of motion artifacts on MRI using Deep CNN
CN110246580B (en) Cranial image analysis method and system based on neural network and random forest
US20200019823A1 (en) Medical image analysis method applying machine learning and system thereof
JP2020192006A (en) Diagnosis support apparatus and x-ray ct apparatus
US20230169666A1 (en) Methods and systems for image registration
CN108090954A (en) Abdominal cavity environmental map based on characteristics of image rebuilds the method with laparoscope positioning
JP6429958B2 (en) Image processing apparatus, image processing method, and program
KR20190090986A (en) System and method for assisting chest medical images reading
JP2009301254A (en) Image processing device, method and program
JP2024025181A (en) Information processing device, information processing method, and program
JP2022068043A (en) Medical image processing device and medical image processing system
JP2021089493A (en) Information processing apparatus and learning method thereof