JP7304150B2 - Image analysis device, diagnostic imaging device, and ROI setting program - Google Patents

Image analysis device, diagnostic imaging device, and ROI setting program Download PDF

Info

Publication number
JP7304150B2
JP7304150B2 JP2018231421A JP2018231421A JP7304150B2 JP 7304150 B2 JP7304150 B2 JP 7304150B2 JP 2018231421 A JP2018231421 A JP 2018231421A JP 2018231421 A JP2018231421 A JP 2018231421A JP 7304150 B2 JP7304150 B2 JP 7304150B2
Authority
JP
Japan
Prior art keywords
interest
region
organ
image data
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018231421A
Other languages
Japanese (ja)
Other versions
JP2020092767A (en
Inventor
啓介 宮木
正毅 渡辺
悠 五十嵐
泰徳 本庄
優子 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018231421A priority Critical patent/JP7304150B2/en
Publication of JP2020092767A publication Critical patent/JP2020092767A/en
Application granted granted Critical
Publication of JP7304150B2 publication Critical patent/JP7304150B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明の実施形態は、画像解析装置、画像診断装置、モデル学習装置、及びROI設定プログラムに関する。 Embodiments of the present invention relate to an image analysis device, an image diagnosis device, a model learning device, and a ROI setting program.

超音波診断装置では、例えば、超音波画像内において複数の臓器に設定された関心領域(ROI)内の特徴量の関係から、少なくともいずれかの臓器の状態を評価する機能がある。具体的には、肝臓等の複数の臓器を含むBモード画像において、少なくとも肝臓を含む複数の臓器に設定されたROI内の輝度値の関係から、肝炎、及び脂肪肝等の度合いを評価する臨床アプリケーションがある。 Ultrasound diagnostic apparatuses have a function of evaluating the state of at least one organ based on the relationship between feature amounts in regions of interest (ROI) set for a plurality of organs in an ultrasound image, for example. Specifically, in a B-mode image including a plurality of organs such as the liver, the degree of hepatitis, fatty liver, etc. is evaluated from the relationship between the luminance values in the ROI set for the plurality of organs including at least the liver. I have an application.

上記評価機能を実行する場合、医師等の操作者は、画像中に含まれる臓器の適切な位置に、適切な大きさで、ROIを設定する必要がある。しかしながら、評価機能を実行する度に、画像中に含まれる臓器に適切にROIを設定するのは手間がかかる。 When executing the evaluation function, an operator such as a doctor needs to set an ROI with an appropriate size at an appropriate position of the organ included in the image. However, it takes time and effort to appropriately set the ROI for the organs included in the image each time the evaluation function is executed.

特許第5619191号公報Japanese Patent No. 5619191

発明が解決しようとする課題は、医用画像に関心領域を設定する手間を軽減することである。 A problem to be solved by the invention is to reduce the trouble of setting a region of interest in a medical image.

実施形態によれば、画像解析装置は、設定部を備える。設定部は、予め設定された領域に所定の臓器を含む医用画像データを学習済みモデルに入力し、前記学習済みモデルからの出力結果に基づき、前記医用画像データにおける前記臓器へ関心領域を設定する。 According to an embodiment, an image analysis device includes a setting section. The setting unit inputs medical image data including a predetermined organ in a preset region to a trained model, and sets a region of interest for the organ in the medical image data based on an output result from the trained model. .

図1は、第1の実施形態に係る画像解析装置が設けられる病院内のシステムの機能構成を示すブロック図である。FIG. 1 is a block diagram showing the functional configuration of a system in a hospital provided with an image analysis apparatus according to the first embodiment. 図2は、図1に示される画像解析装置の機能構成を表すブロック図である。FIG. 2 is a block diagram showing the functional configuration of the image analysis apparatus shown in FIG. 1. As shown in FIG. 図3は、学習済みモデルを生成する医用情報処理システムの構成を表す図である。FIG. 3 is a diagram showing the configuration of a medical information processing system that generates trained models. 図4は、図3で示されるモデル学習装置で入力として扱われる医用画像を表す図である。FIG. 4 is a diagram showing a medical image treated as an input by the model learning device shown in FIG. 図5は、図3で示されるモデル学習装置で正解出力として扱われるROIの位置情報を表す図である。FIG. 5 is a diagram showing ROI position information treated as a correct answer output by the model learning apparatus shown in FIG. 図6は、図2で示される処理回路が学習済みモデルを利用したROI設定処理を実行する際の動作を表すフローチャートである。FIG. 6 is a flow chart showing the operation when the processing circuit shown in FIG. 2 executes the ROI setting process using the learned model. 図7は、学習済みモデルに入力されるBモード画像、及び学習済みモデルから出力される座標情報に基づく点を表す図である。FIG. 7 is a diagram showing a B-mode image input to a trained model and points based on coordinate information output from the trained model. 図8は、2つの円形ROIが設置されたBモード画像を表す図である。FIG. 8 is a diagram representing a B-mode image with two circular ROIs placed thereon. 図9は、図6で示されるフローチャートの変形例を表す図である。FIG. 9 is a diagram showing a modification of the flowchart shown in FIG. 図10は、処理回路による円形ROIの移動を表す図である。FIG. 10 is a diagram representing movement of a circular ROI by processing circuitry. 図11は、第2の実施形態においてモデル学習装置で正解出力として扱われるROIの位置情報を表す図である。FIG. 11 is a diagram showing ROI position information treated as correct output by the model learning device in the second embodiment. 図12は、第2の実施形態に係る処理回路が学習済みモデルを利用したROI設定処理を実行する際の動作を表すフローチャートである。FIG. 12 is a flow chart showing the operation when the processing circuit according to the second embodiment executes the ROI setting process using the learned model. 図13は、学習済みモデルに入力されるBモード画像、及び学習済みモデルから出力される座標情報に基づく点を表す図である。FIG. 13 is a diagram showing a B-mode image input to a trained model and points based on coordinate information output from the trained model. 図14は、第1円形ROIが設置されたBモード画像を表す図である。FIG. 14 is a diagram showing a B-mode image on which the first circular ROI is placed. 図15は、2つの第2円形ROIが設置されたBモード画像を表す図である。FIG. 15 is a diagram representing a B-mode image with two second circular ROIs placed thereon. 図16は、第3の実施形態においてモデル学習装置で正解出力として扱われるROIの位置情報を表す図である。FIG. 16 is a diagram showing ROI position information treated as correct output by the model learning device in the third embodiment. 図17は、第3の実施形態に係る処理回路が学習済みモデルを利用したROI設定処理を実行する際の動作を表すフローチャートである。FIG. 17 is a flow chart showing the operation when the processing circuit according to the third embodiment executes the ROI setting process using the learned model. 図18は、学習済みモデルに入力されるBモード画像、及び学習済みモデルから出力される座標情報に基づく点を表す図である。FIG. 18 is a diagram showing points based on a B-mode image input to a trained model and coordinate information output from the trained model. 図19は、腎臓内に円形ROIが設置されたBモード画像を表す図である。FIG. 19 depicts a B-mode image with a circular ROI placed within the kidney. 図20は、2つの円形ROIが設置されたBモード画像を表す図である。FIG. 20 is a diagram representing a B-mode image in which two circular ROIs are placed. 図21は、医用画像診断装置としての超音波診断装置の機能構成を表すブロック図である。FIG. 21 is a block diagram showing the functional configuration of an ultrasonic diagnostic apparatus as a medical image diagnostic apparatus.

以下、実施の形態について、図面を参照して説明する。 Embodiments will be described below with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る画像解析装置が設けられる病院内のシステムの機能構成の例を示すブロック図である。図1に示されるシステムは、画像解析装置10、医用画像診断装置20、医用画像管理システム(PACS:Picture Archiving and Communication System)30、及び通信端末40を具備する。画像解析装置10、医用画像診断装置20、医用画像管理システム30、及び通信端末40は、LAN(Local Area Network)等の病院内ネットワークを介してデータ通信可能に接続されている。このとき、病院内ネットワークへの接続は、有線接続、及び無線接続を問わない。
(First embodiment)
FIG. 1 is a block diagram showing an example of the functional configuration of a system in a hospital provided with an image analysis apparatus according to the first embodiment. The system shown in FIG. 1 includes an image analysis device 10 , a medical image diagnostic device 20 , a medical image archiving and communication system (PACS) 30 , and a communication terminal 40 . The image analysis apparatus 10, the medical image diagnostic apparatus 20, the medical image management system 30, and the communication terminal 40 are connected via an intra-hospital network such as a LAN (Local Area Network) so as to be capable of data communication. At this time, the connection to the intra-hospital network may be wired connection or wireless connection.

なお、図1では、画像解析装置10、医用画像診断装置20、医用画像管理システム30、及び通信端末40が病院内ネットワークに接続される場合を例に示しているが、これに限定されない。セキュリティが確保されるのであれば、接続される回線は病院内ネットワークに限定されない。例えば、VPN(Virtual Private Network)等を介し、インターネット等、公衆の通信回線に接続するようにしても構わない。 Although FIG. 1 shows an example in which the image analysis apparatus 10, the medical image diagnostic apparatus 20, the medical image management system 30, and the communication terminal 40 are connected to an intra-hospital network, the present invention is not limited to this. The line to be connected is not limited to the intra-hospital network as long as security is ensured. For example, it may be connected to a public communication line such as the Internet via a VPN (Virtual Private Network) or the like.

医用画像診断装置20は、被検体を撮影することにより医用画像データを発生する装置である。医用画像診断装置20は、例えば、X線診断装置、X線CT装置、MRI装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT-CT装置、PET装置とX線CT装置とが一体化されたPET-CT装置、PET装置とMRI装置とが一体化されたPET-MRI装置、又はこれらの装置群等である。 The medical image diagnostic apparatus 20 is an apparatus that generates medical image data by photographing a subject. The medical image diagnostic device 20 includes, for example, an X-ray diagnostic device, an X-ray CT device, an MRI device, an ultrasonic diagnostic device, a SPECT (Single Photon Emission Computed Tomography) device, a PET (Positron Emission computed Tomography) device, a SPECT device and an X A SPECT-CT device integrated with a line CT device, a PET-CT device integrated with a PET device and an X-ray CT device, a PET-MRI device integrated with a PET device and an MRI device, or these and the like.

医用画像診断装置20は、撮像オーダを受信すると、受信した撮像オーダ、及び撮影の対象となる患者に関する患者情報に基づいて患者を撮影し、医用画像データを生成する。医用画像データは、再構成後のデータであってもよいし、再構成前の生データであっても構わない。医用画像診断装置20は、生成した医用画像データを、例えば、DICOM(Digital Imaging and Communication Medicine)規格に則った画像ファイルに変換する。画像ファイルは、医用画像データと、医用画像データに付加される付帯情報を含む。付帯情報は、医用画像データを管理するための情報であり、例えば、検査UID、検査日、検査時刻、及び患者ID等が含まれる。検査UIDは、検査を一意に特定可能な識別子である。 Upon receiving the imaging order, the medical image diagnostic apparatus 20 images the patient based on the received imaging order and patient information about the patient to be imaged, and generates medical image data. The medical image data may be data after reconstruction, or may be raw data before reconstruction. The medical image diagnostic apparatus 20 converts the generated medical image data into an image file conforming to the DICOM (Digital Imaging and Communication Medicine) standard, for example. The image file includes medical image data and incidental information added to the medical image data. The incidental information is information for managing medical image data, and includes, for example, examination UID, examination date, examination time, patient ID, and the like. The study UID is an identifier that uniquely identifies the study.

医用画像管理システム30は、医用画像データを管理するシステムである。医用画像管理システム30で管理される医用画像データには、例えば、医用画像診断装置20で生成された医用画像データ、及び外部から提供された医用画像データを含む。 The medical image management system 30 is a system for managing medical image data. The medical image data managed by the medical image management system 30 includes, for example, medical image data generated by the medical image diagnostic apparatus 20 and medical image data provided from the outside.

通信端末40は、医療スタッフがLANに接続されているシステム及び装置等へアクセスするための端末、例えば、ビューワである。なお、図1では、通信端末40が医用画像管理システム30に属さず、画像解析装置10に直接接続されていない場合を示しているが、これに限定されない。通信端末40は、医療スタッフが使用可能であれば、医用画像管理システム30に属していても構わないし、画像解析装置10に直接接続されていても構わない。 The communication terminal 40 is a terminal such as a viewer for medical staff to access systems and devices connected to the LAN. Although FIG. 1 shows a case where the communication terminal 40 does not belong to the medical image management system 30 and is not directly connected to the image analysis apparatus 10, the present invention is not limited to this. The communication terminal 40 may belong to the medical image management system 30 or may be directly connected to the image analysis apparatus 10 as long as it can be used by the medical staff.

画像解析装置10は、医用画像データを解析する装置である。例えば、画像解析装置10は、医用画像診断装置20で生成された医用画像データ、又は医用画像管理システム30で管理されている医用画像データに関心領域(ROI)を設定し、設定したROI内の特徴量に基づいて患者の状態を評価する。 The image analysis device 10 is a device that analyzes medical image data. For example, the image analysis apparatus 10 sets a region of interest (ROI) in medical image data generated by the medical image diagnostic apparatus 20 or medical image data managed by the medical image management system 30, and A patient's condition is evaluated based on the feature amount.

図2は、図1に示される画像解析装置10の機能構成の例を表すブロック図である。図2に示される画像解析装置10は、処理回路11、メモリ12、及び通信インタフェース13を有する。処理回路11、メモリ12、及び通信インタフェース13は、例えば、バスを介して互いに通信可能に接続されている。 FIG. 2 is a block diagram showing an example of the functional configuration of the image analysis apparatus 10 shown in FIG. 1. As shown in FIG. The image analysis device 10 shown in FIG. 2 has a processing circuit 11 , a memory 12 and a communication interface 13 . The processing circuit 11, the memory 12, and the communication interface 13 are communicably connected to each other via a bus, for example.

処理回路11は、画像解析装置10の中枢として機能するプロセッサである。処理回路11は、メモリ12等に記憶されているプログラムを実行することにより、当該プログラムに対応する機能を実現する。 The processing circuit 11 is a processor that functions as the core of the image analysis apparatus 10 . The processing circuit 11 implements a function corresponding to the program by executing the program stored in the memory 12 or the like.

メモリ12は、種々の情報を記憶するROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及び集積回路記憶装置等の記憶装置である。また、メモリ12は、CD-ROMドライブ、DVDドライブ、及びフラッシュメモリ等の可搬性記憶媒体との間で種々の情報を読み書きする駆動装置等であってもよい。なお、メモリ12は、必ずしも単一の記憶装置により実現される必要は無い。例えば、メモリ12は、複数の記憶装置により実現されても構わない。また、メモリ12は、画像解析装置10にネットワークを介して接続された他のコンピュータ内にあってもよい。 The memory 12 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), an SSD (Solid State Drive), and an integrated circuit storage device that stores various information. Also, the memory 12 may be a drive device or the like that reads and writes various information from/to a portable storage medium such as a CD-ROM drive, a DVD drive, and a flash memory. Note that the memory 12 does not necessarily have to be realized by a single storage device. For example, the memory 12 may be realized by multiple storage devices. Alternatively, the memory 12 may reside in another computer connected to the image analysis apparatus 10 via a network.

メモリ12は、本実施形態に係るROI設定プログラム、及び状態評価プログラム等を記憶している。なお、これらのプログラムは、例えば、メモリ12に予め記憶されていてもよい。また、例えば、非一過性の記憶媒体に記憶されて配布され、非一過性の記憶媒体から読み出されてメモリ12にインストールされてもよい。 The memory 12 stores an ROI setting program, a state evaluation program, and the like according to this embodiment. Note that these programs may be stored in advance in the memory 12, for example. Alternatively, for example, it may be stored in a non-transitory storage medium and distributed, read from the non-transitory storage medium and installed in the memory 12 .

また、メモリ12は、例えば、機械学習により生成された識別器としての学習済みモデル121を記憶している。学習済みモデル121は、計算モデルの一例である。本実施形態において、学習済みモデルとは、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることで生成されるモデルを表す。学習済みモデル121は、例えば、医用画像に基づいてROIを設定するためのモデルであり、以下のように生成されて画像解析装置10のメモリ12に記憶される。 The memory 12 also stores a learned model 121 as a discriminator generated by machine learning, for example. The learned model 121 is an example of a computational model. In this embodiment, a trained model represents a model generated by causing a machine learning model to perform machine learning according to a model learning program. The trained model 121 is, for example, a model for setting ROI based on medical images, and is generated as follows and stored in the memory 12 of the image analysis apparatus 10 .

図3は、学習済みモデル121を生成する医用情報処理システムの構成例を表す模式図である。図3に示される医用情報処理システムは、画像解析装置10、学習データ保管装置50、及びモデル学習装置60を有する。画像解析装置10、学習データ保管装置50、及びモデル学習装置60は、例えば、ケーブル又は通信ネットワークを介して通信可能に接続されている。 FIG. 3 is a schematic diagram showing a configuration example of a medical information processing system that generates a trained model 121. As shown in FIG. The medical information processing system shown in FIG. 3 has an image analysis device 10 , a learning data storage device 50 and a model learning device 60 . The image analysis device 10, the learning data storage device 50, and the model learning device 60 are communicably connected via a cable or a communication network, for example.

学習データ保管装置50は、複数の学習サンプルを含む学習データを記憶する。例えば、学習データ保管装置50は、大容量記憶装置が内蔵されたコンピュータである。また、学習データ保管装置50は、コンピュータにケーブルや通信ネットワークを介して通信可能に接続された大容量記憶装置であってもよい。当該記憶装置としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、集積回路記憶装置等が適宜利用可能である。 The learning data storage device 50 stores learning data including multiple learning samples. For example, the learning data storage device 50 is a computer with a built-in mass storage device. The learning data storage device 50 may also be a mass storage device communicatively connected to a computer via a cable or communication network. As the storage device, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an integrated circuit storage device, or the like can be used as appropriate.

モデル学習装置60は、学習データ保管装置50に記憶された学習データに基づいて、モデル学習プログラムに従い機械学習モデルに機械学習を行わせることで、学習済みモデル121を生成する。本実施形態において、機械学習のアルゴリズムとして、判別分析、ロジスティック回帰、サポートベクターマシン、ニューラルネットワーク、Randomized Trees、又は部分空間法等が挙げられる。モデル学習装置60は、例えば、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のプロセッサを有するワークステーション等のコンピュータである。 The model learning device 60 generates a trained model 121 by causing the machine learning model to perform machine learning according to the model learning program based on the learning data stored in the learning data storage device 50 . In this embodiment, machine learning algorithms include discriminant analysis, logistic regression, support vector machines, neural networks, randomized trees, subspace methods, and the like. The model learning device 60 is, for example, a computer such as a workstation having processors such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).

学習済みモデル121の画像解析装置10への供給は、画像解析装置10の製造以降の如何なる時点で行われてもよい。例えば、製造から医用施設等への据付の間の任意の時点でもよいし、メンテナンス時でもよい。供給された学習済みモデル121は、画像解析装置10のメモリ12に記憶される。 The trained model 121 may be supplied to the image analysis device 10 at any time after the image analysis device 10 is manufactured. For example, it may be at any point between manufacturing and installation in a medical facility or the like, or during maintenance. The supplied trained model 121 is stored in the memory 12 of the image analysis device 10 .

本実施形態に係る学習済みモデル121は、例えば、複数の臓器が表された領域を含む医用画像データを入力としてROIを設置する位置を出力する、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数及びパラメータの組合せにより定義される。本実施形態に係る学習済みモデル121は、上記の要請を満たす如何なるパラメータ付き合成関数であってもよい。 The trained model 121 according to the present embodiment is, for example, a parameterized synthesis function obtained by synthesizing a plurality of functions for inputting medical image data including a region representing a plurality of organs and outputting a position for setting an ROI. be. A parameterized composite function is defined by a combination of multiple adjustable functions and parameters. The trained model 121 according to this embodiment may be any parameterized composite function that satisfies the above requirements.

パラメータ付き合成関数は、パラメータをどのように選ぶかで、関数としての形を変える。例えば、学習済みモデル121が、層状に並べた隣接層間のみ結合した構造を持ち、情報が入力層側から出力層側に一方向に伝播するネットワーク、すなわち、順伝播型の多層化ネットワークである場合、構成するパラメータを適切に設定することで、出力層から好ましい結果を出力することが可能な関数を定義することができる。 A parameterized composite function changes its form as a function depending on how the parameters are chosen. For example, if the trained model 121 is a network that has a structure in which only adjacent layers arranged in layers are connected and information propagates in one direction from the input layer side to the output layer side, that is, a forward propagation type multi-layered network. , by appropriately setting the constituent parameters, it is possible to define a function capable of outputting favorable results from the output layer.

パラメータは、学習データと誤差関数とを用いた学習を実行することで設定される。学習データは、例えば、所定の入力x、この入力に対する望ましい結果(正解出力)dを出力とした学習サンプル(x,d)の集合D(n=1,・・・,S)である。誤差関数は、xを入力した多層化ネットワークからの出力と正解出力dとの近さを表す関数である。パラメータは、学習サンプル毎に、例えば、誤差関数を極小にする値が決定される。なお、パラメータを決定する際の計算量を抑制するため、誤差逆伝播法が用いられてもよい。 The parameters are set by performing learning using learning data and an error function. The learning data is, for example , a set D (n = 1 , . is. The error function is a function that expresses the closeness between the output from the multi-layered network to which xn is input and the correct output dn . For the parameter, a value that minimizes the error function, for example, is determined for each learning sample. In addition, error backpropagation may be used in order to reduce the amount of calculation when determining the parameters.

より具体的には、本実施形態に係るモデル学習装置60は、例えば、予め設定された領域に所定の臓器を含む医用画像データを入力、この医用画像データに含まれる臓器に対して設定されるROIの位置情報を正解出力とした学習データに基づいて機械学習を実施する。 More specifically, the model learning device 60 according to the present embodiment receives, for example, medical image data including a predetermined organ in a preset region, and sets for the organ included in the medical image data. Machine learning is performed based on the learning data in which the positional information of the ROI is output as the correct answer.

図4は、図3で示されるモデル学習装置60で入力として扱われる医用画像データに基づく医用画像の例を表す図である。図4に示される医用画像では、画面の左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれている。なお、医用画像に含まれる臓器の種類、及び配置は、学習データの入力で共通していれば、図4で記載されるものに限定されない。例えば、肝臓と脾臓とでもよく、また、肝臓、腎臓、及び脾臓であってもよい。 FIG. 4 is a diagram showing an example of a medical image based on medical image data handled as input by the model learning device 60 shown in FIG. In the medical image shown in FIG. 4, the upper left area of the screen contains the liver, and the lower right area contains the kidneys. Note that the types and arrangement of organs included in the medical image are not limited to those described in FIG. 4 as long as they are common in the input of learning data. For example, liver and spleen, or liver, kidney, and spleen.

図5は、図3で示されるモデル学習装置60で正解出力として扱われるROIの位置情報の例を表す図である。図5では、図4に示される画像に対し、8個の点の座標がROIの位置情報として設定される。図5において、点P1~P4は、肝臓内の領域の適当な位置に置かれた円形ROIが内接する正方形の各頂点である。また、点P5~P8は、腎臓内の領域の適当な位置に置かれた円形ROIが内接する正方形の各頂点である。なお、ROIの位置情報は、ROIの位置が特定でき、学習データの正解出力で共通していれば、円形ROIが内接する正方形の各頂点の座標に限定されない。例えば、円形ROIの中心座標、及び半径であっても構わない。また、円形ROIが外接する正方形の各頂点の座標であっても構わない。 FIG. 5 is a diagram showing an example of ROI position information treated as correct output by the model learning device 60 shown in FIG. In FIG. 5, coordinates of eight points are set as ROI position information for the image shown in FIG. In FIG. 5, points P1-P4 are the vertices of a square inscribed by a circular ROI placed at appropriate positions in the intrahepatic region. Also, points P5 to P8 are vertices of a square inscribed by a circular ROI placed at an appropriate position in the intrarenal region. Note that the ROI position information is not limited to the coordinates of the vertices of the square inscribed by the circular ROI as long as the ROI position can be specified and the correct output of the learning data is common. For example, it may be the center coordinates and the radius of a circular ROI. Alternatively, the coordinates of each vertex of a square circumscribing the circular ROI may be used.

モデル学習装置60は、学習データに基づき、例えば、入力された医用画像データに基づいてROIの位置を決定する学習済みモデル121を生成する。 The model learning device 60 generates a trained model 121 that determines the position of the ROI based on the training data, for example, based on the input medical image data.

図2に示される通信インタフェース13は、病院内ネットワークを介して接続された医用画像診断装置20、及び医用画像管理システム30との間でデータ通信を行う。通信インタフェース13は、例えば、予め設定されている既知の規格、例えば、DICOMに準拠してデータ通信を行う。 The communication interface 13 shown in FIG. 2 performs data communication with the medical image diagnostic apparatus 20 and the medical image management system 30 connected via the hospital network. The communication interface 13 performs data communication in accordance with, for example, a preset known standard such as DICOM.

なお、画像解析装置10は、入力インタフェースを有していてもよい。入力インタフェースは、ユーザから各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路11へ出力する。入力インタフェースは、例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド、及び操作面へ触れることで指示が入力されるタッチパネル等の入力機器に接続されている。また、入力インタフェースに接続される入力機器は、ネットワーク等を介して接続された他のコンピュータに設けられた入力機器でもよい。 Note that the image analysis apparatus 10 may have an input interface. The input interface receives various input operations from the user, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 11 . The input interface is connected to input devices such as a mouse, keyboard, trackball, switch, button, joystick, touch pad, and touch panel for inputting instructions by touching the operation surface. Also, the input device connected to the input interface may be an input device provided in another computer connected via a network or the like.

また、画像解析装置10は、ディスプレイを有していてもよい。ディスプレイは、処理回路11からの指示に従って種々の情報を表示する。また、ディスプレイは、ユーザからの各種操作を受け付けるためのGUI(Graphical User Interface)等を表示してもよい。ディスプレイは、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機ELディスプレイ、LEDディスプレイ、及びプラズマディスプレイ等、任意のディスプレイが適宜利用可能である。 Further, the image analysis device 10 may have a display. The display displays various information according to instructions from the processing circuit 11 . Also, the display may display a GUI (Graphical User Interface) or the like for receiving various operations from the user. Any display such as a CRT (Cathode Ray Tube) display, a liquid crystal display, an organic EL display, an LED display, a plasma display, or the like can be appropriately used as the display.

図2に示される処理回路11は、メモリ12に記憶されているROI設定プログラム、及び状態評価プログラム等を実行することで、当該プログラムに対応する機能を実現する。例えば、処理回路11は、ROI設定プログラムを実行することで、ROI設定機能111を有する。また、処理回路11は、状態評価プログラムを実行することで、解析機能112、及び表示制御機能113を有する。なお、本実施形態では、単一のプロセッサによってROI設定機能111、解析機能112、及び表示制御機能113が実現される場合を説明するが、これに限定されない。例えば、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することによりROI設定機能111、解析機能112、及び表示制御機能113を実現しても構わない。 The processing circuit 11 shown in FIG. 2 executes a ROI setting program, a state evaluation program, and the like stored in the memory 12, thereby realizing functions corresponding to the programs. For example, the processing circuitry 11 has an ROI setting function 111 by executing an ROI setting program. The processing circuit 11 also has an analysis function 112 and a display control function 113 by executing a state evaluation program. In this embodiment, a case where the ROI setting function 111, the analysis function 112, and the display control function 113 are realized by a single processor will be described, but the present invention is not limited to this. For example, the ROI setting function 111, the analysis function 112, and the display control function 113 may be realized by configuring a processing circuit by combining a plurality of independent processors and executing programs by each processor.

ROI設定機能111は、医用画像データを入力として学習済みモデル121を用い、医用画像データに対するROIを設定する機能であり、設定部の一例である。具体的には、例えば、ROI設定機能111において処理回路11は、操作者により指定された医用画像データを、メモリ12に記憶されている学習済みモデル121に入力する。医用画像データには、例えば、超音波画像データ、CT(Computed Tomography)画像データ、X線画像データ、MRI(Magnetic Resonance Imaging)画像データ、及びPET(Positron Emission computed Tomography)画像データ等が含まれる。処理回路11は、学習済みモデル121から出力される、医用画像データについてのROIの位置情報に基づき、医用画像データについてのROIを設定する。 The ROI setting function 111 is a function of setting an ROI for medical image data using the learned model 121 with medical image data as an input, and is an example of a setting unit. Specifically, for example, in the ROI setting function 111 , the processing circuit 11 inputs medical image data specified by the operator to the learned model 121 stored in the memory 12 . Medical image data includes, for example, ultrasound image data, CT (Computed Tomography) image data, X-ray image data, MRI (Magnetic Resonance Imaging) image data, and PET (Positron Emission computed Tomography) image data. The processing circuit 11 sets the ROI for the medical image data based on the ROI position information for the medical image data output from the trained model 121 .

解析機能112は、ROI内の特徴量の関係から、医用画像データに含まれる少なくともいずれかの臓器の状態を評価する機能である。 The analysis function 112 is a function for evaluating the state of at least one organ included in the medical image data from the relationship of feature amounts within the ROI.

表示制御機能113は、評価した臓器の状態に関する表示を制御する機能である。具体的には、例えば、表示制御機能113において処理回路11は、解析機能112により評価された臓器の状態を表示するための画像データを生成する。また、処理回路11は、識別理由の変更を指示するためのGUIを表示する。 The display control function 113 is a function for controlling the display of the evaluated organ states. Specifically, for example, the processing circuit 11 in the display control function 113 generates image data for displaying the state of the organ evaluated by the analysis function 112 . The processing circuit 11 also displays a GUI for instructing change of the reason for identification.

次に、以上のように構成された画像解析装置10によるROI設定動作を、処理回路11の処理手順に従って説明する。
図6は、図2で示される処理回路11が学習済みモデル121を利用したROI設定処理を実行する際の動作の例を表すフローチャートである。なお、図6の説明では、医用画像データが超音波診断装置により生成されるBモード画像データである場合を例に説明する。このとき、学習済みモデル121は、Bモード画像データを入力とし、このBモード画像データに基づくBモード画像上でROIを規定する位置情報を正解出力とする学習データに基づいて生成されたものとする。入力として利用されるBモード画像では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる。また、Bモード画像上でROIを規定する位置情報は、肝臓及び腎臓内の領域の適当な位置に置かれた円形ROIが内接する正方形の各頂点の座標として表される。
Next, the ROI setting operation by the image analysis apparatus 10 configured as described above will be described according to the processing procedure of the processing circuit 11. FIG.
FIG. 6 is a flow chart showing an example of the operation when the processing circuit 11 shown in FIG. 2 executes the ROI setting process using the trained model 121. FIG. Note that in the description of FIG. 6, a case where medical image data is B-mode image data generated by an ultrasonic diagnostic apparatus will be described as an example. At this time, the trained model 121 is assumed to be generated based on learning data that receives B-mode image data as input and correct output is position information that defines an ROI on a B-mode image based on this B-mode image data. do. The B-mode image used as input contains the liver in the upper left region and the kidney in the lower right region. Also, the positional information defining the ROI on the B-mode image is expressed as the coordinates of the vertices of the squares inscribed by the circular ROI placed at appropriate positions in the liver and kidney regions.

まず、通信端末40を操作する操作者から、Bモード画像データが指定され、指定されたBモード画像データについて、例えば、肝臓の状態を評価するアプリケーションの起動指示が入力される。起動指示が入力されると、画像解析装置10の処理回路11は、ROI設定プログラムをメモリ12から読み出し、読み出したROI設定プログラムを実行する。処理回路11がROI設定プログラムを実行すると、図6に示される処理が開始される。 First, an operator who operates the communication terminal 40 designates B-mode image data, and inputs an instruction to activate an application for evaluating the state of the liver, for example, with respect to the designated B-mode image data. When the activation instruction is input, the processing circuit 11 of the image analysis apparatus 10 reads the ROI setting program from the memory 12 and executes the read ROI setting program. When the processing circuit 11 executes the ROI setting program, the processing shown in FIG. 6 is started.

図6において、処理回路11は、ROI設定機能111を実行する。ROI設定機能111を実行すると処理回路11は、操作者により指定されたBモード画像データを、医用画像診断装置20、又は医用画像管理システム30から読み出し、読み出した学習済みモデル121に入力する(ステップS61)。学習済みモデル121からは、入力されたBモード画像データに基づく8点の座標がROIの位置情報として出力される(ステップS62)。 In FIG. 6, processing circuitry 11 performs a ROI setting function 111 . When the ROI setting function 111 is executed, the processing circuit 11 reads the B-mode image data specified by the operator from the medical image diagnostic apparatus 20 or the medical image management system 30, and inputs it to the read-out learned model 121 (step S61). From the learned model 121, the coordinates of eight points based on the input B-mode image data are output as ROI position information (step S62).

図7は、学習済みモデル121に入力されるBモード画像データに基づくBモード画像の例、及び学習済みモデル121から出力される座標情報に基づく点の例を表す図である。図7の左図は、例えば、コンベックスプローブを使用して取得され、学習済みモデル121に入力されるBモード画像を表す。図7に示されるBモード画像では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる。図7の右図は、学習済みモデル121から出力される座標情報に基づく点P9~P16を表す。 FIG. 7 is a diagram showing an example of a B-mode image based on B-mode image data input to the trained model 121 and an example of points based on coordinate information output from the trained model 121. FIG. The left diagram of FIG. 7 represents a B-mode image acquired using, for example, a convex probe and input to the trained model 121 . In the B-mode image shown in FIG. 7, the upper left region contains the liver and the lower right region contains the kidney. The right diagram of FIG. 7 represents points P9 to P16 based on the coordinate information output from the trained model 121. FIG.

学習済みモデル121から点P9~P16についての座標情報が出力されると、処理回路11は、これらの座標情報に基づき円形ROIを生成し、生成した円形ROIを、Bモード画像上に設置する(ステップS63)。具体的には、例えば、処理回路11は、点P9~点P12を一つの群と見なし、点P9~点P12の座標情報に基づき、点P9~点P12を頂点とする正方形を生成する。処理回路11は、生成した正方形に内接する円を生成し、この円を肝臓についての円形ROIC1とする。処理回路11は、生成した円形ROIC1を、Bモード画像上の対応する位置に設置する。 When coordinate information about points P9 to P16 is output from trained model 121, processing circuit 11 generates a circular ROI based on this coordinate information, and places the generated circular ROI on the B-mode image ( step S63). Specifically, for example, the processing circuit 11 regards the points P9 to P12 as one group, and generates a square having the points P9 to P12 as vertices based on the coordinate information of the points P9 to P12. The processing circuit 11 generates a circle inscribed in the generated square, and sets this circle as a circular ROIC1 for the liver. The processing circuit 11 places the generated circular ROIC1 at the corresponding position on the B-mode image.

また、処理回路11は、点P13~点P16を一つの群と見なし、点P13~点P16の座標情報に基づき、点P13~点P16を頂点とする正方形を生成する。処理回路11は、生成した正方形に内接する円を生成し、この円を腎臓についての円形ROIC2とする。処理回路11は、生成した円形ROIC2を、Bモード画像上の対応する位置に設置する。 The processing circuit 11 regards the points P13 to P16 as one group, and generates a square having the points P13 to P16 as vertices based on the coordinate information of the points P13 to P16. The processing circuit 11 generates a circle inscribed in the generated square, and defines this circle as the circular ROIC2 for the kidney. The processing circuit 11 places the generated circular ROIC2 at the corresponding position on the B-mode image.

図8は、円形ROIC1,C2が設置されたBモード画像の例を表す図である。図8によれば、点P9~P12から生成された円形ROIC1が肝臓に設置され、点P13~P16から生成された円形ROIC2が腎臓に設置されている。円形ROIC1を肝臓に設置し、円形ROIC2を腎臓に設置すると、処理回路11は、図6に示される処理を終了させる。 FIG. 8 is a diagram showing an example of a B-mode image in which circular ROIC1 and C2 are placed. According to FIG. 8, a circular ROIC1 generated from points P9-P12 is placed on the liver, and a circular ROIC2 generated from points P13-P16 is placed on the kidney. Once circular ROIC1 has been placed in the liver and circular ROIC2 has been placed in the kidney, processing circuitry 11 terminates the process shown in FIG.

処理回路11は、例えば、図6に示されるROI設定処理が終了すると、解析機能112を実行する。解析機能112を実行すると処理回路11は、円形ROIC1,C2内の各画素の輝度値を取得する。処理回路11は、円形ROIC1内の輝度値と、円形ROIC2内の輝度値との関係から、Bモード画像に含まれる肝臓の状態、例えば、肝炎及び脂肪肝等の度合いを評価する。例えば、処理回路11は、円形ROIC1内の各画素の輝度値の合計値と、円形ROIC2内の各画素の輝度値の合計値とを比較することで、肝炎及び脂肪肝等の度合いを評価する。 The processing circuit 11 executes the analysis function 112, for example, when the ROI setting process shown in FIG. 6 is finished. When executing the analysis function 112, the processing circuit 11 acquires the luminance value of each pixel within the circular ROIC1, C2. The processing circuit 11 evaluates the state of the liver included in the B-mode image, such as the degree of hepatitis and fatty liver, from the relationship between the luminance values within the circular ROIC1 and the luminance values within the circular ROIC2. For example, the processing circuit 11 evaluates the degree of hepatitis, fatty liver, etc. by comparing the sum of the luminance values of the pixels within the circular ROIC1 and the sum of the luminance values of the pixels within the circular ROIC2. .

処理回路11は、Bモード画像に含まれる肝臓の状態を評価すると、表示制御機能113を実行する。表示制御機能113を実行すると処理回路11は、評価結果を表示するための画像データを生成する。処理回路11は、生成した画像データを通信端末40へ出力する。 Processing circuitry 11 executes display control function 113 upon assessing the state of the liver contained in the B-mode image. When executing the display control function 113, the processing circuit 11 generates image data for displaying the evaluation result. The processing circuit 11 outputs the generated image data to the communication terminal 40 .

以上のように、本実施形態では、処理回路11は、ROI設定機能111において、医用画像データを学習済みモデル121へ入力することで、医用画像データに含まれる臓器にROIを設置するようにしている。これにより、実際の検査において、臓器の状態を評価するアプリケーションを起動すると、臓器内の適切な位置に、適切な大きさのROIが設置された状態で医用画像が表示されるようになる。 As described above, in the present embodiment, the processing circuit 11 inputs the medical image data to the learned model 121 in the ROI setting function 111 so as to set the ROI on the organ included in the medical image data. there is As a result, in an actual examination, when an application for evaluating the state of an organ is started, a medical image is displayed with an ROI of an appropriate size placed at an appropriate position within the organ.

(変形例1)
臓器内に設置したROIに血管等の構造物が含まれていると、解析機能112による臓器の評価が正しくなされない場合がある。臓器内に設置したROIから正確な特徴量が取得できないからである。そこで、変形例1では、ROI設定処理において、臓器内の構造物も考慮してROIを設置する場合を説明する。
(Modification 1)
If the ROI placed inside the organ includes a structure such as a blood vessel, the organ may not be correctly evaluated by the analysis function 112 . This is because an accurate feature amount cannot be obtained from the ROI placed inside the organ. Therefore, in Modified Example 1, a case will be described in which the ROI is set in consideration of the structures inside the organ in the ROI setting process.

図9は、図6で示されるフローチャートの変形例を表す。なお、図9の説明においても、図6の説明と同様に、医用画像データが超音波診断装置により生成されるBモード画像データである場合を例に説明する。 FIG. 9 represents a variation of the flow chart shown in FIG. In the description of FIG. 9, as in the description of FIG. 6, the case where medical image data is B-mode image data generated by an ultrasonic diagnostic apparatus will be described as an example.

図9において、処理回路11は、図6に示されるステップS61~S63と同様の処理を経て、Bモード画像上に円形ROIC1,C2を設置する。続いて、処理回路11は、円形ROIC1内の輝度値の分布と、円形ROIC2内の輝度値の分布とが一様であるか否かを判断する(ステップS91)。 In FIG. 9, the processing circuit 11 places circular ROIC1 and C2 on the B-mode image through the same processing as steps S61 to S63 shown in FIG. Subsequently, the processing circuit 11 determines whether or not the distribution of luminance values within the circular ROIC1 and the distribution of luminance values within the circular ROIC2 are uniform (step S91).

具体的には、例えば、処理回路11は、肝臓に設置された円形ROIC1内の各画素の輝度値を取得し、取得した各画素の輝度値に基づき、円形ROIC1内の輝度値の分布を表す指標値を算出する。処理回路11は、算出した指標値に基づき、円形ROIC1内で所定の輝度値が一様に分布しているか否かを判断する。 Specifically, for example, the processing circuit 11 acquires the brightness value of each pixel within the circular ROIC 1 placed on the liver, and based on the acquired brightness value of each pixel, represents the distribution of the brightness values within the circular ROIC 1. Calculate the index value. The processing circuit 11 determines whether predetermined luminance values are uniformly distributed within the circular ROIC1 based on the calculated index value.

また、例えば、処理回路11は、腎臓に設置された円形ROIC2内の各画素の輝度値を取得し、取得した各画素の輝度値に基づき、円形ROIC2内の輝度値の分布を表す指標値を算出する。処理回路11は、算出した指標値に基づき、円形ROIC2内で所定の輝度値が一様に分布しているか否かを判断する。円形ROIC1内と、円形ROIC2内との両方で、輝度値の分布が一様である場合(ステップS91のYes)、処理回路11は、処理を終了させる。 Further, for example, the processing circuit 11 acquires the brightness value of each pixel within the circular ROIC 2 placed on the kidney, and based on the acquired brightness value of each pixel, calculates an index value representing the distribution of the brightness values within the circular ROIC 2. calculate. The processing circuit 11 determines whether predetermined luminance values are uniformly distributed within the circular ROIC2 based on the calculated index value. If the luminance value distribution is uniform both in the circular ROIC1 and in the circular ROIC2 (Yes in step S91), the processing circuit 11 terminates the process.

円形ROIC1内と、円形ROIC2内とのうち、少なくともいずれか一方で輝度値の分布が一様でない場合(ステップS91のNo)、処理回路11は、輝度値の分布が一様でない判断した少なくとも一方の円形ROIを予め設定した量だけ移動させる(ステップS92)。このとき、処理回路11は、体表からの深さが維持されるように円形ROIを移動させる。Bモード画像において、体表からの深さに応じて反射波の減衰が変化するからである。 If the luminance value distribution is not uniform in at least one of the circular ROIC1 and the circular ROIC2 (No in step S91), the processing circuit 11 determines that the luminance value distribution is not uniform. is moved by a preset amount (step S92). At this time, the processing circuit 11 moves the circular ROI so that the depth from the body surface is maintained. This is because the attenuation of the reflected wave changes according to the depth from the body surface in the B-mode image.

図10は、処理回路11が円形ROIを移動させる例を表す概略図である。図10は、例えば、コンベックスプローブを使用して取得されるBモード画像上での円形ROIの移動を表している。図10において、円形ROIが移動する方向は、円弧状の平面波の波形に沿った方向となる。なお、Bモード画像が、例えば、リニアプローブを使用して取得される場合、円形ROIが移動する方向は、直線状の平面波の波形に沿った方向となる。すなわち、円形ROIが移動する方向は、水平方向となる。 FIG. 10 is a schematic diagram showing an example in which the processing circuitry 11 moves a circular ROI. FIG. 10, for example, represents movement of a circular ROI on a B-mode image acquired using a convex probe. In FIG. 10, the direction in which the circular ROI moves is the direction along the waveform of the arc-shaped plane wave. Note that when a B-mode image is acquired using, for example, a linear probe, the direction in which the circular ROI moves is along the waveform of the linear plane wave. That is, the direction in which the circular ROI moves is the horizontal direction.

なお、円形ROI内の輝度分布を一様とするための動作は、円形ROIの移動に限定されない。処理回路11は、円形ROIを小さくするようにしてもよい。 Note that the operation for making the brightness distribution in the circular ROI uniform is not limited to movement of the circular ROI. The processing circuit 11 may make the circular ROI smaller.

処理回路11は、ステップS91において、円形ROIC1内と、円形ROIC2内との両方で輝度値の分布が一様となるまでステップS91,S92を繰り返す。 In step S91, the processing circuit 11 repeats steps S91 and S92 until the luminance value distribution becomes uniform in both the circular ROIC1 and the circular ROIC2.

以上のように、変形例1では、処理回路11は、ROI設定機能111において、円形ROIC1,C2内の輝度分布が一様となるまで円形ROIC1,C2の位置を微調整するようにしている。これにより、設置される円形ROIC1,C2内には構造物が含まれなくなり、解析機能112による臓器の評価が正しくなされるようになる。 As described above, in Modification 1, the processing circuit 11 uses the ROI setting function 111 to finely adjust the positions of the circular ROIC1 and C2 until the brightness distribution in the circular ROIC1 and C2 becomes uniform. As a result, no structure is included in the circular ROIC1, C2 that is set, and the analysis function 112 can correctly evaluate the organ.

(第2の実施形態)
第1の実施形態では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる医用画像を入力とし、8点の座標情報を正解出力とした学習データに基づいて生成された学習済みモデル121を使用する場合を例に説明した。第2の実施形態では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる医用画像を入力とし、4点の座標情報を正解出力とした学習データに基づいて生成された学習済みモデル121を使用する。
(Second embodiment)
In the first embodiment, a medical image in which the upper left region includes the liver and the lower right region includes the kidney is input, and the learning is generated based on the learning data in which the coordinate information of eight points is the correct output. The case of using the finished model 121 has been described as an example. In the second embodiment, a medical image in which the upper left region includes the liver and the lower right region includes the kidney is input, and the learning data generated based on the learning data in which the coordinate information of the four points is the correct output. Use the finished model 121.

図11は、第2の実施形態においてモデル学習装置60で正解出力として扱われるROIの位置情報の例を表す図である。図11では、図4に示される、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる医用画像に対し、4点の座標がROIの位置情報として設定される。図11において、点P17~P20は、2つの臓器、すなわち、肝臓及び腎臓をまたがるように置かれた第1円形ROIが内接する正方形の各頂点である。なお、ROIの位置情報は、学習データの正解出力で共通していれば、第1円形ROIが内接する正方形の各頂点の座標に限定されない。例えば、第1円形ROIの中心座標、及び半径であっても構わない。 FIG. 11 is a diagram showing an example of ROI position information treated as correct output by the model learning device 60 in the second embodiment. In FIG. 11, coordinates of four points are set as ROI position information for the medical image shown in FIG. 4 in which the liver is included in the upper left region and the kidney is included in the lower right region. In FIG. 11, points P17-P20 are the vertices of a square inscribed by a first circular ROI placed across two organs, namely liver and kidney. Note that the ROI position information is not limited to the coordinates of the vertices of the square inscribed in the first circular ROI as long as the correct output of the learning data is common. For example, it may be the center coordinates and the radius of the first circular ROI.

モデル学習装置60は、学習データに基づき、例えば、入力された医用画像データに基づいて第1円形ROIの位置を決定する学習済みモデル121を生成する。 Based on the learning data, the model learning device 60 generates a trained model 121 that determines the position of the first circular ROI based on the input medical image data, for example.

第2の実施形態に係る処理回路11は、メモリ12に記憶されているROI設定プログラム、及び状態評価プログラム等を実行することで、当該プログラムに対応する機能を実現する。例えば、処理回路11は、ROI設定プログラム、及び状態評価プログラム等を実行することで、ROI設定機能111、解析機能112、及び表示制御機能113を有する。 The processing circuit 11 according to the second embodiment executes a ROI setting program, a state evaluation program, and the like stored in the memory 12, thereby realizing functions corresponding to the programs. For example, the processing circuit 11 has an ROI setting function 111, an analysis function 112, and a display control function 113 by executing a ROI setting program, a state evaluation program, and the like.

ROI設定機能111は、医用画像データを入力として学習済みモデル121を用い、医用画像データに対するROIを設定する機能であり、設定部の一例である。具体的には、例えば、ROI設定機能111において処理回路11は、操作者により指定された医用画像データを、メモリ12に記憶されている学習済みモデル121に入力する。処理回路11は、学習済みモデル121から出力される、医用画像データについての第1円形ROIの位置情報に基づき、医用画像データに含まれる複数の臓器についてのROIを設定する。 The ROI setting function 111 is a function of setting an ROI for medical image data using the learned model 121 with medical image data as an input, and is an example of a setting unit. Specifically, for example, in the ROI setting function 111 , the processing circuit 11 inputs medical image data specified by the operator to the learned model 121 stored in the memory 12 . The processing circuit 11 sets ROIs for a plurality of organs included in the medical image data based on the positional information of the first circular ROI for the medical image data output from the learned model 121 .

次に、第2の実施形態における画像解析装置10によるROI設定動作を、処理回路11の処理手順に従って説明する。
図12は、第2の実施形態に係る処理回路11が学習済みモデル121を利用したROI設定処理を実行する際の動作の例を表すフローチャートである。なお、図12の説明では、医用画像データが超音波診断装置により生成されるBモード画像データである場合を例に説明する。このとき、学習済みモデル121は、Bモード画像データを入力とし、このBモード画像データに基づくBモード画像上で第1円形ROIを規定する位置情報を正解出力とする学習データに基づいて生成されたものとする。入力として利用されるBモード画像では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる。
Next, the ROI setting operation by the image analysis apparatus 10 according to the second embodiment will be described according to the processing procedure of the processing circuit 11. FIG.
FIG. 12 is a flow chart showing an example of the operation when the processing circuit 11 according to the second embodiment executes the ROI setting process using the trained model 121. As shown in FIG. Note that in the description of FIG. 12, an example in which medical image data is B-mode image data generated by an ultrasonic diagnostic apparatus will be described. At this time, the trained model 121 is generated based on learning data that receives B-mode image data as an input and outputs position information that defines the first circular ROI on a B-mode image based on this B-mode image data as a correct answer. shall be assumed. The B-mode image used as input contains the liver in the upper left region and the kidney in the lower right region.

図12において、図6に示されるステップS61と同様の手順でBモード画像データを学習済みモデル121に入力すると、学習済みモデル121から、入力されたBモード画像データに基づく4点の座標が第1円形ROIの位置情報として出力される(ステップS121)。 In FIG. 12, when the B-mode image data is input to the trained model 121 in the same procedure as step S61 shown in FIG. It is output as position information of one circular ROI (step S121).

図13は、学習済みモデル121に入力されるBモード画像データに基づくBモード画像の例、及び学習済みモデル121から出力される座標情報に基づく点の例を表す図である。図13の左図は、例えば、コンベックスプローブを使用して取得され、学習済みモデル121に入力されるBモード画像を表す。図13に示されるBモード画像では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる。図13の右図は、学習済みモデル121から出力される座標情報に基づく点P21~P24を表す。 FIG. 13 is a diagram showing an example of a B-mode image based on B-mode image data input to the trained model 121 and an example of points based on coordinate information output from the trained model 121. FIG. The left diagram of FIG. 13 represents a B-mode image acquired using, for example, a convex probe and input to the trained model 121 . In the B-mode image shown in FIG. 13, the upper left region contains the liver and the lower right region contains the kidney. The right diagram of FIG. 13 represents points P21 to P24 based on the coordinate information output from the trained model 121. FIG.

学習済みモデル121から点P21~P24についての座標情報が出力されると、処理回路11は、これらの座標情報に基づき第1円形ROIを生成し、生成した第1円形ROIを、Bモード画像上に設置する(ステップS122)。具体的には、例えば、処理回路11は、点P21~点P24の座標情報に基づき、点P21~点P24を頂点とする正方形を生成する。処理回路11は、生成した正方形に内接する円を生成し、この円を肝臓及び腎臓をまたがる第1円形ROIC3とする。処理回路11は、生成した第1円形ROIC3を、Bモード画像上の対応する位置に設置する。 When coordinate information about points P21 to P24 is output from trained model 121, processing circuit 11 generates a first circular ROI based on this coordinate information, and displays the generated first circular ROI on the B-mode image. (step S122). Specifically, for example, the processing circuit 11 generates a square having the points P21 to P24 as vertices based on the coordinate information of the points P21 to P24. The processing circuit 11 generates a circle inscribed in the generated square, and defines this circle as the first circular ROIC3 spanning the liver and kidney. The processing circuit 11 places the generated first circular ROIC3 at the corresponding position on the B-mode image.

図14は、第1円形ROIC3が設置されたBモード画像の例を表す図である。図14によれば、点P21~P24から生成された第1円形ROIC3が肝臓及び腎臓にまたがって設置されている。 FIG. 14 is a diagram showing an example of a B-mode image in which the first circular ROIC3 is set. According to FIG. 14, a first circular ROIC3 generated from points P21 to P24 is placed across the liver and kidney.

第1円形ROIC3を肝臓及び腎臓にまたがって設置すると、処理回路11は、第1円形ROIC3に基づいて第2円形ROIを生成し、生成した第2円形ROIを、画像上に設置する(ステップS123)。具体的には、例えば、処理回路11は、第1円形ROIC3に内接し、かつ、以下の条件を満たすように、第2円形ROIC4,C5を生成する。条件とは、例えば、肝臓と腎臓との境界領域近傍に設けられること、大きさが等しいこと、設置される深さが等しいことである。処理回路11は、生成した第2円形ROIC4,C5を、Bモード画像上の対応する位置に設置する。 When the first circular ROI3 is placed across the liver and kidney, the processing circuit 11 generates a second circular ROI based on the first circular ROI3 and places the generated second circular ROI on the image (step S123 ). Specifically, for example, the processing circuit 11 generates the second circular ROIC4, C5 so as to be inscribed in the first circular ROIC3 and satisfy the following conditions. The conditions are, for example, to be provided in the vicinity of the boundary region between the liver and kidney, to be equal in size, and to be provided at the same depth. The processing circuit 11 places the generated second circular ROIC4, C5 at corresponding positions on the B-mode image.

図15は、第2円形ROIC4,C5が設置されたBモード画像の例を表す図である。図15によれば、第2円形ROIC4は、第1円形ROIC3に内接し、肝臓内の肝臓と腎臓との境界領域近傍に設けられている。また、第2円形ROIC5は、第1円形ROIC3に内接し、腎臓内の肝臓と腎臓との境界領域近傍に設けられている。また、第2円形ROIC4,C5は、大きさが等しく、同一の深さの領域に設置されている。 FIG. 15 is a diagram showing an example of a B-mode image in which the second circular ROIC4 and C5 are installed. According to FIG. 15, the second circular ROIC4 is inscribed in the first circular ROIC3 and is provided near the border region between the liver and the kidney in the liver. Also, the second circular ROIC5 is inscribed in the first circular ROIC3 and provided near the boundary region between the liver and the kidney in the kidney. Also, the second circular ROICs 4 and C5 are equal in size and placed in the same depth region.

なお、Bモード画像が、例えば、リニアプローブを使用して取得される場合、平面波は円弧状ではなく、直線状となる。この場合、第2円形ROIC4,C5は、この直線状の平面波を考慮した同一の深さで設けられることになる。 It should be noted that if the B-mode image is acquired using, for example, a linear probe, the plane wave will be linear rather than arc-shaped. In this case, the second circular ROICs 4 and C5 are provided at the same depth considering this linear plane wave.

以上のように、第2の実施形態では、処理回路11は、ROI設定機能111において、医用画像データを学習済みモデル121へ入力することで、医用画像データに含まれる臓器をまたぐ第1円形ROIC3を設置する。そして、処理回路11は、第1円形ROIC3に基づき、第2円形ROIC4,C5を臓器毎に設置するようにしている。これにより、肝臓内に設置するROIを機械学習で推定することが困難である場合であっても、臓器内の適切な位置に、適切な大きさのROIを設置することが可能となる。 As described above, in the second embodiment, the processing circuit 11 inputs the medical image data to the learned model 121 in the ROI setting function 111, thereby obtaining the first circular ROI 3 that straddles organs included in the medical image data. to be installed. Then, the processing circuit 11 sets the second circular ROIC4, C5 for each organ based on the first circular ROIC3. As a result, even if it is difficult to estimate the ROI to be placed in the liver by machine learning, it is possible to place an ROI of an appropriate size at an appropriate position in the organ.

なお、処理回路11は、ステップS123で設定された第2円形ROIC4,C5の位置を、図9のステップS91,S92と同様に、第2円形ROIC4,C5内の特徴量が一様になるまで、同一深さを維持して微調整してもよい。 Note that the processing circuit 11 moves the positions of the second circular ROIC4 and C5 set in step S123 until the feature amounts in the second circular ROIC4 and C5 become uniform, as in steps S91 and S92 in FIG. , may be fine-tuned while maintaining the same depth.

(第3の実施形態)
第2の実施形態では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる医用画像を入力とし、肝臓及び腎臓にまたがる領域を規定する4点の座標情報を正解出力とした学習データに基づいて生成された学習済みモデル121を使用する場合を例に説明した。第3の実施形態では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる医用画像を入力とし、腎臓内の4点の座標情報を正解出力とした学習データに基づいて生成された学習済みモデル121を使用する。
(Third embodiment)
In the second embodiment, the input is a medical image in which the upper left region includes the liver and the lower right region includes the kidney, and the correct output is the coordinate information of four points that define the region spanning the liver and the kidney. The case of using the trained model 121 generated based on the learning data has been described as an example. In the third embodiment, a medical image in which the upper left region includes the liver and the lower right region includes the kidney is input, and the correct output is the coordinate information of four points in the kidney. The trained model 121 is used.

図16は、第3の実施形態においてモデル学習装置60で正解出力として扱われるROIの位置情報の例を表す図である。図16では、図4に示される、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる医用画像に対し、4点の座標が腎臓内のROIの位置情報として設定される。図16において、点P25~P28は、腎臓に置かれた円形ROIが内接する正方形の各頂点である。なお、ROIの位置情報は、学習データの正解出力で共通していれば、円形ROIが内接する正方形の各頂点の座標に限定されない。例えば、円形ROIの中心座標、及び半径であっても構わない。 FIG. 16 is a diagram showing an example of ROI position information handled as correct output by the model learning device 60 in the third embodiment. In FIG. 16, the coordinates of four points are set as the position information of the ROI in the kidney for the medical image shown in FIG. 4 in which the liver is included in the upper left region and the kidney is included in the lower right region. In FIG. 16, points P25-P28 are the vertices of a square inscribed by a circular ROI placed on the kidney. Note that the ROI position information is not limited to the coordinates of the vertices of the square inscribed by the circular ROI as long as the correct output of the learning data is common. For example, it may be the center coordinates and the radius of a circular ROI.

モデル学習装置60は、学習データに基づき、例えば、入力された医用画像データに基づいてROIの位置を決定する学習済みモデル121を生成する。 The model learning device 60 generates a trained model 121 that determines the position of the ROI based on the training data, for example, based on the input medical image data.

第3の実施形態に係る処理回路11は、メモリ12に記憶されているROI設定プログラム、及び状態評価プログラム等を実行することで、当該プログラムに対応する機能を実現する。例えば、処理回路11は、ROI設定プログラム、及び状態評価プログラム等を実行することで、ROI設定機能111、解析機能112、及び表示制御機能113を有する。 The processing circuit 11 according to the third embodiment executes a ROI setting program, a state evaluation program, and the like stored in the memory 12, thereby realizing functions corresponding to the programs. For example, the processing circuit 11 has an ROI setting function 111, an analysis function 112, and a display control function 113 by executing a ROI setting program, a state evaluation program, and the like.

ROI設定機能111は、医用画像データを入力として学習済みモデル121を用い、医用画像データに対するROIを設定する機能であり、設定部の一例である。具体的には、例えば、ROI設定機能111において処理回路11は、操作者により指定された医用画像データを、メモリ12に記憶されている学習済みモデル121に入力する。処理回路11は、学習済みモデル121から出力される腎臓内のROIの位置情報に基づき、医用画像データに含まれる複数の臓器についてのROIを設定する。 The ROI setting function 111 is a function of setting an ROI for medical image data using the learned model 121 with medical image data as an input, and is an example of a setting unit. Specifically, for example, in the ROI setting function 111 , the processing circuit 11 inputs medical image data specified by the operator to the learned model 121 stored in the memory 12 . The processing circuit 11 sets ROIs for multiple organs included in the medical image data based on the positional information of the ROIs in the kidney output from the trained model 121 .

次に、第3の実施形態における画像解析装置10によるROI設定動作を、処理回路11の処理手順に従って説明する。
図17は、第3の実施形態に係る処理回路11が学習済みモデル121を利用したROI設定処理を実行する際の動作の例を表すフローチャートである。なお、図17の説明では、医用画像データが超音波診断装置により生成されるBモード画像データである場合を例に説明する。このとき、学習済みモデル121は、Bモード画像データを入力とし、このBモード画像データに基づくBモード画像上で腎臓内のROIを規定する位置情報を正解出力とする学習データに基づいて生成されたものとする。入力として利用されるBモード画像では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる。
Next, the ROI setting operation by the image analysis apparatus 10 according to the third embodiment will be described according to the processing procedure of the processing circuit 11. FIG.
FIG. 17 is a flow chart showing an example of the operation when the processing circuit 11 according to the third embodiment executes the ROI setting process using the trained model 121. As shown in FIG. Note that in the description of FIG. 17, an example in which medical image data is B-mode image data generated by an ultrasonic diagnostic apparatus will be described. At this time, the trained model 121 is generated based on learning data that receives B-mode image data as an input and correct output is position information that defines an ROI within the kidney on a B-mode image based on this B-mode image data. shall be assumed. The B-mode image used as input contains the liver in the upper left region and the kidney in the lower right region.

図17において、図6に示されるステップS61と同様の手順でBモード画像データを学習済みモデル121に入力すると、学習済みモデル121から、入力されたBモード画像データに基づく4点の座標が腎臓内のROIの位置情報として出力される(ステップS171)。 In FIG. 17, when the B-mode image data is input to the trained model 121 in the same procedure as in step S61 shown in FIG. ROI position information is output (step S171).

図18は、学習済みモデル121に入力されるBモード画像データに基づくBモード画像の例、及び学習済みモデル121から出力される座標情報に基づく点の例を表す図である。図18の左図は、例えば、コンベックスプローブを使用して取得され、学習済みモデル121に入力されるBモード画像を表す。図18に示されるBモード画像では、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる。図18の右図は、学習済みモデル121から出力される座標情報に基づく点P29~P32を表す。 FIG. 18 is a diagram showing an example of a B-mode image based on B-mode image data input to the trained model 121 and an example of points based on coordinate information output from the trained model 121. FIG. The left diagram of FIG. 18 represents a B-mode image acquired using, for example, a convex probe and input to the trained model 121 . In the B-mode image shown in FIG. 18, the upper left region contains the liver and the lower right region contains the kidney. The right diagram of FIG. 18 represents points P29 to P32 based on the coordinate information output from the trained model 121. In FIG.

学習済みモデル121から点P29~P32についての座標情報が出力されると、処理回路11は、これらの座標情報に基づき円形ROIを生成し、生成した円形ROIを、Bモード画像上に設置する(ステップS172)。具体的には、例えば、処理回路11は、点P29~点P32の座標情報に基づき、点P29~点P32を頂点とする正方形を生成する。処理回路11は、生成した正方形に内接する円を生成し、この円を腎臓の円形ROIC6とする。処理回路11は、生成した円形ROIC6を、Bモード画像上の対応する位置に設置する。 When coordinate information about points P29 to P32 is output from trained model 121, processing circuit 11 generates a circular ROI based on this coordinate information, and places the generated circular ROI on the B-mode image ( step S172). Specifically, for example, the processing circuit 11 generates a square having the points P29 to P32 as vertices based on the coordinate information of the points P29 to P32. The processing circuit 11 generates a circle inscribed in the generated square, and defines this circle as the circular ROIC6 of the kidney. The processing circuit 11 places the generated circular ROIC 6 at the corresponding position on the B-mode image.

図19は、円形ROIC6が設置されたBモード画像の例を表す図である。図19によれば、点P29~P32から生成された円形ROIC6が腎臓内に設置されている。 FIG. 19 is a diagram showing an example of a B-mode image in which a circular ROIC 6 is installed. According to FIG. 19, a circular ROIC6 generated from points P29-P32 is placed in the kidney.

円形ROIC6を設置すると、処理回路11は、円形ROIC6と対応する円形ROIを生成し、生成した円形ROIを、Bモード画像上に設置する(ステップS173)。具体的には、例えば、処理回路11は、円形ROIC6と対応する円形ROIC7を、以下の条件を満たすように円形ROIC6を移動させることで生成する。条件とは、例えば、肝臓と腎臓との境界領域近傍に設けられること、大きさが等しいこと、設置される深さが等しいこと、円形ROI内の特徴量が一様であることである。処理回路11は、生成した円形ROIC7を、Bモード画像上の対応する位置に設置する。 After setting the circular ROI 6, the processing circuitry 11 generates a circular ROI corresponding to the circular ROI 6, and sets the generated circular ROI on the B-mode image (step S173). Specifically, for example, the processing circuit 11 generates the circular ROIC 6 and the corresponding circular ROIC 7 by moving the circular ROIC 6 so as to satisfy the following conditions. The conditions are, for example, to be provided in the vicinity of the boundary region between the liver and kidney, to be equal in size, to be equal in depth, and to have uniform feature amounts within the circular ROI. The processing circuit 11 places the generated circular ROIC 7 at the corresponding position on the B-mode image.

図20は、円形ROIC6,C7が設置されたBモード画像の例を表す図である。図20によれば、円形ROIC6は、腎臓内の肝臓と腎臓との境界領域近傍に設けられている。また、円形ROIC7は、肝臓内の肝臓と腎臓との境界領域近傍に設けられている。また、円形ROIC6,C7は、大きさが等しく、同一の深さの領域に設置されている。 FIG. 20 is a diagram showing an example of a B-mode image in which circular ROICs 6 and C7 are installed. According to FIG. 20, the circular ROIC 6 is provided near the boundary region between the liver and the kidney within the kidney. Moreover, circular ROIC7 is provided in the vicinity of the boundary region between the liver and the kidney in the liver. Also, the circular ROICs 6 and C7 are equal in size and placed in the same depth region.

なお、Bモード画像が、例えば、リニアプローブを使用して取得される場合、平面波は円弧状ではなく、直線状となる。この場合、円形ROIC7は、円形ROIC6に基づき、この直線状の平面波を考慮した同一の深さで設けられることになる。 It should be noted that if the B-mode image is acquired using, for example, a linear probe, the plane wave will be linear rather than arc-shaped. In this case, the circular ROIC 7 is provided at the same depth based on the circular ROIC 6 and considering this linear plane wave.

以上のように、第3の実施形態では、処理回路11は、ROI設定機能111において、医用画像データを学習済みモデル121へ入力することで、医用画像データに含まれる腎臓内の円形ROIC6を設置する。そして、処理回路11は、円形ROIC6に基づき、肝臓内に円形ROIC7を設置するようにしている。これにより、肝臓内に構造物が存在する場合であっても、肝臓内の構造物を避けて臓器内の適切な位置に、適切な大きさのROIを設置することが可能となる。 As described above, in the third embodiment, the processing circuit 11 inputs the medical image data to the learned model 121 in the ROI setting function 111, thereby setting the circular ROI 6 in the kidney included in the medical image data. do. Then, based on the circular ROIC 6, the processing circuit 11 sets the circular ROIC 7 in the liver. As a result, even if there is a structure in the liver, it is possible to place an ROI of an appropriate size at an appropriate position in the organ while avoiding the structure in the liver.

なお、上記実施形態では、医用画像データが超音波診断装置により生成されるBモード画像データである場合を例に説明したが、医用画像データは、超音波診断装置により生成されるカラードプラ画像データであってもよい。 In the above embodiment, the medical image data is B-mode image data generated by an ultrasonic diagnostic apparatus. may be

また、上記実施形態では、医用画像データが超音波診断装置により生成される2次元Bモード画像データである場合を例に説明したが、医用画像データは、超音波診断装置により生成される3次元Bモード画像データ、又は3次元カラードプラ画像データであってもよい。 Further, in the above embodiment, the medical image data is two-dimensional B-mode image data generated by an ultrasonic diagnostic apparatus. It may be B-mode image data or three-dimensional color Doppler image data.

また、上記実施形態では、医用画像データに含まれる臓器に対して設定されるROIの位置情報を正解出力とした学習データに基づいて機械学習を実施する場合を例に説明した。しかしながら、正解出力はこれに限定されない。適当なROIが設置された医用画像を正解出力としても構わない。 Further, in the above embodiment, the case where machine learning is performed based on learning data in which the correct output is the position information of the ROI set for the organ included in the medical image data has been described as an example. However, the correct answer output is not limited to this. A medical image in which an appropriate ROI is set may be used as a correct output.

また、上記実施形態では、予め設定された領域に所定の臓器を含む医用画像データを入力とする場合を例に説明した。しかしながら、これに限定されない。処理回路11が、例えば、複数の医用画像データから、予め設定された領域に所定の臓器を含む医用画像データを選択する前処理機能を有していても構わない。前処理機能は、例えば、メモリ12に記憶される、前処理用の学習済みモデルを利用することにより実現される。前処理用の学習済みモデルは、例えば、複数の医用画像データを入力とし、予め設定された領域に所定の臓器を含む医用画像データを正解出力とした学習データに基づいて生成される。 Further, in the above embodiment, the case of inputting medical image data including a predetermined organ in a preset region has been described as an example. However, it is not limited to this. For example, the processing circuit 11 may have a preprocessing function of selecting medical image data including a predetermined organ in a preset region from a plurality of pieces of medical image data. The preprocessing function is realized by using a trained model for preprocessing, which is stored in the memory 12, for example. A trained model for preprocessing is generated, for example, based on learning data in which a plurality of pieces of medical image data are input, and medical image data including a predetermined organ in a preset region is output as a correct answer.

処理回路11は、前処理機能を実行することで、複数の医用画像データを前処理用の学習済みモデルに入力し、当該学習済みモデルから出力される、予め設定された領域に所定の臓器を含む医用画像データを取得する。すなわち、例えば、処理回路11は、複数の医用画像データから、左上の領域に肝臓が含まれ、右下の領域に腎臓が含まれる医用画像データを抽出する。 By executing the preprocessing function, the processing circuit 11 inputs a plurality of pieces of medical image data to a trained model for preprocessing, and outputs a predetermined organ in a preset region output from the trained model. Acquire medical image data containing: That is, for example, the processing circuit 11 extracts medical image data including the liver in the upper left region and the kidney in the lower right region from a plurality of pieces of medical image data.

また、上記実施形態では、画像解析装置10が医用画像診断装置20と別々の装置として構成される場合を例に説明した。しかしながら、これに限定されない。画像解析装置10が有する処理回路11が実行するROI設定機能111、及び解析機能112は、医用画像診断装置で実行されても構わない。 Further, in the above embodiment, the case where the image analysis apparatus 10 is configured as a separate apparatus from the medical image diagnostic apparatus 20 has been described as an example. However, it is not limited to this. The ROI setting function 111 and the analysis function 112 executed by the processing circuit 11 of the image analysis apparatus 10 may be executed by a medical image diagnostic apparatus.

図21は、ROI設定機能111、及び解析機能112を含む、医用画像診断装置としての超音波診断装置20Aの機能構成の例を表すブロック図である。図21によれば、超音波診断装置20Aは、装置本体21、及び超音波プローブ22を有する。超音波プローブ22は、被検体Pに対して超音波を放射し、放射した超音波の反射波を受信する。 FIG. 21 is a block diagram showing an example of a functional configuration of an ultrasonic diagnostic apparatus 20A as a medical image diagnostic apparatus including an ROI setting function 111 and an analysis function 112. As shown in FIG. According to FIG. 21, the ultrasonic diagnostic apparatus 20A has an apparatus main body 21 and an ultrasonic probe 22. As shown in FIG. The ultrasonic probe 22 radiates ultrasonic waves to the subject P and receives reflected waves of the radiated ultrasonic waves.

装置本体21は、内部記憶回路211、及び処理回路212等を有する。内部記憶回路211は、種々の情報を記憶するROM、RAM、HDD、SSD、及び集積回路記憶装置等の記憶装置であり、例えば、所定のプログラム、及び機械学習により生成された識別器としての学習済みモデル121等を記憶している。 The device body 21 has an internal storage circuit 211, a processing circuit 212, and the like. The internal storage circuit 211 is a storage device such as ROM, RAM, HDD, SSD, and integrated circuit storage device that stores various information. The completed model 121 and the like are stored.

処理回路212は、例えば、超音波診断装置20Aの中枢として機能するプロセッサである。処理回路212は、内部記憶回路211に記憶されているプログラムを実行することで、超音波プローブ22で受信された反射波に基づく超音波画像データを生成する。また、処理回路212は、内部記憶回路211に記憶されているプログラムを実行することで、例えば、ROI設定機能111、及び解析機能112等の機能を実現する。 The processing circuit 212 is, for example, a processor that functions as the core of the ultrasonic diagnostic apparatus 20A. The processing circuit 212 generates ultrasonic image data based on reflected waves received by the ultrasonic probe 22 by executing a program stored in the internal storage circuit 211 . Also, the processing circuit 212 implements functions such as the ROI setting function 111 and the analysis function 112 by executing programs stored in the internal storage circuit 211 .

また、上記実施形態では、モデル学習装置60が、学習データに基づいて、モデル学習プログラムに従い機械学習モデルに機械学習を行わせることで、学習済みモデル121を生成する場合を例に説明した。しかしながら、これに限定されない。学習済みモデル121を生成するモデル生成機能は、画像解析装置10の処理回路11が有してもよいし、超音波診断装置20Aの処理回路212が有してもよい。 In the above embodiment, the model learning device 60 generates the trained model 121 by causing the machine learning model to perform machine learning according to the model learning program based on the learning data. However, it is not limited to this. The model generation function for generating the trained model 121 may be possessed by the processing circuit 11 of the image analysis apparatus 10 or may be possessed by the processing circuit 212 of the ultrasonic diagnostic apparatus 20A.

以上説明した少なくとも1つの実施形態によれば、ROIの位置決定の手間を短縮でき、操作性を向上させることができる。また、医者の経験に依らない診断が可能になる。 According to at least one embodiment described above, it is possible to reduce the time and effort required to determine the position of the ROI, and improve operability. In addition, it becomes possible to make a diagnosis that does not depend on the doctor's experience.

実施形態の説明において用いた「プロセッサ」という文言は、例えば、CPU(central processing unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、上記各実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、上記各実施形態における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The word "processor" used in the description of the embodiments is, for example, a CPU (central processing unit), a GPU (Graphics Processing Unit), or an application specific integrated circuit (ASIC)), a programmable logic device (eg, Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). The processor realizes its functions by reading and executing the programs stored in the memory circuit. It should be noted that instead of storing the program in the memory circuit, the program may be directly installed in the circuit of the processor. In this case, the processor realizes its function by reading and executing the program embedded in the circuit. Note that each processor in each of the above embodiments is not limited to being configured as a single circuit for each processor, but may be configured as a single processor by combining a plurality of independent circuits to realize its function. good too. Furthermore, a plurality of components in each of the above-described embodiments may be integrated into one processor to realize its functions.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

10…画像解析装置
11…処理回路
12…メモリ
13…通信インタフェース
20…医用画像診断装置
20A…超音波診断装置
21…装置本体
22…超音波プローブ
30…医用画像管理システム
40…通信端末
50…学習データ保管装置
60…モデル学習装置
111…ROI設定機能
112…解析機能
113…表示制御機能
121…学習済みモデル
211…内部記憶回路
212…処理回路
DESCRIPTION OF SYMBOLS 10... Image analysis apparatus 11... Processing circuit 12... Memory 13... Communication interface 20... Medical image diagnosis apparatus 20A... Ultrasound diagnosis apparatus 21... Apparatus body 22... Ultrasound probe 30... Medical image management system 40... Communication terminal 50... Learning Data storage device 60 Model learning device 111 ROI setting function 112 Analysis function 113 Display control function 121 Trained model 211 Internal storage circuit 212 Processing circuit

Claims (21)

第1臓器及び第2臓器を含む第1医用画像データを学習済みモデルに入力し、前記学習済みモデルから出力された、前記第1医用画像データにおける第1関心領域及び第2関心領域を規定する位置情報に基づき、前記第1医用画像データにおける前記第1臓器に前記第1関心領域を設定し、前記第2臓器に前記第2関心領域を設定する設定部、
を具備し、
前記設定部は、前記第1関心領域における輝度値の分布と、前記第2関心領域における輝度値の分布とが一様となるように、前記第1関心領域及び前記第2関心領域の少なくともいずれかの位置を調整する、
画像解析装置。
Input first medical image data including a first organ and a second organ to a trained model, and define a first region of interest and a second region of interest in the first medical image data output from the trained model. a setting unit that sets the first region of interest for the first organ in the first medical image data and sets the second region of interest for the second organ based on position information;
and
The setting unit sets at least one of the first region of interest and the second region of interest so that the distribution of luminance values in the first region of interest and the distribution of luminance values in the second region of interest are uniform. adjust the position of
Image analysis device.
前記学習済みモデルは、前記第1臓器及び前記第2臓器を含む第2医用画像データを入力とし、前記第2医用画像データにおける複数の関心領域を規定する位置情報を正解出力とする学習データに基づき生成される、
請求項1記載の画像解析装置。
The trained model receives as input second medical image data including the first organ and the second organ, and sets position information defining a plurality of regions of interest in the second medical image data as learning data as a correct output. generated based on
The image analysis apparatus according to claim 1.
前記設定部は、前記位置情報として前記学習済みモデルから出力された座標情報に基づき、前記第1関心領域及び前記第2関心領域を設定する、
請求項1記載の画像解析装置。
The setting unit sets the first region of interest and the second region of interest based on coordinate information output from the learned model as the position information.
The image analysis apparatus according to claim 1 .
前記設定部は、前記座標情報として前記学習済みモデルから出力された、前記第1関心領域を規定する第1座標情報と、前記第2関心領域を規定する第2座標情報とに基づき、前記第1関心領域及び前記第2関心領域を設定する、
請求項3記載の画像解析装置。
The setting unit, based on first coordinate information defining the first region of interest and second coordinate information defining the second region of interest, which are output from the learned model as the coordinate information, setting one region of interest and the second region of interest;
4. The image analysis apparatus according to claim 3.
前記設定部は、前記第1医用画像データにおける被検体の体表からの深さを維持する方向に前記位置を調整する、
請求項記載の画像解析装置。
The setting unit adjusts the position in a direction that maintains the depth from the body surface of the subject in the first medical image data.
The image analysis apparatus according to claim 1 .
第1臓器及び第2臓器を含む第1医用画像データを学習済みモデルに入力し、前記学習済みモデルから出力された、前記第1医用画像データにおける第1関心領域を規定する位置情報に基づき、前記第1医用画像データにおける前記第1臓器及び前記第2臓器をまたぐように前記第1関心領域を設定する設定部、
を具備し、
前記設定部は、前記第1医用画像データにおける被検体の体表からの深さが等しくなるように、前記第1関心領域の内部において、前記第1臓器及び前記第2臓器のそれぞれに第2関心領域を設定する、
画像解析装置。
Input first medical image data including a first organ and a second organ into a trained model, and output from the trained model, based on position information defining a first region of interest in the first medical image data, a setting unit that sets the first region of interest so as to straddle the first organ and the second organ in the first medical image data;
and
The setting unit is configured to apply a second organ to each of the first organ and the second organ within the first region of interest so that the depths from the body surface of the subject in the first medical image data are equal. setting the region of interest,
Image analysis device.
前記学習済みモデルは、前記第1臓器及び前記第2臓器を含む第2医用画像データを入力とし、前記第2医用画像データにおける関心領域を規定する位置情報を正解出力とする学習データに基づき生成される、
請求項記載の画像解析装置。
The trained model is generated based on learning data that receives as input second medical image data including the first organ and the second organ and that correct output is position information that defines a region of interest in the second medical image data. to be
The image analysis apparatus according to claim 6 .
前記設定部は、前記第1医用画像データにおける前記第1臓器と前記第2臓器との境界領域近傍かつ前記第1関心領域の内部において、前記第1臓器及び前記第2臓器のそれぞれに前記第2関心領域を設定する、
請求項記載の画像解析装置。
The setting unit is configured to apply the first organ to each of the first organ and the second organ in the vicinity of a boundary region between the first organ and the second organ in the first medical image data and inside the first region of interest. 2 Setting a region of interest,
The image analysis apparatus according to claim 6 .
前記設定部は、前記第2関心領域のそれぞれの大きさが等しくなるように、前記第2関心領域のそれぞれを設定する、
請求項記載の画像解析装置。
The setting unit sets each of the second regions of interest such that the sizes of the second regions of interest are equal.
The image analysis apparatus according to claim 6 .
前記設定部は、前記第2関心領域のそれぞれにおける輝度値の分布が一様となるように、前記第2関心領域のそれぞれの位置を調整する、
請求項記載の画像解析装置。
The setting unit adjusts the position of each of the second regions of interest so that the distribution of luminance values in each of the second regions of interest is uniform.
The image analysis apparatus according to claim 6 .
第1臓器及び第2臓器を含む第1医用画像データを学習済みモデルに入力し、前記学習済みモデルから出力された、前記第1医用画像データにおける第1関心領域を規定する位置情報に基づき、前記第1医用画像データにおける前記第1臓器に前記第1関心領域を設定する設定部、
を具備し、
前記設定部は、前記第1医用画像データにおける被検体の体表からの深さが前記第1関心領域と等しくなるように、前記第1医用画像データにおける前記第2臓器に第2関心領域を設定する、
画像解析装置。
Input first medical image data including a first organ and a second organ into a trained model, and output from the trained model, based on position information defining a first region of interest in the first medical image data, a setting unit that sets the first region of interest to the first organ in the first medical image data;
and
The setting unit defines a second region of interest in the second organ in the first medical image data such that the depth from the body surface of the subject in the first medical image data is equal to the first region of interest. set,
Image analysis device.
前記学習済みモデルは、前記第1臓器及び前記第2臓器を含む第2医用画像データを入力とし、前記第2医用画像データにおける関心領域を規定する位置情報を正解出力とする学習データに基づき生成される、
請求項11記載の画像解析装置。
The trained model is generated based on learning data that receives as input second medical image data including the first organ and the second organ and that correct output is position information that defines a region of interest in the second medical image data. to be
The image analysis apparatus according to claim 11 .
前記設定部は、前記第1医用画像データにおける前記第1臓器と前記第2臓器との境界領域近傍において、前記第1医用画像データにおける前記第2臓器に前記第2関心領域を設定する、
請求項11記載の画像解析装置。
The setting unit sets the second region of interest in the second organ in the first medical image data in the vicinity of a boundary region between the first organ and the second organ in the first medical image data.
The image analysis apparatus according to claim 11 .
前記設定部は、前記第1関心領域及び前記第2関心領域の大きさが等しくなるように、前記第1関心領域及び前記第2関心領域を設定する、
請求項11記載の画像解析装置。
The setting unit sets the first region of interest and the second region of interest such that the sizes of the first region of interest and the size of the second region of interest are equal.
The image analysis apparatus according to claim 11 .
前記設定部は、前記第1関心領域における輝度値の分布と、前記第2関心領域における輝度値の分布とが一様となるように、前記第1関心領域及び前記第2関心領域の少なくともいずれかの位置を調整する、
請求項11記載の画像解析装置。
The setting unit sets at least one of the first region of interest and the second region of interest so that the distribution of luminance values in the first region of interest and the distribution of luminance values in the second region of interest are uniform. adjust the position of
The image analysis apparatus according to claim 11 .
複数の医用画像データから、前記第1医用画像データを選択する前処理部をさらに具備する、
請求項1乃至15のいずれか1項記載の画像解析装置。
further comprising a preprocessing unit that selects the first medical image data from a plurality of medical image data;
The image analysis apparatus according to any one of claims 1 to 15 .
第1臓器及び第2臓器を含む医用画像データを学習済みモデルに入力し、前記学習済みモデルから出力された、前記医用画像データにおける第1関心領域及び第2関心領域を規定する位置情報に基づき、前記医用画像データにおける前記第1臓器に前記第1関心領域を設定し、前記第2臓器に前記第2関心領域を設定する設定部、
を具備し、
前記設定部は、前記第1関心領域における輝度値の分布と、前記第2関心領域における輝度値の分布とが一様となるように、前記第1関心領域及び前記第2関心領域の少なくともいずれかの位置を調整する、
画像診断装置。
Input medical image data including a first organ and a second organ into a trained model, and output from the trained model, based on position information defining a first region of interest and a second region of interest in the medical image data a setting unit that sets the first region of interest to the first organ in the medical image data and sets the second region of interest to the second organ;
and
The setting unit sets at least one of the first region of interest and the second region of interest so that the distribution of luminance values in the first region of interest and the distribution of luminance values in the second region of interest are uniform. adjust the position of
diagnostic imaging equipment.
第1臓器及び第2臓器を含む医用画像データを学習済みモデルに入力し、前記学習済みモデルから出力された、前記医用画像データにおける第1関心領域を規定する位置情報に基づき、前記医用画像データにおける前記第1臓器及び前記第2臓器をまたぐように前記第1関心領域を設定する設定部、
を具備し、
前記設定部は、前記医用画像データにおける被検体の体表からの深さが等しくなるように、前記第1関心領域の内部において、前記第1臓器及び前記第2臓器のそれぞれに第2関心領域を設定する、
画像診断装置。
Input medical image data including a first organ and a second organ to a trained model, and output the medical image data based on position information defining a first region of interest in the medical image data output from the trained model. A setting unit that sets the first region of interest so as to straddle the first organ and the second organ in
and
The setting unit sets second regions of interest for each of the first organ and the second organ within the first region of interest so that the depths from the body surface of the subject in the medical image data are equal. to set the
diagnostic imaging equipment.
超音波を放射し、放射した超音波の反射波を受信する超音波プローブをさらに具備し、
前記医用画像データは、前記反射波に基づき生成される超音波画像データである、
請求項17又は18記載の画像診断装置。
further comprising an ultrasonic probe that emits ultrasonic waves and receives reflected waves of the emitted ultrasonic waves;
The medical image data is ultrasound image data generated based on the reflected waves,
19. The diagnostic imaging apparatus according to claim 17 or 18 .
第1臓器及び第2臓器を含む医用画像データを学習済みモデルに入力し、前記学習済みモデルから出力された、前記医用画像データにおける第1関心領域及び第2関心領域を規定する位置情報に基づき、前記医用画像データにおける前記第1臓器に前記第1関心領域を設定し、前記第2臓器に前記第2関心領域を設定する処理をプロセッサに実行させ、
前記処理は、前記第1関心領域における輝度値の分布と、前記第2関心領域における輝度値の分布とが一様となるように、前記第1関心領域及び前記第2関心領域の少なくともいずれかの位置を調整する、
ROI設定プログラム。
Input medical image data including a first organ and a second organ into a trained model, and output from the trained model, based on position information defining a first region of interest and a second region of interest in the medical image data causing a processor to perform processing for setting the first region of interest in the first organ and setting the second region of interest in the second organ in the medical image data;
At least one of the first region of interest and the second region of interest is processed so that the distribution of luminance values in the first region of interest and the distribution of luminance values in the second region of interest are uniform. adjust the position of
ROI setting program.
第1臓器及び第2臓器を含む医用画像データを学習済みモデルに入力し、前記学習済みモデルから出力された、前記医用画像データにおける第1関心領域を規定する位置情報に基づき、前記医用画像データにおける前記第1臓器及び前記第2臓器をまたぐように前記第1関心領域を設定する処理をプロセッサに実行させ、
前記処理は、前記医用画像データにおける被検体の体表からの深さが等しくなるように、前記第1関心領域の内部において、前記第1臓器及び前記第2臓器のそれぞれに第2関心領域を設定する、
ROI設定プログラム。
Input medical image data including a first organ and a second organ into a trained model, and output from the trained model, based on position information defining a first region of interest in the medical image data, cause a processor to perform processing for setting the first region of interest so as to straddle the first organ and the second organ in the medical image data ;
The processing includes forming a second region of interest on each of the first organ and the second organ within the first region of interest so that depths from the body surface of the subject in the medical image data are equal. set,
ROI setting program.
JP2018231421A 2018-12-11 2018-12-11 Image analysis device, diagnostic imaging device, and ROI setting program Active JP7304150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018231421A JP7304150B2 (en) 2018-12-11 2018-12-11 Image analysis device, diagnostic imaging device, and ROI setting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231421A JP7304150B2 (en) 2018-12-11 2018-12-11 Image analysis device, diagnostic imaging device, and ROI setting program

Publications (2)

Publication Number Publication Date
JP2020092767A JP2020092767A (en) 2020-06-18
JP7304150B2 true JP7304150B2 (en) 2023-07-06

Family

ID=71084168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231421A Active JP7304150B2 (en) 2018-12-11 2018-12-11 Image analysis device, diagnostic imaging device, and ROI setting program

Country Status (1)

Country Link
JP (1) JP7304150B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005245830A (en) 2004-03-05 2005-09-15 Jgs:Kk Tumor detecting method, tumor detecting device, and program
WO2007138881A1 (en) 2006-05-25 2007-12-06 Hitachi Medical Corporation Ultrasonographic device
JP2010094220A (en) 2008-10-15 2010-04-30 Toshiba Corp Ultrasonic diagnostic apparatus, medical image processing apparatus and medical image processing program
JP2012217611A (en) 2011-04-08 2012-11-12 Fujifilm Corp Ultrasonic diagnostic apparatus and method for generating ultrasonic image
WO2012169177A1 (en) 2011-06-07 2012-12-13 パナソニック株式会社 Ultrasonic diagnostic device and ultrasonic diagnostic method
US20150025372A1 (en) 2013-07-17 2015-01-22 Hepatiq Llc Systems and methods for determining hepatic function from liver scans
JP2015205164A (en) 2014-04-10 2015-11-19 株式会社東芝 Medical image display device and medical image display system
WO2018142937A1 (en) 2017-01-31 2018-08-09 オリンパス株式会社 Ultrasound observation apparatus, method for operating ultrasound observation apparatus, and program for operating ultrasound observation apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005245830A (en) 2004-03-05 2005-09-15 Jgs:Kk Tumor detecting method, tumor detecting device, and program
WO2007138881A1 (en) 2006-05-25 2007-12-06 Hitachi Medical Corporation Ultrasonographic device
JP2010094220A (en) 2008-10-15 2010-04-30 Toshiba Corp Ultrasonic diagnostic apparatus, medical image processing apparatus and medical image processing program
JP2012217611A (en) 2011-04-08 2012-11-12 Fujifilm Corp Ultrasonic diagnostic apparatus and method for generating ultrasonic image
WO2012169177A1 (en) 2011-06-07 2012-12-13 パナソニック株式会社 Ultrasonic diagnostic device and ultrasonic diagnostic method
US20150025372A1 (en) 2013-07-17 2015-01-22 Hepatiq Llc Systems and methods for determining hepatic function from liver scans
JP2015205164A (en) 2014-04-10 2015-11-19 株式会社東芝 Medical image display device and medical image display system
WO2018142937A1 (en) 2017-01-31 2018-08-09 オリンパス株式会社 Ultrasound observation apparatus, method for operating ultrasound observation apparatus, and program for operating ultrasound observation apparatus

Also Published As

Publication number Publication date
JP2020092767A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
RU2541887C2 (en) Automated anatomy delineation for image guided therapy planning
WO2018119766A1 (en) Multi-modal image processing system and method
CN104346821B (en) Automatic planning for medical imaging
JP7139479B2 (en) IMAGE PROCESSING DEVICE, MEDICAL IMAGE DIAGNOSTIC DEVICE, AND PROGRAM
JP4786246B2 (en) Image processing apparatus and image processing system
JP7309986B2 (en) Medical image processing method, medical image processing apparatus, medical image processing system, and medical image processing program
US20130257910A1 (en) Apparatus and method for lesion diagnosis
KR101728044B1 (en) Method and apparatus for displaying medical image
US9678644B2 (en) Displaying a plurality of registered images
US20200285902A1 (en) Medical image processing apparatus, learning method, x-ray diagnostic apparatus, and medical image processing method
US10290097B2 (en) Medical imaging device and method of operating the same
US20180064409A1 (en) Simultaneously displaying medical images
JP2018011637A (en) Image processing device and image processing method
JP2005185405A (en) Medical image processor, region-of-interest extraction method and program
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
JP7304150B2 (en) Image analysis device, diagnostic imaging device, and ROI setting program
JP2024018896A (en) Medical image processing apparatus, medical image processing method, and training method
CN108701492B (en) Medical image navigation system
CN112368777A (en) Systems, methods, and apparatus for threshold-based generation of regions of interest from voxel patterns
US10176568B2 (en) Tomographic apparatus and method
US10977792B2 (en) Quantitative evaluation of time-varying data
US20230143966A1 (en) Image processing apparatus and non-transitory computer readable medium
JP7360651B2 (en) Medical image processing device, medical image processing program, and medical image processing method
JP7130449B2 (en) Diagnosis support device and diagnosis support system
US20220079539A1 (en) Medical image display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230427

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7304150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150