JP6688642B2 - Image processing apparatus and medical information management system - Google Patents
Image processing apparatus and medical information management system Download PDFInfo
- Publication number
- JP6688642B2 JP6688642B2 JP2016054398A JP2016054398A JP6688642B2 JP 6688642 B2 JP6688642 B2 JP 6688642B2 JP 2016054398 A JP2016054398 A JP 2016054398A JP 2016054398 A JP2016054398 A JP 2016054398A JP 6688642 B2 JP6688642 B2 JP 6688642B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- medical image
- anatomical
- image processing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明の実施形態は、画像処理装置及び医用情報管理システムに関する。 Embodiments of the present invention relate to an image processing apparatus and a medical information management system.
近年、医療情報の地域連携が進んでいる。かかる場合、例えば、地域連携を行っている医療機関同士で、医用画像の共有が行われる。 In recent years, regional collaboration of medical information is progressing. In such a case, for example, medical images are shared between medical institutions that cooperate with each other.
しかし、医療機関ごとに、同一の患者に対して異なる患者IDが割り振られている場合、患者の同定が重要になる。 However, when different patient IDs are assigned to the same patient in each medical institution, identification of the patient becomes important.
患者の同定を行うため、例えばPIX(患者情報相互参照)やPDQ(患者基本情報の問合せ)という仕組みがある。しかし、例えば、患者の意識がないケースや、認知症などのケースでは、正確な情報が得られないケースが存在する。 In order to identify a patient, there are mechanisms such as PIX (patient information mutual reference) and PDQ (inquiry of patient basic information). However, for example, there are cases in which accurate information cannot be obtained in cases where the patient is unaware and cases such as dementia.
また、マイナンバーという仕組みがある。しかし、マイナンバーは、法律や条例で定められた社会保障、税災害対策の手続き以外で利用することはできない。将来的に何らかの統一IDが利用されるようになった場合も、利用開始以前に撮影されたデータの同定には利用できない。 There is also a system called My Number. However, My Number can only be used for procedures other than social security and tax disaster measures stipulated by laws and regulations. Even if some kind of unified ID is used in the future, it cannot be used to identify data captured before the start of use.
また、歯の治療歴、指紋、声紋等で個人を特定する技術がある。しかし、個人を特定するために追加の情報入力が必要になる場合もあることから、煩わしさに堪えない場合もある。 Further, there is a technique for identifying an individual based on a dental treatment history, fingerprints, voice prints, and the like. However, in some cases, additional information input may be required to identify the individual, and thus the annoyance may be unbearable.
本発明が解決しようとする課題は、患者の特定を行うことができる画像処理装置及び医用情報管理システムを提供することである。 The problem to be solved by the present invention is to provide an image processing apparatus and a medical information management system capable of identifying a patient.
実施形態に係る画像処理装置は、算出部と、制御部とを備える。算出部は、医用画像の原点を特定するための解剖学的ランドマークに基づいて、第1の医用画像における原点である第1の原点と、所定のデータベースから得られた第2の医用画像における原点である第2の原点とを特定し、第1の医用画像から抽出された複数の第1の解剖学的ランドマークそれぞれが、所定のデータベースから得られた第2の医用画像から抽出された複数の第2の解剖学的ランドマークのうちどの解剖学的ランドマークに対応するかを特定し、前記複数の第1の解剖学的ランドマークそれぞれについて、前記第1の原点を基準とした前記第1の解剖学的ランドマークの相対座標である第1の相対座標と、前記第2の原点を基準とした前記対応する第2の解剖学的ランドマークの相対座標である第2の相対座標とに基づいて、前記第1の相対座標と、前記第2の相対座標との距離の差が大きくなるほど小さくなるように定められた値である第1の値を、解剖学的ランドマークの種別または撮影時における被検体の体位に応じて定められた重みを用いて算出し、算出した前記第1の値を前記複数の第1の解剖学的ランドマークについて平均することにより第2の値を算出する。制御部は、前記第2の値を表示部に表示させる。 The image processing apparatus according to the embodiment includes a calculation unit and a control unit. The calculation unit , based on the anatomical landmark for specifying the origin of the medical image , calculates the first origin that is the origin of the first medical image and the second medical image that is obtained from the predetermined database. The second origin, which is the origin, is specified, and each of the plurality of first anatomical landmarks extracted from the first medical image is extracted from the second medical image obtained from the predetermined database. Which of the plurality of second anatomical landmarks corresponds to which anatomical landmark is identified, and the first origin is used as a reference for each of the plurality of first anatomical landmarks. First relative coordinates, which are relative coordinates of the first anatomical landmark, and second relative coordinates, which are relative coordinates of the corresponding second anatomical landmark based on the second origin. Based on A first value, which is a value determined to decrease as the difference in distance between the first relative coordinate and the second relative coordinate increases, is set to the type of anatomical landmark or the object at the time of imaging. A second value is calculated by using a weight determined according to the body position of the sample and averaging the calculated first value for the plurality of first anatomical landmarks . The control unit causes the display unit to display the second value .
以下、添付図面を用いて、実施形態に係る画像処理装置及び医用情報管理システムを詳細に説明する。 Hereinafter, an image processing apparatus and a medical information management system according to embodiments will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
図1及び図2を用いて、第1の実施形態に係る画像処理装置を含む全体構成について説明する。図1は、第1の実施形態に係る画像処理装置及び当該画像処理装置が接続される装置の構成を示すブロック図である。図2は、第1の実施形態に係る画像処理装置の構成を示すブロック図である。
(First embodiment)
The overall configuration including the image processing apparatus according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment and an apparatus to which the image processing apparatus is connected. FIG. 2 is a block diagram showing the arrangement of the image processing apparatus according to the first embodiment.
画像処理装置100は、必要に応じてモダリティ装置200、記憶装置220、患者情報データベース230、画像データベース240、表示装置250とネットワークを通じて接続され、医用情報管理システムを構成する。ここで、医用情報管理システムの構成としては、モダリティ装置200、記憶装置220、患者情報データベース230、画像データベース240、表示装置250が含まれてもよいし、含まれなくても良い。ここで、ネットワークの一例としては例えば院内LAN(Local Area Network)である。また、ネットワークの別の例としてはインターネットである。
The
モダリティ装置200は、医療用のモダリティ装置であり、例えば被検体を撮影することにより検査を行う。ここでモダリティとは例えば医療用の機器およびこれに関連する機器や付属品などの総称である。モダリティ装置200の例としては、例えばX線CT装置、磁気共鳴イメージング装置、核医学診断装置、PET(Positron Emission Tomography)装置等が挙げられる。
The
記憶装置220は、モダリティ装置200が被検体に対して撮影を行うことにより取得したデータ、たとえば画像データを、記憶する記憶装置である。記憶装置220は、撮影条件など、種々のデータを、記憶する。患者情報データベース230は、患者名、患者ID、生年月日、予約時間等の様々なデータを記憶する情報データベースである。また、画像データベース240は、患者情報データベース230に記憶された患者名に対応づけられて、種々の医用画像を蓄積する情報データベースである。
The storage device 220 is a storage device that stores data, such as image data, acquired by the
ここで、患者情報データベース230の記憶する患者の範囲は、例えばモダリティ装置200が設置されている医療機関を訪れたことのある患者に限られず、例えば全国の複数の医療機関のうちいずれかの医療機関を訪れたことのある患者であってもよい。同様に、画像データベース240の記憶する医用画像の範囲は、例えばモダリティ装置200が設置されている医療機関を訪れたことのある患者の医用画像に限られず、例えば全国の複数の医療機関のうちいずれかの医療機関を訪れたことのある患者の医用画像であってもよい。また、患者情報データベース230及び画像データベース240は、例えばモダリティ装置200が設置されている医療機関内に設置されてもよく、また、当該医療機関の外部にあるサーバーにより構成されていてもよい。
Here, the range of patients stored in the patient information database 230 is not limited to, for example, patients who have visited a medical institution in which the
記憶装置220、患者情報データベース230、画像データベース240は、例えばRAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。
The storage device 220, the patient information database 230, and the
表示装置250は、画像処理装置100における処理回路150による制御のもと、画像データ等の各種の情報を表示する表示装置である。表示装置250は、例えば、液晶表示器等の表示デバイスである。
The
画像処理装置100は、モダリティ装置200で行われた被検体の撮影に基づいて生成され、必要に応じて記憶装置220に記憶された医用画像を基に、所定の処理を行う装置である。画像処理装置100の全体構成が、図2に示されている。
The
画像処理装置100は、処理回路150、記憶回路132、入力装置134、表示装置135を備える。また、処理回路120は、検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eを有する。これらの検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eの各機能の詳細については、後述する。
The
第1の実施形態では、検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eにて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路132へ記憶されている。処理回路150はプログラムを記憶回路132から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読みだした状態の処理回路150は、図2の処理回路150内に示された各機能を有することになる。なお、図2においては単一の処理回路150にて、検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eにて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路150を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。
In the first embodiment, each processing function performed by the search function 150a, the
換言すると、上述のそれぞれの機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよいし、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。 In other words, each function described above may be configured as a program, and one processing circuit may execute each program, or a specific function may be implemented in a dedicated independent program execution circuit. May be.
なお、処理回路150の有する算出機能150c及び補正機能150dは、算出部の一例である。また、表示装置135又は表示装置250は、表示部の一例である。処理回路150の有する制御機能150eは、制御部の一例である。また、入力装置134は、入力部の一例である。また、処理回路150の有する抽出機能150bは、抽出部の一例である。
The calculation function 150c and the
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路132に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 The word "processor" used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphical Processing Unit), or an application-specific integrated circuit (ASIC), a programmable logic device (for example, simple logic device). Programmable logic device (SPLD), complex programmable logic device (Complex Programmable Logic Device: CPLD), field programmable gate array (Field Programmable Gate Array: FPGA), and the like. Means. The processor realizes the function by reading and executing the program stored in the storage circuit 132. Instead of storing the program in the memory circuit 132, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit.
記憶回路132は、画像処理装置100が行う種々の処理に伴うデータ等を必要に応じて記憶する。例えば、記憶回路132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。また、処理回路150内の記憶回路132が行う処理は、画像処理装置100外の記憶装置220で代替されてもよい。
The storage circuit 132 stores data and the like associated with various processes performed by the
入力装置134は、操作者からの各種指示や情報入力を受け付ける。入力装置134は、例えば、マウスやトラックボール等のポインティングデバイス、あるいはキーボード等の入力デバイスである。 The input device 134 receives various instructions and information inputs from the operator. The input device 134 is, for example, a pointing device such as a mouse or a trackball, or an input device such as a keyboard.
表示装置135は、処理回路150における制御機能150eによる制御のもと、画像データ等の各種の情報を表示する。表示装置135は、例えば、液晶表示器等の表示デバイスである。処理回路150内の表示装置135が行う処理は、画像処理装置100外の表示装置250で代替されてもよい。
The display device 135 displays various information such as image data under the control of the
続いて、図3〜図10を用いて、第1の実施形態に係る画像処理装置100の行う処理について説明する。図3、4は、第1の実施形態に係る画像処理装置の行う処理の手順を示したフローチャートである。より具体的には、図3は、全体の処理の流れを説明したフローチャートである。また、図4は、図3のステップS140の処理を詳しく説明したフローチャートである。また、図5〜10は、第1の実施形態に係る画像処理装置の行う処理の手順を説明した図である。
Subsequently, processing performed by the
図3において、画像処理装置100に含まれる入力装置134は、個人を特定するための情報の入力を受け付ける(ステップS100)。ステップS100の処理について、図5を参照しながら説明する。
In FIG. 3, the input device 134 included in the
入力装置134は、第1の医用画像に係る被検体を個人として特定する手がかりとなる情報の入力を受け付ける。ここで、第1の医用画像とは、特定の対象となる被検体に関する医用画像であり、例えば当該被検体をモダリティ装置200を用いて撮影することにより生成された医用画像である。第1の医用画像は、例えば、認知症の患者が医療機関を訪れたとき、当該医療機関に備えられたモダリティ装置200を用いて当該認知症の患者を撮影した場合における医用画像である。また、別の例として、第1の医用画像は、例えば、意識不明の状態の患者が救急で医療機関に運ばれてきたとき、当該医療機関に備えられたモダリティ装置200を用いて当該救急の患者を撮影した場合における医用画像である。
The input device 134 receives an input of information serving as a clue for identifying the subject relating to the first medical image as an individual. Here, the first medical image is a medical image related to a specific target subject, and is, for example, a medical image generated by imaging the subject using the
また、個人として特定する手がかりとなる情報とは、例えば氏名、住所、電話番号、保険証の番号情報等である。手がかりとなる情報としては、単体で被検体を特定することが可能な情報であってもよいし、当該情報のみでは被検体を特定することが難しい情報であってもよい。すなわち、これらの情報は、不完全な情報、断片的な情報であってもよい。 In addition, the information serving as a clue to identify the individual is, for example, name, address, telephone number, insurance card number information, and the like. The information serving as a clue may be information that can identify the subject by itself, or may be information that is difficult to identify the subject only with the information. That is, these pieces of information may be incomplete information or fragmentary information.
ここで、情報単体では被検体を特定することが難しい情報の第1の例としては、例えば、カナ氏名やローマ字氏名が挙げられる。例えば、カナ氏名が「トッキョ タロウ」であった場合、「タロウ」が、「太郎」を表すか、あるいは「太朗」であるのかが明確ではないため、完全に被検体を特定することができない場合もある。また、例えば、ローマ字氏名が「TOKKYO TARO」であることが判明したような場合も同様である。しかしながら、例えば、認知症の患者から、氏名が「トッキョ タロウ」である旨の情報を聞き出せた場合、あるいは、意識不明の患者で、持ち物のクレジットカードの記名が「TOKKYO TARO」であることが判明したような場合、入力装置134は、そのような不完全な情報を含めて情報の入力を受け付ける。これにより、何も情報がない場合に比較して、画像処理装置100は、被検体の特定の精度を向上させることができる。
Here, as a first example of information in which it is difficult to identify a subject with information alone, for example, the name of Kana or the name of Roman alphabet can be cited. For example, if Kana's name is "Tokkyo Taro", it is not clear whether "Taro" represents "Taro" or "Taro", so it is not possible to completely identify the subject. There is also. Further, for example, the case where it is found that the Roman alphabet name is "TOKYO TARO" is the same. However, for example, if a person with dementia can hear information that his / her name is “Tokkyo Taro”, or if he / she is unconscious and the credit card name of his / her belonging is “TOKKYO TARO”. When it becomes clear, the input device 134 accepts the input of information including such incomplete information. As a result, the
また、別の例として、苗字のみが判明している場合、逆に名前のみが判明している場合、性別のみが判明している場合等においても、入力装置134は、そのような不完全な情報を含めて情報の入力を受け付ける。 In addition, as another example, even when only the family name is known, conversely only the name is known, or only the gender is known, the input device 134 does not perform such an incomplete operation. Accept input of information including information.
図5に、かかる情報の入力画面の一例が示されている。入力装置134は、ユーザに対して、例えば「患者情報を入力してください」というメッセージとともに、入力フィールドを表示する。当該メッセージを参照したユーザは、表示された入力フィールドに対して、例えばキーボードを用いて、第1の医用画像に係る被検体を個人として特定する手がかりとなる情報を入力する。入力装置134は、このような情報の入力を受け付ける。例えば、入力装置134は、被検体の氏名が「トッキョ タロウ」、被検体の性別が「男性」である旨の入力を受け付ける。ユーザは、必要な情報の入力を完了すると、例えば「検索」と表示されているボタンをクリックする。この時、入力装置134は、受け付けた入力内容を確定する。 FIG. 5 shows an example of the input screen for such information. The input device 134 displays the input field to the user, for example, with a message "Please enter patient information". The user who referred to the message inputs information, which is a clue for identifying the subject related to the first medical image as an individual, in the displayed input field by using, for example, a keyboard. The input device 134 receives input of such information. For example, the input device 134 receives an input indicating that the name of the subject is “Tokkyo Taro” and the gender of the subject is “male”. When the user completes the input of the necessary information, he / she clicks the button displaying "Search", for example. At this time, the input device 134 confirms the received input content.
次に、処理回路150は、第1の医用画像から、複数の第1の解剖学的ランドマークを抽出する(ステップS110)。ここで、第1の解剖学的ランドマークの例としては、例えば、骨の特徴部位を表す情報が挙げられる。また、第1の解剖学ランドマークの例としては、所定の臓器の所定部位を表す情報が挙げられる。また、第1の解剖学的ランドマークの例としては、血管の特定部位、例えば、血管の形態情報や、血管の狭窄状況を表す情報があげられる。 Next, the processing circuit 150 extracts a plurality of first anatomical landmarks from the first medical image (step S110). Here, as an example of the first anatomical landmark, there is, for example, information indicating a characteristic part of bone. Further, as an example of the first anatomical landmark, there is information indicating a predetermined part of a predetermined organ. In addition, examples of the first anatomical landmark include morphological information of a specific portion of the blood vessel, for example, blood vessel morphology information, and information indicating the stenosis status of the blood vessel.
処理回路150は、抽出機能150bにより、例えば第1の医用画像が3次元CT画像である場合、左眼球中心、右肺尖、大動脈弁等の予め定義された解剖学的位置を、所定の解剖学的ランドマーク抽出技術により抽出し、複数の第1の解剖学的ランドマークを生成する。
When the first medical image is a three-dimensional CT image, the processing circuit 150 uses the
続いて、処理回路150は、抽出機能150bにより、ステップS100で入力装置134が入力を受け付けた、第1の医用画像に係る被検体を個人として特定する手がかりとなる情報に基づいて、所定のデータベース(患者情報データベース230及び画像データベース240)から、第2の医用画像を抽出する(ステップS120)。
Then, the processing circuit 150 uses the
ここで、所定のデータベースは、例えば、複数の医療機関にわたって収集された医用画像を収集したデータベースである。かかるデータベースの一例が、図1に示す患者情報データベース230及び画像データベース240である。かかるデータベースには、例えば被検体の氏名などの情報と、当該被検体の撮影に係る医用画像とが、関連づけられて保存されている。
Here, the predetermined database is, for example, a database that collects medical images collected over a plurality of medical institutions. An example of such a database is the patient information database 230 and the
処理回路150は、抽出機能150bにより、ステップS100で入力された情報をキーとして、後段の処理で第1の医用画像と比較する候補の医用画像である第2の医用画像を抽出する。ここで、第2の医用画像としては、例えばステップS100で入力された情報にもっともマッチする一つの医用画像が選ばれても良い。また、第2の医用画像としては、例えばステップS100で入力された情報にマッチする所定の数の医用画像が選ばれても良い。また、第2の医用画像としては、例えばステップS100で入力された情報との一致度aが所定の閾値を超える医用画像が選ばれても良い。
The processing circuit 150 uses the
ステップS120で抽出される第2の医用画像が複数ある場合、ステップS130以降の処理は、例えば抽出された画像ごとに行われる。 When there are a plurality of second medical images extracted in step S120, the processing from step S130 is performed for each extracted image, for example.
続いて、処理回路150は、抽出機能150bにより、ステップS120において所定のデータベースから得られた第2の医用画像から、所定の解剖学的ランドマーク抽出技術により、複数の第2の解剖学的ランドマークを抽出する(ステップS130)。ステップS110の場合と同様に、第2の解剖学的ランドマークの例としては、例えば、骨の特徴部位を表す情報、所定の臓器の所定部位を表す情報、血管の特定部位、例えば、血管の形態情報や、血管の狭窄状況を表す情報が挙げられる。
Subsequently, the processing circuit 150 causes the
続いて、処理回路150は、算出機能150cにより、ステップS110において第1の医用画像から抽出された複数の第1の解剖学的ランドマークと、所定のデータベースから得られた第2の医用画像から、ステップS130において抽出された複数の第2の解剖学的ランドマークとの間の類似度を算出する(ステップS140)。 Subsequently, the processing circuit 150 uses the calculation function 150c to extract the plurality of first anatomical landmarks extracted from the first medical image in step S110 and the second medical image obtained from the predetermined database. , The degree of similarity with the plurality of second anatomical landmarks extracted in step S130 is calculated (step S140).
本ステップについては、図4のフローチャート及び図6〜8を用いて詳細に説明する。図4は、図3のステップS140の処理をより詳細に説明したフローチャートである。 This step will be described in detail with reference to the flowchart of FIG. 4 and FIGS. FIG. 4 is a flowchart illustrating the process of step S140 of FIG. 3 in more detail.
図6は、第1の医用画像から抽出された複数の第1の解剖学的ランドマーク、及び第2の医用画像から抽出された複数の第2の解剖学的ランドマークの例を表す。 FIG. 6 illustrates an example of the plurality of first anatomical landmarks extracted from the first medical image and the plurality of second anatomical landmarks extracted from the second medical image.
図6において、「対象New」は、新規患者のランドマーク、すなわち、第1の医用画像から抽出された複数の第1の解剖学的ランドマークを表す。これに対して、「対象Old」は、患者候補の既存の画像のランドマーク、すなわち第2の医用画像から抽出された複数の第2の解剖学的ランドマークを表す。 In FIG. 6, “target New” represents a landmark of a new patient, that is, a plurality of first anatomical landmarks extracted from the first medical image. On the other hand, the “target Old” represents the landmark of the existing image of the patient candidate, that is, the plurality of second anatomical landmarks extracted from the second medical image.
また、図6のそれぞれの行は、各解剖学的ランドマークを表す。例えば、複数の第1の解剖学的ランドマーク(又は複数の第2の解剖学的ランドマーク)の例として、例えば歯突起の上端(頸椎II)、右眼球上面、左眼球上面、右眼球中心、左眼球中心、及び第1頸椎(頸椎I)の前弓(結節)が挙げられる。 Also, each row in FIG. 6 represents each anatomical landmark. For example, as an example of the plurality of first anatomical landmarks (or the plurality of second anatomical landmarks), for example, the upper end of the dentition (cervical vertebra II), the upper surface of the right eye, the upper surface of the left eye, the center of the right eye , The center of the left eyeball, and the anterior arch (nodule) of the first cervical spine (cervical spine I).
また、図6のそれぞれの行の「z」「x」「y」は、それぞれの解剖学的ランドマークの、z座標の位置、x座標の位置、y座標の位置を表す。例えば、第1の医用画像から抽出された解剖学的ランドマーク「歯突起の上端(頸椎II)」のz座標の位置は37、x座標の位置は−8、y座標の位置は18となる。また、例えば第2の医用画像から抽出された解剖学的ランドマーク「第1頸椎(頸椎I)の前弓(結節)」のz座標の位置は14、x座標の位置は−5、y座標の位置は2となる。 Further, “z”, “x”, and “y” in each row of FIG. 6 represent the position of z coordinate, the position of x coordinate, and the position of y coordinate of each anatomical landmark. For example, the position of the z coordinate of the anatomical landmark “upper end of the tooth (cervical vertebra II)” extracted from the first medical image is 37, the position of the x coordinate is −8, and the position of the y coordinate is 18. . Further, for example, the z coordinate position of the anatomical landmark “anterior arch (nodule) of the first cervical vertebra (cervical spine I)” extracted from the second medical image is 14, the x coordinate position is −5, and the y coordinate is The position of is 2.
処理回路150は、複数の第1のランドマークそれぞれが、複数の第2の解剖学的ランドマークのうちどの解剖学的ランドマークに対応するかを特定する(ステップS141)。例えば、図6の例では、第1の医用画像において、z座標の位置が37、x座標の位置が−8、y座標の位置が18である解剖学的ランドマークは「歯突起の上端(頸椎II)」であると特定されている。また、第2の医用画像において、z座標の位置が35、x座標の位置が−10、y座標の値が19である解剖学的ランドマークは「歯突起の上端(頸椎II)」であると特定されている。従って、処理回路150は、これらの情報をもとに、第1の医用画像における、z座標の位置が37、x座標の位置が−8、y座標の位置が18である解剖学的ランドマークが、第2の医用画像において、z座標の位置が35、z座標の位置が−10、y座標の値が19である解剖学的ランドマークに対応すると特定する。処理回路150は、その他の解剖学的ランドマークに対しても、同様の処理を行う。 The processing circuit 150 identifies which anatomical landmark of the plurality of second anatomical landmarks each of the plurality of first landmarks corresponds to (step S141). For example, in the example of FIG. 6, in the first medical image, the anatomical landmark whose z-coordinate position is 37, x-coordinate position is −8, and y-coordinate position is 18 is “upper end of tooth projection ( Cervical vertebra II) ". Further, in the second medical image, the anatomical landmark whose z coordinate position is 35, x coordinate position is −10, and y coordinate value is 19 is “upper end of dentition (cervical vertebra II)”. Is specified. Therefore, based on these pieces of information, the processing circuit 150 determines the anatomical landmark whose z coordinate position is 37, x coordinate position is -8, and y coordinate position is 18 in the first medical image. However, in the second medical image, it corresponds to an anatomical landmark whose z coordinate position is 35, z coordinate position is −10, and y coordinate value is 19. The processing circuit 150 performs the same processing for other anatomical landmarks.
続いて、処理回路150は、算出機能150cにより、医用画像における原点を特定する。具体的には、処理回路150は、算出機能150cにより、第1の医用画像における原点である第1の原点を特定する。また、処理回路150は、算出機能150cにより、第2の医用画像における原点である第2の原点を特定する(ステップS142)。 Subsequently, the processing circuit 150 uses the calculation function 150c to identify the origin in the medical image. Specifically, the processing circuit 150 uses the calculation function 150c to identify the first origin, which is the origin in the first medical image. Further, the processing circuit 150 uses the calculation function 150c to identify the second origin, which is the origin in the second medical image (step S142).
かかる例が、図7に示されている。図7の例では、処理回路150は、算出機能150cにより、第一頸椎(脊椎I)の前弓(結節)を、第1の医用画像における原点である第1の原点として特定する。また、処理回路150は、算出機能150cにより、第一頸椎(脊椎I)の前弓(結節)を、第2の医用画像における原点である第2の原点として特定する。 Such an example is shown in FIG. In the example of FIG. 7, the processing circuit 150 uses the calculation function 150c to specify the anterior arch (nodule) of the first cervical spine (spine I) as the first origin that is the origin in the first medical image. In addition, the processing circuit 150 uses the calculation function 150c to identify the anterior arch (nodule) of the first cervical spine (spine I) as the second origin that is the origin in the second medical image.
ここで、処理回路150が原点として特定する解剖学的ランドマークは、例えば、第1の医用画像及び第2の医用画像に共有して含まれるランドマークのうち、最も上方に位置するランドマークである。 Here, the anatomical landmark specified as the origin by the processing circuit 150 is, for example, the landmark located at the uppermost position among the landmarks shared by the first medical image and the second medical image. is there.
続いて、処理回路150は、算出機能150cにより、第1の原点を基準とした第1の解剖学的ランドマークの相対座標である第1の相対座標を算出する。また、処理回路150は、第2の原点を基準とした、当該対応する解剖学的ランドマークの相対座標である第2の相対座標を算出する(ステップS143)。 Subsequently, the processing circuit 150 uses the calculation function 150c to calculate the first relative coordinates that are the relative coordinates of the first anatomical landmark with respect to the first origin. In addition, the processing circuit 150 calculates the second relative coordinates that are the relative coordinates of the corresponding anatomical landmark with respect to the second origin (step S143).
例えば、図7において、処理回路150は、算出機能150cにより、解剖学的ランドマーク「歯突起の上端(頸椎II)」について、第1の原点「第1頸椎(頸椎I)の前弓(結節)」を基準とした第1の相対座標を、z座標については、37−15=22、x座標については、−8−1=−9、y座標については、18−3=15と算出する。また、処理回路150は、算出機能150cにより、解剖学的ランドマーク「歯突起の上端(頸椎I)」について、第2の原点「第1頸椎(頸椎I)の前弓(結節)」を基準とした第2の相対座標を、z座標については、35−14=21、x座標については、−10−(−5)=−5、y座標については、19−2=17と算出する。 For example, in FIG. 7, the processing circuit 150 uses the calculation function 150c to determine the anterior arch (nodule) of the first origin “first cervical vertebra (cervical vertebra I)” for the anatomical landmark “upper end of dentition (cervical vertebra II)”. ) ”As a reference, the first relative coordinate is calculated as 37−15 = 22 for the z coordinate, −8−1 = −9 for the x coordinate, and 18−3 = 15 for the y coordinate. . In addition, the processing circuit 150 uses the calculation function 150c as a reference with respect to the anatomical landmark “upper end of dentition (cervical vertebra I)” based on the second origin “anterior arch (nodule) of the first cervical vertebra (cervical vertebra I)”. The second relative coordinate is calculated as 35-14 = 21 for the z coordinate, −10 − (− 5) = − 5 for the x coordinate, and 19−2 = 17 for the y coordinate.
続いて、処理回路150は、算出機能150cにより、同一の解剖学的ランドマーク間の距離を算出する。ここで、同一の解剖学的ランドマーク間の距離とは、例えば、3次元空間上のユークリッドノルムにより導入された距離である。実施形態はこれに限られず、例えばL1ノルムにより導入された距離など、その他の種類の距離を用いて、処理回路150は、算出機能150cにより、同一の解剖学的ランドマーク間の距離を算出してもよい。 Subsequently, the processing circuit 150 calculates the distance between the same anatomical landmarks by the calculation function 150c. Here, the distance between the same anatomical landmarks is, for example, the distance introduced by the Euclidean norm in the three-dimensional space. The embodiment is not limited to this, and the processing circuit 150 uses the calculation function 150c to calculate the distance between the same anatomical landmarks by using another type of distance, for example, the distance introduced by the L 1 norm. You may.
かかる距離の算出の一例が、図8に示されている。例えば、図8において、解剖学的ランドマーク「歯突起の上端(頸椎II)」に対して、同一の解剖学的ランドマーク間の距離は、sqrt((22−21)^2+(−9−(−5))^2+(15−17)^2)=4.58となる。また、解剖学的ランドマーク「右眼球上面」に対して、同一の解剖学的ランドマーク間の距離は、sqrt((70−73)^2+(19−26)^2+(9−10)^2)=7.68となる。 An example of the calculation of such a distance is shown in FIG. For example, in FIG. 8, the distance between the same anatomical landmarks with respect to the anatomical landmark "upper end of dentition (cervical vertebra II)" is sqrt ((22-21) ^ 2 + (-9- (-5)) ^ 2+ (15-17) ^ 2) = 4.58. Also, the distance between the same anatomical landmarks with respect to the anatomical landmark “upper surface of the right eye” is sqrt ((70−73) ^ 2 + (19−26) ^ 2 + (9−10) ^ 2) = 7.68.
続いて、処理回路150は、算出機能150cにより、複数の第1の解剖学的ランドマークそれぞれに対して、対応する解剖学的ランドマークとの一致度aを算出する(ステップS144)。 Subsequently, the processing circuit 150 uses the calculation function 150c to calculate, for each of the plurality of first anatomical landmarks, the degree of coincidence a with the corresponding anatomical landmark (step S144).
ここで、一致度aは、例えば、第1の相対座標と、第2の相対座標との差が大きくなるほど小さくなるように定められた値である。また、一致度aは、第1の相対座標と、第2の相対座標との差が0である場合に1になるように定められ、第1の相対座標と、第2の相対座標との差の絶対値が無限大である極限で0になるように定められた値である。 Here, the degree of coincidence a is, for example, a value determined so as to decrease as the difference between the first relative coordinate and the second relative coordinate increases. The degree of coincidence a is determined to be 1 when the difference between the first relative coordinate and the second relative coordinate is 0, and the degree of coincidence a between the first relative coordinate and the second relative coordinate is determined. It is a value determined so as to be 0 in the limit where the absolute value of the difference is infinite.
一致度aの具体的な表式としては、ステップS144で算出された距離をxとして、例えば、a=1/(1+x)で与えられる。換言すると、一致度aは、第1の相対座標と第2の相対座標との間の距離xに1を足し、逆数を取った値として定められた値である。 As a concrete expression of the degree of coincidence a, for example, a = 1 / (1 + x) is given, where x is the distance calculated in step S144. In other words, the degree of coincidence a is a value determined as a value obtained by adding 1 to the distance x between the first relative coordinate and the second relative coordinate and taking the reciprocal.
すなわち、この時、距離xが0の時、一致度aは1となる。また、距離xが0から増加するに従って、一致度aは単調に減少する。また、距離xが無限大である極限で、一致度aは0になる。従って、一致度aは、0より大きく1以下の実数となる。 That is, at this time, when the distance x is 0, the degree of coincidence a is 1. Also, as the distance x increases from 0, the degree of coincidence a decreases monotonically. Further, the degree of coincidence a becomes 0 in the limit where the distance x is infinite. Therefore, the degree of coincidence a is a real number greater than 0 and less than or equal to 1.
図8に、このように算出された、解剖学的ランドマークの一例が示されている。例えば、解剖学的ランドマーク「歯突起の上端(頸椎II)」については、距離xが4.58であるので、一致度aは、a=1/(1+4.58)=0.18となる。また、解剖学的ランドマーク「右眼球上面」については、距離xが7.68であるので、一致度aは、a=1/(1+7.68)=0.12となる。 FIG. 8 shows an example of the anatomical landmarks calculated in this way. For example, with respect to the anatomical landmark “upper end of dentition (cervical vertebra II)”, the distance x is 4.58, so the degree of coincidence a is a = 1 / (1 + 4.58) = 0.18. . Further, for the anatomical landmark “upper surface of the right eyeball”, the distance x is 7.68, and thus the degree of coincidence a is a = 1 / (1 + 7.68) = 0.12.
続いて、処理回路150は、算出機能150cにより、ステップS145において算出された一致度に基づいて、複数の第1の解剖学的ランドマークと、複数の第2の解剖学的ランドマークとの間の類似度を算出する(ステップS146)。 Subsequently, the processing circuit 150 causes the calculation function 150c to determine whether the plurality of first anatomical landmarks and the plurality of second anatomical landmarks are present on the basis of the degree of coincidence calculated in step S145. Is calculated (step S146).
一例として、処理回路150は、全ランドマークの一致度の平均を計算し、計算した平均値を、類似度として算出する。例えば、図8の例では、各解剖学的ランドマークの一致度は、歯突起の上端(頸椎II)については、0.18、右眼球上面については0.12、左眼球上面については0.11、右眼球中心については0.14、左眼球中心については0.12、第1頸椎(頸椎I)の前弓(結節)については1.00であるので、全ランドマークの一致度の平均は、(0.18+0.12+0.11+0.14+0.12+1.00)/6=0.28となる。このようにして、ステップS140の操作が完了する。 As an example, the processing circuit 150 calculates the average of the degrees of coincidence of all landmarks, and calculates the calculated average value as the degree of similarity. For example, in the example of FIG. 8, the degree of coincidence of each anatomical landmark is 0.18 for the upper end of the dentition (cervical vertebra II), 0.12 for the upper surface of the right eye, and 0. 11, 0.14 for the center of the right eyeball, 0.12 for the center of the left eyeball, and 1.00 for the anterior arch (nodule) of the first cervical vertebra (cervical vertebra I), so the average degree of coincidence of all landmarks Is (0.18 + 0.12 + 0.11 + 0.14 + 0.12 + 1.00) /6=0.28. In this way, the operation of step S140 is completed.
図3に戻り、処理回路150は、制御機能150eにより、ステップS140(すなわち、図4のステップS141〜ステップS146)において算出された算出結果に基づいて得られた情報を表示装置250(又は表示装置135)に表示させる。
Returning to FIG. 3, the processing circuit 150 causes the
かかる状況の例が、図9に示されている。例えば、処理回路150は、制御機能150eにより、表示装置250に、第2の医用画像が撮影された医療機関名、患者ID、患者氏名、及びステップS146において算出した類似度(一致度)の値をリスト形式で表示する。
An example of such a situation is shown in FIG. For example, the processing circuit 150 uses the
図9の例では、第1の医用画像が、患者氏名「トッキョ タロウ」、患者IDが「emergency0101」に係る医用画像である場合を示している。この時、処理回路150は、例えば、類似度(一致度)が大きい順に、第2の医用画像に係るデータを表示装置250に表示させる。例えば、患者氏名が「特許太朗」、患者IDが「CBA2548」、医療機関名(施設)が「○○クリニック」のデータが、類似度(一致度)が0.65であり類似度が最も大きいので、処理回路150は、一番上に表示させる。続いて、例えば、患者氏名が「特許太郎」、患者IDが「ABC1563」、医療機関名(施設)が、「△△病院」のデータが、類似度(一致度)が0.28であり類似度が2番目に大きいので、処理回路150は、二番目に表示させる。続いて、処理回路150は、その他のデータを、表示させる。
The example of FIG. 9 shows a case where the first medical image is a medical image associated with the patient name “Tokkyo Taro” and the patient ID “emergency0101”. At this time, the processing circuit 150 causes the
ここで、処理回路150は、類似度の値が大きいか小さいかに応じて、カラーを変えて表示させてもよい。例えば、処理回路150は、類似度の閾値を0.1として、類似度の閾値を超えた、上から一番目と二番目のデータを、上から三番目及び四番目のデータと異なるカラーで表示させることにより、類似度が閾値を超えたデータを視覚的に目立たせても良い。 Here, the processing circuit 150 may change and display the color depending on whether the value of the similarity is large or small. For example, the processing circuit 150 sets the threshold value of the similarity to 0.1 and displays the first and second data from the top, which exceeds the threshold of the similarity, in a color different from that of the third and fourth data from the top. By doing so, the data whose degree of similarity exceeds the threshold value may be visually highlighted.
また、処理回路150は、制御機能150eにより、ステップS140(図4のステップS141〜ステップS146)において算出された算出結果に基づいて得られた情報に併せて、または当該情報に代えて、複数の第1の解剖学的ランドマークを表す情報及び複数の第2の解剖学的ランドマークを表す情報のうち少なくとも一方を、表示装置250又は表示装置135に表示させてもよい。
In addition, the processing circuit 150 uses the
この時、処理回路150が表示装置250又は表示装置135に表示させる、複数の第1(又は第2)の解剖学的ランドマークを表す情報の例としては、例えば、図8に示されているような、ランドマークごとの一致度であってもよい。また、当該情報の別の例としては、例えば、図8に示されているような、ランドマークごとの距離であってもよい。
At this time, an example of information indicating a plurality of first (or second) anatomical landmarks displayed by the processing circuit 150 on the
また、別の例として、処理回路150は、表示装置250又は表示装置135に、人体の3D画像や投影図(MIP:Maximum intensity projectionなど)とランドマークの位置を示した画像を表示してもよい。図10に、かかる状況が示されている。
Further, as another example, the processing circuit 150 may display a 3D image of a human body or a projection view (MIP: Maximum intensity projection, etc.) and an image showing the position of a landmark on the
図10の左端の図は、第1の医用画像に係る情報を示している。すなわち、処理回路150は、患者ID:emergency0101、患者氏名:トッキョタロウの医用画像である第1の医用画像を、ランドマークの位置を示した記号に重ね合わせて表示させる。図10の左端において、星印それぞれは第1の医用画像における解剖学的ランドマークを示している。 The diagram on the left end of FIG. 10 shows information related to the first medical image. That is, the processing circuit 150 displays the first medical image, which is a medical image of the patient ID: emergency0101 and the patient name: Tokkyotaro, on the symbol indicating the position of the landmark. At the left end of FIG. 10, each asterisk indicates an anatomical landmark in the first medical image.
図10の中央の図及び右端の図は、第2の医用情報に係る情報を示している。すなわち、処理回路150は、患者ID:ABC1563、患者氏名:特許太郎の医用画像である第2の医用画像、及び、患者ID:CBA2548、患者氏名:特許太朗の医用画像である第2の医用画像を、それぞれ解剖学的ランドマークの位置を示した記号に重ね合わせて表示させる。図10の中央、右端の図において、星印それぞれは第2の医用画像における解剖学的ランドマークを示している。また、処理回路150は、類似度(一致度)をあわせて表示させる。この結果、例えば、患者氏名:特許太郎に係る医用画像の類似度(一致度)が0.28であり、患者氏名:特許太朗に係る医用画像の類似度(一致度)が0.65である旨の情報が表示される。 The central diagram and the rightmost diagram in FIG. 10 show information relating to the second medical information. That is, the processing circuit 150 uses the patient ID: ABC1563, the patient name: the second medical image that is the medical image of Taro Tokkyo, and the patient ID: CBA2548, the patient name: the second medical image that is the medical image of Taro Tokkyo. Are overlaid on the symbols indicating the positions of the anatomical landmarks. In the center and rightmost views of FIG. 10, each asterisk indicates an anatomical landmark in the second medical image. The processing circuit 150 also displays the degree of similarity (degree of coincidence). As a result, for example, the degree of similarity (coincidence) of the medical image relating to patient name: Taro Patent is 0.28, and the degree of similarity (concordance degree) of the medical image relating to patient name: Taro Patent is 0.65. Information to that effect is displayed.
図10に示されているように、解剖学的ランドマークの位置が、医用画像に重ねて表示されている結果、第1の医用画像と第2の医用画像との類似度が、視覚的にわかりやすく表示されている。この結果、ユーザは、どの患者が、特定対象の患者と同じである可能性が高いかを、直観的に把握することができる。 As shown in FIG. 10, the position of the anatomical landmark is displayed so as to be superimposed on the medical image. As a result, the degree of similarity between the first medical image and the second medical image is visually It is displayed clearly. As a result, the user can intuitively understand which patient is likely to be the same as the specific target patient.
また、処理回路150は、これらの情報を、最初から表示させても良いし、ユーザからこれらの情報を表示させる旨の入力を受け付けたときにこれらの情報を表示させてもよい。 Further, the processing circuit 150 may display these pieces of information from the beginning, or may display these pieces of information when receiving an input to display these pieces of information from the user.
実施形態は、以上に説明した例に限られない。 The embodiment is not limited to the example described above.
例えば、個人特定の目的で、第1の実施形態に係る画像処理装置が使用される場合について、説明したが、実施形態はこれに限られない。例えば、同一の患者に対して2重にIDが発番されるのを防ぐ目的で、第1の実施形態に係る画像処理装置が使用されてもよい。かかる場合、処理回路150は、算出機能150cにより、同一の被検体が複数の異なる識別子(ID)で登録されている可能性の大きさを算出する。処理回路150は、算出した可能性が所定の閾値を超える場合、同一の被検体が複数の異なる識別子(ID)で登録されている可能性が高いと判断し、被検体の情報(氏名等)及び、当該複数の異なる識別子(ID)を、表示装置250(又は表示装置135)に表示させる。これにより、ユーザは、同一の被検体が複数の異なる識別子(ID)で登録されている可能性に気が付くことができる。 For example, the case where the image processing apparatus according to the first embodiment is used for the purpose of identifying an individual has been described, but the embodiment is not limited to this. For example, the image processing apparatus according to the first embodiment may be used for the purpose of preventing duplicate ID numbers for the same patient. In such a case, the processing circuit 150 uses the calculation function 150c to calculate the degree of possibility that the same subject is registered with a plurality of different identifiers (IDs). When the calculated possibility exceeds the predetermined threshold value, the processing circuit 150 determines that the same subject is likely to be registered with a plurality of different identifiers (IDs), and the subject information (name, etc.). Also, the plurality of different identifiers (ID) are displayed on the display device 250 (or the display device 135). As a result, the user can notice the possibility that the same subject is registered with a plurality of different identifiers (IDs).
また、例えば、患者取り違えが起こるのを防ぐ目的で、第1の実施形態に係る画像処理装置が使用されてもよい。かかる場合、処理回路150は、算出機能150cにより、ステップ146において算出された類似度に基づいて、患者取り違えが起こっている可能性の大きさを更に算出する。例えば、処理回路150は、ステップS146において算出された類似度が所定の閾値を下回る場合には、患者取り違えが起こっている可能性が高いと判定する。続いて、処理回路150は、制御機能150eにより、患者取り違えが起こっている可能性の大きさを表す情報を、表示装置250(又は表示装置135)に表示させる。具体的には、処理回路150は、患者取り違えが起こっている可能性が高い旨の警告を画面に表示させ、取り違えが起こっている可能性の高い患者のIDを画面に表示させる。
Further, for example, the image processing apparatus according to the first embodiment may be used for the purpose of preventing mistaking the patient. In such a case, the processing circuit 150 further calculates, by the calculation function 150c, the magnitude of the possibility that the patient is confused based on the similarity calculated in step 146. For example, if the similarity calculated in step S146 is lower than the predetermined threshold, the processing circuit 150 determines that there is a high possibility that a patient is confused. Subsequently, the processing circuit 150 causes the display device 250 (or the display device 135) to display information indicating the degree of possibility that the patient is confused by the
また、処理回路150は、ステップS142で原点の位置を特定したのち、第1の医用画像の向きと、第2の医用画像の向きを揃えても良い。具体的には、例えば、処理回路150は、向きを決定するのに適した解剖学的ランドマークを少なくとも2点、第1の医用画像及び第2の医用画像から抽出する。処理回路150は、抽出した少なくとも2点の解剖学的ランドマークを用いて、第1の医用画像及び第2の医用画像における被検体の「向き」を算出する。処理回路150は、算出した被検体の向きに基づいて、第2の医用画像を所定の角度だけ回転させ、第1の医用画像と第2の医用画像との向きを揃える。しかるのち、処理回路150は、ステップS144以降の処理を実行する。また、別の例として、処理回路150は、ステップS142で原点の位置を特定したのち、例えばDICOM(Digital Imaging and Communication in Medicine)のデータを用いて、第1の医用画像の向きと、第2の医用画像の向きを揃えても良い。 Further, the processing circuit 150 may align the orientation of the first medical image and the orientation of the second medical image after specifying the position of the origin in step S142. Specifically, for example, the processing circuit 150 extracts at least two anatomical landmarks suitable for determining the orientation from the first medical image and the second medical image. The processing circuit 150 calculates the “direction” of the subject in the first medical image and the second medical image using the extracted at least two anatomical landmarks. The processing circuit 150 rotates the second medical image by a predetermined angle based on the calculated orientation of the subject, and aligns the orientations of the first medical image and the second medical image. After that, the processing circuit 150 executes the processing from step S144. As another example, the processing circuit 150 identifies the position of the origin in step S142, and then uses the data of DICOM (Digital Imaging and Communication in Medicine), for example, to determine the orientation of the first medical image and the second orientation. The directions of the medical images may be aligned.
また、ステップS145における一致度の算出方法は、実施形態において説明した例に限られない。例えば、処理回路150は、一致度aを、距離xの関数として、a=1/(1+x)以外の関数系で与えてもよい。例えば、処理回路150は、一致度aを、距離xの関数として、a=1−tan―1(x)/(π/2)のような関数系で与えても良い。かかる場合、距離xが0の時、一致度aは1となる。また、距離xが増加するにしたがって、一致度aは減少する。また、距離xが無限大の極限で、tan―1(x)はπ/2に近づくから、この時、一致度aは0となる。 Further, the method of calculating the degree of coincidence in step S145 is not limited to the example described in the embodiment. For example, the processing circuit 150 may give the degree of coincidence a as a function of the distance x in a functional system other than a = 1 / (1 + x). For example, the processing circuit 150 may give the degree of coincidence a as a function of the distance x in a functional system such as a = 1-tan −1 (x) / (π / 2). In such a case, when the distance x is 0, the degree of coincidence a is 1. Further, the degree of coincidence a decreases as the distance x increases. Also, since the distance x is an infinite limit and tan −1 (x) approaches π / 2, the degree of coincidence a becomes 0 at this time.
また、一致度aの関数系は、距離x=0で必ずしもa=1となる必要もなく、また、距離xが無限大の極限で必ずしもa=0となる必要もない。また、処理回路150は、距離xが増加するにしたがって、減少していく関数系を用いて、後段の類似度を算出する必要もない。例えば、処理回路150は、不一致度b=1−aを用いて、類似度を算出しても良い。 Further, the functional system with the degree of coincidence a does not necessarily have to be a = 1 at the distance x = 0, and does not necessarily have to be a = 0 at the limit where the distance x is infinite. Further, the processing circuit 150 does not need to use the functional system that decreases as the distance x increases to calculate the similarity in the subsequent stage. For example, the processing circuit 150 may calculate the similarity by using the dissimilarity b = 1−a.
また、距離xは、必ずしもユークリッド空間の距離に限られない。例えば、距離xは、pを実数として、Lpノルムから誘導される距離であってもよい。 Further, the distance x is not necessarily limited to the distance in the Euclidean space. For example, the distance x may be a distance derived from the L p norm, where p is a real number.
また、一致度aの例は、これらに限られない。例えば、処理回路150は、一致度aの値を、距離xが第1の閾値x1よりも小さい場合には、「一致度高」、距離xが第1の閾値x1以上であって、第1の閾値x1より大きい第2の閾値x2よりも小さい場合には、「一致度中」、距離xが第2の閾値x2以上であって、第2の閾値x2より大きい場合には、「一致度低」であると定めても良い。 The examples of the degree of coincidence a are not limited to these. For example, when the distance x is smaller than the first threshold value x 1 , the processing circuit 150 sets the value of the matching degree a to “high matching degree”, and the distance x is equal to or larger than the first threshold value x 1 . If less than the first threshold value x 1 is greater than the second threshold value x 2 is "during matching degree", the distance x is a second threshold x 2 or more, if greater than the second threshold value x 2 May be determined to be “low degree of coincidence”.
また、類似度の値を、各解剖学的ランドマークの一致度の平均値として処理回路150が算出する場合について説明したが、実施形態はこれに限られない。処理回路150は、各解剖学的ランドマークの一致度の単純和、最大値、メジアン、モード、重み付き加算和などを用いて、類似度を算出してもよい。また、処理回路150は、各解剖学的ランドマークすべてのデータを用いることを要せず、各解剖学的ランドマークのデータのうち一部のデータを用いて、類似度を算出しても良い。 Further, although the case where the processing circuit 150 calculates the value of the degree of similarity as the average value of the degrees of coincidence of the anatomical landmarks has been described, the embodiment is not limited to this. The processing circuit 150 may calculate the degree of similarity by using a simple sum, a maximum value, a median, a mode, a weighted addition sum, or the like of the matching degrees of the anatomical landmarks. In addition, the processing circuit 150 does not need to use the data of all the anatomical landmarks, but may calculate the similarity using a part of the data of each anatomical landmark. .
以上のように、第1の実施形態に係る画像処理装置によれば、患者の特定を行うことができる。この結果、例えば、救急搬送の場合のように患者の意識のないケースや、認知症などのケースなど、正確な情報がない場合でも、患者の特定を行うことができる。また、診断に用いる医用画像データそのものを用いて患者の特定を行うことができるので、患者の特定のための追加の処理が必要とならず、ユーザの利便性を高めることができる。 As described above, the image processing apparatus according to the first embodiment can identify a patient. As a result, the patient can be identified even when there is no accurate information such as a case where the patient does not have consciousness as in the case of emergency transportation or a case of dementia. In addition, since the patient can be specified using the medical image data itself used for diagnosis, no additional processing for specifying the patient is required, and the convenience for the user can be improved.
(第1の実施形態の第1の変形例)
第1の実施形態では、処理回路150が、一致度aの算出において、各ランドマークの種別、例えば骨、臓器、血管の別等を考慮せず、距離xのみを考慮して所定の関数系を用いる場合について説明した。第1の実施形態の第1の変形例においては、処理回路150は、ランドマークの種別等を考慮した一致度及び類似度の算出を行う。
(First Modification of First Embodiment)
In the first embodiment, the processing circuit 150 does not consider the type of each landmark, for example, bone, organ, or blood vessel, in the calculation of the degree of coincidence a, and considers only the distance x and determines a predetermined functional system. The case of using is explained. In the first modification of the first embodiment, the processing circuit 150 calculates the degree of coincidence and the degree of similarity in consideration of the landmark type and the like.
図11及び図12を用いて、第1の実施形態の第1の変形例に係る処理について説明する。図11は、第1の実施形態の第1の変形例に係る画像処理装置の行う処理の手順を示したフローチャートである。また、図12は、第1の実施形態の第1の変形例に係る画像処理装置の行う処理について説明した図である。 Processing according to the first modification of the first embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart showing a procedure of processing performed by the image processing apparatus according to the first modification of the first embodiment. In addition, FIG. 12 is a diagram illustrating a process performed by the image processing apparatus according to the first modification of the first embodiment.
第1の実施形態の第1の変形例において、図3に示す全体的な処理の流れについては、第1の実施形態の場合と同様である。第1の実施形態の第1の変形例においては、図3のステップS140に相当するステップが、第1の実施形態と異なる。第1の実施形態の第1の変形例における、ステップS140に相当するステップが、図11に示されている。ここで、図11において、ステップS141〜ステップS144の処理は、第1の実施形態と同様の処理を行うことから、詳しい説明は割愛する。 In the first modification of the first embodiment, the overall processing flow shown in FIG. 3 is the same as in the first embodiment. In the first modified example of the first embodiment, the step corresponding to step S140 in FIG. 3 is different from that of the first embodiment. FIG. 11 shows a step corresponding to step S140 in the first modification of the first embodiment. Here, in FIG. 11, since the processes of steps S141 to S144 are the same as those of the first embodiment, detailed description thereof will be omitted.
第1の実施形態の第1の変形例においては、ステップS145a〜ステップS146において、処理回路150は、算出機能150cにより、第1の解剖学的ランドマークの種別と第2の解剖学的ランドマークの種別とに基づいて、ステップS145における一致度を計算し、計算した一致度に基づいて類似度を算出する。以下、これらの処理について説明する。 In the first modification of the first embodiment, in steps S145a to S146, the processing circuit 150 uses the calculation function 150c to determine the type of the first anatomical landmark and the second anatomical landmark. The degree of coincidence in step S145 is calculated based on the type and the degree of similarity is calculated based on the calculated degree of coincidence. Hereinafter, these processes will be described.
ステップS145aにおいて、処理回路150は、解剖学的ランドマークごとに重みを算出する。第1の実施形態の第1の変形例では、処理回路150は、算出機能150cにより、解剖学的ランドマークごとに、解剖学的ランドマークの種別pに対応した重みの値w1(p)を、例えば所定のデータベース(例えば、記憶回路132)から取得することにより算出する(ステップS145a)。 In step S145a, the processing circuit 150 calculates a weight for each anatomical landmark. In the first modification of the first embodiment, the processing circuit 150 uses the calculation function 150c to calculate the weight value w 1 (p) corresponding to the anatomical landmark type p for each anatomical landmark. Is calculated by, for example, obtaining it from a predetermined database (for example, the storage circuit 132) (step S145a).
ここで、解剖学的ランドマークの種別pとは、解剖学的ランドマークの種類のことである。例えば、「臓器」、「骨」、「血管」、「軟骨」は、互いに異なる解剖学的ランドマークの種別pに属する。 Here, the anatomical landmark type p is the anatomical landmark type. For example, “organ”, “bone”, “blood vessel”, and “cartilage” belong to different anatomical landmark types p.
図12に、解剖学的ランドマークの種別pと、解剖学的ランドマークの種別pに対応した重みw1(p)の値の例が示されている。例えば、胸部ランドマークの場合、解剖学的ランドマーク「気管分岐部」の種別pは、「臓器」に属し、その場合の重みw1(p=臓器)は、「0.2」となる。また、解剖学的ランドマーク「右肩甲骨下角」の種別pは「骨」に対応し、その場合の重みw1(p=骨)は、「1」となる。また、解剖学的ランドマーク「左鎖骨下動脈始点」の種別pは、「血管」に属し、その場合の重みw1(p=血管)は、「0.2」となる。 FIG. 12 shows an example of the anatomical landmark type p and the value of the weight w 1 (p) corresponding to the anatomical landmark type p. For example, in the case of a chest landmark, the type p of the anatomical landmark “tracheal bifurcation” belongs to “organ”, and the weight w 1 (p = organ) in that case is “0.2”. Further, the type p of the anatomical landmark “lower shoulder blade angle” corresponds to “bone”, and the weight w 1 (p = bone) in that case is “1”. The type p of the anatomical landmark “left subclavian artery start point” belongs to “blood vessel”, and the weight w 1 (p = blood vessel) in that case is “0.2”.
解剖学的ランドマークの種別pに対応した重みw1(p)は、その種別に関するデータを用いて個人特定をすることの信頼度に対応した量となる。例えば、解剖学的ランドマークの種別pが、血管や臓器の場合、血管や臓器の位置は、体位(立位、仰向け、うつ伏せなど)により、変化すると考えられるので、個人特定のために用いるのは信頼度が低くなる。また、血管や臓器の場合、血管や臓器の位置は、病状や治療により、例えば、放射線治療で痩せた、あるいは逆に薬の副作用で太ったなどにより位置が変化する可能性があるので、個人特定のために用いるのが信頼度が低くなる。従って、重みw1(p)は、低くなる。逆に、解剖学的ランドマークの種別pが、骨の場合、骨の位置は、比較的変化しにくいと考えられるので、骨の位置を個人特定のために用いるのは信頼度が高くなる。従って、重みw1(p)は、高くなる。 The weight w 1 (p) corresponding to the type p of the anatomical landmark is an amount corresponding to the reliability of identifying an individual using data regarding the type. For example, if the type p of the anatomical landmark is a blood vessel or an organ, the position of the blood vessel or the organ is considered to change depending on the body position (standing position, supine position, prone position, etc.). Is less reliable. Also, in the case of blood vessels and organs, the position of blood vessels and organs may change due to the medical condition or treatment, such as thinning due to radiation therapy or conversely becoming fat due to side effects of the drug, etc. Is less reliable to use for. Therefore, the weight w 1 (p) becomes low. On the other hand, when the type p of the anatomical landmark is bone, the bone position is considered to be relatively unlikely to change, so that the bone position is highly reliable to be used for individual identification. Therefore, the weight w 1 (p) becomes high.
続いて、処理回路150は、解剖学的ランドマークごとに、重みw1(p)を考慮して、一致度aを算出する(ステップS145b)。例えば、第1の解剖学的ランドマーク及び第2の解剖学的ランドマークの種別をp、種別pの解剖学的ランドマークの重みをw1(p)とすると、距離をxとして、処理回路150は、(重み付け)一致度aを、例えば次の式により算出する:a=w1(p)/(1+x)。 Subsequently, the processing circuit 150 calculates the degree of coincidence a in consideration of the weight w 1 (p) for each anatomical landmark (step S145b). For example, if the type of the first anatomical landmark and the second anatomical landmark is p and the weight of the anatomical landmark of the type p is w 1 (p), the distance is x and the processing circuit is The 150 calculates the (weighted) degree of coincidence a, for example, by the following formula: a = w 1 (p) / (1 + x).
換言すると、一致度aは、距離xに1を足し、逆数を取り、解剖学的ランドマークの種別p(あるいは、後述する第1の医用画像が撮影された第1の撮影状態及び第2の医用画像が撮影された第2の撮影状態)に基づいて定められた重みを表す係数w1を乗じた値として定められた値である。ここで、距離xは、第1の医用画像の所定の解剖学的ランドマークの、第1の原点に対する第1の相対座標と、当該所定の解剖学的ランドマークに対応する解剖学的ランドマークの、第2の原点に対する第2の医用画像との間の距離である。 In other words, the degree of coincidence a is obtained by adding 1 to the distance x, taking the reciprocal of the same, and determining the type p of the anatomical landmark (or the first imaging state and the second imaging state in which the first medical image described later is imaged). It is a value determined as a value obtained by multiplying by a coefficient w 1 that represents a weight determined based on the second image capturing state in which the medical image was captured. Here, the distance x is the first relative coordinate of the predetermined anatomical landmark of the first medical image with respect to the first origin, and the anatomical landmark corresponding to the predetermined anatomical landmark. , The distance between the second origin and the second medical image.
続いて、処理回路150は、算出機能150cにより、ステップS145bで算出された重み付け一致度を基に、複数の第1の解剖学的ランドマークと、複数の第2の解剖学的ランドマークとの間の類似度を算出する。例えば、処理回路150は、ステップS145bで算出された重み付け一致度に対して、単純平均を取り、類似度を算出する。 Subsequently, the processing circuit 150 causes the calculation function 150c to distinguish between the plurality of first anatomical landmarks and the plurality of second anatomical landmarks based on the weighted coincidence degree calculated in step S145b. Calculate the similarity between them. For example, the processing circuit 150 calculates a similarity by taking a simple average of the weighted coincidences calculated in step S145b.
以上のように、第1の実施形態の第1の変形例においては、画像処理装置100は、解剖学的ランドマークの種別に応じて、類似度算出の際の重みを変化させる。かかる処理を行うことにより、この結果、個人特定のために信頼度の高いデータの重みを大きくすることができ、特定の精度が向上する。
As described above, in the first modification of the first embodiment, the
(第1の実施形態の第2の変形例)
第1の実施形態の第1の変形例においては、処理回路150が、解剖学的ランドマークそれぞれの種別pに応じた重みw1(p)に応じて類似度を算出する場合を説明した。
(Second Modification of First Embodiment)
In the first modified example of the first embodiment, the case where the processing circuit 150 calculates the similarity according to the weight w 1 (p) corresponding to the type p of each anatomical landmark has been described.
第1の実施形態の第2の変形例においては、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とに基づいて、類似度を算出する。 In the second modified example of the first embodiment, the processing circuit 150 sets the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured. Based on, the similarity is calculated.
かかる処理について、図4を再び用いて説明する。第1の実施形態の第2の変形例においては、例えば処理回路150は、補正機能150dにより、図4のステップS142〜ステップS146の処理を行った後、医用画像が撮影された撮影状態に基づいて、ステップS146において算出された類似度に対して補正を行って類似度を算出する。なお、第1の実施形態の第2の変形例においては、この追加のステップ以外は、第1の実施形態と同様な処理であるので、繰り返しての説明は省略する。
Such processing will be described with reference to FIG. 4 again. In the second modification of the first embodiment, for example, the processing circuit 150 uses the
第1の実施形態の第2の変形例においては、処理回路150は、撮影状態によって重みを変化させる。ここで、撮影状態とは、例えば、仰向け/うつ伏せ等の体位を表す。この場合、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態は、撮影時における被検体の体位である。 In the second modification of the first embodiment, the processing circuit 150 changes the weight depending on the shooting state. Here, the shooting state represents, for example, a body position such as supine / prone. In this case, the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are the posture of the subject at the time of imaging.
例えば、仰向けの状態で撮影された画像と、うつ伏せの状態で撮影された画像とでは、解剖学的ランドマークを用いて個人特定を行う場合の精度が異なる。すなわち、処理回路150は、補正機能150dにより、仰向けの状態で撮影された画像と、うつ伏せの状態で撮影された画像とで、異なる重みを用いて類似度を補正する。
For example, an image taken in a supine state and an image taken in a prone state differ in accuracy when individual identification is performed using anatomical landmarks. That is, the processing circuit 150 uses the
例えば、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、ともに「仰向け」の場合、または、ともに「うつ伏せ」である場合、補正係数として、ステップS146で算出された類似度に「1.0」を乗じた値を、最終的な類似度とする。すなわち、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが同じ撮影状態である場合、最大重みを用いて類似度を算出する。 For example, the processing circuit 150, when the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are both “back to back”, or both In the case of "prone", a value obtained by multiplying the similarity calculated in step S146 by "1.0" is set as the final similarity as a correction coefficient. That is, the processing circuit 150 uses the maximum weight when the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are the same imaging state. And the degree of similarity is calculated.
一方、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、一方が「仰向け」であり、他方が「うつ伏せ」である場合、体位が異なっているので、個人特定の精度は低下すると考えられる。従って、この場合、処理回路150は、補正係数として、ステップS146で算出された類似度に、例えば「0.8」を乗じた値を、最終的な類似度とする。なお、第1の実施形態の第1の変形例のように、解剖学的ランドマークの種別に応じた重みづけがされている場合、解剖学的ランドマークの種別に応じた重みによる重みづけと、撮影状態に応じた重みづけが、重ねて行われることになる。 On the other hand, in the first imaging state in which the first medical image is captured and in the second imaging state in which the second medical image is captured, one is "supine" and the other is "prone". In this case, since the body positions are different, it is considered that the accuracy of individual identification decreases. Therefore, in this case, the processing circuit 150 sets the value obtained by multiplying the similarity calculated in step S146 by, for example, “0.8” as the final similarity as the correction coefficient. When the weighting according to the type of anatomical landmark is performed as in the first modification of the first embodiment, the weighting according to the type according to the type of anatomical landmark is performed. The weighting according to the shooting state is repeated.
なお、処理回路150は、これらの体位の情報を、例えばDICOM(Digital imaging and Communication in Medicine)のデータから、随時取得することができる。 In addition, the processing circuit 150 can obtain the information of these body positions from data of DICOM (Digital imaging and Communication in Medicine) at any time, for example.
また、撮影状態の別の例としては、撮影における息止めの有無を表す情報が挙げられる。この場合、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態は、息止めの有無を示す情報である。 In addition, as another example of the photographing state, there is information indicating whether or not there is a breath-hold in photographing. In this case, the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are information indicating whether or not breath-holding is performed.
例えば、息止め時に撮影された画像と、息止め時以外に撮影された画像とでは、解剖学的ランドマークを用いて個人特定を行う場合の精度が異なる。例えば、息止め時は、呼吸による位置のブレが存在しないため、解剖学的ランドマークの位置はほぼ変化しない。これに対して、息止め時以外に撮影された場合、呼吸による位置のブレが存在するので、解剖学的ランドマークの位置が変化する。処理回路150は、補正機能150dにより、息止め時に撮影された画像と、息止め時以外に撮影された画像とで、異なる重みを用いて類似度を補正する。
For example, the image taken during breath-holding and the image taken during periods other than breath-holding differ in the accuracy with which an anatomical landmark is used to identify an individual. For example, when holding a breath, the position of the anatomical landmark hardly changes because there is no blurring of the position due to breathing. On the other hand, when the image is taken at a time other than when the user holds his / her breath, the position of the anatomical landmark changes because of the blurring of the position due to breathing. The processing circuit 150 uses the
例えば、処理回路150は、補正機能150dにより、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、ともに「息止めあり」の場合補正係数として、ステップS146で算出された類似度に「1.0」を乗じた値を、最終的な類似度とする。すなわち、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが同じ撮影状態である場合、最大重みを用いて類似度を算出する。
For example, the processing circuit 150 uses the
一方、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、ともに「息止めなし」である場合、息止めがないので、個人特定の精度は低下すると考えられる。従って、この場合、処理回路150は、補正機能150dにより、補正係数として、ステップS146で算出された類似度に、例えば「0.8」を乗じた値を、最終的な類似度とする。なお、解剖学的ランドマークの種別に応じた重みや、撮影時の体位に関する重みが、重ねて重み付けされても良い。
On the other hand, when both the first shooting state in which the first medical image is shot and the second shooting state in which the second medical image is shot are “no breath hold”, there is no breath hold. , It is thought that the accuracy of individual identification will decrease. Therefore, in this case, the processing circuit 150 uses the
以上のように、第1の実施形態の第2の変形例においては、医用画像が撮影された撮影状態に応じて重みづけが行われ、類似度が算出される。撮影状態に応じて、個人特定の精度は一般に異なってくることから、撮影状態に応じて重みづけを行うことで、実施形態に係る画像処理装置は、個人特定の精度を向上させることができる。 As described above, in the second modified example of the first embodiment, weighting is performed according to the imaging state in which the medical image was captured, and the degree of similarity is calculated. Since the accuracy of individual identification generally differs depending on the shooting state, the image processing apparatus according to the embodiment can improve the accuracy of individual identification by performing weighting according to the shooting state.
また、これまでの実施形態に係る画像処理装置100は、医用情報管理システムの一部として提供されてもよい。かかる医用情報管理システムは、画像処理装置100の他に、例えば、医用検査装置に行われた検査に基づいて生成された第1の医用画像を記憶する記憶装置と、複数の被検体の医用画像を記憶するデータベースとを備える。ここで、記憶装置220が、かかる記憶装置の一例である。また、患者情報データベース230や画像データベース240が、かかるデータベースの一例である。
Further, the
また、実施形態に係る画像処理装置100は、PACS(Picture Archiving and Communication System)やRIS(Radiology Information System)の一機能として提供されてもよい。また、実施形態に係る画像処理装置100は、画像処理ワークステーション、若しくはモダリティ装置200の一機能として提供されてもよい。この場合、典型的には、患者情報データベース230及び画像データベース240は、画像処理装置100が備えられた医療機関以外の情報を統合して検索できる。
Further, the
(プログラム)
上述した実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の画像処理装置100による効果と同様な効果を得ることも可能である。上述した実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW等)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータ又は組み込みシステムが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の画像処理装置100と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
(program)
The instructions shown in the processing procedures shown in the above-described embodiments can be executed based on a program that is software. A general-purpose computer system may store the program in advance and read the program to obtain the same effect as that of the
また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が、上述した実施形態を実現するための各処理の一部を実行してもよい。 In addition, the OS (operating system) running on the computer based on the instructions of the program installed in the computer or the embedded system from the storage medium, the database management software, the MW (middleware) such as the network, and the like are the embodiments described above. You may perform a part of each process for implement | achieving.
更に、記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LAN(Local Area Network)やインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。 Further, the storage medium is not limited to a medium independent of a computer or an embedded system, but includes a storage medium in which a program transmitted via a LAN (Local Area Network), the Internet, etc. is downloaded and stored or temporarily stored.
また、記憶媒体は1つに限られず、複数の媒体から、上述した実施形態における処理が実行される場合も、実施形態における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。 Further, the number of storage media is not limited to one, and when the processing in the above-described embodiment is executed from a plurality of media, it is included in the storage media in the embodiment, and the configuration of the medium may be any configuration. .
なお、実施形態における画像処理装置は、記憶媒体に記憶されたプログラムに基づき、上述した実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。 The image processing apparatus according to the embodiment is for executing each processing according to the above-described embodiments based on a program stored in a storage medium. The image processing apparatus includes one device such as a personal computer and a microcomputer, and a plurality of devices. It may have any configuration such as a system in which the devices are network-connected.
また、実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。 In addition, the computer in the embodiment is not limited to a personal computer, but includes an arithmetic processing unit, a microcomputer, and the like included in information processing equipment, and is a generic term for equipment and devices that can realize the functions in the embodiment by a program. .
図13は、実施形態に係る画像処理装置100のハードウェア構成を示す図である。上述した実施形態に係る信号処理装置(画像処理装置)は、CPU(Central Processing Unit)310等の制御装置と、ROM(Read Only Memory)320やRAM(Random Access Memory)330等の記憶装置と、ネットワークに接続して通信を行う通信インタフェース340と、各部を接続するバス301とを備えている。
FIG. 13 is a diagram showing a hardware configuration of the
上述した実施形態に係る画像処理装置で実行されるプログラムは、ROM320等に予め組み込まれて提供される。また、上述した実施形態に係る画像処理装置で実行されるプログラムは、コンピュータを上述した画像処理装置の各部として機能させ得る。このコンピュータは、CPU310がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
The program executed by the image processing apparatus according to the above-described embodiment is provided by being incorporated in the
以上のように、少なくとも一つの実施形態によれば、患者の特定を行うことができる。 As described above, according to at least one embodiment, it is possible to identify a patient.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the invention described in the claims and the equivalents thereof as well as included in the scope and the gist of the invention.
150 処理回路
150a 検索機能
150b 抽出機能
150c 算出機能
150d 補正機能
150e 制御機能
150 Processing Circuit
Claims (17)
前記第2の値を表示部に表示させる制御部とを備える
画像処理装置。 Based on the anatomical landmark for identifying the origin of the medical image, the first origin that is the origin in the first medical image and the origin that is the origin in the second medical image obtained from the predetermined database. 2 origins, and each of the plurality of first anatomical landmarks extracted from the first medical image is extracted from the second medical image obtained from the predetermined database. Of the anatomical landmarks corresponding to the first anatomical landmarks, the anatomical landmarks corresponding to the anatomical landmarks are identified, and the first anatomy is based on the first origin for each of the first anatomical landmarks. Based on a first relative coordinate which is a relative coordinate of the geometrical landmark and a second relative coordinate which is a relative coordinate of the corresponding second anatomical landmark based on the second origin. , The first The first value, which is a value determined to be smaller as the difference in distance between the relative coordinates and the second relative coordinates increases, is set as the type of anatomical landmark or the body position of the subject at the time of imaging. A calculation unit that calculates a second value by averaging the calculated first value with respect to the plurality of first anatomical landmarks, using a weight determined according to
An image processing apparatus comprising: a control unit that causes the display unit to display the second value .
前記情報の入力に基づいて、前記所定のデータベースから、前記第2の医用画像を抽出する抽出部とを更に備え、
前記算出部は、前記抽出部が抽出した前記第2の医用画像に基づいて、前記第2の値を算出する、請求項1〜10のいずれか一つに記載の画像処理装置。 An input unit for receiving input of information on the name, address, telephone number, or insurance card number of the subject relating to the first medical image;
Further comprising an extraction unit that extracts the second medical image from the predetermined database based on the input of the information ,
The calculating unit, said extraction unit is extracted based on the second medical image, it calculates the second value, the image processing apparatus according to any one of claims 1-10.
前記制御部は、前記可能性が高い旨を表す情報を、前記表示部に表示させる、請求項1〜13のいずれか一つに記載の画像処理装置。 When the second value is less than the threshold value , the calculation unit determines that there is a high possibility that a patient mix-up has occurred ,
Wherein the control unit, the information indicating high the possibility, to be displayed on the display unit, the image processing apparatus according to any one of claims 1 to 13.
複数の被検体の医用画像を記憶するデータベースと、
医用画像の原点を特定するための解剖学的ランドマークに基づいて、第1の医用画像における原点である第1の原点と、前記データベースから得られた第2の医用画像における原点である第2の原点とを特定し、前記第1の医用画像から抽出された複数の第1の解剖学的ランドマークそれぞれが、前記データベースから得られた第2の医用画像から抽出された複数の第2の解剖学的ランドマークのうちどの解剖学的ランドマークに対応するかを特定し、前記複数の第1の解剖学的ランドマークそれぞれについて、前記第1の原点を基準とした前記第1の解剖学的ランドマークの相対座標である第1の相対座標と、前記第2の原点を基準とした前記対応する第2の解剖学的ランドマークの相対座標である第2の相対座標とに基づいて、前記第1の相対座標と、前記第2の相対座標との距離の差が大きくなるほど小さくなるように定められた値である第1の値を、解剖学的ランドマークの種別または撮影時における被検体の体位に応じて定められた重みを用いて算出し、算出した前記第1の値を前記複数の第1の解剖学的ランドマークについて平均することにより第2の値を算出する算出部と、
前記第2の値を表示部に表示させる制御部とを備える
医用情報管理システム。 A storage device that stores a first medical image generated based on an examination performed by the medical examination device;
A database for storing medical images of a plurality of subjects,
A first origin, which is the origin in the first medical image, and a second origin, which is the origin in the second medical image obtained from the database, based on the anatomical landmarks for identifying the origin of the medical image. And a plurality of second anatomical landmarks extracted from the first medical image, the plurality of first anatomical landmarks extracted from the second medical image obtained from the database , respectively . The anatomical landmarks corresponding to the anatomical landmarks are identified, and the first anatomy based on the first origin is specified for each of the plurality of first anatomical landmarks. Based on a first relative coordinate that is a relative coordinate of the dynamic landmark and a second relative coordinate that is a relative coordinate of the corresponding second anatomical landmark based on the second origin. The first The first value, which is a value determined to be smaller as the difference in distance between the relative coordinates and the second relative coordinates increases, is set as the type of anatomical landmark or the body position of the subject at the time of imaging. A calculation unit that calculates a second value by averaging the calculated first value with respect to the plurality of first anatomical landmarks, using a weight determined according to
A medical information management system, comprising: a control unit that causes the display unit to display the second value .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016054398A JP6688642B2 (en) | 2016-03-17 | 2016-03-17 | Image processing apparatus and medical information management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016054398A JP6688642B2 (en) | 2016-03-17 | 2016-03-17 | Image processing apparatus and medical information management system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167965A JP2017167965A (en) | 2017-09-21 |
JP6688642B2 true JP6688642B2 (en) | 2020-04-28 |
Family
ID=59913772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016054398A Active JP6688642B2 (en) | 2016-03-17 | 2016-03-17 | Image processing apparatus and medical information management system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6688642B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6739411B2 (en) * | 2017-08-17 | 2020-08-12 | 富士フイルム株式会社 | Magnetic field distortion calculation device, method and program |
JP7159001B2 (en) * | 2018-10-25 | 2022-10-24 | キヤノンメディカルシステムズ株式会社 | Medical information processing device and medical information processing system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001155019A (en) * | 1999-11-25 | 2001-06-08 | Olympus Optical Co Ltd | Similar image retrieving device |
JP4817184B2 (en) * | 2006-09-08 | 2011-11-16 | 国立大学法人岐阜大学 | Image photographing apparatus and image analysis program |
TWI479428B (en) * | 2008-10-14 | 2015-04-01 | Sicpa Holding Sa | Method and system for item identification |
JP2010169542A (en) * | 2009-01-23 | 2010-08-05 | Hitachi Ltd | Tomographic image information generation method of positron emission tomographic device, and positron emission tomographic device |
JP5773575B2 (en) * | 2010-03-31 | 2015-09-02 | 株式会社東芝 | X-ray computed tomography system |
JP2012084114A (en) * | 2010-09-16 | 2012-04-26 | Imagequest Inc | Person identification information correspondence system and program |
JP5867273B2 (en) * | 2012-04-27 | 2016-02-24 | 富士通株式会社 | Approaching object detection device, approaching object detection method, and computer program for approaching object detection |
WO2015041177A1 (en) * | 2013-09-18 | 2015-03-26 | 株式会社ニコン | Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device |
-
2016
- 2016-03-17 JP JP2016054398A patent/JP6688642B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017167965A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133946B (en) | Medical image processing method, device and equipment | |
US10565710B2 (en) | Systems and user interfaces for determination of electro magnetically identified lesions as included in medical images of differing perspectives | |
JP6542004B2 (en) | Medical image processing apparatus and medical image processing system | |
US11875897B2 (en) | Medical image processing apparatus, method, and program, and diagnosis support apparatus, method, and program | |
JP6719421B2 (en) | Learning data generation support device, learning data generation support method, and learning data generation support program | |
US10916010B2 (en) | Learning data creation support apparatus, learning data creation support method, and learning data creation support program | |
JP6532206B2 (en) | Medical image processing apparatus, medical image processing method | |
US10115037B2 (en) | Patient identification using dynamic medical images | |
US11468659B2 (en) | Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model | |
JP6738305B2 (en) | Learning data generation support device, learning data generation support device operating method, and learning data generation support program | |
WO2023216947A1 (en) | Medical image processing system and method for interventional operation | |
US20220172366A1 (en) | Medical support device, operation method of medical support device, non-transitory computer readable medium, and medical support system | |
JP6688642B2 (en) | Image processing apparatus and medical information management system | |
JP2019126654A (en) | Image processing device, image processing method, and program | |
JP2010246705A (en) | Image processor, image processing method and program | |
JP6734111B2 (en) | Finding information creation device and system | |
JP2012143368A (en) | Medical image display device and program | |
US20180121813A1 (en) | Non-leading computer aided detection of features of interest in imagery | |
US11238976B2 (en) | Interpretation support apparatus and non-transitory computer readable medium | |
CN116210056A (en) | Information processing system, information processing method, and information processing program | |
JP7153261B2 (en) | IMAGE PROCESSING DEVICE, OPERATING METHOD OF IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING PROGRAM | |
JP6845480B2 (en) | Diagnostic support devices, methods and programs | |
JP2007260062A (en) | Processor of medical image information and confirmation work support program | |
JP6748762B2 (en) | Medical image processing apparatus and medical image processing method | |
JP7483018B2 (en) | Image processing device, image processing method and program, and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20160929 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161021 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190820 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6688642 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |