JP6688642B2 - Image processing apparatus and medical information management system - Google Patents

Image processing apparatus and medical information management system Download PDF

Info

Publication number
JP6688642B2
JP6688642B2 JP2016054398A JP2016054398A JP6688642B2 JP 6688642 B2 JP6688642 B2 JP 6688642B2 JP 2016054398 A JP2016054398 A JP 2016054398A JP 2016054398 A JP2016054398 A JP 2016054398A JP 6688642 B2 JP6688642 B2 JP 6688642B2
Authority
JP
Japan
Prior art keywords
value
medical image
anatomical
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016054398A
Other languages
Japanese (ja)
Other versions
JP2017167965A (en
Inventor
吉田 昌史
昌史 吉田
剛 江積
剛 江積
理 猪狩
理 猪狩
泰介 三善
泰介 三善
寿美江 穐山
寿美江 穐山
勇人 小西
勇人 小西
高 増沢
高 増沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2016054398A priority Critical patent/JP6688642B2/en
Publication of JP2017167965A publication Critical patent/JP2017167965A/en
Application granted granted Critical
Publication of JP6688642B2 publication Critical patent/JP6688642B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明の実施形態は、画像処理装置及び医用情報管理システムに関する。   Embodiments of the present invention relate to an image processing apparatus and a medical information management system.

近年、医療情報の地域連携が進んでいる。かかる場合、例えば、地域連携を行っている医療機関同士で、医用画像の共有が行われる。   In recent years, regional collaboration of medical information is progressing. In such a case, for example, medical images are shared between medical institutions that cooperate with each other.

しかし、医療機関ごとに、同一の患者に対して異なる患者IDが割り振られている場合、患者の同定が重要になる。   However, when different patient IDs are assigned to the same patient in each medical institution, identification of the patient becomes important.

患者の同定を行うため、例えばPIX(患者情報相互参照)やPDQ(患者基本情報の問合せ)という仕組みがある。しかし、例えば、患者の意識がないケースや、認知症などのケースでは、正確な情報が得られないケースが存在する。   In order to identify a patient, there are mechanisms such as PIX (patient information mutual reference) and PDQ (inquiry of patient basic information). However, for example, there are cases in which accurate information cannot be obtained in cases where the patient is unaware and cases such as dementia.

また、マイナンバーという仕組みがある。しかし、マイナンバーは、法律や条例で定められた社会保障、税災害対策の手続き以外で利用することはできない。将来的に何らかの統一IDが利用されるようになった場合も、利用開始以前に撮影されたデータの同定には利用できない。   There is also a system called My Number. However, My Number can only be used for procedures other than social security and tax disaster measures stipulated by laws and regulations. Even if some kind of unified ID is used in the future, it cannot be used to identify data captured before the start of use.

また、歯の治療歴、指紋、声紋等で個人を特定する技術がある。しかし、個人を特定するために追加の情報入力が必要になる場合もあることから、煩わしさに堪えない場合もある。   Further, there is a technique for identifying an individual based on a dental treatment history, fingerprints, voice prints, and the like. However, in some cases, additional information input may be required to identify the individual, and thus the annoyance may be unbearable.

特開2011−257854号公報JP, 2011-257854, A 特開2004−126738号公報JP, 2004-126738, A

本発明が解決しようとする課題は、患者の特定を行うことができる画像処理装置及び医用情報管理システムを提供することである。   The problem to be solved by the present invention is to provide an image processing apparatus and a medical information management system capable of identifying a patient.

実施形態に係る画像処理装置は、算出部と、制御部とを備える。算出部は、医用画像の原点を特定するための解剖学的ランドマークに基づいて、第1の医用画像における原点である第1の原点と、所定のデータベースから得られた第2の医用画像における原点である第2の原点とを特定し、第1の医用画像から抽出された複数の第1の解剖学的ランドマークそれぞれが、所定のデータベースから得られた第2の医用画像から抽出された複数の第2の解剖学的ランドマークのうちどの解剖学的ランドマークに対応するかを特定し、前記複数の第1の解剖学的ランドマークそれぞれについて、前記第1の原点を基準とした前記第1の解剖学的ランドマークの相対座標である第1の相対座標と、前記第2の原点を基準とした前記対応する第2の解剖学的ランドマークの相対座標である第2の相対座標とに基づいて、前記第1の相対座標と、前記第2の相対座標との距離の差が大きくなるほど小さくなるように定められた値である第1の値を、解剖学的ランドマークの種別または撮影時における被検体の体位に応じて定められた重みを用いて算出し、算出した前記第1の値を前記複数の第1の解剖学的ランドマークについて平均することにより第2の値を算出する。制御部は、前記第2の値を表示部に表示させる。 The image processing apparatus according to the embodiment includes a calculation unit and a control unit. The calculation unit , based on the anatomical landmark for specifying the origin of the medical image , calculates the first origin that is the origin of the first medical image and the second medical image that is obtained from the predetermined database. The second origin, which is the origin, is specified, and each of the plurality of first anatomical landmarks extracted from the first medical image is extracted from the second medical image obtained from the predetermined database. Which of the plurality of second anatomical landmarks corresponds to which anatomical landmark is identified, and the first origin is used as a reference for each of the plurality of first anatomical landmarks. First relative coordinates, which are relative coordinates of the first anatomical landmark, and second relative coordinates, which are relative coordinates of the corresponding second anatomical landmark based on the second origin. Based on A first value, which is a value determined to decrease as the difference in distance between the first relative coordinate and the second relative coordinate increases, is set to the type of anatomical landmark or the object at the time of imaging. A second value is calculated by using a weight determined according to the body position of the sample and averaging the calculated first value for the plurality of first anatomical landmarks . The control unit causes the display unit to display the second value .

図1は、第1の実施形態に係る画像処理装置及び当該画像処理装置が設置される医用情報管理システムの構成例である。FIG. 1 is a configuration example of an image processing apparatus according to the first embodiment and a medical information management system in which the image processing apparatus is installed. 図2は、第1の実施形態に係る画像処理装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the arrangement of the image processing apparatus according to the first embodiment. 図3は、第1の実施形態に係る画像処理装置の行う処理の手順を示したフローチャートである。FIG. 3 is a flowchart showing a procedure of processing performed by the image processing apparatus according to the first embodiment. 図4は、第1の実施形態に係る画像処理装置の行う処理の手順を示したフローチャートである。FIG. 4 is a flowchart showing a procedure of processing performed by the image processing apparatus according to the first embodiment. 図5は、第1の実施形態に係る画像処理装置の行う処理を説明した図である。FIG. 5 is a diagram illustrating processing performed by the image processing apparatus according to the first embodiment. 図6は、第1の実施形態に係る画像処理装置の行う処理を説明した図である。FIG. 6 is a diagram illustrating a process performed by the image processing apparatus according to the first embodiment. 図7は、第1の実施形態に係る画像処理装置の行う処理を説明した図である。FIG. 7 is a diagram illustrating processing performed by the image processing apparatus according to the first embodiment. 図8は、第1の実施形態に係る画像処理装置の行う処理を説明した図である。FIG. 8 is a diagram illustrating processing performed by the image processing apparatus according to the first embodiment. 図9は、第1の実施形態に係る画像処理装置の行う処理を説明した図である。FIG. 9 is a diagram illustrating processing performed by the image processing apparatus according to the first embodiment. 図10は、第1の実施形態に係る画像処理装置の行う処理を説明した図である。FIG. 10 is a diagram illustrating processing performed by the image processing apparatus according to the first embodiment. 図11は、第1の実施形態の第1の変形例に係る画像処理装置の行う処理の手順を示したフローチャートである。FIG. 11 is a flowchart showing a procedure of processing performed by the image processing apparatus according to the first modification of the first embodiment. 図12は、第1の実施形態の第1の変形例に係る画像処理装置の行う処理について説明した図である。FIG. 12 is a diagram illustrating a process performed by the image processing device according to the first modification of the first embodiment. 図13は、実施形態に係る画像処理装置のハードウェア構成を示す図である。FIG. 13 is a diagram showing a hardware configuration of the image processing apparatus according to the embodiment.

以下、添付図面を用いて、実施形態に係る画像処理装置及び医用情報管理システムを詳細に説明する。   Hereinafter, an image processing apparatus and a medical information management system according to embodiments will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1及び図2を用いて、第1の実施形態に係る画像処理装置を含む全体構成について説明する。図1は、第1の実施形態に係る画像処理装置及び当該画像処理装置が接続される装置の構成を示すブロック図である。図2は、第1の実施形態に係る画像処理装置の構成を示すブロック図である。
(First embodiment)
The overall configuration including the image processing apparatus according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment and an apparatus to which the image processing apparatus is connected. FIG. 2 is a block diagram showing the arrangement of the image processing apparatus according to the first embodiment.

画像処理装置100は、必要に応じてモダリティ装置200、記憶装置220、患者情報データベース230、画像データベース240、表示装置250とネットワークを通じて接続され、医用情報管理システムを構成する。ここで、医用情報管理システムの構成としては、モダリティ装置200、記憶装置220、患者情報データベース230、画像データベース240、表示装置250が含まれてもよいし、含まれなくても良い。ここで、ネットワークの一例としては例えば院内LAN(Local Area Network)である。また、ネットワークの別の例としてはインターネットである。   The image processing device 100 is connected to the modality device 200, the storage device 220, the patient information database 230, the image database 240, and the display device 250 via a network as necessary, and constitutes a medical information management system. Here, the configuration of the medical information management system may or may not include the modality device 200, the storage device 220, the patient information database 230, the image database 240, and the display device 250. Here, an example of the network is an in-hospital LAN (Local Area Network), for example. The Internet is another example of the network.

モダリティ装置200は、医療用のモダリティ装置であり、例えば被検体を撮影することにより検査を行う。ここでモダリティとは例えば医療用の機器およびこれに関連する機器や付属品などの総称である。モダリティ装置200の例としては、例えばX線CT装置、磁気共鳴イメージング装置、核医学診断装置、PET(Positron Emission Tomography)装置等が挙げられる。   The modality device 200 is a medical modality device, and performs an inspection by, for example, imaging a subject. Here, the modality is a generic term for, for example, medical devices and related devices and accessories. Examples of the modality apparatus 200 include, for example, an X-ray CT apparatus, a magnetic resonance imaging apparatus, a nuclear medicine diagnostic apparatus, a PET (Positron Emission Tomography) apparatus, and the like.

記憶装置220は、モダリティ装置200が被検体に対して撮影を行うことにより取得したデータ、たとえば画像データを、記憶する記憶装置である。記憶装置220は、撮影条件など、種々のデータを、記憶する。患者情報データベース230は、患者名、患者ID、生年月日、予約時間等の様々なデータを記憶する情報データベースである。また、画像データベース240は、患者情報データベース230に記憶された患者名に対応づけられて、種々の医用画像を蓄積する情報データベースである。   The storage device 220 is a storage device that stores data, such as image data, acquired by the modality device 200 taking an image of a subject. The storage device 220 stores various data such as shooting conditions. The patient information database 230 is an information database that stores various data such as patient name, patient ID, date of birth, and appointment time. The image database 240 is an information database that stores various medical images in association with the patient name stored in the patient information database 230.

ここで、患者情報データベース230の記憶する患者の範囲は、例えばモダリティ装置200が設置されている医療機関を訪れたことのある患者に限られず、例えば全国の複数の医療機関のうちいずれかの医療機関を訪れたことのある患者であってもよい。同様に、画像データベース240の記憶する医用画像の範囲は、例えばモダリティ装置200が設置されている医療機関を訪れたことのある患者の医用画像に限られず、例えば全国の複数の医療機関のうちいずれかの医療機関を訪れたことのある患者の医用画像であってもよい。また、患者情報データベース230及び画像データベース240は、例えばモダリティ装置200が設置されている医療機関内に設置されてもよく、また、当該医療機関の外部にあるサーバーにより構成されていてもよい。   Here, the range of patients stored in the patient information database 230 is not limited to, for example, patients who have visited a medical institution in which the modality device 200 is installed. It may be a patient who has visited the institution. Similarly, the range of the medical image stored in the image database 240 is not limited to the medical image of the patient who has visited the medical institution where the modality device 200 is installed, for example, any one of a plurality of medical institutions nationwide. It may be a medical image of a patient who has visited such a medical institution. Further, the patient information database 230 and the image database 240 may be installed, for example, in a medical institution where the modality device 200 is installed, or may be configured by a server outside the medical institution.

記憶装置220、患者情報データベース230、画像データベース240は、例えばRAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。   The storage device 220, the patient information database 230, and the image database 240 are, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like.

表示装置250は、画像処理装置100における処理回路150による制御のもと、画像データ等の各種の情報を表示する表示装置である。表示装置250は、例えば、液晶表示器等の表示デバイスである。   The display device 250 is a display device that displays various information such as image data under the control of the processing circuit 150 in the image processing device 100. The display device 250 is, for example, a display device such as a liquid crystal display.

画像処理装置100は、モダリティ装置200で行われた被検体の撮影に基づいて生成され、必要に応じて記憶装置220に記憶された医用画像を基に、所定の処理を行う装置である。画像処理装置100の全体構成が、図2に示されている。   The image processing apparatus 100 is an apparatus that performs a predetermined process based on a medical image generated based on the imaging of the subject performed by the modality apparatus 200 and stored in the storage device 220 as necessary. The overall configuration of the image processing apparatus 100 is shown in FIG.

画像処理装置100は、処理回路150、記憶回路132、入力装置134、表示装置135を備える。また、処理回路120は、検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eを有する。これらの検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eの各機能の詳細については、後述する。   The image processing apparatus 100 includes a processing circuit 150, a storage circuit 132, an input device 134, and a display device 135. The processing circuit 120 also has a search function 150a, an extraction function 150b, a calculation function 150c, a correction function 150d, and a control function 150e. Details of each of the search function 150a, the extraction function 150b, the calculation function 150c, the correction function 150d, and the control function 150e will be described later.

第1の実施形態では、検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eにて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路132へ記憶されている。処理回路150はプログラムを記憶回路132から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読みだした状態の処理回路150は、図2の処理回路150内に示された各機能を有することになる。なお、図2においては単一の処理回路150にて、検索機能150a、抽出機能150b、算出機能150c、補正機能150d及び制御機能150eにて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路150を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。   In the first embodiment, each processing function performed by the search function 150a, the extraction function 150b, the calculation function 150c, the correction function 150d, and the control function 150e is stored in the storage circuit 132 in the form of a computer-executable program. ing. The processing circuit 150 is a processor that realizes a function corresponding to each program by reading the program from the storage circuit 132 and executing the program. In other words, the processing circuit 150 in a state where each program is read out has each function shown in the processing circuit 150 of FIG. In FIG. 2, the single processing circuit 150 has been described as realizing the processing functions of the search function 150a, the extraction function 150b, the calculation function 150c, the correction function 150d, and the control function 150e. The processing circuit 150 may be configured by combining a plurality of independent processors, and each processor may implement a function by executing a program.

換言すると、上述のそれぞれの機能がプログラムとして構成され、1つの処理回路が各プログラムを実行する場合であってもよいし、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。   In other words, each function described above may be configured as a program, and one processing circuit may execute each program, or a specific function may be implemented in a dedicated independent program execution circuit. May be.

なお、処理回路150の有する算出機能150c及び補正機能150dは、算出部の一例である。また、表示装置135又は表示装置250は、表示部の一例である。処理回路150の有する制御機能150eは、制御部の一例である。また、入力装置134は、入力部の一例である。また、処理回路150の有する抽出機能150bは、抽出部の一例である。   The calculation function 150c and the correction function 150d included in the processing circuit 150 are an example of a calculation unit. The display device 135 or the display device 250 is an example of a display unit. The control function 150e included in the processing circuit 150 is an example of a control unit. The input device 134 is an example of an input unit. The extraction function 150b included in the processing circuit 150 is an example of an extraction unit.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路132に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。   The word "processor" used in the above description is, for example, a CPU (Central Processing Unit), a GPU (Graphical Processing Unit), or an application-specific integrated circuit (ASIC), a programmable logic device (for example, simple logic device). Programmable logic device (SPLD), complex programmable logic device (Complex Programmable Logic Device: CPLD), field programmable gate array (Field Programmable Gate Array: FPGA), and the like. Means. The processor realizes the function by reading and executing the program stored in the storage circuit 132. Instead of storing the program in the memory circuit 132, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit.

記憶回路132は、画像処理装置100が行う種々の処理に伴うデータ等を必要に応じて記憶する。例えば、記憶回路132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。また、処理回路150内の記憶回路132が行う処理は、画像処理装置100外の記憶装置220で代替されてもよい。   The storage circuit 132 stores data and the like associated with various processes performed by the image processing apparatus 100 as needed. For example, the storage circuit 132 is a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. Further, the processing performed by the storage circuit 132 in the processing circuit 150 may be replaced by the storage device 220 outside the image processing apparatus 100.

入力装置134は、操作者からの各種指示や情報入力を受け付ける。入力装置134は、例えば、マウスやトラックボール等のポインティングデバイス、あるいはキーボード等の入力デバイスである。   The input device 134 receives various instructions and information inputs from the operator. The input device 134 is, for example, a pointing device such as a mouse or a trackball, or an input device such as a keyboard.

表示装置135は、処理回路150における制御機能150eによる制御のもと、画像データ等の各種の情報を表示する。表示装置135は、例えば、液晶表示器等の表示デバイスである。処理回路150内の表示装置135が行う処理は、画像処理装置100外の表示装置250で代替されてもよい。   The display device 135 displays various information such as image data under the control of the control function 150e in the processing circuit 150. The display device 135 is, for example, a display device such as a liquid crystal display. The processing performed by the display device 135 in the processing circuit 150 may be replaced by the display device 250 outside the image processing device 100.

続いて、図3〜図10を用いて、第1の実施形態に係る画像処理装置100の行う処理について説明する。図3、4は、第1の実施形態に係る画像処理装置の行う処理の手順を示したフローチャートである。より具体的には、図3は、全体の処理の流れを説明したフローチャートである。また、図4は、図3のステップS140の処理を詳しく説明したフローチャートである。また、図5〜10は、第1の実施形態に係る画像処理装置の行う処理の手順を説明した図である。   Subsequently, processing performed by the image processing apparatus 100 according to the first embodiment will be described with reference to FIGS. 3 to 10. 3 and 4 are flowcharts showing the procedure of processing performed by the image processing apparatus according to the first embodiment. More specifically, FIG. 3 is a flowchart illustrating the flow of the entire processing. Further, FIG. 4 is a flowchart illustrating in detail the process of step S140 of FIG. In addition, FIGS. 5 to 10 are diagrams illustrating a procedure of processing performed by the image processing apparatus according to the first embodiment.

図3において、画像処理装置100に含まれる入力装置134は、個人を特定するための情報の入力を受け付ける(ステップS100)。ステップS100の処理について、図5を参照しながら説明する。   In FIG. 3, the input device 134 included in the image processing apparatus 100 receives an input of information for identifying an individual (step S100). The process of step S100 will be described with reference to FIG.

入力装置134は、第1の医用画像に係る被検体を個人として特定する手がかりとなる情報の入力を受け付ける。ここで、第1の医用画像とは、特定の対象となる被検体に関する医用画像であり、例えば当該被検体をモダリティ装置200を用いて撮影することにより生成された医用画像である。第1の医用画像は、例えば、認知症の患者が医療機関を訪れたとき、当該医療機関に備えられたモダリティ装置200を用いて当該認知症の患者を撮影した場合における医用画像である。また、別の例として、第1の医用画像は、例えば、意識不明の状態の患者が救急で医療機関に運ばれてきたとき、当該医療機関に備えられたモダリティ装置200を用いて当該救急の患者を撮影した場合における医用画像である。   The input device 134 receives an input of information serving as a clue for identifying the subject relating to the first medical image as an individual. Here, the first medical image is a medical image related to a specific target subject, and is, for example, a medical image generated by imaging the subject using the modality device 200. The first medical image is, for example, a medical image when a patient with dementia visits a medical institution and the modality device 200 provided in the medical institution is used to image the patient with the dementia. Further, as another example, when the patient in an unconscious state is brought to a medical institution by an emergency, the first medical image may be displayed by using the modality device 200 provided in the medical institution. It is a medical image when a patient is photographed.

また、個人として特定する手がかりとなる情報とは、例えば氏名、住所、電話番号、保険証の番号情報等である。手がかりとなる情報としては、単体で被検体を特定することが可能な情報であってもよいし、当該情報のみでは被検体を特定することが難しい情報であってもよい。すなわち、これらの情報は、不完全な情報、断片的な情報であってもよい。   In addition, the information serving as a clue to identify the individual is, for example, name, address, telephone number, insurance card number information, and the like. The information serving as a clue may be information that can identify the subject by itself, or may be information that is difficult to identify the subject only with the information. That is, these pieces of information may be incomplete information or fragmentary information.

ここで、情報単体では被検体を特定することが難しい情報の第1の例としては、例えば、カナ氏名やローマ字氏名が挙げられる。例えば、カナ氏名が「トッキョ タロウ」であった場合、「タロウ」が、「太郎」を表すか、あるいは「太朗」であるのかが明確ではないため、完全に被検体を特定することができない場合もある。また、例えば、ローマ字氏名が「TOKKYO TARO」であることが判明したような場合も同様である。しかしながら、例えば、認知症の患者から、氏名が「トッキョ タロウ」である旨の情報を聞き出せた場合、あるいは、意識不明の患者で、持ち物のクレジットカードの記名が「TOKKYO TARO」であることが判明したような場合、入力装置134は、そのような不完全な情報を含めて情報の入力を受け付ける。これにより、何も情報がない場合に比較して、画像処理装置100は、被検体の特定の精度を向上させることができる。   Here, as a first example of information in which it is difficult to identify a subject with information alone, for example, the name of Kana or the name of Roman alphabet can be cited. For example, if Kana's name is "Tokkyo Taro", it is not clear whether "Taro" represents "Taro" or "Taro", so it is not possible to completely identify the subject. There is also. Further, for example, the case where it is found that the Roman alphabet name is "TOKYO TARO" is the same. However, for example, if a person with dementia can hear information that his / her name is “Tokkyo Taro”, or if he / she is unconscious and the credit card name of his / her belonging is “TOKKYO TARO”. When it becomes clear, the input device 134 accepts the input of information including such incomplete information. As a result, the image processing apparatus 100 can improve the accuracy of identifying the subject as compared with the case where there is no information.

また、別の例として、苗字のみが判明している場合、逆に名前のみが判明している場合、性別のみが判明している場合等においても、入力装置134は、そのような不完全な情報を含めて情報の入力を受け付ける。   In addition, as another example, even when only the family name is known, conversely only the name is known, or only the gender is known, the input device 134 does not perform such an incomplete operation. Accept input of information including information.

図5に、かかる情報の入力画面の一例が示されている。入力装置134は、ユーザに対して、例えば「患者情報を入力してください」というメッセージとともに、入力フィールドを表示する。当該メッセージを参照したユーザは、表示された入力フィールドに対して、例えばキーボードを用いて、第1の医用画像に係る被検体を個人として特定する手がかりとなる情報を入力する。入力装置134は、このような情報の入力を受け付ける。例えば、入力装置134は、被検体の氏名が「トッキョ タロウ」、被検体の性別が「男性」である旨の入力を受け付ける。ユーザは、必要な情報の入力を完了すると、例えば「検索」と表示されているボタンをクリックする。この時、入力装置134は、受け付けた入力内容を確定する。   FIG. 5 shows an example of the input screen for such information. The input device 134 displays the input field to the user, for example, with a message "Please enter patient information". The user who referred to the message inputs information, which is a clue for identifying the subject related to the first medical image as an individual, in the displayed input field by using, for example, a keyboard. The input device 134 receives input of such information. For example, the input device 134 receives an input indicating that the name of the subject is “Tokkyo Taro” and the gender of the subject is “male”. When the user completes the input of the necessary information, he / she clicks the button displaying "Search", for example. At this time, the input device 134 confirms the received input content.

次に、処理回路150は、第1の医用画像から、複数の第1の解剖学的ランドマークを抽出する(ステップS110)。ここで、第1の解剖学的ランドマークの例としては、例えば、骨の特徴部位を表す情報が挙げられる。また、第1の解剖学ランドマークの例としては、所定の臓器の所定部位を表す情報が挙げられる。また、第1の解剖学的ランドマークの例としては、血管の特定部位、例えば、血管の形態情報や、血管の狭窄状況を表す情報があげられる。   Next, the processing circuit 150 extracts a plurality of first anatomical landmarks from the first medical image (step S110). Here, as an example of the first anatomical landmark, there is, for example, information indicating a characteristic part of bone. Further, as an example of the first anatomical landmark, there is information indicating a predetermined part of a predetermined organ. In addition, examples of the first anatomical landmark include morphological information of a specific portion of the blood vessel, for example, blood vessel morphology information, and information indicating the stenosis status of the blood vessel.

処理回路150は、抽出機能150bにより、例えば第1の医用画像が3次元CT画像である場合、左眼球中心、右肺尖、大動脈弁等の予め定義された解剖学的位置を、所定の解剖学的ランドマーク抽出技術により抽出し、複数の第1の解剖学的ランドマークを生成する。   When the first medical image is a three-dimensional CT image, the processing circuit 150 uses the extraction function 150b to determine a predefined anatomical position such as the center of the left eyeball, the right apex of the lung, the aortic valve, etc. And extracting a plurality of first anatomical landmarks by using a geometric landmark extraction technique.

続いて、処理回路150は、抽出機能150bにより、ステップS100で入力装置134が入力を受け付けた、第1の医用画像に係る被検体を個人として特定する手がかりとなる情報に基づいて、所定のデータベース(患者情報データベース230及び画像データベース240)から、第2の医用画像を抽出する(ステップS120)。   Then, the processing circuit 150 uses the extraction function 150b to input a predetermined database to the predetermined database based on the information that the input device 134 has received in step S100 and serves as a clue for identifying the subject related to the first medical image as an individual. A second medical image is extracted from (patient information database 230 and image database 240) (step S120).

ここで、所定のデータベースは、例えば、複数の医療機関にわたって収集された医用画像を収集したデータベースである。かかるデータベースの一例が、図1に示す患者情報データベース230及び画像データベース240である。かかるデータベースには、例えば被検体の氏名などの情報と、当該被検体の撮影に係る医用画像とが、関連づけられて保存されている。   Here, the predetermined database is, for example, a database that collects medical images collected over a plurality of medical institutions. An example of such a database is the patient information database 230 and the image database 240 shown in FIG. In such a database, for example, information such as the name of the subject and the medical image related to the imaging of the subject are stored in association with each other.

処理回路150は、抽出機能150bにより、ステップS100で入力された情報をキーとして、後段の処理で第1の医用画像と比較する候補の医用画像である第2の医用画像を抽出する。ここで、第2の医用画像としては、例えばステップS100で入力された情報にもっともマッチする一つの医用画像が選ばれても良い。また、第2の医用画像としては、例えばステップS100で入力された情報にマッチする所定の数の医用画像が選ばれても良い。また、第2の医用画像としては、例えばステップS100で入力された情報との一致度aが所定の閾値を超える医用画像が選ばれても良い。   The processing circuit 150 uses the extraction function 150b to extract the second medical image, which is a candidate medical image to be compared with the first medical image in the subsequent process, using the information input in step S100 as a key. Here, as the second medical image, for example, one medical image that best matches the information input in step S100 may be selected. Further, as the second medical image, for example, a predetermined number of medical images that match the information input in step S100 may be selected. Further, as the second medical image, for example, a medical image whose degree of coincidence a with the information input in step S100 exceeds a predetermined threshold may be selected.

ステップS120で抽出される第2の医用画像が複数ある場合、ステップS130以降の処理は、例えば抽出された画像ごとに行われる。   When there are a plurality of second medical images extracted in step S120, the processing from step S130 is performed for each extracted image, for example.

続いて、処理回路150は、抽出機能150bにより、ステップS120において所定のデータベースから得られた第2の医用画像から、所定の解剖学的ランドマーク抽出技術により、複数の第2の解剖学的ランドマークを抽出する(ステップS130)。ステップS110の場合と同様に、第2の解剖学的ランドマークの例としては、例えば、骨の特徴部位を表す情報、所定の臓器の所定部位を表す情報、血管の特定部位、例えば、血管の形態情報や、血管の狭窄状況を表す情報が挙げられる。   Subsequently, the processing circuit 150 causes the extraction function 150b to extract a plurality of second anatomical landmarks from the second medical image obtained from the predetermined database in step S120 by a predetermined anatomical landmark extraction technique. The mark is extracted (step S130). Similar to the case of step S110, examples of the second anatomical landmark include, for example, information indicating a characteristic part of bone, information indicating a predetermined part of a predetermined organ, and a specific part of a blood vessel such as a blood vessel. Examples include morphological information and information indicating the stenosis status of blood vessels.

続いて、処理回路150は、算出機能150cにより、ステップS110において第1の医用画像から抽出された複数の第1の解剖学的ランドマークと、所定のデータベースから得られた第2の医用画像から、ステップS130において抽出された複数の第2の解剖学的ランドマークとの間の類似度を算出する(ステップS140)。   Subsequently, the processing circuit 150 uses the calculation function 150c to extract the plurality of first anatomical landmarks extracted from the first medical image in step S110 and the second medical image obtained from the predetermined database. , The degree of similarity with the plurality of second anatomical landmarks extracted in step S130 is calculated (step S140).

本ステップについては、図4のフローチャート及び図6〜8を用いて詳細に説明する。図4は、図3のステップS140の処理をより詳細に説明したフローチャートである。   This step will be described in detail with reference to the flowchart of FIG. 4 and FIGS. FIG. 4 is a flowchart illustrating the process of step S140 of FIG. 3 in more detail.

図6は、第1の医用画像から抽出された複数の第1の解剖学的ランドマーク、及び第2の医用画像から抽出された複数の第2の解剖学的ランドマークの例を表す。   FIG. 6 illustrates an example of the plurality of first anatomical landmarks extracted from the first medical image and the plurality of second anatomical landmarks extracted from the second medical image.

図6において、「対象New」は、新規患者のランドマーク、すなわち、第1の医用画像から抽出された複数の第1の解剖学的ランドマークを表す。これに対して、「対象Old」は、患者候補の既存の画像のランドマーク、すなわち第2の医用画像から抽出された複数の第2の解剖学的ランドマークを表す。   In FIG. 6, “target New” represents a landmark of a new patient, that is, a plurality of first anatomical landmarks extracted from the first medical image. On the other hand, the “target Old” represents the landmark of the existing image of the patient candidate, that is, the plurality of second anatomical landmarks extracted from the second medical image.

また、図6のそれぞれの行は、各解剖学的ランドマークを表す。例えば、複数の第1の解剖学的ランドマーク(又は複数の第2の解剖学的ランドマーク)の例として、例えば歯突起の上端(頸椎II)、右眼球上面、左眼球上面、右眼球中心、左眼球中心、及び第1頸椎(頸椎I)の前弓(結節)が挙げられる。   Also, each row in FIG. 6 represents each anatomical landmark. For example, as an example of the plurality of first anatomical landmarks (or the plurality of second anatomical landmarks), for example, the upper end of the dentition (cervical vertebra II), the upper surface of the right eye, the upper surface of the left eye, the center of the right eye , The center of the left eyeball, and the anterior arch (nodule) of the first cervical spine (cervical spine I).

また、図6のそれぞれの行の「z」「x」「y」は、それぞれの解剖学的ランドマークの、z座標の位置、x座標の位置、y座標の位置を表す。例えば、第1の医用画像から抽出された解剖学的ランドマーク「歯突起の上端(頸椎II)」のz座標の位置は37、x座標の位置は−8、y座標の位置は18となる。また、例えば第2の医用画像から抽出された解剖学的ランドマーク「第1頸椎(頸椎I)の前弓(結節)」のz座標の位置は14、x座標の位置は−5、y座標の位置は2となる。   Further, “z”, “x”, and “y” in each row of FIG. 6 represent the position of z coordinate, the position of x coordinate, and the position of y coordinate of each anatomical landmark. For example, the position of the z coordinate of the anatomical landmark “upper end of the tooth (cervical vertebra II)” extracted from the first medical image is 37, the position of the x coordinate is −8, and the position of the y coordinate is 18. . Further, for example, the z coordinate position of the anatomical landmark “anterior arch (nodule) of the first cervical vertebra (cervical spine I)” extracted from the second medical image is 14, the x coordinate position is −5, and the y coordinate is The position of is 2.

処理回路150は、複数の第1のランドマークそれぞれが、複数の第2の解剖学的ランドマークのうちどの解剖学的ランドマークに対応するかを特定する(ステップS141)。例えば、図6の例では、第1の医用画像において、z座標の位置が37、x座標の位置が−8、y座標の位置が18である解剖学的ランドマークは「歯突起の上端(頸椎II)」であると特定されている。また、第2の医用画像において、z座標の位置が35、x座標の位置が−10、y座標の値が19である解剖学的ランドマークは「歯突起の上端(頸椎II)」であると特定されている。従って、処理回路150は、これらの情報をもとに、第1の医用画像における、z座標の位置が37、x座標の位置が−8、y座標の位置が18である解剖学的ランドマークが、第2の医用画像において、z座標の位置が35、z座標の位置が−10、y座標の値が19である解剖学的ランドマークに対応すると特定する。処理回路150は、その他の解剖学的ランドマークに対しても、同様の処理を行う。   The processing circuit 150 identifies which anatomical landmark of the plurality of second anatomical landmarks each of the plurality of first landmarks corresponds to (step S141). For example, in the example of FIG. 6, in the first medical image, the anatomical landmark whose z-coordinate position is 37, x-coordinate position is −8, and y-coordinate position is 18 is “upper end of tooth projection ( Cervical vertebra II) ". Further, in the second medical image, the anatomical landmark whose z coordinate position is 35, x coordinate position is −10, and y coordinate value is 19 is “upper end of dentition (cervical vertebra II)”. Is specified. Therefore, based on these pieces of information, the processing circuit 150 determines the anatomical landmark whose z coordinate position is 37, x coordinate position is -8, and y coordinate position is 18 in the first medical image. However, in the second medical image, it corresponds to an anatomical landmark whose z coordinate position is 35, z coordinate position is −10, and y coordinate value is 19. The processing circuit 150 performs the same processing for other anatomical landmarks.

続いて、処理回路150は、算出機能150cにより、医用画像における原点を特定する。具体的には、処理回路150は、算出機能150cにより、第1の医用画像における原点である第1の原点を特定する。また、処理回路150は、算出機能150cにより、第2の医用画像における原点である第2の原点を特定する(ステップS142)。   Subsequently, the processing circuit 150 uses the calculation function 150c to identify the origin in the medical image. Specifically, the processing circuit 150 uses the calculation function 150c to identify the first origin, which is the origin in the first medical image. Further, the processing circuit 150 uses the calculation function 150c to identify the second origin, which is the origin in the second medical image (step S142).

かかる例が、図7に示されている。図7の例では、処理回路150は、算出機能150cにより、第一頸椎(脊椎I)の前弓(結節)を、第1の医用画像における原点である第1の原点として特定する。また、処理回路150は、算出機能150cにより、第一頸椎(脊椎I)の前弓(結節)を、第2の医用画像における原点である第2の原点として特定する。   Such an example is shown in FIG. In the example of FIG. 7, the processing circuit 150 uses the calculation function 150c to specify the anterior arch (nodule) of the first cervical spine (spine I) as the first origin that is the origin in the first medical image. In addition, the processing circuit 150 uses the calculation function 150c to identify the anterior arch (nodule) of the first cervical spine (spine I) as the second origin that is the origin in the second medical image.

ここで、処理回路150が原点として特定する解剖学的ランドマークは、例えば、第1の医用画像及び第2の医用画像に共有して含まれるランドマークのうち、最も上方に位置するランドマークである。   Here, the anatomical landmark specified as the origin by the processing circuit 150 is, for example, the landmark located at the uppermost position among the landmarks shared by the first medical image and the second medical image. is there.

続いて、処理回路150は、算出機能150cにより、第1の原点を基準とした第1の解剖学的ランドマークの相対座標である第1の相対座標を算出する。また、処理回路150は、第2の原点を基準とした、当該対応する解剖学的ランドマークの相対座標である第2の相対座標を算出する(ステップS143)。   Subsequently, the processing circuit 150 uses the calculation function 150c to calculate the first relative coordinates that are the relative coordinates of the first anatomical landmark with respect to the first origin. In addition, the processing circuit 150 calculates the second relative coordinates that are the relative coordinates of the corresponding anatomical landmark with respect to the second origin (step S143).

例えば、図7において、処理回路150は、算出機能150cにより、解剖学的ランドマーク「歯突起の上端(頸椎II)」について、第1の原点「第1頸椎(頸椎I)の前弓(結節)」を基準とした第1の相対座標を、z座標については、37−15=22、x座標については、−8−1=−9、y座標については、18−3=15と算出する。また、処理回路150は、算出機能150cにより、解剖学的ランドマーク「歯突起の上端(頸椎I)」について、第2の原点「第1頸椎(頸椎I)の前弓(結節)」を基準とした第2の相対座標を、z座標については、35−14=21、x座標については、−10−(−5)=−5、y座標については、19−2=17と算出する。   For example, in FIG. 7, the processing circuit 150 uses the calculation function 150c to determine the anterior arch (nodule) of the first origin “first cervical vertebra (cervical vertebra I)” for the anatomical landmark “upper end of dentition (cervical vertebra II)”. ) ”As a reference, the first relative coordinate is calculated as 37−15 = 22 for the z coordinate, −8−1 = −9 for the x coordinate, and 18−3 = 15 for the y coordinate. . In addition, the processing circuit 150 uses the calculation function 150c as a reference with respect to the anatomical landmark “upper end of dentition (cervical vertebra I)” based on the second origin “anterior arch (nodule) of the first cervical vertebra (cervical vertebra I)”. The second relative coordinate is calculated as 35-14 = 21 for the z coordinate, −10 − (− 5) = − 5 for the x coordinate, and 19−2 = 17 for the y coordinate.

続いて、処理回路150は、算出機能150cにより、同一の解剖学的ランドマーク間の距離を算出する。ここで、同一の解剖学的ランドマーク間の距離とは、例えば、3次元空間上のユークリッドノルムにより導入された距離である。実施形態はこれに限られず、例えばLノルムにより導入された距離など、その他の種類の距離を用いて、処理回路150は、算出機能150cにより、同一の解剖学的ランドマーク間の距離を算出してもよい。 Subsequently, the processing circuit 150 calculates the distance between the same anatomical landmarks by the calculation function 150c. Here, the distance between the same anatomical landmarks is, for example, the distance introduced by the Euclidean norm in the three-dimensional space. The embodiment is not limited to this, and the processing circuit 150 uses the calculation function 150c to calculate the distance between the same anatomical landmarks by using another type of distance, for example, the distance introduced by the L 1 norm. You may.

かかる距離の算出の一例が、図8に示されている。例えば、図8において、解剖学的ランドマーク「歯突起の上端(頸椎II)」に対して、同一の解剖学的ランドマーク間の距離は、sqrt((22−21)^2+(−9−(−5))^2+(15−17)^2)=4.58となる。また、解剖学的ランドマーク「右眼球上面」に対して、同一の解剖学的ランドマーク間の距離は、sqrt((70−73)^2+(19−26)^2+(9−10)^2)=7.68となる。   An example of the calculation of such a distance is shown in FIG. For example, in FIG. 8, the distance between the same anatomical landmarks with respect to the anatomical landmark "upper end of dentition (cervical vertebra II)" is sqrt ((22-21) ^ 2 + (-9- (-5)) ^ 2+ (15-17) ^ 2) = 4.58. Also, the distance between the same anatomical landmarks with respect to the anatomical landmark “upper surface of the right eye” is sqrt ((70−73) ^ 2 + (19−26) ^ 2 + (9−10) ^ 2) = 7.68.

続いて、処理回路150は、算出機能150cにより、複数の第1の解剖学的ランドマークそれぞれに対して、対応する解剖学的ランドマークとの一致度aを算出する(ステップS144)。   Subsequently, the processing circuit 150 uses the calculation function 150c to calculate, for each of the plurality of first anatomical landmarks, the degree of coincidence a with the corresponding anatomical landmark (step S144).

ここで、一致度aは、例えば、第1の相対座標と、第2の相対座標との差が大きくなるほど小さくなるように定められた値である。また、一致度aは、第1の相対座標と、第2の相対座標との差が0である場合に1になるように定められ、第1の相対座標と、第2の相対座標との差の絶対値が無限大である極限で0になるように定められた値である。   Here, the degree of coincidence a is, for example, a value determined so as to decrease as the difference between the first relative coordinate and the second relative coordinate increases. The degree of coincidence a is determined to be 1 when the difference between the first relative coordinate and the second relative coordinate is 0, and the degree of coincidence a between the first relative coordinate and the second relative coordinate is determined. It is a value determined so as to be 0 in the limit where the absolute value of the difference is infinite.

一致度aの具体的な表式としては、ステップS144で算出された距離をxとして、例えば、a=1/(1+x)で与えられる。換言すると、一致度aは、第1の相対座標と第2の相対座標との間の距離xに1を足し、逆数を取った値として定められた値である。   As a concrete expression of the degree of coincidence a, for example, a = 1 / (1 + x) is given, where x is the distance calculated in step S144. In other words, the degree of coincidence a is a value determined as a value obtained by adding 1 to the distance x between the first relative coordinate and the second relative coordinate and taking the reciprocal.

すなわち、この時、距離xが0の時、一致度aは1となる。また、距離xが0から増加するに従って、一致度aは単調に減少する。また、距離xが無限大である極限で、一致度aは0になる。従って、一致度aは、0より大きく1以下の実数となる。   That is, at this time, when the distance x is 0, the degree of coincidence a is 1. Also, as the distance x increases from 0, the degree of coincidence a decreases monotonically. Further, the degree of coincidence a becomes 0 in the limit where the distance x is infinite. Therefore, the degree of coincidence a is a real number greater than 0 and less than or equal to 1.

図8に、このように算出された、解剖学的ランドマークの一例が示されている。例えば、解剖学的ランドマーク「歯突起の上端(頸椎II)」については、距離xが4.58であるので、一致度aは、a=1/(1+4.58)=0.18となる。また、解剖学的ランドマーク「右眼球上面」については、距離xが7.68であるので、一致度aは、a=1/(1+7.68)=0.12となる。   FIG. 8 shows an example of the anatomical landmarks calculated in this way. For example, with respect to the anatomical landmark “upper end of dentition (cervical vertebra II)”, the distance x is 4.58, so the degree of coincidence a is a = 1 / (1 + 4.58) = 0.18. . Further, for the anatomical landmark “upper surface of the right eyeball”, the distance x is 7.68, and thus the degree of coincidence a is a = 1 / (1 + 7.68) = 0.12.

続いて、処理回路150は、算出機能150cにより、ステップS145において算出された一致度に基づいて、複数の第1の解剖学的ランドマークと、複数の第2の解剖学的ランドマークとの間の類似度を算出する(ステップS146)。   Subsequently, the processing circuit 150 causes the calculation function 150c to determine whether the plurality of first anatomical landmarks and the plurality of second anatomical landmarks are present on the basis of the degree of coincidence calculated in step S145. Is calculated (step S146).

一例として、処理回路150は、全ランドマークの一致度の平均を計算し、計算した平均値を、類似度として算出する。例えば、図8の例では、各解剖学的ランドマークの一致度は、歯突起の上端(頸椎II)については、0.18、右眼球上面については0.12、左眼球上面については0.11、右眼球中心については0.14、左眼球中心については0.12、第1頸椎(頸椎I)の前弓(結節)については1.00であるので、全ランドマークの一致度の平均は、(0.18+0.12+0.11+0.14+0.12+1.00)/6=0.28となる。このようにして、ステップS140の操作が完了する。   As an example, the processing circuit 150 calculates the average of the degrees of coincidence of all landmarks, and calculates the calculated average value as the degree of similarity. For example, in the example of FIG. 8, the degree of coincidence of each anatomical landmark is 0.18 for the upper end of the dentition (cervical vertebra II), 0.12 for the upper surface of the right eye, and 0. 11, 0.14 for the center of the right eyeball, 0.12 for the center of the left eyeball, and 1.00 for the anterior arch (nodule) of the first cervical vertebra (cervical vertebra I), so the average degree of coincidence of all landmarks Is (0.18 + 0.12 + 0.11 + 0.14 + 0.12 + 1.00) /6=0.28. In this way, the operation of step S140 is completed.

図3に戻り、処理回路150は、制御機能150eにより、ステップS140(すなわち、図4のステップS141〜ステップS146)において算出された算出結果に基づいて得られた情報を表示装置250(又は表示装置135)に表示させる。   Returning to FIG. 3, the processing circuit 150 causes the control function 150e to display the information obtained based on the calculation result calculated in step S140 (that is, step S141 to step S146 in FIG. 4) in the display device 250 (or the display device). 135).

かかる状況の例が、図9に示されている。例えば、処理回路150は、制御機能150eにより、表示装置250に、第2の医用画像が撮影された医療機関名、患者ID、患者氏名、及びステップS146において算出した類似度(一致度)の値をリスト形式で表示する。   An example of such a situation is shown in FIG. For example, the processing circuit 150 uses the control function 150e to display on the display device 250 the name of the medical institution where the second medical image was taken, the patient ID, the patient name, and the value of the degree of similarity (degree of coincidence) calculated in step S146. Are displayed in a list format.

図9の例では、第1の医用画像が、患者氏名「トッキョ タロウ」、患者IDが「emergency0101」に係る医用画像である場合を示している。この時、処理回路150は、例えば、類似度(一致度)が大きい順に、第2の医用画像に係るデータを表示装置250に表示させる。例えば、患者氏名が「特許太朗」、患者IDが「CBA2548」、医療機関名(施設)が「○○クリニック」のデータが、類似度(一致度)が0.65であり類似度が最も大きいので、処理回路150は、一番上に表示させる。続いて、例えば、患者氏名が「特許太郎」、患者IDが「ABC1563」、医療機関名(施設)が、「△△病院」のデータが、類似度(一致度)が0.28であり類似度が2番目に大きいので、処理回路150は、二番目に表示させる。続いて、処理回路150は、その他のデータを、表示させる。   The example of FIG. 9 shows a case where the first medical image is a medical image associated with the patient name “Tokkyo Taro” and the patient ID “emergency0101”. At this time, the processing circuit 150 causes the display device 250 to display the data related to the second medical image, for example, in descending order of similarity (coincidence). For example, the data with the patient name “Patent Taro”, the patient ID “CBA2548”, and the medical institution name (facility) “Clinic” has a similarity (coincidence) of 0.65 and the highest similarity. Therefore, the processing circuit 150 displays it on the top. Next, for example, the data of the patient name is “Taro Tokkyo”, the patient ID is “ABC1563”, the medical institution name (facility) is “ΔΔ hospital”, and the similarity (coincidence) is 0.28. Since the degree is the second highest, the processing circuit 150 causes the second display. Then, the processing circuit 150 displays other data.

ここで、処理回路150は、類似度の値が大きいか小さいかに応じて、カラーを変えて表示させてもよい。例えば、処理回路150は、類似度の閾値を0.1として、類似度の閾値を超えた、上から一番目と二番目のデータを、上から三番目及び四番目のデータと異なるカラーで表示させることにより、類似度が閾値を超えたデータを視覚的に目立たせても良い。   Here, the processing circuit 150 may change and display the color depending on whether the value of the similarity is large or small. For example, the processing circuit 150 sets the threshold value of the similarity to 0.1 and displays the first and second data from the top, which exceeds the threshold of the similarity, in a color different from that of the third and fourth data from the top. By doing so, the data whose degree of similarity exceeds the threshold value may be visually highlighted.

また、処理回路150は、制御機能150eにより、ステップS140(図4のステップS141〜ステップS146)において算出された算出結果に基づいて得られた情報に併せて、または当該情報に代えて、複数の第1の解剖学的ランドマークを表す情報及び複数の第2の解剖学的ランドマークを表す情報のうち少なくとも一方を、表示装置250又は表示装置135に表示させてもよい。   In addition, the processing circuit 150 uses the control function 150e to combine a plurality of pieces of information with the information obtained based on the calculation result calculated in step S140 (steps S141 to S146 of FIG. 4) or in place of the information. At least one of the information representing the first anatomical landmark and the information representing the plurality of second anatomical landmarks may be displayed on the display device 250 or the display device 135.

この時、処理回路150が表示装置250又は表示装置135に表示させる、複数の第1(又は第2)の解剖学的ランドマークを表す情報の例としては、例えば、図8に示されているような、ランドマークごとの一致度であってもよい。また、当該情報の別の例としては、例えば、図8に示されているような、ランドマークごとの距離であってもよい。   At this time, an example of information indicating a plurality of first (or second) anatomical landmarks displayed by the processing circuit 150 on the display device 250 or the display device 135 is shown in FIG. 8, for example. The degree of coincidence for each landmark may be the same. Further, as another example of the information, for example, the distance for each landmark as shown in FIG. 8 may be used.

また、別の例として、処理回路150は、表示装置250又は表示装置135に、人体の3D画像や投影図(MIP:Maximum intensity projectionなど)とランドマークの位置を示した画像を表示してもよい。図10に、かかる状況が示されている。   Further, as another example, the processing circuit 150 may display a 3D image of a human body or a projection view (MIP: Maximum intensity projection, etc.) and an image showing the position of a landmark on the display device 250 or the display device 135. Good. This situation is shown in FIG.

図10の左端の図は、第1の医用画像に係る情報を示している。すなわち、処理回路150は、患者ID:emergency0101、患者氏名:トッキョタロウの医用画像である第1の医用画像を、ランドマークの位置を示した記号に重ね合わせて表示させる。図10の左端において、星印それぞれは第1の医用画像における解剖学的ランドマークを示している。   The diagram on the left end of FIG. 10 shows information related to the first medical image. That is, the processing circuit 150 displays the first medical image, which is a medical image of the patient ID: emergency0101 and the patient name: Tokkyotaro, on the symbol indicating the position of the landmark. At the left end of FIG. 10, each asterisk indicates an anatomical landmark in the first medical image.

図10の中央の図及び右端の図は、第2の医用情報に係る情報を示している。すなわち、処理回路150は、患者ID:ABC1563、患者氏名:特許太郎の医用画像である第2の医用画像、及び、患者ID:CBA2548、患者氏名:特許太朗の医用画像である第2の医用画像を、それぞれ解剖学的ランドマークの位置を示した記号に重ね合わせて表示させる。図10の中央、右端の図において、星印それぞれは第2の医用画像における解剖学的ランドマークを示している。また、処理回路150は、類似度(一致度)をあわせて表示させる。この結果、例えば、患者氏名:特許太郎に係る医用画像の類似度(一致度)が0.28であり、患者氏名:特許太朗に係る医用画像の類似度(一致度)が0.65である旨の情報が表示される。   The central diagram and the rightmost diagram in FIG. 10 show information relating to the second medical information. That is, the processing circuit 150 uses the patient ID: ABC1563, the patient name: the second medical image that is the medical image of Taro Tokkyo, and the patient ID: CBA2548, the patient name: the second medical image that is the medical image of Taro Tokkyo. Are overlaid on the symbols indicating the positions of the anatomical landmarks. In the center and rightmost views of FIG. 10, each asterisk indicates an anatomical landmark in the second medical image. The processing circuit 150 also displays the degree of similarity (degree of coincidence). As a result, for example, the degree of similarity (coincidence) of the medical image relating to patient name: Taro Patent is 0.28, and the degree of similarity (concordance degree) of the medical image relating to patient name: Taro Patent is 0.65. Information to that effect is displayed.

図10に示されているように、解剖学的ランドマークの位置が、医用画像に重ねて表示されている結果、第1の医用画像と第2の医用画像との類似度が、視覚的にわかりやすく表示されている。この結果、ユーザは、どの患者が、特定対象の患者と同じである可能性が高いかを、直観的に把握することができる。   As shown in FIG. 10, the position of the anatomical landmark is displayed so as to be superimposed on the medical image. As a result, the degree of similarity between the first medical image and the second medical image is visually It is displayed clearly. As a result, the user can intuitively understand which patient is likely to be the same as the specific target patient.

また、処理回路150は、これらの情報を、最初から表示させても良いし、ユーザからこれらの情報を表示させる旨の入力を受け付けたときにこれらの情報を表示させてもよい。   Further, the processing circuit 150 may display these pieces of information from the beginning, or may display these pieces of information when receiving an input to display these pieces of information from the user.

実施形態は、以上に説明した例に限られない。   The embodiment is not limited to the example described above.

例えば、個人特定の目的で、第1の実施形態に係る画像処理装置が使用される場合について、説明したが、実施形態はこれに限られない。例えば、同一の患者に対して2重にIDが発番されるのを防ぐ目的で、第1の実施形態に係る画像処理装置が使用されてもよい。かかる場合、処理回路150は、算出機能150cにより、同一の被検体が複数の異なる識別子(ID)で登録されている可能性の大きさを算出する。処理回路150は、算出した可能性が所定の閾値を超える場合、同一の被検体が複数の異なる識別子(ID)で登録されている可能性が高いと判断し、被検体の情報(氏名等)及び、当該複数の異なる識別子(ID)を、表示装置250(又は表示装置135)に表示させる。これにより、ユーザは、同一の被検体が複数の異なる識別子(ID)で登録されている可能性に気が付くことができる。   For example, the case where the image processing apparatus according to the first embodiment is used for the purpose of identifying an individual has been described, but the embodiment is not limited to this. For example, the image processing apparatus according to the first embodiment may be used for the purpose of preventing duplicate ID numbers for the same patient. In such a case, the processing circuit 150 uses the calculation function 150c to calculate the degree of possibility that the same subject is registered with a plurality of different identifiers (IDs). When the calculated possibility exceeds the predetermined threshold value, the processing circuit 150 determines that the same subject is likely to be registered with a plurality of different identifiers (IDs), and the subject information (name, etc.). Also, the plurality of different identifiers (ID) are displayed on the display device 250 (or the display device 135). As a result, the user can notice the possibility that the same subject is registered with a plurality of different identifiers (IDs).

また、例えば、患者取り違えが起こるのを防ぐ目的で、第1の実施形態に係る画像処理装置が使用されてもよい。かかる場合、処理回路150は、算出機能150cにより、ステップ146において算出された類似度に基づいて、患者取り違えが起こっている可能性の大きさを更に算出する。例えば、処理回路150は、ステップS146において算出された類似度が所定の閾値を下回る場合には、患者取り違えが起こっている可能性が高いと判定する。続いて、処理回路150は、制御機能150eにより、患者取り違えが起こっている可能性の大きさを表す情報を、表示装置250(又は表示装置135)に表示させる。具体的には、処理回路150は、患者取り違えが起こっている可能性が高い旨の警告を画面に表示させ、取り違えが起こっている可能性の高い患者のIDを画面に表示させる。   Further, for example, the image processing apparatus according to the first embodiment may be used for the purpose of preventing mistaking the patient. In such a case, the processing circuit 150 further calculates, by the calculation function 150c, the magnitude of the possibility that the patient is confused based on the similarity calculated in step 146. For example, if the similarity calculated in step S146 is lower than the predetermined threshold, the processing circuit 150 determines that there is a high possibility that a patient is confused. Subsequently, the processing circuit 150 causes the display device 250 (or the display device 135) to display information indicating the degree of possibility that the patient is confused by the control function 150e. Specifically, the processing circuit 150 displays a warning that there is a high possibility that a patient mix-up has occurred, and displays the ID of the patient who has a high mix-up possibility on the screen.

また、処理回路150は、ステップS142で原点の位置を特定したのち、第1の医用画像の向きと、第2の医用画像の向きを揃えても良い。具体的には、例えば、処理回路150は、向きを決定するのに適した解剖学的ランドマークを少なくとも2点、第1の医用画像及び第2の医用画像から抽出する。処理回路150は、抽出した少なくとも2点の解剖学的ランドマークを用いて、第1の医用画像及び第2の医用画像における被検体の「向き」を算出する。処理回路150は、算出した被検体の向きに基づいて、第2の医用画像を所定の角度だけ回転させ、第1の医用画像と第2の医用画像との向きを揃える。しかるのち、処理回路150は、ステップS144以降の処理を実行する。また、別の例として、処理回路150は、ステップS142で原点の位置を特定したのち、例えばDICOM(Digital Imaging and Communication in Medicine)のデータを用いて、第1の医用画像の向きと、第2の医用画像の向きを揃えても良い。   Further, the processing circuit 150 may align the orientation of the first medical image and the orientation of the second medical image after specifying the position of the origin in step S142. Specifically, for example, the processing circuit 150 extracts at least two anatomical landmarks suitable for determining the orientation from the first medical image and the second medical image. The processing circuit 150 calculates the “direction” of the subject in the first medical image and the second medical image using the extracted at least two anatomical landmarks. The processing circuit 150 rotates the second medical image by a predetermined angle based on the calculated orientation of the subject, and aligns the orientations of the first medical image and the second medical image. After that, the processing circuit 150 executes the processing from step S144. As another example, the processing circuit 150 identifies the position of the origin in step S142, and then uses the data of DICOM (Digital Imaging and Communication in Medicine), for example, to determine the orientation of the first medical image and the second orientation. The directions of the medical images may be aligned.

また、ステップS145における一致度の算出方法は、実施形態において説明した例に限られない。例えば、処理回路150は、一致度aを、距離xの関数として、a=1/(1+x)以外の関数系で与えてもよい。例えば、処理回路150は、一致度aを、距離xの関数として、a=1−tan―1(x)/(π/2)のような関数系で与えても良い。かかる場合、距離xが0の時、一致度aは1となる。また、距離xが増加するにしたがって、一致度aは減少する。また、距離xが無限大の極限で、tan―1(x)はπ/2に近づくから、この時、一致度aは0となる。 Further, the method of calculating the degree of coincidence in step S145 is not limited to the example described in the embodiment. For example, the processing circuit 150 may give the degree of coincidence a as a function of the distance x in a functional system other than a = 1 / (1 + x). For example, the processing circuit 150 may give the degree of coincidence a as a function of the distance x in a functional system such as a = 1-tan −1 (x) / (π / 2). In such a case, when the distance x is 0, the degree of coincidence a is 1. Further, the degree of coincidence a decreases as the distance x increases. Also, since the distance x is an infinite limit and tan −1 (x) approaches π / 2, the degree of coincidence a becomes 0 at this time.

また、一致度aの関数系は、距離x=0で必ずしもa=1となる必要もなく、また、距離xが無限大の極限で必ずしもa=0となる必要もない。また、処理回路150は、距離xが増加するにしたがって、減少していく関数系を用いて、後段の類似度を算出する必要もない。例えば、処理回路150は、不一致度b=1−aを用いて、類似度を算出しても良い。   Further, the functional system with the degree of coincidence a does not necessarily have to be a = 1 at the distance x = 0, and does not necessarily have to be a = 0 at the limit where the distance x is infinite. Further, the processing circuit 150 does not need to use the functional system that decreases as the distance x increases to calculate the similarity in the subsequent stage. For example, the processing circuit 150 may calculate the similarity by using the dissimilarity b = 1−a.

また、距離xは、必ずしもユークリッド空間の距離に限られない。例えば、距離xは、pを実数として、Lノルムから誘導される距離であってもよい。 Further, the distance x is not necessarily limited to the distance in the Euclidean space. For example, the distance x may be a distance derived from the L p norm, where p is a real number.

また、一致度aの例は、これらに限られない。例えば、処理回路150は、一致度aの値を、距離xが第1の閾値xよりも小さい場合には、「一致度高」、距離xが第1の閾値x以上であって、第1の閾値xより大きい第2の閾値xよりも小さい場合には、「一致度中」、距離xが第2の閾値x以上であって、第2の閾値xより大きい場合には、「一致度低」であると定めても良い。 The examples of the degree of coincidence a are not limited to these. For example, when the distance x is smaller than the first threshold value x 1 , the processing circuit 150 sets the value of the matching degree a to “high matching degree”, and the distance x is equal to or larger than the first threshold value x 1 . If less than the first threshold value x 1 is greater than the second threshold value x 2 is "during matching degree", the distance x is a second threshold x 2 or more, if greater than the second threshold value x 2 May be determined to be “low degree of coincidence”.

また、類似度の値を、各解剖学的ランドマークの一致度の平均値として処理回路150が算出する場合について説明したが、実施形態はこれに限られない。処理回路150は、各解剖学的ランドマークの一致度の単純和、最大値、メジアン、モード、重み付き加算和などを用いて、類似度を算出してもよい。また、処理回路150は、各解剖学的ランドマークすべてのデータを用いることを要せず、各解剖学的ランドマークのデータのうち一部のデータを用いて、類似度を算出しても良い。   Further, although the case where the processing circuit 150 calculates the value of the degree of similarity as the average value of the degrees of coincidence of the anatomical landmarks has been described, the embodiment is not limited to this. The processing circuit 150 may calculate the degree of similarity by using a simple sum, a maximum value, a median, a mode, a weighted addition sum, or the like of the matching degrees of the anatomical landmarks. In addition, the processing circuit 150 does not need to use the data of all the anatomical landmarks, but may calculate the similarity using a part of the data of each anatomical landmark. .

以上のように、第1の実施形態に係る画像処理装置によれば、患者の特定を行うことができる。この結果、例えば、救急搬送の場合のように患者の意識のないケースや、認知症などのケースなど、正確な情報がない場合でも、患者の特定を行うことができる。また、診断に用いる医用画像データそのものを用いて患者の特定を行うことができるので、患者の特定のための追加の処理が必要とならず、ユーザの利便性を高めることができる。   As described above, the image processing apparatus according to the first embodiment can identify a patient. As a result, the patient can be identified even when there is no accurate information such as a case where the patient does not have consciousness as in the case of emergency transportation or a case of dementia. In addition, since the patient can be specified using the medical image data itself used for diagnosis, no additional processing for specifying the patient is required, and the convenience for the user can be improved.

(第1の実施形態の第1の変形例)
第1の実施形態では、処理回路150が、一致度aの算出において、各ランドマークの種別、例えば骨、臓器、血管の別等を考慮せず、距離xのみを考慮して所定の関数系を用いる場合について説明した。第1の実施形態の第1の変形例においては、処理回路150は、ランドマークの種別等を考慮した一致度及び類似度の算出を行う。
(First Modification of First Embodiment)
In the first embodiment, the processing circuit 150 does not consider the type of each landmark, for example, bone, organ, or blood vessel, in the calculation of the degree of coincidence a, and considers only the distance x and determines a predetermined functional system. The case of using is explained. In the first modification of the first embodiment, the processing circuit 150 calculates the degree of coincidence and the degree of similarity in consideration of the landmark type and the like.

図11及び図12を用いて、第1の実施形態の第1の変形例に係る処理について説明する。図11は、第1の実施形態の第1の変形例に係る画像処理装置の行う処理の手順を示したフローチャートである。また、図12は、第1の実施形態の第1の変形例に係る画像処理装置の行う処理について説明した図である。   Processing according to the first modification of the first embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart showing a procedure of processing performed by the image processing apparatus according to the first modification of the first embodiment. In addition, FIG. 12 is a diagram illustrating a process performed by the image processing apparatus according to the first modification of the first embodiment.

第1の実施形態の第1の変形例において、図3に示す全体的な処理の流れについては、第1の実施形態の場合と同様である。第1の実施形態の第1の変形例においては、図3のステップS140に相当するステップが、第1の実施形態と異なる。第1の実施形態の第1の変形例における、ステップS140に相当するステップが、図11に示されている。ここで、図11において、ステップS141〜ステップS144の処理は、第1の実施形態と同様の処理を行うことから、詳しい説明は割愛する。   In the first modification of the first embodiment, the overall processing flow shown in FIG. 3 is the same as in the first embodiment. In the first modified example of the first embodiment, the step corresponding to step S140 in FIG. 3 is different from that of the first embodiment. FIG. 11 shows a step corresponding to step S140 in the first modification of the first embodiment. Here, in FIG. 11, since the processes of steps S141 to S144 are the same as those of the first embodiment, detailed description thereof will be omitted.

第1の実施形態の第1の変形例においては、ステップS145a〜ステップS146において、処理回路150は、算出機能150cにより、第1の解剖学的ランドマークの種別と第2の解剖学的ランドマークの種別とに基づいて、ステップS145における一致度を計算し、計算した一致度に基づいて類似度を算出する。以下、これらの処理について説明する。   In the first modification of the first embodiment, in steps S145a to S146, the processing circuit 150 uses the calculation function 150c to determine the type of the first anatomical landmark and the second anatomical landmark. The degree of coincidence in step S145 is calculated based on the type and the degree of similarity is calculated based on the calculated degree of coincidence. Hereinafter, these processes will be described.

ステップS145aにおいて、処理回路150は、解剖学的ランドマークごとに重みを算出する。第1の実施形態の第1の変形例では、処理回路150は、算出機能150cにより、解剖学的ランドマークごとに、解剖学的ランドマークの種別pに対応した重みの値w(p)を、例えば所定のデータベース(例えば、記憶回路132)から取得することにより算出する(ステップS145a)。 In step S145a, the processing circuit 150 calculates a weight for each anatomical landmark. In the first modification of the first embodiment, the processing circuit 150 uses the calculation function 150c to calculate the weight value w 1 (p) corresponding to the anatomical landmark type p for each anatomical landmark. Is calculated by, for example, obtaining it from a predetermined database (for example, the storage circuit 132) (step S145a).

ここで、解剖学的ランドマークの種別pとは、解剖学的ランドマークの種類のことである。例えば、「臓器」、「骨」、「血管」、「軟骨」は、互いに異なる解剖学的ランドマークの種別pに属する。   Here, the anatomical landmark type p is the anatomical landmark type. For example, “organ”, “bone”, “blood vessel”, and “cartilage” belong to different anatomical landmark types p.

図12に、解剖学的ランドマークの種別pと、解剖学的ランドマークの種別pに対応した重みw(p)の値の例が示されている。例えば、胸部ランドマークの場合、解剖学的ランドマーク「気管分岐部」の種別pは、「臓器」に属し、その場合の重みw(p=臓器)は、「0.2」となる。また、解剖学的ランドマーク「右肩甲骨下角」の種別pは「骨」に対応し、その場合の重みw(p=骨)は、「1」となる。また、解剖学的ランドマーク「左鎖骨下動脈始点」の種別pは、「血管」に属し、その場合の重みw(p=血管)は、「0.2」となる。 FIG. 12 shows an example of the anatomical landmark type p and the value of the weight w 1 (p) corresponding to the anatomical landmark type p. For example, in the case of a chest landmark, the type p of the anatomical landmark “tracheal bifurcation” belongs to “organ”, and the weight w 1 (p = organ) in that case is “0.2”. Further, the type p of the anatomical landmark “lower shoulder blade angle” corresponds to “bone”, and the weight w 1 (p = bone) in that case is “1”. The type p of the anatomical landmark “left subclavian artery start point” belongs to “blood vessel”, and the weight w 1 (p = blood vessel) in that case is “0.2”.

解剖学的ランドマークの種別pに対応した重みw(p)は、その種別に関するデータを用いて個人特定をすることの信頼度に対応した量となる。例えば、解剖学的ランドマークの種別pが、血管や臓器の場合、血管や臓器の位置は、体位(立位、仰向け、うつ伏せなど)により、変化すると考えられるので、個人特定のために用いるのは信頼度が低くなる。また、血管や臓器の場合、血管や臓器の位置は、病状や治療により、例えば、放射線治療で痩せた、あるいは逆に薬の副作用で太ったなどにより位置が変化する可能性があるので、個人特定のために用いるのが信頼度が低くなる。従って、重みw(p)は、低くなる。逆に、解剖学的ランドマークの種別pが、骨の場合、骨の位置は、比較的変化しにくいと考えられるので、骨の位置を個人特定のために用いるのは信頼度が高くなる。従って、重みw(p)は、高くなる。 The weight w 1 (p) corresponding to the type p of the anatomical landmark is an amount corresponding to the reliability of identifying an individual using data regarding the type. For example, if the type p of the anatomical landmark is a blood vessel or an organ, the position of the blood vessel or the organ is considered to change depending on the body position (standing position, supine position, prone position, etc.). Is less reliable. Also, in the case of blood vessels and organs, the position of blood vessels and organs may change due to the medical condition or treatment, such as thinning due to radiation therapy or conversely becoming fat due to side effects of the drug, etc. Is less reliable to use for. Therefore, the weight w 1 (p) becomes low. On the other hand, when the type p of the anatomical landmark is bone, the bone position is considered to be relatively unlikely to change, so that the bone position is highly reliable to be used for individual identification. Therefore, the weight w 1 (p) becomes high.

続いて、処理回路150は、解剖学的ランドマークごとに、重みw(p)を考慮して、一致度aを算出する(ステップS145b)。例えば、第1の解剖学的ランドマーク及び第2の解剖学的ランドマークの種別をp、種別pの解剖学的ランドマークの重みをw(p)とすると、距離をxとして、処理回路150は、(重み付け)一致度aを、例えば次の式により算出する:a=w(p)/(1+x)。 Subsequently, the processing circuit 150 calculates the degree of coincidence a in consideration of the weight w 1 (p) for each anatomical landmark (step S145b). For example, if the type of the first anatomical landmark and the second anatomical landmark is p and the weight of the anatomical landmark of the type p is w 1 (p), the distance is x and the processing circuit is The 150 calculates the (weighted) degree of coincidence a, for example, by the following formula: a = w 1 (p) / (1 + x).

換言すると、一致度aは、距離xに1を足し、逆数を取り、解剖学的ランドマークの種別p(あるいは、後述する第1の医用画像が撮影された第1の撮影状態及び第2の医用画像が撮影された第2の撮影状態)に基づいて定められた重みを表す係数wを乗じた値として定められた値である。ここで、距離xは、第1の医用画像の所定の解剖学的ランドマークの、第1の原点に対する第1の相対座標と、当該所定の解剖学的ランドマークに対応する解剖学的ランドマークの、第2の原点に対する第2の医用画像との間の距離である。 In other words, the degree of coincidence a is obtained by adding 1 to the distance x, taking the reciprocal of the same, and determining the type p of the anatomical landmark (or the first imaging state and the second imaging state in which the first medical image described later is imaged). It is a value determined as a value obtained by multiplying by a coefficient w 1 that represents a weight determined based on the second image capturing state in which the medical image was captured. Here, the distance x is the first relative coordinate of the predetermined anatomical landmark of the first medical image with respect to the first origin, and the anatomical landmark corresponding to the predetermined anatomical landmark. , The distance between the second origin and the second medical image.

続いて、処理回路150は、算出機能150cにより、ステップS145bで算出された重み付け一致度を基に、複数の第1の解剖学的ランドマークと、複数の第2の解剖学的ランドマークとの間の類似度を算出する。例えば、処理回路150は、ステップS145bで算出された重み付け一致度に対して、単純平均を取り、類似度を算出する。   Subsequently, the processing circuit 150 causes the calculation function 150c to distinguish between the plurality of first anatomical landmarks and the plurality of second anatomical landmarks based on the weighted coincidence degree calculated in step S145b. Calculate the similarity between them. For example, the processing circuit 150 calculates a similarity by taking a simple average of the weighted coincidences calculated in step S145b.

以上のように、第1の実施形態の第1の変形例においては、画像処理装置100は、解剖学的ランドマークの種別に応じて、類似度算出の際の重みを変化させる。かかる処理を行うことにより、この結果、個人特定のために信頼度の高いデータの重みを大きくすることができ、特定の精度が向上する。   As described above, in the first modification of the first embodiment, the image processing apparatus 100 changes the weight when calculating the degree of similarity according to the type of anatomical landmark. By performing such processing, as a result, the weight of highly reliable data for individual identification can be increased, and the identification accuracy can be improved.

(第1の実施形態の第2の変形例)
第1の実施形態の第1の変形例においては、処理回路150が、解剖学的ランドマークそれぞれの種別pに応じた重みw(p)に応じて類似度を算出する場合を説明した。
(Second Modification of First Embodiment)
In the first modified example of the first embodiment, the case where the processing circuit 150 calculates the similarity according to the weight w 1 (p) corresponding to the type p of each anatomical landmark has been described.

第1の実施形態の第2の変形例においては、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とに基づいて、類似度を算出する。   In the second modified example of the first embodiment, the processing circuit 150 sets the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured. Based on, the similarity is calculated.

かかる処理について、図4を再び用いて説明する。第1の実施形態の第2の変形例においては、例えば処理回路150は、補正機能150dにより、図4のステップS142〜ステップS146の処理を行った後、医用画像が撮影された撮影状態に基づいて、ステップS146において算出された類似度に対して補正を行って類似度を算出する。なお、第1の実施形態の第2の変形例においては、この追加のステップ以外は、第1の実施形態と同様な処理であるので、繰り返しての説明は省略する。   Such processing will be described with reference to FIG. 4 again. In the second modification of the first embodiment, for example, the processing circuit 150 uses the correction function 150d to perform the processes of steps S142 to S146 of FIG. 4 and then based on the imaging state in which the medical image is captured. Then, the similarity calculated in step S146 is corrected to calculate the similarity. The second modified example of the first embodiment has the same processing as that of the first embodiment except for this additional step, and thus repeated description will be omitted.

第1の実施形態の第2の変形例においては、処理回路150は、撮影状態によって重みを変化させる。ここで、撮影状態とは、例えば、仰向け/うつ伏せ等の体位を表す。この場合、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態は、撮影時における被検体の体位である。   In the second modification of the first embodiment, the processing circuit 150 changes the weight depending on the shooting state. Here, the shooting state represents, for example, a body position such as supine / prone. In this case, the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are the posture of the subject at the time of imaging.

例えば、仰向けの状態で撮影された画像と、うつ伏せの状態で撮影された画像とでは、解剖学的ランドマークを用いて個人特定を行う場合の精度が異なる。すなわち、処理回路150は、補正機能150dにより、仰向けの状態で撮影された画像と、うつ伏せの状態で撮影された画像とで、異なる重みを用いて類似度を補正する。   For example, an image taken in a supine state and an image taken in a prone state differ in accuracy when individual identification is performed using anatomical landmarks. That is, the processing circuit 150 uses the correction function 150d to correct the similarity using different weights for the image captured in the supine state and the image captured in the prone state.

例えば、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、ともに「仰向け」の場合、または、ともに「うつ伏せ」である場合、補正係数として、ステップS146で算出された類似度に「1.0」を乗じた値を、最終的な類似度とする。すなわち、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが同じ撮影状態である場合、最大重みを用いて類似度を算出する。   For example, the processing circuit 150, when the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are both “back to back”, or both In the case of "prone", a value obtained by multiplying the similarity calculated in step S146 by "1.0" is set as the final similarity as a correction coefficient. That is, the processing circuit 150 uses the maximum weight when the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are the same imaging state. And the degree of similarity is calculated.

一方、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、一方が「仰向け」であり、他方が「うつ伏せ」である場合、体位が異なっているので、個人特定の精度は低下すると考えられる。従って、この場合、処理回路150は、補正係数として、ステップS146で算出された類似度に、例えば「0.8」を乗じた値を、最終的な類似度とする。なお、第1の実施形態の第1の変形例のように、解剖学的ランドマークの種別に応じた重みづけがされている場合、解剖学的ランドマークの種別に応じた重みによる重みづけと、撮影状態に応じた重みづけが、重ねて行われることになる。   On the other hand, in the first imaging state in which the first medical image is captured and in the second imaging state in which the second medical image is captured, one is "supine" and the other is "prone". In this case, since the body positions are different, it is considered that the accuracy of individual identification decreases. Therefore, in this case, the processing circuit 150 sets the value obtained by multiplying the similarity calculated in step S146 by, for example, “0.8” as the final similarity as the correction coefficient. When the weighting according to the type of anatomical landmark is performed as in the first modification of the first embodiment, the weighting according to the type according to the type of anatomical landmark is performed. The weighting according to the shooting state is repeated.

なお、処理回路150は、これらの体位の情報を、例えばDICOM(Digital imaging and Communication in Medicine)のデータから、随時取得することができる。   In addition, the processing circuit 150 can obtain the information of these body positions from data of DICOM (Digital imaging and Communication in Medicine) at any time, for example.

また、撮影状態の別の例としては、撮影における息止めの有無を表す情報が挙げられる。この場合、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態は、息止めの有無を示す情報である。   In addition, as another example of the photographing state, there is information indicating whether or not there is a breath-hold in photographing. In this case, the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are information indicating whether or not breath-holding is performed.

例えば、息止め時に撮影された画像と、息止め時以外に撮影された画像とでは、解剖学的ランドマークを用いて個人特定を行う場合の精度が異なる。例えば、息止め時は、呼吸による位置のブレが存在しないため、解剖学的ランドマークの位置はほぼ変化しない。これに対して、息止め時以外に撮影された場合、呼吸による位置のブレが存在するので、解剖学的ランドマークの位置が変化する。処理回路150は、補正機能150dにより、息止め時に撮影された画像と、息止め時以外に撮影された画像とで、異なる重みを用いて類似度を補正する。   For example, the image taken during breath-holding and the image taken during periods other than breath-holding differ in the accuracy with which an anatomical landmark is used to identify an individual. For example, when holding a breath, the position of the anatomical landmark hardly changes because there is no blurring of the position due to breathing. On the other hand, when the image is taken at a time other than when the user holds his / her breath, the position of the anatomical landmark changes because of the blurring of the position due to breathing. The processing circuit 150 uses the correction function 150d to correct the similarity using different weights for the image captured during breath-holding and the image captured during periods other than breath-holding.

例えば、処理回路150は、補正機能150dにより、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、ともに「息止めあり」の場合補正係数として、ステップS146で算出された類似度に「1.0」を乗じた値を、最終的な類似度とする。すなわち、処理回路150は、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが同じ撮影状態である場合、最大重みを用いて類似度を算出する。   For example, the processing circuit 150 uses the correction function 150d to indicate that the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are both "hold breath. In the case of “”, a value obtained by multiplying the similarity calculated in step S146 by “1.0” is set as the final similarity. That is, the processing circuit 150 uses the maximum weight when the first imaging state in which the first medical image is captured and the second imaging state in which the second medical image is captured are the same imaging state. And the degree of similarity is calculated.

一方、第1の医用画像が撮影された第1の撮影状態と、第2の医用画像が撮影された第2の撮影状態とが、ともに「息止めなし」である場合、息止めがないので、個人特定の精度は低下すると考えられる。従って、この場合、処理回路150は、補正機能150dにより、補正係数として、ステップS146で算出された類似度に、例えば「0.8」を乗じた値を、最終的な類似度とする。なお、解剖学的ランドマークの種別に応じた重みや、撮影時の体位に関する重みが、重ねて重み付けされても良い。   On the other hand, when both the first shooting state in which the first medical image is shot and the second shooting state in which the second medical image is shot are “no breath hold”, there is no breath hold. , It is thought that the accuracy of individual identification will decrease. Therefore, in this case, the processing circuit 150 uses the correction function 150d as a correction coefficient, and determines the value obtained by multiplying the similarity calculated in step S146 by, for example, “0.8” as the final similarity. The weights according to the types of anatomical landmarks and the weights regarding the body position at the time of imaging may be weighted in an overlapping manner.

以上のように、第1の実施形態の第2の変形例においては、医用画像が撮影された撮影状態に応じて重みづけが行われ、類似度が算出される。撮影状態に応じて、個人特定の精度は一般に異なってくることから、撮影状態に応じて重みづけを行うことで、実施形態に係る画像処理装置は、個人特定の精度を向上させることができる。   As described above, in the second modified example of the first embodiment, weighting is performed according to the imaging state in which the medical image was captured, and the degree of similarity is calculated. Since the accuracy of individual identification generally differs depending on the shooting state, the image processing apparatus according to the embodiment can improve the accuracy of individual identification by performing weighting according to the shooting state.

また、これまでの実施形態に係る画像処理装置100は、医用情報管理システムの一部として提供されてもよい。かかる医用情報管理システムは、画像処理装置100の他に、例えば、医用検査装置に行われた検査に基づいて生成された第1の医用画像を記憶する記憶装置と、複数の被検体の医用画像を記憶するデータベースとを備える。ここで、記憶装置220が、かかる記憶装置の一例である。また、患者情報データベース230や画像データベース240が、かかるデータベースの一例である。   Further, the image processing apparatus 100 according to the above embodiments may be provided as a part of the medical information management system. In addition to the image processing apparatus 100, the medical information management system includes, for example, a storage device that stores a first medical image generated based on an inspection performed by the medical inspection apparatus, and medical images of a plurality of subjects. And a database for storing. Here, the storage device 220 is an example of such a storage device. The patient information database 230 and the image database 240 are examples of such databases.

また、実施形態に係る画像処理装置100は、PACS(Picture Archiving and Communication System)やRIS(Radiology Information System)の一機能として提供されてもよい。また、実施形態に係る画像処理装置100は、画像処理ワークステーション、若しくはモダリティ装置200の一機能として提供されてもよい。この場合、典型的には、患者情報データベース230及び画像データベース240は、画像処理装置100が備えられた医療機関以外の情報を統合して検索できる。   Further, the image processing apparatus 100 according to the embodiment may be provided as a function of a PACS (Picture Archiving and Communication System) or a RIS (Radiology Information System). The image processing apparatus 100 according to the embodiment may be provided as one function of the image processing workstation or the modality apparatus 200. In this case, typically, the patient information database 230 and the image database 240 can search by integrating information other than the medical institution in which the image processing apparatus 100 is provided.

(プログラム)
上述した実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の画像処理装置100による効果と同様な効果を得ることも可能である。上述した実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW等)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータ又は組み込みシステムが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の画像処理装置100と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
(program)
The instructions shown in the processing procedures shown in the above-described embodiments can be executed based on a program that is software. A general-purpose computer system may store the program in advance and read the program to obtain the same effect as that of the image processing apparatus 100 according to the above-described embodiment. The instructions described in the above embodiments are magnetic disks (flexible disks, hard disks, etc.), optical disks (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD) as programs that can be executed by a computer. ± R, DVD ± RW, etc.), a semiconductor memory, or a recording medium similar thereto. The storage format may be any form as long as it is a storage medium readable by a computer or an embedded system. If the computer reads the program from this recording medium and causes the CPU to execute the instructions described in the program based on this program, the same operation as that of the image processing apparatus 100 of the above-described embodiment can be realized. . Of course, when the computer acquires or reads the program, it may be acquired or read via a network.

また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が、上述した実施形態を実現するための各処理の一部を実行してもよい。   In addition, the OS (operating system) running on the computer based on the instructions of the program installed in the computer or the embedded system from the storage medium, the database management software, the MW (middleware) such as the network, and the like are the embodiments described above. You may perform a part of each process for implement | achieving.

更に、記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LAN(Local Area Network)やインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。   Further, the storage medium is not limited to a medium independent of a computer or an embedded system, but includes a storage medium in which a program transmitted via a LAN (Local Area Network), the Internet, etc. is downloaded and stored or temporarily stored.

また、記憶媒体は1つに限られず、複数の媒体から、上述した実施形態における処理が実行される場合も、実施形態における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。   Further, the number of storage media is not limited to one, and when the processing in the above-described embodiment is executed from a plurality of media, it is included in the storage media in the embodiment, and the configuration of the medium may be any configuration. .

なお、実施形態における画像処理装置は、記憶媒体に記憶されたプログラムに基づき、上述した実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。   The image processing apparatus according to the embodiment is for executing each processing according to the above-described embodiments based on a program stored in a storage medium. The image processing apparatus includes one device such as a personal computer and a microcomputer, and a plurality of devices. It may have any configuration such as a system in which the devices are network-connected.

また、実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。   In addition, the computer in the embodiment is not limited to a personal computer, but includes an arithmetic processing unit, a microcomputer, and the like included in information processing equipment, and is a generic term for equipment and devices that can realize the functions in the embodiment by a program. .

図13は、実施形態に係る画像処理装置100のハードウェア構成を示す図である。上述した実施形態に係る信号処理装置(画像処理装置)は、CPU(Central Processing Unit)310等の制御装置と、ROM(Read Only Memory)320やRAM(Random Access Memory)330等の記憶装置と、ネットワークに接続して通信を行う通信インタフェース340と、各部を接続するバス301とを備えている。   FIG. 13 is a diagram showing a hardware configuration of the image processing apparatus 100 according to the embodiment. The signal processing device (image processing device) according to the above-described embodiment includes a control device such as a CPU (Central Processing Unit) 310 and a storage device such as a ROM (Read Only Memory) 320 or a RAM (Random Access Memory) 330. A communication interface 340 that connects to a network for communication and a bus 301 that connects each unit are provided.

上述した実施形態に係る画像処理装置で実行されるプログラムは、ROM320等に予め組み込まれて提供される。また、上述した実施形態に係る画像処理装置で実行されるプログラムは、コンピュータを上述した画像処理装置の各部として機能させ得る。このコンピュータは、CPU310がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。   The program executed by the image processing apparatus according to the above-described embodiment is provided by being incorporated in the ROM 320 or the like in advance. In addition, the program executed by the image processing apparatus according to the above-described embodiment may cause a computer to function as each unit of the above-described image processing apparatus. In this computer, the CPU 310 can read the program from the computer-readable storage medium onto the main storage device and execute the program.

以上のように、少なくとも一つの実施形態によれば、患者の特定を行うことができる。   As described above, according to at least one embodiment, it is possible to identify a patient.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the invention described in the claims and the equivalents thereof as well as included in the scope and the gist of the invention.

150 処理回路
150a 検索機能
150b 抽出機能
150c 算出機能
150d 補正機能
150e 制御機能
150 Processing Circuit 150a Search Function 150b Extraction Function 150c Calculation Function 150d Correction Function 150e Control Function

Claims (17)

医用画像の原点を特定するための解剖学的ランドマークに基づいて、第1の医用画像における原点である第1の原点と、所定のデータベースから得られた第2の医用画像における原点である第2の原点とを特定し、第1の医用画像から抽出された複数の第1の解剖学的ランドマークそれぞれが、所定のデータベースから得られた第2の医用画像から抽出された複数の第2の解剖学的ランドマークのうちどの解剖学的ランドマークに対応するかを特定し、前記複数の第1の解剖学的ランドマークそれぞれについて、前記第1の原点を基準とした前記第1の解剖学的ランドマークの相対座標である第1の相対座標と、前記第2の原点を基準とした前記対応する第2の解剖学的ランドマークの相対座標である第2の相対座標とに基づいて、前記第1の相対座標と、前記第2の相対座標との距離の差が大きくなるほど小さくなるように定められた値である第1の値を、解剖学的ランドマークの種別または撮影時における被検体の体位に応じて定められた重みを用いて算出し、算出した前記第1の値を前記複数の第1の解剖学的ランドマークについて平均することにより第2の値を算出する算出部と、
前記第2の値を表示部に表示させる制御部とを備える
画像処理装置。
Based on the anatomical landmark for identifying the origin of the medical image, the first origin that is the origin in the first medical image and the origin that is the origin in the second medical image obtained from the predetermined database. 2 origins, and each of the plurality of first anatomical landmarks extracted from the first medical image is extracted from the second medical image obtained from the predetermined database. Of the anatomical landmarks corresponding to the first anatomical landmarks, the anatomical landmarks corresponding to the anatomical landmarks are identified, and the first anatomy is based on the first origin for each of the first anatomical landmarks. Based on a first relative coordinate which is a relative coordinate of the geometrical landmark and a second relative coordinate which is a relative coordinate of the corresponding second anatomical landmark based on the second origin. , The first The first value, which is a value determined to be smaller as the difference in distance between the relative coordinates and the second relative coordinates increases, is set as the type of anatomical landmark or the body position of the subject at the time of imaging. A calculation unit that calculates a second value by averaging the calculated first value with respect to the plurality of first anatomical landmarks, using a weight determined according to
An image processing apparatus comprising: a control unit that causes the display unit to display the second value .
前記算出部は、前記第1の医用画像が撮影された第1の撮影状態と前記第2の医用画像が撮影された第2の撮影状態とに基づいて、前記第2の値を算出する、請求項1に記載の画像処理装置。 The calculation unit calculates the second value based on a first imaging state in which the first medical image is captured and a second imaging state in which the second medical image is captured. The image processing apparatus according to claim 1. 前記第1の撮影状態及び前記第2の撮影状態は、撮影時における被検体の体位である、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first imaging state and the second imaging state are body positions of the subject at the time of imaging. 前記第1の撮影状態及び前記第2の撮影状態は、息止めの有無を示す情報である、請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first shooting state and the second shooting state are information indicating presence / absence of breath holding. 前記算出部は、前記第1の解剖学的ランドマークの種別と前記第2の解剖学的ランドマークの種別とに基づいて、前記第2の値を算出する、請求項1に記載の画像処理装置。 The image processing according to claim 1, wherein the calculation unit calculates the second value based on a type of the first anatomical landmark and a type of the second anatomical landmark. apparatus. 前記第1の値は、前記第1の相対座標と、前記第2の相対座標との距離の差が0である場合に1になるように定められ、前記第1の相対座標と、前記第2の相対座標との差の絶対値が無限大である極限で0になるように定められた値である、請求項に記載の画像処理装置。 The first value is set to be 1 when the difference in distance between the first relative coordinate and the second relative coordinate is 0, and the first relative coordinate and the first relative coordinate The image processing device according to claim 1 , wherein the absolute value of the difference from the relative coordinate of 2 is a value determined to be 0 in the limit of infinity. 前記第1の値は、前記第1の相対座標と前記第2の相対座標との間の距離に1を足し、逆数を取った値として定められた値である、請求項に記載の画像処理装置。 The first value, the first relative coordinate plus 1 to the distance between the second relative coordinate is a value determined as a value obtained by taking the inverse image of claim 1 Processing equipment. 前記第1の値は、前記第1の相対座標と前記第2の相対座標との間の距離に1を足し、逆数を取り、前記重みを表す係数を乗じた値として定められた値である、請求項に記載の画像処理装置。 The first value, adds 1 to the distance between said first relative coordinate second relative coordinate, take the reciprocal is the determined value as a value obtained by multiplying the coefficient representing the weight The image processing apparatus according to claim 1 . 前記第1の解剖学的ランドマーク及び前記第2の解剖学的ランドマークは、骨の特徴部位を表す情報である、請求項1〜のいずれか一つに記載の画像処理装置。 The first anatomical landmark and the second anatomical landmark is information indicating the characteristic part of the bone, the image processing apparatus according to any one of claims 1-8. 前記第1の解剖学的ランドマーク及び前記第2の解剖学的ランドマークは、血管の形態情報及び血管の狭窄状況を表す情報のうち少なくとも一つを含む情報である、請求項1〜のいずれか一つに記載の画像処理装置。 The first anatomical landmark and the second anatomical landmark is information including at least one of information representing the shape information and the narrowing conditions of the vessel of the vessel, according to claim 1-9 The image processing device according to any one of claims. 前記第1の医用画像に係る被検体の氏名、住所、電話番号、または保険証の番号の情報の入力を受け付ける入力部と、
前記情報の入力に基づいて、前記所定のデータベースから、前記第2の医用画像を抽出する抽出部とを更に備え、
前記算出部は、前記抽出部が抽出した前記第2の医用画像に基づいて、前記第2の値を算出する、請求項1〜10のいずれか一つに記載の画像処理装置。
An input unit for receiving input of information on the name, address, telephone number, or insurance card number of the subject relating to the first medical image;
Further comprising an extraction unit that extracts the second medical image from the predetermined database based on the input of the information ,
The calculating unit, said extraction unit is extracted based on the second medical image, it calculates the second value, the image processing apparatus according to any one of claims 1-10.
前記情報は、不完全または断片的な個人情報である、請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11 , wherein the information is incomplete or fragmentary personal information . 前記所定のデータベースは、複数の医療機関にわたって収集された医用画像を収集したデータベースである、請求項1〜12のいずれか一つに記載の画像処理装置。 The predetermined database is a database that collects medical images acquired over a plurality of medical institutions, the image processing apparatus according to any one of claims 1 to 12. 前記算出部は、前記第2の値が閾値を超える場合、同一の被検体が複数の異なる識別子で登録されている可能性が大きいと判定する、請求項1〜13のいずれか一つに記載の画像処理装置。 The calculating unit, when the second value exceeds the threshold value, it is determined that the same subject is likely to have been registered in a plurality of different identifiers, according to any one of claims 1 to 13 Image processing device. 前記算出部は、前記第2の値が閾値を下回る場合、患者取り違えが起こっている可能性が高いと判定し、
前記制御部は、前記可能性が高い旨を表す情報を、前記表示部に表示させる、請求項1〜13のいずれか一つに記載の画像処理装置。
When the second value is less than the threshold value , the calculation unit determines that there is a high possibility that a patient mix-up has occurred ,
Wherein the control unit, the information indicating high the possibility, to be displayed on the display unit, the image processing apparatus according to any one of claims 1 to 13.
前記制御部は、前記第2の値に併せて、又は前記第2の値に代えて、前記複数の第1の解剖学的ランドマークを表す情報及び前記複数の第2の解剖学的ランドマークを表す情報のうち少なくとも一方を、前記表示部に表示させる、請求項1〜15のいずれか一つに記載の画像処理装置。 The control unit, in combination with the second value or in place of the second value , information indicating the plurality of first anatomical landmarks and the plurality of second anatomical landmarks. at least one of information representing, to be displayed on the display unit, the image processing apparatus according to any one of claims 1 to 15. 医用検査装置により行われた検査に基づいて生成された第1の医用画像を記憶する記憶装置と、
複数の被検体の医用画像を記憶するデータベースと、
医用画像の原点を特定するための解剖学的ランドマークに基づいて、第1の医用画像における原点である第1の原点と、前記データベースから得られた第2の医用画像における原点である第2の原点とを特定し、前記第1の医用画像から抽出された複数の第1の解剖学的ランドマークそれぞれが、前記データベースから得られた第2の医用画像から抽出された複数の第2の解剖学的ランドマークのうちどの解剖学的ランドマークに対応するかを特定し、前記複数の第1の解剖学的ランドマークそれぞれについて、前記第1の原点を基準とした前記第1の解剖学的ランドマークの相対座標である第1の相対座標と、前記第2の原点を基準とした前記対応する第2の解剖学的ランドマークの相対座標である第2の相対座標とに基づいて、前記第1の相対座標と、前記第2の相対座標との距離の差が大きくなるほど小さくなるように定められた値である第1の値を、解剖学的ランドマークの種別または撮影時における被検体の体位に応じて定められた重みを用いて算出し、算出した前記第1の値を前記複数の第1の解剖学的ランドマークについて平均することにより第2の値を算出する算出部と、
前記第2の値を表示部に表示させる制御部とを備える
医用情報管理システム。
A storage device that stores a first medical image generated based on an examination performed by the medical examination device;
A database for storing medical images of a plurality of subjects,
A first origin, which is the origin in the first medical image, and a second origin, which is the origin in the second medical image obtained from the database, based on the anatomical landmarks for identifying the origin of the medical image. And a plurality of second anatomical landmarks extracted from the first medical image, the plurality of first anatomical landmarks extracted from the second medical image obtained from the database , respectively . The anatomical landmarks corresponding to the anatomical landmarks are identified, and the first anatomy based on the first origin is specified for each of the plurality of first anatomical landmarks. Based on a first relative coordinate that is a relative coordinate of the dynamic landmark and a second relative coordinate that is a relative coordinate of the corresponding second anatomical landmark based on the second origin. The first The first value, which is a value determined to be smaller as the difference in distance between the relative coordinates and the second relative coordinates increases, is set as the type of anatomical landmark or the body position of the subject at the time of imaging. A calculation unit that calculates a second value by averaging the calculated first value with respect to the plurality of first anatomical landmarks, using a weight determined according to
A medical information management system, comprising: a control unit that causes the display unit to display the second value .
JP2016054398A 2016-03-17 2016-03-17 Image processing apparatus and medical information management system Active JP6688642B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016054398A JP6688642B2 (en) 2016-03-17 2016-03-17 Image processing apparatus and medical information management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016054398A JP6688642B2 (en) 2016-03-17 2016-03-17 Image processing apparatus and medical information management system

Publications (2)

Publication Number Publication Date
JP2017167965A JP2017167965A (en) 2017-09-21
JP6688642B2 true JP6688642B2 (en) 2020-04-28

Family

ID=59913772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016054398A Active JP6688642B2 (en) 2016-03-17 2016-03-17 Image processing apparatus and medical information management system

Country Status (1)

Country Link
JP (1) JP6688642B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6739411B2 (en) * 2017-08-17 2020-08-12 富士フイルム株式会社 Magnetic field distortion calculation device, method and program
JP7159001B2 (en) * 2018-10-25 2022-10-24 キヤノンメディカルシステムズ株式会社 Medical information processing device and medical information processing system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001155019A (en) * 1999-11-25 2001-06-08 Olympus Optical Co Ltd Similar image retrieving device
JP4817184B2 (en) * 2006-09-08 2011-11-16 国立大学法人岐阜大学 Image photographing apparatus and image analysis program
TWI479428B (en) * 2008-10-14 2015-04-01 Sicpa Holding Sa Method and system for item identification
JP2010169542A (en) * 2009-01-23 2010-08-05 Hitachi Ltd Tomographic image information generation method of positron emission tomographic device, and positron emission tomographic device
JP5773575B2 (en) * 2010-03-31 2015-09-02 株式会社東芝 X-ray computed tomography system
JP2012084114A (en) * 2010-09-16 2012-04-26 Imagequest Inc Person identification information correspondence system and program
JP5867273B2 (en) * 2012-04-27 2016-02-24 富士通株式会社 Approaching object detection device, approaching object detection method, and computer program for approaching object detection
WO2015041177A1 (en) * 2013-09-18 2015-03-26 株式会社ニコン Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device

Also Published As

Publication number Publication date
JP2017167965A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
CN107133946B (en) Medical image processing method, device and equipment
US10565710B2 (en) Systems and user interfaces for determination of electro magnetically identified lesions as included in medical images of differing perspectives
JP6542004B2 (en) Medical image processing apparatus and medical image processing system
US11875897B2 (en) Medical image processing apparatus, method, and program, and diagnosis support apparatus, method, and program
JP6719421B2 (en) Learning data generation support device, learning data generation support method, and learning data generation support program
US10916010B2 (en) Learning data creation support apparatus, learning data creation support method, and learning data creation support program
JP6532206B2 (en) Medical image processing apparatus, medical image processing method
US10115037B2 (en) Patient identification using dynamic medical images
US11468659B2 (en) Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model
JP6738305B2 (en) Learning data generation support device, learning data generation support device operating method, and learning data generation support program
WO2023216947A1 (en) Medical image processing system and method for interventional operation
US20220172366A1 (en) Medical support device, operation method of medical support device, non-transitory computer readable medium, and medical support system
JP6688642B2 (en) Image processing apparatus and medical information management system
JP2019126654A (en) Image processing device, image processing method, and program
JP2010246705A (en) Image processor, image processing method and program
JP6734111B2 (en) Finding information creation device and system
JP2012143368A (en) Medical image display device and program
US20180121813A1 (en) Non-leading computer aided detection of features of interest in imagery
US11238976B2 (en) Interpretation support apparatus and non-transitory computer readable medium
CN116210056A (en) Information processing system, information processing method, and information processing program
JP7153261B2 (en) IMAGE PROCESSING DEVICE, OPERATING METHOD OF IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING PROGRAM
JP6845480B2 (en) Diagnostic support devices, methods and programs
JP2007260062A (en) Processor of medical image information and confirmation work support program
JP6748762B2 (en) Medical image processing apparatus and medical image processing method
JP7483018B2 (en) Image processing device, image processing method and program, and image processing system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200406

R150 Certificate of patent or registration of utility model

Ref document number: 6688642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150