JP2004290329A - Medical image processor, medical network system and program for medical image processor - Google Patents

Medical image processor, medical network system and program for medical image processor Download PDF

Info

Publication number
JP2004290329A
JP2004290329A JP2003084945A JP2003084945A JP2004290329A JP 2004290329 A JP2004290329 A JP 2004290329A JP 2003084945 A JP2003084945 A JP 2003084945A JP 2003084945 A JP2003084945 A JP 2003084945A JP 2004290329 A JP2004290329 A JP 2004290329A
Authority
JP
Japan
Prior art keywords
image
information
image processing
warning
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003084945A
Other languages
Japanese (ja)
Inventor
Haruyuki Toda
治幸 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003084945A priority Critical patent/JP2004290329A/en
Publication of JP2004290329A publication Critical patent/JP2004290329A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a medical image processor, medical network system and program for the medical image processor which can prevent the images outside the optimum range or those failing to coincide with the order from being outputted to external devices such as image display devices or image preserving devices. <P>SOLUTION: The medical image processor receives the medical image information from other devices (reception sources) and carries out the image processing thereof to transmit the results to other devices (output destinations). The statistic characters of the image data received are analyzed and when the results of the analysis of the statistic characters are not within the optimum range thereof previously designated, a warning is given against the images not within the optimum range and the transmission is reserved by the user's operation or after the elapse of a fixed time. Thus, the warning against the images not within the optimum range can prevent the images, failing to meet the requirements in the imaging or the image processing, from being outputted to the output destinations. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、医用画像情報を他の装置から受信し画像処理し別の装置に送信する医用画像処理装置、医用ネットワークシステム及び医用画像処理装置のためのプログラムに関するものである。
【0002】
【従来の技術】
放射線画像は、病気診断などに多く用いられており、この放射線画像を得るために、CR(computed radiography)の撮像モダリティ放射線照射部からの被写体を透過した放射線をプレート状の輝尽性蛍光体に吸収させた後、この輝尽性蛍光体を例えばレーザ光で走査しながら励起することによりこの輝尽性蛍光体が上記吸収により蓄積している放射線エネルギ(放射線画像情報)を蛍光として発光せしめ、この蛍光を光電変換して放射線画像信号を得て放射線画像を読み取るようにした医用画像生成装置が公知である。かかるレーザ光の走査により輝尽性蛍光体プレートから発生する蛍光を集光し、フォトマルチプライヤで光電変換し、この電気信号を増幅し、このアナログ信号から変換したデジタル信号に基づいて画像処理することにより放射線画像を読み取り医用画像情報を生成する(例えば、下記特許文献1参照)。
【0003】
従来、上述のような医用画像生成装置で読み取り生成した医用画像情報を画像処理装置に送り所定の画像処理を行い、画像表示装置(ビューア)や画像保管装置(サーバ)等の外部装置に出力している。この場合、例えば、同一検査の複数の画像において、患者情報(患者ID番号、氏名、性別、生年月日等)の不一致や受信済みの画像と同一の画像情報であった場合のように画像処理装置で受信した画像情報の患者/検査情報に不整合があるときには、出力を保留する(下記特許文献2参照)。
【0004】
しかし、上記出力保留は、患者/検査情報の不整合のチェックであり、画像については目視に頼っていた。このため、画像が適正範囲外であるときや画像がオーダと不一致であるとき、その画像が画像表示装置や画像保管装置等の外部装置に出力されてしまうことが起き易くなる。
【0005】
【特許文献1】
特開平11−344783号公報
【0006】
【特許文献2】
特開2002−281210公報
【0007】
【発明が解決しようとする課題】
本発明は、上記従来技術の問題に鑑み、適正範囲外の画像やオーダと不一致の画像が画像表示装置や画像保管装置等の外部装置に出力されてしまうことを防止できるようにした医用画像処理装置、医用ネットワークシステム及び医用画像処理装置のためのプログラムを提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明による第1の医用画像処理装置は、医用画像情報を他の装置(受信元)から受信し、画像処理を行い、他の装置(出力先)に送信する医用画像処理装置であって、受信した画像データの統計的性質を解析する手段と、予め統計的性質の適正範囲を指定する手段と、前記統計的性質を解析した結果が前記指定した適正範囲から外れているとき、適正範囲外であることを警告する手段と、前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする。
【0009】
この医用画像処理装置によれば、画像データの統計的性質を解析した結果に基づいて画像が適正範囲外であることを認識し、ユーザへ警告することで、撮影や画像処理を失敗した画像等の適正範囲外の画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0010】
上記医用画像処理装置において前記画像データの統計的性質を解析する範囲が画像全体であることが好ましく、簡易な画像処理で判定が可能となる。または、前記画像について解剖学的領域を決定する解剖学的領域決定手段を更に備え、前記画像データの統計的性質を解析する範囲が前記解剖学的領域決定手段により決定された関心領域であることが好ましく、関心領域の解析によって画像処理を実施している場合は、より正確な適正範囲の指定が可能となる。
【0011】
また、前記適正範囲を検査部位毎に設定することが好ましく、検査の種類により適正範囲を指定することで、解剖学的特徴、撮影手法による特徴を反映することができ、より正確な適正範囲の指定が可能となる。または、前記適正範囲を条件ファイル毎に設定することが好ましく、簡易に設定及び選択が可能となる。
【0012】
また、前記画像は、前記画像処理を実施していない画像であり、前記適正範囲から外れているときは、撮影が異常であることを警告するようにできる。
【0013】
また、前記画像は、前記送信のための画像処理を実施した画像であり、前記適正範囲から外れているときは、前記画像処理が異常であることを警告するようにできる。
【0014】
本発明による第2の医用画像処理装置は、医用画像情報を他の装置(受信元)から受信し、画像処理を行い、他の装置(出力先)に送信する医用画像処理装置であって、受信した画像付帯情報の濃度及びコントラストに関する情報を識別する手段と、前記濃度及びコントラストに関する情報の適正範囲を予め指定する手段と、前記濃度及びコントラストの値が前記指定した適正範囲から外れているとき、適正範囲外であることを警告する手段と、前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする。
【0015】
この医用画像処理装置によれば、画像付帯情報の濃度及びコントラストに関する情報が適正範囲外であることを認識し、ユーザへ警告することで、撮影を失敗したり画像処理を失敗した画像等の適正範囲外の画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0016】
上記医用画像処理装置において前記適正範囲を検査部位毎に設定することが好ましい。または、前記適正範囲を条件ファイル毎に設定することが好ましい。
【0017】
本発明による第3の医用画像処理装置は、医用画像情報を他の装置(受信元)から受信し、画橡処理を行い、他の装置(出力先)に送信する医用画像処理装置であって、受信した画像付帯情報の撮影部位に関する情報を識別する手段と、画像を被写体認識し、撮影部位を判別する被写体認識手段と、前記画像付帯情報の撮影部位と、前記被写体認識により判別した撮影部位とを比較する手段と、前記比較の結果、一致しないとき、一致しないことを警告する手段と、前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする。
【0018】
この医用画像処理装置によれば、画像付帯情報の撮影部位に関する情報と、画像を画像処理で被写体認識した結果とを比較し、画像付帯情報のとおりの被写体かどうかをユーザへ警告することで、画像付帯情報と実際の画像とが一致しない画像が出力先の他装置へ出力されてしまうことを防止できる。
【0019】
本発明による第4の医用画像処理装置は、医用画像情報を他の装置(受信元)から受信し、画橡処理を行い、他の装置(出力先)に送信する医用画像処理装置であって、受信した画像付帯情報の撮影方向に関する情報を識別する手段と、
【0020】
画像を被写体認識し、撮影方向を判別する被写体認識手段と、前記画像付帯情報の撮影方向と、前記被写体認識により判別した撮影方向とを比較する手段と、前記比較の結果、一致しないとき、一致しないことを警告する手段と、前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする。
【0021】
この医用画像処理装置によれば、画像付帯情報の撮影方向に関する情報と、画像を画像処理で被写体認識した結果とを比較し、画像付帯情報のとおりの被写体かどうかをユーザへ警告することで、画像付帯情報と実際の画像とが一致しない画像が出力先の他装置へ出力されてしまうことを防止できる。
【0022】
本発明による第5の医用画像処理装置は、医用画像情報を他の装置(受信元)から受信し、画像処理を行い、他の装置(出力先)に送信する医用画像処理装置であって、受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信する手段と、画像を被写体認識し、撮影部位を判別する被写体認識手段と、前記撮影オーダ情報による撮影部位と、前記被写体認識により判別した撮影部位とを比較する手段と、前記比較の結果、一致しないとき、一致しないことを警告する手段と、前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする。
【0023】
この医用画像処理装置によれば、画像情報の撮影オーダ情報による撮影部位を、画像を画像処理によって被写体認識した結果と比較し、撮影オーダ情報のとおりの被写体かどうかをユーザへ警告することで、撮影オーダと実際の画像とが一致しない画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0024】
本発明による第6の医用画像処理装置は、医用画像情報を他の装置(受信元)から受信し、画像処理を行い、他の装置(出力先)に送信する医用画像処理装置であって、受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信する手段と、画像を被写体認識し、撮影方向を判別する被写体認識手段と、前記撮影オーダ情報による撮影方向と、前記被写体認識により判別した撮影方向とを比較する手段と、前記比較の結果、一致しないとき、一致しないことを警告する手段と、前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする。
【0025】
この医用画像処理装置によれば、画像情報の撮影オーダ情報による撮影方向を、画像を画像処理によって被写体認識した結果と比較し、撮影オーダ情報のとおりの被写体かどうかをユーザへ警告することで、撮影オーダと実際の画像とが一致しない画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0026】
上述の第1乃至第6の医用画像処理装置において、適正範囲外の画像やオーダと不一致の画像が認識されたとき、その画像の送信(出力)を保留することで、ユーザが後で時間をかけて正誤の判断や処理の変更をすることができる。また、ユーザがその場にいないときでも、一定時間後、自動的に出力が保留になることで、出力先の他装置ヘ出力されてしまうことを防止できる。
【0027】
本発明による医用ネットワークシステムは、上記各医用画像処理装置と、医用画像情報を生成し前記医用画像処理装置に送信する医用画像生成装置と、前記画像処理した画像情報を前記医用画像処理装置から受信し所定の処理を行う装置と、を含むことを特徴とする。
【0028】
この医用ネットワークシステムによれば、適正範囲外の画像やオーダと不一致の画像が医用画像処理装置から画像表示装置や画像保管装置等の所定の処理を行う装置に出力されてしまうことを防止できる
【0029】
本発明による第1のプログラムは、医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、受信した画像データの統計的性質を解析するステップと、予め統計的性質の適正範囲を指定するステップと、前記統計的性質を解析した結果が前記指定した適正範囲から外れているとき、適正範囲外であることを警告するステップと、前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とする。
【0030】
このプログラムによれば、画像データの統計的性質を解析した結果に基づいて画像が適正範囲外であることを認識し、ユーザへ警告することで、撮影や画像処理を失敗した画像等の適正範囲外の画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0031】
前記画像データの統計的性質を解析する範囲が画像全体であることが好ましい。または、前記画像について解剖学的領域を決定する解剖学的領域決定ステップを更に実行させ、前記画像データの統計的性質を解析する範囲が前記解剖学的領域決定ステップで決定された関心領域であることが好ましい。
【0032】
また、前記適正範囲を検査部位毎に設定することが好ましく、検査の種類により適正範囲を指定することで、解剖学的特徴、撮影手法による特徴を反映することができ、より正確な適正範囲の指定が可能となる。または、前記適正範囲を条件ファイル毎に設定することが好ましく、簡易に設定及び選択が可能となる。
【0033】
また、前記画像は、前記画像処理を実施していない画像であり、前記適正範囲から外れているときは、撮影が異常であることを警告するようにできる。
【0034】
また、前記画像は、前記送信のための画像処理を実施した画像であり、前記適正範囲から外れているときは、前記画像処理が異常であることを警告するようにできる。
【0035】
本発明による第2のプログラムは、医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、受信した画像付帯情報の濃度及びコントラストに関する情報を識別するステップと、前記濃度及びコントラストに関する情報の適正範囲を予め指定するステップと、前記濃度及びコントラストの値が前記指定した適正範囲から外れているとき、適正範囲外であることを警告するステップと、前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とする。
【0036】
このプログラムによれば、画像付帯情報の濃度及びコントラストに関する情報が適正範囲外であることを認識し、ユーザへ警告することで、撮影を失敗したり画像処理を失敗した画像等の適正範囲外の画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0037】
前記適正範囲を検査部位毎に設定することが好ましい。または、前記適正範囲を条件ファイル毎に設定することが好ましい。
【0038】
本発明による第3のプログラムは、医用画像情報を他の装置から受信し、画橡処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、受信した画像付帯情報の撮影部位に関する情報を識別するステップと、画像を被写体認識し、撮影部位を判別するステップと、前記画像付帯情報の撮影部位と、前記被写体認識により判別した撮影部位とを比較するステップと、前記比較の結果、一致しないとき、一致しないことを警告するステップと、前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とする。
【0039】
このプログラムによれば、画像付帯情報の撮影部位に関する情報と、画像を画像処理で被写体認識した結果とを比較し、画像付帯情報のとおりの被写体かどうかをユーザへ警告することで、画像付帯情報と実際の画像とが一致しない画像が出力先の他装置へ出力されてしまうことを防止できる。
【0040】
本発明による第4のプログラムは、医用画像情報を他の装置から受信し、画橡処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、受信した画像付帯情報の撮影方向に関する情報を識別するステップと、画像を被写体認識し、撮影方向を判別するステップと、
【0041】
前記画像付帯情報の撮影方向と、前記被写体認識により判別した撮影方向とを比較するステップと、前記比較の結果、一致しないとき、一致しないことを警告するステップと、前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とする。
【0042】
このプログラムによれば、画像付帯情報の撮影方向に関する情報と、画像を画像処理で被写体認識した結果とを比較し、画像付帯情報のとおりの被写体かどうかをユーザへ警告することで、画像付帯情報と実際の画像とが一致しない画像が出力先の他装置へ出力されてしまうことを防止できる。
【0043】
本発明による第5のプログラムは、医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信するステップと、画像を被写体認識し、撮影部位を判別するステップと、前記撮影オーダ情報による撮影部位と、前記被写体認識により判別した撮影部位とを比較するステップと、前記比較の結果、一致しないとき、一致しないことを警告するステップと、前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とする。
【0044】
このプログラムによれば、画像情報の撮影オーダ情報による撮影部位を、画像を画像処理によって被写体認識した結果と比較し、撮影オーダ情報のとおりの被写体かどうかをユーザへ警告することで、撮影オーダと実際の画像とが一致しない画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0045】
本発明による第6のプログラムは、医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信するステップと、画像を被写体認識し、撮影方向を判別するステップと、前記撮影オーダ情報による撮影方向と、前記被写体認識により判別した撮影方向とを比較するステップと、前記比較の結果、一致しないとき、一致しないことを警告するステップと、前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とする。
【0046】
このプログラムによれば、画像情報の撮影オーダ情報による撮影方向を、画像を画像処理によって被写体認識した結果と比較し、撮影オーダ情報のとおりの被写体かどうかをユーザへ警告することで、撮影オーダと実際の画像とが一致しない画像が出力先の他装置ヘ出力されてしまうことを防止できる。
【0047】
なお、上記各プログラムは、各指定ステップ及び各送信保留ステップについて、ユーザによる指定・送信保留の各操作をユーザが適切に行うことができるようなインターフェイスを表示させることで実行させる。
【0048】
【発明の実施の形態】
以下、本発明による実施の形態の医用ネットワークシステムについて図面を用いて説明する。図1は本発明の実施の形態による医用ネットワークシステムの構成を示す図である。
【0049】
図1の医用ネットワークシステムは、被写体(患者)の放射線画像情報が記録された輝尽性蛍光体パネルを励起光で走査して発光させ、その光を光電変換して画像情報を得るCR(computed radiography)の撮像モダリティにより医用画像を生成する医用画像生成装置1と、医用画像生成装置1から画像ファイルを入力し、画像処理を実施した後に画像情報を出力する医用画像処理装置2と、パーソナルコンピュータ(パソコン)やワークステーション等からなり、放射線科医師が画像を参照し診断を行うための画像表示装置(ビューア)3と、を備える。
【0050】
図1の医用ネットワークシステムは、画像を表示するパソコンやワークステーション等からなり、画像を参照するが診断は行わないので画像表示装置3に比べ解像度等の画質は劣る参照用端末4と、パソコンやワークステーション等からなり画像データベースに画像ファイルを保管するとともに画像表示装置3及び参照用端末4から画像を検索し読み出すことができる画像保存装置(画像サーバ)5と、医用画像生成装置1または医用画像処理装置2からの画像データをフィルムや紙等の記録媒体に可視画像として出力する複数のプリンタ6,7と、を備える。また、図1の医用ネットワークシステムには、オーダ情報の管理のためのRIS/HIS(オーダ情報管理装置)8が接続されている。
【0051】
図1の医用ネットワークシステムは、ネットワーク10を介して各装置1〜8がオンライン接続され、情報を互いに送信しかつ受信できるようになっている。
【0052】
次に、図1の医用画像処理装置2に関する次の事項A〜Hを順に詳細に説明する。
A.装置構成
B.情報
C.ファイル
D.主な情報の入力・表示
E.画像確認手順
F.出力
G.出力画像の形成
H.ユーティリティ機能
【0053】
A.装置構成
図2は医用画像処理装置2の構成を示すブロック図である。
【0054】
a.図2に示す医用画像処理装置2は、放射線画像撮影システム全体の動作を制御する主制御装置21と、CRTディスプレイや液晶パネル等からなり医用画像生成装置1等で得られたデジタル画像データを表示するための画像表示部22とを備え、パーソナルコンピュータから構成でき、入力キーボードやマウス等の情報入力装置を含む。
【0055】
図2に示すように、医用画像処理装置2は更に、画像生成装置1等からの画像ファイルを受信する受信部40と、ハードディスク装置やRAM等から構成され受信した画像ファイル等の情報及び画像処理後の画像情報を記憶する保存部41と、画像ファイル中の画像情報について画像処理を行う画像処理部42と、外部装置に出力するための出力画像を形成する出力画像形成部43と、受信した画像の画像確認等のために縮小画像を画像表示部22に表示させる画像確認処理部45とを含む。主制御装置21により各部分40〜43,45及び表示装置22等が制御される。
【0056】
b.医用画像処理装置2の機能は次のとおりであり、各機能は主制御装置21により制御される。
▲1▼医用画像生成装置1等より画像ファイルを受信部40で受信する。
▲2▼画像ファイルを保存部41に一時保存する。
▲3▼画像品質を画像確認処理部45で作成した縮小画像で確認する。
▲4▼画像処理部42で画像処理を実施する。
▲5▼出力画像形成部43で出力画像を形成する。
▲6▼出力画像をネットワーク10を介して画像表示装置3、画像サーバ5、プリンタ6,7等の外部装置(出力先)へ転送する。
【0057】
B.情報
医用画像処理装置2で取り扱う情報は以下の5つに分類できる。
【0058】
a.条件情報
画像ファイルを受信して、処理された画像ファイルとして画像サーバ5等の外部装置へ出力するための条件情報であり、次のものが含まれる。
(a)画像処理情報
画像処理部42における階調処理、周波数処理に関する情報である。
(b)出力装置情報
画像データを再生・出力する画像サーバ5等の外部装置に関する情報であり、画像サーバ5等の出力装置毎に出力領域、拡大縮小率、出力フォーマット(マルチフォーマット、分割撮影フォーマット)、オーバーレイ、階調処理及び周波数処理の有無等を指定する。
(c)オーバーレイ情報
AP/PA・R/L・コメント、取り消しマーク(二重線、×等)等のオーバーレイの有無・位置等の情報がある。
オーバーレイは画像上の位置を自由に変更可能である。
撮影時、鉛マーカーのAP、PA等を間違って撮影してしまった場合、画像上の鉛マーカー部分に、取り消しマークを上書きし、AP/PA等の文字を任意の位置にオーバーレイすることで、間違いを明確に修正可能である。
(d)特殊指定
プロテクトの情報:画像出力後も、プロテクトを外すまで画像ファイルを保存する。
保留(ペンディング)の情報:転送を保留する。後で画像を見直してから転送したい場合に指定する。
優先(緊急)の情報:緊急撮影の場合など優先的に出力したい場合に指定する。キューの先頭に登録される。
【0059】
b.患者情報
患者に関する情報である。
(a)患者ID情報
患者ID番号、氏名、性別、生年月日等が含まれる。
(b)オーダー情報
医師が撮影依頼をする情報である。
患者の状態に関する情報、検査依頼に関する日時・方法の指示等が含まれる。
【0060】
c.実施情報
受信、画像処理した結果に関する情報である。
(a)受信結果 撮影日時等が含まれる。
(b)画像処理結果
画像処理パラメータ算出結果であり、出力時にこの結果に基づき画像データを画像処理する。
(c)システム情報
撮影が行われた時点でのシステム構成等、システム情報の一部が含まれる。
【0061】
d.システム情報
(a)図1のシステムを管理・制御するための情報。
(b)図1のシステムの構成(接続されている画像サーバ5等の外部装置、その名称)。
(c)図1のシステムを構成する機器を制御するためのパラメータ、テーブル。
(d)入力装置である医用画像生成装置1に関する設定情報
(e)プリンタ6の情報、HOST情報等、出力装置に関する設定情報。
【0062】
e.画像データ
(a)医用画像生成装置1より受信した画像データ。
(b)画像確認のために画像データより作成した表示用縮小画像データ
(c)画像確認処理部45での表示用縮小画像の画像処理のための画像処理用縮小画像データ。
(d)階調処理、周波数処理等を施した出力画像データ。
【0063】
C.ファイル
医用画像処理装置2で取り扱うファイルは保存部41に保存され、以下の7つに分類できる。
【0064】
a.条件ファイル
条件キーは画像ファイルに対する画像処理条件、出力条件をあらかじめセットしておくキーである。条件キー毎に対応した条件ファイルを持つ。条件ファイルは上記条件情報で構成される。撮影部位(肺野、腹部、頭部等)、撮影体位(立位、臥位等)、撮影方向(正面、側面等)、患者の特徴(性別、年齢、体格等)、病名、使用する技師等により分類し、それぞれに対応した名称、撮影情報をあらかじめ設定しておく。そして、主制御装置21は、複数に分類した各分類毎に、条件ファイル群を設定し、設定された条件ファイル群毎に複数の条件ファイルを設定し、保存部41に保存する。画像受信時にもっとも適した条件を一つ選ぶ。
【0065】
b.画像ヘッダファイル
受信後、画像ヘッダファイルが作成される。画像ヘッダはその撮影の予約ファイル(即ち撮影情報、患者情報)、撮影実施情報で構成される。ユーザが撮影情報、患者情報、撮影実施情報を参照、変更する場合は画像ヘッダファイルを参照する。
【0066】
c.縮小画像ファイル
画像データを何分の一かに縮小した画像データである。
(a)表示用縮小画像データ
図2の画像表示部22に表示されるデータは、この表示用縮小画像を使用する。
(b)画像処理用縮小画像データ
画像処理を実施するためのパラメータを算出する縮小画像データである。縮小率は縮小後の1画素があらかじめ指定された同一長さになるように決定する。これにより読取画素サイズの違いを縮小後の画像で補正できる。画像処理パラメータの算出は、画像処理用縮小画像で行われ、画像データは使用しない。
【0067】
d.画像ファイル
(a)画像ファイルは、画像付帯情報(画像ヘッダ)と画像データで構成される。
(b)画像ヘッダは条件情報、患者情報、実施情報で構成される。
ユーザが条件情報、患者情報、実施情報を参照し、変更する場合は画像ヘッダを参照する。
【0068】
e.出力画像ファイル
周波数処理・階調処理・オーバーレイ・回転・拡大縮小のうち指定された処理を施した出力画像データのファイルである。
【0069】
f.システムファイル
上記システム情報をファイル化したものである。
【0070】
D.主な情報の入力・表示
【0071】
a.受信画像情報表示
受信画像をサムネイル表示する。
【0072】
b.出力情報表示
▲1▼出力サイズ、向き、トリミング位置、出力位置、拡大縮小方法等を指定する。あらかじめ条件ファイルに登録する。
▲2▼条件キーが選択されると、あらかじめ指定された条件で出力領域、出力画像領域が決定され、画像表示部22の画面上に表示される。画像表示部22の画面上の出力領域表示エリアの大きさを出力における最大出力領域とする。出力領域、出力画像領域を、出力領域表示エリアにグラフィック表示する。これにより、適切な出力領域、出力画像領域の選択、確認を装置毎に行うことができる。
【0073】
c.オーバーレイ情報
▲1▼「AP」、「PA」、「R」、「L」、コメント、目盛り等をオーバーレイするか否か、どの位置にオーバーレイするかを指定する。あらかじめ条件ファイルに登録する。
▲2▼画像表示部22の画面の出力領域表示エリアに、出力画像を表示し、そこにオーバーレイ情報をグラフィック表示する。
▲3▼適切なオーバーレイの選択、位置の指定をできる。
▲4▼オーバーレイに隠れて見えない部分が無いことを確認できる。オーバーレイにより診断に不都合が生じる場合は移動できる。
【0074】
d.RISからのオンライン情報入出力
▲1▼医師からのオーダーを入力する。入力したオーダーを、本システムのフォーマットに変換し予約ファイルに保存する。撮影部位、撮影方法を対応する撮影条件キーで変換する。
▲2▼画像ヘッダファイルをRIS側フォーマットに変換し出力する。
【0075】
e.画像リスト
画像ファイルをリストとして表示することができる。
【0076】
E.画像確認手順
a.画像確認時のシステムの動作
(1)画像ファイルを医用画像生成装置1より受信し、保存部41に格納する。
(2)保存部41の記憶媒体に格納された画像ファイルは、画像確認処理部45であらかじめ指定された縮小率で縮小される。
(3)順次、縮小画像が画像表示部22の画面に表示される。
(4)受信及び表示終了後、デジタル画像情報は撮影条件キーによってあらかじめ指定された方法で画像処理され画像表示部22に再表示される。画像処理のパラメータの決定には縮小画像が使用される。
(5)画像表示部22に順次、表示され、表示終了後階調処理された画像を再表示する。
(6)オペレータが、画像表示部22に表示される受信画像を見て正常画像と判断した場合は、文字情報入力装置より受信終了を確認するためのキーを入力し画像確認は終了する。
(7)患者情報、画像処理方法、出力方法等を変更したい場合には、文字情報入力装置から新たな情報を入力することができる。
(8)画像確認キーが押されるとその画像の画像確認は終了し自動的に次の画像が表示される。
(9)画像に問題がある場合は、画像処理の変更することができる。保留として、後で詳細な画像処理の変更が可能である。
(10)画像確認キーが入力されると画像確認は終了し、以下の処理がされる。
▲1▼画像ファイルが確認済み画像ファイルとして保存部41に保存される。
▲2▼画像確認が終了した画像は外部装置への出力のためにキューに登録される。
▲3▼次に受信された画像ファイルが表示されて、画像確認可能となる。
(11)保留キーが入力されると画像確認は終了する。
【0077】
F.出力
▲1▼出力は受信、画像確認とは非同期に行われる。
▲2▼キューは外部装置毎に作られて管理され、それぞれのキューは互いに独立に動作し、影響し合わない。したがって出力は装置毎に非同期に行われる。
▲3▼画像がどの外部装置のキューに登録されているかは保存部41にキュー登録テーブルとして保存され、キューへの登録、削除毎に更新されて管理される。
▲4▼キューに登録された画像は登録された順に外部装置に出力され、出力が終了した画像はキューから削除される。
▲5▼出力を実行するときには、キューに登録されている番号から、保存部41に記憶されている画像ファイルを特定する。
▲6▼画像ファイルに保存されている条件で出力画像が形成される。画像ヘッダは出力装置毎に決められるフォーマットに変換され、画像データと共に転送される。
【0078】
G.出力画像の形成
【0079】
a.出力画像は、出力画像形成部43で主に以下の処理で形成される。
▲1▼保存部41から画像用メモリへ、画像データを読み出す。
▲2▼周波数処理を行う。
▲3▼イコライゼーション処理
▲4▼階調処理を行う
▲5▼画像の回転を行う
▲6▼ミラー反転を行う
▲7▼拡大縮小を行う
▲8▼オーバーレイを行う
【0080】
b.▲2▼〜▲8▼は実行するかどうかを条件情報で出力装置毎に指定できる。
【0081】
c.▲2▼〜▲8▼の指定された処理をした画像データを処理済み画像データファイルとして保存することを指定できる。各出力装置への出力画像の共通処理部分の再処理をなくす。
【0082】
d.例えば、各出力装置への出力画像の拡大縮小率が違う場合、▲6▼まで処理済みの画像を保存しておけば、別装置へ転送する場合、▲6▼まで処理済みの画像を読み出し、▲7▼▲8▼のみ処理を行い転送することで、▲2▼〜▲6▼での時間を短縮できる。
【0083】
e.▲5▼▲6▼を▲2▼▲3▼▲4▼のいずれかと同時に実行する。メモリのアクセスが減り、処理時間を短縮できる。
【0084】
H.ユーティリティ機能
【0085】
a.ユーザのためのユーティリティとしていくつかの機能を持つ。
ユーティリティ機能はパスワードにより、一般ユーザ、マネージャー、メーカー毎に機能が制限される。特に画像に関する情報の変更は、セキュリティのためにマネージャーのパスワードを必要とする。
【0086】
b.画像ファイル操作
▲1▼画像ファイルリストが表示され、保存されている画像に関する情報が受信順に画像表示部22に表示される。
▲2▼リスト中から所望の画像を選択すると、患者情報、条件情報、画像が画像確認時の画面と同様の形態で表示される。
▲3▼患者情報、画像処理方法、出力方法等を変更することができる。
▲4▼撮影時に「保留」を指定された画像は、ここで再確認することで「保留」が解除される。
▲5▼各外部装置へ出力するかどうか、出力順を変更できる。
【0087】
c.撮影記録、照射録
▲1▼撮影情報、患者情報を統計処理し、撮影記録、照射録としてユーザに提供する。
▲2▼指定された期間の撮影部位毎の撮影数、一日に撮影した撮影条件のリスト等を出力できる。
【0088】
d.カスタマイズ
画面、操作性をユーザ毎にカスタマイズできる。
【0089】
次に、図1,図2の医用画像処理装置2において、受信画像が適正範囲外とされたときに警告し出力を保留する構成について説明する。
【0090】
(1)画像データの統計的性質の解析
【0091】
図2の医用画像処理装置2の主制御装置21が受信した画像データのヒストグラムを解析する。一般に、ヒストグラムにより画像データの最大値及び最小値、頻度の最大及び最小な値、分散値等を求めることができる。頻度の最大値は、頻度が0または最大頻度の5%になるところを最大値とすることもできる。
【0092】
放射線画像においては、人体の解剖学的特徴に基づくものであるので、各検査部位(胸部、腹部、乳房、等)、撮影方向(正面、側面等)によってヒストグラムに特徴が見られる。この特徴によって求めた適正な範囲を予め検査部位及び撮影方向毎に設定する。
【0093】
例えば、検査部位A、撮影方向Aの画像(12ビット)では、未画像処理の画像を全画像データで解析した結果において、最小値:512以上、最大値:3584以下と規定することで、この範囲外の画像は撮影が不適切と判断することができる。即ち、最大値を越えると線量過多、最小値未満であると線量過小と判断できる。
【0094】
また、検査部位A、撮影方向Aの画像(12ビット)で、画像処理済み画像を解剖学的領域決定手段により決定された関心領域内で解析した結果において、例えば、最大頻度値:2048〜3071、最大値:3584以下と規定することで、この範囲外の画像は関心領域の出力時の濃度が診断上不適切であると判断できる。
【0095】
上記解剖学的領域決定手段について図3を参照して説明する。図3は解剖学的領域決定を説明するための図(a),(b),(c)である。
【0096】
図2の医用画像処理装置の主制御装置21が上記解剖学的領域決定手段を備え、本出願人が、先に、特許第2864162号公報で提案したように、例えば、図3(a)のような肺野が画像の略中央に位置している胸部正面画像の全体データから図中破線で囲む肺野を含む矩形的な領域を解剖学的領域として次のように決定する。
【0097】
(A)まず、画像データのうち全体に対して画像処理に影響が小さい画像の上部と下部とを省いた部分の縦方向のプロジェクション値(画像データの一方向の累積値)を求める。例えば、図3(b)のように、上,下端からそれぞれ約1/3の領域を除いた中央部のプロジェクション値を求める。
【0098】
(B)求められた縦方向のプロジェクションから、中央部分の1/3の範囲(図3(a)の1/3X〜2/3Xの範囲)でプロジェクション値(濃度)が最小値PCを持つ点を正中線のコラムXCとする。
【0099】
(C)画像全体の右側及び左側の1/3のコラム(図3(a)の0〜1/3Xの範囲と2/3X〜Xの範囲)において、画像データの中央側から外側(図3(b)の左側及び右側)に向かって夫々移動し、各移動点のプロジェクション値と後述のしきい値TR,TLとを比較する。そして、プロジェクション値が最初にしきい値TR,TL以下になった位置を肺野の左端と右端として夫々決定する。
【0100】
前記しきい値TR,TLは、前記各範囲におけるプロジェクション値の最大値PRX,PLX(図3(b)参照)と最小値PCとに基づいて、次式により夫々求められる。
TL={(K1−1)×PLX+PC}/K1TR={(K2−1)×PRX+PC}/K2
ここで、K1,K2は定数であり、例えば、K1=K2=5に設定される。
【0101】
(D)また、前記正中線XCと右端との間で、右肺野の横方向のプロジェクション値を求める(図3(c)参照)。
【0102】
(E)また、画像データの中央部(図3(a)の1/2Y)から上方と下方とに向かって夫々移動し、各移動点のプロジェクション値を図3(c)のデータから求める。そして、中央部から上方においては、求められたプロジェクション値と後述のしきい値TTと比較し、プロジェクション値がしきい値TT以下に最初になった位置を右肺野の上端とする。また、中央部から下方においては、求められたプロジェクション値と後述のしきい値TBとを比較し、プロジェクション値がしきい値TB以下になった位置を右肺野の下端とする。
【0103】
前記しきい値TT,TBは、1/4Y〜1/2Yと1/2Y〜4/5Yとの範囲で求められたプロジェクション値の最大値PTX,PBXと、各最大値より上方と下方とにて夫々求められたプロジェクション値の最小値PTN,PBNとに基づいて、次式により夫々求められる。
TT={(K3−1)×PTX+PTN}/K3TR={(K4−1)×PBX+PBN}/K4
ここで、K3,K4は定数であり、例えば、K3=10,K4=6に設定される。
【0104】
(F)正中線から左端までの画像データについても前記(D),(E)と同様に行って、左肺野の上端と下端とする。
【0105】
(G)求められた右肺野の上端と左肺野の上端とを比較し、それらのうち上方に位置する上端を肺野全体の上端として決定する。また、求められた右肺野の下端と左肺野の下端とを比較し、それらのうち下方に位置する下端を肺野全体の下端として決定する。
【0106】
上述のようにして、肺野部分の領域を図3(a)の破線で囲む所望の解剖学的画像領域として決定することができる。なお、肺野の部分は周囲の部分に比べて相対的に放射線の透過量が大きいため、プロジェクション値を用いて被写体領域内から肺野領域を抽出できるのである。
【0107】
以上のようにして、未画像処理の画像を解析し、設定した適正範囲を外れ、撮影が不適切と判断されたり、また、画像処理済み画像を解剖学的領域決定手段で決定された関心領域内で解析し、設定した適正範囲を外れ、関心領域の出力時の濃度が不適切であると判断されると、図2の画像表示部22に警告メッセージを画面上に表示するようになっている。この警告をユーザが参照することで通常よりも注視することを促すことができる。
【0108】
なお、本実施の形態では、図2の医用画像処理装置2が予め画像処理、出力方法を設定した条件ファイルを備えており、この条件ファイルを利用し、適正範囲を条件ファイルごとに設定することができる。
【0109】
(2)画像付帯情報の濃度及びコントラストに関する情報
【0110】
図2の医用画像処理装置2の主制御装置21が濃度及びコントラストに関し、次の判断を行う。まず、受信した画像付帯情報の濃度、コントラストに関する情報を参照する。一般に、画像処理によって自動的に決定された、または、ユーザの目視による操作で決定された、濃度コントラストは人体の解剖学的特徴に基づくものであるので、各検査部位(胸部、腹部、乳房等)、撮影方向(正面、側面等)によって特徴が見られる。この特徴によって求めた適正な範囲を予め検査部位及び撮影方向毎に設定する。
【0111】
例えば、検査部位な撮影方向Aの画像(12ビット)では、ウィンドウセンタ:1182±50、ウィンドウ幅:3000±100
検査部位B、撮影方向Bの画像(12ビット)では、ウィンドウセンタ:1300±50、ウィンドウ幅:2500±100、と規定することで、この範囲外の画像は、撮影が不適切(線量過多、線量過小)であり、また、画像処理により過度に補正している、または、画像処理が不適切である、と判断できる。
【0112】
以上のようにして、撮影が不適切であり、また、画像処理により過度に補正している、または、画像処理が不適切である、と判断されると、図2の画像表示部22に警告メッセージを画面上に表示するようになっている。この警告をユーザが参照することで通常よりも注視することを促すことができる。
【0113】
なお、本実施の形態では、図2の医用画像処理装置2が予め画像処理、出力方法を設定した条件ファイルを備えており、この条件ファイルを利用し、適正範囲を条件ファイルごとに設定することができる。
【0114】
(3)撮影部位及び撮影方向と被写体認識
【0115】
図2の医用画像処理装置2の主制御装置21が撮影部位及び撮影方向に関し、次の判断を行う。まず、受信した画像付帯情報の撮影部位及び撮影方向に関する情報を参照する。そして、画像を被写体認識手段により被写体認識し、撮影部位及び撮影方向を判別する。
【0116】
画像付帯情報の撮影部位/撮影方向と被写体認識により判別した撮影部位/撮影方向とを比較し、例えば、ともに撮影部位:胸部、撮影方向:正面で一致していれば適正と判断し、撮影部位が胸部と腹部、撮影方向が正面と側面のように不一致であれば不適正と判断し、図2の画像表示部22に警告メッセージを表示する。
【0117】
この警告をユーザが参照することで、画像付帯情報と画像とが同一検査に関するものであること、撮影オーダと画像が一致しているか否かを再確認することを促すことができる。
【0118】
上記被写体認識手段について図4乃至図10を参照して説明する。図4は被写体認識の各ステップを示すフローチャートである。図5乃至図10は被写体認識を説明するための図である。
【0119】
図2の医用画像処理装置の主制御装置21が上記被写体認識手段を備え、本出願人が、先に、特開2002−15321公報で提案したように、放射線画像について被写体領域の抽出及びその抽出された被写体形状の認識を行う。
【0120】
まず、画像を図1の画像生成装置1から受信し(S01)、次に、画像から被写体領域抽出を行う(S02)。即ち、図5(a)のように、画像を複数の小領域に分割する。各小領域内毎に、該小領域に含まれる画素信号値の平均信号値をしきい値Th1としてそれぞれ求める。
【0121】
次に、図5(b)のように、各小領域毎に、しきい値Th1より信号値の低い画素を被写体領域として検出する。各小領域で得られた被写体領域の平均信号値を求め、しきい値Th2とする。
【0122】
次に、図5(c)のように、画像全体で、しきい値Th2よりも信号値の低い画素を被写体領域として検出する。そして、図5(d)のように、照射野外領域を検出された被写体領域から除くために、照射野外領域の境界線を求め、その境界線と、近い方の画像端までの間を、照射野外領域として取り除く。
【0123】
照射野外領域の境界線は次のように求める。まず、被写体領域の境界に位置する画素を境界点として検出する。そして、同方向の境界点が多数並ぶ直線を境界候補線として検出する。境界候補線は、任意の2点の境界点から直線の方程式を計算し、その直線上に存在する境界点の個数が、所定のしきい値Th3以上なら検出する。そして、境界候補線から画像端までの間が、ほぼ被写体領域となっている場合、その境界候補線は、照射野外領域境界線として、画像端までの間の被写体領域を、照射野外領域として取り除く。
【0124】
なお、被写体領域抽出の手段として、上述の手段以外に、以下の手法(1),(2)も採用できる。(1)特開昭63−259538号公報、特開昭63−244029号公報、特開平5−7579号公報等に記載された手法により、照射野野領域を検出した後、照射野領域内の画素信号値のヒストグラムの形状から、放射線が直接照射された領域に相当する信号値を見つけ、それらの信号値に相当する領域を照射野から除外した残りの照射野領域を被写体領域とする。前記放射線の直接照射領域に相当する信号値の検出は、例えば判別分析等の手段により、前記ヒストグラムにおいて直接照射領域を示す高信号領域と、被写体を透過したためそれより低信号となる低信号領域とのしきい値を求め、該しきい値より高信号の領域を直接照射領域とみなすことによって可能である。
【0125】
(2)また、ヒール効果や放射線画像形成手段に起因するムラ等による影響を避けるため、前記直接照射領域を除外するためのしきい値の検出は、画像を上下2分割、左右2分割による4分割する等、複数のブロック化した領域毎に画素信号値ヒストグラムを作成し、前記と同様判別分析等の手段によって行う方法も可能である。
【0126】
以上の(1)の手段によって得られた被写体領域を示す被写体領域情報は、縮小画像形成手段20から得られた間引き画像と同サイズの領域表示画像として与えられ、被写体領域外の画素は‘0’、被写体領域に含まれる画素は‘1’、前記照射野外領域境界線(照射野端)上に位置する画素は‘2’の画素値の画素値となるように設定する。被写体領域が互いに連結することのない、複数の領域からなる場合、このうちの最大の領域のみを抽出する。被写体領域数の算出、及び各領域の分類については、例えば従来からよく用いられるラベリング処理等を利用することができる。
【0127】
こうして被写体領域が複数の領域に分類された場合、各領域に含まれる画素の数をそれぞれカウントし、画素数が最大となる領域のみを改めて被写体領域とし、被写体領域情報を更新する。
【0128】
次に、上述のようにして得られた被写体領域についてその形状の認識を次のようにして行う(図6参照)。
【0129】
まず、以下のようにして領域境界点の検出を行う(S03)。図6(a),(b)を参照し、被写体領域情報を示す領域表示画像に対し、水平方向かつ等間隔に、画像の一端から他端まで順に走査する複数の異なる走査線を設定する。
【0130】
各走査線上で、画像左端から順に1画素ずつ右側へ移動しながら画素値を調べ、画素値が‘0’から‘1’に、または‘2’から‘1’に変わる位置の画素を領域境界点(左)として検出する。その後、今度は同じ走査線上で画像右端から順に1画素ずつ左側へ移動しながら画素値を調べ、画素値が,‘0’から‘1’に、または‘2’から‘1’に変わる位置の画素も領域境界点(右)として検出する。もし、画像端での画素値が‘1’の場合は、その走査線上での画像端の画素を領域境界点とする。
【0131】
領域境界点検出で得られた領域境界点について、(左)または(右)のグループ毎に、隣接する領域境界点との水平座標値の差を計算する。
【0132】
次に、前記水平座標値の差から、前記グループ毎に水平座標について被写体領域形状が‘凸’となる極大点((左)グループなら、水平座標が局所的に最も左側となる点、(右)グループなら水平座標が局所的に最も右側となる点に相当)、被写体領域形状が‘凹’となる極小点((左)グループなら、水平座標が局所的に最も右側となる点、(右)グループなら水平座標が局所的に最も左側となる点に相当)を求める。
【0133】
また、これら極点(極大点、極小点)についてその近傍での凹凸度合を調べる。極点の位置、及び凹凸度合は、以下のように算出する。以下に説明する方法は、(左)グループ、(右)グループとも同様に利用できるので、片方のグループについてのみ説明する。
【0134】
被写体領域の最上方及び最下方に存在する領域境界点以外の領域境界点について、被写体領域上方より順に以下の処理を行う。
【0135】
当該領域境界点(被写体領域の最上方及び最下方に存在する領域境界点以外の領域境界点)p0とその上方に存在する隣接領域境界点p1との水平座標の差分値s1を求める。同様にして、当該領域境界点p0とその下方に存在する隣接領域境界点p2との水平座標の差分値s2を求める。
【0136】
次に、s1×s2の符号を調べ、所定の条件を満たす場合、極点を検出する。s1×s2<0のとき、当該領域境界点p0を極点とする。s1×s2=0のときで、かつ、sj(j=1,2)の一方のみ‘0’のとき、差分値が‘0’である方向(上または下)に対し、p0とその近傍に存在する他の領域境界点について、p0から離れる方向へ、順番に水平座標の差分値を計算していく。そして最初に差分値が‘0’以外となったとき、改めてその差分値をsjとする。
【0137】
そして、もう一度s1×s2を計算する。このときs1×s2<0となれば、前記p0と、sjが初めて‘0’以外の値となったときの領域境界点の中点を極点とする。
【0138】
ここで、図7を参照して凹凸度合いについて説明する。まず、極点から上方に隣接領域境界点間の水平座標の差分値を順次調べてゆき、その差分値が極点上方近傍での差分値と逆符号となるか、あるいは‘0’となる点aを求める。また同様にして、極点から下方に隣接領域境界点間の水平座標の差分値を順次調べてゆき、その差分値が極点下方近傍での差分値と逆符号となるか、あるいは‘0’となる点bを求める。このような点a、点bについて、極点近傍の差分値と逆符号になる点が見つからない場合、被写体が存在している垂直座標のそれぞれ最も上方、下方の点を点a、点bとする。
【0139】
これらの点a、bの水平座標の平均値と当該極点の水平座標の差を、深度(図7参照)及び点a、b間の垂直座標の差を幅(図7参照)として、それぞれ極点の凹凸度合を表す指標とする。なお、前記点a、点bの求め方として、差分値を基準とする代わりに、水平座標の2次微分値を基準としてもよい。ここで、2次微分値を基準にする場合も、極点近傍の2次微分値と逆符号となるか‘0’となる点を点a、点bとする。
【0140】
なお、この凹凸度合を調べる際、微小な変化を検出して大局的な変化を誤らないよう、前記差分値を計算する領域境界点間の距離をある程度離す等の工夫をすることが望ましい。例えば、垂直方向(領域境界点を検出する際の走査線と直交する方向)の被写体領域の長さを10〜30等分した等分線上にある領域境界点のみを用いたり、隣接する複数の領域境界点の平均水平座標をもとめ、その平均水平座標を基準に前記差分値を求める、等の方法がある。
【0141】
また、被写体領域と照射野端とが接するところでは、本来の被写体の形状と異なって、凸型の形状となってしまうことがある(図7の部分拡大図参照)。そのため、極点が極大点で、かつ被写体領域と照射野端とが接する場合には、この当該極点は検出しなかったものとみなし、深度、幅とも‘0’とする。
【0142】
以上の場合において、被写体領域と照射野端とが接するかどうかの判断は、次のように行う。即ち、極点近傍かつ上方、または下方のどちらかにある複数の領域境界点において、所定の距離以内(1画素〜3画素程度)に照射野端を示す、領域表示画像の画素値が‘2’となる画素があれば、被写体領域と照射野端は接していると判断する。また、被写体領域と画像端とが接する場合も同様に扱う。
【0143】
以上のようにして求められた極点のうち、凹凸度合の大きいものが外形形状をはぼ代表すると考えられる。そこで前記(左)または(右)のグループ毎に、深度の絶対値が大きいものから順に所定数(1〜3個程度が望ましい)だけを抽出し、極点の位置、凹凸のいずれか、深度、幅の情報を1セットとして、位置変化量情報を得る(S04)。また、上記の被写体の水平方向の位置変化と同様に、垂直方向の位置変化についても極点を求め、それぞれ位置変化量情報とする。
【0144】
次に、前記領域境界点のうち、同一の走査線上にある境界点同士の距離を求める。求めた距離は走査線の垂直方向座標値であるとともに領域幅情報である(S05)。
【0145】
次に、上述のようにして得られた位置変化量情報及び領域幅情報から、被写体の外形を予め準備した複数のパターンの内から最適と思われる形状に分類する(S06)。
【0146】
即ち、放射線撮影における人体の外形形状は、その被写体となる部位により、異なる特徴を有する。例として図8(a),(b)に示すような頭部画像では、(左)及び(右)の各グループから得られた位置変化量情報を画像上端から下端側へ調べていくと、ともに途中で画像左端、及び右端に近づくよう変化した後、また画像端から遠ざかるような変化をするため、外形形状を“樽型”と分類できる。また、図8(c),(d)に示すような頸部画像では、逆に途中で一度画像端から遠ざかり、再び画像端に近づくような変化することが分かる。このような場合、外形形状は“砂時計型”と分類できる。
【0147】
更に、図9(a),(b)に示すような腹部画像、図9(c),(d)に示すような下肢画像については、領域境界点の水平方向の位置変化はあまりなく、ともに外形形状は略矩形であるが、領域幅情報を用いることで、腹部画像は幅が広く、一方下肢画像は幅が狭いことより、それぞれ“正方形型”、“長方形型”と分類できる。
【0148】
更に、図10に示すような膝関節画像では、関節部分が途中で折れ曲がった形をしているので、“ブーメラン型”と分類することができる。その他にも、肩関節などでは“扇型”、手指などでは“枝分かれ型”、踵などでは“片凸型”、鎖骨などでは“三角形型”、などといった分類が考えられる。
【0149】
以上のように、位置変化量情報、及び領域幅情報により、外形形状を幾つかのパターンに分類し、その分類された結果は、最終的に得られる特徴量として出力される(S07)。例えば、出力結果は、分類結果を表す形状ベクトルSの各要素に関連づけて記憶される。形状ベクトルSは、前記分類結果に対応する要素のみ‘0’以外の値を持つことで表す。例えば、“樽型”、“砂時計型”、“ブーメラン型”、“正方形型”、“長方形型”に対応する要素番号をそれぞれ‘0’、‘1’、‘2’、‘3’、‘4’と設定しておく。そして、分類結果が“樽型”であれば、S[0]=1とし、“砂時計型”であれば、S[1]=1というように記憶される。このように、この形状ベクトルSが、特徴量として出力される。
【0150】
また、場合によっては単純にどの型とは分類し難いこともある。そこで候補となり得るパターンに相当する特徴量に対し、重み付けを行ってそれぞれ出力するようにしてもよい。この場合、前記形状ベクトルSのうち、複数の要素に‘0’以外の値を持たせ、各要素の値の合計を一定値(例えば‘5’)となるように設定する。そして確信度が高い形状に相当する要素程、大きな値を有するように値を割り振る。
【0151】
例えば、前記“砂時計型”の判別基準において、深度の条件が少しだけ未達になるような場合、たとえば、被写体左右方向の平均幅に対し、極点の深度の合計が18%しかない等、“正方形(長方形)型”と分類するか“砂時計型”と分類するかは微妙なところである。このような場合、形状ベクトルSの“砂時計型”を表す要素と“正方形(長方形)型”を表す要素ともに値を割り振る。
【0152】
この場合、値の割り振り例としては、深度の合計が10%以下のときは“正方形(長方形)型”を表す要素S[3(4)]=5、“砂時計型”を表す要素S[1]=0とし、前記深度の合計が被写体左右方向の平均幅に対し2%増える毎にS[3(4)]の値を‘1’ずつ減少させ、逆にS[1]値を‘1’ずつ増加させる。
【0153】
この“砂時計型”と“正方形(長方形)型”の例以外にも、“樽型”と“正方形(長方形)型”、“正方形型”と“長方形型”、“ブーメラン型”と“正方形(長方形)型”の間などでも、ここに示したのと同様の判別分類基準を適用することができる。
【0154】
更に、被写体領域と画像端、もしくは照射野端とがどのように接触しているか、ということも被写体を認識する上で有用な情報となる。例えば、被写体が胸部や腹部を撮影したものである場合、通常使用される撮影装置では、画像を取得できる範囲より人体の方が大きいため、少なくとも画像端もしくは照射野端の上下(または左右)と被写体とが接触することとなる。一方、被写体が手先や足先を撮影したものである場合、被写体が小さいため画像端もしくは照射野端のうち、上下左右のいずれか一端としか接触しない場合がある。更に、肩関節等の撮影では被写体が上下左右の画像端もしくは照射野端のうち、隣接する2つの方向とのみ接触し、残りの端部とは殆ど接触しないことが多々ある。
【0155】
以上のように、被写体領域と画像端、照射野端との接触度合から被写体の撮影部位を特定するための情報を得ることができる。そこで、この接触度合の情報を得るために、画像端もしくは照射野端の上下左右の辺毎に被写体と接している画素数をカウントし、各辺毎にその接している画素の合計を求める。接しているかどうかの判断は、以下のように行う。即ち、領域境界点の検出で説明した方法により、領域表示画像から水平方向及び垂直方向の各画素列毎に領域境界点を算出し、各領域境界点から所定距離(1〜3画素程度)以内に、照射野端を示す‘2’の値を有する画素、または、画像端が有れば接していると判断する。領域境界点の(上)(下)(左)(右)の各グループ毎に、照射野端もしくは画像端と接している領域境界点の合計を求め、画像端、もしくは照射野端と被写体との接触情報、即ち、接触度合いに基づく特徴量として出力する。
【0156】
以上のように、位置変化量情報及び領域幅情報により、外形形状を幾つかのパターンに分類し、分類された結果は最終的に得られる特徴量として出力されるが、この特徴量は被写体の撮影部位及び撮影方向を特定するために非常に有用な情報として利用することができる。即ち、診断に利用する放射線撮影で、撮影対象となる撮影部位が頭部から四肢まで多岐に渡っており、また撮影方向も複数あり、更に、それぞれによって医師が注目する領域も異なる場合でも、特徴量を正しく抽出して、各撮影部位・各撮影方向を正確に認識することが可能になる。また、接触度合いによっても最終的に得られる特徴量が出力される。上記のように、この特徴量は被写体の撮影部位を特定するために非常に有用な情報として利用できる。
【0157】
以上の外形形状に基づく特徴量と、外形形状と画像端もしくは照射野端との接触度合に基づく特徴量との、2種類の特徴量を利用(併用)することにより、放射線画像における被写体の撮影部位及び撮影方向をより一層正確に認識することができる。
【0158】
なお、上記実施の形態では、走査を画像の水平方向のみについて行っているが、より正確に形状を特定するためには、垂直方向にも走査を行い、同様に領域境界点を検出した後、位置変化量情報、領域幅情報を求めて形状特定に利用することが望ましい。また、水平と垂直だけでなく、斜め方向の走査を行うようにしてもよい。
【0159】
また、被写体の撮影部位、撮影方向をより正確に認識するために、上記外形形状に基づく特徴量と、外形形状と画像端もしくは照射野端との接触度合に基づく特徴量との他に、別の手段により求めた他の特徴量と併用することが望ましい。被写体の部位、体位を認識するために利用できる他の特徴量としては、“被写体領域の大きさ”、“濃度分布”、“濃度変化量の分布”、“被写体領域形状の対称性”、“濃度分布の対称性”等がある。
【0160】
(4)撮影オーダと被写体認識
【0161】
図2の医用画像処理装置2の主制御装置21が撮影オーダに関し、次の判断を行う。まず、受信した画像情報の撮影オーダ情報を図1の撮影オーダ情報の管理装置のRIS/HIS8から受信する。
【0162】
受信した画像情報と撮影オーダ情報とが同一検査のものであることは、画像受信時に画像付帯情報の検査ID、受付番号等を検索キーとして撮影オーダを管理する装置からRIS/HIS8から受信し検索するか、または、予め撮影オーダリストを受信しておき、受信時にその中から検査ID、受付番号等を検索キーとして検索することで、保証される。
【0163】
上述の図4と同様にして画像を被写体認識し、撮影部位及び撮影方向を判別する。撮影オーダに含まれる撮影部位/撮影方向と被写体認識により判別した撮影部位/撮影方向とを比較し、例えば、ともに撮影部位:胸部、撮影方向:正面で一致していれば適正と判断し、また、撮影部位が胸部と腹部、撮影方向が正面と側面のように不一致であれば、不適正と判断し、図2の画像表示部22に警告メッセージを画面上に表示するようになっている。この警告をユーザが参照することで、画像付帯情報と画像とが同一検査に関するものであること及び撮影オーダと画像が一致していることの再確認を促すことができる。
【0164】
次に、上述の図1、図2の医用画像処理装置2の第1乃至第4の動作について説明する。
【0165】
〈第1の動作〉
【0166】
図11のフローチャートを参照し、受信画像の解析により適正範囲外とされた画像について、警告し、出力を保留する第1の動作を説明する。
【0167】
図1,図2の医用画像処理装置2が画像データを受信し(S11)、画像処理済み画像を上述の図3のようにして解剖学的領域決定手段により関心領域を決定し(S12)、その関心領域内のヒストグラムを解析する(S13)。その解析結果が、予め設定した適正範囲内であるか否かを判断する(S14)
【0168】
そして、上記適正範囲から外れた画像は関心領域の出力時の濃度が診断上不適切であると判断され、「この画像は濃度が診断上不適切です。」等の警告メッセージが図2の画像表示部22に表示されるとともに(S15)、警告メッセージの表示後一定時間が経過すると、その画像の外部の装置3乃至7への出力が保留される(S16)。なお、出力保留は図2の画像表示部22の画面上でユーザが保留を選択することで行うようにしてもよい。
【0169】
以上のように図11の第1の動作によれば、画像データの統計的性質を解析した結果により、画像が適正範囲外であることを認識し、ユーザへ警告することで、撮影を失敗した画像や画像処理を失敗した画像等の異常な画像がユーザの見落としによって他装置ヘ出力されてしまうことを防止できる。
【0170】
なお、図11において、画像データにおける統計的性質を解析する範囲は、画像全体であってもよく、また、画像は、画像処理を実施する前の画像又は画像処理を実施した後の画像のどちらでもよい。
【0171】
また、設定する適正範囲は、検査部位毎に設定し、検査の種類により適正範囲を指定することで、解剖学的特徴、撮影手法による特徴を反映することができ、より正確な適正範囲を指定できる。または、適正範囲を条件ファイル毎に設定してもよく、簡易な設定・選択が可能となる。
【0172】
〈第2の動作〉
【0173】
図12のフローチャートを参照し、画像付帯情報の濃度及びコントラストに関する情報が適正範囲外とされた画像について、警告し、出力を保留する第2の動作を説明する。
【0174】
図1,図2の医用画像処理装置2が画像データを受信し(S21)、受信した画像データの内から画像付帯情報の濃度及びコントラストに関する情報を識別し(S22)、この識別された情報を参照し、その濃度及びコントラストが予め設定した適正範囲内であるか否かを判断する(S23)。
【0175】
そして、上記適正範囲から外れた画像は撮影が不適切(線量過多、線量過小)であり、また、画像処理により過度に補正している、または、画像処理が不適切である、と判断され、「この画像は濃度・コントラストが診断上不適切です。」等の警告メッセージが図2の画像表示部22に表示されるとともに(S24)、警告メッセージの表示後一定時間が経過すると、その画像の外部の装置3乃至7への出力が保留される(S25)。なお、出力保留は図2の画像表示部22の画面上でユーザが保留を選択することで行うようにしてもよい。
【0176】
以上のように図12の第2の動作によれば、画像付帯情報の濃度及びコントラストに関する情報が適正範囲外であることを認識し、ユーザへ警告することで、撮影を失敗した画像や画像処理を失敗した画像等の異常な画像がユーザの見落としによって他装置ヘ出力されてしまうことを防止できる。
【0177】
なお、設定する適正範囲は、検査部位毎に設定できるが、条件ファイル毎に設定してもよい。
【0178】
〈第3の動作〉
【0179】
図13のフローチャートを参照し、画像付帯情報のとおりの被写体か否かを判断し、そうでないとされた画像について、警告し、出力を保留する第3の動作を説明する。
【0180】
図1,図2の医用画像処理装置2が画像データを受信し(S31)、受信した画像データの内から画像付帯情報の撮影部位・撮影方向に関する情報を識別する(S32)。一方、上述の図4乃至図10のような被写体認識手段により画像の被写体認識を行い、撮影部位及び撮影方向を判別する(S33)。
【0181】
次に、この識別された撮影部位・撮影方向に関する情報と、被写体認識による画像の判別結果とを比較し、両者が一致するか否かを判断する(S34)。そして、不一致と判断されると、「この画像はオーダと一致していません。」等の警告メッセージが図2の画像表示部22に表示されるとともに(S35)、警告メッセージの表示後一定時間が経過すると、その画像の外部の装置3乃至7への出力が保留される(S36)。なお、出力保留は図2の画像表示部22の画面上でユーザが保留を選択することで行うようにしてもよい。
【0182】
以上のように図13の第3の動作によれば、画像付帯情報の撮影部位及び撮影方向に関する情報と、画像を画像処理で被写体認識した結果とを比較し、画像付帯情報のとおりの被写体か否かをユーザへ警告することで、画像付帯情報と実際の画像とが一致しない画像がユーザの見落としによって他装置へ出力されてしまうことを防止できる。画像付帯情報と実際の画像とが一致しないということは、患者/検査情報がその画像のものではないことや、撮影オーダ通りの撮影ではないことを示唆し、重要な問題であるが、本実施の形態によれば、かかる問題を未然に防止できる。
【0183】
なお、図13では、画像付帯情報の撮影部位及び撮影方向のいずれか一方について判断するようにしてもよい。
【0184】
〈第4の動作〉
【0185】
図14のフローチャートを参照し、撮影オーダ情報のとおりの被写体か否かを判断し、そうでないとされた画像について、警告し、出力を保留する第4の動作を説明する。
【0186】
図1,図2の医用画像処理装置2が画像データを受信する一方(S41)、RIS/HIS8から撮影オーダ情報を受信する(S42)。受信した画像付帯情報の中の検査ID、受付番号等を検索キーとして撮影オーダ情報を検索することで(S43)、画像データと撮影オーダ情報とを対応付けることができる。なお、予めRIS/HIS8から撮影オーダ情報を受信しておき、画像データの受信時に画像付帯情報の検査ID、受付番号等を検索キーとして検索するようにしてもよい。
【0187】
次に、上述の図4乃至図10のような被写体認識手段により画像の被写体認識を行い、撮影部位及び撮影方向を判別する(S44)。
【0188】
次に、この識別された撮影部位・撮影方向に関する情報と、被写体認識による画像の判別結果とを比較し、両者が一致するか否かを判断する(S45)。そして、不一致と判断されると、「この画像はオーダと一致していません。」等の警告メッセージが図2の画像表示部22に表示されるとともに(S46)、警告メッセージの表示後一定時間が経過すると、その画像の外部の装置3乃至7への出力が保留される(S47)。なお、出力保留は図2の画像表示部22の画面上でユーザが保留を選択することで行うようにしてもよい。
【0189】
以上のように図14の第4の動作によれば、画像情報の撮影オーダ情報を画像を画像処理によって被写体認識した結果と比較し、撮影オーダのとおりの被写体か否かをユーザへ警告することで、撮影オーダと実際の画像とが一致しない画像がユーザの見落としによって他装置ヘ出力されてしまうことを防止できる。撮影オーダと実際の画像とが一致しないということは、患者/検査情報がその画像のものではないことや、撮影オーダのとおりの撮影ではないことを示唆し、重要な問題であるが、本実施の形態によれば、かかる問題を未然に防止できる。
【0190】
なお、図14では、画像付帯情報の撮影部位及び撮影方向のいずれか一方について判断するようにしてもよい。
【0191】
以上のように、図11乃至図14では、画像が異常であるとき、その画像の出力を保留することで、後で時間をかけて正誤の判断や処理の変更をすることができる。また、ユーザがその場にいないときでも、一定時間後、自動的に出力が保留になることで、他装置ヘ出力されてしまうことを防止できる。
【0192】
以上の本実施の形態における医用画像処理装置2の各動作は、記憶装置に格納されたプログラムに従って図2の主制御装置21により制御され、必要な情報処理及びインターフェイス等の画面表示が実行される。
【0193】
以上のように本発明を実施の形態により説明したが、本発明はこれらに限定されるものではなく、本発明の技術的思想の範囲内で各種の変形が可能である。例えば、医用画像生成装置としては、患者の放射線画像情報が記録された輝尽性蛍光体パネルから放射線画像を読み取るようにしたCR装置以外に、X線フラットパネルディテクタを用いた放射線画像撮影装置、CT(computed tomography:コンピュータ断層撮影装置) 、MRI(magnetic resonance imaging:核磁気共鳴映像装置)、DR(digital radiography:デジタルラジオグラフィー)、US(ultrasound:超音波診断装置)などの医用画像生成装置であってもよいことは勿論であり、また、本発明による医用ネットワークシステムにこれらの各医用画像生成装置をそれぞれ接続するようにしてもよい。
【0194】
また、本発明における解剖学的領域決定手段及び被写体認識手段は、図3、図4乃至図10で説明したものに限定されず、他の手段を用いてもよいことは勿論である。
【0195】
【発明の効果】
本発明の医用画像処理装置、医用ネットワークシステム及び医用画像処理装置のためのプログラムによれば、適正範囲外の画像やオーダと不一致の画像が画像表示装置や画像保管装置等の外部装置に出力されてしまうことを防止できる。
【図面の簡単な説明】
【図1】本発明の実施の形態による医用ネットワークシステムの構成を示す図である。
【図2】図1の医用画像処理装置2の構成を示すブロック図である。
【図3】図2の医用画像処理装置の主制御装置21が備える解剖学的領域決定手段を説明するための図(a),(b),(c)である。
【図4】図2の医用画像処理装置の主制御装置21が備える被写体認識手段による被写体認識の各ステップを示すフローチャートである。
【図5】図4の被写体認識における被写体抽出の様子を示す図(a)乃至(d)である。
【図6】図4の被写体認識における外形形状認識の様子を示す図(a)、(b)である。
【図7】図4の被写体認識における端部調査の様子を示す図である。
【図8】図4の被写体認識における形状特定の様子を示す図(a)乃至(d)である。
【図9】図4の被写体認識における別の形状特定の様子を示す図(a)乃至(d)である。
【図10】図4の被写体認識における更に別の形状特定の様子を示す図である。
【図11】本実施の形態の医用画像処理装置における第1の動作を示すフローチャートである。
【図12】本実施の形態の医用画像処理装置における第2の動作を示すフローチャートである。
【図13】本実施の形態の医用画像処理装置における第3の動作を示すフローチャートである。
【図14】本実施の形態の医用画像処理装置における第4の動作を示すフローチャートである。
【符号の説明】
1・・・医用画像生成装置
2・・・医用画像処理装置
3・・・画像表示装置
5・・・画像保存装置
10・・・ネットワーク
21・・・主制御装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a medical image processing apparatus, a medical network system, and a program for a medical image processing apparatus that receive medical image information from another apparatus, process the image, and transmit the processed image to another apparatus.
[0002]
[Prior art]
Radiation images are widely used for diagnosing diseases and the like. In order to obtain such radiation images, radiation transmitted through a subject from an imaging modality radiation irradiating unit of a CR (computed radiography) is converted into a plate-like stimulable phosphor. After the absorption, the stimulable phosphor is excited while being scanned with, for example, a laser beam, so that the radiation energy (radiation image information) accumulated by the stimulable phosphor due to the absorption is emitted as fluorescence. There is known a medical image generating apparatus configured to read a radiation image by photoelectrically converting the fluorescence to obtain a radiation image signal. The fluorescence generated from the stimulable phosphor plate by the scanning of the laser light is collected, photoelectrically converted by a photomultiplier, the electric signal is amplified, and image processing is performed based on a digital signal converted from the analog signal. Thus, a radiation image is read to generate medical image information (for example, see Patent Document 1 below).
[0003]
Conventionally, medical image information read and generated by the above-described medical image generation apparatus is sent to an image processing apparatus to perform predetermined image processing, and output to an external apparatus such as an image display apparatus (viewer) or an image storage apparatus (server). ing. In this case, for example, in a case where a plurality of images of the same examination have mismatched patient information (patient ID number, name, gender, date of birth, etc.) or image information identical to a received image, image processing is performed. When there is inconsistency in the patient / examination information of the image information received by the device, the output is suspended (see Patent Document 2 below).
[0004]
However, the output suspension is a check for inconsistency in the patient / examination information, and the image has been relied on visually. For this reason, when the image is out of the proper range or when the image does not match the order, the image is likely to be output to an external device such as an image display device or an image storage device.
[0005]
[Patent Document 1]
JP-A-11-3444783
[0006]
[Patent Document 2]
JP-A-2002-281210
[0007]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described problems of the related art, and has been made to prevent an image outside an appropriate range or an image not matching the order from being output to an external device such as an image display device or an image storage device. It is an object to provide a program for an apparatus, a medical network system, and a medical image processing apparatus.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a first medical image processing apparatus according to the present invention receives medical image information from another apparatus (reception source), performs image processing, and transmits the image processing to another apparatus (output destination). A medical image processing apparatus, comprising: means for analyzing a statistical property of received image data; means for designating an appropriate range of the statistical property in advance; and a result of analyzing the statistical property being obtained from the designated appropriate range. When it is out of the range, there is provided a means for warning that it is out of the appropriate range, and a means for suspending the transmission after the warning, after the operation of the user or after the elapse of a predetermined time.
[0009]
According to this medical image processing apparatus, based on the result of analyzing the statistical properties of image data, it is recognized that an image is out of an appropriate range, and a warning is issued to a user. Is prevented from being output to another device at the output destination.
[0010]
In the medical image processing apparatus, the range in which the statistical properties of the image data are analyzed is preferably the entire image, and the determination can be performed by simple image processing. Alternatively, the image processing apparatus further includes an anatomical region determining unit that determines an anatomical region for the image, and a range in which a statistical property of the image data is analyzed is a region of interest determined by the anatomical region determining unit. When image processing is performed by analyzing a region of interest, it is possible to specify a more appropriate appropriate range.
[0011]
In addition, it is preferable to set the appropriate range for each examination region. By designating the appropriate range according to the type of examination, anatomical features and features obtained by an imaging method can be reflected, and a more accurate appropriate range can be defined. It becomes possible to specify. Alternatively, it is preferable to set the appropriate range for each condition file, so that setting and selection can be easily performed.
[0012]
Further, the image is an image on which the image processing has not been performed, and when the image is out of the appropriate range, it is possible to warn that photographing is abnormal.
[0013]
Further, the image is an image on which the image processing for transmission is performed, and when the image is out of the appropriate range, a warning that the image processing is abnormal can be issued.
[0014]
A second medical image processing apparatus according to the present invention is a medical image processing apparatus that receives medical image information from another apparatus (reception source), performs image processing, and transmits the image processing to another apparatus (output destination). Means for identifying information relating to the density and contrast of the received image accompanying information; means for designating an appropriate range of the information relating to the density and contrast in advance; and when the values of the density and contrast are out of the designated appropriate range. Means for warning that the transmission is out of the proper range, and means for suspending transmission after a user operation or after a lapse of a predetermined time after the warning.
[0015]
According to this medical image processing apparatus, it is recognized that the information related to the density and contrast of the image accompanying information is out of the appropriate range, and a warning is issued to the user. It is possible to prevent an image outside the range from being output to another device at the output destination.
[0016]
In the medical image processing apparatus, it is preferable that the appropriate range is set for each examination region. Alternatively, it is preferable to set the appropriate range for each condition file.
[0017]
A third medical image processing apparatus according to the present invention is a medical image processing apparatus that receives medical image information from another apparatus (reception source), performs image processing, and transmits the image processing to another apparatus (output destination). Means for identifying information on the imaging region of the received image accompanying information; object recognition means for recognizing the image of the object as a subject and determining the imaging region; the imaging region of the image accompanying information; and the imaging region determined by the object recognition And a means for warning that there is no match when the result of the comparison indicates that they do not match, and a means for suspending transmission after the warning or after a user operation or a fixed time has elapsed. And
[0018]
According to this medical image processing apparatus, by comparing the information regarding the imaging region of the image accompanying information with the result of subject recognition of the image by image processing, and warning the user whether or not the subject is as the image accompanying information, It is possible to prevent an image in which the image accompanying information does not match the actual image from being output to another device at the output destination.
[0019]
A fourth medical image processing apparatus according to the present invention is a medical image processing apparatus that receives medical image information from another apparatus (reception source), performs image processing, and transmits the image processing to another apparatus (output destination). Means for identifying information on the shooting direction of the received image accompanying information,
[0020]
Subject recognition means for recognizing an image of a subject and determining a shooting direction; means for comparing a shooting direction of the image accompanying information with a shooting direction determined by the subject recognition; It is characterized by comprising means for warning not to do so, and means for suspending transmission after a user operation or after a certain time has passed after the warning.
[0021]
According to this medical image processing apparatus, by comparing information regarding the imaging direction of the image accompanying information with the result of subject recognition of the image by image processing, the user is warned whether or not the subject is as the image accompanying information, It is possible to prevent an image in which the image accompanying information does not match the actual image from being output to another device at the output destination.
[0022]
A fifth medical image processing apparatus according to the present invention is a medical image processing apparatus that receives medical image information from another device (reception source), performs image processing, and transmits the image processing to another device (output destination). Means for receiving the imaging order information of the received image information from a device that manages the imaging order information; object recognition means for recognizing an image of an object as a subject and determining an imaging part; an imaging part based on the imaging order information; Means for comparing the imaged part determined by the recognition, as a result of the comparison, when they do not match, means for warning that they do not match, and after the warning, means for suspending the transmission after a user operation or a fixed time has elapsed, and , Is provided.
[0023]
According to this medical image processing apparatus, the imaging region according to the imaging order information of the image information is compared with the result of subject recognition of the image by image processing, and the user is warned whether or not the subject is as the imaging order information. It is possible to prevent an image in which the imaging order does not match the actual image from being output to another device at the output destination.
[0024]
A sixth medical image processing device according to the present invention is a medical image processing device that receives medical image information from another device (reception source), performs image processing, and transmits the image processing to another device (output destination). Means for receiving the photographing order information of the received image information from the apparatus for managing the photographing order information, object recognizing means for recognizing the image of the object as a subject, and determining the photographing direction; photographing direction according to the photographing order information; Means for comparing the imaging direction determined by recognition, means for warning that the two do not match when the result of the comparison does not match, and means for suspending transmission after the warning, after a user operation or after a certain time has elapsed , Is provided.
[0025]
According to this medical image processing apparatus, the imaging direction according to the imaging order information of the image information is compared with the result of subject recognition of the image by the image processing, and the user is warned whether the subject is as the imaging order information. It is possible to prevent an image in which the imaging order does not match the actual image from being output to another device at the output destination.
[0026]
In the first to sixth medical image processing apparatuses described above, when an image out of the proper range or an image that does not match the order is recognized, the transmission (output) of the image is suspended so that the user can save time later. It is possible to judge right or wrong and change processing. Further, even when the user is not present, the output is automatically suspended after a certain period of time, so that it is possible to prevent output to another device of the output destination.
[0027]
The medical network system according to the present invention includes the above-described medical image processing apparatuses, a medical image generating apparatus that generates medical image information and transmits the generated medical image information to the medical image processing apparatus, and receives the image processed image information from the medical image processing apparatus. And a device for performing a predetermined process.
[0028]
According to the medical network system, it is possible to prevent an image outside the proper range or an image that does not match the order from being output from the medical image processing apparatus to an apparatus that performs predetermined processing, such as an image display apparatus or an image storage apparatus.
[0029]
A first program according to the present invention is a program for a computer provided in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus. Analyzing the statistical properties of, and specifying a proper range of the statistical properties in advance, and when the result of analyzing the statistical properties is out of the specified proper range, it is out of the proper range. The computer is made to execute a warning step and a step of suspending transmission after a warning or after a user operation or a predetermined time has elapsed.
[0030]
According to this program, based on the result of analyzing the statistical properties of image data, it is recognized that an image is out of an appropriate range, and a warning is issued to a user. It is possible to prevent an external image from being output to another device at the output destination.
[0031]
Preferably, the range in which the statistical properties of the image data are analyzed is the entire image. Alternatively, an anatomical region determining step of determining an anatomical region for the image is further performed, and a range in which a statistical property of the image data is analyzed is the region of interest determined in the anatomical region determining step. Is preferred.
[0032]
In addition, it is preferable to set the appropriate range for each examination region. By designating the appropriate range according to the type of examination, anatomical features and features obtained by an imaging method can be reflected, and a more accurate appropriate range can be defined. It becomes possible to specify. Alternatively, it is preferable to set the appropriate range for each condition file, so that setting and selection can be easily performed.
[0033]
Further, the image is an image on which the image processing has not been performed, and when the image is out of the appropriate range, it is possible to warn that photographing is abnormal.
[0034]
Further, the image is an image on which the image processing for transmission is performed, and when the image is out of the appropriate range, a warning that the image processing is abnormal can be issued.
[0035]
A second program according to the present invention is a program for a computer provided in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus. Identifying the information relating to the density and contrast of the information; pre-specifying an appropriate range of the information relating to the density and contrast; and when the values of the density and contrast are out of the designated appropriate range, out of the appropriate range. And causing the computer to execute a step of issuing a warning that the transmission is suspended and a step of suspending transmission after a user operation or a predetermined time has elapsed after the warning.
[0036]
According to this program, it is recognized that the information on the density and contrast of the image accompanying information is out of the proper range, and a warning is issued to the user, so that the photographing fails or the image processing fails. It is possible to prevent the image from being output to another device at the output destination.
[0037]
It is preferable that the appropriate range be set for each inspection site. Alternatively, it is preferable to set the appropriate range for each condition file.
[0038]
A third program according to the present invention is a program for a computer provided in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the received image information to another apparatus. A step of identifying information regarding the imaging region of the supplementary information, a step of recognizing the image of the subject as an object, and a step of determining the imaging region; and a step of comparing the imaging region of the image accompanying information with the imaging region determined by the object recognition. And, when the result of the comparison does not match, alerting the user that there is no match, and, after the warning, suspending transmission after a user operation or a fixed time has elapsed, causing the computer to execute the steps. .
[0039]
According to this program, the information about the imaging region of the image accompanying information is compared with the result of subject recognition of the image by image processing, and a warning is issued to the user as to whether or not the subject is as the image accompanying information. It is possible to prevent an image that does not match the actual image from being output to another device at the output destination.
[0040]
A fourth program according to the present invention is a program for a computer provided in a medical image processing apparatus for receiving medical image information from another device, performing image processing, and transmitting the received image information to another device. Identifying information on the shooting direction of the supplementary information; recognizing the subject in the image;
[0041]
Comparing the shooting direction of the image accompanying information with the shooting direction determined by the subject recognition; and as a result of the comparison, when they do not match, a step of warning that they do not match, after the warning, a user operation or Holding the transmission after a lapse of a predetermined time.
[0042]
According to this program, the information on the shooting direction of the image accompanying information is compared with the result of subject recognition of the image by image processing, and a warning is issued to the user as to whether or not the subject is in accordance with the image accompanying information. It is possible to prevent an image that does not match the actual image from being output to another device at the output destination.
[0043]
A fifth program according to the present invention is a program for a computer provided in a medical image processing apparatus that receives medical image information from another device, performs image processing, and transmits the image processing to another device. Receiving the imaging order information from the device that manages the imaging order information, recognizing the image of the subject as an object, and determining the imaging region, the imaging region according to the imaging order information, and the imaging region determined by the object recognition. Performing the steps of: comparing, when the result of the comparison does not match, warning that they do not match; and after the warning, suspending transmission after a user operation or a fixed time has elapsed. It is characterized by making it.
[0044]
According to this program, the imaging region according to the imaging order information of the image information is compared with the result of object recognition by image processing of the image, and a warning is issued to the user as to whether or not the subject is in accordance with the imaging order information. An image that does not match the actual image can be prevented from being output to another device at the output destination.
[0045]
A sixth program according to the present invention is a program for a computer provided in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus. Receiving the photographing order information from the apparatus that manages the photographing order information, recognizing the image of the subject, and determining the photographing direction; the photographing direction according to the photographing order information; and the photographing direction determined by the subject recognition. Performing the steps of: comparing, when the result of the comparison does not match, warning that they do not match; and after the warning, suspending transmission after a user operation or a fixed time has elapsed. It is characterized by making it.
[0046]
According to this program, the photographing direction according to the photographing order information of the image information is compared with a result obtained by recognizing a subject by image processing of an image, and a warning is issued to a user as to whether or not the subject is in accordance with the photographing order information. An image that does not match the actual image can be prevented from being output to another device at the output destination.
[0047]
Note that each of the above-described programs is executed by displaying an interface that allows the user to appropriately perform each of the designation and transmission suspension operations for each designation step and each transmission suspension step.
[0048]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a medical network system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration of a medical network system according to an embodiment of the present invention.
[0049]
The medical network system of FIG. 1 scans a stimulable phosphor panel on which radiation image information of a subject (patient) is recorded with excitation light to emit light, and photoelectrically converts the light to obtain image information (CR). a medical image generating apparatus 1 for generating a medical image by an imaging modality of radiography, a medical image processing apparatus 2 for inputting an image file from the medical image generating apparatus 1, performing image processing and outputting image information, and a personal computer (Personal computer), a workstation, and the like, and includes an image display device (viewer) 3 for a radiologist to make a diagnosis by referring to the image.
[0050]
The medical network system shown in FIG. 1 includes a personal computer or a workstation for displaying an image, and refers to an image but does not perform a diagnosis. An image storage device (image server) 5 which comprises a workstation or the like and stores image files in an image database and can search and read images from the image display device 3 and the reference terminal 4; and the medical image generating device 1 or the medical image A plurality of printers 6 and 7 for outputting image data from the processing device 2 to a recording medium such as a film or paper as a visible image. An RIS / HIS (order information management device) 8 for managing order information is connected to the medical network system in FIG.
[0051]
In the medical network system shown in FIG. 1, each of the devices 1 to 8 is connected online via a network 10, and can transmit and receive information to and from each other.
[0052]
Next, the following items A to H relating to the medical image processing apparatus 2 in FIG. 1 will be described in detail in order.
A. Device configuration
B. information
C. File
D. Input and display of main information
E. FIG. Image confirmation procedure
F. output
G. FIG. Output image formation
H. Utility functions
[0053]
A. Device configuration
FIG. 2 is a block diagram illustrating a configuration of the medical image processing apparatus 2.
[0054]
a. The medical image processing device 2 shown in FIG. 2 includes a main control device 21 for controlling the operation of the entire radiographic image capturing system, a CRT display, a liquid crystal panel, and the like, and displays digital image data obtained by the medical image generating device 1 or the like. And an image display unit 22 which can be constituted by a personal computer, and includes an information input device such as an input keyboard and a mouse.
[0055]
As shown in FIG. 2, the medical image processing apparatus 2 further includes a receiving unit 40 that receives an image file from the image generation apparatus 1 and the like, and information and image processing of the received image file and the like that is configured by a hard disk device or a RAM. A storage unit 41 for storing the subsequent image information; an image processing unit 42 for performing image processing on the image information in the image file; an output image forming unit 43 for forming an output image to be output to an external device; An image confirmation processing unit 45 for displaying a reduced image on the image display unit 22 for image confirmation of the image and the like. The main control unit 21 controls the parts 40 to 43 and 45, the display device 22, and the like.
[0056]
b. The functions of the medical image processing apparatus 2 are as follows, and each function is controlled by the main controller 21.
(1) The receiving unit 40 receives an image file from the medical image generating apparatus 1 or the like.
(2) The image file is temporarily stored in the storage unit 41.
(3) The image quality is confirmed with the reduced image created by the image confirmation processing unit 45.
(4) The image processing section 42 performs image processing.
(5) An output image is formed by the output image forming unit 43.
(6) The output image is transferred to external devices (output destinations) such as the image display device 3, the image server 5, and the printers 6 and 7 via the network 10.
[0057]
B. information
Information handled by the medical image processing apparatus 2 can be classified into the following five types.
[0058]
a. Condition information
Condition information for receiving an image file and outputting it as a processed image file to an external device such as the image server 5 and includes the following.
(A) Image processing information
This is information on gradation processing and frequency processing in the image processing unit 42.
(B) Output device information
Information related to an external device such as the image server 5 that reproduces and outputs image data. The output area, the enlargement / reduction ratio, the output format (multi-format, divided shooting format), overlay, and gradation for each output device such as the image server 5. Specify the presence or absence of processing and frequency processing.
(C) Overlay information
There is information on the presence / absence / position of an overlay such as AP / PA / R / L / comment and cancellation mark (double line, x, etc.).
The position of the overlay on the image can be freely changed.
If the lead marker AP, PA, etc. is mistakenly photographed at the time of photographing, the erasure mark is overwritten on the lead marker portion on the image, and characters such as AP / PA are overlaid at any position. Errors can be clearly corrected.
(D) Special designation
Protect information: After outputting the image, save the image file until the protection is removed.
Hold (pending) information: Hold the transfer. Specify if you want to review the image later and then transfer it.
Priority (urgent) information: Designated when priority output is required, such as in emergency shooting. Registered at the head of the queue.
[0059]
b. Patient information
Information about the patient.
(A) Patient ID information
It includes the patient ID number, name, gender, date of birth, and the like.
(B) Order information
This is information for which a doctor requests imaging.
This includes information on the patient's condition, instructions on the date and time and method of the examination request, and the like.
[0060]
c. Implementation information
This is information on the result of reception and image processing.
(A) Reception result The shooting date and time are included.
(B) Image processing result
This is a calculation result of an image processing parameter, and performs image processing of image data based on the result at the time of output.
(C) System information
A part of the system information such as the system configuration at the time of shooting is included.
[0061]
d. System information
(A) Information for managing and controlling the system of FIG.
(B) Configuration of the system in FIG. 1 (connected external device such as image server 5 and the like).
(C) Parameters and tables for controlling the equipment constituting the system of FIG.
(D) Setting information related to the medical image generation device 1 as an input device
(E) Setting information on the output device, such as information on the printer 6 and HOST information.
[0062]
e. image data
(A) Image data received from the medical image generation device 1.
(B) Reduced image data for display created from image data for image confirmation
(C) Image processing reduced image data for image processing of the display reduced image in the image confirmation processing unit 45.
(D) Output image data that has been subjected to gradation processing, frequency processing, and the like.
[0063]
C. File
Files handled by the medical image processing apparatus 2 are stored in the storage unit 41 and can be classified into the following seven types.
[0064]
a. Condition file
The condition key is a key in which image processing conditions and output conditions for an image file are set in advance. There is a condition file corresponding to each condition key. The condition file includes the above condition information. Imaging site (lung field, abdomen, head, etc.), imaging position (standing, lying down, etc.), imaging direction (front, side, etc.), patient characteristics (gender, age, physique, etc.), disease name, technician to use And the like, and corresponding names and shooting information are set in advance. Then, main controller 21 sets a condition file group for each of the plurality of classifications, sets a plurality of condition files for each of the set condition file groups, and stores the same in storage unit 41. Select one of the most suitable conditions when receiving an image.
[0065]
b. Image header file
After receiving, an image header file is created. The image header is made up of a reservation file (that is, imaging information and patient information) for the imaging, and imaging execution information. When the user refers to or changes the imaging information, patient information, and imaging execution information, the user refers to the image header file.
[0066]
c. Reduced image file
This is image data obtained by reducing image data to a fraction.
(A) Reduced image data for display
The data displayed on the image display unit 22 in FIG. 2 uses this reduced display image.
(B) Reduced image data for image processing
This is reduced image data for calculating parameters for performing image processing. The reduction ratio is determined so that one pixel after reduction has the same length designated in advance. Thereby, the difference in the read pixel size can be corrected with the reduced image. The calculation of the image processing parameters is performed on the reduced image for image processing, and the image data is not used.
[0067]
d. Image file
(A) The image file is composed of image accompanying information (image header) and image data.
(B) The image header is composed of condition information, patient information, and implementation information.
The user refers to the condition information, the patient information, and the implementation information, and refers to the image header when making changes.
[0068]
e. Output image file
This is a file of output image data that has been subjected to specified processing among frequency processing, gradation processing, overlay, rotation, and scaling.
[0069]
f. System files
This is a file of the above system information.
[0070]
D. Input and display of main information
[0071]
a. Display received image information
Displays the received image as a thumbnail.
[0072]
b. Output information display
(1) Designate the output size, orientation, trimming position, output position, enlargement / reduction method, etc. Register in the condition file in advance.
{Circle around (2)} When the condition key is selected, the output area and the output image area are determined based on the conditions specified in advance, and are displayed on the screen of the image display unit 22. The size of the output area display area on the screen of the image display unit 22 is defined as the maximum output area for output. The output area and the output image area are graphically displayed in the output area display area. This makes it possible to select and confirm an appropriate output area and output image area for each device.
[0073]
c. Overlay information
{Circle around (1)} Specify whether to overlay “AP”, “PA”, “R”, “L”, comment, scale, etc., and specify where to overlay. Register in the condition file in advance.
(2) The output image is displayed in the output area display area of the screen of the image display unit 22, and the overlay information is graphically displayed there.
(3) An appropriate overlay can be selected and its position can be specified.
{Circle around (4)} It can be confirmed that there is no hidden portion hidden by the overlay. If the overlay causes inconvenience in diagnosis, it can be moved.
[0074]
d. Online information input / output from RIS
(1) Enter an order from a doctor. Convert the entered order to the format of this system and save it in the reservation file. The imaging part and the imaging method are converted by the corresponding imaging condition key.
(2) Convert the image header file to the RIS side format and output.
[0075]
e. Image list
Image files can be displayed as a list.
[0076]
E. FIG. Image confirmation procedure
a. System operation when checking images
(1) An image file is received from the medical image generation device 1 and stored in the storage unit 41.
(2) The image file stored in the storage medium of the storage unit 41 is reduced by the image confirmation processing unit 45 at a reduction ratio specified in advance.
(3) The reduced images are sequentially displayed on the screen of the image display unit 22.
(4) After the reception and display are completed, the digital image information is subjected to image processing by a method designated in advance by the shooting condition key, and is displayed again on the image display unit 22. The reduced image is used to determine the parameters of the image processing.
(5) The image which is sequentially displayed on the image display unit 22 and after the display is completed, is subjected to the gradation processing again to be displayed.
(6) When the operator views the received image displayed on the image display unit 22 and determines that the received image is a normal image, the operator inputs a key for confirming the end of reception from the character information input device, and the image confirmation ends.
(7) When it is desired to change the patient information, the image processing method, the output method, etc., new information can be input from the character information input device.
(8) When the image confirmation key is pressed, the image confirmation of the image is completed and the next image is automatically displayed.
(9) If there is a problem with the image, the image processing can be changed. As a suspension, detailed image processing changes can be made later.
(10) When the image confirmation key is input, the image confirmation ends, and the following processing is performed.
(1) The image file is stored in the storage unit 41 as a confirmed image file.
{Circle around (2)} The image for which image confirmation has been completed is registered in a queue for output to an external device.
(3) The next received image file is displayed, and the image can be confirmed.
(11) When the hold key is input, the image confirmation ends.
[0077]
F. output
(1) Output is performed asynchronously with reception and image confirmation.
(2) Queues are created and managed for each external device, and the queues operate independently of each other and do not affect each other. Therefore, the output is performed asynchronously for each device.
{Circle around (3)} The queue of the external device in which the image is registered is stored as a queue registration table in the storage unit 41, and is updated and managed for each registration and deletion in the queue.
{Circle around (4)} The images registered in the queue are output to the external device in the order of registration, and the images whose output has been completed are deleted from the queue.
(5) When executing the output, the image file stored in the storage unit 41 is specified from the number registered in the queue.
(6) An output image is formed under the conditions stored in the image file. The image header is converted into a format determined for each output device and transferred together with the image data.
[0078]
G. FIG. Output image formation
[0079]
a. The output image is formed by the output image forming unit 43 mainly by the following processing.
(1) Image data is read from the storage unit 41 to the image memory.
(2) Perform frequency processing.
(3) Equalization processing
(4) Perform gradation processing
(5) Rotate the image
(6) Perform mirror inversion
▲ 7 ▼ Perform scaling
(8) Perform overlay
[0080]
b. In (2) to (8), whether or not to execute can be designated by condition information for each output device.
[0081]
c. It is possible to specify that the image data that has been subjected to the processes specified in (2) to (8) be saved as a processed image data file. Eliminates reprocessing of the common processing portion of the output image to each output device.
[0082]
d. For example, if the scaling ratio of the output image to each output device is different, if the processed image is stored up to (6), if it is transferred to another device, the processed image is read up to (6), By performing processing and transferring only in (7) and (8), the time in (2) to (6) can be reduced.
[0083]
e. Execute (5) and (6) simultaneously with any of (2), (3) and (4). Memory access is reduced, and processing time can be reduced.
[0084]
H. Utility functions
[0085]
a. It has several functions as a utility for the user.
Utility functions are restricted by general user, manager, and manufacturer by password. In particular, changing information about an image requires a manager password for security.
[0086]
b. Image file operation
(1) An image file list is displayed, and information on stored images is displayed on the image display unit 22 in the order of reception.
{Circle around (2)} When a desired image is selected from the list, patient information, condition information, and an image are displayed in the same form as the image confirmation screen.
(3) Patient information, image processing method, output method, etc. can be changed.
{Circle over (4)} The image for which “hold” was designated at the time of shooting is released again by reconfirming the image here.
(5) The output order can be changed whether or not to output to each external device.
[0087]
c. Shooting record, irradiation record
(1) Statistical processing of photographing information and patient information is performed and provided to the user as photographing records and irradiation records.
{Circle over (2)} The number of radiographs for each radiographed part in the designated period, a list of radiographing conditions per day, etc. can be output.
[0088]
d. Customization
Screens and operability can be customized for each user.
[0089]
Next, a configuration in which the medical image processing apparatus 2 of FIGS. 1 and 2 warns when the received image is out of the proper range and suspends the output will be described.
[0090]
(1) Analysis of statistical properties of image data
[0091]
The histogram of the image data received by the main controller 21 of the medical image processing apparatus 2 in FIG. 2 is analyzed. Generally, the maximum and minimum values of image data, the maximum and minimum values of frequency, the variance, and the like can be obtained from the histogram. The maximum value of the frequency may be the maximum value where the frequency becomes 0 or 5% of the maximum frequency.
[0092]
Since the radiographic image is based on the anatomical characteristics of the human body, a characteristic is seen in the histogram depending on each examination region (chest, abdomen, breast, etc.) and the imaging direction (front, side, etc.). An appropriate range determined by this feature is set in advance for each inspection site and imaging direction.
[0093]
For example, in the case of an image (12 bits) of the inspection region A and the imaging direction A, the minimum value: 512 or more and the maximum value: 3584 or less are defined as a result of analyzing the unprocessed image with all image data. Images outside the range can be determined to be improper. That is, it can be determined that the dose is excessive when the value exceeds the maximum value and that the dose is too small when the value is less than the minimum value.
[0094]
In addition, in the result of analyzing the image-processed image in the region of interest determined by the anatomical region determining unit using the image (12 bits) of the examination region A and the imaging direction A, for example, the maximum frequency value: 2048 to 3071 , The maximum value: 3584 or less, it can be determined that the density of the image outside the range at the time of output of the region of interest is inappropriate for diagnosis.
[0095]
The anatomical region determining means will be described with reference to FIG. FIG. 3 is a diagram (a), (b), and (c) for explaining anatomical region determination.
[0096]
The main control device 21 of the medical image processing apparatus shown in FIG. 2 includes the above-described anatomical region determining means. As proposed by the present applicant in Japanese Patent No. 2864162, for example, FIG. From the entire data of the chest front image in which such a lung field is located substantially at the center of the image, a rectangular area including the lung field surrounded by a broken line in the figure is determined as an anatomical area as follows.
[0097]
(A) First, a vertical projection value (one-way cumulative value of image data) of a portion of the entire image data excluding the upper and lower portions of the image that has little effect on image processing is obtained. For example, as shown in FIG. 3B, a projection value at a central portion excluding a region of about 1/3 from the upper and lower ends is obtained.
[0098]
(B) The point where the projection value (density) has the minimum value PC in the range of 1/3 of the central part (range of 1 / 3X to 2 / 3X in FIG. 3A) from the obtained vertical projection. Is the column XC of the median line.
[0099]
(C) In the right and left 1/3 columns of the entire image (the range of 0 to 1 / 3X and the range of 2 / 3X to X in FIG. 3A), from the center to the outside of the image data (FIG. (Left side and right side of (b)), and compares the projection value of each moving point with threshold values TR and TL described later. Then, the positions where the projection values first become equal to or less than the threshold values TR and TL are determined as the left end and the right end of the lung field, respectively.
[0100]
The threshold values TR and TL are obtained by the following equations based on the maximum values PRX and PLX (see FIG. 3B) and the minimum values PC of the projection values in the respective ranges.
TL = {(K1-1) × PLX + PC} / K1TR = {(K2-1) × PRX + PC} / K2
Here, K1 and K2 are constants, for example, K1 = K2 = 5.
[0101]
(D) Further, a projection value in the lateral direction of the right lung field is obtained between the midline XC and the right end (see FIG. 3C).
[0102]
(E) Further, the image data moves upward and downward from the center (1 / 2Y in FIG. 3A) of the image data, and the projection value of each moving point is obtained from the data in FIG. 3C. Then, above the central portion, the calculated projection value is compared with a threshold value TT described later, and the position where the projection value first becomes equal to or less than the threshold value TT is defined as the upper end of the right lung field. Further, below the central portion, the calculated projection value is compared with a threshold value TB described later, and a position where the projection value becomes equal to or less than the threshold value TB is defined as the lower end of the right lung field.
[0103]
The threshold values TT and TB are the maximum values PTX and PBX of the projection values obtained in the range of 1 / Y to YY and YY to 4 / 5Y, and are above and below each of the maximum values. Based on the minimum values PTN and PBN of the projection values thus obtained, they are respectively obtained by the following equations.
TT = {(K3-1) × PTX + PTN} / K3TR = {(K4-1) × PBX + PBN} / K4
Here, K3 and K4 are constants, for example, K3 = 10 and K4 = 6.
[0104]
(F) Image data from the median line to the left end are processed in the same manner as in the above (D) and (E) to determine the upper and lower ends of the left lung field.
[0105]
(G) The upper edge of the right lung field and the upper edge of the left lung field are compared, and the upper edge located above them is determined as the upper edge of the entire lung field. Further, the lower end of the right lung field and the lower end of the left lung field are compared, and the lower end located below them is determined as the lower end of the entire lung field.
[0106]
As described above, the region of the lung field portion can be determined as a desired anatomical image region surrounded by the broken line in FIG. Note that the lung field part has a relatively larger radiation transmission amount than the surrounding part, so that the lung field area can be extracted from the subject area using the projection value.
[0107]
As described above, the unprocessed image is analyzed, the image is out of the set appropriate range, and it is determined that the imaging is inappropriate, or the image-processed image is determined as the region of interest determined by the anatomical region determining unit. When it is determined that the density is out of the set appropriate range and the density at the time of output of the region of interest is inappropriate, a warning message is displayed on the screen on the image display unit 22 in FIG. I have. By referring to this warning, the user can be encouraged to look more closely than usual.
[0108]
In the present embodiment, the medical image processing apparatus 2 of FIG. 2 has a condition file in which image processing and output method are set in advance, and the appropriate range is set for each condition file by using this condition file. Can be.
[0109]
(2) Information about density and contrast of image accompanying information
[0110]
The main controller 21 of the medical image processing apparatus 2 in FIG. 2 makes the following determination regarding the density and the contrast. First, information on the density and contrast of the received image accompanying information is referred to. Generally, since the density contrast determined automatically by image processing or determined by visual operation of the user is based on the anatomical characteristics of the human body, each of the examination sites (chest, abdomen, breast, etc.) ) And characteristics depending on the shooting direction (front, side, etc.). An appropriate range determined by this feature is set in advance for each inspection site and imaging direction.
[0111]
For example, in an image (12 bits) in the imaging direction A, which is an inspection part, the window center is 1182 ± 50 and the window width is 3000 ± 100.
By defining the window center: 1300 ± 50 and the window width: 2500 ± 100 in the image of the inspection part B and the imaging direction B (12 bits), images outside this range are inappropriately imaged (excessive dose, Dose is too small), and it can be determined that the image processing is excessively corrected or the image processing is inappropriate.
[0112]
As described above, when it is determined that the photographing is inappropriate and the image processing is excessively corrected or the image processing is inappropriate, a warning is displayed on the image display unit 22 in FIG. Messages are displayed on the screen. By referring to this warning, the user can be encouraged to look more closely than usual.
[0113]
In the present embodiment, the medical image processing apparatus 2 of FIG. 2 has a condition file in which image processing and output method are set in advance, and the appropriate range is set for each condition file by using this condition file. Can be.
[0114]
(3) Recognition of the imaging part, imaging direction, and subject
[0115]
The main controller 21 of the medical image processing apparatus 2 in FIG. 2 makes the following determination regarding the imaging region and the imaging direction. First, reference is made to the information on the imaging part and the imaging direction of the received image accompanying information. Then, the subject is recognized by the subject recognizing means by the subject recognizing means, and the photographing site and the photographing direction are determined.
[0116]
The photographing part / photographing direction determined by subject recognition is compared with the photographing part / photographing direction of the image accompanying information. For example, if the photographing part: chest and the photographing direction: frontal coincide, the photographing part is determined to be appropriate. If the chest and abdomen do not match as in the front and side, the warning is determined on the image display unit 22 in FIG.
[0117]
By referring to this warning, the user can be prompted to reconfirm that the image accompanying information and the image relate to the same inspection and to confirm again whether or not the imaging order and the image match.
[0118]
The object recognizing means will be described with reference to FIGS. FIG. 4 is a flowchart showing each step of subject recognition. 5 to 10 are diagrams for explaining subject recognition.
[0119]
The main control device 21 of the medical image processing apparatus shown in FIG. 2 includes the above-described subject recognition means, and the present applicant extracts a subject region from a radiation image and extracts the same as described in Japanese Patent Application Laid-Open No. 2002-15321. The shape of the subject is recognized.
[0120]
First, an image is received from the image generation device 1 of FIG. 1 (S01), and then, a subject area is extracted from the image (S02). That is, as shown in FIG. 5A, the image is divided into a plurality of small areas. The average signal value of the pixel signal values included in each of the small areas is determined as the threshold Th1 for each of the small areas.
[0121]
Next, as shown in FIG. 5B, for each small area, a pixel having a signal value lower than the threshold value Th1 is detected as a subject area. The average signal value of the subject area obtained in each small area is obtained and set as a threshold Th2.
[0122]
Next, as shown in FIG. 5C, a pixel having a signal value lower than the threshold value Th2 is detected as a subject area in the entire image. Then, as shown in FIG. 5D, in order to remove the out-of-irradiation area from the detected subject area, a boundary line of the out-of-irradiation area is obtained, and the irradiation between the boundary line and the closer image end is performed. Remove as outdoor area.
[0123]
The boundary line of the field outside the irradiation field is obtained as follows. First, a pixel located at the boundary of the subject area is detected as a boundary point. Then, a straight line having a large number of boundary points in the same direction is detected as a boundary candidate line. A boundary candidate line is calculated by calculating an equation of a straight line from arbitrary two boundary points and detecting if the number of boundary points existing on the straight line is equal to or greater than a predetermined threshold Th3. When the area between the boundary candidate line and the end of the image is almost a subject area, the boundary candidate line is removed as an out-of-field area boundary line, and the subject area up to the end of the image is removed as an out-of-field area. .
[0124]
The following methods (1) and (2) can be adopted as means for extracting the subject area, in addition to the above-described means. (1) After detecting the irradiation field area by the method described in JP-A-63-259538, JP-A-63-244029, JP-A-5-7579, etc. From the shape of the histogram of the pixel signal values, a signal value corresponding to a region directly irradiated with radiation is found, and a region corresponding to those signal values is excluded from the irradiation field, and the remaining irradiation field region is set as a subject region. The detection of the signal value corresponding to the direct irradiation area of the radiation is performed, for example, by means of discriminant analysis or the like, a high signal area indicating the direct irradiation area in the histogram, and a low signal area which transmits a subject and has a lower signal than that. It is possible to determine the threshold value of, and to regard a region with a signal higher than the threshold value as a direct irradiation region.
[0125]
(2) Further, in order to avoid the influence of the heel effect and unevenness caused by the radiation image forming means, the detection of the threshold value for excluding the direct irradiation area is performed by dividing the image into two parts vertically and two parts horizontally. It is also possible to create a pixel signal value histogram for each of a plurality of block areas, such as by dividing the area, and to perform the same by means such as discriminant analysis as described above.
[0126]
The subject area information indicating the subject area obtained by the above-described means (1) is given as an area display image having the same size as the thinned image obtained from the reduced image forming means 20, and pixels outside the subject area are set to '0'. The pixel value is set so as to have a pixel value of “1”, and the pixels located on the boundary of the irradiation field outside area (edge of the irradiation field) have a pixel value of “2”. When the object area is composed of a plurality of areas that are not connected to each other, only the largest area is extracted. For the calculation of the number of object regions and the classification of each region, for example, a labeling process or the like which is conventionally often used can be used.
[0127]
When the subject region is classified into a plurality of regions in this way, the number of pixels included in each region is counted, and only the region having the largest number of pixels is set as the subject region again, and the subject region information is updated.
[0128]
Next, the shape of the subject region obtained as described above is recognized as follows (see FIG. 6).
[0129]
First, an area boundary point is detected as follows (S03). Referring to FIGS. 6A and 6B, a plurality of different scanning lines for sequentially scanning from one end to the other end of the image are set in the area display image indicating the object area information at equal intervals in the horizontal direction.
[0130]
On each scanning line, the pixel value is examined while moving to the right one pixel at a time from the left end of the image, and the pixel at the position where the pixel value changes from '0' to '1' or from '2' to '1' is defined as the region boundary. Detected as a point (left). Then, on the same scanning line, the pixel value is examined while moving to the left one pixel at a time in order from the right end of the image, and the pixel value at the position where the pixel value changes from '0' to '1' or from '2' to '1' Pixels are also detected as region boundary points (right). If the pixel value at the end of the image is “1”, the pixel at the end of the image on the scanning line is set as a region boundary point.
[0131]
With respect to the area boundary points obtained by the area boundary point detection, the difference between the horizontal coordinate values with the adjacent area boundary points is calculated for each of the (left) and (right) groups.
[0132]
Next, based on the difference between the horizontal coordinate values, the local maximum point where the shape of the subject region is “convex” with respect to the horizontal coordinates for each of the groups (for the (left) group, the point where the horizontal coordinate is locally leftmost, (right ) Group, the horizontal coordinate is locally the rightmost point), the minimum point where the subject area shape is 'concave' ((left) group, the horizontal coordinate is the rightmost point locally, (right ) Group, the horizontal coordinate is locally the leftmost point).
[0133]
Further, the degree of unevenness in the vicinity of these extreme points (maximum point, minimum point) is examined. The position of the extreme point and the degree of unevenness are calculated as follows. The method described below can be used in the same manner for both the (left) group and the (right) group, so only one group will be described.
[0134]
The following processing is performed on the area boundary points other than the area boundary points at the uppermost and lowermost parts of the subject area in order from the upper part of the subject area.
[0135]
A difference value s1 between the horizontal coordinates of the area boundary point (area boundary points other than the area boundary points located at the uppermost and lowermost positions of the subject area) p0 and the adjacent area boundary point p1 located above the area boundary point is obtained. Similarly, a difference value s2 of the horizontal coordinate between the area boundary point p0 and the adjacent area boundary point p2 existing below the area boundary point p0 is obtained.
[0136]
Next, the sign of s1 × s2 is checked, and if a predetermined condition is satisfied, an extreme point is detected. When s1 × s2 <0, the region boundary point p0 is set as an extreme point. When s1 × s2 = 0 and only one of sj (j = 1, 2) is “0”, in the direction (up or down) where the difference value is “0”, p0 and its vicinity For other existing region boundary points, difference values of horizontal coordinates are sequentially calculated in a direction away from p0. When the difference value becomes a value other than “0” for the first time, the difference value is set to sj again.
[0137]
Then, s1 × s2 is calculated again. At this time, if s1 × s2 <0, the midpoint of the area boundary point when p0 and sj first take a value other than “0” is defined as the extreme point.
[0138]
Here, the unevenness degree will be described with reference to FIG. First, the difference value of the horizontal coordinate between the adjacent area boundary points is sequentially examined above the extreme point, and a point a at which the difference value has the opposite sign to the difference value near the extreme point or becomes '0' is determined. Ask. Similarly, the difference value of the horizontal coordinate between the adjacent area boundary points is sequentially examined below the extreme point, and the difference value has the opposite sign to the difference value in the vicinity near the extreme point or becomes “0”. Find point b. When a point having the opposite sign to the difference value near the extreme point is not found for such points a and b, points a and b respectively denote the uppermost and lowermost points of the vertical coordinates where the subject exists. .
[0139]
The difference between the average value of the horizontal coordinates of these points a and b and the horizontal coordinates of the pole is defined as the depth (see FIG. 7) and the difference between the vertical coordinates between points a and b is defined as the width (see FIG. 7). Is used as an index indicating the degree of unevenness. Note that the point a and the point b may be determined based on the second derivative of the horizontal coordinate instead of using the difference value as a reference. Here, also in the case where the second derivative is used as a reference, points a and b are points having the opposite sign or “0” to the second derivative near the pole.
[0140]
When examining the degree of the unevenness, it is desirable to take measures such as increasing the distance between the boundary points for calculating the difference values to some extent so that a minute change is detected and a global change is not mistaken. For example, only the region boundary points on the equal line obtained by equally dividing the length of the subject region in the vertical direction (the direction orthogonal to the scanning line at the time of detecting the region boundary point) by 10 to 30 are used, For example, an average horizontal coordinate of the area boundary point is obtained, and the difference value is obtained based on the average horizontal coordinate.
[0141]
Further, where the subject region and the irradiation field end are in contact with each other, the shape of the subject may be different from the original shape of the subject and may be convex (see a partially enlarged view of FIG. 7). Therefore, when the extreme point is the maximum point and the subject area and the irradiation field end are in contact with each other, it is considered that the extreme point has not been detected, and both the depth and the width are set to “0”.
[0142]
In the above case, the determination as to whether or not the subject region and the irradiation field end are in contact is performed as follows. That is, at a plurality of region boundary points near the pole and either above or below, the pixel value of the region display image indicating the irradiation field end within a predetermined distance (about 1 to 3 pixels) is “2”. If there is a pixel that satisfies, it is determined that the subject area and the irradiation field end are in contact. Also, the case where the subject area and the image edge are in contact is handled in the same manner.
[0143]
It is considered that, of the extreme points determined as described above, those having a large degree of unevenness are representative of the outer shape. Therefore, for each of the groups (left) or (right), only a predetermined number (preferably about 1 to 3) is extracted in ascending order of the absolute value of the depth, and the position of the pole, any of the irregularities, the depth, With the width information as one set, position change amount information is obtained (S04). As with the horizontal position change of the subject described above, the extreme point is also determined for the vertical position change, and each is set as position change amount information.
[0144]
Next, the distance between the boundary points on the same scanning line among the region boundary points is determined. The obtained distance is the vertical coordinate value of the scanning line and the area width information (S05).
[0145]
Next, based on the positional change amount information and the area width information obtained as described above, the outer shape of the subject is classified into a shape considered to be optimal from among a plurality of patterns prepared in advance (S06).
[0146]
That is, the external shape of the human body in radiation imaging has different characteristics depending on the part to be the subject. For example, in a head image as shown in FIGS. 8A and 8B, when position change amount information obtained from each of the groups (left) and (right) is examined from the upper end to the lower end of the image, In both cases, the shape changes to approach the left end and the right end of the image on the way, and then changes away from the image end. Therefore, the outer shape can be classified as “barrel type”. On the other hand, in the cervical images as shown in FIGS. 8C and 8D, it can be seen that, on the contrary, the image changes once so as to move away from the image end and approach the image end again. In such a case, the external shape can be classified as “hourglass type”.
[0147]
Further, in the abdomen images as shown in FIGS. 9A and 9B and the lower limb images as shown in FIGS. 9C and 9D, there is not much change in the horizontal position of the region boundary points. Although the external shape is substantially rectangular, the region image can be classified into “square type” and “rectangular type” by using the area width information because the abdominal image is wide and the lower limb image is narrow.
[0148]
Further, in the knee joint image as shown in FIG. 10, since the joint portion is bent in the middle, it can be classified as “boomerang type”. In addition, classification such as "fan type" for shoulder joints, "branched type" for fingers, "one-convex type" for heels, and "triangular type" for clavicles can be considered.
[0149]
As described above, the external shape is classified into several patterns based on the position change amount information and the region width information, and the classified result is output as a finally obtained feature amount (S07). For example, the output result is stored in association with each element of the shape vector S representing the classification result. The shape vector S is represented by having only the element corresponding to the classification result having a value other than '0'. For example, element numbers corresponding to “barrel type”, “hourglass type”, “boomerang type”, “square type”, and “rectangular type” are '0', '1', '2', '3', and ' Set to 4 '. If the classification result is “barrel type”, S [0] = 1 is stored. If the classification result is “hourglass type”, S [1] = 1 is stored. Thus, the shape vector S is output as a feature value.
[0150]
In some cases, it is sometimes difficult to simply classify any type. Therefore, a feature amount corresponding to a pattern that can be a candidate may be weighted and output. In this case, in the shape vector S, a plurality of elements have values other than '0', and the sum of the values of each element is set to a fixed value (for example, '5'). Then, a value is assigned so that an element corresponding to a shape having a higher degree of certainty has a larger value.
[0151]
For example, when the condition of the depth is slightly less than the criteria in the "hourglass-shaped" determination criterion, for example, the total depth of the poles is only 18% of the average width in the left-right direction of the subject. Whether it is classified as "square (rectangular) type" or "hourglass type" is delicate. In such a case, values are assigned to both the element representing the “hourglass type” and the element representing the “square (rectangular) type” of the shape vector S.
[0152]
In this case, as an example of value allocation, when the total depth is 10% or less, an element S [3 (4)] = 5 representing a “square (rectangular) type”, and an element S [1 representing a “hourglass type” = 0], and the value of S [3 (4)] is decreased by “1” every time the sum of the depths increases by 2% with respect to the average width in the left-right direction of the subject, and the value of S [1] is changed to “1”. 'Increase by one.
[0153]
In addition to the examples of "hourglass type" and "square (rectangular) type", "barrel type" and "square (rectangular) type", "square type" and "rectangular type", "boomerang type" and "square ( The same discrimination classification criterion as shown here can be applied between the “rectangular) type” and the like.
[0154]
Further, how the subject area is in contact with the end of the image or the end of the irradiation field is also useful information for recognizing the subject. For example, when the subject is an image of the chest or abdomen, the human body is larger than the range in which an image can be obtained with a commonly used imaging device. The subject comes into contact with the object. On the other hand, when the subject is an image of a hand or a toe, the subject may be small and may only contact one of the upper, lower, left, and right ends of the image end or the irradiation field end. Further, in photographing a shoulder joint or the like, a subject often comes into contact with only two adjacent directions among upper, lower, left, and right image ends or irradiation field ends, and hardly makes contact with the remaining ends.
[0155]
As described above, it is possible to obtain information for specifying the imaging region of the subject from the degree of contact between the subject region, the image edge, and the irradiation field edge. Therefore, in order to obtain information on the degree of contact, the number of pixels in contact with the subject is counted for each of the upper, lower, left, and right sides of the image end or the irradiation field end, and the total number of pixels in contact with each side is obtained. The determination as to whether or not they are in contact is performed as follows. That is, the area boundary point is calculated for each pixel row in the horizontal and vertical directions from the area display image by the method described in the detection of the area boundary point, and is within a predetermined distance (about 1 to 3 pixels) from each area boundary point. If there is a pixel having a value of “2” indicating the irradiation field edge or an image edge, it is determined that the pixels are in contact with each other. For each of the (upper), (lower), (left), and (right) groups of the area boundary points, the sum of the area boundary points in contact with the irradiation field edge or the image edge is obtained, and the image edge or the irradiation field edge and the subject are , That is, as a feature amount based on the degree of contact.
[0156]
As described above, the external shape is classified into several patterns based on the position change amount information and the area width information, and the classified result is output as a finally obtained feature amount. This can be used as very useful information for specifying the imaging region and the imaging direction. That is, even in the case of radiography used for diagnosis, the imaging region to be imaged covers a wide range from the head to the limbs, there are also a plurality of imaging directions, and even if the doctor's attention area differs according to each, By correctly extracting the amount, it becomes possible to accurately recognize each imaging region and each imaging direction. In addition, a feature amount finally obtained is also output depending on the degree of contact. As described above, this feature amount can be used as very useful information for specifying the imaging region of the subject.
[0157]
By using (in combination with) two types of feature amounts, that is, a feature amount based on the outer shape described above and a feature amount based on the degree of contact between the outer shape and the end of the image or the irradiation field, imaging of a subject in a radiation image is performed. The part and the imaging direction can be more accurately recognized.
[0158]
In the above-described embodiment, the scanning is performed only in the horizontal direction of the image. However, in order to more accurately specify the shape, the scanning is also performed in the vertical direction, and after similarly detecting the area boundary point, It is desirable to obtain position change amount information and area width information and use them for shape specification. Further, not only horizontal and vertical scanning but also oblique scanning may be performed.
[0159]
In addition, in order to more accurately recognize the imaging region and the imaging direction of the subject, a feature amount based on the outer shape and a feature amount based on the degree of contact between the outer shape and the edge of the image or the irradiation field are different. It is desirable to use it in combination with another feature quantity obtained by the means. Other features that can be used for recognizing the part and body position of the subject include “size of subject area”, “density distribution”, “distribution of density change amount”, “symmetry of subject area shape”, “ "Symmetry of concentration distribution".
[0160]
(4) Shooting order and subject recognition
[0161]
The main controller 21 of the medical image processing apparatus 2 shown in FIG. 2 makes the following determination regarding the imaging order. First, the imaging order information of the received image information is received from the RIS / HIS 8 of the imaging order information management device in FIG.
[0162]
The fact that the received image information and the imaging order information are of the same inspection means that the image ID is received from the RIS / HIS 8 from a device that manages the imaging order using the inspection ID and the reception number of the image accompanying information as search keys when receiving the image. Alternatively, it is assured by receiving a radiographing order list in advance and retrieving the radiographing order list from the radiographing order list as a search key when receiving the radiographing order list.
[0163]
In the same manner as in FIG. 4 described above, the image is recognized as a subject, and the imaging part and the imaging direction are determined. The imaging part / imaging direction included in the imaging order is compared with the imaging part / imaging direction determined by the object recognition. For example, if the imaging part: chest and the imaging direction: front coincide, it is determined to be appropriate. If the imaging part is mismatched between the chest and abdomen and the imaging direction is different from the front and side, it is determined to be inappropriate, and a warning message is displayed on the screen on the image display unit 22 in FIG. By referring to this warning, the user can be prompted to reconfirm that the image accompanying information and the image relate to the same inspection and that the imaging order and the image match.
[0164]
Next, the first to fourth operations of the medical image processing apparatus 2 shown in FIGS. 1 and 2 will be described.
[0165]
<First operation>
[0166]
With reference to the flowchart of FIG. 11, a description will be given of a first operation of giving a warning and suspending the output of an image that is out of the proper range by the analysis of the received image.
[0167]
The medical image processing apparatus 2 shown in FIGS. 1 and 2 receives the image data (S11), and determines the region of interest of the image-processed image by the anatomical region determining means as shown in FIG. 3 (S12). The histogram in the region of interest is analyzed (S13). It is determined whether or not the analysis result is within a predetermined appropriate range (S14).
[0168]
Then, it is determined that the density at the time of output of the region of interest is inappropriate for diagnosis for an image that is out of the appropriate range, and a warning message such as “This image has inappropriate density for diagnosis” is displayed in the image of FIG. In addition to being displayed on the display unit 22 (S15), when a certain time has elapsed after the display of the warning message, the output of the image to the external devices 3 to 7 is suspended (S16). Note that the output suspension may be performed by the user selecting suspension on the screen of the image display unit 22 in FIG.
[0169]
As described above, according to the first operation of FIG. 11, the photographing is failed by recognizing that the image is out of the appropriate range and warning the user based on the result of analyzing the statistical properties of the image data. It is possible to prevent an abnormal image such as an image or an image for which image processing has failed from being output to another device due to a user's oversight.
[0170]
In FIG. 11, the range in which the statistical properties of the image data are analyzed may be the entire image, and the image may be either the image before performing the image processing or the image after performing the image processing. May be.
[0171]
In addition, the appropriate range to be set is set for each examination site, and by specifying the appropriate range according to the type of examination, the anatomical features and features by the imaging method can be reflected, and a more accurate appropriate range is specified it can. Alternatively, an appropriate range may be set for each condition file, and simple setting / selection becomes possible.
[0172]
<Second operation>
[0173]
With reference to the flowchart of FIG. 12, a description will be given of a second operation of warning an image in which the information regarding the density and contrast of the image accompanying information is out of the appropriate range and suspending the output.
[0174]
The medical image processing apparatus 2 shown in FIGS. 1 and 2 receives image data (S21), identifies information relating to the density and contrast of the image accompanying information from the received image data (S22), and converts the identified information. It is determined whether or not the density and the contrast are within an appropriate range set in advance (S23).
[0175]
Then, it is determined that the image that is out of the appropriate range is improperly photographed (excessive dose, excessively small dose), and is overcorrected by the image processing, or the image processing is inappropriate, A warning message such as "This image is inappropriate in terms of density and contrast for diagnosis" is displayed on the image display unit 22 in FIG. 2 (S24). The output to the external devices 3 to 7 is suspended (S25). Note that the output suspension may be performed by the user selecting suspension on the screen of the image display unit 22 in FIG.
[0176]
As described above, according to the second operation of FIG. 12, by recognizing that the information related to the density and contrast of the image accompanying information is out of the appropriate range, and warning the user, the image for which the photographing has failed and the image processing It is possible to prevent an abnormal image such as an image that failed to be output to another device due to a user's oversight.
[0177]
The appropriate range to be set can be set for each inspection site, but may be set for each condition file.
[0178]
<Third operation>
[0179]
With reference to the flowchart of FIG. 13, a description will be given of a third operation in which it is determined whether or not the subject is as specified in the image accompanying information, a warning is issued for an image determined to be not, and output is suspended.
[0180]
The medical image processing apparatus 2 of FIGS. 1 and 2 receives the image data (S31), and identifies information about the imaging region and imaging direction of the image accompanying information from the received image data (S32). On the other hand, the subject recognition of the image is performed by the subject recognition means as shown in FIGS. 4 to 10, and the photographing part and the photographing direction are determined (S33).
[0181]
Next, the information on the identified imaging region and imaging direction is compared with the result of image determination by subject recognition, and it is determined whether or not both match (S34). If it is determined that they do not match, a warning message such as "This image does not match the order" is displayed on the image display unit 22 of FIG. 2 (S35), and a certain time after the warning message is displayed , The output of the image to the external devices 3 to 7 is suspended (S36). Note that the output suspension may be performed by the user selecting suspension on the screen of the image display unit 22 in FIG.
[0182]
As described above, according to the third operation of FIG. 13, the information on the imaging region and the imaging direction of the image accompanying information is compared with the result of subject recognition of the image by the image processing. By alerting the user whether or not the image is not included, it is possible to prevent an image in which the image accompanying information does not match the actual image from being output to another device due to the user's oversight. The inconsistency between the image accompanying information and the actual image suggests that the patient / examination information is not that of the image or that the image was not taken according to the imaging order. According to the embodiment, such a problem can be prevented beforehand.
[0183]
In FIG. 13, the determination may be made with respect to one of the imaging region and the imaging direction of the image accompanying information.
[0184]
<Fourth operation>
[0185]
With reference to the flowchart of FIG. 14, a fourth operation of determining whether or not the subject is as specified in the imaging order information, warning about an image determined not to be such, and suspending output will be described.
[0186]
While the medical image processing apparatus 2 of FIGS. 1 and 2 receives image data (S41), it receives imaging order information from the RIS / HIS 8 (S42). The image data and the imaging order information can be associated with each other by searching the imaging order information using the examination ID, the reception number, and the like in the received image accompanying information as a search key (S43). It should be noted that the imaging order information may be received in advance from the RIS / HIS 8, and a search may be performed using the inspection ID, the reception number, and the like of the image accompanying information when the image data is received.
[0187]
Next, the subject recognition of the image is performed by the subject recognition means as shown in FIG. 4 to FIG. 10, and the photographing part and the photographing direction are determined (S44).
[0188]
Next, the information on the identified imaging region and imaging direction is compared with the image determination result obtained by subject recognition, and it is determined whether or not both match (S45). If it is determined that they do not match, a warning message such as "This image does not match the order." Is displayed on the image display unit 22 of FIG. 2 (S46), and a certain time after the warning message is displayed , The output of the image to the external devices 3 to 7 is suspended (S47). Note that the output suspension may be performed by the user selecting suspension on the screen of the image display unit 22 in FIG.
[0189]
As described above, according to the fourth operation in FIG. 14, the photographing order information of the image information is compared with the result of subject recognition of the image by image processing, and the user is warned whether or not the subject is in the photographing order. Thus, it is possible to prevent an image in which the shooting order does not match the actual image from being output to another device due to a user's oversight. The inconsistency between the radiographing order and the actual image suggests that the patient / examination information is not of the image or that the radiography was not performed according to the radiographing order. According to the embodiment, such a problem can be prevented beforehand.
[0190]
In FIG. 14, the determination may be made with respect to one of the imaging region and the imaging direction of the image accompanying information.
[0191]
As described above, in FIGS. 11 to 14, when an image is abnormal, by suspending the output of the image, it is possible to determine whether the image is correct or not and change the process over time. Further, even when the user is not present, output is automatically suspended after a predetermined time, so that output to another device can be prevented.
[0192]
Each operation of the medical image processing apparatus 2 according to the present embodiment described above is controlled by the main controller 21 in FIG. 2 according to a program stored in the storage device, and necessary information processing and screen display such as an interface are executed. .
[0193]
As described above, the present invention has been described with the embodiments, but the present invention is not limited to these, and various modifications can be made within the technical idea of the present invention. For example, as a medical image generating device, in addition to a CR device configured to read a radiation image from a stimulable phosphor panel on which radiation image information of a patient is recorded, a radiation image capturing device using an X-ray flat panel detector, Medical image generation devices such as CT (Computed Tomography), MRI (Magnetic Resonance Imaging), DR (Digital Radiography), and US (Ultrasound: Ultrasound Diagnostic Device). Needless to say, each of these medical image generating apparatuses may be connected to the medical network system according to the present invention.
[0194]
Further, the anatomical region determining means and the subject recognizing means in the present invention are not limited to those described with reference to FIGS. 3, 4 to 10, and it goes without saying that other means may be used.
[0195]
【The invention's effect】
According to the medical image processing apparatus, the medical network system, and the program for the medical image processing apparatus of the present invention, an image outside the proper range or an image that does not match the order is output to an external device such as an image display device or an image storage device. Can be prevented.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a medical network system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of the medical image processing apparatus 2 of FIG.
FIGS. 3A, 3B, and 3C are diagrams for explaining anatomical region determination means provided in a main control device 21 of the medical image processing apparatus in FIG. 2;
4 is a flowchart showing each step of subject recognition by subject recognition means provided in a main control device 21 of the medical image processing apparatus of FIG. 2;
5 (a) to 5 (d) are views showing a state of subject extraction in the subject recognition of FIG. 4;
FIGS. 6A and 6B are views showing the appearance of external shape recognition in the object recognition of FIG. 4;
FIG. 7 is a diagram showing a state of an edge inspection in object recognition in FIG. 4;
8 (a) to 8 (d) are diagrams showing a state of shape specification in object recognition in FIG. 4;
9 (a) to 9 (d) are diagrams showing another manner of specifying a shape in the object recognition of FIG. 4;
FIG. 10 is a diagram showing a state of specifying still another shape in the object recognition of FIG. 4;
FIG. 11 is a flowchart illustrating a first operation in the medical image processing apparatus according to the present embodiment.
FIG. 12 is a flowchart illustrating a second operation in the medical image processing apparatus according to the present embodiment.
FIG. 13 is a flowchart illustrating a third operation in the medical image processing apparatus according to the present embodiment.
FIG. 14 is a flowchart illustrating a fourth operation in the medical image processing apparatus according to the present embodiment.
[Explanation of symbols]
1. Medical image generation device
2. Medical image processing device
3. Image display device
5 ... Image storage device
10 Network
21 Main controller

Claims (29)

医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置であって、
受信した画像データの統計的性質を解析する手段と、
予め統計的性質の適正範囲を指定する手段と、
前記統計的性質を解析した結果が前記指定した適正範囲から外れているとき、適正範囲外であることを警告する手段と、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Means for analyzing the statistical properties of the received image data;
Means for specifying an appropriate range of statistical properties in advance;
When the result of analyzing the statistical properties is out of the specified proper range, a means for warning that it is out of the proper range,
Means for suspending transmission after a user operation or a fixed time has elapsed after the warning.
前記画像データの統計的性質を解析する範囲が画像全体であることを特徴とする請求項1に記載の医用画像処理装置。2. The medical image processing apparatus according to claim 1, wherein the range in which the statistical property of the image data is analyzed is the entire image. 前記画像について解剖学的領域を決定する解剖学的領域決定手段を更に備え、
前記画像データの統計的性質を解析する範囲が前記解剖学的領域決定手段により決定された関心領域であることを特徴とする請求項1に記載の医用画像処理装置。
Further comprising an anatomical region determining means for determining an anatomical region for the image,
2. The medical image processing apparatus according to claim 1, wherein a range in which a statistical property of the image data is analyzed is a region of interest determined by the anatomical region determining unit.
前記適正範囲を検査部位毎に設定することを特徴とする請求項1、2または3に記載の医用画像処理装置。4. The medical image processing apparatus according to claim 1, wherein the appropriate range is set for each examination region. 前記適正範囲を条件ファイル毎に設定することを特徴とする請求項1、2または3に記載の医用画像処理装置。4. The medical image processing apparatus according to claim 1, wherein the appropriate range is set for each condition file. 前記画像は、前記画像処理を実施していない画像であり、前記適正範囲から外れているときは、撮影が異常であることを警告することを特徴とする請求項1乃至5のいずれか1項に記載の医用画像処理装置。The image according to claim 1, wherein the image is an image on which the image processing has not been performed, and when the image is out of the appropriate range, a warning that imaging is abnormal is issued. 3. The medical image processing apparatus according to claim 1. 前記画像は、前記送信のための画像処理を実施した画像であり、前記適正範囲から外れているときは、前記画像処理が異常であることを警告することを特徴とする請求項1乃至5のいずれか1項に記載の医用画像処理装置。6. The image according to claim 1, wherein the image is an image on which the image processing for transmission is performed, and when the image is out of the proper range, a warning that the image processing is abnormal is issued. The medical image processing device according to claim 1. 医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置であって、
受信した画像付帯情報の濃度及びコントラストに関する情報を識別する手段と、
前記濃度及びコントラストに関する情報の適正範囲を予め指定する手段と、
前記濃度及びコントラストの値が前記指定した適正範囲から外れているとき、適正範囲外であることを警告する手段と、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Means for identifying information relating to the density and contrast of the received image accompanying information;
Means for previously specifying an appropriate range of the information on the density and the contrast,
When the value of the density and the contrast is out of the specified proper range, a means for warning that the value is out of the proper range,
Means for suspending transmission after a user operation or a fixed time has elapsed after the warning.
前記適正範囲を検査部位毎に設定することを特徴とする請求項8に記載の医用画像処理装置。9. The medical image processing apparatus according to claim 8, wherein the appropriate range is set for each examination region. 前記適正範囲を条件ファイル毎に設定することを特徴とする請求項8に記載の医用画像処理装置。The medical image processing apparatus according to claim 8, wherein the appropriate range is set for each condition file. 医用画像情報を他の装置から受信し、画橡処理を行い、他の装置に送信する医用画像処理装置であって、
受信した画像付帯情報の撮影部位に関する情報を識別する手段と、
画像を被写体認識し、撮影部位を判別する被写体認識手段と、
前記画像付帯情報の撮影部位と、前記被写体認識により判別した撮影部位とを比較する手段と、
前記比較の結果、一致しないとき、一致しないことを警告する手段と、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする医用画像処理装置。
A medical image processing device that receives medical image information from another device, performs image processing, and transmits the medical image information to another device,
Means for identifying information about the imaging region of the received image accompanying information;
Subject recognition means for recognizing an image of a subject and determining a photographed part;
Means for comparing the imaging part of the image accompanying information and the imaging part determined by the subject recognition,
As a result of the comparison, when they do not match, means for warning that they do not match,
Means for suspending transmission after a user operation or a fixed time has elapsed after the warning.
医用画像情報を他の装置から受信し、画橡処理を行い、他の装置に送信する医用画像処理装置であって、
受信した画像付帯情報の撮影方向に関する情報を識別する手段と、
画像を被写体認識し、撮影方向を判別する被写体認識手段と、
前記画像付帯情報の撮影方向と、前記被写体認識により判別した撮影方向とを比較する手段と、
前記比較の結果、一致しないとき、一致しないことを警告する手段と、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする医用画像処理装置。
A medical image processing device that receives medical image information from another device, performs image processing, and transmits the medical image information to another device,
Means for identifying information regarding the shooting direction of the received image accompanying information;
Subject recognition means for recognizing an image of a subject and determining a shooting direction;
Means for comparing the shooting direction of the image accompanying information with the shooting direction determined by the subject recognition,
As a result of the comparison, when they do not match, means for warning that they do not match,
Means for suspending transmission after a user operation or a fixed time has elapsed after the warning.
医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置であって、
受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信する手段と、
画像を被写体認識し、撮影部位を判別する被写体認識手段と、
前記撮影オーダ情報による撮影部位と、前記被写体認識により判別した撮影部位とを比較する手段と、
前記比較の結果、一致しないとき、一致しないことを警告する手段と、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Means for receiving the imaging order information of the received image information from a device that manages the imaging order information;
Subject recognition means for recognizing an image of a subject and determining a photographed part;
Means for comparing the imaging part according to the imaging order information with the imaging part determined by the subject recognition,
As a result of the comparison, when they do not match, means for warning that they do not match,
Means for suspending transmission after a user operation or a fixed time has elapsed after the warning.
医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置であって、
受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信する手段と、
画像を被写体認識し、撮影方向を判別する被写体認識手段と、
前記撮影オーダ情報による撮影方向と、前記被写体認識により判別した撮影方向とを比較する手段と、
前記比較の結果、一致しないとき、一致しないことを警告する手段と、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留する手段と、を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Means for receiving the imaging order information of the received image information from a device that manages the imaging order information;
Subject recognition means for recognizing an image of a subject and determining a shooting direction;
Means for comparing a shooting direction according to the shooting order information with a shooting direction determined by the subject recognition,
As a result of the comparison, when they do not match, means for warning that they do not match,
Means for suspending transmission after a user operation or a fixed time has elapsed after the warning.
請求項1乃至14のいずれか1項に記載の医用画像処理装置と、医用画像情報を生成し前記医用画像処理装置に送信する医用画像生成装置と、前記画像処理した画像情報を前記医用画像処理装置から受信し所定の処理を行う装置と、を含むことを特徴とする医用ネットワークシステム。A medical image processing apparatus according to any one of claims 1 to 14, a medical image generation apparatus configured to generate medical image information and transmit the generated image information to the medical image processing apparatus, and a medical image processing apparatus configured to perform the image processing on the image information. And a device for performing predetermined processing received from the device. 医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、
受信した画像データの統計的性質を解析するステップと、
予め統計的性質の適正範囲を指定するステップと、
前記統計的性質を解析した結果が前記指定した適正範囲から外れているとき、適正範囲外であることを警告するステップと、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とするプログラム。
A program for a computer included in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Analyzing the statistical properties of the received image data;
Designating an appropriate range of statistical properties in advance;
When the result of analyzing the statistical properties is out of the specified proper range, a step of warning that it is out of the proper range,
Suspending transmission after a user operation or after a lapse of a fixed time after the warning, and causing the computer to execute the program.
前記画像データの統計的性質を解析する範囲が画像全体であることを特徴とする請求項16に記載のプログラム。17. The program according to claim 16, wherein the range in which the statistical property of the image data is analyzed is the entire image. 前記画像について解剖学的領域を決定する解剖学的領域決定ステップを更に実行させ、前記画像データの統計的性質を解析する範囲が前記解剖学的領域決定ステップで決定された関心領域であることを特徴とする請求項16に記載のプログラム。An anatomical region determining step of determining an anatomical region for the image is further performed, and a range in which a statistical property of the image data is analyzed is the region of interest determined in the anatomical region determining step. The program according to claim 16, characterized in that: 前記適正範囲を検査部位毎に設定することを特徴とする請求項16、17または18に記載のプログラム。19. The program according to claim 16, wherein the appropriate range is set for each examination region. 前記適正範囲を条件ファイル毎に設定することを特徴とする請求項16、17または18に記載のプログラム。19. The program according to claim 16, wherein the appropriate range is set for each condition file. 前記画像は、前記画像処理を実施していない画像であり、前記適正範囲から外れているときは、撮影が異常であることを警告することを特徴とする請求項16乃至20のいずれか1項に記載のプログラム。21. The image according to claim 16, wherein the image is an image on which the image processing has not been performed, and when the image is out of the appropriate range, a warning that photographing is abnormal is issued. The program described in. 前記画像は、前記送信のための画像処理を実施した画像であり、前記適正範囲から外れているときは、前記画像処理が異常であることを警告することを特徴とする請求項16乃至20のいずれか1項に記載のプログラム。21. The image processing apparatus according to claim 16, wherein the image is an image on which the image processing for the transmission is performed, and when the image processing is out of the appropriate range, a warning that the image processing is abnormal is issued. The program according to any one of the preceding claims. 医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、
受信した画像付帯情報の濃度及びコントラストに関する情報を識別するステップと、
前記濃度及びコントラストに関する情報の適正範囲を予め指定するステップと、
前記濃度及びコントラストの値が前記指定した適正範囲から外れているとき、適正範囲外であることを警告するステップと、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とするプログラム。
A program for a computer included in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Identifying information about the density and contrast of the received image accompanying information;
A step of previously specifying an appropriate range of the information regarding the density and the contrast,
When the value of the density and the contrast is out of the specified proper range, a step of warning that the value is out of the proper range,
Suspending transmission after a user operation or after a lapse of a fixed time after the warning, and causing the computer to execute the program.
前記適正範囲を検査部位毎に設定することを特徴とする請求項23に記載のプログラム。The program according to claim 23, wherein the appropriate range is set for each examination region. 前記適正範囲を条件ファイル毎に設定することを特徴とする請求項23に記載のプログラム。The program according to claim 23, wherein the appropriate range is set for each condition file. 医用画像情報を他の装置から受信し、画橡処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、
受信した画像付帯情報の撮影部位に関する情報を識別するステップと、
画像を被写体認識し、撮影部位を判別するステップと、
前記画像付帯情報の撮影部位と、前記被写体認識により判別した撮影部位とを比較するステップと、
前記比較の結果、一致しないとき、一致しないことを警告するステップと、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とするプログラム。
A program for a computer included in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the information to another apparatus,
Identifying information about the imaging region of the received image accompanying information;
A step of recognizing the subject in the image and determining a photographed part;
Comparing the imaging region of the image accompanying information with the imaging region determined by the subject recognition;
As a result of the comparison, when they do not match, a step of warning that they do not match;
Suspending transmission after a user operation or after a lapse of a fixed time after the warning, and causing the computer to execute the program.
医用画像情報を他の装置から受信し、画橡処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、
受信した画像付帯情報の撮影方向に関する情報を識別するステップと、
画像を被写体認識し、撮影方向を判別するステップと、
前記画像付帯情報の撮影方向と、前記被写体認識により判別した撮影方向とを比較するステップと、
前記比較の結果、一致しないとき、一致しないことを警告するステップと、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とするプログラム。
A program for a computer included in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the information to another apparatus,
Identifying information about the shooting direction of the received image accompanying information;
A step of recognizing an image of a subject and determining a shooting direction;
Comparing the shooting direction of the image accompanying information with the shooting direction determined by the subject recognition;
As a result of the comparison, when they do not match, a step of warning that they do not match;
Suspending transmission after a user operation or after a lapse of a fixed time after the warning, and causing the computer to execute the program.
医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、
受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信するステップと、
画像を被写体認識し、撮影部位を判別するステップと、
前記撮影オーダ情報による撮影部位と、前記被写体認識により判別した撮影部位とを比較するステップと、
前記比較の結果、一致しないとき、一致しないことを警告するステップと、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とするプログラム。
A program for a computer included in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Receiving the imaging order information of the received image information from a device that manages the imaging order information;
A step of recognizing the subject in the image and determining a photographed part;
Comparing an imaging part according to the imaging order information with an imaging part determined by the subject recognition;
As a result of the comparison, when they do not match, a step of warning that they do not match;
Suspending transmission after a user operation or after a lapse of a fixed time after the warning, and causing the computer to execute the program.
医用画像情報を他の装置から受信し、画像処理を行い、他の装置に送信する医用画像処理装置が備えるコンピュータのためのプログラムであって、
受信した画像情報の撮影オーダ情報を、撮影オーダ情報を管理する装置から受信するステップと、
画像を被写体認識し、撮影方向を判別するステップと、
前記撮影オーダ情報による撮影方向と、前記被写体認識により判別した撮影方向とを比較するステップと、
前記比較の結果、一致しないとき、一致しないことを警告するステップと、
前記警告後、ユーザの操作または一定時間経過後に、送信を保留するステップと、を前記コンピュータに実行させることを特徴とするプログラム。
A program for a computer included in a medical image processing apparatus that receives medical image information from another apparatus, performs image processing, and transmits the image processing to another apparatus,
Receiving the imaging order information of the received image information from a device that manages the imaging order information;
A step of recognizing an image of a subject and determining a shooting direction;
Comparing the shooting direction according to the shooting order information with the shooting direction determined by the subject recognition;
As a result of the comparison, when they do not match, a step of warning that they do not match;
Suspending transmission after a user operation or after a lapse of a fixed time after the warning, and causing the computer to execute the program.
JP2003084945A 2003-03-26 2003-03-26 Medical image processor, medical network system and program for medical image processor Pending JP2004290329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003084945A JP2004290329A (en) 2003-03-26 2003-03-26 Medical image processor, medical network system and program for medical image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003084945A JP2004290329A (en) 2003-03-26 2003-03-26 Medical image processor, medical network system and program for medical image processor

Publications (1)

Publication Number Publication Date
JP2004290329A true JP2004290329A (en) 2004-10-21

Family

ID=33399988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003084945A Pending JP2004290329A (en) 2003-03-26 2003-03-26 Medical image processor, medical network system and program for medical image processor

Country Status (1)

Country Link
JP (1) JP2004290329A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006158831A (en) * 2004-12-10 2006-06-22 Daiichi Shokai Co Ltd Game machine
JP2007260063A (en) * 2006-03-28 2007-10-11 Fujifilm Corp Processor of medical image information and confirmation work support program
JP2008036261A (en) * 2006-08-09 2008-02-21 Fujifilm Corp Medical imaging method and medical imaging device
WO2008131459A1 (en) * 2007-04-24 2008-10-30 Microsoft Corporation Medical image acquisition error detection
JP2010188042A (en) * 2009-02-20 2010-09-02 Konica Minolta Medical & Graphic Inc Medical image processor and program
JP2010194086A (en) * 2009-02-25 2010-09-09 Konica Minolta Medical & Graphic Inc Medical image display device and program
US7881508B2 (en) 2005-10-14 2011-02-01 Fujifilm Corporation Method, apparatus, and program for judging medical images
JP2012133424A (en) * 2010-12-20 2012-07-12 Konica Minolta Medical & Graphic Inc Image inspection device and image inspection system
JP2012192260A (en) * 2012-07-13 2012-10-11 Canon Inc Tomographic image pickup apparatus, tomographic image pickup method and program
JP2013045159A (en) * 2011-08-22 2013-03-04 Infocom Corp Warning notification system, image inspection system, data server, and program therefor
JP2013192601A (en) * 2012-03-16 2013-09-30 Konica Minolta Inc Medical image display system
WO2015046381A1 (en) * 2013-09-25 2015-04-02 富士フイルム株式会社 Image processing device, image processing system, image processing program, and image processing method
WO2015046382A1 (en) * 2013-09-25 2015-04-02 富士フイルム株式会社 Image processing device, image processing system, image processing program, and image processing method
JP2015125515A (en) * 2013-12-26 2015-07-06 コニカミノルタ株式会社 Image transmitter and trial system
WO2015156030A1 (en) * 2014-04-11 2015-10-15 ソニー株式会社 Signal processing device and signal processing method
JP2016067946A (en) * 2014-09-30 2016-05-09 株式会社東芝 Medical image data processing apparatus and medical image data processing method
JP2017111637A (en) * 2015-12-17 2017-06-22 コニカミノルタ株式会社 Clinical trial data management device and query management system
JP2017153820A (en) * 2016-03-03 2017-09-07 キヤノン株式会社 Information processor, method for the same, and computer program
WO2018225326A1 (en) * 2017-06-06 2018-12-13 オリンパス株式会社 Medical information processing system
JP2019512139A (en) * 2016-02-29 2019-05-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus, system and method for verifying image related information of medical image
JP2020024478A (en) * 2018-06-25 2020-02-13 ベイ ラブズ インク. Video clip selector used in image creation and diagnosis for medial care

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006158831A (en) * 2004-12-10 2006-06-22 Daiichi Shokai Co Ltd Game machine
US7881508B2 (en) 2005-10-14 2011-02-01 Fujifilm Corporation Method, apparatus, and program for judging medical images
JP2007260063A (en) * 2006-03-28 2007-10-11 Fujifilm Corp Processor of medical image information and confirmation work support program
JP4727476B2 (en) * 2006-03-28 2011-07-20 富士フイルム株式会社 Medical image information processing apparatus and confirmation work support program
JP2008036261A (en) * 2006-08-09 2008-02-21 Fujifilm Corp Medical imaging method and medical imaging device
US7715521B2 (en) 2006-08-09 2010-05-11 Fujifilm Corporation Imaging method and modality for medical application
WO2008131459A1 (en) * 2007-04-24 2008-10-30 Microsoft Corporation Medical image acquisition error detection
US7860286B2 (en) 2007-04-24 2010-12-28 Microsoft Corporation Medical image acquisition error detection
JP2010188042A (en) * 2009-02-20 2010-09-02 Konica Minolta Medical & Graphic Inc Medical image processor and program
JP2010194086A (en) * 2009-02-25 2010-09-09 Konica Minolta Medical & Graphic Inc Medical image display device and program
JP2012133424A (en) * 2010-12-20 2012-07-12 Konica Minolta Medical & Graphic Inc Image inspection device and image inspection system
JP2013045159A (en) * 2011-08-22 2013-03-04 Infocom Corp Warning notification system, image inspection system, data server, and program therefor
JP2013192601A (en) * 2012-03-16 2013-09-30 Konica Minolta Inc Medical image display system
JP2012192260A (en) * 2012-07-13 2012-10-11 Canon Inc Tomographic image pickup apparatus, tomographic image pickup method and program
JP2015085190A (en) * 2013-09-25 2015-05-07 富士フイルム株式会社 Image processing device, image processing system, image processing program, and image processing method
US10115193B2 (en) 2013-09-25 2018-10-30 Fujifilm Corporation Image processing device, image processing system, image processing program, and image processing method
WO2015046381A1 (en) * 2013-09-25 2015-04-02 富士フイルム株式会社 Image processing device, image processing system, image processing program, and image processing method
JP2015085189A (en) * 2013-09-25 2015-05-07 富士フイルム株式会社 Image processing device, image processing system, image processing program, and image processing method
WO2015046382A1 (en) * 2013-09-25 2015-04-02 富士フイルム株式会社 Image processing device, image processing system, image processing program, and image processing method
JP2015125515A (en) * 2013-12-26 2015-07-06 コニカミノルタ株式会社 Image transmitter and trial system
US10395334B2 (en) 2014-04-11 2019-08-27 Sony Corporation Three-dimensional deposition device and three-dimensional deposition method
JPWO2015156030A1 (en) * 2014-04-11 2017-04-13 ソニー株式会社 Signal processing apparatus and signal processing method
WO2015156030A1 (en) * 2014-04-11 2015-10-15 ソニー株式会社 Signal processing device and signal processing method
US11182874B2 (en) 2014-04-11 2021-11-23 Sony Corporation Signal processing device and signal processing method
JP2016067946A (en) * 2014-09-30 2016-05-09 株式会社東芝 Medical image data processing apparatus and medical image data processing method
JP2017111637A (en) * 2015-12-17 2017-06-22 コニカミノルタ株式会社 Clinical trial data management device and query management system
JP2019512139A (en) * 2016-02-29 2019-05-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus, system and method for verifying image related information of medical image
JP7150605B2 (en) 2016-02-29 2022-10-11 コーニンクレッカ フィリップス エヌ ヴェ Apparatus, system and method for verifying image-related information in medical images.
JP2017153820A (en) * 2016-03-03 2017-09-07 キヤノン株式会社 Information processor, method for the same, and computer program
WO2018225326A1 (en) * 2017-06-06 2018-12-13 オリンパス株式会社 Medical information processing system
JP2020024478A (en) * 2018-06-25 2020-02-13 ベイ ラブズ インク. Video clip selector used in image creation and diagnosis for medial care
JP7433750B2 (en) 2018-06-25 2024-02-20 キャプション ヘルス インコーポレイテッド Video clip selector used for medical image creation and diagnosis

Similar Documents

Publication Publication Date Title
JP2004290329A (en) Medical image processor, medical network system and program for medical image processor
US7388974B2 (en) Medical image processing apparatus
JP5026939B2 (en) Image processing apparatus and program thereof
US20040151358A1 (en) Medical image processing system and method for processing medical image
Foos et al. Digital radiography reject analysis: data collection methodology, results, and recommendations from an in-depth investigation at two hospitals
US20110246521A1 (en) System and method for discovering image quality information related to diagnostic imaging performance
US20030110178A1 (en) Method and system of tracking medical films and associated digital images for computer-aided and diagnostic analysis
JP4356327B2 (en) Medical image processing apparatus and medical image processing method
JP2004046594A (en) Device for supporting video diagnosis
US20190005354A1 (en) Learning data generation support apparatus, operation method of learning data generation support apparatus, and learning data generation support program
JP7102999B2 (en) Information collection processing equipment, information collection processing method and program
US20100042434A1 (en) System and method for discovering information in medical image database
JP6291809B2 (en) Medical image processing device
JP5834990B2 (en) Medical image processing apparatus and program
JP2006000376A (en) Medical image photography system, and information processor
JP4475054B2 (en) Breast image processing method and breast image output system
JP4385707B2 (en) Medical image processing system, medical image processing method and program
JP2015221141A (en) Medical image diagnosis support apparatus, operation method for medical image diagnosis support apparatus, and medical image diagnosis support program
JP2006034521A (en) Medical image processor and medical image processing method
JP2014121346A (en) Medical image processor and program
JP6291810B2 (en) Medical image processing device
JP4810141B2 (en) Image management apparatus and image management method
JP4690204B2 (en) Image reproduction apparatus and program thereof
JP2004290225A (en) Medical image processor, medical network system and program for medical image processor
JP7505428B2 (en) Medical radiation exposure dose management device and program