JP4405172B2 - Medical system - Google Patents

Medical system Download PDF

Info

Publication number
JP4405172B2
JP4405172B2 JP2003099845A JP2003099845A JP4405172B2 JP 4405172 B2 JP4405172 B2 JP 4405172B2 JP 2003099845 A JP2003099845 A JP 2003099845A JP 2003099845 A JP2003099845 A JP 2003099845A JP 4405172 B2 JP4405172 B2 JP 4405172B2
Authority
JP
Japan
Prior art keywords
medical
medical image
information
finding
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003099845A
Other languages
Japanese (ja)
Other versions
JP2004305289A (en
Inventor
麻希 水口
彰一 野川
昭 岩朝
高 増澤
章弘 利光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP2003099845A priority Critical patent/JP4405172B2/en
Publication of JP2004305289A publication Critical patent/JP2004305289A/en
Application granted granted Critical
Publication of JP4405172B2 publication Critical patent/JP4405172B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、医用画像診断装置により収集された医用画像に対する読影レポートを作成する医用システムに関する。
【0002】
【従来の技術】
近年、人体内部の情報を収集し、この収集した情報に基づいて人体内部の構造や機能の状態を表す医用画像を生成して表示する医用画像診断装置が使用されている。この医用画像診断装置としては、X線診断装置、X線CT装置、MRI装置(核磁気共鳴画像診断装置)、超音波画像診断装置、核医学診断装置等が知られている。又、これら医用画像診断装置により収集された医用画像を保管する医用画像保管装置(PACS)、医用画像に対して各種画像処理を施して表示する医用画像ビューア装置、医用画像に対する医学的な所見等を入力する医用レポート装置等の医用情報システムが知られている。
【0003】
一般に、医用画像診断装置により収集された医用画像は、ネットワークを介して医用画像保管装置に送られ磁気記憶装置や光ディスク等の記録媒体に記憶される。読影医は、医用画像ビューア装置を用いて収集された医用画像に表示し、その医用画像に対する読影レポートを医用レポート装置で作成する。各診療科(依頼科)の医師は、この読影レポートを診療科の端末で表示して診療を行なう。このような医用情報システムに関するものとして、例えば特許文献1が知られている。
【0004】
【特許文献1】
特開2001−125995号公報
【発明が解決しようとする課題】
従来の医用レポート装置は、複数の医用画像と所見を関連付けて読影レポートを作成することができるように構成されている。しかしながら、複数の医用画像を添付して読影レポートを作成した場合、記載されている所見がどの医用画像を見て書かれてみたものか、後で分からなくなくなることがある。又、1枚の医用画像中の複数部位について所見を記載した場合、記載されているそれぞれの所見が医用画像のどの部位についてのものか分からなくなることがある。このように医用画像と所見の対応関係が不明確な為、医師が読影レポートを見た際に添付されている各医用画像を見直して医用画像と所見の対応関係を確認する等の作業が必要になり、医療診断の効率が低下するとういう問題があった。又、最悪の場合、医用画像と所見の対応関係を誤認し、診断精度が低下するという恐れがある。
【0005】
又、従来読影レポートを作成する場合は、キーボードを用いて所見等の文章入力を行なっていたため、入力に時間がかかり読影効率が低下するという問題があった。特に集団検診等の大量の医用画像を読影する場合、1時間に100枚以上の読影を行なう必要があり、所見の入力作業の効率化が望まれている。
そこで本発明は、読影レポートにおける医用画像と所見の対応関係を良好に把握できるようにして、医療診断の効率及び精度の向上を図ることを目的とする。又、所見等の入力作業を容易に行なうことができるようにして医用診断の効率向上を図ることを目的とする。
【0006】
【課題を解決するための手段】
本発明は、上記目的を達成するため次のような手段を講じている。
本発明は、医用画像に対する読影レポートを作成する医用システムにおいて、医用画像を表示する表示手段と、前記医用画像上の所見位置を指定する位置指定手段と、人体の部位情報、前記医用画像上の位置情報、又は、前記医用画像に付されている付帯情報のいずれかに基づいて単語選定の優先度を変えて音声による所見を文字データに変換する音声認識手段により所見情報を入力する所見情報入力手段と、前記医用画像と、前記所見位置と、前記所見情報を関連付けてデータベースとして記憶する記憶手段とを備えることを特徴とする。
【0007】
又、本発明は、更に、選択された所見の文字情報に対して、指定された医用画像を特定するためのリンク情報を付加する貼り付け手段を備えることを特徴とする。
このような構成によれば、読影レポートの所見に医用画像を特定するためのリンク情報が付けられているので、後日、読影レポートを参照した際に所見がどの医用画像に対して記載されたかを容易に把握することができる。これにより、読影レポート参照時の視認性を良好にし、診療の効率及び信頼性を高めることができる。
【0008】
【発明の実施の形態】
以下、本発明の実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
まず、本実施の形態に係る医用システムの構成について図1を参照しながら説明する。図1は、病院内に設けられた医用システムを示しており、医用画像診断装置としてX線CT装置1、磁気共鳴イメージング装置2、X線診断装置3を、医用情報システムとして画像保管通信装置4、レポートサーバ5、レポート端末装置6、医用画像ビューア装置(医用画像観察装置)7、レポート端末装置8を記載している。これらの装置は、病院内LAN(ローカルエリアネットワーク)9により接続され、相互に通信可能に構成されている。レポート端末装置6と医用画像ビューア装置7は読影室に並べて設置され、読影者(操作者)が医用画像ビューア装置7の画面に表示されている医用画像を見てレポート端末装置6を操作して読影レポートを作成することができるようになっている。又、レポート端末装置8は、診療科に設置され患者の担当医(操作者)が必要に応じて読影レポートを閲覧できるようになっている。これら装置の組合せ、又は装置単体を医用システムと呼ぶものとする。
【0009】
本実施の形態においては、主にレポート端末装置6及び医用画像ビューア装置7の動作について説明する。図2は、レポート端末装置6及び医用画像ビューア装置7の構成を示している。
レポート端末装置6及び医用画像ビューア装置7は、パーソナルコンピュータ、ワークステーションをベースとして構成されており、回路間のデータ伝送を行うためのバス10と、プログラムに従って処理を実行するマイクロプロセッサ(CPU)11と、マイクロプロセッサ11で処理するプログラム及びデータを記憶する半導体メモリ(RAM)12と、プログラム及びデータを記憶する大容量記憶手段としての磁気記憶装置(ハードディスクドライブ)13と、病院内LANに接続するための通信回路14と、画像を表示するモニタ15と、モニタ15に画像を表示させるための信号を生成する画像表示回路16と、モニタの画面前面に取り付けられ押圧を検出するためのタッチパネル17と、タッチパネル17の信号から画面上の位置情報(座標情報)を求める位置検出回路18と、文字入力を行うためのキーボード19と、カーソルの移動及びクリック操作を行うためのマウス20と、キーボード19及びマウス等の入力機器を接続するためのインターフェース回路21と、操作者の音声を収集するためのマイク22と、マイク22から出力されるアナログの音声信号をディジタル信号に変換するための音声処理回路23を備えている。磁気記憶装置13は、レポート処理、画像参照処理、音声認識等を行うための制御プログラムや、画像やデータベース等の各種データを記憶しており、レポート端末装置6及び医用画像ビューア装置7はこれらの制御プログラム及びデータに基づいて動作する。
【0010】
(読影レポート作成時の全体の動作説明)
次に図3を用いて全体の作業の流れを説明する。図3は、医用画像保管通信装置4、医用画像ビューア装置6、読影室のレポート端末装置7、医用レポートサーバ5による作業及びデータの流れを表したシーケンス図である。
先ずレポート端末装置6において利用者ID(識別情報)とパスワードを入力してログインを行う(ステップS1)。この利用者ID及びパスワードは医用レポートサーバ5に送られ適正な利用者IDか確認され、適正であれば読影レポートの参照及び作成が可能になる。次に医用レポートサーバ5は、その利用者の担当する案件の検査リストをレポート端末装置6へ送信する。レポート端末装置6は、その検査リストを表示する(ステップS2)。操作者がマウス等を操作して検査リストの中の案件を選択すると、レポート端末装置6は、画像ビューア装置7にその検査案件に対応する医用画像の表示要求を出す(ステップS3)。
【0011】
次にレポート端末装置6は、その検査の読影レポートを入力するための画面を表示する(ステップS4)。尚、過去に記録された読影レポートがある場合は、必要に応じてその読影レポートを表示するようにしても良い。
医用画像ビューア装置7は、医用画像表示要求を受けると、医用画像保管通信装置4に対して、その検査案件に対応する医用画像の転送要求を出す。医用画像保管通信装置4は、その要求された医用画像の情報を検索して医用画像ビューア装置7へ転送する。医用画像ビューア装置7は、その検査案件に対応する医用画像の一覧をサムネイル等により表示する(ステップS5)。操作者がその医用画像の一覧の中の1つを選択すると、医用画像ビューア装置7は、画像処理や所見入力が可能なモードに移行して、選択された医用画像を拡大して表示する(ステップS6)。
【0012】
操作者は、この画面で、異常部位が観察し易くなるように各種画像処理のアイコンを操作して医用画像に対して画像処理を施して表示する(ステップS7)。所見入力を行う場合は、タッチパネル17により医用画像中の異常部位をペン等により指定し、マイク22に音声で所見を入力する。医用画像ビューア装置7は、入力された音声を、音声認識処理を用いて文字情報に変換し、その文字情報を指定部位に表示する(ステップS8)。この所見情報は、必要に応じて複数部位に付けることができる。尚、医用画像中の部位指定は、マウス20を操作してカーソル29を動かすことによって行っても良い。又、文字情報と共に生の音声データを所見情報に関連付けて記憶し、後日、実際の音声を再生できるようにしても良い。音声認識処理の詳細は後述する。
【0013】
操作者が終了又は画像切替えの指示を行うと、医用画像ビューア装置7は画像処理後の医用画像と所見情報を関連付けて装置内の画像データベースに保存する(ステップS9)。この時、所見情報として、所見の文字情報及び指定部位の位置情報が記憶され、後日再生した時に所見に対応する部位の位置を確認できるようにする。尚、画像切替えが指示された場合は、ステップS6からステップS9の動作を繰り返しそれぞれの画像に対して所見の添付等を行う。
【0014】
図4は、このモードにおいて医用画像ビューア装置7のモニタ15に表示される画面の一例である。画面24には、各種操作の指示を行うためのアイコン25、検査情報26、医用画像27、所見28、アイコン等の選択操作に用いるカーソル29等が表示されている。アイコン24としては、画像の拡大縮小、エッジ強調処理、輝度調整、3次元画像に対するMPR処理、MIP処理、ボリュームレンダリング処理、投影方向の変更等の画像処理を指示するためのアイコン、画像切替えを指示するためのアイコン、終了を指示するためのアイコン等が表示される。検査情報26としては、医用画像の付帯情報に基づく患者氏名等の患者情報と、CT検査X線検査、MRI検査等の検査種別と、検査日が表示される。所見28は、医用画像中の指定された部位の近傍に噴出しの形式で表示され、異常部位の位置と所見が把握し易いようになっている。尚、所見の文字情報が医用画像の人体部分に重なると異常部位の状態が見難くなる恐れがあるので、人体の外(画像の黒い部分)に文字情報を表示するようにしても良い。又、必要に応じて所見情報の表示、非表示を切替えられるようにしても良い。
【0015】
次にレポート端末装置6上で画像一覧の表示を指示すると、レポート端末装置6は医用画像ビューア装置7に対して検査案件に対応する医用画像の転送要求を出す。医用画像ビューア装置7は、その要求に応じて画像データベースに記憶されている所見情報と画像処理後の医用画像をレポート端末装置6に転送する。レポート端末装置6は、その転送されてきた医用画像の一覧をサムネイル形式で表示する(ステップS10)。この時、所見情報の添付されている医用画像のサムネイルに対しては、所見情報があることを示すマーク等の目印を付け、操作者が所見情報の有無を識別し易い形式で表示する。又、検査案件に対応する医用画像の内から所見情報の添付されているものを抽出する手段を設け、アイコン操作により、所見の添付されている医用画像と、されていない医用画像を共に一覧として表示する第1のモードと、所見の添付されている医用画像のみを一覧として表示する第2のモードを切替えられるようにしても良い。又、これらの第1のモードと第2のモードの一覧を同時に表示するようにしても良い。
【0016】
操作者は、読影レポートの所見入力欄への入力を行うため、この画像一覧の中から1つの画像を選択する。レポート端末装置6は、所見入力を行うためのモードに移行して、選択された医用画像を拡大して表示する(ステップS11)。この選択された医用画像は、読影レポートに添付される。
図5は、このモードにおいてレポート端末装置6のモニタ15に表示される画面の一例である。画面30には、各種操作の指示を行うためのアイコン31、検査情報32、読影レポートの所見入力欄33、所見付きの医用画像34、画像に付されている所見の位置を示すマーク35、マーク35に対応する所見欄36、カーソル37が表示されている。アイコン31としては、所見のコピー及び貼り付けを行うためのアイコン、所見付き医用画像の切替えを指示するためのアイコン、終了を指示するためのアイコン等が表示される。検査情報32としては、医用画像の付帯情報に基づく患者氏名等の患者情報と、CT検査X線検査、MRI検査等の検査種別と、頭部、胸部、腹部等の検査部位の情報と、検査日が表示される。所見付きの医用画像34は、医用画像ビューア装置7で作成されたものであり、所見の文字情報と所見の医用画像中の位置情報が関連付けられている。マーク35は、数字や文字等による識別マークであり、所見の位置情報に基づいてその対応する位置に表示される。所見欄36は、マーク35に対応する各所見の文字情報を表示している。
【0017】
次に操作者は、読影レポートの所見入力欄33へ所見の入力を行う。操作者は、所見欄36に表示されているものの中から必要なものをマウス20を操作して選択し、コピーのアイコンを押す。次に操作者が所見入力欄33中の記入したい部分をカーソル37で指定し、次に貼り付けのアイコンを選択する。この時、レポート端末装置6は、選択された所見欄36の所見を、所見入力欄33へコピーする(ステップS12)。所見入力欄33にコピーされた所見の文字情報には、医用画像及び所見の位置を特定するためのリンク情報が関連付けられ、必要に応じて、このリンク情報に基づいて医用画像と所見の位置を表示することができるようになっている。尚、コピー、貼り付けの操作は、ドラック&ドロップ形式等の他の方法によっても良い。
【0018】
医用画像に添付されていない所見を所見入力欄33に入力する場合は、マイク22への音声入力又はキーボード19による文字入力を行う(ステップS13)。この新たに入力された所見の文字情報に対して医用画像をリンクする場合は、所見の文字情報を選択した後、リンクのアイコンを選択し、次に医用画像35中の部位をカーソル37等で指定する。これにより、所見の文字情報に対して、医用画像及び所見の位置を特定するためのリンク情報が関連付けられて記録される。
次に操作者が終了(確定)のアイコンを選択すると、レポート端末装置6は読影レポートの保存要求を医用レポートサーバ5へ送る(ステップS14)。この時、画像選択により読影レポートに添付された所見付きの医用画像34と所見入力欄33に入力された所見情報が読影レポートとして医用レポートサーバ5に送られる。医用レポートサーバ5は、送られてきた読影レポートをデータベースに保存する。
【0019】
(読影レポート作成時の医用画像ビューア装置の動作)
図6は、医用画像ビューア装置7の動作を表したフローチャートである。ステップS15では、利用者ID及びパスワードの入力を促し、この利用者ID及びパスワードが適正なものであれば、読影レポート及び医用画像へのアクセスを許可する。ステップS16では、レポート端末装置6からの画像表示要求に応じて、医用画像保管通信装置4から指定された検査案件に対応する医用画像を読み出し、その医用画像の一覧をサムネイル形式で表示する。ステップS17では、操作者が医用画像の一覧中から1つを選択した時に、画像処理や所見入力が可能なモードに移行して、選択された医用画像を拡大して表示する。ステップS18では、画像処理のアイコンが選択されたかを検出し、アイコンが選択された場合はステップS18へ、選択されていない場合はステップS20へ進む。ステップS18では、医用画像に対して選択された画像処理を施して、その画像処理後の画像を画面に表示する。
【0020】
ステップS20では、表示されている医用画像中の部位をタッチパネル17により指定(ペン等で押圧)されているかを検出し、指定されている場合は所見の入力指示有りと判断してステップS21へ進み、指定されていない場合は入力指示無しと判断してステップS23へ進む。ステップS21では、マイク22により収集した音声を音声認識処理により文字情報に変換する。この音声認識の際、ステップS20で指定された部位の位置情報に基づいて単語選定の優先順序を変える。ステップS22では、ステップS21で求めた所見の文字情報とステップS20で指定された部位の位置情報を医用画像と関連付けて記憶すると共に、その所見の文字情報を医用画像中の対応する位置に表示する。
【0021】
ステップS23では、医用画像切替えのアイコンが選択されたかを検出し、アイコンが選択された場合はステップS24へ、選択されていない場合はステップS25へ進む。ステップS24では、表示していた医用画像と所見情報を関連付けて、医用画像ビューア装置7の磁気記憶装置13内の画像データベースに記憶する。この画像データベースには、医用画像の画像データと、医用画像の付帯情報(画像ID、患者情報、検査種別、検査日等)、所見情報(所見の文字情報、所見の医用画像中の位置情報)が関連付けられて記憶される。ステップS24が完了した後、ステップS16へ進み他の医用画像に対して上述の作業を繰り返す。
【0022】
ステップS25では、終了のアイコンが選択されたかを検出し、選択された場合はステップS26へ進み、選択されていない場合はステップS18へ戻り上述の動作を繰り返す。ステップS26では表示していた医用画像と所見情報を関連付けて、医用画像ビューア装置7内の画像データベースに記憶し、作業を終了する。
(読影レポート作成時のレポート端末装置の動作)
図7は、レポート端末装置6の動作を表したフローチャートである。ステップS27では、利用者ID及びパスワードの入力を促し、この利用者ID及びパスワードが適正なものであれば、読影レポート及び医用画像へのアクセスを許可する。ステップS28では、利用者IDに対応する検査案件のリストを医用レポートサーバ5から受信し、その一覧を表示する。ステップS29で、操作者が検査一覧から検査案件を選択すると、レポート端末装置7は、読影レポート作成画面を表示すると共に、医用画像ビューア装置7に対して選択された検査案件に対応する医用画像の表示要求を出力する。
【0023】
ステップS30では、医用画像選択のアイコンが選択されたかを検出し、選択された場合はステップS31へ、選択されていない場合はステップS33へ進む。ステップS32では、医用画像ビューア装置7に対して選択されている検査案件に対応する所見付き医用画像の送信要求を出し、受信した医用画像の一覧をサムネイル形式で表示する。この時、所見情報の添付されている医用画像のサムネイルに対しては、所見情報があることを示すマーク等の目印を付けて画面に表示する。ステップS32では、操作者が医用画像の一覧中から1つを選択した時に、その医用画像と医用画像に添付されている所見情報を図5のように表示する。
【0024】
ステップS33では、コピーのアイコンが選択されたかを検出し、アイコンが選択された場合はステップS34へ、選択されていない場合はステップS35へ進む。ステップS34では、所見欄36中の選択されている所見情報をコピー情報記憶部へ記憶する。この時の記憶される所見情報は、所見の文字情報、医用画像及び医用画像中の所見位置を特定するためのリンク情報を含んでいる。
ステップS35では、コピーのアイコンが選択されたかを検出し、アイコンが選択された場合はステップS36へ、選択されていない場合はステップS37へ進む。ステップS37では、所見入力欄33の指定された位置に、コピー情報記憶部に記憶されている所見情報を貼り付ける。この時、リンク情報も含めて所見入力欄33に記憶される。
【0025】
ステップS37では、マイク22に対しての音声入力又はキーボード19に対するキー入力があるかを検出し、入力がある場合はステップS38へ、無い場合はS40へ進む。ステップS38では、音声入力の場合は音声認識処理で変換された文字情報を、キー入力の場合はキーボード19で入力された文字情報を所見入力欄33へ入力する。
ステップS39では、リンク付けを行うアイコンが選択されたかを検出し、選択された場合はステップS40へ、選択されていない場合はステップS41へ進む。ステップS40では、操作者が医用画像中の部位をタッチパネル17又はマウス20を操作して指定すると、所見入力欄33中の指定されている所見文字情報に対して、指定された部位のリンク情報を関連付けて記憶する。
【0026】
ステップS41では、終了のアイコンが選択されたかを検出し、選択された場合はステップS42へ進み、選択されていない場合はステップS30へ戻り上述の動作を繰り返す。ステップS42では、作成した読影レポートを医用レポートサーバ5へ送信し、医用レポートサーバ5内の読影レポートデータベースに記憶する。この時、読影レポートデータベースには、読影レポートとして画像選択により添付された医用画像と、医用画像に添付されている所見情報と、所見入力欄33に入力されたレポート作成時の所見情報が関連付けられて記憶される。
尚、読影レポートに添付する画像は、読影時より高い解像度を要求されないことがあるため、読影レポートの保存時に画像解像度の低いものに非可逆圧縮してデータ量を削減するようにしても良い。このようにデータ量を削減することにより、データベースの容量削減や、データ転送や処理にかかる時間を短縮してレスポンスの向上を図ることができる。
【0027】
(音声認識処理の動作)
次に医用画像ビューア装置7の音声認識処理(ステップS21の動作)について説明する。図8は、本実施の形態における音声認識処理の動作説明図である。音声認識処理部38は、マイク22で収集された音声データを文字情報に変換するものであり、座標検出部39、部位決定部40、座標・部位テーブル41、音声解析部42、通常辞書テーブル43、部位・単語テーブル44を備えている。
【0028】
座標検出部39は、タッチパネル17の出力に基づいて、操作者がペン等で指定した医用画像上の座標情報を求める。座標・部位テーブル41には医用画像中の座標と部位名称が対応付けて記憶されており、部位決定部40は座標・部位テーブル41を参照して座標情報から部位名称を求めて出力する。音声解析部42は、マイク22で収集された音声データと、部位決定部40で求めた部位名称に基づいて、音声を文字データに変換する。具体的には、先ず音声解析部42は、音声データの特徴を抽出する。音声解析部42は通常辞書テーブル43を参照して、音声の特徴から単語(文字)の候補を選択する。次に音声解析部42は、部位・単語テーブル44を参照して部位名に基づいて単語候補に優先度を付け、その優先度に基づいて最終的に出力する文字情報を決定する。尚、通常辞書テーブル43は音声の特徴と単語(文字)を関連付けて記憶したものであり、部位・単語テーブルは部位名称とその部位名に関連のある単語を関連付けて記憶したものである。
【0029】
図9は部位と単語の関係の例を表した図であり、部位名として右肺野、縦隔、左肺野、横隔膜が記載され、単語として石灰化、乖離、下行、リンパ、偏平上皮、狭窄、繊維化、すりガラス状、腺ガン、小細胞ガン、明るい、包気量、浸潤、下葉、胸水、ニボーが記載されている。座標・部位テーブル41は、この部位名とその部位名の対応する位置情報を関連付けたものである。部位・単語テーブル43は、この部位名と、その部位名に関連の強い単語を関連付けたものである。
【0030】
上述の音声認識処理の変形例として、部位名を決定する際、画像認識技術を用いて医用画像中の臓器等の形状から部位名を求めるようにしても良い。又、医用画像の付帯情報に含まれている部位情報に基づいて部位名称を求めるようにしても良い。又、部位名称の他に、医用画像の付帯情報中のCT検査、X線検査、MRI検査等の検査種別に基づいて単語選定の優先度を変えるようにしても良い。このように音声処理において、医用画像中の指定された部位や、医用画像の付帯情報に応じて単語選定時の優先度を変えるため、音声認識率を高めることができる。
【0031】
(読影レポート参照時の動作の流れ)
次に図10を用いて読影レポート参照時の作業の流れを説明する。図10は、診療科のレポート端末装置8、医用レポートサーバ5による作業及びデータの流れを表したシーケンス図である。
先ずレポート端末装置8において利用者ID(識別情報)とパスワードを入力してログインを行う(ステップS43)。次に医用レポートサーバ5から、その利用者の担当する案件の検査リストがレポート端末装置6へ送信され、レポート端末装置6はその検査リストを表示する(ステップS44)。次に操作者が検査リストの中の案件を選択すると、レポート端末装置6は医用レポートサーバ5に対してその案件の読影レポートの転送要求を出す(ステップS45)。レポート端末装置8は、その転送要求に応じて転送されてきた読影レポートを画面に表示する(ステップS46)。
この時、レポート端末装置8は、図11のような画面を表示する。操作者がマウス20等を操作して所見入力欄45の所見の1つを選択すると、その所見に付されているリンク情報に基づいて医用画像46を表示すると共に、その所見に対応するマーク47を点滅等により強調表示する(ステップS47)。このように強調表示することにより、対応する医用画像上の位置が把握しやすくなる。
【0032】
以上述べた構成によれば、以下の効果を得ることができる。
読影レポートの所見に医用画像及び医用画像中の対応位置を特定するためのリンク情報を付けているので、後日、読影レポートを参照した際に所見がどの医用画像のどの位置に対して記載されたかを容易に把握することができる。又、医用画像上の指定した位置に所見の文字情報を表示することができるので、医用画像と所見の関係を良好に把握することができる。これにより、読影レポート参照時の視認性を良好にし、診療の効率、精度及び信頼性を高めることができる。
【0033】
又、医用画像ビューア装置上で各医用画像に対して所見付けを行った後、レポート端末装置上でその所見のコピー、貼り付けを行って読影レポートを作成することができるので、読影レポートの作成作業が容易にでき、又、従来に比べ、医用画像ビューア装置の画面とレポート端末装置の間の視線移動量を少なくすることができる。これにより、レポート作成者の疲労を低減することができる。
又、音声認識処理を用いて所見の入力を行うことができるため、入力作業の効率を高めることができる。又、音声認識処理の際、指定部位や医用画像の付帯情報に基づいて単語選定の優先度を変えるため、音声認識率を高めることができ、入力作業の効率を高めることができる。
【0034】
以上、本発明を実施形態に基づき説明したが、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変形例及び修正例についても本発明の範囲に属するものである。
例えば、上述の実施の形態ではレポート端末装置8として専用端末を用いるものとして説明したが、ウェブブラウザにより読影レポートの表示を行うようにしても良い。この場合は、所見情報に付加するリンク情報をURL(ホームページアドレス)としても良い。
【0035】
【発明の効果】
以上本発明によれば、読影レポート参照時の視認性を良好にすることができ、これにより診療の効率及び信頼性を高めることができる。
【図面の簡単な説明】
【図1】図1は、病院内の医用システムの構成例である。
【図2】図2は、レポート端末装置6及び医用画像ビューア装置7の構成図である。
【図3】図3は、読影レポート作成時の流れを示すシーケンス図である。
【図4】図4は、医用画像ビューア装置7の画面例である。
【図5】図5は、レポート端末装置6の画面例である。
【図6】図6は、医用画像ビューア装置7の動作にかかるフローチャートである。
【図7】図7は、レポート端末装置6の動作にかかるフローチャートである。
【図8】図8は、音声認識処理の動作説明図である。
【図9】図9は、部位と単語の関係の例を表した図である。
【図10】図10は、読影レポート参照時の作業の流れを示すシーケンス図である。
【図11】図11は、レポート端末装置6の画面例である。
【符号の説明】
1・・・X線CT装置、2・・・磁気共鳴イメージング装置、3・・・X線診断装置、4・・・画像保管通信装置4、5・・・レポートサーバ、6・・・レポート端末装置、7・・・医用画像ビューア装置、8・・・レポート端末装置、9・・・病院内LAN
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a medical system that creates an interpretation report for medical images collected by a medical image diagnostic apparatus.
[0002]
[Prior art]
2. Description of the Related Art In recent years, a medical image diagnostic apparatus that collects information inside a human body and generates and displays a medical image representing a state of a structure or function inside the human body based on the collected information is used. As this medical image diagnostic apparatus, an X-ray diagnostic apparatus, an X-ray CT apparatus, an MRI apparatus (nuclear magnetic resonance image diagnostic apparatus), an ultrasonic image diagnostic apparatus, a nuclear medicine diagnostic apparatus, and the like are known. In addition, a medical image storage device (PACS) that stores medical images collected by these medical image diagnostic devices, a medical image viewer device that performs various image processing on the medical images, and displays medical findings on the medical images. There are known medical information systems such as medical report devices for inputting.
[0003]
Generally, medical images collected by a medical image diagnostic apparatus are sent to a medical image storage apparatus via a network and stored in a recording medium such as a magnetic storage device or an optical disk. The interpretation doctor displays the medical image collected using the medical image viewer apparatus, and creates an interpretation report for the medical image by the medical report apparatus. A doctor in each department (request department) displays this interpretation report on the terminal of the department and performs medical care. For example, Patent Document 1 is known as such a medical information system.
[0004]
[Patent Document 1]
JP 2001-125995 A
[Problems to be solved by the invention]
The conventional medical report apparatus is configured to create an interpretation report by associating a plurality of medical images with findings. However, when an interpretation report is created with a plurality of medical images attached, it may be difficult to know later which medical image the written finding was written. In addition, when findings are described for a plurality of parts in one medical image, it may be difficult to know which part of the medical image each of the described findings is. Since the correspondence between medical images and findings is unclear in this way, it is necessary to review each medical image attached when a doctor views an interpretation report and check the correspondence between medical images and findings. Therefore, there has been a problem that the efficiency of medical diagnosis is reduced. In the worst case, the correspondence between the medical image and the findings may be mistaken and the diagnostic accuracy may be reduced.
[0005]
In addition, when a conventional interpretation report is created, text input such as findings is performed using a keyboard. Therefore, there is a problem that it takes time to input and the interpretation efficiency is lowered. In particular, when interpreting a large amount of medical images such as group examinations, it is necessary to interpret 100 or more images per hour, and it is desired to improve the efficiency of input of findings.
Therefore, an object of the present invention is to improve the efficiency and accuracy of medical diagnosis by making it possible to satisfactorily understand the correspondence between medical images and findings in an interpretation report. It is another object of the present invention to improve the efficiency of medical diagnosis by making it possible to easily perform input operations such as findings.
[0006]
[Means for Solving the Problems]
  The present invention takes the following means in order to achieve the above object.
  The present invention provides a medical system for creating an interpretation report for a medical image, a display means for displaying the medical image, a position specifying means for specifying a finding position on the medical image,Speech recognition that converts speech findings into character data by changing the priority of word selection based on any of body part information, position information on the medical image, or supplementary information attached to the medical image By meansA database in which finding information input means for inputting finding information, the medical image, the finding position, and the finding information are associated with each other.RememberStorage means.
[0007]
  The present invention also providesFurthermore, it is characterized by comprising paste means for adding link information for specifying the specified medical image to the character information of the selected finding.
  According to such a configuration, since the link information for specifying the medical image is attached to the findings of the interpretation report, the medical image to which the findings are described later when the interpretation report is referred to. It can be easily grasped. Thereby, the visibility at the time of referring to an interpretation report can be made favorable, and the efficiency and reliability of medical care can be improved.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description will be given only when necessary.
First, the configuration of the medical system according to the present embodiment will be described with reference to FIG. FIG. 1 shows a medical system provided in a hospital. An X-ray CT apparatus 1, a magnetic resonance imaging apparatus 2, and an X-ray diagnostic apparatus 3 are used as medical image diagnostic apparatuses, and an image storage communication apparatus 4 is used as a medical information system. , A report server 5, a report terminal device 6, a medical image viewer device (medical image observation device) 7, and a report terminal device 8. These devices are connected by a hospital LAN (local area network) 9 and are configured to be able to communicate with each other. The report terminal device 6 and the medical image viewer device 7 are installed side by side in the interpretation room, and the interpreter (operator) operates the report terminal device 6 by looking at the medical image displayed on the screen of the medical image viewer device 7. An interpretation report can be created. In addition, the report terminal device 8 is installed in a medical department, and a doctor in charge (operator) of a patient can browse an interpretation report as necessary. A combination of these devices or a single device is called a medical system.
[0009]
In the present embodiment, operations of the report terminal device 6 and the medical image viewer device 7 will be mainly described. FIG. 2 shows the configuration of the report terminal device 6 and the medical image viewer device 7.
The report terminal device 6 and the medical image viewer device 7 are configured based on a personal computer and a workstation, and include a bus 10 for transmitting data between circuits, and a microprocessor (CPU) 11 that executes processing according to a program. And a semiconductor memory (RAM) 12 for storing a program and data processed by the microprocessor 11, a magnetic storage device (hard disk drive) 13 as a mass storage means for storing the program and data, and a hospital LAN. A communication circuit 14 for displaying an image, a monitor 15 for displaying an image, an image display circuit 16 for generating a signal for displaying an image on the monitor 15, and a touch panel 17 attached to the front of the monitor screen for detecting pressure. , The position on the screen from the signal of the touch panel 17 A position detection circuit 18 for obtaining information (coordinate information), a keyboard 19 for inputting characters, a mouse 20 for moving and clicking a cursor, and an input device such as a keyboard 19 and a mouse. An interface circuit 21, a microphone 22 for collecting an operator's voice, and a voice processing circuit 23 for converting an analog voice signal output from the microphone 22 into a digital signal are provided. The magnetic storage device 13 stores a control program for performing report processing, image reference processing, voice recognition, etc., and various data such as images and databases, and the report terminal device 6 and the medical image viewer device 7 have these data stored therein. Operates based on the control program and data.
[0010]
(Description of overall operation when creating an interpretation report)
Next, the overall work flow will be described with reference to FIG. FIG. 3 is a sequence diagram showing work and data flow by the medical image storage communication device 4, the medical image viewer device 6, the report terminal device 7 in the interpretation room, and the medical report server 5.
First, a user ID (identification information) and a password are entered in the report terminal device 6 to log in (step S1). The user ID and password are sent to the medical report server 5 to check whether the user ID is proper. If it is appropriate, the interpretation report can be referred to and created. Next, the medical report server 5 transmits to the report terminal device 6 an examination list of the cases that the user is in charge of. The report terminal device 6 displays the inspection list (step S2). When the operator operates the mouse or the like to select a case in the examination list, the report terminal device 6 issues a display request for a medical image corresponding to the examination case to the image viewer device 7 (step S3).
[0011]
Next, the report terminal device 6 displays a screen for inputting an interpretation report of the examination (step S4). When there is an interpretation report recorded in the past, the interpretation report may be displayed as necessary.
Upon receiving the medical image display request, the medical image viewer device 7 issues a transfer request for the medical image corresponding to the examination item to the medical image storage communication device 4. The medical image storage communication device 4 retrieves the requested medical image information and transfers it to the medical image viewer device 7. The medical image viewer device 7 displays a list of medical images corresponding to the examination item as thumbnails (step S5). When the operator selects one of the list of medical images, the medical image viewer device 7 shifts to a mode in which image processing and finding input can be performed, and displays the selected medical image in an enlarged manner ( Step S6).
[0012]
On this screen, the operator operates the various image processing icons so as to make it easier to observe the abnormal part, and performs image processing on the medical image to display (Step S7). When inputting the findings, the abnormal part in the medical image is designated with a pen or the like on the touch panel 17 and the findings are input to the microphone 22 by voice. The medical image viewer device 7 converts the input voice into character information using voice recognition processing, and displays the character information on the designated part (step S8). This finding information can be attached to a plurality of parts as required. The part in the medical image may be specified by operating the mouse 20 and moving the cursor 29. Further, raw voice data may be stored in association with the finding information together with the character information so that the actual voice can be reproduced at a later date. Details of the speech recognition processing will be described later.
[0013]
When the operator gives an instruction to end or switch the image, the medical image viewer device 7 associates the medical image after the image processing with the finding information and stores it in the image database in the device (step S9). At this time, the character information of the finding and the position information of the designated part are stored as the finding information so that the position of the part corresponding to the finding can be confirmed when played back later. When image switching is instructed, the operations from step S6 to step S9 are repeated to attach findings to each image.
[0014]
FIG. 4 is an example of a screen displayed on the monitor 15 of the medical image viewer device 7 in this mode. The screen 24 displays an icon 25 for instructing various operations, examination information 26, a medical image 27, a finding 28, a cursor 29 used for selecting an icon, and the like. As the icon 24, an icon for instructing image processing such as image enlargement / reduction, edge enhancement processing, luminance adjustment, MPR processing, MIP processing, volume rendering processing, and change of projection direction for a three-dimensional image is instructed. An icon for performing, an icon for instructing termination, and the like are displayed. As the examination information 26, patient information such as the patient name based on the supplementary information of the medical image, examination types such as CT examination X-ray examination, MRI examination, and examination date are displayed. The findings 28 are displayed in the form of a jet in the vicinity of the designated site in the medical image so that the position and findings of the abnormal site can be easily grasped. If the character information of the findings overlaps with the human body part of the medical image, it may be difficult to see the state of the abnormal part. Therefore, the character information may be displayed outside the human body (black part of the image). Further, display or non-display of the finding information may be switched as necessary.
[0015]
Next, when an instruction to display an image list is given on the report terminal device 6, the report terminal device 6 issues a medical image transfer request corresponding to the examination item to the medical image viewer device 7. In response to the request, the medical image viewer device 7 transfers the finding information stored in the image database and the medical image after image processing to the report terminal device 6. The report terminal device 6 displays the transferred medical image list in a thumbnail format (step S10). At this time, a mark such as a mark indicating the presence of the finding information is attached to the thumbnail of the medical image to which the finding information is attached, and is displayed in a format that makes it easy for the operator to identify the presence or absence of the finding information. Also, there is provided means for extracting the medical image attached with the finding information from the medical images corresponding to the examination item, and both the medical image attached with the finding and the medical image not attached as a list by operating the icon. The first mode for displaying and the second mode for displaying only the medical images attached with the findings as a list may be switched. Further, a list of the first mode and the second mode may be displayed at the same time.
[0016]
The operator selects one image from the image list in order to input the finding input field of the interpretation report. The report terminal device 6 shifts to a mode for inputting findings, and enlarges and displays the selected medical image (step S11). The selected medical image is attached to the interpretation report.
FIG. 5 is an example of a screen displayed on the monitor 15 of the report terminal device 6 in this mode. The screen 30 includes an icon 31 for instructing various operations, examination information 32, an interpretation report finding input field 33, a medical image 34 with a finding, a mark 35 indicating the position of the finding attached to the image, a mark A finding field 36 and a cursor 37 corresponding to 35 are displayed. As the icon 31, an icon for copying and pasting findings, an icon for instructing switching of medical images with findings, an icon for instructing termination, and the like are displayed. The examination information 32 includes patient information such as the patient name based on the supplementary information of the medical image, examination types such as CT examination X-ray examination and MRI examination, information on examination parts such as the head, chest and abdomen, and examination. The day is displayed. The medical image 34 with a finding is created by the medical image viewer device 7, and the character information of the finding and the position information in the medical image of the finding are associated with each other. The mark 35 is an identification mark such as a numeral or a character, and is displayed at a corresponding position based on the position information of the findings. The finding column 36 displays character information of each finding corresponding to the mark 35.
[0017]
Next, the operator inputs a finding into the finding input field 33 of the interpretation report. The operator operates the mouse 20 to select necessary items from those displayed in the finding column 36, and presses the copy icon. Next, the operator designates a portion to be entered in the finding input field 33 with the cursor 37, and then selects a pasting icon. At this time, the report terminal device 6 copies the finding in the selected finding column 36 to the finding input column 33 (step S12). The text information of the findings copied to the finding input field 33 is associated with the medical image and link information for specifying the position of the findings. If necessary, the position of the medical image and the findings is based on the link information. It can be displayed. The copy and paste operations may be performed by other methods such as a drag & drop format.
[0018]
When a finding that is not attached to the medical image is input to the finding input field 33, voice input to the microphone 22 or character input using the keyboard 19 is performed (step S13). When linking a medical image to the newly input text information of the finding, after selecting the text information of the finding, the link icon is selected, and then the part in the medical image 35 is moved with the cursor 37 or the like. specify. Thereby, the link information for specifying the medical image and the position of the finding is recorded in association with the character information of the finding.
Next, when the operator selects the end (confirmed) icon, the report terminal device 6 sends a request for saving the interpretation report to the medical report server 5 (step S14). At this time, the medical image 34 with a finding attached to the interpretation report by image selection and the finding information input in the finding input field 33 are sent to the medical report server 5 as an interpretation report. The medical report server 5 stores the sent interpretation report in a database.
[0019]
(Operation of medical image viewer device when creating interpretation report)
FIG. 6 is a flowchart showing the operation of the medical image viewer device 7. In step S15, input of a user ID and password is prompted, and if the user ID and password are appropriate, access to the interpretation report and medical image is permitted. In step S16, in response to an image display request from the report terminal device 6, a medical image corresponding to the designated examination item is read from the medical image storage communication device 4, and a list of the medical images is displayed in a thumbnail format. In step S17, when the operator selects one from the list of medical images, the mode shifts to a mode in which image processing and finding input are possible, and the selected medical image is enlarged and displayed. In step S18, it is detected whether an icon for image processing has been selected. If an icon has been selected, the process proceeds to step S18, and if not, the process proceeds to step S20. In step S18, the selected image processing is performed on the medical image, and the image after the image processing is displayed on the screen.
[0020]
In step S20, it is detected whether a part in the displayed medical image is designated (pressed with a pen or the like) on the touch panel 17, and if designated, it is determined that there is an input instruction for finding and the process proceeds to step S21. If not specified, it is determined that there is no input instruction, and the process proceeds to step S23. In step S21, the voice collected by the microphone 22 is converted into character information by voice recognition processing. At the time of this voice recognition, the priority order of word selection is changed based on the position information of the part designated in step S20. In step S22, the character information of the finding obtained in step S21 and the position information of the part designated in step S20 are stored in association with the medical image, and the character information of the finding is displayed at a corresponding position in the medical image. .
[0021]
In step S23, it is detected whether an icon for switching medical images has been selected. If an icon has been selected, the process proceeds to step S24, and if not, the process proceeds to step S25. In step S24, the displayed medical image and the finding information are associated with each other and stored in the image database in the magnetic storage device 13 of the medical image viewer device 7. In this image database, medical image image data, supplementary information of the medical image (image ID, patient information, examination type, examination date, etc.), finding information (text information of the finding, position information in the medical image of the finding) Are stored in association with each other. After step S24 is completed, the process proceeds to step S16, and the above operation is repeated for the other medical images.
[0022]
In step S25, it is detected whether an end icon is selected. If selected, the process proceeds to step S26. If not selected, the process returns to step S18 to repeat the above-described operation. In step S26, the medical image displayed and the finding information are associated with each other and stored in the image database in the medical image viewer device 7, and the operation is finished.
(Operation of the report terminal device when creating an interpretation report)
FIG. 7 is a flowchart showing the operation of the report terminal device 6. In step S27, input of a user ID and password is prompted, and if the user ID and password are proper, access to the interpretation report and medical image is permitted. In step S28, a list of examination items corresponding to the user ID is received from the medical report server 5, and the list is displayed. When the operator selects an inspection item from the inspection list in step S29, the report terminal device 7 displays an interpretation report creation screen and also displays a medical image corresponding to the selected inspection item with respect to the medical image viewer device 7. Output a display request.
[0023]
In step S30, it is detected whether an icon for selecting a medical image is selected. If selected, the process proceeds to step S31, and if not selected, the process proceeds to step S33. In step S32, a request for transmitting medical images with findings corresponding to the selected examination item is sent to the medical image viewer device 7, and a list of received medical images is displayed in a thumbnail format. At this time, the thumbnail of the medical image to which the finding information is attached is displayed on the screen with a mark such as a mark indicating that the finding information exists. In step S32, when the operator selects one from the list of medical images, the medical image and the finding information attached to the medical image are displayed as shown in FIG.
[0024]
In step S33, it is detected whether a copy icon has been selected. If an icon has been selected, the process proceeds to step S34, and if not, the process proceeds to step S35. In step S34, the finding information selected in the finding column 36 is stored in the copy information storage unit. The finding information stored at this time includes the character information of the finding, the medical image, and link information for specifying the finding position in the medical image.
In step S35, it is detected whether a copy icon has been selected. If an icon has been selected, the process proceeds to step S36, and if not, the process proceeds to step S37. In step S37, the finding information stored in the copy information storage unit is pasted at the designated position in the finding input field 33. At this time, it is stored in the finding input field 33 including the link information.
[0025]
In step S37, it is detected whether there is a voice input to the microphone 22 or a key input to the keyboard 19. If there is an input, the process proceeds to step S38, and if not, the process proceeds to S40. In step S38, the character information converted by the voice recognition processing is input to the finding input field 33 in the case of voice input, and the character information input from the keyboard 19 is input in the case of key input.
In step S39, it is detected whether an icon for linking is selected. If selected, the process proceeds to step S40, and if not selected, the process proceeds to step S41. In step S40, when the operator designates a part in the medical image by operating the touch panel 17 or the mouse 20, the link information of the designated part is obtained with respect to the designated finding character information in the finding input field 33. Store it in association.
[0026]
In step S41, it is detected whether an end icon has been selected. If selected, the process proceeds to step S42. If not selected, the process returns to step S30 to repeat the above operation. In step S42, the created interpretation report is transmitted to the medical report server 5 and stored in the interpretation report database in the medical report server 5. At this time, the interpretation report database associates the medical image attached as the interpretation report by image selection, the finding information attached to the medical image, and the finding information at the time of creating the report entered in the finding input field 33. Is remembered.
Note that an image attached to an interpretation report may not be required to have a higher resolution than that at the time of interpretation, so that the amount of data may be reduced by irreversibly compressing an image having a lower image resolution when the interpretation report is saved. By reducing the amount of data in this way, it is possible to improve the response by reducing the capacity of the database and the time required for data transfer and processing.
[0027]
(Operation of voice recognition processing)
Next, the voice recognition process (operation of step S21) of the medical image viewer apparatus 7 will be described. FIG. 8 is a diagram for explaining the operation of the speech recognition process in the present embodiment. The voice recognition processing unit 38 converts voice data collected by the microphone 22 into character information, and includes a coordinate detection unit 39, a part determination unit 40, a coordinate / part table 41, a voice analysis unit 42, and a normal dictionary table 43. The site / word table 44 is provided.
[0028]
The coordinate detection unit 39 obtains coordinate information on the medical image designated by the operator with a pen or the like based on the output of the touch panel 17. The coordinates / part table 41 stores coordinates and part names in the medical image in association with each other, and the part determination unit 40 refers to the coordinate / part table 41 to obtain the part name from the coordinate information and outputs it. The voice analysis unit 42 converts voice into character data based on the voice data collected by the microphone 22 and the part name obtained by the part determination unit 40. Specifically, the voice analysis unit 42 first extracts features of the voice data. The speech analysis unit 42 refers to the normal dictionary table 43 and selects a word (character) candidate from the features of the speech. Next, the voice analysis unit 42 refers to the part / word table 44, prioritizes word candidates based on the part names, and determines character information to be finally output based on the priorities. The normal dictionary table 43 stores voice characteristics and words (characters) in association with each other, and the part / word table stores part names and words related to the part names in association with each other.
[0029]
FIG. 9 is a diagram showing an example of the relationship between a region and a word, where the right lung field, mediastinum, left lung field, and diaphragm are described as the region name, and calcification, divergence, descending, lymph, squamous epithelium, Stenosis, fibrosis, ground glass, adenocarcinoma, small cell carcinoma, bright, enveloping volume, infiltration, lower lobe, pleural effusion, nibaud are described. The coordinate / part table 41 associates this part name with position information corresponding to the part name. The part / word table 43 associates this part name with a word strongly related to the part name.
[0030]
As a modified example of the voice recognition process described above, when determining a part name, the part name may be obtained from the shape of an organ or the like in a medical image using an image recognition technique. Further, the part name may be obtained based on the part information included in the supplementary information of the medical image. In addition to the part name, the priority of the word selection may be changed based on the examination type such as CT examination, X-ray examination, MRI examination, etc. in the supplementary information of the medical image. Thus, in speech processing, since the priority at the time of word selection is changed according to the designated part in the medical image and the supplementary information of the medical image, the speech recognition rate can be increased.
[0031]
(Flow of operations when referring to interpretation reports)
Next, the flow of work when referring to an interpretation report will be described with reference to FIG. FIG. 10 is a sequence diagram showing work and data flow by the report terminal device 8 of the medical department and the medical report server 5.
First, a user ID (identification information) and a password are entered in the report terminal device 8 to log in (step S43). Next, the medical report server 5 transmits the examination list of the project that the user is in charge of to the report terminal device 6, and the report terminal device 6 displays the examination list (step S44). Next, when the operator selects a case in the examination list, the report terminal device 6 issues a transfer request for the interpretation report of the case to the medical report server 5 (step S45). The report terminal device 8 displays the image interpretation report transferred in response to the transfer request on the screen (step S46).
At this time, the report terminal device 8 displays a screen as shown in FIG. When the operator operates the mouse 20 or the like to select one of the findings in the finding input field 45, the medical image 46 is displayed based on the link information attached to the finding, and a mark 47 corresponding to the finding is displayed. Is highlighted by blinking or the like (step S47). By highlighting in this way, the position on the corresponding medical image can be easily grasped.
[0032]
According to the configuration described above, the following effects can be obtained.
Since the link information for identifying the medical image and the corresponding position in the medical image is attached to the findings of the interpretation report, the position of which medical image the findings were written to when the interpretation report was referenced later. Can be easily grasped. In addition, since the text information of the finding can be displayed at the designated position on the medical image, the relationship between the medical image and the finding can be grasped well. Thereby, the visibility at the time of referring to an interpretation report can be made favorable, and the efficiency, precision, and reliability of medical care can be improved.
[0033]
In addition, after finding each medical image on the medical image viewer device, it is possible to create an interpretation report by copying and pasting the findings on the report terminal device. The work can be facilitated, and the amount of line-of-sight movement between the screen of the medical image viewer device and the report terminal device can be reduced as compared with the prior art. Thereby, a report creator's fatigue can be reduced.
In addition, since findings can be input using voice recognition processing, the efficiency of input work can be improved. In addition, during the speech recognition process, the priority of word selection is changed on the basis of the designated site and the supplementary information of the medical image, so that the speech recognition rate can be increased and the efficiency of input work can be increased.
[0034]
Although the present invention has been described based on the embodiments, those skilled in the art can come up with various changes and modifications within the scope of the idea of the present invention. It belongs to the scope of the present invention.
For example, in the above-described embodiment, the dedicated terminal is used as the report terminal device 8. However, the interpretation report may be displayed by a web browser. In this case, link information added to the finding information may be a URL (homepage address).
[0035]
【The invention's effect】
As described above, according to the present invention, it is possible to improve the visibility when referring to an interpretation report, thereby improving the efficiency and reliability of medical care.
[Brief description of the drawings]
FIG. 1 is a configuration example of a medical system in a hospital.
FIG. 2 is a configuration diagram of a report terminal device 6 and a medical image viewer device 7;
FIG. 3 is a sequence diagram showing a flow when creating an interpretation report.
FIG. 4 is a screen example of the medical image viewer device 7;
FIG. 5 is a screen example of the report terminal device 6;
FIG. 6 is a flowchart according to the operation of the medical image viewer device 7;
FIG. 7 is a flowchart according to the operation of the report terminal device 6;
FIG. 8 is an operation explanatory diagram of voice recognition processing;
FIG. 9 is a diagram illustrating an example of a relationship between a part and a word.
FIG. 10 is a sequence diagram showing a work flow when referring to an interpretation report.
FIG. 11 is a screen example of the report terminal device 6;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... X-ray CT apparatus, 2 ... Magnetic resonance imaging apparatus, 3 ... X-ray diagnostic apparatus, 4 ... Image storage communication apparatus 4, 5 ... Report server, 6 ... Report terminal Device: 7 ... Medical image viewer device, 8 ... Report terminal device, 9 ... Hospital LAN

Claims (6)

医用画像に対する読影レポートを作成する医用システムにおいて、
医用画像を表示する表示手段と、
前記医用画像上の所見位置を指定する位置指定手段と、
人体の部位情報、前記医用画像上の位置情報、又は、前記医用画像に付されている付帯情報のいずれかに基づいて単語選定の優先度を変えて音声による所見を文字データに変換する音声認識手段により所見情報を入力する所見情報入力手段と、
前記医用画像と、前記所見位置と、前記所見情報を関連付けてデータベースとして記憶する記憶手段とを備えることを特徴とする医用システム。
In a medical system that creates an interpretation report for medical images,
Display means for displaying medical images;
Position specifying means for specifying a finding position on the medical image;
Speech recognition that converts speech findings into character data by changing the priority of word selection based on any of body part information, position information on the medical image, or supplementary information attached to the medical image and finding information input means for inputting the observation information by means,
A medical system comprising: the medical image; the finding position; and storage means for storing the finding information in association with each other as a database.
前記所見情報が存在することを示すマークを、前記所見位置に基づいて前記表示手段に表示された前記医用画像上に表示するものであることを特徴とする請求項1記載の医用システム。The medical system according to claim 1, wherein a mark indicating that the finding information is present is displayed on the medical image displayed on the display unit based on the finding position. 医用画像の一覧から前記所見情報の付されている医用画像の一覧を抽出する抽出手段を備え、且つ、An extraction means for extracting a list of medical images to which the finding information is attached from a list of medical images; and
前記表示手段は、前記所見情報が付加されているものを含む医用画像の一覧と、前記所見情報が付加されているもののみを含む医用画像の一覧を同時又は切替えて表示可能に構成されたものであることを特徴とする請求項1記載の医用システム。The display means is configured to display a list of medical images including those to which the finding information is added and a list of medical images including only those to which the finding information is added, simultaneously or by switching. The medical system according to claim 1, wherein:
読影レポートを確定して保存する際に、前記所見情報が付加された医用画像を非可逆圧縮により圧縮して、前記データベースに保存する圧縮手段を備えることを特徴とする請求項1記載の医用システム。The medical system according to claim 1, further comprising: a compression unit that compresses the medical image to which the finding information is added by irreversible compression and stores the compressed medical image in the database when the interpretation report is determined and stored. . 選択された前記所見の文字情報に対して、指定された医用画像を特定するためのリンク情報を付加する貼り付け手段を更に備えることを特徴とする請求項1記載の医用システム。2. The medical system according to claim 1, further comprising pasting means for adding link information for specifying a specified medical image to the selected character information of the findings. 前記貼り付け手段は、前記選択された所見の文字情報に対して、指定された前記表示手段に表示された前記医用画像上の部位及び前記医用画像を特定するためのリンク情報を付加することを特徴とする請求項5記載の医用システム。The pasting means adds link information for specifying the part on the medical image displayed on the designated display means and the medical image to the character information of the selected finding. The medical system according to claim 5, characterized in that:
JP2003099845A 2003-04-03 2003-04-03 Medical system Expired - Fee Related JP4405172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003099845A JP4405172B2 (en) 2003-04-03 2003-04-03 Medical system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003099845A JP4405172B2 (en) 2003-04-03 2003-04-03 Medical system

Publications (2)

Publication Number Publication Date
JP2004305289A JP2004305289A (en) 2004-11-04
JP4405172B2 true JP4405172B2 (en) 2010-01-27

Family

ID=33464141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003099845A Expired - Fee Related JP4405172B2 (en) 2003-04-03 2003-04-03 Medical system

Country Status (1)

Country Link
JP (1) JP4405172B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529975B2 (en) 2012-02-27 2016-12-27 Toshiba Medical Systems Corporation Medical information processing system and medical information processing apparatus
WO2021096279A1 (en) * 2019-11-15 2021-05-20 이화여자대학교 산학협력단 Method for inputting data at location where lesion is found during endoscopy and computing device for performing method for inputting data
KR20210059638A (en) * 2019-11-15 2021-05-25 이화여자대학교 산학협력단 Data input method at location of detected lesion during endoscope examination, computing device for performing the data input method

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006141466A (en) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd Ultrasonic diagnostic apparatus
JP4802487B2 (en) * 2004-12-01 2011-10-26 株式会社湯山製作所 Medical support system
JP5242022B2 (en) * 2005-05-30 2013-07-24 株式会社東芝 Medical report creation device, medical report reference device, and program thereof
US7590440B2 (en) * 2005-11-14 2009-09-15 General Electric Company System and method for anatomy labeling on a PACS
US20070127793A1 (en) * 2005-11-23 2007-06-07 Beckett Bob L Real-time interactive data analysis management tool
EP2702940B1 (en) 2005-11-25 2023-08-09 Toshiba Medical Systems Corporation Image reference apparatus
JP4891597B2 (en) 2005-11-25 2012-03-07 東芝メディカルシステムズ株式会社 Medical diagnostic imaging system and radiology information system server
JP5283839B2 (en) * 2005-11-25 2013-09-04 東芝メディカルシステムズ株式会社 Medical diagnostic imaging system
US8188971B2 (en) * 2006-03-15 2012-05-29 Kabushiki Kaisha Toshiva Medical image interpreting apparatus and cursor-moving method
JP2008242984A (en) * 2007-03-28 2008-10-09 Konica Minolta Medical & Graphic Inc Medical information processor and program
JP5036368B2 (en) * 2007-03-29 2012-09-26 富士フイルム株式会社 Medical image display apparatus and method
JP5067793B2 (en) * 2007-08-15 2012-11-07 富士フイルム株式会社 Medical information processing system, medical information processing method, and program
US9561015B2 (en) * 2007-08-24 2017-02-07 General Electric Company Method and apparatus for voice recording with ultrasound imaging
JP2009082227A (en) 2007-09-27 2009-04-23 Fujifilm Corp Medical report system, and medical report making apparatus and method
JP5172262B2 (en) * 2007-09-27 2013-03-27 富士フイルム株式会社 Report creation support system and report creation support method
JP2009086765A (en) 2007-09-27 2009-04-23 Fujifilm Corp Medical report system, medical report creating device, and medical report creating method
JP5178119B2 (en) 2007-09-28 2013-04-10 キヤノン株式会社 Image processing apparatus and image processing method
JP5317558B2 (en) * 2008-07-07 2013-10-16 株式会社東芝 Medical information creation device
JP2010057902A (en) * 2008-08-06 2010-03-18 Toshiba Corp Report generation support apparatus, report generation support system, and medical image referring apparatus
JP2010115432A (en) * 2008-11-14 2010-05-27 Techmatrix Corp Medical report system
JP4995230B2 (en) * 2009-05-15 2012-08-08 テクマトリックス株式会社 Remote interpretation system
JP5491768B2 (en) * 2009-05-26 2014-05-14 株式会社東芝 Interpretation report creation device
CN102883660A (en) * 2010-09-20 2013-01-16 德克萨斯州大学系统董事会 Advanced multimedia structured reporting
JP5556674B2 (en) * 2011-01-12 2014-07-23 コニカミノルタ株式会社 Medical image display apparatus and program
JP6556426B2 (en) * 2014-02-27 2019-08-07 キヤノンメディカルシステムズ株式会社 Report creation device
JP5678229B1 (en) * 2014-10-09 2015-02-25 株式会社テクノプロジェクト Recording information management system, recording information management program, and recording information management method
JP5868536B1 (en) * 2015-03-24 2016-02-24 株式会社テクノプロジェクト Recording information management system, recording information management program, and recording information management method
JP6456539B1 (en) * 2018-03-30 2019-01-23 Psp株式会社 Report creation device, report creation device control method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529975B2 (en) 2012-02-27 2016-12-27 Toshiba Medical Systems Corporation Medical information processing system and medical information processing apparatus
WO2021096279A1 (en) * 2019-11-15 2021-05-20 이화여자대학교 산학협력단 Method for inputting data at location where lesion is found during endoscopy and computing device for performing method for inputting data
KR20210059638A (en) * 2019-11-15 2021-05-25 이화여자대학교 산학협력단 Data input method at location of detected lesion during endoscope examination, computing device for performing the data input method
KR102453580B1 (en) * 2019-11-15 2022-10-14 이화여자대학교 산학협력단 Data input method at location of detected lesion during endoscope examination, computing device for performing the data input method

Also Published As

Publication number Publication date
JP2004305289A (en) 2004-11-04

Similar Documents

Publication Publication Date Title
JP4405172B2 (en) Medical system
JP3083606B2 (en) Medical diagnosis support system
US7607079B2 (en) Multi-input reporting and editing tool
US8929627B2 (en) Examination information display device and method
US7835560B2 (en) Image reporting method and system
US7899684B2 (en) Medical report creating apparatus, medical report referencing apparatus, medical report creating method, and medical report creation program recording medium
JP5390805B2 (en) OUTPUT DEVICE AND METHOD, PROGRAM, AND RECORDING MEDIUM
US20130093781A1 (en) Examination information display device and method
EP2169524A2 (en) Apparatus, method and program for controlling drag and drop operation and computer terminal
JP5242022B2 (en) Medical report creation device, medical report reference device, and program thereof
JP2008506188A (en) Gesture-based reporting method and system
JP2013122778A (en) Medical report creation device, medical report reference device and program
JP2004267273A (en) Medical system
JP3345438B2 (en) Medical information system
JP5958321B2 (en) Medical information processing apparatus and program
JP4932204B2 (en) Medical support system, medical support device, and medical support program
JP4288526B2 (en) Report creation apparatus and report creation program
JP4227444B2 (en) MEDICAL INFORMATION DISPLAY DEVICE, MEDICAL INFORMATION DISPLAY METHOD, AND COMPUTER PROGRAM
JPH10261038A (en) Image display device
JP3284122B2 (en) Medical diagnosis support system
JP4549696B2 (en) Electronic medical record creation device and electronic medical record creation program
JP2011014007A (en) Report preparing device and link generation method in report preparing device
JP2019212178A (en) Image interpretation report generation device
JP5708483B2 (en) Interpretation report creation support device and program
JP5672183B2 (en) Information processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050427

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4405172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees