JP5832742B2 - 画像診断装置 - Google Patents

画像診断装置 Download PDF

Info

Publication number
JP5832742B2
JP5832742B2 JP2010272874A JP2010272874A JP5832742B2 JP 5832742 B2 JP5832742 B2 JP 5832742B2 JP 2010272874 A JP2010272874 A JP 2010272874A JP 2010272874 A JP2010272874 A JP 2010272874A JP 5832742 B2 JP5832742 B2 JP 5832742B2
Authority
JP
Japan
Prior art keywords
image data
image
voice
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010272874A
Other languages
English (en)
Other versions
JP2012120643A (ja
Inventor
加藤 徹
徹 加藤
元 吉田
元 吉田
小林 信夫
信夫 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2010272874A priority Critical patent/JP5832742B2/ja
Publication of JP2012120643A publication Critical patent/JP2012120643A/ja
Application granted granted Critical
Publication of JP5832742B2 publication Critical patent/JP5832742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、検査により得られた画像データを保存し、その画像データの検索を行うことができる画像診断装置に関する。
X線診断装置、超音波診断装置、内視鏡装置等の画像診断に用いられる画像診断装置では、検査中に生成された画像データを表示部に表示させて画像データを収集し、収集した画像データを記憶部に保存する。そして、検査中に複数回の収集により得られた画像データが記憶部に保存されている場合、収集毎に得られた画像データを縮小したサムネイルデータを表示部に一覧表示させて、診断や治療に必要な画像データを検索する。
特開2006−6915号公報
しかしながら、画像診断装置を用いた検査では、医師等の操作者は両手が塞がっていることが多く、自ら操作して記憶部に保存した画像データを直ぐに検索して表示することは難しい。このため、他者に頼ることが多く、収集した回数が多い場合や収集した画像データが複数フレームからなる動画像データである場合、短時間で検査に必要な画像データを検索することができない問題がある。
実施形態は、上記問題点を解決するためになされたもので、収集した画像データの検索に要する時間を短縮することができる画像診断装置を提供することを目的とする。
上記問題を解決するために、実施形態の画像診断装置は、被検体の画像を順次生成する画像生成部と、前記画像生成部にて前記画像が順次生成されているときの音声を収集する音声入力部と、前記画像が順次収集されているときに前記音声入力部により収集された第1の音声と、前記順次生成される画像のうち前記第1の音声を収集した時刻に対応する画像と、を時刻で関連付けて記憶する記憶部と、前記音声入力部により収集された第2の音声に基づいて検索を行う検索処理部と、前記検索の結果、前記第2の音声と一致又は類似する音声である前記第1の音声が前記記憶部に存在していた場合、前記第1の音声を収集した時刻に対応する画像又は該画像を縮小したサムネイル画像を表示する表示部とを備えたことを特徴とする。
実施形態に係るX線診断装置の構成を示すブロック図。 実施形態に係る画像再生時に収集される音声及び画像再生時の時刻の一例を示す図。 実施形態に係るX線診断装置の動作を示すフローチャート。 実施形態に係る検査中に収集される音声及び収集される画像データの一例を示す図。 実施形態に係る第2の表示部に第1及び第2のサムネイルデータ並びに第1の文字データが表示された画面の一例を示す図。 実施形態に係る第2の表示部に第1の画像データ、第1及び第2のサムネイルデータ並びに検索情報が表示された画面の一例を示す図。 実施形態に係る第2の表示部に画像一覧が表示された画面の一例を示す図。
以下、図面を参照して実施形態を説明する。なお、X線診断装置、超音波診断装置、及び内視鏡装置等の各画像診断装置に適用可能であるが、以下に説明する実施形態では、X線診断装置の例を説明する。
図1は、実施形態に係るX線診断装置の構成を示したブロック図である。このX線診断装置100は、検査を行うために被検体Pを撮影する撮影部10と、撮影部10の撮影に基づき画像データを生成する画像データ生成部20と、X線診断装置100を用いて被検体Pの検査を行う医師等の操作者が発する音声を収集する音声入力部30と、音声入力部30により収集された音声と画像データ生成部20で生成された画像データの内の収集された画像データとを関連付けて保存するデータ記憶部40とを備えている。
また、X線診断装置100は、操作者を識別する操作者情報、被検体Pを識別する被検体情報、及び被検体Pに照射するX線の照射条件等の検査情報の入力、画像データ生成部20で生成された画像データを収集するための入力等を行う操作入力部50と、音声入力部30により収集された音声に基づいてデータ記憶部40に保存された画像データの検索やその音声を認識してテキスト化を行う情報処理部60と、画像データ生成部20で生成された画像データや情報処理部60で検索された画像データ等を表示する表示部70と、撮影部10、画像データ生成部20、データ記憶部40、及び情報処理部60の各ユニットを統括して制御するシステム制御部80とを備えている。
撮影部10は、被検体Pに照射するX線を発生するX線管11と、このX線管11からの照射により被検体Pを透過したX線を検出して投影データを生成するX線検出器12と、X線管11及びX線検出器12を回動可能に支持するアーム13とを備えている。また、撮影の際に被検体Pが載置される天板14と、アーム13及び天板14を駆動する駆動部15と、X線を発生させるための高電圧をX線管11に供給する高電圧発生部16とを備えている。そして、撮影により生成した投影データを画像データ生成部20へ出力する。
画像データ生成部20は、撮影部10で被検体PへのX線照射によりX線検出器12で生成された投影データに基づいて画像データを生成し、生成した画像データを表示部70へ出力する。そして、操作入力部50から画像データを収集するための入力操作である収集操作が行われると、生成した画像データの内、収集操作に応じたタイミングの例えば1フレームからなる静止画再生が可能な画像データ(静止画像データ)や所定の時間間隔で連続する複数フレームからなる動画再生が可能な画像データ(動画像データ)と、この画像データが収集された各フレームの時刻(収集時刻)と、システム制御部80から供給されるその画像データに関連する検査情報とをデータ記憶部40に出力する。
音声入力部30は、この利用者である操作者毎に取り付けられる例えばピンマイクを有し、操作入力部50からの入力により音声収集が設定されていると、操作入力部50により検査開始の操作が行われてから検査終了の操作が行われるまでの検査中において、操作者が発する音声を収集する。そして、収集した音声をデータ記憶部40に出力する。
なお、操作入力部50から検査中の音声非収集が設定入力されていると、検査中に操作者が発する音声は、データ記憶部40に保存されない。また、検査中において、画像の再生開始の操作が行われてから再生終了の操作が行われるまでの画像再生時の音声を収集する。そして、収集した画像再生時の音声をデータ記憶部40に出力する。
また、音声入力部30は、検査中において、音声検索の開始操作が行われてから音声検索の終了操作が行われるまでの検索入力時に検査中の音声収集を中断し、データ記憶部40に保存された画像データを検索するために操作者が発する音声を検索入力する。そして、検索入力した音声を情報処理部60に出力する。
音声入力部30は、検査開始の操作が行われる前及び検査終了の操作が行われた後の待機中において、操作入力部50から音声検索の開始操作が行われると、音声検索の終了操作が行われるまでの間、データ記憶部40に保存された画像データを検索するために操作者が発する音声を検索入力する。そして、検索入力した音声を情報処理部60に出力する。
また、音声入力部30はバッファメモリを有し、図2に示すように、操作入力部50からの入力により収集開始時間ΔTp1及び収集終了時刻ΔTp2が設定されていると、待機中において、データ記憶部40に保存された画像データを再生させる画像再生開始の操作が行われたときの時刻Tp1よりも収集開始時間ΔTp1前の開始時刻Tp3から、画像再生終了の操作が行われたときの時刻Tp2より収集終了時間ΔTp2経過した終了時刻Tp4までの画像再生時の音声を収集する。そして、収集した画像再生時の音声をデータ記憶部40に出力する。
データ記憶部40は、音声入力部30により収集された音声と画像データ生成部20で生成される画像データの内の収集された画像データとを時刻で関連付けて保存する音声記憶部41及び画像データ記憶部42を備えている。また、操作入力部50により検索入力された検索語等を保存する検索語記憶部43を備えている。
音声記憶部41は、検査中の検索入力時以外のときに、音声入力部30により収集された音声を保存すると共に、その音声に関連付けて検査中の時刻を保存する。また、待機中において、画像再生時に収集された音声及び画像再生時の時刻を保存する。
画像データ記憶部42は、画像データ生成部20で生成された画像データの内の操作入力部50からの収集操作により収集された画像データ、この画像データが収集された時刻、及び収集された画像データに関連する検査情報を保存する。また、操作入力部50からの画像再生開始の操作により再生された画像データの再生時刻を保存する。
検索語記憶部43は、検査毎に操作入力部50により検索入力される検索語にその検査の識別情報として被検体情報及び操作者情報を関連付けて保存する。また、操作入力部50により検索入力された検索語の入力頻度の情報を、その検索語に関連付けて保存する。
なお、X線診断装置100が設置される医療機関内にX線診断装置100にネットワークを介して接続される検索記憶装置を設け、検索語記憶部43に保存する検索語及びこの検索語に関連する情報を検索語装置に保存するように実施してもよい。また、その医療機関内の他の検査部門で使用されるX線診断装置等の画像診断装置をネットワークを介して検索語装置と接続し、その画像診断装置に入力される検索語を検索語装置に保存するように実施してもよい。
操作入力部50は、キーボード、トラックボール、ジョイスティック、マウス、スイッチ等の入力デバイスを備え、検査情報の入力を行う。また、検査開始及び検査終了の操作、画像データの収集操作、画像データの再生を行う画像再生開始の操作等の操作による各種コマンドの入力を行う。また、検査中又は待機中に画像データの検索を行うために入力デバイスを操作する操作者の検索操作により、検索語の入力を行う。
情報処理部60は、データ記憶部40の画像データ記憶部42に保存された画像データを、音声入力部30により検索入力された音声及び操作入力部50から入力された検索語に基づいて検索する検索処理部61と、音声入力部30から検索入力された音声を認識してテキスト化する音声認識部62とを備えている。
検索処理部61は、操作入力部50からの音声検索の開始操作に応じて、音声入力部30により検索入力された音声と一致又は類似する音声が収集された時刻(音声収集時刻)を音声記憶部41から検索する。次いで、検索した音声収集時刻に一致する又は近い時刻に収集された画像データを画像データ記憶部42から検索し、検索した画像データに音声認識部62で検索入力された音声に基づいて得られる検索語を付加して画像データ記憶部42に保存する。また、操作入力部50からの検索語の入力操作に応じて、検索入力される検索語が付加された画像データを画像データ記憶部42から検索する。そして、画像データ記憶部42から検索した画像データが複数フレームである場合、その複数フレームの画像データを縮小してサムネイルデータを生成し、生成したサムネイルデータを表示部70に出力する。また、検索した画像データが1フレームである場合、その画像データを表示部70に出力する。
ここで、検索した音声収集時刻に一致する時刻に収集された静止画像データ、又は動画像データの内の1フレームの画像データを検索する。そして、検索した音声収集時刻に一致する時刻に収集された画像データが画像データ記憶部42に保存されていない場合、検索した音声収集時刻に最も近い時刻に収集された1フレームの画像データを検索する。
そして、検索した音声収集時刻に最も近い時刻に収集された画像データが動画像データであり、且つ、その動画像データが収集された時刻が検索した音声収集時刻よりも早い時刻である場合、その動画像データの内の最も遅い時刻に収集された1フレームの画像データを検索する。また、検索した音声収集時刻に最も近い時刻に収集された動画像データであり、且つ、その動画像データが収集された時刻が検索した音声収集時刻よりも遅い時刻である場合、その動画像データの内の最も早い時刻に収集された1フレームの画像データを検索する。
また、検索処理部61は、画像データ記憶部42に保存された画像データを再生させる画像再生開始の操作が操作入力部50から行われると、各フレームの画像データを画像データ記憶部42から読み出して表示部70に再生表示させる。また、再生表示した画像データに再生時刻を付加して画像データ記憶部42に保存する。
更に、検索処理部61は、検索語記憶部43から操作者情報及びこの操作者情報と関連する検索語を読み出して、操作者情報別にこの操作者情報と関連する検索語の一覧を表示部70に表示させる。また、検索語記憶部43から入力頻度の高い順に検索語を読み出して、入力頻度の高い順に検索語の一覧を表示部70に表示させる。また、検索語記憶部43から被検体情報及びこの被検体情報と関連する検索語を読み出して、被検体情報別に検索語の一覧を表示部70に表示させる。そして、操作入力部50から表示部70に一覧表示される検索語を選択する操作が行われると、選択された検索語が付加された画像データを画像データ記憶部42から検索して表示部70に表示させる。
音声認識部62は、音声入力部30により検索入力された音声を認識してテキスト化し、テキスト化した文字データを検索処理部61に出力する。なお、音声入力部30により検索入力された音声を発した操作者を特定し、特定した操作者が予め限定した操作者である場合に文字データとして判定するように実施してもよい。
表示部70は、液晶パネルやCRT等のモニタを備えた第1及び第2の表示部71,72により構成される。そして、第1の表示部71は、被検体Pの撮影により画像データ生成部20で生成された画像データをリアルタイムに表示する。また、操作入力部50から音声収集が設定入力されていると、検査中に例えば「録音中」等の実施の状態を示す情報を表示し、検査中の音声非収集が設定入力されていると、検査中に例えば「非録音」等の非実施の状態を示す情報を表示する。
第2の表示部72は、音声入力部30からの検索入力に応じて、情報処理部60の検索処理部61で検索された画像データ又はこの画像データのサムネイルデータを表示すると共に音声認識部62でテキスト化された文字データを表示する。また、操作入力部50からの画像再生表示の開始操作に応じて、検索処理部61によりデータ記憶部40の画像データ記憶部42から読み出された画像データを再生表示する。
システム制御部80は、CPU及び記憶回路等を備え、操作入力部50から入力された入力情報に基づいて、撮影部10、画像データ生成部20、データ記憶部40、及び情報処理部60の各ユニット及びシステム全体の制御を行う。また、音声入力部30により入力された音声に基づいて、データ記憶部40及び情報処理部60を制御する。
以下、図1乃至図7を参照して、X線診断装置100の動作の一例を説明する。
図3は、X線診断装置100の動作を示したフローチャートである。操作入力部50から被検体Pの検査を行うための検査情報が入力され、音声収集が設定入力された後、被検体Pの検査を行うために検査開始の操作が行われると、X線診断装置100は検査の動作を開始する(ステップS1)。
システム制御部80は、撮影部10、画像データ生成部20、データ記憶部40、及び情報処理部60を制御して、音声の収集及び撮影を開始させる。音声入力部30は、図4に示すように、検査中の検索入力時以外のときに操作者が発する音声を全て収集し、収集した音声をデータ記憶部40の音声記憶部41に出力する。音声記憶部41は、音声入力部30から出力された音声を保存すると共に、その音声に関連付けて検査中の時刻を保存する(ステップS2)。
撮影部10のX線管11は天板14上に載置された被検体PにX線を照射する。X線検出器12は、被検体Pを透過したX線管11からのX線を検出して投影データを生成し、生成した投影データを画像データ生成部20に出力する。画像データ生成部20は、X線検出器12から出力された投影データに基づき画像データを生成し、生成した画像データを表示部70の第1の表示部71に出力する。第1の表示部71は、画像データ生成部20から出力された画像データを表示する。
第1の表示部71に有用な画像データが表示されたとき、その画像データを観察する操作者により、図4に示すように、例えば病変部位名等の第1の音声を含む第1のコメントが発せられると、音声入力部30は第1のコメントを収集し、音声記憶部41は音声入力部30により収集された第1のコメントを保存する。また、有用な画像データを収集するために1回目の収集操作が操作入力部50から行われると、画像データ生成部20は生成した画像データを第1の表示部71に出力すると共に、その画像データ及びこの画像データの収集時刻をデータ記憶部40の画像データ記憶部42に出力する。画像データ記憶部42は画像データ生成部20から出力された例えば複数フレームの画像データから成る1回目の動画像データ及びこの動画像データの収集時刻を保存する(ステップS3)。
このように、第1の表示部71に有用な画像データが表示されたとき、操作者が発する第1のコメント及びこの音声収集時刻を音声記憶部41に保存すると共に、その有用な画像データである1回目の動画像データ及びこの動画像データの収集時刻を画像データ記憶部42に保存することができる。
1回目の収集操作が行われた後、また第1の表示部71に有用な画像データが表示されたとき、その画像データを観察する操作者により、図4に示すように、例えば第1及び第2の音声を含む第2のコメントが発せられると、音声入力部30は第2のコメントを収集し、音声記憶部41は音声入力部30により収集された第2のコメントを保存する。また、その操作者により、有用な画像データを収集する2回目の収集操作が操作入力部50から行われると、画像データ生成部20は生成した画像データを第1の表示部71に出力すると共に、その画像データ及びこの画像データの収集時刻を画像データ記憶部42に出力する。画像データ記憶部42は画像データ生成部20から出力された例えば複数フレームの画像データから成る2回目の動画像データ及び収集時刻を保存する。(ステップS4)。
このように、第1の表示部71に有用な画像データが表示されたとき、操作者が発する第2のコメント及びこの音声収集時刻を音声記憶部41に保存すると共に、その有用な画像データである2回目の動画像データ及びこの動画像データの収集時刻を画像データ記憶部42に保存することができる。
画像データ記憶部42に2回目の動画像データが保存された後、操作入力部50から例えば音声検索の開始操作が行われる。そして、収集した1回目及び2回目の動画像データの中から検査に必要な画像データを検索するため、例えば第1の音声を発すると、音声入力部30は第1の音声を検索入力し、検索入力した第1の音声を情報処理部60の検索処理部61及び音声認識部62に出力する。音声認識部62は、音声入力部30から出力された第1の音声を認識してテキスト化し、このテキスト化した第1の文字データを検索処理部61に出力する。
検索処理部61は、音声入力部30から出力された第1の音声と一致又は類似する音声の収集時刻を音声記憶部41から検索する。次いで、検索した音声収集時刻に一致する又は近い時刻に収集された画像データを画像データ記憶部42から検索する(ステップS5)。
ここでは、音声記憶部41に例えば第1の音声と一致する音声が2つ保存されているとする。また、その2つの音声の収集時刻の早い音声収集時刻に一致する時刻Tr1に収集された1フレームの画像データ(第1の画像データ)が1回目の動画像データに含まれ、遅い音声収集時刻に一致する時刻Tr2に収集された1フレームの画像データ(第2の画像データ)が2回目の動画像データに含まれているとする。
このように、操作者が第1及び第2のコメントに含まれる第1の音声を発することにより、第1の音声と一致又は類似する音声の収集時刻に一致する時刻に収集された第1及び第2の画像データを画像データ記憶部42から検索することができる。これにより、検査中に両手が塞がっていても、操作者が自ら検査に必要な画像データを検索することができる。
検索処理部61は、第1の音声に一致する音声の収集時刻を2つ検索し、検索した2つの音声収集時刻の早い音声収集時刻に一致する第1の画像データ及び遅い音声収集時刻に一致する第2の画像データを画像データ記憶部42から検索する。そして、第1の画像データを縮小して第1のサムネイルデータを生成し、また第2の画像データを縮小して第2のサムネイルデータを生成する。次いで、生成した第1及び第2のサムネイルデータ並びに音声認識部62から出力される第1の文字データを第2の表示部72に出力する。第2の表示部72は、検索処理部61から出力された第1及び第2のサムネイルデータ並びに第1の文字データを表示する(ステップS6)。
図5は、第2の表示部72に第1及び第2のサムネイルデータ並びに第1の文字データが表示された画面の一例を示した図である。この画面73は、サムネイルデータ又は画像データが表示される第1の表示エリア731、サムネイルデータが表示される第2の表示エリア732、及び音声認識部62でテキスト化された文字データ等の検索情報が表示される第3の表示エリ733により構成される。
そして、第1の表示エリア731には、検索処理部61から出力された第1及び第2のサムネイルデータ74,75が表示されている。また、第2の表示エリア732は、空白になっている。更に、第3の表示エリア733には、検索処理部61から出力された第1の文字データである例えば「ABCD」が表示されている。
このように、第1の音声を発することにより、画像データ記憶部42から検索した第1及び第2の画像データの第1及び第2のサムネイルデータ74,75と共に、第1の音声を認識してテキスト化した第1の文字データを第2の表示部72に表示することができる。
ここで、画面73の第3の表示エリア733に表示された第1の文字データが第1の音声と一致する場合、第1の文字データを登録する登録操作が操作入力部50から行われると、検索処理部61は、音声認識部62から出力された第1の文字データを第1の検索語として、検索した第1及び第2の画像データに付加して画像データ記憶部42に保存する。また、第1の検索語を検索語記憶部43に出力する。検索語記憶部43は、検索処理部61から出力された第1の検索語を保存する。
なお、画面73の第3の表示エリア733に表示された第1の文字データが第1の音声と一致しない場合、操作入力部50から第1の文字データを第1の音声と一致する第1の検索語に変換する操作を行った後に、登録操作を行うことにより、検索処理部61は、検索した第1及び第2の画像データに第1の検索語を付加して画像データ記憶部42に保存し、検索語記憶部43は、第1の検索語を保存する。
登録操作が行われた後、画面73の第1の表示エリア731に表示された例えば第1のサムネイルデータ74を選択して拡大させる拡大表示操作が操作入力部50から行われると、検索処理部61は、選択された第1のサムネイルデータ74の縮小前の第1の画像データ並びに第1及び第2のサムネイルデータ74,75と、第1の検索語、検査中に収集された1回目及び2回目の動画像データを時系列的に検索し、検索したフレームの総数を示す情報、及び検索したフレームの総数の内の第1の画像データを検索した順番を示す情報から成る検索情報とを第2の表示部72に出力する。第2の表示部72は、第1の画像データ、第1及び第2のサムネイルデータ74,75、並びに検索情報を表示する(図3のステップS7)。
図6は、第2の表示部72に第1の画像データ、第1及び第2のサムネイルデータ74,75並びに検索情報が表示された画面の一例を示した図である。この画面73aの第1の表示エリア731には、第1の画像データ74aが表示されている。また、第2の表示エリア732には、第1及び第2のサムネイルデータ74,75が表示されている。更に、第3の表示エリア733には、第1の検索語である「ABCD」、第1の画像データ74aが検索された順番である「2」、及び検索されたフレームの総数である「52」の検索情報が表示されている。
このように、第1及び第2のサムネイルデータ74,75及び検索情報を表示すると共に、第1の画像データ74aを第2の表示部72に表示することができる。
なお、操作入力部50から予め最も早い時刻に収集された動画像を設定しておくことにより、図3のステップS5において、画像データを検索するために音声入力部30により検索入力された第1の音声に基づいて、音声記憶部41から検索した音声収集時刻に一致する時刻に収集された画像データの内の最も早い時刻に収集された第1の画像データ74aを含む画面73aを第2の表示部72に表示することができる。
操作入力部50から音声検索の終了操作が行われた後、画面73aの第2の表示エリア732に表示された第1のサムネイルデータ74を選択して動画再生の開始操作が行われると、検索処理部61は、1回目の動画像データにおける各フレームの画像データを画像データ記憶部42から読み出して時系列順に出力することにより、第2の表示部72に第1及び第2のサムネイルデータ74,75及び第1の検索語を表示すると共に1回目の動画像データを再生表示する。また、読み出した各フレームの画像データに再生時刻を付加して画像データ記憶部42に保存する。
ここで、例えば第1の画像データ74aよりも有用な画像データが第2の表示部72に表示されたとき、操作入力部50から画像再生停止操作を行い、引き続き第1の検索語の関連付けを変更する操作が行われると、検索処理部61は、第1の検索語を第1の画像データ74aから消去し、第1の画像データ74aよりも有用な画像データに付加して画像データ記憶部42に保存する。
このように、第1の画像データ74aよりもより有用な画像データが第2の表示部72に再生表示されたとき、第1の画像データ74aと第1の検索語の関連付けを止め、その有用な画像データに第1の検索語を付加して画像データ記憶部42に保存するができる。
なお、操作入力部50から動画逆再生の操作が行われると、1回目の動画像データにおける各フレームの画像データを時系列とは逆の順に出力することにより、第2の表示部72に動画像データを逆再生表示する。また、操作入力部50から静止画再生操作が行われた後、コマ送り再生操作が行われると、1回目の動画像データにおける各フレームの画像データをコマ送り操作毎に時系列順に出力することにより、第2の表示部72に各フレームの静止画像データを時系列順に再生表示する。また、検査中に操作入力部50からの画像再生開始及び終了の操作が行われると、操作者が発する画像再生時の音声及び画像再生時の時刻を音声記憶部41に保存すると共に、再生した各フレームの画像データの再生時刻を画像データ記憶部42に保存することができる。そして、画像再生の終了操作後に音声入力部30により音声が検索入力されることにより、その音声と一致又は類似する音声の収集時刻に一致する又は近い時刻に収集された画像データ及び再生された画像データを画像データ記憶部42から検索することができる。これにより、検査中に両手が塞がっていても、操作者が自ら検査に必要な画像データを検索することができる。
第2の表示部72に表示された1回目の動画像データの動画再生が終了した後、操作入力部50から例えば音声検索の開始操作が行われる。そして、収集した1回目及び2回目の動画像データの中から検査に必要な画像データを検索するため、収集操作を行ったときの第2の音声を発すると、音声入力部30は、その第2の音声を検索入力し、検索入力した第2の音声を検索処理部61及び音声認識部62に出力する。音声認識部62は、音声入力部30から出力された第2の音声をテキスト化した第2の文字データを検索処理部61に出力する。検索処理部61は、音声入力部30から出力された第2の音声と一致又は類似する音声の収集時刻を音声記憶部41から検索し、検索した音声収集時刻に一致する又は近い時刻に収集された画像データを画像データ記憶部42から検索する(図3のステップS8)。
このように、操作者が第2の音声を発することにより、第2の音声と一致又は類似する音声の収集時刻に一致する又は近い時刻に収集された画像データを画像データ記憶部42から検索することができる。これにより、検査中に両手が塞がっている場合でも、操作者が自ら検査に必要な画像データを検索することができる。
ここでは、音声記憶部41から検索した音声収集時刻が例えば1つであり、その音声収集時刻に一致する時刻Tr3に収集された1フレームの画像データ(第3の画像データ)が2回目の動画像データに含まれているとする。この場合、検索処理部61は、第3の画像データ及び音声認識部62から出力された第2の文字データを第2の表示部72に出力する。第2の表示部72は、検索処理部61から出力された第3の画像データ及び第2の文字データを表示する(図3のステップS9)。
ここで、第1の文字データを第1の検索語として登録する場合と同様にして、第2の音声と一致する場合の第2の表示部72に表示された第2の文字データを第2の検索語として登録する登録操作が操作入力部50から行われると、検索処理部61は、検索した第3の画像データに第2の検索語を付加して画像データ記憶部42に保存する。また、第2の検索語を検索語記憶部43に出力する。検索語記憶部43は、検索処理部61から出力された第2の検索語を保存する。
操作入力部50から音声検索の終了操作が行われた後、被検体Pの検査中に収集した全ての画像データを表示させる画像一覧表示の操作が行われると、検索処理部61は、検査中に収集された1回目及び2回目の動画像データにおけるフレーム毎の収集時刻、この時刻に収集された画像データ、収集された画像データに付加された第1及び第2の検索語を画像データ記憶部42から読み出して、フレーム毎にサムネイルデータを生成する。そして、収集時刻、この時刻に収集された画像データのサムネイルデータ、第1及び第2の検索語、及び第1及び第2の検索語を付加している画像データを示すマーカにより構成される画像一覧を作成し、作成した画像一覧を第2の表示部72に出力する。第2の表示部72は、検索処理部61から出力された画像一覧を表示する(図3のステップS10)。
図7は、第2の表示部72に画像一覧が表示された画面の一例を示した図である。この画面73bは、検査中に収集されたフレーム毎の画像データの収集時刻が表示される「時刻」の欄と、「時刻」の欄に表示された収集時刻に収集された画像データのサムネイルデータが表示される「画像」の欄と、収集された各画像に付加される検索語が表示される「検索語」の欄とにより構成される。
「時刻」の欄には、第1の画像データ74aの収集時刻である「Tr1」、第2の画像データの収集時刻である「Tr2」、第3の画像データの収集時刻である「Tr3」等を含む被検体Pの検査中に収集された1回目及び2回目の動画像データにおける各フレームの画像データの収集時刻が時系列に表示されている。
「画像」の欄には、「時刻」の欄に表示された各収集時刻の下にこの時刻に収集された画像データのサムネイルデータが表示されている。そして、「時刻」の欄に表示された「Tr1」の下にこの時刻に収集された第1の画像データ74aの第1のサムネイルデータ74が表示され、「Tr2」の下にこの時刻に収集された第2の画像データの第2のサムネイルデータ75が表示されている。また、「Tr3」の下にこの時刻に収集された第3の画像データの第3のサムネイルデータ76が表示されている。
「検索語」の欄は、第1の検索語である「ABCD」の欄及び第2の検索語である「EFG」の欄により構成される。そして、「ABCD」の欄には、第1の検索語が付加された第1の画像データ74aの第1のサムネイルデータ74及び第2の画像データの第2のサムネイルデータ75の下にマーカである「○」が表示されている。また、「EFG」の欄には、第2の検索語が付加された第3の画像データの第3のサムネイルデータ76の下に「○」が表示されている。
ここで、第2の表示部72の画面73bに表示されたマーカを選択して動画再生操作が行われると、検索処理部61は、そのマーカに対応する検索語が付加された1フレームの画像データを先頭にして各フレームの画像データを時系列順に出力することにより、第2の表示部72にその動画像データを再生表示する。
検査に有用な画像データの収集及び検査に必要な画像データの検索を終え、操作入力部50から検査終了の操作が行われると、システム制御部80が、撮影部10、画像データ生成部20、データ記憶部40、及び情報処理部60を停止させることにより、X線診断装置100は、検査の動作を終了する(図3のステップS11)。
検査終了後の待機中において、操作入力部50から画像再生開始の操作が行われると、音声入力部30は、図2に示すように、画像再生時の音声を収集し、収集した画像再生時の音声を音声記憶部41に出力する。音声記憶部41は、音声入力部30から出力された画像再生時の音声及び画像再生時の時刻を保存する。
このように、待機中の操作入力部50からの画像再生開始の操作に応じて、操作者が発する画像再生時の音声及びこの音声の収集時刻を音声記憶部41に保存すると共に、再生した各フレームの画像データの再生時刻を画像データ記憶部42に保存することができる。そして、画像再生終了操作の後に、音声入力部30により音声が検索入力されることにより、その音声と一致又は類似する音声の収集時刻に一致する又は近い時刻に収集された画像データ及び再生された画像データを画像データ記憶部42から検索することができる。
また、検査終了後の待機中において、画像データの検索を行うために操作入力部50から検索操作が行われると、検索処理部61は、操作入力部50により検索入力された例えば第1の検索語が付加された画像データを画像データ記憶部42から検索する。そして、検索した第1の画像データ74a及び第2の画像データを縮小して第1及び第2のサムネイルデータ74,75を生成し、生成した第1及び第2のサムネイルデータ74,75を表示部70に出力する。表示部70は、図5に示した画面73を表示する。なお、図3に示したステップS6の後の検査中に、操作入力部50から第1の検索語を入力する検索操作が行われた場合でも、検索処理部61は、待機中と同様に検索して、表示部70に画面73を表示する。
以上述べた実施形態によれば、検査中の検索入力時以外のときに操作者が発する音声を収集し、音声記憶部41に収集した音声を保存すると共にその音声に関連付けて検査中の時刻を保存することができる。そして、検査中において、第1の表示部71に有用な画像データが表示されたとき、操作者が発する第1及び第2のコメントを音声記憶部41に保存すると共に、その有用な画像データである1回目及び2回目の動画像データ及びこの動画像データの収集時刻を画像データ記憶部42に保存することができる。
検査中における第1及び第2のコメントを含む音声が保存された後の検索入力時において、操作者が第1及び第2のコメントに含まれる第1の音声を発することにより、音声入力部30により検索入力された第1の音声と一致又は類似する音声の収集時刻に一致する又は近い時刻に収集された第1及び第2の画像データを画像データ記憶部42から検索し、検索した第1及び第2の画像データの第1及び第2のサムネイルデータ74,75並びに第1の検索語を第2の表示部72に表示することができる。また、第1及び第2のサムネイルデータ74,75並びに第1の検索語と共に、第1の画像データ74aを第2の表示部72に表示することができる。また、第2のコメントに含まれる第2の音声を発することにより、音声入力部30により検索入力された第2の音声と一致又は類似する音声の収集時刻に一致する又は近い時刻に収集された第3の画像データを画像データ記憶部42から検索し、検索した第3の画像データ及び第2の検索語を第2の表示部72に表示することができる。これにより、検査中に操作者の両手が塞がっていても、操作者が自ら検査に必要な画像データを検索することができる。
また、第1の音声に一致する第1の検索語を第1及び第2の画像データに付加して画像データ記憶部42に保存し、操作入力部50から第1の検索語を検索入力することにより、第1及び第2のサムネイルデータ74,75を第2の表示部72に表示することができる。
また、待機中の画像再生時において、操作者が発する画像再生時の音声及び画像再生時の時刻を音声記憶部41に保存すると共に、再生した各フレームの画像データの再生時刻を画像データ記憶部42に保存することができる。そして、画像再生終了操作の後に、音声入力部30により音声が検索入力されることにより、その音声と一致又は類似する音声の収集時刻に一致する又は近い時刻に収集された画像データ及び再生された画像データを画像データ記憶部42から検索することができる。
また、待機中の検索入力時において、操作入力部50により検索入力された検索語が付加された画像データを画像データ記憶部42から検索し、検索した画像データ又はこの画像データのサムネイルデータを表示部70に出力することができる。
以上により、画像データの検索に要する時間の短縮を図ることができる。
なお、上記実施形態に限定されるものではなく、検査中の検索入力時以外のときに音声入力部30により収集された音声を音声認識部62で認識してテキスト化し、テキスト化した文字データを収集された音声に関連付けて音声記憶部41に保存する。そして、操作入力部50により検索入力された検索語に一致又は類似する文字データに関連する音声の収集時刻に一致する又は近い時刻に収集された画像データを画像データ記憶部42から検索し、検索した画像データ又はこの画像データのサムネイルデータを第2の表示部72に表示するように実施してもよい。これにより、画像データの検索に要する時間の短縮を図ることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
P 被検体
10 撮影部
20 画像データ生成部
30 音声入力部
40 データ記憶部
41 音声記憶部
42 画像データ記憶部
43 検索語記憶部
50 操作入力部
60 情報処理部
61 検索処理部
62 音声認識部
70 表示部
71 第1の表示部
72 第2の表示部
80 システム制御部
100 X線診断装置

Claims (9)

  1. 被検体の画像を順次生成する画像生成部と、
    前記画像生成部にて前記画像が順次生成されているときの音声を収集する音声入力部と、
    前記画像が順次収集されているときに前記音声入力部により収集された第1の音声と、前記順次生成される画像のうち前記第1の音声を収集した時刻に対応する画像と、を時刻で関連付けて記憶する記憶部と、
    前記音声入力部により収集された第2の音声に基づいて検索を行う検索処理部と、
    前記検索の結果、前記第2の音声と一致又は類似する音声である前記第1の音声が前記記憶部に存在していた場合、前記第1の音声を収集した時刻に対応する画像又は該画像を縮小したサムネイル画像を表示する表示部と、
    を有することを特徴とする画像診断装置。
  2. 前記音声入力部により入力された前記第2の音声を認識してテキスト化する音声認識部を更に有し、
    前記表示部は、前記検索処理部により検索された画像又は前記サムネイル画像と共に、前記音声認識部によりテキスト化された文字データを表示することを特徴とする請求項1に記載の画像診断装置。
  3. 前記表示部は、前記第1の音声を収集した時刻に対応する画像がない場合、該時刻に最も近い時刻に収集された1フレームの画像を表示することを特徴とする請求項1又は2記載の画像診断装置。
  4. 前記表示部は、前記第1の音声を収集した時刻に対応する動画像がある場合、前記動画像の内の1フレームの画像を表示することを特徴とする請求項1乃至3いずれか一項に記載の画像診断装置。
  5. 前記表示部は、前記記憶部に記憶された前記第1の音声に基づきテキスト化された検索語を表示することを特徴とする請求項1乃至4いずれか一項に記載の画像診断装置。
  6. 音声収集/音声非収集を設定入力するための操作入力部を更に有することを特徴とする請求項1乃至5いずれか一項に記載の画像診断装置。
  7. 前記被検体にX線を照射するX線発生部と、
    前記X線を検出するX線検出部と、を更に有し、
    前記画像生成部は、前記画像であるX線画像を順次生成し、
    前記音声入力部は、前記X線画像が順次生成されている間に操作者の音声を収集することを特徴とする請求項1乃至6いずれか一項に記載の画像診断装置。
  8. 前記画像は超音波画像であることを特徴とする請求項1乃至6いずれか一項に記載の画像診断装置。
  9. 前記画像は内視鏡画像であることを特徴とする請求項1乃至6いずれか一項に記載の画像診断装置。
JP2010272874A 2010-12-07 2010-12-07 画像診断装置 Active JP5832742B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010272874A JP5832742B2 (ja) 2010-12-07 2010-12-07 画像診断装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010272874A JP5832742B2 (ja) 2010-12-07 2010-12-07 画像診断装置

Publications (2)

Publication Number Publication Date
JP2012120643A JP2012120643A (ja) 2012-06-28
JP5832742B2 true JP5832742B2 (ja) 2015-12-16

Family

ID=46502771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010272874A Active JP5832742B2 (ja) 2010-12-07 2010-12-07 画像診断装置

Country Status (1)

Country Link
JP (1) JP5832742B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251005A (ja) * 1993-02-24 1994-09-09 Toshiba Corp レポート情報入出力システム
JPH10234696A (ja) * 1997-02-27 1998-09-08 Shimadzu Corp 医用画像表示装置
JP2002092176A (ja) * 2000-09-11 2002-03-29 Sharp Corp 生活ネットワークシステム
JP2003008806A (ja) * 2001-06-20 2003-01-10 Toshiba Medical System Co Ltd 診断支援システム
JP4475625B2 (ja) * 2003-05-27 2010-06-09 キヤノン株式会社 画像処理装置及び画像処理方法
JP4719408B2 (ja) * 2003-07-09 2011-07-06 富士通株式会社 医療情報システム
JP2007275237A (ja) * 2006-04-05 2007-10-25 Konica Minolta Medical & Graphic Inc 診断支援システム
JP5591455B2 (ja) * 2008-06-09 2014-09-17 株式会社東芝 医用画像処理装置

Also Published As

Publication number Publication date
JP2012120643A (ja) 2012-06-28

Similar Documents

Publication Publication Date Title
JP5305616B2 (ja) 検査データ処理装置及び検査システム
JP4071710B2 (ja) 電子的レポート作成支援装置、方法及びプログラム
JP4869978B2 (ja) 画像記録装置、画像記録方法、および画像記録プログラム
JP5044237B2 (ja) 画像記録装置、画像記録方法、および画像記録プログラム
TWI788620B (zh) 通過語音記錄及處理一組織之影像資訊的方法及系統
CN110366758A (zh) 医疗信息管理设备、医疗信息管理方法和医疗信息管理系统
JP4690683B2 (ja) 超音波診断装置及び医用画像閲覧方法
JP2007252763A (ja) 医用動画像による画像診断システム
WO2000008585A2 (en) Surgical recording and reporting system
JP4900551B2 (ja) 標準的治療プログラムに同期した医療情報処理装置
JP2005027978A (ja) 医療情報システム
Powell et al. Comparison of videostroboscopy to stroboscopy derived from high-speed videoendoscopy for evaluating patients with vocal fold mass lesions
JP5615113B2 (ja) 読影レポート入力端末
JP2007233850A (ja) 医療処置評価支援装置、医療処置評価支援システム、及び医療処置評価支援プログラム
JP2007293600A (ja) 医療用サーバ装置、入力装置、校正装置、閲覧装置、音声入力レポートシステムおよびプログラム
JP2010253017A (ja) 画像表示装置及び画像表示方法
JP5832742B2 (ja) 画像診断装置
JP2016509885A (ja) 声帯粘膜運動状態を分析するための平面スキャンビデオキモグラフィーシステム及びこれを利用した声帯粘膜運動状態の分析方法
JP2003070748A (ja) 医療情報処理システム
JP2018047067A (ja) 画像処理プログラム、画像処理方法および画像処理装置
JP5571127B2 (ja) 検査データ処理装置
JP2000342563A (ja) 音声選択装置
JP2006302057A (ja) 医療音声情報処理装置、及び医療音声情報処理プログラム
JP5462614B2 (ja) 医用画像診断装置及び医用画像システム
KR19980033700A (ko) 의료용 디지털 영상처리 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141111

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150717

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151028

R150 Certificate of patent or registration of utility model

Ref document number: 5832742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350