JP2006221583A - 医療支援システム - Google Patents

医療支援システム Download PDF

Info

Publication number
JP2006221583A
JP2006221583A JP2005036966A JP2005036966A JP2006221583A JP 2006221583 A JP2006221583 A JP 2006221583A JP 2005036966 A JP2005036966 A JP 2005036966A JP 2005036966 A JP2005036966 A JP 2005036966A JP 2006221583 A JP2006221583 A JP 2006221583A
Authority
JP
Japan
Prior art keywords
information
voice
output
voice input
medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005036966A
Other languages
English (en)
Inventor
Takechiyo Nakamitsu
竹千代 中満
Masahide Yamaki
正英 八巻
Kiyoshi Sekiguchi
潔志 関口
Masaru Ito
賢 伊藤
Hiroyuki Ushifusa
浩行 牛房
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005036966A priority Critical patent/JP2006221583A/ja
Publication of JP2006221583A publication Critical patent/JP2006221583A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)

Abstract

【課題】 本発明では、容易に音声認識によるディクテーションにより入力されたテキストデータを電子カルテに容易に登録することができることができる医療支援システムを提供する。
【解決手段】 医療に関する情報を所定の媒体に出力する医療支援システムにおいて、音声が入力される音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、生体内の部位に関する情報である部位情報と前記媒体上の所定の位置を示す位置情報とが格納された部位出力位置情報格納手段と、前記音声文字化手段により文字化された音声入力文字情報に、前記部位情報が含まれているかを判定する判定手段と、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力する出力手段と、を備える医療支援システムを用いることにより、上記課題の解決を図る。
【選択図】 図1

Description

本発明は、医療機器に使用される電子機器を音声により制御可能な医療支援システムに関する。
近年では内視鏡を用いた外科手術が行われている。この内視鏡外科手術では、腹腔内を膨張させるために用いる気腹装置や手技を行うための処置装置等を用いて、ある生体組織の切除をしたり、または高周波焼灼装置を用いて止血をしたりする場合、内視鏡で観察しながらこれらの処置を行うことができる。
また、これら複数の各種機器を備えた内視鏡手術システムにおいて、複数の装置を容易に操作、制御することができ、またシステムの操作力性を向上させるため、例えば、表示パネル、遠隔操作装置、集中操作パネル、マイク等の機器を備えている(例えば、特許文献1、特許文献2、特許文献3。)。
表示パネルは、術者が滅菌域で各種機器の設定状態を確認するための表示手段であって、例えば液晶パネルなどである。遠隔操作装置は、術者が滅菌域で操作し各種機器の機能または設定値を変更するための遠隔操作手段であって、例えばリモコン(リモートコントローラ)である。集中操作パネルは、術者の指示に従って看護師等の補助者が非滅菌域で操作し各種機器の機能または設定値を変更するための各機器の操作スイッチをタッチパネルに設けた集ものである。マイクは、音声で各種機器を操作するために用いられる。
上記の通り、最近では、音声認識によりユーザの発音を認識し、接続機器の操作を行う機能(音声コマンド制御機能)や、術中・検査中に術者が発音した所見内容を音声認識しテキストデータに変換し電子カルテ等の作成に役立てるディクテーション(Dictation)機能を備える内視鏡システムが存在する。
特開2002−336184号公報 特開2001−344346号公報 特開2003−271176号公報
従来の内視鏡システムにおいて、患者のカルテへの検査結果の記載は、医師または看護師がペン、キーボード等を使用して手入力で行っており、音声認識によるディクテーションにより入力されたテキストデータを、患者の電子カルテに反映させていなかった。
また、検査部位の検査が完了したかどうかの判別は、音声認識によるディクテーションとは関連付けられていなかった。そのため、検査完了を確認する場合は、内視鏡の観察用モニターから視線を外さなければならなかった。
また、従来の内視鏡システムにおいて、音声認識を活用したディクテーションをおこなったテキストデータを、内視鏡画像上に重畳する技術はあったが、その重畳されたテキストデータの表示/非表示を制御する機能はなかった。
上記の課題に鑑み、本発明では、容易に音声認識によるディクテーションにより入力されたテキストデータを電子カルテに容易に登録することができることができる医療支援システムを提供する。また、ディクテーションにより入力された検査等の進行状況を表示パネルに表示させることができる医療支援システムを提供する。また、ディクテーションにより入力されたテキストデータの表示態様を制御することができる医療支援システムを提供する。
上記課題は、特許請求の範囲の請求項1に記載の発明によれば、医療に関する情報を所定の媒体に出力する医療支援システムにおいて、音声が入力される音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、生体内の部位に関する情報である部位情報と前記媒体上の所定の位置を示す位置情報とが格納された部位出力位置情報格納手段と、前記音声文字化手段により文字化された音声入力文字情報に、前記部位情報が含まれているかを判定する判定手段と、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力する出力手段と、を備えることを特徴とする医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項2に記載の発明によれば、前記媒体は、電子カルテファイルであるか、または情報を表示する表示手段を有しているものであることを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項3に記載の発明によれば、前記所定の文字情報は、前記音声入力文字情報であることを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項4に記載の発明によれば、前記部位出力位置情報格納手段は、さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報とを格納し、前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位状態情報とが含まれているかを判定し、前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記文字簡略化情報を出力することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項5に記載の発明によれば、前記部位出力位置情報格納手段は、さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報とを格納し、前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位状態情報とが含まれているかを判定し、前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記音声入力文字情報を出力することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項6に記載の発明によれば、前記部位出力位置情報格納手段は、さらに、前記部位に対する作用に関する情報である部位作用情報と、該作用の結果に関する情報である作用結果情報と、前記媒体に出力させる該作用結果情報に相当する出力用作用結果情報を格納し、前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位作用情報と前記作用結果情報とが含まれているかを判定し、前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記出力用作用結果情報を出力することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項7に記載の発明によれば、前記出力手段は、前記出力用作用結果情報を前記位置情報の示す前記媒体上の位置に出力する場合、該出力用作用結果情報の表示態様を変化させて出力することを特徴とする請求項6に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項8に記載の発明によれば、医療に関する情報を所定の媒体に出力する医療支援システムにおいて、音声が入力される音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、前記音声文字化手段により文字化された文字情報である音声入力文字情報を出力する出力手段と、前記音声入力手段により入力された前記音声による前記出力される前記音声入力文字情報の表示態様に関する指示情報を認識する音声指示認識手段と、音声指示認識手段により認識された前記指示情報に基づいて、前記出力される前記音声入力文字情報の表示態様を制御する表示態様制御手段と、を備えることを特徴とする医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項9に記載の発明によれば、医療に関する情報を所定の媒体に出力する医療支援方法において、音声を入力し、前記入力された前記音声を認識して、該音声を文字化し、生体内の部位に関する情報である部位情報と前記媒体上の所定の位置を示す位置情報とを記憶装置に格納し、前記音声が文字化された音声入力文字情報に、前記部位情報が含まれているかを判定し、前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力することを特徴とする医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項10に記載の発明によれば、前記所定の文字情報は、前記音声入力文字情報であることを特徴とする請求項9に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項11に記載の発明によれば、さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報を前記記憶装置に格納し、前記音声入力文字情報に前記部位情報と前記部位状態情報とが含まれているかを判定し、前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記文字簡略化情報を出力することを特徴とする請求項9に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項12に記載の発明によれば、さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報とを前記記憶装置に格納し、前記音声入力文字情報に前記部位情報と前記部位状態情報が含まれているかを判定し、前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記音声入力文字情報を出力することを特徴とする請求項9に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項13に記載の発明によれば、さらに、前記部位に対する作用に関する情報である部位作用情報と、該作用の結果に関する情報である作用結果情報と、前記媒体に出力させる該作用結果情報に相当する出力用作用結果情報とを前記記憶装置に格納し、前記音声入力文字情報に前記部位情報と前記部位作用情報と前記作用結果情報とが含まれているかを判定し、前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記出力用作用結果情報を出力することを特徴とする請求項9に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項14に記載の発明によれば、前記出力用作用結果情報を前記位置情報の示す前記媒体上の位置に出力する場合、該出力用作用結果情報の表示態様を変化させて出力することを特徴とする請求項13に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項15に記載の発明によれば、医療に関する情報を所定の媒体に出力する医療支援方法において、音声を入力し、前記入力された前記音声を認識して、該音声を文字化し、前記文字化された音声入力文字情報を出力する出力手段と、前記入力された前記音声による前記出力される前記音声入力文字情報の表示態様に関する指示情報を認識し、前記指示情報に基づいて、前記出力される前記音声入力文字情報の表示態様を制御することを特徴とする医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項16に記載の発明によれば、医療に関する情報を所定の媒体に出力する医療支援システムを構成する医療機器間の通信を制御するシステムコントローラにおいて、音声が入力される音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、生体内の部位に関する情報である部位情報と前記媒体上の所定の位置を示す位置情報とが格納された部位出力位置情報格納手段と、前記音声文字化手段により文字化された音声入力文字情報に、前記部位情報が含まれているかを判定する判定手段と、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力する出力手段と、を備えることを特徴とするシステムコントローラを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項17に記載の発明によれば、医療に関する情報を所定の媒体に出力する医療支援システムを構成する医療機器間の通信を制御するシステムコントローラにおいて、音声が入力される音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、前記音声文字化手段により文字化された文字情報である音声入力文字情報を出力する出力手段と、前記音声入力手段により入力された前記音声による前記出力される前記音声入力文字情報の表示態様に関する指示情報を認識する音声指示認識手段と、音声指示認識手段により認識された前記指示情報に基づいて、前記出力される前記音声入力文字情報の表示態様を制御する表示態様制御手段と、を備えることを特徴とするシステムコントローラを提供することによって達成できる。
本発明を用いることにより、検査中または検査後に患者カルテを記載する手間を省くことができる。
また、容易に検査完了の有無を確認することができる。また、検査完了の有無を確認する際に、観察モニタから目を離さずに確認することができるので、検査・手術を効率よく行うことができる。
また、内視鏡手術等の進行状況に応じて、表示パネルに表示されるディクテーションテキストデータの表示態様を、音声コマンドで制御することができるので、効率よく観察を行うことができる。
本発明にかかる医療に関する情報を所定の媒体に出力する医療支援システムは、音声入力手段と、音声文字化手段と、部位出力位置情報格納手段と、判定手段と、出力手段とを備えている。
所定の媒体は、例えば、電子カルテファイルまたは表示装置など情報を表示する表示手段等である。音声入力手段とは、音声が入力されるものであり、例えば、マイクまたはシステムコントローラ側についているマイクとのインターフェース等である。音声文字化手段とは、前記音声入力手段により入力された前記音声を認識して、該音声を文字化するものであり、例えば、音声認識回路である。
第1の実施形態にかかる本発明は、次のものである。部位出力位置情報格納手段には、生体内の部位に関する情報である部位情報(図4、図7、図10で言えば「キーワード」に対応する)と前記媒体上の所定の位置を示す位置情報(例えば、座標等)とが格納されている。部位出力位置情報格納手段は、以下の実施形態では、例えば、図4、図7、図10に示す関連付けテーブルを格納した記憶装置である。
判定手段は、前記音声文字化手段により文字化された音声入力文字情報(すなわち、ディクテーションテキストデータである)に、前記部位情報が含まれているかを判定するものであり、CPUにより実行される。
出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力するものであり、例えば、所定の媒体に出力するための各種インターフェース等のことである。ここで、所定の文字情報とは、後述するように、ディクテーションテキストデータ、または図7の関連付けテーブルの「テキストの簡略化」に格納されたテキストデータ、または図10の関連付けテーブルの「テキスト表示」に格納されたテキストデータを示す。
前記部位出力位置情報格納手段は、さらに、前記部位の状態に関する情報である部位状態情報(図7で言えば「キーワード2」に対応する)と前記音声入力文字情報を簡略化した情報である文字簡略化情報(図7の関連付けテーブルの「テキストの簡略化」に対応する)とを格納している。前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位状態情報とが含まれているかを判定する。前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記文字簡略化情報または前記音声入力文字情報を出力する。
第2の実施形態にかかる本発明は、次のものである。前記部位出力位置情報格納手段は、さらに、前記部位に対する作用に関する情報である部位作用情報(図10の関連付けテーブルの「キーワード2」に対応する)と、該作用の結果に関する情報である作用結果情報(図10の関連付けテーブルの「キーワード3」に対応する)と、前記媒体に出力させる該作用結果情報に相当する出力用作用結果情報(図10の関連付けテーブルの「テキスト表示」に対応する)を格納している。前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位作用情報と前記作用結果情報とが含まれているかを判定する。前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記出力用作用結果情報を出力する。
また、前記出力手段は、前記出力用作用結果情報を前記位置情報の示す前記媒体上の位置に出力する場合、該出力用作用結果情報の表示態様(例えば、図13)を変化させて出力する。この表示態様の変化とは、例えば、出力用作用結果情報を示す文字の大きさを変化させたり、または色を変えたり、点灯等することである。 第3の実施形態にかかる本発明は、次のものである。第3の実施形態にかかる医療に関する情報を所定の媒体に出力する医療支援システムは、音声入力手段と、音声文字化手段と、出力手段と、音声指示認識手段と、表示態様制御手段とを備えている。
音声入力手段とは、音声が入力されるものであり、例えば、マイクまたはシステムコントローラ側についているマイクとのインターフェース等である。音声文字化手段とは、前記音声入力手段により入力された前記音声を認識して、該音声を文字化するものであり、例えば、音声認識回路のディクテーション機能を示す。出力手段とは、前記音声文字化手段により文字化された文字情報である音声入力文字情報(ディクテーションテキストデータ)を出力するものであり、例えば、表示装置に出力するための通信インターフェース等を示す。音声指示認識手段とは、前記音声入力手段により入力された前記音声による前記出力される前記音声入力文字情報の表示態様に関する指示情報を認識するものであり、例えば、音声認識回路の音声コマンド制御機能を示す。表示態様制御手段とは、音声指示認識手段により認識された前記指示情報に基づいて、前記出力される前記音声入力文字情報の表示態様を制御するものであり、例えば、CPUにより制御されるものである。
では、以下に各実施の形態について説明する。
<第1の実施形態>
本実施形態では、音声認識によるディクテーションにより入力したテキストデータを、テキストファイルの特定位置に自動的に登録する。では、詳細を以下に示す。
図1は、本実施形態における内視鏡手術システムの全体構成を示す。内視鏡手術システム1は、患者30が横たわる患者ベッド19の両側に、第1の内視鏡手術システム2及び第2の内視鏡手術システム3が配置されている。
これらの内視鏡手術システム2,3には、観察、検査、処置、記録などを行う複数の内視鏡周辺機器がそれぞれ第1の医療用トロリー12及び第2の医療用トロリー25に搭載されている。また、患者ベッド19の周辺には、可動スタンドが配置され、その可動スタンドには内視鏡表示パネル20が搭載されている。
第1の医療用トロリー12には、最上段の天板のトロリートッププレート41、中段に設けられたトロリー棚40、最下段の底板部から構成されている。トロリートッププレート41には、内視鏡表示パネル11とシステムコントローラ22が配置されている。トロリー棚40にはVTR17、ビデオプロセッサ16、内視鏡光源装置15が配置されている。底板部には、送気装置(気腹装置)14、電気メス装置13が配置されている。また、第1の医療用トロリー12のアーム部には、集中操作パネル33、集中表示パネル21が配置されている。また、第1の医療用トロリー12には、例えば不図示の超音波観測装置、またはプリンタ等を搭載しても良い。
集中操作パネル33は、非滅菌域に配置され看護師等が各医療機器の操作を集中して行うものであって、図示しないマウスとタッチパネル等のポインティングデバイスを有したものであり、医療機器を集中管理・制御・操作するものである。
それぞれの医療機器は、図示しないシリアルインターフェイスケーブルを介してシステムコントローラ22と接続され、双方向通信を行うことができる。また、システムコントローラ22には、マイク50を接続接続することができる。
システムコントローラ22は、マイク50から入力された音声を後述する音声認識回路46及びCPU55(図2参照)により認識する。そして、その音声を認識後にシステムコントローラ22は、術者の音声により各機器を制御、もしくは認識結果をテキストとして表示したり、出力したりすることができる。
また、システムコントローラ22には、音声ディクテーション用コントローラ49を接続することができる。
内視鏡光源装置15は、照明光を伝送するライトガイドケーブルを介して第1の内視鏡31に接続されている。内視鏡光源装置15の照明光は、第1の内視鏡31のライトガイドに供給されると、この第1の内視鏡31の挿入部が刺入された患者3の腹部内の患部等を照明する。
この第1の内視鏡31の接眼部には、撮像素子を備えた第1のカメラヘッド31aが装着されている。第1のカメラヘッド31a内の撮像素子を用いて、第1の内視鏡31の観察光学系による患部等の光学像が撮像される。そうすると、その撮像した光学像データがカメラケーブルを介してビデオプロセッサ16に伝送される。その光学像データはビデオプロセッサ16内の信号処理回路で信号処理されて、映像信号が生成される。そして、その映像信号がシステムコントローラ22を介して内視鏡表示パネル11に出力されて、内視鏡表示パネル11に患部等の内視鏡画像が表示される。
システムコントローラ22には、図示しないMO等の外部媒体記録装置が内蔵されている。これにより、システムコントローラ22は、外部記録媒体(MO)に記録された画像を読み出して、内視鏡表示パネル11に出力して表示させることができる。また、システムコントコーラ22には、図示しない病院内に設けられたネットワーク(院内ネット)と図示しないケーブルで接続されている。これにより、システムコントローラ22は、院内ネット上の画像データ等を取得して第1の内視鏡表示パネル11に出力して表示させることができる。
気腹装置14には、例えばCO2等のガスボンベ18が接続されている。そして、この気腹装置14から患者30に延びた気腹チューブ14aを介して患者30の腹部内にCO2ガスを供給できる。
第2の医療用トロリー25には、最上段の天板のトロリートッププレート43、中段に設けられたトロリー棚42、最下段の底板部から構成されている。トロリートッププレート43には、内視鏡表示パネル35と中継ユニット28が配置されている。トロリー棚42にはVTR62、ビデオプロセッサ27、内視鏡光源装置26が配置されている。底板部には、その他の医療機器、例えば、超音波処置装置、砕石装置、ポンプ、シェーバ等が搭載されている。それぞれの機器は、図示しないケーブルで中継ユニット28に接続され、双方向の通信が可能になっている。
内視鏡光源装置26は、照明光を伝送するライトガイドケーブルを介して第2の内視鏡32に接続されている。内視鏡光源装置26の照明光が、第2の内視鏡32のライトガイドに供給される。そうすると、この第2の内視鏡32の挿入部が刺入された患者30の腹部内の患部等を照明する。
この第2の内視鏡32の接眼部には、撮像素子を備えた第2のカメラヘッド32aが装着されている。第2のカメラヘッド32a内の撮像素子を用いて、第2の内視鏡32の観察光学系による患部等の光学像が撮像される。そうすると、その撮像した光学像データがカメラケーブルを介してビデオプロセッサ27に伝送される。その光学像データはビデオプロセッサ27内の信号処理回路で信号処理されて、映像信号が生成される。そして、その映像信号がシステムコントローラ22を介して内視鏡表示パネル35に出力されて、内視鏡表示パネル35に患部等の内視鏡画像が表示される。
システムコントローラ22と中継ユニット28は中継ケーブル29で接続されている。
さらに、システムコントローラ22は、術者が滅菌域から機器操作を行う術者用無線リモートコントローラ(以下、リモコンと記す)24により制御することもできる。また、第1の医療用トロリー12,第2の医療用トロリー25には、その他の機器(例えば、プリンタ、超音波観測装置等)も搭載することができる。
図2は、図1の内視鏡手術システムを構成する各医療機器の接続関係を示すブロック図である。同図に示すように、集中操作パネル33、リモコン24、VTR17、ビデオプロセッサ16、内視鏡光源装置15、気腹装置14、電気メス装置13、プリンタ60(図1では不図示)、及び超音波観察装置61(図1では不図示)はそれぞれ通信ケーブル38によりシステムコントローラ22の通信インターフェース(以下、インターフェースをI/Fと称する)51と接続されている。システムコントローラ22とこれらの各装置間では、データの送受が行われる。
また、VTR17、内視鏡表示パネル11、ビデオプロセッサ16、プリンタ60及び超音波観測装置61は、映像ケーブル39によりシステムコントローラ22のディスプレイI/F52と接続されており、映像信号を送受できるようになっている。
VTR62、ビデオプロセッサ27、内視鏡光源装置26、シェーバ63(図1では不図示)、ポンプ64(図1では不図示)、超音波処理装置65(図1では不図示)は、通信ケーブル38により中継ユニット28に接続されている。中継ユニット28とこれらの各装置間では、データの送受が行われる。また、内視鏡表示パネル35、ビデオプロセッサ27及びVTR62は、映像ケーブル39により中継ユニット28と接続されており、映像信号を送受できるようになっている。
また、中継ユニット28は、ケーブル29(図1参照)によりシステムコントローラ22と接続されている。中継ユニット28は、ケーブル29内の通信ケーブル38を介してシステムコントローラ22の通信I/F51に接続されている。また、中継ユニット28は、ケーブル29内の映像ケーブル39を介してシステムコントローラ22のディスプレイI/F52に接続されている。
システムコントローラ22は、通信I/F51、ディスプレイI/F52の他に、集中操作パネルI/F53、音声合成回路57、CPU55、メモリ59、スピーカ58、音声認識回路56、リモコンI/F54を備えている。
音声認識回路56は、マイク50からの音声信号を認識するものである。音声認識回路56は、A/D変換器と、入力音声メモリと、ナビゲーションコマンドメモリ、ディクテーション用のメモリ等から構成される。A/D変換器51では、マイク50からの音声信号をA/D変換する。入力音声メモリ52では、A/D変換器51でA/D変換された入力音声データを記憶する。ナビゲーションコマンドメモリには、CPU55が入力音声メモリに記憶された音声データが所定のコマンドデータであるかどうかを比較するためのナビゲーションコマンドデータを格納している。ディクテーション用のメモリには、CPU55が入力音声メモリに記憶された音声データが所定のディクテーションテキストデータ(ディクテーションテキストデータ:音声をディクテーション機能により音声認識させてテキスト化したデータのことをいう。以下、同じ)と一致するかを比較するための音声文言テーブルを格納している。
リモコンI/F54は、リモコン24とのデータの送受を行うものである。音声合成回路57は、音声を合成しスピーカ58より音声を発せさせるものである。集中操作パネルI/F53は、集中操作パネル33とのデータの送受を行うものである。これら各回路がCPU55により制御されている。
また、システムコントローラ22には外部記録媒体が接続可能となっており、CPU55より画像データを外部記録媒体(図示せず)に記録・再生できる。また、システムコントローラ22は、不図示のネットワークI/Fを備えている。これにより、WAN(ワールドエリアネットワーク)、LAN(ローカルエリアネットワーク)、インターネット、イントラネット、エクストラネット等のネットワークにも接続することができ、これら外部のネットワークとの間でデータの送受ができる。
なお、システムコントローラ22には、第1の内視鏡31、第2の内視鏡32の各種類に応じた内視鏡操作画面レイアウトやモニター画質設定が登録されており、第1の内視鏡31または第2の内視鏡32が接続された時、内視鏡の種類の判別を行うと供に、接続された内視鏡に応じた画面レイアウトやモニター画質設定を自動的に行う。また、内視鏡の各種類に応じた内視鏡操作画面レイアウトやモニター画質設定の登録場所は、システムコントローラ22に接続する院内サーバや外付けハードディスク等の外部記録装置(ここでは記載しない)でも良い。
また、音声ディクテーション用コントローラ49には、音声ディクテーション機能の開始/停止用ボタンが複数用意されており、音声ディクテーションソフトウェアに依存したディクテーション入力の他に、カナ文字入力、ひらがな文字入力等のディクテーション入力を選択して行うことができる。これらの音声ディクテーション機能の開始/停止は、音声ディクテーション用コントローラ49だけではなく、リモートコンローラ23や第1の内視鏡31、第2の内視鏡32に用意された操作ボタン、及びマイク50を使用した音声操作も可能である。マイク50を使用した音声操作による音声ディクテーション機能の開始/停止とは、例えば、カナ変換したい文言の前に「カナ変換」と発話することにより、以降の文言が必ずカナ変換されることである。
(実施例1)
図3は、本実施形態における集中表示パネル21の表示例を示す。同図において、集中表示パネル21は、接続周辺機器ステータス表示部70、ディクテーション機能表示部71、ディクテーションテキスト表示部72、内視鏡画像表示部73から構成される。
接続周辺機器ステータス表示部70には、システムコントローラに接続されている医療機器(例えば、気腹装置14、電気メス装置13等)の設定値や測定値が表示される。ディクテーション機能表示部71には、ディクテーションを開始しているか、入力モードが何か(例えば、漢字で入力するモード)、及び当該ディクテーション機能表示部71を表示させるか等のディクテーションに関する情報が表示される。
内視鏡画像表示部73には、例えば、第1の内視鏡31や第2の内視鏡32で観察している内視鏡画像が表示される。ディクテーションテキスト表示部72には、ディクテーション機能により音声をテキスト化した情報(ディクテーションテキストデータ)が表示される。
図4は、本実施形態における「キーワード」と「電子カルテへの登録座標」との関連付けテーブルを示す。この関連付けテーブル80は、項目「キーワード」81と項目「電子カルテへの登録座標」82から構成されている。関連付けテーブル80は、メモリ59に格納されている。
「キーワード」81には、例えば、「部位1」、「部位2」、「部位3」、・・・「部位X」等の生体内の所定の部位の名称等のキーワードが格納されている。
「電子カルテへの登録座標」82には、各キーワードに対応する電子カルテファイルへの登録座標(X軸×Y軸)が格納されている。例えば、キーワード「部位1」に対応する登録座標には「400×200」が格納されているので、キーワード「部位2」に対応する登録座標には「400×400」が格納されている。なお、この登録座標とは、電子カルテファイル上の座標を示し、この座標で表された位置に後述する所定のテキストを出力(登録)する。
この関連付けテーブル80を用いることにより、「キーワード」を含むディクテーションテキストデータが入力された場合には、それらに対応する「電子カルテへの登録座標」にそのディクテーションテキストデータを登録することができる。
図5は、本実施形態における電子カルテファイルへの登録例を示す。電子カルテファイルは、例えば、メモリ59に格納されていてもよいし、システムコントローラ22とネットワークを介して接続されている所定のサーバ内の記憶装置に格納されていても良い。同図では、電子カルテ(患者カルテ)90には、その明細部分に項目として「部位1」、「部位2」、「部位3」、・・・、「部位X」が出力されている。そして、項目「部位1:」の右側には、「部位1の腫瘍摘出完了」が出力されている。
図5の「部位1」、「部位2」、「部位3」、・・・、「部位X」は、関連付けテーブル80の項目「キーワード」81に対応するものである。そして、関連付けテーブル80の項目「電子カルテへの登録座標」82に登録されている座標は、図5の「部位1」、「部位2」、「部位3」、・・・、「部位X」の各項目に対して出力する座標を示している。
それでは、図4と図5の関係を、図6を用いて説明する。
図6は、本実施形態におけるディクテーションテキストデータを電子カルテファイルへ登録するフローを示す。本フローは、例えばメモリ59に格納されている所定のプログラムをCPU55が読み出して起動させることにより実行される。
まず、医師がマイク50から音声を入力すると、音声認識回路56に入力されて、CPU55の制御によりテキスト化される(以下、ディクテーション機能という)。音声の入力が終了すると、ディクテーション機能によるテキスト化が終了する。つまり、システムコントローラ22へのディクテーションテキストデータの入力が終了する(S1)。なお、ここでは、例えば、「部位1の腫瘍摘出完了。」という音声が入力されたとする。
次に、CPU55は、このディクテーションテキストデータに、関連付けテーブル80の「キーワード」81に格納されているキーワード(例えば、「部位1」、「部位2」 等)が含まれているかを検索する(S2)。
検索の結果、CPU55は、入力されたディクテーションテキストデータにキーワードが含まれているか否かを判断する(S3)。キーワードが含まれていない場合(S3で「No」へ進む)には、本フローは終了する。キーワードが含まれている場合には、CPU55は、関連付けテーブル80からそのキーワードに対応する「電子カルテへの登録座標」を検索する(S4)。上記で「部位1の腫瘍摘出完了。」という音声が入力されているので、このディクテーションテキストデータには、「部位1」というキーワードが含まれている。
次に、検索された電子カルテの登録座標へディクテーションデータを出力する(S5)。例えば、図4のキーワード「部位1」に対応する登録座標「400×200」は、図5の「部位1:」の次に出力された「部位1の腫瘍摘出完了」の先頭文字の位置「部」の出力位置を示している。
以上より、所定のディクテーションテキストデータを電子カルテ上の特定の位置に出力することができるので、検査中または検査後に電子カルテに所定の情報を入力する手間を省くことができる。
(実施例2)
次に、上記の第1の実施形態の実施例1の変形例について説明する。ここでは、入力されたテキストデータの中に所定のキーワードが全て含まれている場合には、電子カルテの特定の位置に「問題無し」等の簡単な出力を行い、そうでない場合には、入力されたディクテーションテキストデータを出力する。
図7は、本実施形態の変形例におけるキーワードと登録座標との関連付けテーブルを示す。関連付けテーブル100は、項目「キーワード1」101、項目「キーワード2」102、項目「電子カルテへの登録座標」103、及び、項目「テキストの簡略化」104から構成されている。なお、この関連付けテーブル100は、メモリ59に格納されている。
項目「キーワード1」101には、例えば、「部位1」、「部位2」、「部位3」、・・・「部位X」等の生体内の所定の部位の名称等のキーワードが格納されている。
項目「キーワード2」102には、例えば、各キーワード1に対応して「問題無し」等の部位に関する所見(例えば、問題無し、問題あり、異常なし、異常あり、等)等が格納されている。
項目「電子カルテへの登録座標」103には、キーワード1に対応する電子カルテファイルへの登録座標(X軸×Y軸)が格納されている。例えば、キーワード1「部位1」に対応する登録座標には「400×200」が格納されており、キーワード1「部位2」に対応する登録座標には「400×400」が格納されている。
項目「テキストの簡略化」104には、例えば、各キーワード1に対応して「問題無し」が格納されている。「テキストの簡略化」104は、例えば、キーワード2の内容を簡略化したテキストが格納されている。
この関連付けテーブル100を用いることにより、「キーワード1」と「キーワード2」を含むディクテーションテキストデータが入力された場合には、「キーワード1」と「キーワード2」の組み合わせに対応する「電子カルテへの登録座標」に「テキストの簡略化」を登録することができる。なお、後述するが、「キーワード1」のみを含むディクテーションテキストデータが入力された場合には、そのキーワード1に対応する「電子カルテへの登録座標」にその入力されたディクテーションテキストデータを登録することができる。
図8は、本実施形態の変形例における電子カルテファイルへの登録例を示す。図9は、本実施形態の変形例におけるディクテーションテキストデータを電子カルテファイルへ登録するフローを示す。このフローは、例えばメモリ59に格納されている所定のプログラムをCPU55が読み出して起動させることにより実行される。以下では、図8を参照しながら、図9のフローについて説明する。
まず、医師がマイク50から、例えば「部位1は問題無し」という音声を入力すると、ディクテーション機能によりその音声がテキスト化される。音声の入力が終了すると、ディクテーション機能によるテキスト化が終了する。つまり、テキスト化されたテキストデータ(ディクテーションテキストデータ)の入力が終了する(S21)。
次に、CPU55は、このディクテーションテキストデータに、関連付けテーブル100の「キーワード1」101に格納されているキーワード1(例えば、「部位1」、「部位2」 等)が含まれているかを検索する(S12)。
検索の結果、CPU55は、ディクテーションテキストデータにキーワード1が含まれているか否かを判断する(S13)。S13でキーワード1が含まれていない場合(S3で「No」へ進む)には、本フローは終了する。
上記の例では、「部位1は問題無し」というディクテーションテキストデータ中にキーワード1の「部位1」が含まれているので(S13で「Yes」へ進む)、さらに、このディクテーションテキストデータが、キーワード1、及びこのキーワード1に対応するキーワード2と一致するかを判断する(S14)。
図7よりキーワード1「部位1」に対応するキーワード2は「問題無し」であり、これらのキーワードはディクテーションテキストデータに含まれているので(S14で「Yes」へ進む)、入力されたディクテーションテキストデータを「テキストの簡略化」104に格納されたテキストデータに置き換える(S15)。上記の例では、キーワード1「部位1」、キーワード2「問題無し」の場合の「テキストの簡略化」に格納されたデータは「問題無し」であるので、これに置き換える。
次に、CPU55は、図7においてキーワード1に対応する「電子カルテへの登録座標」を検索し(S16)、その検索された電子カルテファイルの座標へS15で置換したテキストデータを登録する(S17)。上記の例では、「キーワード1:部位1」に対応する「電子カルテへの登録座標」は、「400×200」であるので、この座標へS15で置換したデータ「問題無し」を登録する。
そうすると、電子カルテファイル110には、「部位1:問題無し」と出力されている(図8(a)参照)。
次に、医師がマイク50から、例えば「部位2に腫瘍発見」という音声を入力した場合について説明する。上述の通り、ディクテーション機能によりその音声がテキスト化される。音声の入力が終了すると、ディクテーション機能によるテキスト化が終了する。つまり、ディクテーションテキストデータの入力が終了する(S11)。
次に、CPU55は、このディクテーションテキストデータに、関連付けテーブル100の「キーワード1」101に格納されているキーワード1(例えば、「部位1」、「部位2」 等)が含まれているかを検索する(S12)。
検索の結果、CPU55は、ディクテーションテキストデータにキーワードが含まれているか否かを判断する(S13)。S3でキーワードが含まれていない場合(S13で「No」へ進む)には、本フローは終了する。
上記の例では、「部位2に腫瘍発見」というディクテーションテキストデータ中にキーワード1の「部位2」が含まれているので(S13で「Yes」へ進む)、さらに、このディクテーションテキストデータが、キーワード1、及びこのキーワード1に対応するキーワード2と一致するかを判断する(S14)。
図7より「キーワード1:部位2」に対応するキーワード2は「問題無し」であるが、これらのキーワードの組み合わせは、ディクテーションテキストデータに含まれていないので(S14で「No」へ進む)、CPU55は、図7においてキーワード1に対応する「電子カルテへの登録座標」103を検索し(S16)、その検索された登録座標へそのディクテーションテキストデータを登録する(S17)。上記の例では、「キーワード1:部位2」に対応する「電子カルテへの登録座標」は、「400×400」であるので、この座標へディクテーションテキストデータ「部位2に腫瘍発見」を出力する。
そうすると、電子カルテ110には、「部位2に腫瘍発見」と出力されている(図8(b)参照)。
図8(c)は、医師がマイク50から、例えば「部位3は問題無し」という音声を入力した場合であり、図8(a)と同様のフローで処理されたものである。図8(d)は、医師がマイク50から、例えば「部位Xに摘出跡」という音声を入力した場合であり、図8(b)と同様のフローで処理されたものである。
なお、第1の実施形態ではキーワードを1つまたは2を用いたが、さらにキーワードを増やしもよい。また、これらのキーワードの内容は、本実施形態に限定されず、用途に応じて変更するも可能である。また、関連付けテーブルには、電子カルテへの登録座標を格納したが、座標に限られず、出力先のファイル上の所定の位置を特定できるものであれば何でも良い。また、同一の電子カルテファイル内で同一のキーワードに対するディクテーションテキストデータが複数入力された場合には、改行して既に登録されているディクテーションテキストデータの次の行に順次登録するようにしてもよい。
以上より、正常なデータは予め登録されたデータに置き換えて電子カルテに登録し、異常なデータ(注意すべき情報)は、ディクテーションされたそのままの情報を電子カルテに登録することができるので、データの登録漏れがなくなり、さらに、正常/異常の識別が容易に行うことができる。
<第2の実施形態>
(実施例1)
本実施形態では、入力されたディクテーションテキストデータの中に全てのキーワードが含まれている場合は、表示パネルの特定の位置に、それらのキーワードに応じたディクテーションテキストデータを表示する。では、詳細を以下に示す。
図10は、本実施形態におけるキーワードと表示座標との関連付けテーブルを示す。関連付けテーブル120は、項目「キーワード1」121、項目「キーワード2」122、項目「キーワード3」123、項目「パネルへの表示座標」124、及び、項目「テキスト表示」125から構成されている。関連付けテーブル120は、メモリ59に格納されている。
「キーワード1」121には、例えば、「部位1」、「部位2」、「部位3」、・・・「部位X」等の生体内の所定の部位の名称等のキーワードが格納されている。
「キーワード2」122には、例えば、各キーワード1に対応して「切除」が格納されている。「キーワード2」122には、キーワード1に格納されている部位に対する処置についての情報が格納されている。
項目「キーワード3」123には、例えば、各キーワード1または各キーワード2に対応して「完了」が格納されている。「キーワード3」123には、キーワード2に格納されている処置の進行状況についての情報が格納されている。
「パネルへの表示座標」124には、キーワード1に対応する表示パネル33への表示座標(X軸×Y軸)が格納されている。例えば、キーワード1「部位1」に対応する表示座標には「400×200」が格納されており、キーワード1「部位2」に対応する表示座標には「400×400」が格納されている。なお、この表示座標とは、例えば表示パネル上の座標を示し、この座標で表された位置に後述する所定のテキストを出力(表示)する。「テキスト表示」125には、例えば、各キーワード1に対応して「処置完了」が格納されている。
この関連付けテーブル120を用いることにより、「キーワード1」と「キーワード2」と「キーワード3」を含むディクテーションテキストデータが入力された場合には、それらに対応する「パネルへの表示座標」に「テキストの簡略化」を登録することができる。また、キーワード1」のみを含むディクテーションテキストデータが入力された場合には、それに対応する「パネルへの表示座標」にそのディクテーションテキストデータを表示させることができる。
図11は、本実施形態における集中表示パネル21の表示例を示す。同図において、集中表示パネル21は、接続周辺機器ステータス表示部70、手術進行状況表示部130、ディクテーションテキスト表示部72、内視鏡画像表示部73から構成される。図11は、図3のディクテーション機能表示部71を手術進行状況表示部130に置き換えたものである。手術進行状況表示部130には、部位1の処置が完了したか、部位2の処置が完了したか等の各部位について手術の進行状況を表示させる表示領域である。
図12は、本実施形態におけるディクテーションテキストデータを表示パネルへ表示させるフローを示す。このフローは、例えばメモリ59に格納されている所定のプログラムをCPU55が読み出して起動させることにより、実行される。以下では、図11を参照しながら、図12のフローについて説明する。
まず、医師がマイク50から、例えば「部位1の切除が完了」という音声を入力すると、ディクテーション機能によりその音声がテキスト化される。そのディクテーションテキストデータが表示パネル21のディクテーションテキスト表示部72に表示される(S21)。音声の入力が終了すると、ディクテーション機能によるテキスト化が終了する。つまり、テキスト化されたテキストデータの入力が終了する(S22)。
次に、CPU55は、このディクテーションテキストデータに、関連付けテーブル120の「キーワード1」121に格納されているキーワード1(例えば、「部位1」、「部位2」 等)が含まれているかを検索する(S23)。
検索の結果、CPU55は、ディクテーションテキストデータにキーワードが含まれているか否かを判断する(S24)。S24でキーワードが含まれていない場合(S24で「No」へ進む)には、本フローは終了する。
上記の例では、「部位1の切除が完了」というディクテーションテキストデータ中にキーワード1の「部位1」が含まれているので(S24で「Yes」へ進む)、さらに、このディクテーションテキストデータが、キーワード1、キーワード2、及び。キーワード3と一致するものを含むかを判断する(S25)。S25でキーワード1、2、および3が全て含まれていない場合(S25で「No」へ進む)には、本フローは終了する。
図10より「キーワード1:部位1」に対応するキーワード2及び3は「切除、完了」であり、これらのキーワードは上記の例ではディクテーションテキストデータに含まれているので(S25で「Yes」へ進む)、入力されたディクテーションテキストデータを「テキスト表示」125に格納されたテキストデータに置き換える(S26)。上記の例では、「キーワード1:部位1、キーワード2:切除、キーワード3:完了」の場合の「テキスト表示」に格納されたデータは「処置完了」であるので、入力されたディクテーションテキストデータを「処置完了」に置き換える。
次に、CPU55は、図10においてキーワード1に対応する「パネルへの表示座標」を検索し(S27)、その検索された表示パネルの座標へS26で置換したテキストデータを表示させる(S28)。上記の例では、「キーワード1:部位1」に対応する「パネルへの表示座標」は、「400×200」であるので、この座標へS26で置換したデータ「処置完了」を出力する。
そうすると、図11で示すように、表示パネル21の手術進行状況表示部130には、「部位1:処置完了」が表示されている。その後、ディクテーション機能開始時にディクテーションテキスト表示部72に表示させたディクテーションテキストデータを消去する(S29)。
以上より、容易に検査完了の有無を確認することができる。また、検査完了の有無を確認する際に、表示パネルから目を離さずに確認することができるので、検査・手術を効率よく行うことができる。
(実施例2)
次に、上記の第2の実施形態の実施例1の変形例について説明する。この実施例2では、入力されたディクテーションテキストデータの中に全てのキーワードが含まれている場合は、表示パネルの特定の位置に、それらのキーワードに応じたディクテーションテキストデータを様々な態様で表示させる。
図13は、本実施形態の実施例2における集中表示パネル21の表示例を示す。図11と異なる部分は、手術進行状況表示部130に表示される一部のテキストが拡大して表示されている部分である。すなわち、140で表される「部位1:処置完了」が他のテキストと比べて拡大表示されている。この140で示される拡大されたテキスト表示は、手術進行状況表示部130内に表示されるテキストのうち最新に更新されたことを示している。
図14は、本実施形態の実施例2におけるディクテーションしてテキスト化された音声情報を表示パネルへ表示させるフローを示す。このフローは、例えばメモリ59に格納されている所定のプログラムをCPU55が読み出して起動させることにより、実行される。以下では、図13を参照しながら、図14のフローについて説明する。
図14は、図12のS28をS28−1の処理に置き換えたものである。S28−1では、S27で検索された表示座標へS26で置換したテキストデータを表示させる場合に、そのテキストデータを拡大して表示させたり、色を変更して表示させたり、点灯等させたりしてもよい。なお、このとき、それまで拡大して表示されていた、または色を変更して表示されていたテキストデータは、もとの表示態様に戻す処理を行う。
なお、第2の実施形態ではキーワードを3を用いたが、1または2個のキーワード、または4個以上のキーワードを使用しても良い。また、これらのキーワードの内容は、本実施形態に限定されず、用途に応じて変更するも可能である。また、関連付けテーブルには、電子カルテへの登録座標を格納したが、座標に限られず、出力先のファイル上の所定の位置を特定できるものであれば何でも良い。また、同一の電子カルテファイル内で同一のキーワードに対するディクテーションテキストデータが複数入力された場合には、改行して既に登録されているディクテーションテキストデータの次の行に順次登録するようにしてもよい。
以上より、手術進行状況表示部130内に表示されるテキストのうち最新に更新されたテキストを容易に認識することができるので、効率よく検査・手術等を行うことができる。
<第3の実施形態>
本実施形態では、表示パネルに表示されたディクテーションテキストを、音声コマンド制御機能を用いて、表示/非表示としたり、表示を変更させたり等の表示形態を制御するする方法について説明する。
図15は、本実施形態におけるコマンド一覧を示す。音声コマンド制御機能は、第1コマンドと第2コマンドの2つのコマンドを認識することで、表示パネルに表示されたディクテーションテキストの表示態様を制御する。このコマンド一覧は、音声認識回路56内の。ナビゲーションコマンドメモリに格納されている。
第1コマンドには、表示態様の種類(例えば、「データの表示」、「データの位置」、「データのサイズ」、「データの色」、等)を示している。第2コマンドは、第1コマンドで特定された用事態様の制御について示している。例えば、「データの表示、表示OFF」と発音すると、音声認識回路56及びCPU55でコマンドが解析され、第1コマンド「データの表示」、第2コマンド「表示OFF」であることが認識される。すると、CPU55は、表示パネルに表示されているディクテーションテキストを非表示にする。
図16は、本実施形態における集中表示パネル21の表示例を示す。ディクテーションテキストデータ「部位1の切除が完了」は、音声コマンド制御前では72aの位置(内視鏡画像表示部73の右上)にあった(図11参照)。それから、音声ディクテーション用コントローラ49を用いて、ディクテーションモードから音声コマンド制御モードへ切り替えた後、マイク50より「データの位置、左下」と音声を入力すると、72bの位置(内視鏡画像表示部73の左下)に移動させることができる。
以上より、ディクテーションテキストデータが内視鏡観察の邪魔になるときは、そのディクテーションテキストデータを非表示にしたり、表示位置を変更したり等の表示態様を容易に変更することができるため、効率よく観察を行うことができる。なお、カメラヘッドに設けた所定のスイッチにより、ディクテーションテキストデータの表示/非表示を制御しても良い。
第1の実施形態における内視鏡手術システムの全体構成を示す図である。 図1の内視鏡手術システムを構成する各医療機器の接続関係を示すブロック図である図である。 第1の実施形態の実施例1における集中表示パネル21の表示例を示す図である。 第1の実施形態の実施例1における「キーワード」と「電子カルテへの登録座標」との関連付けテーブルを示す図である。 第1の実施形態の実施例1における電子カルテファイルへの登録例を示す図である。 第1の実施形態の実施例1におけるディクテーションテキストデータを電子カルテファイルへ登録するフローを示す図である。 第1の実施形態の実施例2におけるキーワードと登録座標との関連付けテーブルを示す図である。 第1の実施形態の実施例2における電子カルテファイルへの登録例を示す図である。 第1の実施形態の実施例2におけるディクテーションテキストデータを電子カルテファイルへ登録するフローを示す図である。 第2の実施形態の実施例1におけるキーワードと表示座標との関連付けテーブルを示す図である。 第2の実施形態の実施例1における集中表示パネル21の表示例を示す図である。 第2の実施形態の実施例1におけるディクテーションテキストデータを表示パネルへ表示させるフローを示す図である。 第2の実施形態の実施例2における集中表示パネル21の表示例を示す図である。 第2の実施形態の実施例2におけるディクテーションしてテキスト化された音声情報を表示パネルへ表示させるフローを示す図である。 第3の実施形態におけるコマンド一覧を示す図である。 第3の実施形態における集中表示パネル21の表示例を示す図である。
符号の説明
1 内視鏡手術システム
2 第1の内視鏡手術システム
3 第2の内視鏡手術システム
11 内視鏡表示パネル
12 第1の医療用トロリー
13 電気メス装置
14 送気装置(気腹装置)
15 内視鏡光源装置
16 ビデオプロセッサ
17 VTR
18 ガスボンベ
19 患者ベッド
20 内視鏡表示パネル
21 集中表示パネル
22 システムコントローラ
24 リモコン
25 第2の医療用トロリー
26 内視鏡光源装置
27 ビデオプロセッサ
28 中継ユニット
29 ケーブル
30 患者
31 第1の内視鏡
31a 第1のカメラヘッド
32 第2の内視鏡
32a 第2のカメラヘッド
33 集中操作パネル
35 内視鏡表示パネル
38 通信ケーブル
39 映像ケーブル
40 トロリー棚
41 トロリートッププレート
42 トロリー棚
43 トロリートッププレート
50 マイク
51 通信I/F
52 ディスプレイI/F
53 集中操作パネルI/F
54 リモコンI/F
55 CPU
56 音声認識回路
57 音声合成回路
58 スピーカ
59 メモリ
60 プリンタ
61 超音波観察装置
62 VTR
63 シェーバ
64 ポンプ
65 超音波処理装置

Claims (17)

  1. 医療に関する情報を所定の媒体に出力する医療支援システムにおいて、
    音声が入力される音声入力手段と、
    前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、
    生体内の部位に関する情報である部位情報と前記媒体上の所定の位置を示す位置情報とが格納された部位出力位置情報格納手段と、
    前記音声文字化手段により文字化された音声入力文字情報に、前記部位情報が含まれているかを判定する判定手段と、
    前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力する出力手段と、
    を備えることを特徴とする医療支援システム。
  2. 前記媒体は、電子カルテファイルであるか、または情報を表示する表示手段を有しているものであることを特徴とする請求項1に記載の医療支援システム。
  3. 前記所定の文字情報は、前記音声入力文字情報であることを特徴とする請求項1に記載の医療支援システム。
  4. 前記部位出力位置情報格納手段は、さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報とを格納し、
    前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位状態情報とが含まれているかを判定し、
    前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記文字簡略化情報を出力する
    ことを特徴とする請求項1に記載の医療支援システム。
  5. 前記部位出力位置情報格納手段は、さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報とを格納し、
    前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位状態情報とが含まれているかを判定し、
    前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記音声入力文字情報を出力する
    ことを特徴とする請求項1に記載の医療支援システム。
  6. 前記部位出力位置情報格納手段は、さらに、前記部位に対する作用に関する情報である部位作用情報と、該作用の結果に関する情報である作用結果情報と、前記媒体に出力させる該作用結果情報に相当する出力用作用結果情報を格納し、
    前記判定手段は、前記音声入力文字情報に前記部位情報と前記部位作用情報と前記作用結果情報とが含まれているかを判定し、
    前記出力手段は、前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記出力用作用結果情報を出力する
    ことを特徴とする請求項1に記載の医療支援システム。
  7. 前記出力手段は、前記出力用作用結果情報を前記位置情報の示す前記媒体上の位置に出力する場合、該出力用作用結果情報の表示態様を変化させて出力することを特徴とする請求項6に記載の医療支援システム。
  8. 医療に関する情報を所定の媒体に出力する医療支援システムにおいて、
    音声が入力される音声入力手段と、
    前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、
    前記音声文字化手段により文字化された文字情報である音声入力文字情報を出力する出力手段と、
    前記音声入力手段により入力された前記音声による前記出力される前記音声入力文字情報の表示態様に関する指示情報を認識する音声指示認識手段と、
    音声指示認識手段により認識された前記指示情報に基づいて、前記出力される前記音声入力文字情報の表示態様を制御する表示態様制御手段と、
    を備えることを特徴とする医療支援システム。
  9. 医療に関する情報を所定の媒体に出力する医療支援方法において、
    音声を入力し、
    前記入力された前記音声を認識して、該音声を文字化し、
    生体内の部位に関する情報である部位情報と前記媒体上の所定の位置を示す位置情報とを記憶装置に格納し、
    前記音声が文字化された音声入力文字情報に、前記部位情報が含まれているかを判定し、
    前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力する
    ことを特徴とする医療支援方法。
  10. 前記所定の文字情報は、前記音声入力文字情報であることを特徴とする請求項9に記載の医療支援方法。
  11. さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報を前記記憶装置に格納し、
    前記音声入力文字情報に前記部位情報と前記部位状態情報とが含まれているかを判定し、
    前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記文字簡略化情報を出力する
    ことを特徴とする請求項9に記載の医療支援方法。
  12. さらに、前記部位の状態に関する情報である部位状態情報と前記音声入力文字情報を簡略化した情報である文字簡略化情報とを前記記憶装置に格納し、
    前記音声入力文字情報に前記部位情報と前記部位状態情報が含まれているかを判定し、
    前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記音声入力文字情報を出力する
    ことを特徴とする請求項9に記載の医療支援方法。
  13. さらに、前記部位に対する作用に関する情報である部位作用情報と、該作用の結果に関する情報である作用結果情報と、前記媒体に出力させる該作用結果情報に相当する出力用作用結果情報とを前記記憶装置に格納し、
    前記音声入力文字情報に前記部位情報と前記部位作用情報と前記作用結果情報とが含まれているかを判定し、
    前記判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、前記出力用作用結果情報を出力する
    ことを特徴とする請求項9に記載の医療支援方法。
  14. 前記出力用作用結果情報を前記位置情報の示す前記媒体上の位置に出力する場合、該出力用作用結果情報の表示態様を変化させて出力することを特徴とする請求項13に記載の医療支援方法。
  15. 医療に関する情報を所定の媒体に出力する医療支援方法において、
    音声を入力し、
    前記入力された前記音声を認識して、該音声を文字化し、
    前記文字化された音声入力文字情報を出力する出力手段と、
    前記入力された前記音声による前記出力される前記音声入力文字情報の表示態様に関する指示情報を認識し、
    前記指示情報に基づいて、前記出力される前記音声入力文字情報の表示態様を制御する
    ことを特徴とする医療支援方法。
  16. 医療に関する情報を所定の媒体に出力する医療支援システムを構成する医療機器間の通信を制御するシステムコントローラにおいて、
    音声が入力される音声入力手段と、
    前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、
    生体内の部位に関する情報である部位情報と前記媒体上の所定の位置を示す位置情報とが格納された部位出力位置情報格納手段と、
    前記音声文字化手段により文字化された音声入力文字情報に、前記部位情報が含まれているかを判定する判定手段と、
    前記判定手段による判定結果に基づいて、前記位置情報の示す前記媒体上の位置に、所定の文字情報を出力する出力手段と、
    を備えることを特徴とするシステムコントローラ。
  17. 医療に関する情報を所定の媒体に出力する医療支援システムを構成する医療機器間の通信を制御するシステムコントローラにおいて、
    音声が入力される音声入力手段と、
    前記音声入力手段により入力された前記音声を認識して、該音声を文字化する音声文字化手段と、
    前記音声文字化手段により文字化された文字情報である音声入力文字情報を出力する出力手段と、
    前記音声入力手段により入力された前記音声による前記出力される前記音声入力文字情報の表示態様に関する指示情報を認識する音声指示認識手段と、
    音声指示認識手段により認識された前記指示情報に基づいて、前記出力される前記音声入力文字情報の表示態様を制御する表示態様制御手段と、
    を備えることを特徴とするシステムコントローラ。


JP2005036966A 2005-02-14 2005-02-14 医療支援システム Withdrawn JP2006221583A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005036966A JP2006221583A (ja) 2005-02-14 2005-02-14 医療支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005036966A JP2006221583A (ja) 2005-02-14 2005-02-14 医療支援システム

Publications (1)

Publication Number Publication Date
JP2006221583A true JP2006221583A (ja) 2006-08-24

Family

ID=36983861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036966A Withdrawn JP2006221583A (ja) 2005-02-14 2005-02-14 医療支援システム

Country Status (1)

Country Link
JP (1) JP2006221583A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048775A (ja) * 2009-08-28 2011-03-10 Chugoku Electric Power Co Inc:The 救急病院選択システム、管理サーバ及び病院サーバ
JP2014191237A (ja) * 2013-03-27 2014-10-06 Brother Ind Ltd 情報記憶装置および情報記憶プログラム
US9153284B2 (en) 2006-09-12 2015-10-06 Sony Corporation Video signal generating apparatus, video signal receiving apparatus, and video signal generating and receiving system
WO2018138833A1 (ja) * 2017-01-26 2018-08-02 オリンパス株式会社 情報記録システム、情報記録装置、および情報記録方法
WO2023286256A1 (ja) * 2021-07-15 2023-01-19 オリンパス株式会社 検査レポート作成プログラム、検査レポート作成装置および内視鏡システム
WO2023139985A1 (ja) * 2022-01-19 2023-07-27 富士フイルム株式会社 内視鏡システム、医療情報処理方法、及び医療情報処理プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9153284B2 (en) 2006-09-12 2015-10-06 Sony Corporation Video signal generating apparatus, video signal receiving apparatus, and video signal generating and receiving system
US10389926B2 (en) 2006-09-12 2019-08-20 Sony Corporation Video signal generating apparatus, video signal receiving apparatus, and video signal generating and receiving system
US11056226B2 (en) 2006-09-12 2021-07-06 Sony Corporation Video signal generating apparatus, video signal receiving apparatus, and video signal generating and receiving system
US11948675B2 (en) 2006-09-12 2024-04-02 Sony Group Corporation Video signal generating apparatus, video signal receiving apparatus, and video signal generating and receiving system
JP2011048775A (ja) * 2009-08-28 2011-03-10 Chugoku Electric Power Co Inc:The 救急病院選択システム、管理サーバ及び病院サーバ
JP2014191237A (ja) * 2013-03-27 2014-10-06 Brother Ind Ltd 情報記憶装置および情報記憶プログラム
WO2018138833A1 (ja) * 2017-01-26 2018-08-02 オリンパス株式会社 情報記録システム、情報記録装置、および情報記録方法
WO2023286256A1 (ja) * 2021-07-15 2023-01-19 オリンパス株式会社 検査レポート作成プログラム、検査レポート作成装置および内視鏡システム
WO2023139985A1 (ja) * 2022-01-19 2023-07-27 富士フイルム株式会社 内視鏡システム、医療情報処理方法、及び医療情報処理プログラム

Similar Documents

Publication Publication Date Title
JP4832770B2 (ja) 医療支援システム
EP2098158B1 (en) Medical control device and its system
US8010368B2 (en) Surgical system controlling apparatus and surgical system controlling method
JP2004181229A (ja) 遠隔手術支援システム及び支援方法
CN103460281B (zh) 内窥镜手术系统
JP2007175231A (ja) 医療用システム
JP2006223375A (ja) 手術データ記録装置、手術データ表示装置及び手術データ記録表示方法
JP2006221583A (ja) 医療支援システム
JP2004275360A (ja) 内視鏡システム
US8154589B2 (en) Medical operation system for verifying and analyzing a medical operation
US20110015938A1 (en) Preoperative surgical time out procedure feature incorporated into a surgical specialty instrument
US10130240B2 (en) Medical system
JP2003084794A (ja) 音声制御システム
JP2007080094A (ja) アプリケーション起動管理システム
JP2006221117A (ja) 医療支援システム
JP2006218230A (ja) 医療用システム
JP4727066B2 (ja) 内視鏡システム
JP5010778B2 (ja) 内視鏡手術システム
JP3927023B2 (ja) 医療用制御装置
JP4127769B2 (ja) 医療制御システム
JP2001128992A (ja) 医療システム
JP6129458B1 (ja) 内視鏡プロセッサ
JP2006288956A (ja) 手術システム
JP2003084791A (ja) 音声制御システム
US11127500B2 (en) Centralized control apparatus and display control method of operation panel

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513