JP2006218229A - 医療支援システム - Google Patents

医療支援システム Download PDF

Info

Publication number
JP2006218229A
JP2006218229A JP2005036964A JP2005036964A JP2006218229A JP 2006218229 A JP2006218229 A JP 2006218229A JP 2005036964 A JP2005036964 A JP 2005036964A JP 2005036964 A JP2005036964 A JP 2005036964A JP 2006218229 A JP2006218229 A JP 2006218229A
Authority
JP
Japan
Prior art keywords
voice
character string
information
medical
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005036964A
Other languages
English (en)
Inventor
Masahide Yamaki
正英 八巻
Takechiyo Nakamitsu
竹千代 中満
Masaru Ito
賢 伊藤
Kiyoshi Sekiguchi
潔志 関口
Hiroyuki Ushifusa
浩行 牛房
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005036964A priority Critical patent/JP2006218229A/ja
Publication of JP2006218229A publication Critical patent/JP2006218229A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)

Abstract

【課題】 本発明は、双方向での会話を行いながら、聞き取れなかったコメントを文字により確認しながら会話をスムーズに行う医療支援システムを提供する。
【解決手段】 音声が入力される音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字列化する音声文字列化手段と、前記音声文字列化手段により文字列化した情報である音声文字列化情報を含む送信情報を送信する送信手段と、前記送信手段により送信された前記送信情報を受信する受信手段と、前記受信した前記送信情報のうち前記音声文字列化情報を表示する表示手段と、を備える医療支援システムにより、上記課題の解決を図る。
【選択図】 図5

Description

本発明は、遠隔的に手術を支援する医療支援システムに関する。
近年では内視鏡を用いた外科手術が行われている。この内視鏡外科手術では、腹腔内を膨張させるために用いる気腹装置や手技を行うための処置装置等を用いて、ある生体組織の切除をしたり、または高周波焼灼装置を用いて止血をしたりする場合、内視鏡で観察しながらこれらの処置を行うことができる。
また、これら複数の各種機器を備えた内視鏡手術システムにおいて、複数の装置を容易に操作、制御することができ、またシステムの操作力性を向上させるため、例えば、表示パネル、遠隔操作装置、集中操作パネル、マイク等の機器を備えている(例えば、特許文献1。)。
表示パネルは、術者が滅菌域で各種機器の設定状態を確認するための表示手段であって、例えば液晶パネルなどである。遠隔操作装置は、術者が滅菌域で操作し各種機器の機能または設定値を変更するための遠隔操作手段であって、例えばリモコン(リモートコントローラ)である。集中操作パネルは、術者の指示に従って看護師等の補助者が非滅菌域で操作し各種機器の機能または設定値を変更するための各機器の操作スイッチをタッチパネルに設けた集ものである。マイクは、音声で各種機器を操作するために用いられる(例えば、特許文献2。)。
上記の通り、最近では、音声認識によりユーザの発音を認識し、接続機器の操作を行う機能(音声コマンド制御機能)や、術中・検査中に術者が発音した所見内容を音声認識しテキストデータに変換し電子カルテ等の作成に役立てるディクテーション機能を備える内視鏡システムが存在する。
さて、内視鏡手術や検査において、遠隔支援を目的とするシステムがある(例えば、特許文献2)。インターネット回線を有し、一方から他方の病院に対し、画像、音声をリアルタイムに配信し、大病院等から、地方病院の手術を支援する技術である。
特開2002−336184号公報 特開2002−306509号公報
しかしながら、インターネットの回線(光ファイバやメタルなど)のスピードや、他の回線に重いデータが流されたとき等のトラフィック渋滞によって、コマ落ち(例えば、1秒間に30フレーム中10フレームしか送れない等)が発生し、音質、画質が悪くなり、うまく聞き取れなく、迅速、かつ確実な支援ができない。特に音声、画像はデータ量が多い為発生しやすい。
TVの場合は聴覚障害者の為、音声認識技術による自動字幕スーパーが採用されている。しかしながら、こちらはTVであるからあくまで1方向、かつ確実な表示が必要で、リスピーク方式と呼ばれる技術を採用している。アナウンサーの発声環境は雑音が多いので、専用の字幕キャスターが別にいて、静かな環境で、音声認識率を上げるため、アクセントや抑揚を考慮しながら行うが、当然聞き取りづらい。
上記の課題に本発明は、双方向での会話を行いながら、聞き取れなかったコメントを文字により確認しながら会話をスムーズに行う医療支援システムを提供する。
上記課題は、特許請求の範囲の請求項1に記載の発明によれば、音声が入力される音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字列化する音声文字列化手段と、前記音声文字列化手段により文字列化した情報である音声文字列化情報を含む送信情報を送信する送信手段と、前記送信手段により送信された前記送信情報を受信する受信手段と、前記受信した前記送信情報のうち前記音声文字列化情報を表示する表示手段と、を備えることを特徴とする医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項2に記載の発明によれば、前記送信手段は、前記音声文字列化情報と共に、前記音声入力手段により入力された前記音声に基づく音声情報を送信することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項3に記載の発明によれば、前記医療支援システムは、さらに、撮像手段を備え、前記送信手段は、前記音声文字列化情報と共に、前記撮像手段で撮像した撮像画像を送信し、前記表示手段は、該撮像画像を表示することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項4に記載の発明によれば、前記撮像手段は、内視鏡、被写体を撮影するカメラ、及び風景を撮影するカメラのうち少なくともいずれか1つであることを特徴とする請求項3に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項5に記載の発明によれば、前記表示手段は、前記音声文字列化情報を当該表示手段の所定の表示領域に表示させ、該表示領域は、該表示領域を越える音声文字列化情報を表示させるスクロール手段を有していることを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項6に記載の発明によれば、前記医療支援システムは、さらに、前記音声文字列化情報のうち所定の箇所にマーキングするマーキング手段と、前記表示手段に前記音声文字列化情報を表示させる場合、前記マーキングされた箇所に相当する部分にマークを表示させるマーク表示手段と、前記表示手段に表示された前記音声文字列化情報のうち前記マークの表示された前記音声文字列化情報を検索するマーキング検索手段と、を備えることを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項7に記載の発明によれば、前記医療支援システムは、さらに、前記表示手段に表示された前記音声文字列化情報のうち所定の文字列を検索する文字列検索手段と、を備えることを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項8に記載の発明によれば、前記医療支援システムは、さらに、医療に関する語彙である医療関連語彙が格納されている医療関連語彙格納手段と、前記医療関連語彙手段に格納されている前記医療関連語彙に基づいて、前記音声文字列化手段により文字列化された前記音声文字列化情報から該医療関連語彙を抽出する医療語彙抽出手段と、を備えることを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項9に記載の発明によれば、音声が入力される複数の音声入力手段と、前記音声入力手段により入力された前記音声を認識して、該音声を文字列化する音声文字列化手段と、前記音声入力手段と同数の撮像手段と、前記音声文字列化手段により文字列化した情報である音声文字列化情報と、前記撮像手段で撮像した撮像画像とを含む送信情報を送信する送信手段と、前記撮像手段のうちいずれかを選択する選択手段と、前記送信手段により送信された前記送信情報を受信する受信手段と、前記受信手段により受信した前記送信情報に含まれる前記撮像画像のうち、前記選択手段により選択された撮像手段により撮像された該撮像画像を表示する表示手段と、を備える医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項10に記載の発明によれば、前記表示手段は、前記複数の音声入力手段により取得された音声に対応する前記音声文字列化情報を時刻情報とともに時系列で表示させることを特徴とする請求項9に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項11に記載の発明によれば、遠隔地から医療行為を支援する医療支援方法において、音声を入力し、前記音声を認識して、該音声を文字列化し、前記文字列化した情報である音声文字列化情報を含む送信情報を送信し、前記送信された前記送信情報を受信し、前記受信した前記送信情報のうち音声文字列化情報を表示させる、ことを特徴とする医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項12に記載の発明によれば、前記音声文字列化情報と共に、前記入力された音声に基づく音声情報を送信することを特徴とする請求項11に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項13に記載の発明によれば、さらに、内視鏡、被写体を撮影するカメラ、及び風景を撮影するカメラのうち少なくともいずれか1つで撮影された画像を前記音声文字列化情報と共に送信し、該音声文字列化情報を表示させる場合、該画像も共に表示させることを特徴とする請求項11に記載の医療支援方法。
遠隔支援やTV電話において、音声のコマ落ちが発生しても、ディクテーションにてテキスト化されたデータを即座に確認でき、確実なコミュニケーションが実現できる。
<第1の実施形態>
本実施形態では、若干のコマ落ちが発生しても高画質、高音質のデータを伝送する圧縮技術と、ディレイがあっても正確な情報を確実に伝達させる認識技術を融合させることにより、より確実な医療支援や医療指示を行えるようにする。それでは、以下に、本実施形態について説明する。
図1は、本実施形態における内視鏡手術システムの全体構成を示す。内視鏡手術システム1は、患者30が横たわる患者ベッド19の両側に、第1の内視鏡手術システム2及び第2の内視鏡手術システム3が配置されている。
これらの内視鏡手術システム2,3には、観察、検査、処置、記録などを行う複数の内視鏡周辺機器がそれぞれ第1の医療用トロリー12及び第2の医療用トロリー25に搭載されている。また、患者ベッド19の周辺には、可動スタンドが配置され、その可動スタンドには内視鏡表示パネル20が搭載されている。
第1の医療用トロリー12には、最上段の天板のトロリートッププレート41、中段に設けられたトロリー棚40、最下段の底板部から構成されている。トロリートッププレート41には、内視鏡表示パネル11とシステムコントローラ22が配置されている。トロリー棚40にはVTR17、ビデオプロセッサ16、内視鏡光源装置15が配置されている。底板部には、送気装置(気腹装置)14、電気メス装置13が配置されている。また、第1の医療用トロリー12のアーム部には、集中操作パネル33、集中表示パネル21が配置されている。また、第1の医療用トロリー12には、例えば不図示の超音波観測装置、またはプリンタ等を搭載しても良い。
集中操作パネル33は、非滅菌域に配置され看護師等が各医療機器の操作を集中して行うものであって、図示しないマウスとタッチパネル等のポインティングデバイスを有したものであり、医療機器を集中管理・制御・操作するものである。
それぞれの医療機器は、図示しないシリアルインターフェイスケーブルを介してシステムコントローラ22と接続され、双方向通信を行うことができる。また、システムコントローラ22には、マイク50を接続することができる。
システムコントローラ22は、マイク50から入力された音声を後述する音声認識回路46及びCPU55(図2参照)により認識する。そして、その音声を認識後にシステムコントローラ22は、術者の音声により各機器を制御、もしくは認識結果をテキストとして表示したり、出力したりすることができる。
内視鏡光源装置15は、照明光を伝送するライトガイドケーブルを介して第1の内視鏡31に接続されている。内視鏡光源装置15の照明光は、第1の内視鏡31のライトガイドに供給されると、この第1の内視鏡31の挿入部が刺入された患者3の腹部内の患部等を照明する。
この第1の内視鏡31の接眼部には、撮像素子を備えた第1のカメラヘッド31aが装着されている。第1のカメラヘッド31a内の撮像素子を用いて、第1の内視鏡31の観察光学系による患部等の光学像が撮像される。そうすると、その撮像した光学像データがカメラケーブルを介してビデオプロセッサ16に伝送される。その光学像データはビデオプロセッサ16内の信号処理回路で信号処理されて、映像信号が生成される。そして、その映像信号がシステムコントローラ22を介して内視鏡表示パネル11に出力されて、内視鏡表示パネル11に患部等の内視鏡画像が表示される。
システムコントローラ22には、図示しないMO等の外部媒体記録装置が内蔵されている。これにより、システムコントローラ22は、外部記録媒体(MO)に記録された画像を読み出して、内視鏡表示パネル11に出力して表示させることができる。また、システムコントコーラ22には、図示しない病院内に設けられたネットワーク(院内ネット)と図示しないケーブルで接続されている。これにより、システムコントローラ22は、院内ネット上の画像データ等を取得して第1の内視鏡表示パネル11に出力して表示させることができる。
気腹装置14には、例えばCO2等のガスボンベ18が接続されている。そして、この気腹装置14から患者30に延びた気腹チューブ14aを介して患者30の腹部内にCO2ガスを供給できる。
第2の医療用トロリー25には、最上段の天板のトロリートッププレート43、中段に設けられたトロリー棚42、最下段の底板部から構成されている。トロリートッププレート43には、内視鏡表示パネル35と中継ユニット28が配置されている。トロリー棚42にはVTR62、ビデオプロセッサ27、内視鏡光源装置26が配置されている。底板部には、その他の医療機器、例えば、超音波処置装置、砕石装置、ポンプ、シェーバ等が搭載されている。それぞれの機器は、図示しないケーブルで中継ユニット28に接続され、双方向の通信が可能になっている。
内視鏡光源装置26は、照明光を伝送するライトガイドケーブルを介して第2の内視鏡32に接続されている。内視鏡光源装置26の照明光が、第2の内視鏡32のライトガイドに供給される。そうすると、この第2の内視鏡32の挿入部が刺入された患者30の腹部内の患部等を照明する。
この第2の内視鏡32の接眼部には、撮像素子を備えた第2のカメラヘッド32aが装着されている。第2のカメラヘッド32a内の撮像素子を用いて、第2の内視鏡32の観察光学系による患部等の光学像が撮像される。そうすると、その撮像した光学像データがカメラケーブルを介してビデオプロセッサ27に伝送される。その光学像データはビデオプロセッサ27内の信号処理回路で信号処理されて、映像信号が生成される。そして、その映像信号がシステムコントローラ22を介して内視鏡表示パネル35に出力されて、内視鏡表示パネル35に患部等の内視鏡画像が表示される。
システムコントローラ22と中継ユニット28は中継ケーブル29で接続されている。
さらに、システムコントローラ22は、術者が滅菌域から機器操作を行う術者用無線リモートコントローラ(以下、リモコンと記す)24により制御することもできる。また、第1の医療用トロリー12,第2の医療用トロリー25には、その他の機器(例えば、プリンタ、超音波観測装置等)も搭載することができる。
図2は、図1の内視鏡手術システムを構成する各医療機器の接続関係を示すブロック図である。同図に示すように、集中操作パネル33、リモコン24、VTR17、ビデオプロセッサ16、内視鏡光源装置15、気腹装置14、電気メス装置13、プリンタ60(図1では不図示)、及び超音波観察装置61(図1では不図示)はそれぞれ通信ケーブル38によりシステムコントローラ22の通信インターフェース(以下、インターフェースをI/Fと称する)51と接続されている。システムコントローラ22とこれらの各装置間では、データの送受が行われる。
また、VTR17、内視鏡表示パネル11、ビデオプロセッサ16、プリンタ60及び超音波観測装置61は、映像ケーブル39によりシステムコントローラ22のディスプレイI/F52と接続されており、映像信号を送受できるようになっている。
VTR62、ビデオプロセッサ27、内視鏡光源装置26、シェーバ63(図1では不図示)、ポンプ64(図1では不図示)、超音波処理装置65(図1では不図示)は、通信ケーブル38により中継ユニット28に接続されている。中継ユニット28とこれらの各装置間では、データの送受が行われる。また、内視鏡表示パネル35、ビデオプロセッサ27及びVTR62は、映像ケーブル39により中継ユニット28と接続されており、映像信号を送受できるようになっている。
また、中継ユニット28は、ケーブル29(図1参照)によりシステムコントローラ22と接続されている。中継ユニット28は、ケーブル29内の通信ケーブル38を介してシステムコントローラ22の通信I/F51に接続されている。また、中継ユニット28は、ケーブル29内の映像ケーブル39を介してシステムコントローラ22のディスプレイI/F52に接続されている。
システムコントローラ22は、通信I/F51、ディスプレイI/F52の他に、集中操作パネルI/F53、音声合成回路57、CPU55、メモリ59、スピーカ58、音声認識回路56、リモコンI/F54を備えている。
音声認識回路56は、マイク50からの音声信号を認識するものである。音声認識回路56は、A/D変換器と、入力音声メモリと、ナビゲーションコマンドメモリ、ディクテーション用のメモリ等から構成される。A/D変換器では、マイク50からの音声信号をA/D変換する。入力音声メモリでは、A/D変換器でA/D変換された入力音声データを記憶する。ナビゲーションコマンドメモリには、CPU55が入力音声メモリに記憶された音声データが所定のコマンドデータであるかどうかを比較するためのナビゲーションコマンドデータを格納している。ディクテーション用のメモリには、CPU55が入力音声メモリに記憶された音声データが所定のディクテーションデータであるかどうか比較するための音声文言テーブルが格納されている。
リモコンI/F54は、リモコン24とのデータの送受を行うものである。音声合成回路57は、音声を合成しスピーカ58より音声を発せさせるものである。集中操作パネルI/F53は、集中操作パネル33とのデータの送受を行うものである。これら各回路がCPU55により制御されている。
また、システムコントローラ22には外部記録媒体が接続可能となっており、CPU55より画像データを外部記録媒体(図示せず)に記録・再生できる。また、システムコントローラ22は、不図示のネットワークI/Fを備えている。これにより、WAN(ワールドエリアネットワーク)、LAN(ローカルエリアネットワーク)、インターネット、イントラネット、エクストラネット等のネットワークにも接続することができ、これら外部のネットワークとの間でデータの送受ができる。
図3は、本実施形態におけるネットワークに接続された内視鏡手術システムのブロック図である。同図において、システムコントローラ22は、図2で説明したように、ビデオプロセッサ16、内視鏡光源装置15、気腹装置14、電気メス装置13等の医療機器、及び集中表示パネル(以下、表示パネルという)21が接続されている。ビデオプロセッサ16からシステムコントローラ22に対して内視鏡画像が入力される。
システムコントローラ22は、ネットワーク回線70に接続されている。そのネットワーク回線70は、セキュリティサーバ71を介してインターネット72に接続している。セキュリティサーバは、例えば、ファイヤーウォール機能、アドレス変換機能、アクセス制限機能、認証機能、または、フィルタリング機能等を備えたサーバである。
また、システムコントローラ22が設置されている手術室やカンファレンスルーム等にはルームカメラ66が設置されている。ルームカメラ66は、室内の風景やマイクに発話している人、処置中の様子等を撮影するためのものである。ルームカメラ66は、システムコントローラ22に接続され、ルームカメラ66で撮影した画像データをシステムコントローラ22に転送する。
表示パネル21は、画像や文字等を表示することができる。さらに、具体的には、システムコントローラ22により制御されている医療機器の設定値や測定値を表示することができる。また、内視鏡で撮影された内視鏡画像を表示することができる。また、ディクテーションされた文字データを表示されることができる。
図4は、本実施形態におけるシステムコントローラ22の使用例を示す。カンファレンスルーム80には、システムコントローラ22a、ルームカメラ66a、表示パネル21aが設置されている。手術室81には、システムコントローラ22b、ルームカメラ66b、表示パネル21bが設置されている。
手術室81では、内視鏡を用いた手術が行われており、内視鏡で撮像された内視鏡画像データはビデオプロセッサを介してシステムコントローラ22bに送信される。その内視鏡画像データは、さらに、システムコントローラ22b→ネットワーク回線70→システムコントローラ22aと送信される。システムコントローラ22aではその内視鏡画像データを表示パネル21に出力し、その内視鏡画像83が表示パネル21aに表示される。
手術室81に設置されたルームカメラ66bで撮影された室内画像84も同様にして、表示パネル21aに表示される。なお、同図において、ルームカメラ66bで撮影対象となっているのは、Dr.Bの行う処置の様子である。
本実施形態において、内視鏡画像及びルームカメラによる室内画像は共に表示パネル21aに表示され、これを見たDr.Aは、マイク50aに向かって、「病変部位を、切開モード100Wで切除してください!」と発話する。
そうすると、マイク50aに入力されたDr.Aの音声は、システムコントローラ22a内で音声データとディクテーションデータに変換され、システムコントローラ22bに送信される。また、ルームカメラ66aによりDr.Aの画像も撮影され、システムコントローラ22aに送信される。システムコントローラ22aは、その画像データもシステムコントローラ22bに送信する。
システムコントローラ22bでは、上記の音声データ、ディクテーションデータ、及び画像データを受信する。これらのデータを受信後、システムコントローラ22bは、音声データをスピーカへ出力し、ディクテーションデータと画像データを表示パネル21bへ出力する。
スピーカからは、「病変部位を、切開モード100Wで切除してください!」が出力される。表示パネル21bには、Dr.Aの画像82が表示される。さらに、表示パネル21bにはディクテーションされた文字列「病変部位を、切開モード100Wで切除してください」(不図示)が表示される。
すると、表示パネル21bの表示内容及びスピーカから出力された内容を聞いたDr.Bは、マイク50bに向かって、「了解しました!」と発話する。そうすると、この音声が同様にしてシステムコントローラ22aに送信され、カンファレンスルーム80側にあるスピーカから出力される。
図5は、ネットワークを介したシステムコントローラ間のデータの送受信時でのシステムコントローラ内部の機能ブロックを示す。システムコントローラ22aからシステムコントローラ22bにデータ送信する場合について説明する。マイク50aより入力された音声はシステムコントローラ22a内で音声信号に変換され、2つに分配される。分配された一方の音声信号は、音声エンジン102aに入力されると、A/D変換され、音声入力メモリに格納される。
音声エンジン102aは、言語モデル104a、音響モデル103aを有している。言語モデル104aは、単語の出現の割合や単語間のつながりの割合を集めたものである。また、音響モデル103aは、例えば所定言語の音声の母音や子音の特徴の平均とばらつきの組みのモデルである。
音声エンジン102aでは、言語モデル104a及び音響モデル103aに基づいて、音声入力メモリに格納された音声データをテキスト化(ディクテーションテキストデータ)する。そして、そのディクテーションテキスト信号はIP(Internet Protocol)パケット化部101aでIPパケット化処理がなされ、システムコントローラ22bに送信される。
また、分配された他方の音声信号は、IPパケット化部101aでIPパケット化処理がなされ、システムコントローラ22bに送信される。
また、ルームカメラ66aにより撮影された画像信号であるルームカメラ画像信号もまた、IPパケット化部101aでIPパケット化処理がなされ、システムコントローラ22bに送信される。
システムコントローラ22bでは、システムコントローラ22aから送信されたディクテーションテキスト信号、音声信号、及びルームカメラ画像信号を受信部105bで受信し、各出力先に出力される。すなわち、音声信号はスピーカより出力され、音声が再生される(108b)。ディクテーションデータ信号及びルームカメラ画像信号は、表示パネルに出力される(106b)。また、これらの送信データはメモリに履歴として保存することもできる(107b)。
システムコントローラ22bからシステムコントローラ22aにデータ送信する場合も、これと同様である。なお、この場合には、図4で説明したように、第1の内視鏡31または第2の内視鏡32で撮像した内視鏡画像のデータ(内視鏡カメラ画像信号)も送信される。
図6は、本実施形態における表示パネルの表示内容の一例を示す。図5で説明した手順により受信したディクテーションテキスト信号とルームカメラ画像信号に基づいて表示パネルに表示され、受信した音声信号がスピーカにより音声再生させている様子(114)を示している。
表示パネル21の表示領域内の、内視鏡画像表示領域110には内視鏡画像が表示され、そして再生されている。また、ルームカメラ画像表示領域111には、ルームカメラで撮影された手術室内の風景画像が表示され、そして再生される。ステータスデータ表示領域112には、患者情報、バイタル情報、各医療機器の設定値及び測定値情報等(ステータスデータ)が表示される(システムコントローラ22の本来の機能としてステータスデータを取得し制御する機能がある。)。
また、ディクテーションテキスト表示領域113には、ディクテーションテキスト信号に基づいてそのテキストが表示される。また、114はスピーカにより音声信号が出力される様子を示している。
同図において、ディクテーションテキスト表示領域113には、「
・カメラのホワイトバランスをとってください。
・気腹器の送気を低いモード、2L/minで送気を開始してください。
・チューブつまりの警告が発生しているようなので、確認してください。
・電気メスの出力設定が高いので、もう少し低くしてください。
・そこの画像を、レリーズして、プリントアウトしてください。

と表示されている。
スピーカからは、
「電気メスの出力設定が高いので、もう少し低くしてください。」(ディクテーションテキスト表示領域113の上から3行目に対応する)
が再生される。
このとき、もし、最初の発話内容を聞き逃していたとしても、ディクテーションテキスト表示領域113をみれば、それが「カメラのホワイトバランスをとってください」であることを視認することができる。
また、もし、スピーカから「電気メスの出力設定が高いので、もう少し低くしてください。」以降の音声が聞き取りづらい場合でも、ディクテーションテキスト表示領域113をみれば、それが「そこの画像を、レリーズして、プリントアウトしてください。」であることを視認することができる。
図7は、図5で説明した送信側のフローである。システムコントローラ22は上述の通り、機器のステータスデータ、画像データ、音声データの様々なデータを取得する(ステップ1、以下ステップをSと称する。)。
次に、受信したデータが音声データか否かを判断する(S2)。S2で音声データの場合(S2で「Y」へ進む)には、音声データを2つに分配する。そのうちの一方の音声データに音声エンジンによりディクテーション処理を施し、テキスト化し(S3)、IPパケット化部101に送信する。
他方の音声データはそのまま音声データとしてIPパケット化部101に送信する(S4)。S2で音声以外のデータ(例えば、画像データ、通信データ)の場合(S2で「No」へ進む)、そのデータをIPパケット化部101に送信する(S5)。
IPパケット化部101では、S3,S4,S5の処理後の各データをパケット化してネットワーク72へ配信する(S6)。
図8は、図5で説明した受信側のフローである。システムコントローラ22は、図7で送信されたデータパケットを受信し、そのヘッダーを解析する(S7)。その解析結果に基づいて、音声データか否かを判断する(S8)。音声データである場合(S7で「Y」へ進む)、音声データをスピーカより再生する(S9)。
S7で音声データでない場合(S8で「N」へ進む)、当該データがテキストデータか否か判断する(S10)。当該データがテキストデータでない場合(S10で「N」へ進む)、そのデータは画像データということなのでこの画像データを図6で説明したそれぞれの表示領域に表示させて再生する(S12)。
当該データがテキストデータである場合(S10で「Y」へ進む)、さらに当該データが機器情報か否か判断する(S11)。当該データが機器情報でない場合(S11で「N」へ進む)、そのデータはディクテーションテキストデータであるので、ディクテーションテキスト表示領域113に当該ディクテーションデータを表示させる(S14)。
また、当該データが機器情報である場合(S11で「Y」へ進む)、ステータスデータ表示領域112に当該機器情報を表示させる(S13)。
以上より、遠隔支援やTV電話において、音声のコマ落ちが発生しても、音声より情報量の少ないディクテーションにてテキスト化されたデータはスムーズに伝送される。したがって、音声のコマ落ちが発生してもディクテーションテキストを即座に表示パネルで確認でき、確実なコミュニケーションが実現できる。
なお、当然、携帯電話、PDAといった端末でも同様の技術を搭載することが可能であり、画面サイズの問題からリアルタームにスーパーを出すのではなく、必要なときに会話データを表示させ確認できる。もちろんそのテキストデータは、電子カルテや患者ファイルに添付することもできる。
また、本実施形態では、ディクテーションテキストデータと共に音声信号も同時に送信し、音声を再生していたが、ディクテーションテキストデータのみを送信し、受信側において、ディクテーションテキストデータに基づいて音声合成回路57により音声合成を行い、それを再生するようにしてもよい。これにより、送信するデータ量を減少させることができるので、ネットワーク負荷を抑え、環境ノイズを排除することができる。
<第2の実施形態>
本実施形態では、図6の表示パネル21のディクテーションテキスト表示領域113にスクロールバーを設けた画面について説明する。
図9は、本実施形態における表示パネルの表示内容の一例を示す。図6では、ディクテーションテキスト表示領域113の表示エリアが固定されており、時々刻々と表示エリアは更新されていっているので、少し前に話した内容を確認したい場合であっても、表示エリアから消えたテキストを確認することができない。
そこで、図9に示すように、スクロールバー120を設けることで、ディクテーションテキスト表示領域113の表示エリアから外れた内容に関しても、スクロールバーをスクロールさせて、前に話したテキスト部分に遡ることができる。
スクロール操作は、集中操作パネル(以下、操作パネルという)33に表示させているスクロールバー121を使って行う。操作パネル33のスクロールバー121と表示パネル21のスクロールバー120とは連動している。
図10は、本実施形態におけるスクロール操作の処理フローを示す。システムコントローラ22では、図8のフローにより受信したディクテーションテキストデータをメモリ59に保存し、ディクテーションテキスト表示領域113に表示させる(S21)。
次に、スクロール操作の有無について判断する(S22)。ここでは、操作パネル33のスクロールバー121によりスクロール操作がされない場合(S22で「No」へ進む。)には、メモリ59に保存されているディクテーションテキストデータを更新し、さらにディクテーションテキスト表示領域113に表示させる(S24)。このとき、その表示エリアを越えてディクテーションテキストデータを表示させる場合には、ディクテーションテキスト表示領域113を更新して、その越えた分のみ表示させることになる。
操作パネル33のスクロールバー121によりスクロール操作がされた場合(S22で「Y」へ進む。)には、メモリ59に逐次保存している受信したディクテーションテキストデータをCPU55が読み出して(S23)、そのうち操作パネル33のスクロールバー121のスクロール量にあわせたディクテーションテキストデータをディクテーションテキスト表示領域113に表示させる(S25)。
以上より、送信側のディクテーション結果によりテキスト化されて表示された音声情報をマウスやタッチ操作によりスクロール操作することで、過去の音声情報を表示させることができる。それにより、聞き逃した情報を容易に確認することができる。
<第3の実施形態>
本実施形態では、第2の実施形態にさらに編集機能を追加した画面について説明する。
図11は、本実施形態における表示パネルの表示内容の一例を示す。ディクテーションテキスト表示領域113に表示されているテキスト情報の一部にマーカ131(131a,131b)が付せられている。マーカ131aは、送信側(例えば、音声認識エンジン102)で付されるものであり、例えば、送信側での発話者がしばらく発話を中断して再び話始めたときに、その話し始めのディクテーションテキストに自動で付されるように設定してある。なお、送信側の操作パネルを用いて、マーカをユーザが任意に付したり、また特定の語彙に付したりしてもよい(例えば、マーカ131b)。また、マーキング用スイッチを発話者が持ち、この発話者がディクテーションしながら、自身がマーカを付したいと思う発話時にマーキング用スイッチを押下すると、当該ディクテーションテキストデータにマーカが付されるようにしてもよい。
そして、受信側では、操作パネル33の「ジャンプ」ボタン132を選択すると、たとえば、ディクテーションテキスト表示領域113の最上段の行にそのマーカを付した部分のテキストを含む行を表示させることができる(頭だし機能)。また、マーカが複数付させている場合には、「ジャンプ」ボタン132を選択するたびに、順次頭出しがされていく。
また、「検索ボタン」133を選択すると、検索ワード入力画面(不図示)が表示され、この画面に特定のワードを入力して検索を実行すると、ディクテーションテキスト表示領域113のテキスト中から当該ワードに一致するワードを検索することができる。
また、ディクテーションテキスト表示領域113の左側には、時刻表示領域130が設けられており、時刻表示領域130の時刻に対応するディクテーションテキストがディクテーションテキスト表示領域113に表示される。これにより、その発話がいつされたものなのかを確認することができる。
図12〜図14は、本実施形態に関するフローである。
図12は、データパケットの受信フローを示す。システムコントローラ22では、図8のフローにより受信したディクテーションテキストデータをメモリ59に保存し、ディクテーションテキスト表示領域113に表示させる。このとき、ディクテーションテキストデータにマーカが付されている場合には、そのマーカも表示する(S31)。
図13は、「ジャンプ」ボタン132選択時の処理フローを示す。まず、「ジャンプ」ボタン132を選択する(S41)。そうすると、CPU55では、次のマーカ(しおり)が付されたテキストデータを読み出し、たとえば、ディクテーションテキスト表示領域113の最上段の行にそのマーカを付した部分のテキストを含む行を表示させる(S42)。
図14は、「検索」ボタン133選択時の処理フローを示す。まず、「検索」ボタン133を選択する(S51)。そうすると、検索ワード入力画面(不図示)が表示され、この画面に特定のワードを入力して検索を実行すると、ディクテーションテキスト表示領域113のテキスト中から当該ワードに一致するワードを検索する(S52)。
以上より、表示画像や表示テキストのデータの送信時にマーカをディクテーションテキストデータに付与することで、当該マーカを頭だしすることができる。また、検索機能を用いて、ディクテーションテキストデータ中の所定のワードを容易に検索することができる。これにより、術後の手術履歴(電子カルテ)としての編集が容易になる。
<第4の実施形態>
上記の実施形態では、送信側と受信側との関係が1:1である通信環境について説明したが、本実施形態では1:多、多:1、または多:多の通信環境下での画面表示について説明する。
図15は、本実施形態における表示パネルの表示内容の一例及び通信環境を示す。ネットワーク回線164には、たとえば、システムコントローラA(160),システムコントローラB(161),システムコントローラC(162),システムコントローラD(163)が接続されている。そして、各システムコントローラには操作パネル兼表示パネルが接続されている。
そこで、システムコントローラA(160)に接続されている操作パネル兼表示パネル140に着目する。操作パネル兼表示パネル140は、ステータスデータ表示領域141、内視鏡画像表示領域142、内視鏡画像表示領域143、モニタ切り替えボタン144(「モニタA」ボタン144a,「モニタB」ボタン144b、「モニタC」ボタン144c、「モニタD」ボタン144d)、ディクテーションテキスト表示領域145、スクロールバー146、検索ボタン147、ジャンプボタン148、ルームカメラ画像表示領域149から構成されている。
モニタ切り替えボタン144以外は、上記の実施形態で説明したものと同様の機能を有するものである。内視鏡画像表示領域143には、当該システムコントローラに接続されている内視鏡画像を表示する。したがって、同図では、内視鏡画像表示領域143にはシステムコントローラAに接続されている内視鏡で撮像した内視鏡画像が表示される。
なお、モニタAとは、システムコントローラAに接続されている内視鏡のカメラを示す。モニタBとは、システムコントローラBに接続されている内視鏡のカメラを示す。モニタCとは、システムコントローラCに接続されている内視鏡のカメラを示す。モニタDとは、システムコントローラDに接続されている内視鏡のカメラを示す。
内視鏡画像表示領域142には、モニタ切り替えボタン144の切り替えに応じて、切り替え先のモニタ映像(システムコントローラに接続されている内視鏡画像)が表示される。例えば、同図のように、「モニタB」ボタン144bを選択すると、システムコントローラBに接続されている内視鏡で撮像した内視鏡画像が表示される。すなわち、モニタ切り替えボタン144のうちのいずれかを選択することで、その選択先のシステムコントローラからのパケットのみを受信し、そのパケットヘッダー情報を基に選択された端末からのデータのみを処理し、それを当該操作パネル兼表示パネル140の内視鏡画像表示領域142に表示する。
そして、内視鏡画像表示領域142とルームカメラ画像表示領域149とは連動しているので、これらの領域にはそれぞれ、同一のシステムコントローラから送信された内視鏡画像とルームカメラ画像が表示される。例えば、同図では、内視鏡画像表示領域142にはモニタBによる画像が表示されているので、ルームカメラ画像表示領域149にはシステムコントローラBが設置されている室内の風景画像が表示される。また、ディクテーションテキスト表示領域145に表示させるテキスト及びスピーカより再生される音声も上記と同様にモニタに連動させることができる。
このように、モニタ切り替えボタン144のうちいずれかを選択することで、その選択先のシステムコントローラからのパケットのみを受信し、そのパケットヘッダー情報を基に選択された端末からのデータのみ処理する。そうすると、システムコントローラBからの画像情報、音声情報、ディクテーションテキストデータのみを、システムコントローラAに接続された操作パネル兼表示パネル140に表示させることができる。
なお、上記では、ディクテーションテキスト表示領域145には、モニタ切り替えボタン144で選択したモニタに連動したディクテーションテキストが表示されたが、これに限定されず、例えば、同図のディクテーションテキスト表示領域145のように、各システムコントローラが設置されている箇所にいるドクターが発話した内容をディクテーションテキスト化してもよい。その表示形態は、例えば同図に示すように、チャット形式であってもよい。このとき、例えば「発話時刻 発話者名 > ディクテーションテキスト」のフォーマットで表示しても良い。すなわち、モニタ切り替えボタン144の選択にかかわらず、ディクテーションテキスト表示領域145には、全てのシステムコントローラからのディクテーションデータを表示させてよい。また、スピーカより再生される音声も全てのシステムコントローラからのものでよい。
以上より、各端末(操作パネル兼表示パネル)のモニタ切り替えボタンを切り替えることにより、同一のネットワークに接続された複数の端末間でそれぞれ独立に画像データや音声データを送受信、及び表示することができる。
また、画面はある1つの症例について遠隔地にいる複数人が共通して同一の画像を見ながら、ディクテーションテキスト表示領域145にはその症例を観察しているそれらの者が話した内容を表示させることができる。
また、同一ネットワークに接続された複数の端末間でそれぞれ独立に画像データや音声データを送受信、及び表示することができる。パケットのヘッダー情報を基に選択された端末からのデータのみ処理する。このようにすることで、複数のドクターからライブで指示を仰ぐことができ、かつ、聞き取れなかった画像や音声を独立して見直すことができる。
<第5の実施形態>
上記の実施形態では、発話者が話したそのままの音声をディクテーションしていたが、本実施形態では、発話者が話した内容のうち所定の語彙のみを抽出してディクテーションテキストとして表示させる場合について説明する。
図16は、本実施形態におけるテキスト変換可能な音声文言テーブル150の一例を示す。音声文言テーブル150は音声認識回路56に格納されているものである。本実施形態では、音声文言のカテゴリの一例として、「日時」、「操作」、「所見」、「医療材料」、「手技」、「その他」を用いた。そして、各カテゴリには、テキスト変換の対象となる複数のテキスト化された文言が格納されている。
カテゴリ「日時」には、例えば、「年」、「月」、「日」、「時」、「分」、「秒」、月〜日曜日の各曜日(例えば、火等)、「曜日」、等の文言が格納されている。
カテゴリ「操作」には、例えば、「気腹」、「電気メス切開」、「電気メス凝固」、「ソノサージ切開」、「ソノサージ凝固」、等の文言が格納されている。
カテゴリ「所見」には、例えば、「出血量」、「血圧」、「心拍数」、等の文言が格納されている。
カテゴリ「医療材料」には、例えば、「トロッカー」、「麻酔」、「ラパロスコープ」、「鉗子」、「クリップ」、等の文言が格納されている。
カテゴリ「手技」には、例えば、「胆嚢摘出術」、「下結腸切除術」、等の文言が格納されている。
カテゴリ「その他」には、例えば、0〜9の数値、「多い」、「少ない」、「高い」、「低い」、「正常」、「開始」、「終了」、「挿入」、「個」、等の文言が格納されている。
これらは、あくまでも一例であり、様々な症例に対応する医療用語、処置の進行にかかわる文言、周辺環境に関する文言、または当該システムを使用している施設独自の用語等、用途に応じた文言を格納しても良い。
図17は、本実施形態におけるテキスト化した音声から所定の文言を抽出するフローを示す。まず、発話があるまで当該フローは待ち状態となっている(S61で「No」へ進む。)。発話があると(S61で「Yes」へ進む。)、マイク50を介して音声が音声認識回路56に入力される。
音声認識回路56では、入力された音声を文字列(ディクテーションテキスト)に変換する(S62)。ここでは、マイク50から入力された音声をテキスト化して、そのテキスト化された文字列(ディクテーションテキスト)から助詞、助動詞等を取り除いた文言(語彙)のみを抽出する。音声認識回路62は、抽出した文言を制御部へ出力する。
次に、CPU55では、S62で抽出された文言と、音声文言テーブル150に登録されている文言を照合する(S63)。S63での比較の結果、一致する文言があれば(S64で「Yes」へ進む)、S62で抽出された文言はIPパケット化部によりIPパケット化処理が施され送信される(S65)。
S63での比較の結果、一致しなければ(S64で「No」へ進む)、そのS62で抽出した文言を破棄する(S66)。
なお、S62、S63において所定の文言を抽出する方法は、これに限定されず、例えば、抽出未処理のディクテーションテキストについて、音声文言テーブルに格納された各文言と文字列比較することにより、所定の文言を抽出しても良い。また、本フローは発話の度に実行してもよいし、または、連続する発話を音声入力メモリに一旦格納し、所定時間経過後にまとめて実行するようにしてもよい。
図18は、本実施形態における入力される音声に基づいて記憶部に記憶されたテキストデータを示す。図18(a)は、送信側でのドクターの発話の一例である。この発話がマイク50に入力される。図18(b)は、図17のフローに基づいて、音声文言テーブル150に登録された語彙のみを送信して受信側でそれをテキストデータとして表示された一例を示す。
図18(a)では、「えー、」、「現在」、「ただいまより、」、「を」、「します。」、「皆さん準備はよいですか?」等の不要な文言があるが、図18(b)ではそれらが除去され、「2004年9月8日9時30分」、「胆嚢摘出術」、「開始」等の必要な文言のみ記録されている。
以上より、ディクテーション機能により送信側で発話した文字列から無駄な文言が無くなり(すなわち、必要な文字列のみ抽出される)、短いテキストデータとなる為、必要最小限の情報のみを送信することができる。これにより、ネットワーク負荷を抑制することができる。
第1の実施形態における内視鏡手術システムの全体構成を示す図である。 図1の内視鏡手術システムを構成する各医療機器の接続関係を示すブロック図である。 第1の実施形態におけるネットワークに接続された内視鏡手術システムのブロック図である。 第1の実施形態におけるシステムコントローラ22の使用例を示す図である。 第1の実施形態におけるネットワークを介したシステムコントローラ間のデータの送受信時でのシステムコントローラ内部の機能ブロックを示す図である。 第1の実施形態における表示パネルの表示内容の一例を示す図である。 図5で説明した送信側のフローである。 図5で説明した受信側のフローである。 第2の実施形態における表示パネルの表示内容の一例を示す図である。 第2の実施形態におけるスクロール操作の処理フローを示す図である。 第3の実施形態における表示パネルの表示内容の一例を示す図である。 第3の実施形態におけるデータパケットの受信フローを示す図である。 第3の実施形態における「ジャンプ」ボタン132選択時の処理フローを示す図である。 第3の実施形態における「検索」ボタン133選択時の処理フローを示す図である。 第4の実施形態における本実施形態における表示パネルの表示内容の一例及び通信環境を示す図である。 第5の実施形態におけるテキスト変換可能な音声文言テーブル150の一例を示す図である。 第5の実施形態におけるテキスト化した音声から所定の文言を抽出するフローを示す図である。 第5の実施形態における入力される音声に基づいて記憶部に記憶されたテキストデータを示す図である。
符号の説明
1 内視鏡手術システム
2 第1の内視鏡手術システム
3 第2の内視鏡手術システム
11 内視鏡表示パネル
12 第1の医療用トロリー
13 電気メス装置
14 送気装置(気腹装置)
15 内視鏡光源装置
16 ビデオプロセッサ
17 VTR
18 ガスボンベ
19 患者ベッド
20 内視鏡表示パネル
21 集中表示パネル
22 システムコントローラ
24 リモコン
25 第2の医療用トロリー
26 内視鏡光源装置
27 ビデオプロセッサ
28 中継ユニット
29 ケーブル
30 患者
31 第1の内視鏡
31a 第1のカメラヘッド
32 第2の内視鏡
32a 第2のカメラヘッド
33 集中操作パネル
35 内視鏡表示パネル
38 通信ケーブル
39 映像ケーブル
40 トロリー棚
41 トロリートッププレート
42 トロリー棚
43 トロリートッププレート
50 マイク
51 通信I/F
52 ディスプレイI/F
53 集中操作パネルI/F
54 リモコンI/F
55 CPU
56 音声認識回路
57 音声合成回路
58 スピーカ
59 メモリ
60 プリンタ
61 超音波観察装置
62 VTR
63 シェーバ
64 ポンプ
65 超音波処理装置
66 ルームカメラ
70 ネットワーク回線
71 セキュリティサーバ
72 インターネット
101(101a,101b) IPパケット化部
102(102a,102b) 音声エンジン
103(103a,103b) 音響モデル
104(104a,104b) 言語モデル
105(105a,105b) 受信部

Claims (13)

  1. 音声が入力される音声入力手段と、
    前記音声入力手段により入力された前記音声を認識して、該音声を文字列化する音声文字列化手段と、
    前記音声文字列化手段により文字列化した情報である音声文字列化情報を含む送信情報を送信する送信手段と、
    前記送信手段により送信された前記送信情報を受信する受信手段と、
    前記受信した前記送信情報のうち前記音声文字列化情報を表示する表示手段と、
    を備えることを特徴とする医療支援システム。
  2. 前記送信手段は、前記音声文字列化情報と共に、前記音声入力手段により入力された前記音声に基づく音声情報を送信することを特徴とする請求項1に記載の医療支援システム。
  3. 前記医療支援システムは、さらに、撮像手段を備え、
    前記送信手段は、前記音声文字列化情報と共に、前記撮像手段で撮像した撮像画像を送信し、前記表示手段は、該撮像画像を表示することを特徴とする請求項1に記載の医療支援システム。
  4. 前記撮像手段は、内視鏡、被写体を撮影するカメラ、及び風景を撮影するカメラのうち少なくともいずれか1つであることを特徴とする請求項3に記載の医療支援システム。
  5. 前記表示手段は、前記音声文字列化情報を当該表示手段の所定の表示領域に表示させ、該表示領域は、該表示領域を越える音声文字列化情報を表示させるスクロール手段を有していることを特徴とする請求項1に記載の医療支援システム。
  6. 前記医療支援システムは、さらに、
    前記音声文字列化情報のうち所定の箇所にマーキングするマーキング手段と、
    前記表示手段に前記音声文字列化情報を表示させる場合、前記マーキングされた箇所に相当する部分にマークを表示させるマーク表示手段と、
    前記表示手段に表示された前記音声文字列化情報のうち前記マークの表示された前記音声文字列化情報を検索するマーキング検索手段と、
    を備えることを特徴とする請求項1に記載の医療支援システム。
  7. 前記医療支援システムは、さらに、
    前記表示手段に表示された前記音声文字列化情報のうち所定の文字列を検索する文字列検索手段と、
    を備えることを特徴とする請求項1に記載の医療支援システム。
  8. 前記医療支援システムは、さらに、
    医療に関する語彙である医療関連語彙が格納されている医療関連語彙格納手段と、
    前記医療関連語彙手段に格納されている前記医療関連語彙に基づいて、前記音声文字列化手段により文字列化された前記音声文字列化情報から該医療関連語彙を抽出する医療語彙抽出手段と、
    を備えることを特徴とする請求項1に記載の医療支援システム。
  9. 音声が入力される複数の音声入力手段と、
    前記音声入力手段により入力された前記音声を認識して、該音声を文字列化する音声文字列化手段と、
    前記音声入力手段と同数の撮像手段と、
    前記音声文字列化手段により文字列化した情報である音声文字列化情報と、前記撮像手段で撮像した撮像画像とを含む送信情報を送信する送信手段と、
    前記撮像手段のうちいずれかを選択する選択手段と、
    前記送信手段により送信された前記送信情報を受信する受信手段と、
    前記受信手段により受信した前記送信情報に含まれる前記撮像画像のうち、前記選択手段により選択された撮像手段により撮像された該撮像画像を表示する表示手段と、
    を備える医療支援システム。
  10. 前記表示手段は、前記複数の音声入力手段により取得された音声に対応する前記音声文字列化情報を時刻情報とともに時系列で表示させることを特徴とする請求項9に記載の医療支援システム。
  11. 遠隔地から医療行為を支援する医療支援方法において、
    音声を入力し、
    前記音声を認識して、該音声を文字列化し、
    前記文字列化した情報である音声文字列化情報を含む送信情報を送信し、
    前記送信された前記送信情報を受信し、
    前記受信した前記送信情報のうち音声文字列化情報を表示させる、
    ことを特徴とする医療支援方法。
  12. 前記音声文字列化情報と共に、前記入力された音声に基づく音声情報を送信することを特徴とする請求項11に記載の医療支援方法。
  13. さらに、内視鏡、被写体を撮影するカメラ、及び風景を撮影するカメラのうち少なくともいずれか1つで撮影された画像を前記音声文字列化情報と共に送信し、該音声文字列化情報を表示させる場合、該画像も共に表示させることを特徴とする請求項11に記載の医療支援方法。



JP2005036964A 2005-02-14 2005-02-14 医療支援システム Withdrawn JP2006218229A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005036964A JP2006218229A (ja) 2005-02-14 2005-02-14 医療支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005036964A JP2006218229A (ja) 2005-02-14 2005-02-14 医療支援システム

Publications (1)

Publication Number Publication Date
JP2006218229A true JP2006218229A (ja) 2006-08-24

Family

ID=36980919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036964A Withdrawn JP2006218229A (ja) 2005-02-14 2005-02-14 医療支援システム

Country Status (1)

Country Link
JP (1) JP2006218229A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008289725A (ja) * 2007-05-25 2008-12-04 Olympus Corp 内視鏡装置
JP2013150315A (ja) * 2011-12-20 2013-08-01 Honeywell Internatl Inc 航空機上で捕捉された音声を通信するための方法およびシステム
KR20220059613A (ko) * 2020-11-03 2022-05-10 고려대학교 산학협력단 음성 인식 기반의 수술 영상 가공 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008289725A (ja) * 2007-05-25 2008-12-04 Olympus Corp 内視鏡装置
JP2013150315A (ja) * 2011-12-20 2013-08-01 Honeywell Internatl Inc 航空機上で捕捉された音声を通信するための方法およびシステム
KR20220059613A (ko) * 2020-11-03 2022-05-10 고려대학교 산학협력단 음성 인식 기반의 수술 영상 가공 장치 및 방법
KR102593296B1 (ko) * 2020-11-03 2023-10-23 고려대학교 산학협력단 음성 인식 기반의 수술 영상 가공 장치 및 방법

Similar Documents

Publication Publication Date Title
JP2004181229A (ja) 遠隔手術支援システム及び支援方法
JP4832770B2 (ja) 医療支援システム
CA2484825A1 (en) Medical cockpit system
JPWO2013061857A1 (ja) 内視鏡手術システム
US8154589B2 (en) Medical operation system for verifying and analyzing a medical operation
JP2004275360A (ja) 内視鏡システム
WO2017187676A1 (ja) 制御装置、制御方法、プログラム及び音出力システム
JP2005118232A (ja) 手術支援システム
US20210203875A1 (en) Image recording and reproduction apparatus, image recording method, and endoscope system
US20220008161A1 (en) Information processing device, presentation method, and surgical system
JP2006218229A (ja) 医療支援システム
JP2006221583A (ja) 医療支援システム
JP2007080094A (ja) アプリケーション起動管理システム
JP2005095567A (ja) 内視鏡システム
JP2006218230A (ja) 医療用システム
JP5259692B2 (ja) 内視鏡システム
JP2002233535A (ja) 内視鏡手術システム
JP2006288956A (ja) 手術システム
JP2000245738A (ja) 遠隔手術支援システム
JP4127769B2 (ja) 医療制御システム
Roe et al. A voice-controlled network for universal control of devices in the OR
WO2019097804A1 (ja) 画像記録装置及び画像記録方法
WO2022254840A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2000270318A (ja) 手術情報表示方法
JP2002336183A (ja) 内視鏡システム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513