JP2006221117A - 医療支援システム - Google Patents

医療支援システム Download PDF

Info

Publication number
JP2006221117A
JP2006221117A JP2005036965A JP2005036965A JP2006221117A JP 2006221117 A JP2006221117 A JP 2006221117A JP 2005036965 A JP2005036965 A JP 2005036965A JP 2005036965 A JP2005036965 A JP 2005036965A JP 2006221117 A JP2006221117 A JP 2006221117A
Authority
JP
Japan
Prior art keywords
category
endoscope
scope
medical support
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005036965A
Other languages
English (en)
Inventor
Hiroyuki Ushifusa
浩行 牛房
Takechiyo Nakamitsu
竹千代 中満
Masahide Yamaki
正英 八巻
Masaru Ito
賢 伊藤
Kiyoshi Sekiguchi
潔志 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005036965A priority Critical patent/JP2006221117A/ja
Publication of JP2006221117A publication Critical patent/JP2006221117A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

【課題】 本発明では、ディクテーション機能の音声認識率及び音声認識の応答速度の向上させた内視鏡システムを提供する。
【解決手段】 特許請求の範囲の請求項1に記載の発明によれば、音声を取得して、電気信号に変換する音声変換手段と、医療に関する1つ以上のカテゴリーが存在し、該それぞれのカテゴリーに属するデータである属性データを格納する格納手段と、前記カテゴリーが選択されるカテゴリー選択手段と、前記カテゴリー選択手段により選択された前記カテゴリーに属する前記属性データと前記音声変換手段により変換された音声データとを照合する照合手段と、前記照合手段により一致すると判断される場合に前記音声データを文字列に変換する文字列変換手段と、を備える医療支援システムを提供することにより、上記課題の解決を図る。
【選択図】 図3

Description

本発明は、音声認識技術を用いた医療支援システムに関する。
近年では内視鏡を用いた外科手術が行われている。この内視鏡外科手術では、腹腔内を膨張させるために用いる気腹装置や手技を行うための処置装置等を用いて、ある生体組織の切除をしたり、または高周波焼灼装置を用いて止血をしたりする場合、内視鏡で観察しながらこれらの処置を行うことができる。
また、これら複数の各種機器を備えた内視鏡手術システムにおいて、複数の装置を容易に操作、制御することができ、またシステムの操作力性を向上させるため、例えば、表示パネル、遠隔操作装置、集中操作パネル、マイク等の機器を備えている(例えば、特許文献1、特許文献2。)。
表示パネルは、術者が滅菌域で各種機器の設定状態を確認するための表示手段であって、例えば液晶パネルなどである。遠隔操作装置は、術者が滅菌域で操作し各種機器の機能または設定値を変更するための遠隔操作手段であって、例えばリモコン(リモートコントローラ)である。集中操作パネルは、術者の指示に従って看護師等の補助者が非滅菌域で操作し各種機器の機能または設定値を変更するための各機器の操作スイッチをタッチパネルに設けたものである。マイクは、音声で各種機器を操作するために用いられる。
上記の通り、最近では、音声認識によりユーザの発音を認識し、接続機器の操作を行う機能(音声コマンド制御機能)や、術中・検査中に術者が発音した所見内容を音声認識しテキストデータに変換し電子カルテ等の作成に役立てるディクテーション機能を備える内視鏡システムが存在する。
特開2002−336184号公報 特開2003−271176号公報 特開平9−28659号公報
ディクテーション機能によりユーザの発音した内容をテキストデータにする場合、まず、その音声を認識する必要がある。その認識のために、ユーザの発音した波形パターンと予め内視鏡システムに登録してある発音の波形のパターンを比較する必要がある。
しかしながら、発音の個人差、同音異義語、不要な集音による環境ノイズ等により、ディクテーション後に得られたテキストがユーザの意としているものとは限らなかった。また、認識の際の比較において、比較対象となる文言が多いほど、その比較処理にも時間がかかっていた。
上記の課題に鑑み、本発明では、ディクテーション機能の音声認識率及び音声認識の応答速度の向上させた内視鏡システムを提供する。
上記課題は、特許請求の範囲の請求項1に記載の発明によれば、音声を取得して、電気信号に変換する音声変換手段と、医療に関する1つ以上のカテゴリーそれぞれに属するデータである属性データを格納する格納手段と、前記カテゴリーを選択させるカテゴリー選択手段と、前記カテゴリー選択手段により選択された前記カテゴリーに属する前記属性データと前記音声変換手段により変換された音声データとを照合する照合手段と、前記照合手段により一致すると判断される場合に前記音声データを文字列に変換する文字列変換手段と、を備えることを特徴とする医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項2に記載の発明によれば、格納手段に含まれる前記カテゴリーの種類は、体内の器官の種類、内視鏡スコープの種類、症例の種類のうち少なくともいずれか1つが存在することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項3に記載の発明によれば、前記カテゴリー選択手段は、操作パネル、音声、内視鏡スコープに設けられたカメラにあるスイッチ、フットスイッチ、または、リモートコントローラであることを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項4に記載の発明によれば、前記カテゴリー選択手段は、内視鏡スコープの種類を識別し、該内視鏡スコープの種類に応じて前記カテゴリーを選択することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項5に記載の発明によれば、前記カテゴリー選択手段は、前記内視鏡スコープに付与されたRFIDタグと、該RFIDタグを読み取るRFID受信装置とを備え、前記RFID受信装置で読み取った情報に基づいて前記内視鏡スコープの種類を識別することを特徴とする請求項4に記載の医療支援装置を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項6に記載の発明によれば、前記カテゴリー選択手段は、内視鏡スコープの体内へ挿入した部分の長さである挿入スコープ長を計測し、該計測した長さに応じて前記カテゴリーを選択することを特徴とする請求項1に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項7に記載の発明によれば、前記カテゴリー選択手段は、内視鏡形状観測装置を備え、該内視鏡形状観測装置により挿入スコープ長を計測することを特徴とする請求項6に記載の医療支援システムを提供することによって達成できるを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項8に記載の発明によれば、前記カテゴリー選択手段は、前記挿入スコープ長を計測した結果、該挿入スコープ長に対応する位置が前記体内の器官間の境界であると判定した場合には、該両器官のカテゴリーを選択することを特徴とする請求項6に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項9に記載の発明によれば、前記挿入スコープ長に対応する前記カテゴリーは、前記内視鏡を挿入された患者の患者情報に基づいて変更できることを特徴とする請求項6に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項10に記載の発明によれば、前記患者情報は、前記患者の性別及び年齢のうち少なくともいずれか1つに関する情報であることを特徴とする請求項9に記載の医療支援システムを提供することによって達成できる。
上記課題は、特許請求の範囲の請求項11に記載の発明によれば、音声を取得して、該音声を電気信号に変換し、医療に関する1つ以上のカテゴリーそれぞれに属するデータである属性データが格納された格納手段から、いずれかの該カテゴリーを選択し、前記選択された前記カテゴリーの前記属性データと前記電気信号に変換された音声データとを照合し、前記照合の結果、一致すると判断される場合に前記音声データを文字列に変換する
ことを特徴とする医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項12に記載の発明によれば、前記カテゴリーを選択する場合、内視鏡スコープの種類を識別し、該内視鏡スコープの種類に応じて前記カテゴリーを選択することを特徴とする請求項11に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項13に記載の発明によれば、前記内視鏡スコープの種類を識別する場合、前記内視鏡スコープにRFIDタグを付与し、該RFIDタグに格納されている情報をRFID受信装置により読み取ることで、前記内視鏡スコープの種類を識別することを特徴とする請求項12に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項14に記載の発明によれば、前記カテゴリーを選択する場合、内視鏡スコープの体内へ挿入した部分の長さである挿入スコープ長を計測し、該計測した長さに応じて前記カテゴリーを選択することを特徴とする請求項11に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項15に記載の発明によれば、内視鏡スコープの体内へ挿入した部分の長さである挿入スコープ長を計測するのに、内視鏡形状観測装置を用いることを特徴とする請求項14に記載の医療支援方法を提供することによって達成できる。
上記課題は、特許請求の範囲の請求項16に記載の発明によれば、音声を取得して、電気信号に変換する音声変換手段と、医療に関する1つ以上のカテゴリーそれぞれに属するデータである属性データを格納する格納手段と、前記カテゴリーが選択され、該選択された前記カテゴリーに属する前記属性データと前記音声変換手段により変換された音声データとを照合する照合手段と、前記照合手段により一致すると判断される場合に前記音声データを文字列に変換する文字列変換手段と、を備えることを特徴とする医療支援制御装置を提供することによって達成できる。
音声認識の候補フレーズ群を最適なフレーズ群に切り替えることで、状況に応じ可能性のあるフレーズの中からのみ音声認識を行うので、比較するフレーズの数が少なくなり音声認識速度が向上し、かつ比較する候補フレーズが少ないので認識率が向上する。
本発明にかかる医療支援システムは、音声変換手段と、格納手段と、カテゴリー選択手段と、照合手段と、文字列変換手段とを備える。
第1の実施形態にかかる本発明は、次のものである。音声変換手段は、音声を取得して電気信号に変換するものであり、例えば、マイクまたはシステムコントローラ側に設けられているマイクとのインターフェースである。格納手段は、医療に関する1つ以上のカテゴリーそれぞれに属するデータである属性データを格納するものであり、例えば、記憶装置である。このカテゴリーの種類としては、例えば体内の器官の種類、内視鏡スコープの種類、症例の種類等がある。
カテゴリー選択手段は、前記カテゴリーを選択するものであり、例えば、操作パネル、音声、内視鏡スコープに設けられたカメラにあるスイッチ、フットスイッチ、または、リモートコントローラである。
照合手段は、前記カテゴリー選択手段により選択された前記カテゴリーに属する前記属性データと前記音声変換手段により変換された音声データとを照合するものであり、例えば、CPUにより照合処理がされる。文字列変換手段は、前記照合手段により一致すると判断される場合に前記音声データを文字列に変換するものであり、例えば、音声認識回路及びCPUを示す。
第2の実施形態にかかる本発明は、次のものである。前記カテゴリー選択手段は、内視鏡スコープの種類を識別し、該内視鏡スコープの種類に応じて前記カテゴリーを選択する。ここでのカテゴリー選択手段は、例えば、RFIDタグと、その受信装置と、その受信装置で読み取ったデータを判別するCPUで示される。
第3の実施形態にかかる本発明は、次のものである。前記カテゴリー選択手段は、内視鏡スコープの体内へ挿入した部分の長さである挿入スコープ長を計測し、該計測した長さに応じて前記カテゴリーを選択する。ここでのカテゴリー選択手段は、内視鏡形状観測装置と、その内視鏡形状観測装置で得られた結果に基づいて生体内の位置を判定するCPUとで示される。
<第1の実施形態>
本実施形態では、音声認識のための候補フレーズを観察部位の候補フレーズに切り替えることができる内視鏡システムについて説明する。このとき、この切り替えにおいては、ユーザの選択操作により切り替えを行う選択式切り替えタイプ(操作パネル・音声認識・カメラスイッチ・フットスイッチ・リモコン)、及び、順送り切り替えタイプ(操作パネル・音声認識・カメラスイッチ・フットスイッチ・リモコン)について説明する。
図1は、本実施形態における内視鏡手術システムの全体構成を示す。内視鏡手術システム1は、患者30が横たわる患者ベッド19の両側に、第1の内視鏡手術システム2及び第2の内視鏡手術システム3が配置されている。
これらの内視鏡手術システム2,3には、観察、検査、処置、記録などを行う複数の内視鏡周辺機器がそれぞれ第1の医療用トロリー12及び第2の医療用トロリー25に搭載されている。また、患者ベッド19の周辺には、可動スタンドが配置され、その可動スタンドには内視鏡表示パネル20が搭載されている。
第1の医療用トロリー12には、最上段の天板のトロリートッププレート41、中段に設けられたトロリー棚40、最下段の底板部から構成されている。トロリートッププレート41には、内視鏡表示パネル11とシステムコントローラ22が配置されている。トロリー棚40にはVTR17、ビデオプロセッサ16、内視鏡光源装置15が配置されている。底板部には、送気装置(気腹装置)14、電気メス装置13が配置されている。また、第1の医療用トロリー12のアーム部には、集中操作パネル33、集中表示パネル21が配置されている。また、第1の医療用トロリー12には、例えば不図示の超音波観測装置、またはプリンタ等を搭載しても良い。
集中操作パネル33は、非滅菌域に配置され看護師等が各医療機器の操作を集中して行うものであって、図示しないマウスとタッチパネル等のポインティングデバイスを有したものであり、医療機器を集中管理・制御・操作するものである。
それぞれの医療機器は、図示しないシリアルインターフェイスケーブルを介してシステムコントローラ22と接続され、双方向通信を行うことができる。また、システムコントローラ22には、マイク50を接続接続することができる。
システムコントローラ22は、マイク50から入力された音声を後述する音声認識回路46及びCPU55(図2参照)により認識する。そして、その音声を認識後にシステムコントローラ22は、術者の音声により各機器を制御、もしくは認識結果をテキストとして表示したり、出力したりすることができる。
内視鏡光源装置15は、照明光を伝送するライトガイドケーブルを介して第1の内視鏡31に接続されている。内視鏡光源装置15の照明光は、第1の内視鏡31のライトガイドに供給されると、この第1の内視鏡31の挿入部が刺入された患者3の腹部内の患部等を照明する。
この第1の内視鏡31の接眼部には、撮像素子を備えた第1のカメラヘッド31aが装着されている。第1のカメラヘッド31a内の撮像素子を用いて、第1の内視鏡31の観察光学系による患部等の光学像が撮像される。そうすると、その撮像した光学像データがカメラケーブルを介してビデオプロセッサ16に伝送される。その光学像データはビデオプロセッサ16内の信号処理回路で信号処理されて、映像信号が生成される。そして、その映像信号がシステムコントローラ22を介して内視鏡表示パネル11に出力されて、内視鏡表示パネル11に患部等の内視鏡画像が表示される。
システムコントローラ22には、図示しないMO等の外部媒体記録装置が内蔵されている。これにより、システムコントローラ22は、外部記録媒体(MO)に記録された画像を読み出して、内視鏡表示パネル11に出力して表示させることができる。また、システムコントコーラ22には、図示しない病院内に設けられたネットワーク(院内ネット)と図示しないケーブルで接続されている。これにより、システムコントローラ22は、院内ネット上の画像データ等を取得して第1の内視鏡表示パネル11に出力して表示させることができる。
気腹装置14には、例えばCO2等のガスボンベ18が接続されている。そして、この気腹装置14から患者30に延びた気腹チューブ14aを介して患者30の腹部内にCO2ガスを供給できる。
第2の医療用トロリー25には、最上段の天板のトロリートッププレート43、中段に設けられたトロリー棚42、最下段の底板部から構成されている。トロリートッププレート43には、内視鏡表示パネル35と中継ユニット28が配置されている。トロリー棚42にはVTR62、ビデオプロセッサ27、内視鏡光源装置26が配置されている。底板部には、その他の医療機器、例えば、超音波処置装置、砕石装置、ポンプ、シェーバ等が搭載されている。それぞれの機器は、図示しないケーブルで中継ユニット28に接続され、双方向の通信が可能になっている。
内視鏡光源装置26は、照明光を伝送するライトガイドケーブルを介して第2の内視鏡32に接続されている。内視鏡光源装置26の照明光が、第2の内視鏡32のライトガイドに供給される。そうすると、この第2の内視鏡32の挿入部が刺入された患者30の腹部内の患部等を照明する。
この第2の内視鏡32の接眼部には、撮像素子を備えた第2のカメラヘッド32aが装着されている。第2のカメラヘッド32a内の撮像素子を用いて、第2の内視鏡32の観察光学系による患部等の光学像が撮像される。そうすると、その撮像した光学像データがカメラケーブルを介してビデオプロセッサ27に伝送される。その光学像データはビデオプロセッサ27内の信号処理回路で信号処理されて、映像信号が生成される。そして、その映像信号がシステムコントローラ22を介して内視鏡表示パネル35に出力されて、内視鏡表示パネル35に患部等の内視鏡画像が表示される。
システムコントローラ22と中継ユニット28は中継ケーブル29で接続されている。
さらに、システムコントローラ22は、術者が滅菌域から機器操作を行う術者用無線リモートコントローラ(以下、リモコンと記す)24により制御することもできる。また、第1の医療用トロリー12,第2の医療用トロリー25には、その他の機器(例えば、プリンタ、超音波観測装置等)も搭載することができる。
図2は、図1の内視鏡手術システムを構成する各医療機器の接続関係を示すブロック図である。同図に示すように、集中操作パネル33、リモコン24、VTR17、ビデオプロセッサ16、内視鏡光源装置15、気腹装置14、電気メス装置13、プリンタ60(図1では不図示)、及び超音波観察装置61(図1では不図示)はそれぞれ通信ケーブル38によりシステムコントローラ22の通信インターフェース(以下、インターフェースをI/Fと称する)51と接続されている。システムコントローラ22とこれらの各装置間では、データの送受が行われる。
また、VTR17、内視鏡表示パネル11、ビデオプロセッサ16、プリンタ60及び超音波観測装置61は、映像ケーブル39によりシステムコントローラ22のディスプレイI/F52と接続されており、映像信号を送受できるようになっている。
VTR62、ビデオプロセッサ27、内視鏡光源装置26、シェーバ63(図1では不図示)、ポンプ64(図1では不図示)、超音波処理装置65(図1では不図示)は、通信ケーブル38により中継ユニット28に接続されている。中継ユニット28とこれらの各装置間では、データの送受が行われる。また、内視鏡表示パネル35、ビデオプロセッサ27及びVTR62は、映像ケーブル39により中継ユニット28と接続されており、映像信号を送受できるようになっている。
また、中継ユニット28は、ケーブル29(図1参照)によりシステムコントローラ22と接続されている。中継ユニット28は、ケーブル29内の通信ケーブル38を介してシステムコントローラ22の通信I/F51に接続されている。また、中継ユニット28は、ケーブル29内の映像ケーブル39を介してシステムコントローラ22のディスプレイI/F52に接続されている。
システムコントローラ22は、通信I/F51、ディスプレイI/F52の他に、集中操作パネルI/F53、音声合成回路57、CPU55、メモリ59、スピーカ58、音声認識回路56、リモコンI/F54を備えている。
音声認識回路56は、マイク50からの音声信号を認識するものである。リモコンI/F54は、リモコン24とのデータの送受を行うものである。音声合成回路57は、音声を合成しスピーカ58より音声を発せさせるものである。集中操作パネルI/F53は、集中操作パネル33とのデータの送受を行うものである。これら各回路がCPU55により制御されている。
また、システムコントローラ22には外部記録媒体が接続可能となっており、CPU55より画像データを外部記録媒体(図示せず)に記録・再生できる。また、システムコントローラ22は、不図示のネットワークI/Fを備えている。これにより、WAN(ワールドエリアネットワーク)、LAN(ローカルエリアネットワーク)、インターネット、イントラネット、エクストラネット等のネットワークにも接続することができ、これら外部のネットワークとの間でデータの送受ができる。
図3は、音声認識回路56の内部構成を示す。音声認識回路56は、入力音声メモリ70、A/D変換器71、及び候補フレーズ群メモリ56から構成されている。A/D変換器71では、マイク50から入力された音声のアナログ信号をA/D変換してデジタル信号にする。入力音声メモリ70では、A/D変換器71でA/D変換された入力音声データを記憶する。候補フレーズ群メモリ72には、入力された音声を音声認識させるフレーズの候補が記憶されている。CPU55では、入力音声メモリ70に格納されている入力音声データと候補フレーズ群メモリ72に格納されている候補フレーズ音声データとを比較する。
図4は、本実施形態における候補フレーズ群メモリ72に格納される候補フレーズ群の一例を示す。候補フレーズ群メモリ72は、複数の記憶領域が存在し、各記憶領域にはそれぞれ、症例ごとや検査部位ごとの候補フレーズが格納されている。同図では、食道用候補フレーズ群記憶領域81、胃用候補フレーズ群記憶領域82、十二指腸用候補フレーズ群記憶領域83、下部消化管用候補フレーズ群記憶領域84、外科内視鏡用候補フレーズ群記憶領域85がある。
食道用候補フレーズ群記憶領域81には、食道の部位や症例等の食道に関する複数の候補フレーズが記憶されている。胃用候補フレーズ群記憶領域82には、胃の部位や症例等の胃に関する複数の候補フレーズが記憶されている。十二指腸用候補フレーズ群記憶領域83には、十二指腸の部位や症例等の十二指腸に関する複数の候補フレーズが記憶されている。下部消化管用候補フレーズ群記憶領域84には、下部消化管の部位や症例等の下部消化管に関する複数の候補フレーズが記憶されている。外科内視鏡用候補フレーズ群記憶領域85には、外科内視鏡手術等に関する複数の候補フレーズが記憶されている。
なお、候補フレーズ群メモリ72は、物理的に複数存在してもよいし、論理的に複数の領域(1つの記憶装置内で記憶領域を論理的に複数確保し、各記憶領域を記憶手段とする)として存在してもよい。
図5は、図4で説明した各候補フレーズ群の内容の一例を示す。「食道用候補フレーズ群」81aとして、例えば、「咽頭」、「食道静脈瘤」、「バレット食道」、「食道ガン」、・・・、等の食道の部位や症例等の食道に関する候補フレーズが格納されている。そして、「次候補群」というフレーズも格納されている。
「胃用候補フレーズ群」82aとして、例えば、「胃郭部」、「幽門」、「前庭部」、「胃ガン」、・・・、等の胃の部位や症例等の食道に関する候補フレーズが格納されている。そして、「次候補群」というフレーズも格納されている。
「下部消化管用候補フレーズ群」84aとして、例えば、「直腸」、「S字結腸」、「横行結腸」、「直腸ガン」、・・・、等の食道内の部位や症例等の食道に関する候補フレーズが格納されている。
その他「外科内視鏡用候補フレーズ群」85aには、外科内視鏡手術等に関する複数の候補フレーズが記憶されている。
このように、候補フレーズ群メモリ72には、部位や症例等毎に区分けされて候補フレーズ群が格納されており、操作パネル等からユーザが所定の候補フレーズ群を読み出すことをしていることができる。
例えば、図1において、検査開始時、ユーザは操作パネル33上の候補フレーズ群選択スイッチ(図7で後述する「食道用フレーズ群」93、「胃用フレーズ群」94、「十二指腸用フレーズ群」95、「下部消化管用フレーズ群」96に相当する)により、最適な候補群を選択する。この場合、まず食道から観察が始まるので、操作パネル33上で食道用候補フレーズ群を選択する。ユーザの選択に基づいて、CPU55は音声認識回路56内で参照する候補フレーズ群を図5の食道用候補フレーズ群81aに切り替える。
ここで、術者が内視鏡画像を観察しながら、「咽頭」と発音するとマイク50から入力された音声信号が音声認識回路56に渡され、CPU55は食道用候補フレーズ群81aの中から、発音された言葉と最も近いフレーズを音声認識結果として出力する。この場合には例えば「咽頭」が得られる。
認識結果「咽頭」を取得したCPU55は、内視鏡表示パネル11や集中表示パネル21の所定の表示領域(コメント欄)に「咽頭」をテキスト表示させる。この時、レリーズボタンを押すと、意図したコメントを表示したまま各記録装置に内視鏡画像とともにコメントも記録される。また、図示しない電子カルテシステムにも認識されたテキストデータが出力され検査を行いながら、電子カルテの一部が自動的に作成可能となる。
また、検査が進んで内視鏡スコープ先端が胃まで達したことを確認すると、ユーザが候補フレーズ群選択スイッチにより、操作パネル33上で胃用識候補フレーズ群を選択する。ユーザの選択に基づき、CPU55は音声認識回路56内で参照する候補フレーズ群を胃用候補フレーズ群82aに切り替える。
ここで、術者が内視鏡画像を観察しながら、「前庭部」と発音するとマイク50から入力された音声信号が音声認識回路56に渡され、CPU55は胃用候補フレーズ群82aの中から、発音された言葉と最も近いフレーズを音声認識結果として出力する。この場合には例えば「前庭部」が得られる。
認識結果「前庭部」を取得したシステムコントローラ22は、内視鏡表示パネル11や集中表示パネル21の所定の表示領域(コメント欄)に「前庭部」をテキスト表示させる。
それでは、以下に本実施形態の一連の動作について説明する。
図6は、本実施形態における集中操作パネル33の設定画面表示の一例を示す。集中操作パネル33の設定画面では、画面左側の項目(「TVカメラ」、「光源装置」、「気腹装置」、「電気メス」等)を選択することで、その選択した装置等についての設定が可能となっている。例えば、電気メス項目90を選択することで、設定エリア92に電気メス13に関する種々の設定を行うことができる。
さて、集中操作パネル33の「音声認識」91を選択する。すると、図7または図8の画面に遷移する。
図7は、本実施形態における集中操作パネル33に表示される音声認識画面の一例(その1)を示す。このとき、設定エリア92には、「候補フレーズ群選択」欄に「食道用フレーズ群」93、「胃用フレーズ群」94、「十二指腸用フレーズ群」95、「下部消化管用フレーズ群」96が表示され、これらのフレーズ群のうちいずれか1つを選択するようになっている。ユーザは集中操作パネル33のパネル表面を押下して、目的とする候補フレーズ群を選択することができる。同図では、「食道用フレーズ群」93が選択されている。
図8は、本実施形態における集中操作パネル33に表示される音声認識画面の一例(その2)を示す。図8は、図7の表示形態の変形例を示している。図8では、設定エリア92には、「候補フレーズ群選択」欄に「食道用フレーズ群」93、「胃用フレーズ群」94、「十二指腸用フレーズ群」95、「次候補群」ボタン97が表示されている。
図8が図7と異なっているのは「次候補群」ボタン97が表示されていることである。この「次候補群」ボタン97の機能について説明する。例えば、「食道用フレーズ群」93が選択されている状態で「次候補群」ボタン97を押下すると、その次の「胃用フレーズ群」94が選択される。さらに、「次候補群」ボタン97を押下すると、その次の「十二指腸用候補群」95を押下するが選択される。
このように、「次候補群」ボタン97を押下する度に、「候補フレーズ群選択」を上から順次選択を切り替えていくことができる。また、「次候補群」ボタン97を押下する代わりに、音声認識機能を用いて、マイク50に「次候補群」と発音することで、切り替えることもできる。
図9は、本実施形態における選択された候補フレーズ群に基づいて音声認識処理を行うフローを示す。つまり、図7または図8での操作に伴う処理フローを示す。まず、内視鏡スコープが患者の口より体腔内に挿入されて、食道に到達していたとしよう。この場合、図7または図8において、例えば、食道用フレーズ群93が選択されて、内視鏡画像を見ながら医師が食道に関しての診断を口述している。このとき、医師はマイクに向かって発音しているので、その音声がマイク50に入力される(ステップ1、以下ステップをSと称する)。
そうすると、入力された音声はA/D変換器71によりアナログ信号からデシタル信号に変換され(S2)、そのデシタル信号は音声入力メモリ70に格納される(S3)。
次に、CPU55は食道用候補フレーズ群が選択されているかを判断する(S4)。この例では、食道用フレーズ群93が選択されているので、「Y」へ進み、食道用候補フレーズ群と音声入力メモリに格納された音声情報を比較し、音声認識処理を行う(S7)。ここでは、まず、CPU55が候補フレーズ群メモリ72の食道用候補フレーズ群記憶領域81から「食道用候補フレーズ群」81aを読み出す。また、CPUは音声入力メモリから入力音声の音声信号を読み出す。この入力音声信号の波形と「食道用候補フレーズ群」81aのそれぞれのフレーズの音声波形を比較し、その結果、両者の波形が近似するため同じフレーズであると判断した場合、そのフレーズをメモリ59に格納していく。
「候補フレーズ群選択」が切り替えられるまで(この例では食道を通過するまで)、上記の工程(S1→S2→S3→S4→S7→S1→・・・)が繰り返される。
次に、内視鏡スコープが食道を抜けて胃に到達する。そうすると、図7の場合は操作パネルにより、図8の場合は音声で「次候補」と発音することにより、「候補フレーズ群選択」の選択が「胃用フレーズ群」94に切り替わる。
なお、音声で切り替える場合を説明する。食道用候補フレーズ群には、「次候補群」というフレーズが含まれているので、S7において、このフレーズと入力音声とを同様に比較し、その結果、両者の波形が近似するため同じフレーズであると判断した場合、CPU55は、胃用フレーズ群94に切り替える。
胃用フレーズ群94に切り替わった後は、S1→S2→S3と同様の処理がなされ、CPU55は食道用候補フレーズ群が選択されているかを判断する(S4)。この場合、胃用フレーズ群94が選択されているので、S4で「N」へ進む。
次に、CPU55は胃用候補フレーズ群が選択されているかを判断する(S5)。この例では、胃用フレーズ群94が選択されているので、「Y」へ進み、胃用候補フレーズ群と音声入力メモリに格納された音声情報を比較し、音声認識処理を行う(S8)。S8では、S7と同様の処理を行う。
「候補フレーズ群選択」が切り替えられるまで(胃を通過するまで)、上記の工程(S1→S2→S3→S4→S5→S8→S1・・・)が繰り返される。
次に、内視鏡スコープが胃を抜けて十二指腸に到達する。そうすると、図7の場合は操作パネルにより、図8の場合は音声で「次候補」と発音することにより、「候補フレーズ群選択」の選択が「十二指腸用フレーズ群」94に切り替わる。
十二指腸用フレーズ群95に切り替わった後は、S1→S2→S3→4と同様の処理がなされ、CPU55は胃用候補フレーズ群が選択されているかを判断する(S5)。この場合、十二指腸用フレーズ群95が選択されているので、S5で「N」へ進む。
次に、CPU55は十二指腸用候補フレーズ群が選択されているかを判断する(S6)。この例では、十二指腸用フレーズ群95が選択されているので、「Y」へ進み、十二指腸用候補フレーズ群と音声入力メモリに格納された音声情報を比較し、音声認識処理を行う(S9)。S9では、S7と同様の処理を行う。
「候補フレーズ群選択」が切り替えられるまで上記の工程(S1→S2→S3→S4→S5→S6→S9→S1・・・)が繰り返される。
また、図7で「候補フレーズ群選択」の選択が「下部消化管用フレーズ群」96の場合には、S1→S2→S3→S4→S5と同様の処理がなされ、CPU55は十二指腸用候補フレーズ群が選択されているかを判断する(S6)。この場合、下部消化管用フレーズ群95が選択されているので、S6で「N」へ進み、十二指腸用候補フレーズ群と音声入力メモリに格納された音声情報を比較し、音声認識処理を行う(S10)。S10では、S7と同様の処理を行う。
このようにして、認識された入力音声のフレーズは、内視鏡スコープに搭載されたレリーズボタンを押すと、意図したコメントを表示したまま各記録装置に内視鏡画像とともにコメントも記録される。また、図示しない電子カルテシステムにも認識されたテキストデータが出力され検査を行いながら、電子カルテの一部が自動的に作成可能となる。また、メモリ59に格納するようにしてもよい。
なお、候補フレーズ群の切り替えをする際には、上述の通り、操作パネルにより切り替えてもよいし、音声認識により切り替えてもよいし、カメラヘッドに搭載されたカメラスイッチにより切り替えてもよいし、フットスイッチ、またはリモコンにより切り替えても良く、さらにはこれらに限定される必要はない。
以上より、従来は、食道用候補フレーズ群、胃用候補フレーズ群、十二指腸用候補フレーズ群、下部消化管用候補フレーズ群、外科内視鏡用候補フレーズ群が一色端に候補フレーズ群メモリに格納されていたため、入力音声との比較の際、候補フレーズ群メモリ内の全てのフレーズと比較しなければならなかったため、音声認識率の低下及び認識処理の処理速度の低下を招いていた。だが、本実施形態によれば、例えば、食道の検査をしているときは食道用候補フレーズ群の中から候補フレーズを探すことができるので、音声認識率が向上し、認識処理の処理速度も向上する。
<第2の実施形態>
本実施形態では、音声認識の候補フレーズをシステムコントローラ22に接続された内視鏡スコープに応じて切り替える場合について説明する。
図10は、本実施形態における内視鏡スコープが接続されたシステムコントローラを示す。内視鏡スコープ101には、カメラヘッド102が取り付けられており、カメラヘッド102とビデオプロセッサ16とはカメラケーブルで接続されている。また、RFID(Radio Frequency Identification:非接触自動識別)受信装置100は、通信I/F51を介してシステムコントローラ22と接続されている。
カメラヘッド102には、RFID受信装置100により読み出し可能なIDタグが設けられている。このIDタグには、例えばカメラヘッド102を識別するためのIDやシリアルナンバー等のカメラヘッド固有の情報が格納されている。
RFID受信装置100はカメラヘッド102に設けられているIDタグからその固有情報を読み出し、その情報をシステムコントローラ22に送信する。システムコントローラ22では、その固有情報をCPU55により解析され、その解析結果からシステムコントローラ22に接続されているカメラヘッドがどの種類(例えば、外科用内視鏡スコープか消化管用内視鏡スコープか等)であるかを判断する。
そして、CPU55は、その判断に判断に基づいて、そのカメラヘッドに対応する候補フレーズ群に切り替える。例えば、外科用内視鏡スコープであると判断した場合には、CPU55は、音声認識処理において使用する候補フレーズ群を「外科内視鏡用候補フレーズ群」にする。
なお、図10ではRFIDを用いてカメラヘッドを識別したが、これに限定されず、カメラヘッドとシステムコントローラとを有線で接続してもよいし、カメラケーブルを介して映像信号と共にその固有情報を送信するようにしても良い。
以上より、システムコントローラに接続される内視鏡スコープに応じて候補フレーズ群を切り替えることができる。
<第3の実施形態>
本実施形態では、体内に挿入されたスコープの長さ情報からスコープ先端がその部位にあるのかを判定し、その判定結果に基づいて、候補フレーズ群を切り替える場合について説明する。
図11は、本実施形態における内視鏡スコープが接続されたシステムコントローラを示す。内視鏡スコープ111には、カメラヘッド112が取り付けられており、カメラヘッド112とビデオプロセッサ16とはカメラケーブルで接続されている。また、内視鏡形状観測装置110は、通信I/F51を介してシステムコントローラ22と接続されている。
内視鏡形状観測装置110は、磁界を利用しリアルタイムでスコープの挿入形状を3次元的に表示する。内視鏡挿入部に内蔵された複数の磁気コイルから発せられる磁気を内視鏡形状観測装置110が受信し,磁気コイルの三次元的位置を画像化してモニタ表示する原理である(例えば、特許文献3)。
内視鏡形状観測装置110を用いることにより、体内に挿入されたスコープの長さを算出することができる。そして、体内に挿入されたスコープの長さからスコープ先端がどのあたりの器官まで到達しているかを推定することができる。そこで、その挿入されたスコープの長さに応じて候補フレーズを切り替えるようにする。なお、その挿入されたスコープの長さが器官と器官の境目付近(例えば、食道と胃の境目付近)の長さの場合には、両方の候補フレーズ群を音声認識処理での比較の対象とする。
例えば、図1において、検査開始時、内視鏡形状観測装置より挿入長が逐次システムコントローラ22に取得される。システムコントローラ22は取得した挿入長からまだ現在の挿入部位は食道であると判断し、音声認識回路56で参照される候補フレーズ群を食道用候補フレーズ群に切り替える。
ここで、術者が、内視鏡画像を観察しながら「咽頭」と発音すると、マイク50から入力された音声信号が音声認識回路56に渡され、CPU55は食道用候補フレーズ群の中から、発音された言葉と最も近いフレーズを音声認識結果として出力する。この場合にはたとえば「咽頭」が得られる。
認識結果「咽頭」を取得したCPU55は、内視鏡表示パネル11や集中表示パネル21の所定の表示領域(コメント欄)に「咽頭」をテキスト表示させる。この時、レリーズボタンを押すと意図したコメントを表示したまま各記録装置に内視鏡画像とともにコメントも記録される。また、図示しない電子カルテシステムにも認識されたテキストデータが出力され検査を行いながら電子カルテの一部が自動的に作成可能となる。
検査が進んで内視鏡形状観測装置から取得した挿入長から現在の観察部位が食道と胃の境界付近であると判断すると、CPU55は音声認識回路56で参照する候補フレーズ群を食道用候補フレーズ群と胃用候補フレーズ群との集合群とにする。
ここで、術者が内視鏡画像を観察しながら、「噴門」と発話するとマイク50から入力された音声信号が音声認識回路56に渡され、CPU55は食道用候補フレーズ群と胃用候補フレーズ群との集合群の中から、発音された言葉と最も近いフレーズを音声認識結果として出力する。この場合には例えば「噴門」(不図示)が得られる。
また、検査が進んで内視鏡形状観測装置から取得した挿入長から現在の観察部位が胃であると判断すると、CPU55は音声認識回路56で参照する候補フレーズ群を胃用候補フレーズ群に切り替える。
ここで、術者が内視鏡画像を観察しながら、「前庭部」と発話するとマイク50や入力された音声信号が音声認識回路56に渡され、CPU55は胃用候補フレーズ群の中から、発音された言葉と最も近いフレーズを音声認識結果として出力する。この場合には例えば「前庭部」が得られる。
認識結果「前庭部」を取得したシステムコントローラ22は、内視鏡表示パネル11や集中表示パネル21の所定の表示場所(コメント欄)に「前庭部」をテキスト表示させる。
図12は、本実施形態における候補フレーズ群の切り替え処理のフローを示す。まず、内視鏡スコープが患者の口より体腔内に挿入されて、食道に到達していたとしよう。この場合、図7または図8において、例えば、食道用フレーズ群93が選択されて、内視鏡画像を見ながら医師が食道に関しての診断を口述している。このとき、医師はマイクに向かって発音しているので、その音声がマイク50に入力される(S11)。
そうすると、入力された音声はA/D変換器71によりアナログ信号からデシタル信号に変換され(S12)、そのデシタル信号は音声入力メモリ70に格納される(S13)。
次に、CPU55はスコープの挿入された長さに基づいて、スコープ先端の位置が食道であるかを判断する(S14)。スコープ先端の位置が食道の場合には、「Y」へ進み、CPU55は、読み出す対象を食道用候補フレーズ群に切り替えて、食道用候補フレーズ群と音声入力メモリに格納された音声情報を比較し、音声認識処理を行う(S17)。音声認識処理はS7と同様である。スコープ先端の位置が食道にあると判断される間、上記の工程(S11→S12→S13→S14→S17→S1→・・・)が繰り返される。
次に、内視鏡スコープが挿入され続けると、食道と胃境界付近に到達する。そうすると、S14で「N」へ進み、CPU55はスコープの挿入された長さに基づいて、スコープ先端の位置が食道と胃の境界付近であるかを判断する(S14)。スコープ先端の位置が食道と胃の場合には、CPU55は、食道用候補フレーズ群と胃用候補フレーズ群との両方の候補フレーズ群と、音声入力メモリに格納された音声情報とを比較し、音声認識処理を行う(S18)。S18では、S7と同様の処理を行う。
スコープ先端の位置が食道と胃境界付近にあると判断される間、上記の工程(S11→S12→S13→S14→S15→S18→S11→・・・)が繰り返される。
次に、内視鏡スコープが挿入されつづけると、胃に到達する。そうすると、S14で「N」へ進み、CPU55はスコープの挿入された長さに基づいて、スコープ先端の位置が食道と胃の境界付近であるかを判断する(S16)。スコープ先端の位置が胃の場合には、CPU55は、胃用候補フレーズ群と、音声入力メモリに格納された音声情報とを比較し、音声認識処理を行う(S19)。S19では、S7と同様の処理を行う。
スコープ先端の位置が食道と胃境界付近にあると判断される間、上記の工程(S11→S12→S13→S14→S15→S16→S19→S11・・・)が繰り返される。
上記のようにして、スコープ先端の位置に応じて候補フレーズ群を切り替える。
なお、消化管の長さは人によって異なっており、特に、性別、年齢によって異なる。そこで、スコープの挿入された長さに対応する部位の位置までの距離(つまり、同じだけ内視鏡スコープを体内に挿入しても、大人と子供ではその先端部分の到達先の部位が異なっている場合がある。)の設定値を、性別、年齢、身長、体重等に応じて変更することで、適切な候補フレーズに切り替えることができる。この性別、年齢、身長、体重等の情報は、検査前等に操作パネルで入力する事項であり、その入力値に基づいて、スコープの挿入された長さに対応する部位の位置までの距離を変更する。
具体的には、まず、検査前等に操作パネルで入力する。そうすると、その情報を取得したCPUでは、メモリ59に格納されているスコープの挿入された長さに対応する部位の位置までの距離に関する情報を読み出し、その入力値に対応する部位の位置までの距離に設定する。
以上より、体内に挿入されたスコープの長さ情報からスコープ先端がその部位にあるのかを判定し、その判定結果に基づいて、候補フレーズ群を切り替えることができるので、ユーザは切り替え操作を行うことなく、検査画面にのみ集中することができる。また、患者情報に基づいて適切な候補フレーズ群を選択することができる。また、器官と器官との境界であると判定された場合には、その両方の候補フレーズ群を入力音声との比較の対象とするので、確実に音声を認識することができる。
第1の実施形態における内視鏡手術システムの全体構成を示す図である。 図1の内視鏡手術システムを構成する各医療機器の接続関係を示すブロック図である。 音声認識回路56の内部構成を示す図である。 第1の実施形態における候補フレーズ群メモリ72に格納される候補フレーズ群の一例を示す図である。 図4で説明した各候補フレーズ群の内容の一例を示す図である。 第1の実施形態における集中操作パネル33の設定画面表示の一例を示す図である。 第1の実施形態における集中操作パネル33に表示される音声認識画面の一例(その1)を示す図である。 第1の実施形態における集中操作パネル33に表示される音声認識画面の一例(その2)を示す図である。 第1の実施形態における選択された候補フレーズ群に基づいて音声認識処理を行うフローを示す図である。 第2の実施形態における内視鏡スコープが接続されたシステムコントローラを示す図である。 第3の実施形態における内視鏡スコープが接続されたシステムコントローラを示す図である。 第3の実施形態における候補フレーズ群の切り替え処理のフローを示す図である。
符号の説明
1 内視鏡手術システム
2 第1の内視鏡手術システム
3 第2の内視鏡手術システム
11 内視鏡表示パネル
12 第1の医療用トロリー
13 電気メス装置
14 送気装置(気腹装置)
15 内視鏡光源装置
16 ビデオプロセッサ
17 VTR
18 ガスボンベ
19 患者ベッド
20 内視鏡表示パネル
21 集中表示パネル
22 システムコントローラ
24 リモコン
25 第2の医療用トロリー
26 内視鏡光源装置
27 ビデオプロセッサ
28 中継ユニット
29 ケーブル
30 患者
31 第1の内視鏡
31a 第1のカメラヘッド
32 第2の内視鏡
32a 第2のカメラヘッド
33 集中操作パネル
35 内視鏡表示パネル
38 通信ケーブル
39 映像ケーブル
40 トロリー棚
41 トロリートッププレート
42 トロリー棚
43 トロリートッププレート
50 マイク
51 通信I/F
52 ディスプレイI/F
53 集中操作パネルI/F
54 リモコンI/F
55 CPU
56 音声認識回路
57 音声合成回路
58 スピーカ
59 メモリ
60 プリンタ
61 超音波観察装置
62 VTR
63 シェーバ
64 ポンプ
65 超音波処理装置
100 RFID受信装置
101,111 内視鏡スコープ
102,112 カメラヘッド
110 内視鏡形状観測装置

Claims (16)

  1. 音声を取得して、電気信号に変換する音声変換手段と、
    医療に関する1つ以上のカテゴリーそれぞれに属するデータである属性データを格納する格納手段と、
    前記カテゴリーを選択させるカテゴリー選択手段と、
    前記カテゴリー選択手段により選択された前記カテゴリーに属する前記属性データと前記音声変換手段により変換された音声データとを照合する照合手段と、
    前記照合手段により一致すると判断される場合に前記音声データを文字列に変換する文字列変換手段と、
    を備えることを特徴とする医療支援システム。
  2. 格納手段に含まれる前記カテゴリーの種類は、体内の器官の種類、内視鏡スコープの種類、症例の種類のうち少なくともいずれか1つが存在することを特徴とする請求項1に記載の医療支援システム。
  3. 前記カテゴリー選択手段は、操作パネル、音声、内視鏡スコープに設けられたカメラにあるスイッチ、フットスイッチ、または、リモートコントローラであることを特徴とする請求項1に記載の医療支援システム。
  4. 前記カテゴリー選択手段は、内視鏡スコープの種類を識別し、該内視鏡スコープの種類に応じて前記カテゴリーを選択することを特徴とする請求項1に記載の医療支援システム。
  5. 前記カテゴリー選択手段は、前記内視鏡スコープに付与されたRFIDタグと、該RFIDタグを読み取るRFID受信装置とを備え、
    前記RFID受信装置で読み取った情報に基づいて前記内視鏡スコープの種類を識別することを特徴とする請求項4に記載の医療支援装置。
  6. 前記カテゴリー選択手段は、内視鏡スコープの体内へ挿入した部分の長さである挿入スコープ長を計測し、該計測した長さに応じて前記カテゴリーを選択することを特徴とする請求項1に記載の医療支援システム。
  7. 前記カテゴリー選択手段は、内視鏡形状観測装置を備え、該内視鏡形状観測装置により挿入スコープ長を計測することを特徴とする請求項6に記載の医療支援システム。
  8. 前記カテゴリー選択手段は、前記挿入スコープ長を計測した結果、該挿入スコープ長に対応する位置が前記体内の器官間の境界であると判定した場合には、該両器官のカテゴリーを選択することを特徴とする請求項6に記載の医療支援システム。
  9. 前記挿入スコープ長に対応する前記カテゴリーは、前記内視鏡を挿入された患者の患者情報に基づいて変更できることを特徴とする請求項6に記載の医療支援システム。
  10. 前記患者情報は、前記患者の性別及び年齢のうち少なくともいずれか1つに関する情報であることを特徴とする請求項9に記載の医療支援システム。
  11. 音声を取得して、該音声を電気信号に変換し、
    医療に関する1つ以上のカテゴリーそれぞれに属するデータである属性データが格納された格納手段から、いずれかの該カテゴリーを選択し、
    前記選択された前記カテゴリーの前記属性データと前記電気信号に変換された音声データとを照合し、
    前記照合の結果、一致すると判断される場合に前記音声データを文字列に変換する
    ことを特徴とする医療支援方法。
  12. 前記カテゴリーを選択する場合、内視鏡スコープの種類を識別し、該内視鏡スコープの種類に応じて前記カテゴリーを選択することを特徴とする請求項11に記載の医療支援方法。
  13. 前記内視鏡スコープの種類を識別する場合、前記内視鏡スコープにRFIDタグを付与し、該RFIDタグに格納されている情報をRFID受信装置により読み取ることで、前記内視鏡スコープの種類を識別することを特徴とする請求項12に記載の医療支援方法。
  14. 前記カテゴリーを選択する場合、内視鏡スコープの体内へ挿入した部分の長さである挿入スコープ長を計測し、該計測した長さに応じて前記カテゴリーを選択することを特徴とする請求項11に記載の医療支援方法。
  15. 内視鏡スコープの体内へ挿入した部分の長さである挿入スコープ長を計測するのに、内視鏡形状観測装置を用いることを特徴とする請求項14に記載の医療支援方法。
  16. 音声を取得して、電気信号に変換する音声変換手段と、
    医療に関する1つ以上のカテゴリーそれぞれに属するデータである属性データを格納する格納手段と、
    前記カテゴリーが選択され、該選択された前記カテゴリーに属する前記属性データと前記音声変換手段により変換された音声データとを照合する照合手段と、
    前記照合手段により一致すると判断される場合に前記音声データを文字列に変換する文字列変換手段と、
    を備えることを特徴とする医療支援制御装置。


JP2005036965A 2005-02-14 2005-02-14 医療支援システム Withdrawn JP2006221117A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005036965A JP2006221117A (ja) 2005-02-14 2005-02-14 医療支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005036965A JP2006221117A (ja) 2005-02-14 2005-02-14 医療支援システム

Publications (1)

Publication Number Publication Date
JP2006221117A true JP2006221117A (ja) 2006-08-24

Family

ID=36983468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036965A Withdrawn JP2006221117A (ja) 2005-02-14 2005-02-14 医療支援システム

Country Status (1)

Country Link
JP (1) JP2006221117A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008220839A (ja) * 2007-03-15 2008-09-25 Olympus Medical Systems Corp 画像ファイリングシステムおよび画像表示システム
JP2018047067A (ja) * 2016-09-21 2018-03-29 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置
JP2018143559A (ja) * 2017-03-07 2018-09-20 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像表示装置、および表示制御方法
JP2018161377A (ja) * 2017-03-27 2018-10-18 ソニー株式会社 医療用システムの制御装置、医療用システムの制御方法及び医療用システム
JP2020081332A (ja) * 2018-11-22 2020-06-04 富士フイルム株式会社 内視鏡情報管理システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008220839A (ja) * 2007-03-15 2008-09-25 Olympus Medical Systems Corp 画像ファイリングシステムおよび画像表示システム
JP2018047067A (ja) * 2016-09-21 2018-03-29 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置
JP2018143559A (ja) * 2017-03-07 2018-09-20 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像表示装置、および表示制御方法
JP2018161377A (ja) * 2017-03-27 2018-10-18 ソニー株式会社 医療用システムの制御装置、医療用システムの制御方法及び医療用システム
US11471024B2 (en) 2017-03-27 2022-10-18 Sony Corporation Surgical imaging system, image processing apparatus for surgery, and method for controlling an imaging procedure
JP2020081332A (ja) * 2018-11-22 2020-06-04 富士フイルム株式会社 内視鏡情報管理システム
JP7110069B2 (ja) 2018-11-22 2022-08-01 富士フイルム株式会社 内視鏡情報管理システム
JP7420876B2 (ja) 2018-11-22 2024-01-23 富士フイルム株式会社 内視鏡関連業務システム

Similar Documents

Publication Publication Date Title
JP4832770B2 (ja) 医療支援システム
JP4153963B2 (ja) 内視鏡挿入形状検出装置
WO2019198808A1 (ja) 内視鏡観察支援装置、内視鏡観察支援方法、及びプログラム
AU2022204898B2 (en) Automatic endoscope video augmentation
JP5368668B2 (ja) 医用画像表示装置、医用画像表示システム及び医用画像表示システムの作動方法
US20070078328A1 (en) Operation assisting system
JP4274854B2 (ja) 内視鏡挿入形状解析装置
US20050215854A1 (en) Medical procedure support system and method
WO2005077251A1 (ja) 内視鏡及び内視鏡システム
JP7245360B2 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
JPWO2013061857A1 (ja) 内視鏡手術システム
JP2011200283A (ja) 制御装置、内視鏡システム、プログラム及び制御方法
JP2006221117A (ja) 医療支援システム
WO2023095492A1 (ja) 手術支援システム、手術支援方法、及び手術支援プログラム
JP2004275360A (ja) 内視鏡システム
CN116096309A (zh) 腔内机器人(elr)系统和方法
JP2006221583A (ja) 医療支援システム
JP2003084794A (ja) 音声制御システム
JP2018047067A (ja) 画像処理プログラム、画像処理方法および画像処理装置
WO2022163514A1 (ja) 医療画像処理装置、方法及びプログラム
JP2019170667A (ja) 挿管システム
JP2008264313A (ja) 内視鏡システム
JP4727066B2 (ja) 内視鏡システム
JP4464526B2 (ja) 内視鏡装置の操作システム
JP2006218230A (ja) 医療用システム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513