JP2007029749A - 診察支援システム - Google Patents

診察支援システム Download PDF

Info

Publication number
JP2007029749A
JP2007029749A JP2006261195A JP2006261195A JP2007029749A JP 2007029749 A JP2007029749 A JP 2007029749A JP 2006261195 A JP2006261195 A JP 2006261195A JP 2006261195 A JP2006261195 A JP 2006261195A JP 2007029749 A JP2007029749 A JP 2007029749A
Authority
JP
Japan
Prior art keywords
sound
data
patient
biological
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006261195A
Other languages
English (en)
Inventor
Yasuaki Tamakoshi
泰明 玉腰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2006261195A priority Critical patent/JP2007029749A/ja
Publication of JP2007029749A publication Critical patent/JP2007029749A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】患者の生体音データをデータベース化して保存し、この保存された複数の異なる生体音データを比較することを可能とする。
【解決手段】データ処理端末30aでは、データ処理部38により生体音データが生成されると、制御部31により当該生体音データに生体音IDが付与される。そして、生体音の付帯情報として、患者の患者ID、操作者の操作者ID、使用した集音器の集音器IDが入力部32を介して入力されると、生体音の集音時に制御部31によりその集音日時及び集音器Mの集音位置の情報が取得される。生体音データをDB20に保存する際には、その生体音ID、患者ID、操作者ID、集音器ID、集音日時、集音位置の各情報が対応付けられてDB20の生体音登録テーブル26に書き込まれる。
【選択図】図2

Description

本発明は、患者の診察部位から集音された生体音のデータ処理を行う診察支援システムに関する。
従来から、患者の心肺系の診察を行う際に、マイク等の集音部を備えた聴診器を使って患者の呼吸音又は心音を集音し、デジタル音響信号としてサーバに保存しておくことにより、そのデジタル音響信号を医師や患者が随時再生することができるシステムが開発されている(例えば、特許文献1参照)。
特開2003−93381号公報
上記システムでは、患者が集音してサーバに保存した生体音を医師がサーバから取得して随時聴診することができるが、複数の患者から生体音が次々にサーバに保存されていくと、医師は再生された聴診音がどの患者のものであるか、その判別が困難である。特に、X線撮影等により得られる医用画像のように視認により患者の取り違えを発見しやすいものとは違って、生体音はその音だけでは患者を識別しがたい。
また、聴診による診察は、左胸上部、右胸上部等、複数位置の聴診音に基づいて行われることが一般的である。そのため、1人の患者に対して複数の聴診音が保存されていると、医師はどの聴診音がどの位置で集音されたものであるかを診察時に把握できない。
また、従来の診察では、患者の聴診音からその聴診音が正常であるのか異常であるのか、異常である場合はどのような症状による異常であるのか等、現在の状況のみ診察されており、過去と現在の聴診音を比較して診察するということが考えられていなかった。そのため、同一患者の過去の聴診音が保存されていたとしても、過去と現在の生体音を比較して病気の進行状況や快復状況等を判断することに適したシステムが提案されていなかった。
本発明の課題は、患者の生体音データをデータベース化して保存し、この保存された複数の異なる生体音データを比較することができる診察支援システムを提供することである。
請求項1に記載の発明は、
患者の生体音を集音する集音手段と、患者の生体音データのデータ処理を行うデータ処理端末と、前記データ処理端末に接続されたデータベースとを含んで構成される診察支援システムであって、
前記データ処理端末は、
前記集音手段により集音された生体音の生体音データに、生体音データの付帯情報として患者の識別情報及び前記集音手段により生体音を集音する際に生体音の集音操作を行った操作者の識別情報を対応付けてデータベースに保存させるデータ保存手段と、
聴診対象の患者の識別情報又は操作者の識別情報を入力する入力手段と、
前記入力された患者の識別情報又は操作者の識別情報に対応する生体音データを前記データベースから取得する取得手段と、
を備えることを特徴とする。
請求項1に記載の発明によれば、生体音データの付帯情報として患者の識別情報、操作者の識別情報をデータベースに保存するので、患者の識別情報、操作者の識別情報を元にデータベースから生体音データを取得することが可能となる。これにより、聴診対象の患者を指定することができ、聴診対象の患者が複数いる場合でも、生体音がどの患者のものであるか、どの部位の生体音であるかが判別可能となる。従って、患者の生体音データの取り違えを防ぐことができ、信頼性の高い診察支援を行うことができる。また、生体音データを比較する場合に同一の操作者により集音された生体音データを取得して操作者により異なる操作特性を考慮した診察を行うことができる。
以下、図を参照して本発明の実施の形態を詳細に説明する。
本実施の形態では、生体音データをデータベースに保存する際に、生体音データの付帯情報として、生体音が集音された患者の識別情報、集音を行った操作者の識別情報、集音器の識別情報、集音位置情報及び集音日時情報を対応付けて登録し、生体音の再生時にはこれらの付帯情報を元にデータベースから生体音データを複数読み出して比較可能に生体音データを表示する例を説明する。
なお、生体音としては、例えば患者の胸部における呼吸音、肺音(気管支音等を含む)や心臓の心音、腹部における腸雑音(グル音ともいう。)、手首等における血管のコロトコフ音等が挙げられる。
まず、構成を説明する。
図1に、本実施の形態における診察支援システム100のシステム構成を示す。
図1に示すように、診察支援システム100は、データベース(以下、DB;DataBaseという。)20が接続されたサーバ10と、データ処理端末30a〜30cとが通信ネットワークNを介して相互にデータの送受信が可能に接続されている。なお、図1には、1台のサーバ、1台のDB、3台のデータ処理端末が接続されたシステム構成を示したが、その設置台数及び設置場所は特に限定しない。
サーバ10は、DB20に保存されているデータの入出力管理を行うものである。
DB20は大容量メモリから構成され、DB20には、データ処理端末30a〜30cにおいて集音された生体音のデータ及びその付帯情報が保存される。
図2(a)に、DB20のデータ構成例を示す。図2(a)に示すように、DB20には、生体音データファイル21、特徴量データファイル22、患者情報テーブル23、操作者情報テーブル24、集音器情報テーブル25、生体音登録テーブル26が格納されている。
生体音データファイル21には、生体音データが格納される。各生体音データには、生体音データを個別に識別するための識別情報(以下、生体音IDという。)が付与され、この生体音ID毎に生体音データが格納されている。
特徴量データファイル22には、生体音データから抽出された特徴量データが格納される。特徴量とは、生体音の周波数帯域、振幅、位相、生体音に異常があればその異常生体音の周波数帯域、異常生体音が検出される時間等の生体音に関する各種特徴量のことをいう。各特徴量データには、特徴量データを個別に識別するための識別情報(以下、特徴量IDという。)が付与され、この特徴量ID毎に特徴量データが格納されている。
患者情報テーブル23には、患者に関する情報が格納されている。各患者には患者を個別に識別するための識別情報(以下、患者IDという。)が設定され、この患者ID毎に、患者の氏名、年齢、性別等の各種情報が格納されている。
操作者情報テーブル24には、患者の生体音の集音を行った操作者に関する情報が格納されている。各操作者には操作者を個別に識別するための識別情報(以下、操作者IDという。)が設定され、この操作者ID毎に、操作者の氏名、属性等の各種情報が格納されている。例えば“01”のコードで示される操作者IDであれば操作者はA医師であり、“02”のコードで示される操作者IDであれば操作者はB看護士であり、“99”のコードで示される操作者IDであれば操作者は患者自身であるといったように、操作者IDが設定されている。
なお、操作者が患者自身であることを示すコード(上記例では“99”のコード)の場合、操作者の氏名、属性等の操作者情報を格納せず、患者情報テーブル23から必要な情報を得るようにしてもよい。また、患者情報テーブル23と、操作者情報テーブル24とを一体化した人物テーブルを設け、当該人物テーブルに人物の識別情報として人物ID、その人物の氏名、医師か看護士か技師か患者かといった人物の属性等の各種情報を格納してもよい。この場合、後述する生体音登録テーブル26の患者IDと操作者IDには、人物テーブルに登録された人物IDが格納されることとなる。
集音器情報テーブル25には、生体音を集音した集音器に関する情報が格納されている。各集音器には集音器を個別に識別するための識別情報(以下、集音器IDという。)が設定され、この集音器ID毎に、集音器のシリアル番号、メーカー名等の各種情報が格納されている。
生体音登録テーブル26は、集音された生体音の付帯情報が登録されたテーブルであり、図2(b)に示すように、生体音IDに対応付けて、その生体音IDで示される生体音データから抽出された特徴量データの特徴量ID、生体音が集音された患者の患者ID、集音を行った操作者の操作者ID、集音に用いた集音器の集音器ID、集音が行われた集音日時、患者の身体のどの位置で集音されたのかを示す集音位置(例えば、xyz座標で示される。)の各情報が格納される。
なお、特徴量IDは、生体音IDに対応する特徴量データファイル22の特徴量IDが格納される。また、患者IDは、患者情報テーブル23に登録された患者IDの何れかが格納され、操作者IDは操作者情報テーブル24に登録された操作者IDの何れかが格納される。同様に、集音器IDは、集音器情報テーブル25に登録された集音器IDの何れかが格納される。
また、本実施の形態では、集音位置情報をxyz座標で示す例を説明するが、集音された位置が判別できるのであればこれに限らず、部位を示す情報(例えば、「胸部正面」、「胸部背面」、「腹部」、「腰部」等)と、その部位におけるさらに詳細な位置を示す情報(例えば、「上右部」、「下左部」、「下右部」等)とにより表現することとしてもよい。また、DB20に集音日ID毎に部位を示す情報とその部位における詳細位置情報とを集音位置を識別するための集音位置IDに対応付けて登録した集音位置テーブルを別に設け、生体音登録テーブル26には、集音位置情報の代わりに集音位置IDを登録するようにしてもよいし、他の形態であってもよい。
図2(b)で示す例では、生体音ID“000100”の生体音データについて、その生体音データから特徴量データ“a1”、“a2”、“a3”が抽出されており、集音が行われた患者の患者IDは“2004”、操作者の操作者IDは“02”、集音器の集音器IDは“01”、集音日時は“2003.7.15 15:17:21”、集音位置は“(x、y、z)=(300、400、50)”の位置であることが登録されている。
次に、データ処理端末30a〜30cについて説明する。
データ処理端末30a〜30cは、患者から集音された生体音のデータをデータ処理して音再生又はその時間波形を表示する端末装置である。本実施の形態では、データ処理端末30a〜30cは、携帯端末であるとして説明するが、固定的に設置されるコンピュータ端末装置であってもよい。
図3及び図4を参照して、データ処理端末30a〜30cの構成について説明するが、データ処理端末30a〜30cは外観や応用機能が異なってもその基本構成は同一であるので、データ処理装置30aを代表としてその構成説明を行う。
図3は、データ処理端末30aの外観図である。
図3に示すように、データ処理端末30aは、集音器M、聴診器Sと接続される。
図4に、データ処理端末30aの内部構成を示す。
図4に示すように、データ処理端末30aは、制御部31、入力部32、表示部33、通信部34、RAM(Random Access Memory)35、記憶部36、I/O(InputOutput)部37、データ処理部38を備えて構成され、I/O部37を介して集音器M、聴診器Sが接続される。
制御部31は、CPU(Central Processing Unit)等から構成され、記憶部36に格納される各種プログラムをRAM35に展開し、当該プログラムとの協働により処理動作を統括的に制御する。なお、このプログラムには、本発明に係るプログラムを内在するものであり、図6に示す生体音保存処理ルーチン、図8に示す生体音再生処理ルーチン等を含む。
制御部31は、生体音保存処理において、データ処理部38により生体音データが生成されると、当該生体音データに生体音IDを付与する。このとき、集音器Mの集音日の情報を取得するとともに、生体音の集音日時の情報を取得する。
集音位置の情報は、集音器Mの位置検出部m2から入力された角加速度及び加速度の検出信号に基づいて、当該検出信号に基づいて集音器Mの集音位置を算出することにより取得される。以下、図5を参照して、集音位置の検出方法について説明する。集音位置の検出では、まず初期位置の設定を行う。例えば、図5に示すように、集音を行う前に予め設定された初期位置(ここでは、患者の鎖骨の間を初期位置とする。図5に示すQの位置)に集音器Mを接触させ、接触された位置における角速度及び加速度の検出信号を集音器Mから取得する。そして、この検出信号が得られた位置を初期位置つまりxyz座標の原点に設定する。初期位置を設定後は、集音器Mから入力される角加速度及び加速度の検出信号に基づいて、初期位置からどれだけ移動したのかその相対的な位置を示すxyz座標値を算出し、集音器Mの集音位置情報とする。すなわち、集音器Mの位置検出部m2、制御部31により、位置検出手段を実現することができる。
また、制御部31は、クロック信号を利用した計時機能を有し、当該計時機能により生体音データが生成された日時を計時して、集音日時の情報を取得する。すなわち、制御部31により計時手段を実現することができる。
制御部31は、データ処理部38により生成された生体音データをサーバ10を介してDB20に保存させる。データ保存の際には、生体音の付帯情報として入力部32を介して入力された患者ID、操作者ID、集音器IDとともに、取得された集音日時、集音位置の各種情報を生体音IDに対応付けて生体音登録テーブル26に書き込む。すなわち、生体音保存処理プログラムに従って制御部31が生体音データ及びその付帯情報をDB20に保存することにより、データ保存手段を実現することができる。
また、生体音再生処理では、入力部32を介して入力された患者ID、操作者ID等の検索キーワードを元にDB20から該当する生体音データを検索して取得する。すなわち、生体音再生処理プログラムに従って制御部31が生体音データをDB20から取得することにより、取得手段を実現することができる。
入力部32は、数字キーや文字キー、各種機能キー等のキー群や、表示部33と一体となったタッチパネルを備えて構成され、操作されたキーに対応する操作信号を制御部31に出力する。すなわち、入力部32を介して生体音の付帯情報としてDB20に登録する患者ID、操作者ID等を入力することにより、入力手段を実現することができる。
表示部33は、LCD(Liquid Crystal Display)を備えて構成され、生体音データの時間波形や各種操作画面、制御部31による処理結果等の各種表示情報を表示する。すなわち、表示部33により生体音表示手段、比較結果表示手段を実現することができる。
通信部34は、携帯電話やPHS(Personal Handy-phone System)等の通信端末を接続するためのインターフェイスやモデム、通信制御部等を備えて構成され、通信時には、通信制御部により通信端末の通信動作を制御して通信ネットワークN上の外部機器とデータの送受信を行う。なお、通信端末を用いずに無線LAN(Local Area Network)カードを備えて通信を行うこととしてもよい。
RAM35は、制御部31によって実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。
記憶部36は、半導体メモリ等から構成され、システムプログラムの他、生体音保存処理プログラム、生体音再生処理プログラム及び各プログラムで処理されたデータ等を記憶する。
I/O部37は、データ処理端末30aと集音器M及び聴診器Sとを接続するためのインターフェイスであり、集音器Mから入力された生体音の音信号をデータ処理部38へ送信し、データ処理部38から入力されたアナログ音信号を聴診器Sに送信する。なお、I/O27とデータ処理部38とは複線接続されており、信号の同時往復送信が可能である。
データ処理部38は、I/O部37を介して集音器Mから入力されたアナログ音信号を、所定のサンプリング周波数でサンプリングし、デジタル生体音データを生成する。また、制御部31からの指示に応じて再生対象の生体音データをアナログ音信号に変換し、I/O37を介して聴診器Sに出力する。なお、データ処理部38は、制御部31からの指示に応じて、I/O部37を介して入力された音信号を増幅して聴診器Sに送信することも可能である。
また、データ処理部38は、得られた生体音データに対して生体音からノイズを除去するフィルタ処理、生体音の周波数スペクトルの時間波形データから正常な生体音と異常な生体音とを分離するFFT(Fast Fourier Transform)処理、生体音データの時間波形から生体音の特徴量データを抽出する特徴量抽出処理等の各種データ処理を行う。
肺音を例とすると、肺音は正常な呼吸音と異常が見られる副雑音とに分類され、副雑音としては、水泡音、捻髪音、笛音(ラ音)、いびき音等が挙げられる。
FFT処理では、肺音の時間波形データをFFT処理することにより振幅スペクトル、位相スペクトル、パワースペクトルを算出し、当該パワースペクトルに対して算出された局所分散値が予め設定されている閾値(例えば、連続性ラ音を判定するための閾値)を超えていない場合は、振幅スペクトルを正常肺音のものと分別し、閾値を超えた場合は当該振幅スペクトルを連続性ラ音のものと分別する。このように分別された振幅スペクトルに対して逆FFT処理を施すことにより、正常肺音に対応する時間波形データと連続性ラ音に対応する時間波形データとを得ることができる。
また、特徴量抽出処理では、上記FFT処理において分別された正常生体音の時間波形データ、或いは生体音にラ音等の異常が見られる場合はその異常生体音の時間波形データから生体音の周波数帯域、呼吸時間、異常生体音が検出される時間等の生体音に関する各種特徴量が抽出される。
なお、データ処理部38は、DSP(Digital Signal Processor)を用いてオンラインでデータ処理するようにしてもよいし、生体音データを一旦RAM35に格納し、その後格納した生体音データをオフラインでデータ処理するようにしてもよい。また、データ処理についても、プログラムを用いてデータ処理を行うようにしてもよいし、ハードウェアを用いて行うようにしてもよい。また、このようなデータ処理の一部又は全部を、データ処理端末30aではなく、サーバ10で処理するようにしてもよい。
集音器Mは、接触検出部m1、位置検出部m2、集音部m3を備えて構成される集音手段であり、操作者により患者の診察部位に接触されると生体音の集音を開始し、その集音された生体音信号をデータ処理端末30aに出力する。
接触検出部m1は、集音器Mが患者の身体に接触したことを検知するためのものであり、この接触検出部m1から出力される検知信号に基づいて集音を開始する開始タイミングが決定される。例えば、接触検出部m1に光学センサ等が設けられ、この光学センサにより集音器Mが患者に接触したことが検知されると、集音部m3により集音が開始される。
位置検出部m2は、集音器Mによる集音位置を検出するためのものであり、集音器Mの角加速度を検出するジャイロセンサ及び集音器Mの移動方向に対する加速度を検出する加速度センサ等を含んで構成される。これらセンサにより検出された角加速度及び加速度の検出信号はデータ処理端末30aの制御部31に出力され、制御部31では、角加速度から移動方位の変化量が算出され、加速度センサで検出された加速度を積算することにより集音器Mの移動速度が算出される。つまり、集音器Mの相対的な位置変化が算出される。
集音部m3は、コンデンサマイク等が適用され、患者の生体音を集音してその生体音信号に基づいて生体音を生成する。
聴診器Sは、スピーカs1からなるイヤホンを備えて構成される音再生手段であり、データ処理部38から入力された音信号を再生する。
次に、本実施の形態における動作を説明する。
図6は、データ処理端末30a〜30cにおいて実行される生体音保存処理を説明するフローチャートである。この生体音保存処理は、患者の診察部位から集音された生体音のデータをデータベース化する処理である。
図6に示す生体音保存処理では、まず登録画面331(図7(a)参照)が表示部33に表示され、集音する生体音の登録情報の入力が行われる。図7(a)に示すように、登録画面331には、聴診対象患者の患者IDの入力領域a1と、操作者の操作者IDの入力領域a2と、集音に用いる集音器Mの集音器IDの入力領域a3とが表示される。
この登録画面331において、入力部32を介して患者IDが入力されると(ステップS1)、操作当該入力された患者IDの情報がRAM35に一時記憶される。次いで、操作者IDが入力され(ステップS2)、集音器IDが入力されると(ステップS3)、当該入力された操作者ID及び集音器IDの情報が先に入力された患者IDに対応付けてRAM35に一時記憶される。
なお、患者IDの入力は、DB20から患者情報テーブルの一部又は全部の項目情報(例えば、患者氏名と患者ID等)を取得し、取得された患者情報の一部又は全部(例えば、患者氏名のみ等)を選択肢として表示部33に表示させ、それらの選択肢から選択された患者情報に対応する患者IDを入力することが好ましい。
操作者IDと集音器IDは、各々のデフォルト値が記憶され、特に変更入力が無ければ自動的にデフォルト値が入力される構成が好ましい。なお、このデフォルト値は、例えばデータ処理端末の初期設定時に入力された又はその後に変更設定された値を登録するとよい。
操作者は、各登録情報の入力を終えると、集音器Mを操作して患者の診察部位に集音器Mを接触させる。集音器Mが患者の診察部位に接触されると、集音器Mにより生体音の集音が開始され(ステップS4)、集音された生体音のアナログ信号は、I/O部37を介してデータ処理部38に入力される。データ処理部38では、入力された生体音信号からデジタル生体音データが生成される。なお、入力された生体音信号をすぐ聴診器Sに出力して再生させることとしてもよい。
また、集音が行われている集音器Mの位置として、位置検出部m2により検出された角加速度及び加速度の検出信号がI/O部37を介して制御部31に出力される。制御部31では、角加速度及び加速度の検出信号に基づいて、集音器Mの初期位置からの相対的な位置座標が算出され、当該検出された位置座標が入力された生体音の集音位置情報としてRAM35に一時記憶される(ステップS5)。次いで、制御部31の計時機能により生体音の集音日時の情報が取得され、RAM35に一時記憶される(ステップS6)。
集音を終え、操作者が集音器Mを患者の診察部位から離すと、集音器Mでは集音動作が停止され、データ処理部38では集音が終了した生体音のデータ処理が実行される(ステップS3)。データ処理には、フィルタ処理、FFT処理、特徴量抽出処理等が含まれ、抽出された特徴量データには、制御部31により特徴量IDが付与される。なお、データ処理は保存時に行うこととしてもよいし、保存時にはデータ処理を行わずに未処理の生体音データを一旦DB20に保存し、後にDB20から生体音データを取得して生体音を再生する際にデータ処理を施すこととしてもよい。
生体音データのデータ処理が終了すると、当該生体音データに生体音IDが付与され、図7(b)に示すような保存画面332が表示部33に表示される。この保存画面332では、RAM35に一時記憶されている患者ID、操作者ID、集音器ID、集音位置及び集音日時の各情報が表示される。操作者は、登録内容を確認後、その登録内容でよければOKキーb1を押下する。登録内容に修正事項があれば修正キーb2を押下して、登録内容の修正画面(図示せず)に移行する。
保存画面332においてOKキーb1が押下されると、生体音データ及び生体音データの付帯情報として、RAM35に一時記憶されている患者ID、操作者ID、集音器ID及び制御部31において取得された集音位置、集音日時の各情報が通信部34を介してサーバ10に送信される。サーバ10では、生体音データ、患者ID、操作者ID、集音器ID、集音位置、集音日時の各種情報がDB20に保存される(ステップS8)。なお、生体音データから特徴量データが算出されている場合には、当該特徴量データ及びその特徴量IDの情報を生体音データに対応付けてDB20に保存させることとする。
次いで、入力部32を介して聴診を終了する指示が入力されたか否かが判別される(ステップS9)。聴診終了の指示が入力されず、操作者により診察部位が変更され、集音器Mから新たに角加速度及び加速度の検出信号が入力された場合は(ステップS9:N)、ステップS4に戻って次の診察部位における生体音の集音が繰り返され、聴診終了の指示が入力された場合は(ステップS9;Y)、本処理を終了する。
次に、図8を参照して、データ処理端末30a〜30cにより実行される生体音再生処理を説明する。この生体音再生処理は、生体音を再生する際に、指示に応じて同一患者の異なる複数の生体音データの時間波形を比較可能に表示するとともに、指定された生体音を再生する処理である。
図8に示す生体音再生処理では、まず表示部33に聴診対象の患者を指定するための指定画面333(図9(a)参照)が表示され、聴診対象患者の患者IDの入力が行われる(ステップS101)。
指定画面333に設けられた患者IDの入力領域c1において、入力部32を介して患者IDが入力されると、制御部31によりDB20の生体音登録テーブル26が参照され、入力された患者IDに対応する生体音ID、特徴量ID、操作者ID、集音器ID、集音日時、集音位置の各付帯情報が取得される。そして、この取得された各付帯情報に基づいて、生体音データの検索条件を入力するための検索画面334(図9(b)参照)が表示部33に表示される。
図9(b)に示すように、検索画面334では、検索項目として、生体音の集音操作を行った操作者を元に検索する、集音に用いられた集音器の種類を元に検索する、集音位置、つまり患者の診察部位を元に検索する、集音を行った日時を元に検索する等の各種検索項目d1〜d4が選択可能に表示され、各検索項目の下部には、その検索キーワードとして、操作者ID、集音器ID、集音位置、集音日時を入力するための入力領域d5〜d8が設けられている。
入力部32を介して何れかの検索項目が選択入力され、その検索キーワードが入力されると、制御部31により生体音登録テーブル26において検索キーワードに該当する生体音データの検索が行われる(ステップS103)。例えば、検索項目として操作者の項目が選択され、検索キーワードとして“02”の操作者IDが入力された場合、図5(b)に示す生体音登録テーブル26からは、生体音ID“000100”が検索キーワードに該当する生体音データの生体音IDとして検索される。
検索が終了すると、生体音の比較を行うか否かを問うメッセージが表示部33に表示され、入力部32からの入力指示に応じて生体音の比較が指示されたか否かが判別される(ステップS104)。
まず、生体音の比較が指示された場合について説明する。
生体音の比較が指示された場合(ステップS104;Y)、図10(a)に示すような生体音の選択画面335が表示部33に表示され、比較する複数の生体音の選択が行われる(ステップS105)。選択画面335では、検索された生体音IDに対応付けられている特徴量ID、操作者ID、集音器ID、集音日時、集音位置の各付帯情報が生体音ID毎にリスト表示される。
この選択画面335において、入力部32を介して複数の異なる生体音が選択されると、当該選択された生体音の生体音データがDB20の生体音データファイル21から読み出される。そして、読み出された生体音データに基づいて、生体音の周波数スペクトルの時間波形が比較可能に表示される(ステップS106)。
図10(b)に、比較可能に生体音の時間波形が表示された再生画面336を示す。図10(b)に示すように、再生画面336では、“2003/7/15 15:17:21”の日時に集音された生体音の時間波形f1と、“2003/8/15 8:57:11”の日時に集音された生体音の時間波形f2とが比較可能に縦列して表示されている。各時間波形f1、f2の上部には、その集音日時及び集音位置の情報f11、f21が表示されるとともに、その時間波形の生体音の再生指示を入力するための再生キーf12、f22が表示される。
また、画面下部には、データ処理により生体音から抽出された特徴量のデータ表示への移行を指示するための特徴量表示キーf3が表示される。この特徴量表示キーf3が押下されると、比較表示されている生体音に対応する特徴量データがDB20から読み出され、当該特徴量データが表示部33に表示される。
次いで、再生画面336において、再生キーf12、f22が押下され、生体音の再生が指示されたか否かが判別され(ステップS109)、生体音の再生が指示されると(ステップS109;Y)、再生キーf12、f22により指定された生体音の音信号が聴診器Sに出力され、聴診器Sにおいて生体音が再生されて(ステップS110)、本処理を終了する。
次に、ステップS104において、生体音の比較が指示されなかった場合について説明する。
生体音の比較が指示されなかった場合(ステップS104;N)、図9(b)に示す生体音の検索画面334、図10(a)に示すような生体音の選択画面335が順次表示部33に表示され、時間波形を表示する又は再生する生体音の選択が行われる(ステップS107)。次いで、選択された生体音の生体音データがDB20から読み出され、当該選択された生体音の生体音データがDB20の生体音データファイル21から読み出され、その時間波形が表示部33に表示される(ステップS108)。
この時間波形表示は、図10(b)に示した生体音の再生画面336において表示される時間波形が複数ではなく一つになっただけであるので、特にその画面例は図示しない。すなわち、選択された一の生体音の時間波形、集音日時、集音位置及びその生体音の再生を指示するための再生キーが表示される。
そして、再生キーが押下され、生体音の再生が指示されると(ステップS109;Y)、再生キーにより指定された生体音の音信号が聴診器Sに出力され、聴診器Sにおいて生体音の再生が行われて(ステップS110)、本処理を終了する。
以上のように、生体音データをDB20に保存する際には、生体音データに患者ID、集音日時情報、集音位置情報等の各種情報を対応付けてDB20に格納するので、後に生体音を聴診し直す場合や、操作者と聴診者が異なる場合でも、聴診者は再生する生体音がどの患者のものでどの部位の生体音がいつ集音されたのか等、生体音の属性を容易に把握することができる。
また、生体音データの付帯情報として操作者IDをDB20に保存するので、聴診時に同じ操作者により集音された生体音を比較することにより、操作者の集音操作のくせや集音時間等の操作者により異なる操作特性を考慮した聴診を行うことができる。また、集音器IDを生体音データの付帯情報とするので、同じ集音器Mで集音された生体音を比較することにより、集音器Mの機器部材や構成等の集音器により異なる集音特性を考慮した聴診を行うことができる。
また、生体音の時間波形を表示する際には、複数の異なる生体音の時間波形を比較可能に表示することができるので、過去と現在、左胸部と右胸部、生体音から分別された正常生体音と異常生体音等のような様々な組み合わせで時間波形を比較することができ、聴診者は、病状の進行状況や快復状況、薬の効き具合等の経時的変化を容易に把握することができる。
また、生体音を再生する又はその時間波形を表示する際には、患者ID、操作者ID、集音器ID、集音位置、集音日時を検索キーワードとして、DB20から所望の生体音データを検索することができるので、聴診者は容易な操作で所望の生体音データを取得することができ、聴診時の作業効率を向上させることができる。
なお、本実施の形態における記述内容は、本発明を適用した診察支援システム100の好適な一例であり、これに限定されるものではない。
例えば、上述した説明では、データ処理端末30a〜30cは携帯端末とし、データ処理端末30a〜30cとDB20とは通信ネットワークNを介して接続される構成としたが、データ処理端末30a〜30cを固定設置された端末装置とし、DB20を内蔵する構成としてもよい。また、サーバ10とDB20とは一体構成としたが、サーバ10とDB20とが通信ネットワークNを介して接続された構成であってもよい。
また、生体音再生処理では、一旦DB20内に保存された生体音データを取得してその時間波形を比較可能に表示した例を説明したが、これに限らず、DB20内に保存する前に、生成されたばかりの生体音データの時間波形を比較可能に表示又は再生することとしてもよい。この場合、DB20から生体音データを読み出す時間を省くことができ、リアルタイムに生体音の比較を行うことができる。
また、上述した例では生体音の時間波形を比較可能に表示する例を説明したが、各生体音の違いを視覚的に比較できるのであればこれに限らず、例えば比較対象の生体音データの特徴量を数値化して表示したり、生体音データに基づいて各生体音の特性、推測される病状名等を文章化したメッセージを表示したりしてもよい。
また、時間波形が比較可能に表示された生体音を指定された順に再生して、各生体音を聴覚的に比較できる構成としたが、これに限らず、例えば比較対照として2つの異なる生体音が選択された場合は、比較対照の一方の生体音を聴診器Sの右のイヤホンに、他方の生体音を左のイヤホンに出力して同時に再生し、比較対照の生体音を同時に比較できることとしてもよい。
また、生体音を比較する際には、予め聴診者が比較ポイントを設定しておき、比較対象の時間波形を表示する場合にはその時間波形に対して比較ポイントをマーカー表示し、比較対象の生体音を再生する場合には、生体音を再生中に比較ポイントに達すると比較ポイントであることを示す注意音を再生することとしてもよい。これにより、比較すべきポイントが明確となり、聴診者は診察が容易となる。
また、データ処理部38が複数の生体音データを比較し、周波数分布や音量、音の変化間隔等で相違の大きなポイントを検出し、これを比較結果として比較ポイントを示すこととしてもよい。
その他、本実施の形態における診察支援システム100の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。
本発明を適用した実施の形態の診察支援システム100のシステム構成を示す図である。 (a)はDB20のデータ構成例を示す図であり、(b)は生体音登録テーブル26のデータ構成例を示す図である。 データ処理端末30aの外観図である。 データ処理端末30aの内部構成を示す図である。 集音器Mによる集音位置を説明する図である。 データ処理端末30a〜30cにより実行される生体音保存処理を説明するフローチャートである。 生体音保存処理時に表示部33に表示される画面遷移図である。 データ処理端末30a〜30cにより実行される生体音再生処理を説明するフローチャートである。 生体音再生処理において表示部33に表示される画面遷移図である。 生体音再生処理において表示部33に表示される画面遷移図である。
符号の説明
100 診察支援システム
10 サーバ
20 DB
21 生体音データファイル
22 特徴量データファイル
23 患者情報テーブル
24 操作者情報テーブル
25 集音器情報テーブル
26 生体音登録テーブル
30a〜30c データ処理端末
31 制御部
32 入力部
33 表示部
34 通信部
35 RAM
36 記憶部
37 I/O
38 データ処理部
M 集音器
S 聴診器

Claims (1)

  1. 患者の生体音を集音する集音手段と、患者の生体音データのデータ処理を行うデータ処理端末と、前記データ処理端末に接続されたデータベースとを含んで構成される診察支援システムであって、
    前記データ処理端末は、
    前記集音手段により集音された生体音の生体音データに、生体音データの付帯情報として患者の識別情報及び前記集音手段により生体音を集音する際に生体音の集音操作を行った操作者の識別情報を対応付けてデータベースに保存させるデータ保存手段と、
    聴診対象の患者の識別情報又は操作者の識別情報を入力する入力手段と、
    前記入力された患者の識別情報又は操作者の識別情報に対応する生体音データを前記データベースから取得する取得手段と、
    を備えることを特徴とする診察支援システム。
JP2006261195A 2006-09-26 2006-09-26 診察支援システム Pending JP2007029749A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006261195A JP2007029749A (ja) 2006-09-26 2006-09-26 診察支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006261195A JP2007029749A (ja) 2006-09-26 2006-09-26 診察支援システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003194970A Division JP2005027804A (ja) 2003-07-10 2003-07-10 診察支援システム、データ処理端末及びデータ処理プログラム

Publications (1)

Publication Number Publication Date
JP2007029749A true JP2007029749A (ja) 2007-02-08

Family

ID=37789652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006261195A Pending JP2007029749A (ja) 2006-09-26 2006-09-26 診察支援システム

Country Status (1)

Country Link
JP (1) JP2007029749A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012055354A (ja) * 2010-09-06 2012-03-22 Univ Of Tsukuba 診断装置
JP2012120688A (ja) * 2010-12-08 2012-06-28 Sony Corp 呼吸状態分析装置、呼吸状態表示装置およびそれらにおける処理方法ならびにプログラム
JP2014100282A (ja) * 2012-11-20 2014-06-05 Sharp Corp 生体音収集装置
JP2016030067A (ja) * 2014-07-29 2016-03-07 パイオニア株式会社 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
JP2017000198A (ja) * 2015-06-04 2017-01-05 日本光電工業株式会社 電子聴診システム
JPWO2015145763A1 (ja) * 2014-03-28 2017-04-13 パイオニア株式会社 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
JP2018167062A (ja) * 2018-06-27 2018-11-01 パイオニア株式会社 呼吸音解析装置
JP2019150641A (ja) * 2019-05-17 2019-09-12 パイオニア株式会社 呼吸音解析装置
JP2020163131A (ja) * 2020-03-18 2020-10-08 パイオニア株式会社 呼吸音解析装置
WO2022044132A1 (ja) * 2020-08-25 2022-03-03 日本電気株式会社 分析装置
WO2022181205A1 (ja) * 2021-02-26 2022-09-01 富士フイルム株式会社 電子聴診器、情報処理方法及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012055354A (ja) * 2010-09-06 2012-03-22 Univ Of Tsukuba 診断装置
JP2012120688A (ja) * 2010-12-08 2012-06-28 Sony Corp 呼吸状態分析装置、呼吸状態表示装置およびそれらにおける処理方法ならびにプログラム
JP2014100282A (ja) * 2012-11-20 2014-06-05 Sharp Corp 生体音収集装置
JPWO2015145763A1 (ja) * 2014-03-28 2017-04-13 パイオニア株式会社 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
JP2016030067A (ja) * 2014-07-29 2016-03-07 パイオニア株式会社 呼吸音解析装置及び呼吸音解析方法、並びにコンピュータプログラム及び記録媒体
JP2017000198A (ja) * 2015-06-04 2017-01-05 日本光電工業株式会社 電子聴診システム
JP2018167062A (ja) * 2018-06-27 2018-11-01 パイオニア株式会社 呼吸音解析装置
JP2019150641A (ja) * 2019-05-17 2019-09-12 パイオニア株式会社 呼吸音解析装置
JP2020163131A (ja) * 2020-03-18 2020-10-08 パイオニア株式会社 呼吸音解析装置
JP2022058500A (ja) * 2020-03-18 2022-04-12 パイオニア株式会社 呼吸音解析装置
WO2022044132A1 (ja) * 2020-08-25 2022-03-03 日本電気株式会社 分析装置
WO2022181205A1 (ja) * 2021-02-26 2022-09-01 富士フイルム株式会社 電子聴診器、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JP2007029749A (ja) 診察支援システム
JP2005027804A (ja) 診察支援システム、データ処理端末及びデータ処理プログラム
JP5093537B2 (ja) 音情報判定支援方法、音情報判定方法、音情報判定支援装置、音情報判定装置、音情報判定支援システム及びプログラム
JP4869220B2 (ja) 胎動監視システムおよび胎動監視方法
KR101178867B1 (ko) 원격진료 청진기
CN104305961B (zh) 肠鸣音监测识别系统
WO2013089072A1 (ja) 情報管理装置、情報管理方法、情報管理システム、聴診器、情報管理プログラム、測定システム、制御プログラムおよび記録媒体
US7300407B2 (en) Handheld auscultatory scanner with synchronized display of heart sounds
US20040260192A1 (en) Electrocardiograph and method of displaying electrocardiographic wave
JP5785187B2 (ja) 心音信号のための信号処理装置及び方法
JP2008543478A (ja) 患者の急性瞬時値を測定する装置及び方法
JP2005027751A (ja) 生体音信号処理システム
CN104427942A (zh) 测量辅助装置、测量辅助方法、控制程序和记录介质
JP4900551B2 (ja) 標準的治療プログラムに同期した医療情報処理装置
Riaz et al. A novel embedded system design for the detection and classification of cardiac disorders
JP2008259661A (ja) 検査情報処理システム及び検査情報処理装置
Schmidt et al. Noise and the detection of coronary artery disease with an electronic stethoscope
JP2007233850A (ja) 医療処置評価支援装置、医療処置評価支援システム、及び医療処置評価支援プログラム
US8583207B2 (en) Audio/video recording method and device
JP2006268698A (ja) 類似症例表示装置、及び類似症例表示プログラム
CN113544787A (zh) 医疗操作的记录方法、医疗设备及存储介质
JP7235342B2 (ja) 看護支援装置、看護支援方法、プログラム
WO2009053913A1 (en) Device and method for identifying auscultation location
JP2020081364A (ja) 情報処理装置、システム、情報処理方法、およびプログラム
Szymanowska et al. Development of an electronic stethoscope

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091110