JP7233682B2 - 処理装置、処理方法、システム、およびプログラム - Google Patents

処理装置、処理方法、システム、およびプログラム Download PDF

Info

Publication number
JP7233682B2
JP7233682B2 JP2018212368A JP2018212368A JP7233682B2 JP 7233682 B2 JP7233682 B2 JP 7233682B2 JP 2018212368 A JP2018212368 A JP 2018212368A JP 2018212368 A JP2018212368 A JP 2018212368A JP 7233682 B2 JP7233682 B2 JP 7233682B2
Authority
JP
Japan
Prior art keywords
sound data
file
unit
feature information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018212368A
Other languages
English (en)
Other versions
JP2020078394A (ja
Inventor
英幸 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AIR WATER BIODESIGN INC.
Original Assignee
AIR WATER BIODESIGN INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AIR WATER BIODESIGN INC. filed Critical AIR WATER BIODESIGN INC.
Priority to JP2018212368A priority Critical patent/JP7233682B2/ja
Publication of JP2020078394A publication Critical patent/JP2020078394A/ja
Application granted granted Critical
Publication of JP7233682B2 publication Critical patent/JP7233682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、処理装置、処理方法、システム、およびプログラムに関する。
患者等の体の状態を、体に取り付けたセンサ等を用いてモニタすることができる。
たとえば、特許文献1には、リアルタイムの脳波、過去の脳波、および経時的な脳波振幅のトレンドを表示部に表示させることが記載されている。
また、特許文献2には、生体情報等についてリアルタイム情報とトレンド情報とを並べて表示することが記載されている。
特開2003-284698号公報 特開2016-86972号公報
しかし、センサ等から取得するデータを一括して扱おうとすると、取得されるデータ量が大きくなる場合、データの読み出しや出力に時間がかかるという問題があった。
本発明が解決しようとする課題としては、取得するデータ量が大きくなっても短い時間で処理可能な技術を提供することが一例として挙げられる。
請求項1に記載の発明は、
生体音を含む音データを取得する取得部と、
取得された前記音データの一部を含むファイルを順次生成するファイル生成部と、
前記音データに基づいて、前記生体音の特徴を示す特徴情報を、時刻に関連づけて生成する特徴情報生成部と、
二以上の時刻の前記特徴情報を表示する表示部と、
前記表示部に表示された前記特徴情報のうち、一以上の前記特徴情報の指定を受け付ける入力部と、
指定された前記特徴情報に関連づけられた時刻に基づき、生成された前記ファイルから一以上の前記ファイルを選択し、選択された前記ファイルに含まれる前記音データを出力する出力部とを備える処理装置である。
請求項9に記載の発明は、
請求項1から8のいずれか一項に記載の処理装置と、
前記生体音を検出する検出部と、
前記出力部から出力された前記音データを音として出力する音出力部とを備えるシステムである。
請求項10に記載の発明は、
生体音を示す音データを取得する取得ステップと、
取得された前記音データの一部を含むファイルを順次生成するファイル生成ステップと、
前記音データに基づいて、前記生体音の特徴を示す特徴情報を、時刻に関連づけて生成する特徴情報生成ステップと、
二以上の時刻の前記特徴情報を表示する表示ステップと、
前記表示ステップで表示された前記特徴情報のうち、一以上の前記特徴情報の指定を受け付ける入力ステップと、
指定された前記特徴情報に関連づけられた時刻に基づき、生成された前記ファイルから一以上の前記ファイルを選択し、選択された前記ファイルに含まれる前記音データを出力する出力ステップとを含む処理方法である。
請求項11に記載の発明は、
請求項10に記載の処理方法の各ステップをコンピュータに実行させるプログラムである。
実施形態に係る処理装置の構成を例示するブロック図である。 処理装置を含むシステムの構成を例示するブロック図である。 実施形態に係る処理方法を例示するフローチャートである。 処理装置を実現するための計算機を例示する図である。 ファイル生成部により生成されるデータベースを例示する図である。 複数の時刻の特徴情報を例示する図である。 特徴情報を表示するグラフを例示する図である。 実施例2に係るシステムの構成を例示するブロック図である。 人物特定処理における表示部での表示内容を例示する図である。 部位特定処理における表示部での表示内容を例示する図である。 部位特定処理における表示部での表示内容を例示する図である。 各部位を示す予め定められた記号を例示する図である。 第1記憶媒体において複数の音データのそれぞれを保持する領域の、スタートアドレスを示す管理テーブルを例示する図である。 第1記憶媒体についてのメモリマップである。 実施例2に係るファイル生成部が生成するデータベースを例示する図である。 実施例2において、表示部により特徴情報が表示された画面を例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
以下に示す説明において、処理装置10およびシステム20の各構成要素は、特に説明する場合を除きハードウエア単位の構成ではなく、機能単位のブロックを示している。処理装置10およびシステム20の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。
(実施形態)
図1は、実施形態に係る処理装置10の構成を例示するブロック図である。処理装置10は、取得部110、ファイル生成部130、特徴情報生成部150、表示部170、入力部180、および出力部190を備える。取得部110は、生体音を含む音データを取得する。ファイル生成部130は、取得された音データの一部を含むファイルを順次生成する。特徴情報生成部150は、音データに基づいて、生体音の特徴を示す特徴情報を、時刻に関連づけて生成する。表示部170は、二以上の時刻の特徴情報を表示する。入力部180は、表示部170に表示された特徴情報のうち、一以上の特徴情報の指定を受け付ける。出力部190は、指定された特徴情報に関連づけられた時刻に基づき、生成されたファイルから一以上のファイルを選択し、選択されたファイルに含まれる音データを出力する。以下に詳しく説明する。
処理装置10によれば、取得部110が取得した音データを、ファイル生成部130がたとえば所定の時間毎のファイルに分割する。したがって、各ファイルのデータ量が大きくなりすぎない。そうすることで、音データを再生させようとする時の、プレーヤーへのデータの読み込み等の処理時間を短くすることができる。また何らかの理由で一部のファイルが破損した場合にも、全てのデータの消失を避けることができる。
本図の例において、処理装置10は第1記憶媒体120および第2記憶媒体140をさらに備える。取得部110で取得された音データは一時的に揮発性の第1記憶媒体120に保持される。また、ファイル生成部130で生成されたファイルは不揮発性の第2記憶媒体140に保持される。そして、出力部190は、第1記憶媒体120および第2記憶媒体140の少なくとも一方から、少なくとも指定された特徴情報に関連づけられた時刻に対応する音データを取得し、取得した音データの少なくとも一部を出力する。
図2は、処理装置10を含むシステム20の構成を例示するブロック図である。システム20は、処理装置10と、検出部210と、音出力部230を備える。検出部210は生体音を検出する。音出力部230は出力部190から出力された音データを音として出力する。検出部210で音が音データに変換され、処理装置10で処理される。そして、処理装置10の処理結果に基づき、処理装置10の表示部170における表示がされたり、さらに処理装置10に対するユーザの入力に基づき、音出力部230から音が出力されたりする。
図3は、実施形態に係る処理方法を例示するフローチャートである。本処理方法は、取得ステップS110、ファイル生成ステップS130、特徴情報生成ステップS150、表示ステップS170、入力ステップS180、および出力ステップS190を含む。取得ステップS110では、生体音を示す音データが取得される。ファイル生成ステップS130では、取得された音データの一部を含むファイルが順次生成される。特徴情報生成ステップS150では、音データに基づいて、生体音の特徴を示す特徴情報が、時刻に関連づけられて生成される。表示ステップS170では、二以上の時刻の特徴情報が表示される。入力ステップS180では、表示ステップS170で表示された特徴情報のうち、一以上の特徴情報の指定が受け付けられる。出力ステップS190では、指定された特徴情報に関連づけられた時刻に基づき、生成されたファイルから一以上のファイルが選択される。また、出力ステップS190では、選択されたファイルに含まれる音データが出力される。
本処理方法は、処理装置10により実現することができる。
以上、本実施形態によれば、ファイル生成部130は、取得された音データの一部を含むファイルを順次生成する。したがって、取得するデータ量が大きくなっても各ファイルのデータ量が大きくなりすぎない。ひいては、所望の音データの読み出し等の処理を短い時間で行える。
(実施例1)
実施例1に係る処理装置10は、実施形態に係る処理装置10の構成を有する。また、本実施例に係るシステム20は、実施形態に係るシステム20の構成を有する。
生体音はたとえば心音、呼吸音、および血流音等を含む。検出部210はたとえば対象者の生体に取り付けられ、対象者の生体音を連続的に検出する。たとえば対象者が患者である場合、連続的に生体音をモニタすることにより、様態の急変を察知したり、様態の変化を把握したりすることができる。ここで、生体音の音量の急激な変化等が生じていた場合などは患者の様態に何らかの変化が起きたと考えられ、医者等には、その特の生体音を特に聞いて確認したいというニーズがある。本実施例に係る処理装置10によれば、ユーザが特徴情報を基に特に生体音を聞きたい時刻を指定し、その時刻の呼吸音を容易に聞くことができる。
処理装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、処理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図4は、処理装置10を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、SoC(System On Chip)、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、処理装置10を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードやマウスなどの入力装置や、ディスプレイ装置などの出力装置が接続される。また、入出力インタフェース1100には、ディスプレイ装置と入力装置を兼ねたタッチパネル等が接続されてもよい。
ネットワークインタフェース1120は、計算機1000をネットワークに接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
ストレージデバイス1080は、処理装置10の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
図1および図2を参照し、本実施例に係る処理装置10およびシステム20について以下に詳しく説明する。
検出部210は生体音を検出する。検出部210はたとえば、計算機1000の入出力インタフェース1100に、またはネットワークを通じてネットワークインタフェース1120に、接続されたセンサである。検出部210では生体音を示す電気信号が生成され、音データとして出力される。センサはたとえば、マイクロフォンまたは振動センサである。マイクロフォンは生体音に起因した空気の振動を電気信号に変換する。この電気信号の信号レベル値は、空気の振動の音圧を示す。一方、振動センサは、生体音に起因した媒質(例えば、対象者の体表)の振動を電気信号に変換する。この電気信号の信号レベル値は、媒質の振動変位を示す。たとえば、振動センサがダイヤフラムを備える場合、媒質の振動がダイヤフラムに伝達され、ダイヤフラムの振動が電気信号に変換される。なお、電気信号はアナログ信号であっても良いしデジタル信号であっても良い。また、検出部210はセンサに加え、電気信号を処理する回路等を含んで構成されても良い。電気信号を処理する回路としてはたとえばA/D変換回路およびフィルタ回路が挙げられる。ただし、A/D変換は取得部110で行われても良い。
音データは、電気信号を示すデータであり、検出部210で得られた電気信号の信号レベル値を時系列で示すデータである。すなわち、音データは音波の波形を表す。
取得部110は、生体音を含む音データを検出部210からたとえば連続的に取得する。取得部110で取得された音データは一時的に揮発性の第1記憶媒体120に保持される。第1記憶媒体120はたとえば計算機1000のメモリ1060である。ここで第1記憶媒体120には、音データが時刻と関連づけられた状態で保持される。すなわち、音データを構成する複数の信号レベル値にはそれぞれ時刻が関連づけられる。音データが検出部210からリアルタイムで取得される場合、取得部110が音データの取得時刻をその音データに関連づける。
第1記憶媒体120のうち、取得部110で取得された音データを保持する領域のスタートアドレスは予め定められている。そして、取得部110が音データを取得すると、アドレスがスタートアドレスから順次インクリメントされながら、音声データが第1記憶媒体120に書き込まれる。
ファイル生成部130は、取得された音データの一部を含むファイルを順次生成する。具体的にはたとえば、ファイル生成部130は取得部110に保持された音データの録音時間をモニタし、第1記憶媒体120に保持された音データの録音時間が時間Tに達したとき、ファイルを生成する。ここでファイル生成部130は、第1記憶媒体120に保持された音データのうち録音時刻が早い方から、たとえば時間T分の音データをファイルに含ませる。また、生成されたファイルに含ませた音データを第1記憶媒体120から消去する。そして再度、ファイル生成部130は取得部110に保持された音データの録音時間をモニタする。時間Tは特に限定されないが、5分以上120分以下であることが好ましく、30分以上90分以下であることがより好ましい。時間Tは予め定められた時間であっても良いし、処理装置10のユーザからの入力により定められても良い。
なお、ファイル生成部130で生成される複数のファイルに含まれる音データの録音時間は互いに同じであっても良いし、異なっていても良い。
またファイル生成部130は、ファイルを生成する際、その時点で第1記憶媒体120に保持された全ての音データを含むファイルを生成してもよい。
また、ファイル生成部130は、取得部110に保持された音データの録音時間をモニタする代わりに、取得部110に保持された音データのデータ量をモニタしても良い。その場合、ファイル生成部130は、第1記憶媒体120に保持された音データのデータ量が予め定められた量に達したとき、ファイルを生成する。ここでファイル生成部130は、第1記憶媒体120に保持された音データのうち録音時刻が早い方から、たとえば予め定められた時間分の音データをファイルに含ませてもよいし、予め定められたデータ量分の音データをファイルに含ませても良い。
また、ファイル生成部130は、たとえば処理装置10に対してユーザによる測定終了の操作があったとき、または検出部210等から測定終了を示す信号の入力があったとき、その時点で第1記憶媒体120に保持されている音データの全てを含むファイルを生成しても良い。
以上では、取得部110が、音データを検出部210からリアルタイムで直接取得する例について説明したが、取得部110の取得方法は本例に限定されない。たとえばある程度の長さの音データが予め、処理装置10からアクセス可能な記憶部に記憶されており、取得部110がこの音データを記憶部から読み出すことにより一括で取得してもよい。記憶部はたとえば計算機1000のストレージデバイス1080で実現されてもよいし、処理装置10の内部または外部に設けられたその他の記憶媒体等で実現されても良い。この場合、音データには予め録音時刻が関連づけられている。そして、第1記憶媒体120は、取得した音データを、予め定められた時間分、または予め定められたデータ量分ずつの複数のファイルに分割する。ただし、第1記憶媒体120が取得した音データの録音時間が予め定められた時間以下である場合や、第1記憶媒体120が取得した音データのデータ量が予め定められたデータ量以下である場合には、ファイル生成部130はファイルを生成しなくても良いし、第1記憶媒体120に保持された音データの全てを含む一つのファイルのみを生成してもよい。
ファイル生成部130で生成されたファイルは不揮発性の第2記憶媒体140に保持される。第2記憶媒体140はたとえば計算機1000のストレージデバイス1080である。第2記憶媒体140は、第1記憶媒体120よりもプロセッサ1040からのアクセス速度が遅い記憶媒体である。
また、ファイル生成部130は、ファイルを示す情報と、ファイルに保持された音データの録音開始時刻を示す情報と、ファイルに保持された音データの録音時間とを対応づけたデータベースをさらに生成する。ファイルを示す情報はたとえばファイル名である。
図5は、ファイル生成部130により生成されるデータベースを例示する図である。生成されたデータベースは第1記憶媒体120または第2記憶媒体140に保持される。後述するように出力部190は、このデータベースに基づいて音データを取得し、特定の時刻の音データを出力することができる。
図6は、複数の時刻の特徴情報を例示する図である。取得部110が音データを取得すると、特徴情報生成部150は、音データに基づいて、生体音の特徴を示す特徴情報を生成する。また、各特徴情報は時刻に関連づけられる。生体音が呼吸音を含む場合、特徴情報は、音量、呼吸数、副雑音の有無、副雑音の大きさ、および異常度を示す情報の少なくともいずれかを含む。本図では、各時刻の特徴情報が、音量、呼吸数、副雑音の大きさ、および異常度を示す情報含む例を示している。なお、本図では特徴情報が全ての時刻について同じ種類の情報を含む例を示しているが、特徴情報に含まれる情報の種類は時刻によって異なっていてもよい。
本図では、10秒ごとの特徴情報が生成される例を示しているが、本例に限定されない。たとえば複数の特徴情報に関連づけられた時刻の間隔を時間Tとしたとき、時間Tは1秒以上5分以下であることが好ましく、5秒以上30秒以下であることがより好ましい。時間Tは予め定められた時間であってもよいし、処理装置10のユーザからの入力により定められても良い。また、複数の特徴情報に関連づけられた時刻は、一定間隔であっても良いし、一定間隔でなくても良い。ただし、複数の特徴情報に関連づけられた時刻の間隔は、音データを構成する複数の信号レベル値に関連づけられた時刻の間隔よりも長い。すなわち、特徴情報の数は、音データの信号レベル値の数よりも少なくなる。
特徴情報生成部150はたとえば、算出対象期間中の音データの信号レベル値に基づいて、特徴情報を生成する。取得部110において音データがリアルタイムで取得される場合、算出対象期間は例えば、直近の時間Tの間である。そして、取得部110において音データの取得が継続される間、特徴情報生成部150はたとえば時間Tの間隔で特徴情報を生成し続ける。ここで、時間Tと時間Tとは同じであっても良いし、互いに異なっていても良い。また、取得部110が音データを、記憶部から読み出すことにより取得する場合、特徴情報生成部150はたとえば音データを時間T毎の算出対象期間に分割する。時間Tは特に限定されないが、1秒以上5分以下であることが好ましく、5秒以上30秒以下であることがより好ましい。時間Tは予め定められた時間であってもよいし、処理装置10のユーザからの入力により定められても良い。特徴情報に含まれる情報の種類(音量、呼吸数、副雑音の有無、副雑音の大きさ、および異常度等)によって、異なる時間Tが定められても良い。
各特徴情報に関連づけられる時刻は、算出対象期間に基づいて定められる。たとえば特徴情報生成部150は、算出対象期間の中心時刻、開始時刻、または終了時刻を、その算出対象期間について生成された特徴情報に関連づける。生成された特徴情報は特徴情報記憶部160に保持される。
特徴情報生成部150が特徴情報に含まれる情報として音量を生成する方法の例について以下に説明する。特徴情報生成部150は、算出対象期間中の音データの信号レベル値の、二乗平均平方根であるRMS値を算出する。つまり、算出対象期間中にN個の信号レベル値(x、x、・・・、x)が存在する場合には、特徴情報生成部150は、RMS値=((x +x +、・・・+x )/N)1/2という数式を用いて、RMS値を算出する。その後、特徴情報生成部150は、dB値=20×log10(RMS値)という数式を用いて、RMS値をデシベルという単位で音量を示すdB値に変換する。RMS値およびdB値の少なくとも一方が、音量として用いられる。
次に、特徴情報生成部150が特徴情報に含まれる情報として呼吸数を生成する方法の例について以下に説明する。特徴情報生成部150は、算出対象期間をさらに短い複数の分割期間に分割する。そして、特徴情報生成部150は、上記したのと同様の方法で、各分割期間についてのRMS値を算出する。次いで、特徴情報生成部150は予め定められた閾値に基づいて各分割期間が呼吸中であるか否かを判定する。具体的には、RMS値が閾値以上である場合、その分割期間は呼吸中であると判定される。一方、RMS値が閾値以上である場合、その分割期間は呼吸中でないと判定される。なお、RMS値の代わりにdB値を算出し、呼吸中であるか否かの判定に用いても良い。そして特徴情報生成部150は、呼吸中であると判定された連続する一以上の分割期間を、一まとまりの呼吸区間と特定し、呼吸中でないと判定された連続する一以上の分割期間を、一まとまりの無呼吸区間と特定する。そして、算出対象期間中の呼吸区間と無呼吸区間との切り替わりの数をカウントし、得られた切り替わりの数を1/2倍して算出対象期間中の呼吸数とする。さらに特徴情報生成部150は、算出対象期間中の呼吸数をたとえば1分間あたりの呼吸数に変換し、特徴情報とする。
次に、特徴情報生成部150が特徴情報に含まれる情報として副雑音の有無の情報を生成する方法の例について以下に説明する。特徴情報生成部150は、たとえば算出対象期間中の音データの波形に対してパターンマッチングを行い、導出されたマッチング度合いが予め定められた基準より高い場合、副雑音があると判定する。一方、導出されたマッチング度合いが予め定められた基準以下である場合、副雑音が無いと判定する。パターンマッチングのテンプレートは予め特徴情報生成部150からアクセス可能な記憶部に保持させておくことができる。この記憶部はたとえば、ストレージデバイス1080、および処理装置10の内部または外部に設けられたその他の記憶媒体のうち少なくともいずれかで実現される。
次に、特徴情報生成部150が特徴情報に含まれる情報として副雑音の大きさを生成する方法の例について以下に説明する。特徴情報生成部150は、算出対象期間中の音データにフィルタ処理を施すことにより、副雑音と推定される成分を抽出する。そして、フィルタ処理後のデータについてRMS値およびdB値の少なくとも一方を算出し、副雑音の大きさとする。ここで、フィルタ処理はたとえば、予め定められた周波数帯域の信号成分を透過させるバンドパスフィルタ処理である。なお、特徴情報生成部150は、上記したパターンマッチングで導出されたマッチング度合いを副雑音の大きさとしてもよい。
次に、特徴情報生成部150が特徴情報に含まれる情報として異常度を生成する方法について以下に説明する。異常音(例えば、副雑音)が混入している呼吸音の音量は、異常音の混入に起因して、異常音が含まれていない呼吸音の音量よりも大きくなると考えられる。したがって、音量の変化量に基づいて、異常度を判定できる。すなわち特徴情報生成部150は、算出対象期間をさらに短い複数の分割期間に分割する。そして、特徴情報生成部150は各分割期間について、上記したのと同様の方法でRMS値を算出する。次いで、互いに前後する分割期間の間のRMS値の差を算出する。そして、得られた差の大きさの平均値を、異常度とする。なお、RMS値の代わりにdB値を算出し、異常度の算出に用いても良い。
なお、特徴情報生成部150が特徴情報を生成する方法は上記に限定されない。たとえば、特徴情報生成部150は、算出対象期間中のいずれかの信号レベル値を抽出して特徴情報としても良い。すなわち、複数の特徴情報は、音データから、いくつかの信号レベル値を間引いたものであっても良い。
図1の例において処理装置10は特徴情報記憶部160をさらに備える。特徴情報生成部150で生成された特徴情報は特徴情報記憶部160に記憶される。特徴情報記憶部160はたとえば、ストレージデバイス1080、メモリ1060、および処理装置10の内部または外部に設けられたその他の記憶媒体のうち少なくともいずれかで実現される。
表示部170は、特徴情報記憶部160から二以上の時刻の特徴情報を読み出して表示する。ここで表示部170は二以上の特徴情報を時系列で表示することが好ましい。表示部170はたとえば計算機1000に接続されたディスプレイ装置を用いて実現される。表示部170はたとえばグラフや表で特徴情報を表示することができる。特徴情報を表示する表の例はたとえば図6と同様に示される。
図7は、特徴情報を表示するグラフ510を例示する図である。本図の例においてグラフ510は特徴情報として音量を表示するグラフであり、グラフ510の横軸は時刻であり、縦軸は音量である。ただし、グラフ510は特徴情報として他の種類の情報を表示してもよく、複数種類の情報を同時に表示しても良い。たとえば特徴情報の表示に先立ち、どの種類の情報を表示させるかを選択するための表示がされてもよい。グラフ510の縦軸は情報の種類により切り替えられる。本図の例において、グラフ510には、複数の特徴情報を時刻順に結ぶライン511が表示されている。なお、グラフ510の軸のスケールは、ユーザが必要に応じて拡大または縮小したり、平行移動させたりできてよい。
入力部180は、表示部170に表示された特徴情報のうち、一以上の特徴情報の指定を受け付ける。入力部180はたとえば、計算機1000に接続された入力装置を用いて実現される。たとえば本図の例において、処理装置10のユーザはグラフ510中に表示されたカーソル512を所望の位置に合わせ、特徴情報を指定する旨の操作(たとえば決定ボタンのクリック)を行う。そうすると、入力部180はその時にカーソル512に重っている特徴情報の指定を受け付ける。
また、特徴情報の表示が表で行われる場合、ユーザは、表のうちいずれかの特徴情報を選択して指定することができる。
入力部180が特徴情報の指定を受け付けると、出力部190は、指定された特徴情報に関連づけられた時刻tに基づき、生成されたファイルから一以上のファイルを選択する。そして、選択されたファイルに含まれる音データを出力する。すなわち出力部190は、第1記憶媒体120および第2記憶媒体140の少なくとも一方から、少なくとも指定された特徴情報に関連づけられた時刻tに対応する音データを取得し、取得した音データの少なくとも一部を出力する。
具体的には出力部190は、出力しようとする音データを含むファイルが存在するか否かをファイル生成部130が生成したデータベースに基づいて判定する。そして、出力しようとする音データを含むファイルが存在する場合、第2記憶媒体140からファイルを読み出すことにより音データを取得する。一方、出力しようとする音データを含むファイルが存在しない場合、第1記憶媒体120から音データを取得する。
音出力部230は出力部190から出力された音データを音として出力する。音出力部230は、計算機1000の入出力インタフェース1100に、またはネットワークを通じてネットワークインタフェース1120に、接続された音出力装置であり、たとえばスピーカー、イヤホンまたはヘッドホンである。
出力部190が音データを出力する方法の例について以下に詳しく説明する。出力部190は、データベースの内容に基づき、録音開始時刻が最も遅いファイルの、録音開始時刻から録音時間だけ経過した時刻tを算出する。
時刻tが時刻tより前である場合、出力部190は、出力しようとする音データを含むファイルが存在しないと判定する。そして、出力部190は、第1記憶媒体120から時刻tに対応する部分を始点とした音データを取得し、再生させるよう出力する。そして、音出力部230において、時刻tからの生体音の再生が開始される。
一方、時刻tが時刻tより後である場合、出力部190は、出力しようとする音データを含むファイルが存在すると判定する。そして、データベースを検索し、録音期間に時刻tが含まれるファイルを特定する。各ファイルにおいて録音期間の始めは録音開始時刻であり、録音期間の終わりは録音開始時刻から録音時間だけ経過した時刻である。次いで、出力部190は特定されたファイルを第2記憶媒体140から読み出すことによりそのファイルの音データを取得する。次いで、出力部190は、取得した音データのうち、時刻tに対応する部分を始点とした音データを再生させるよう出力する。そして、音出力部230において、時刻tからの生体音の再生が開始される。
出力部190は、処理装置10に対して音の再生を停止する操作が行われるか、連続する音データが第1記憶媒体120および第2記憶媒体140に存在しなくなるまで、連続して時系列に音データの出力を行う。
出力部190の例に付いて第1例から第3例を挙げて具体的に説明する。第1例から第3例では、データベースが図5に示す内容であり、第1記憶媒体120において音データは、サンプリング周波数8kHz、16bitの条件で保持されているとする。また、時間、分、秒を「時間:分:秒」の形式で表す。
第1例では、時刻tが12:33:50であるとする。ここで、Audio4_1.wavの録音開始時刻である13:13:25から60分経過後の14:13:25が時刻tとして算出される。したがって出力部190は、出力しようとする音データを含むファイルが存在すると判定する。また、出力部190はデータベースを検索し、時刻tである12:33:50のデータが含まれるAudio3_1.wavのファイルを特定して、第2記憶媒体140から読み出す。そして、このファイルの音データのうち、冒頭から20分25秒後の時点以降の音データを出力する。
第2例では、時刻tが14:33:50であるとする。また、第1記憶媒体120において音データを保持する領域のスタートアドレスは04000000hであるとする。本例では、時刻tが時刻tより前であるため、出力しようとする音データを含むファイルが存在しないと判定される。そこで、出力部190は、第1記憶媒体120から時刻tに対応する部分以降の音データを取得し、出力する。具体的には、第1記憶媒体120内に残っている音データの最初のデータは時刻14:13:25のデータである。つまり、第1記憶媒体120内に残っている音データのうち、先頭から20分25秒後が時刻tに対応する。ここで20分25秒分のデータ数は、2×8000×(20×60+25)=19600000であり、すなわち012B1280hByteで表される。したがって、出力すべき音データの開始アドレスは04000000h+012B1280h=052B1280hと算出される。したがって、出力部190は、アドレス052B1280hに保持されているデータから出力を開始する。
第3例では、ファイル化されている音データの最後の部分を再生している場合について説明する。本例では、Audio4_1.wavのファイルの最後の58分30秒の部分を再生しているとする。このとき、ファイルの音データの残りは1分30秒分であるが、第1記憶媒体120には、これに続く音データが残っている。そこで、出力部190はファイルの残りの再生時間が予め定められた時間(たとえば1分間)未満になった時点で、出力部190のバッファの最後の部分に第1記憶媒体120上の音データを追加する。こうすることで、切れ目無く音が再生される。なお、再生中の音データに続く音データを含むファイルが別にある場合には、出力部190はデータベースを再度検索し、そのファイルを読み出す。そして、読み出したファイルの音データを出力部190のバッファの最後の部分に追加すればよい。
なお、出力部190が音データを出力する間、表示部170は特徴情報に代えて、または加えて、出力されている音データの音波波形を表示しても良い。
本実施例に係る処理方法は、実施形態に係る処理方法の構成を有する。図3を参照し、本実施例に係る処理方法の例について、以下に説明する。なお、以下では取得部110がリアルタイムで音データを取得する例について説明するが、本実施例は以下の例に限定されない。
まず、検出部210が対象者の生体に取り付けられる。そして、ユーザの操作に基づき生体音の検出が開始されると、取得部110が取得ステップS110を開始する。すなわち、取得部110が検出部210からの音データの取得を開始する。音データの取得は、以下のステップの実行中にも継続して行われて良い。
取得部110が音データの取得を開始すると、ファイル生成部130がファイル生成ステップS130を開始する。ファイル生成ステップS130では、ファイル生成部130が上記したように第1記憶媒体120の音データをモニタし、順次ファイルを生成する。
また、取得部110が音データの取得を開始すると、特徴情報生成部150が特徴情報生成ステップS150を開始する。特徴情報生成ステップS150では、上記したように特徴情報生成部150が特徴情報を順次生成する。
特徴情報生成ステップS150で特徴情報が生成され、特徴情報記憶部160に保持されると、表示部170が表示ステップS170を行う。すなわち、表示部170は生成された特徴情報を特徴情報記憶部160から読み出して表示させる。次いで、入力ステップS180において入力部180が特徴情報の指定を受け付ける。ただし、表示部170は、処理装置10に対し予め定められた操作が行われた時に、表示ステップS170を行ってもよい。
そして、入力部180が特徴情報の指定を受け付けると、出力部190は出力ステップS190を行う。すなわち、上記した通り、出力部190は時刻tからの音データを出力する。
なお、取得部110による音データの取得、ファイル生成部130によるファイルの生成、および特徴情報生成部150による特徴情報の生成は、ユーザによる所定の終了操作が行われるまで継続される。
本実施例によれば、実施形態と同様、ファイル生成部130は、取得された音データの一部を含むファイルを順次生成する。したがって、取得するデータ量が大きくなっても各ファイルのデータ量が大きくなりすぎない。ひいては、所望の音データの読み出し等の処理を短い時間で行える。
くわえて、本実施例によれば、ファイル生成部130がファイルを示す情報と、ファイルに保持された音データの録音開始時刻を示す情報と、ファイルに保持された音データの録音時間とを対応づけたデータベースを生成する。したがって、所望の時刻の音データが容易に出力される。
(実施例2)
図8は、実施例2に係るシステム20の構成を例示するブロック図である。本実施例に係る処理装置10およびシステム20は、以下に説明する点を除いて実施例1に係る処理装置10およびシステム20とそれぞれ同じである。
本実施例において、システム20は複数の検出部210を備える。そして、生体の複数の部位で生体音が検出されるよう、複数の検出部210は互いに異なる位置に配置される。
本実施例において取得部110は、生体の複数の部位で得られた生体音を示す複数の音データを取得する。そしてファイル生成部130は、部位別にファイルを生成する。表示部170は、複数の部位を示す情報を表示する。入力部180は、表示部170に表示された複数の部位を示す情報のうち一以上の部位を示す情報の指定をさらに受け付ける。そして出力部190は、指定された部位を示す情報が示す部位のファイルを選択する。
また、本実施例において取得部110は、複数の人物(対象者)の生体音を示す複数の音データを取得する。ファイル生成部130は、人物別にファイルを生成する。表示部170は、複数の人物を示す情報を表示する。入力部180は、表示部170に表示された複数の人物を示す情報のうち一以上の人物を示す情報の指定をさらに受け付ける。そして出力部190は、指定された人物を示す情報が示す人物のファイルを選択する。以下に詳しく説明する。
なお、以下では処理装置10が複数の人物の複数の部位で得られた複数の音データを取得し、処理する例について説明するが、本実施例に係る処理装置10は以下の例に限定されない。本実施例に係る処理装置10は、一人の人物の複数の部位で得られた生体音を示す複数の音データを取得し、処理しても良い。また、本実施例に係る処理装置10は、複数の人物について、それぞれ一つの部位で得られた複数の音データを取得し、処理しても良い。この場合、システム20は検出部210を一つのみ備えても良い。すなわち、本実施例に係る処理装置10では、取得部110は検出対象の部位および人物の少なくとも一方が互いに異なる複数の音データを同時に取得することができる。
本実施例に係る処理装置10では、取得部110の音データの取得に先立ち、取得される音データに人物を特定する情報を関連づける人物特定処理が行われる。
図9は人物特定処理における表示部170での表示内容を例示する図である。本図の例では、表示部170には候補となる人物(たとえば患者)の氏名とその人物を特定する情報(たとえば)患者IDが表示される。そして、処理装置10のユーザは、これから音データの取得を行う対象の人物を選択する。そうすることにより、その後に取得される音データに対し、人物を特定する情報が関連づけられる。
また、本実施例に係る処理装置10では取得部110の音データの取得に先立ち、複数の部位のそれぞれにチャンネル(ch)を対応づける部位特定処理が行われる。これは、検出部210(すなわち処理装置10の取り込みチャンネル)と検出部210の取り付け位置とを対応づける処理に相当する。
図10および図11は、部位特定処理における表示部170での表示内容を例示する図である。図10の例では、表示部170には候補となる部位にマークが表示されたマップが表示される。一方、複数の検出部210には互いに識別可能な表示(たとえば色分け)がされている。本図の例では、ユーザが、表示部170の表示内容における指示に基づき、複数の検出部210の取り付け位置を順に選択することで、チャンネルと部位とが対応づけられる。具体的にはたとえば、表示部170には「センサの色を確認し、赤、黄色、緑、青の順にセンサ取り付け部位を選択して下さい。」とのメッセージが表示される。そしてユーザは図11に示すように指定されたセンサの順に取り付け位置を入力し、「OK」ボタンを押すことで確定する。なお、本図の例では部位の候補が示されているが、生体の任意の位置を指定できてもよい。
図12は、各部位を示す予め定められた記号を例示する図である。処理装置10では、部位特定処理により、部位を示す記号とチャンネルとが対応づけられる。このようにすることで、たとえば処理装置10や他の装置が生体音を解析することで異常検知等を行う場合、各音データがどの部位で得られたものかが識別可能となる。そして、音データを解析に有効に利用できる。なお、複数の人物について音データの取得が行われる場合、部位特定処理は各人物について同様に行われる。
図13は、第1記憶媒体120において、複数の音データのそれぞれを保持する領域の、スタートアドレスを示す管理テーブルを例示する図である。また、図14は、第1記憶媒体120についてのメモリマップである。図13および図14では、複数のチャンネルに対する管理テーブルおよびメモリマップの例を示している。管理テーブルが例えばストレージデバイス1080またはメモリ1060に保持されている。なお、管理テーブルは予め生成されてストレージデバイス1080またはメモリ1060に保持されても良いし、同時に取得される音データの数や、予定される音データの長さ等に基づき処理装置10で生成されても良い。同時に取得される音データの数や、予定される音データの長さは、音データの取得開始に先立ち、たとえばユーザにより処理装置10に入力される。取得部110が音データを取得すると、アドレスがスタートアドレスから順次インクリメントされながら、各音声データが第1記憶媒体120に書き込まれる。
ファイル生成部130は、取得部110で取得された複数の音データのそれぞれについて、実施例1で説明したのと同様にファイルを順次生成する。
図15は、実施例2に係るファイル生成部130が生成するデータベースを例示する図である。本図は、一人の人物の複数部位についてのデータベースを例示している。本実施例においてファイル生成部130は、ファイルを示す情報と、ファイルに保持された音データの録音開始時刻を示す情報と、ファイルに保持された音データの録音時間と、チャンネルと、部位を示す記号と、人物を特定する情報とを対応づけたデータベースを生成する。
特徴情報生成部150は取得部110で取得された各音データについて、実施例1で説明したのと同様に特徴情報を順次生成する。生成された特徴情報には、時刻に加え、チャンネルと、部位を示す記号と、人物を特定する情報とがさらに関連づけられる。
本実施例に係る表示部170は、表示ステップS170において、特徴情報の表示に先立ち、たとえば複数の人物を示す情報を表示する。複数の人物を示す情報はたとえばIDおよび氏名の少なくともいずれかである。複数の人物を示す情報はたとえば図9と同様の図で例示される。ユーザは表示部170に表示された複数の人物を示す情報のうち一以上を選択により指定し、入力部180がその指定を受け付ける。そうすることにより、その後の処理において、指定された人物の音データに基づく特徴情報が表示される。また、出力部190は、指定された人物のファイルから、音データを出力する。
図16は、実施例2において、表示部170により特徴情報が表示された画面を例示する図である。本図の例では、グラフ510、部位マップ520、チャンネル指定ボタン530、および再生ボタン540が表示されている。生体音を確認したいユーザは、このような画面を用いて所望の生体音を指定できる。本例において、グラフ510にはそれぞれ部位に対応づけられたライン511a、ライン511b、ライン511cおよびライン511dが表示されている。ライン511a、ライン511b、ライン511cおよびライン511dは、それぞれチャンネル1(ch1)、チャンネル2(ch2)、チャンネル3(ch3)、およびチャンネル4(ch4)で得られた音データに基づく特徴情報を示している。部位マップ520は生体の部位と、各チャンネルとの対応を示している。具体的には、生体を示す図に、チャンネルを示すマークが合わせて示されている。たとえば部位マップ520に示されたチャンネルのマークの色と、グラフ510におけるラインの色とが対応しており、ユーザは、各ラインがどの部位の情報であるかを認識することができる。チャンネル指定ボタン530は、音を再生させたいチャンネルを指定するためのボタンである。本例においてチャンネル指定ボタン530が複数の部位を示す情報に相当する。なお、チャンネル指定ボタン530の各チャンネルを示すボタンの色は、グラフ510のラインの色や、部位マップ520のチャンネルのマークの色と対応していても良い。再生ボタン540は、指定した音声の再生を開始するためのボタンである。
たとえば、ユーザが上記のように人物を指定すると、本図のように、その人物の特徴情報が表示される。そして、ユーザは、特徴情報を確認し、特に生体音を聞きたい部分をカーソル512で指定する。ユーザはさらに、生体音を聞きたいチャンネル、すなわち部位を、画面上のチャンネル指定ボタン530を押すことにより指定する。たとえば押されたチャンネルのボタンは、色が変わるなどして押されていないボタンと識別可能となる。その上で、画面上の再生ボタン540を押すと、入力部180が指定を受け付け、出力部190が音データを出力して、指定された部位および時刻の生体音が再生される。
具体的には、上記のように入力部180が指定を受け付けると、出力部190は、データベースから、指定された人物、かつ指定されたチャンネルのファイルを抽出する。その上で、抽出されたファイルに対し、出力部190は実施例1で説明したのと同様の処理を行い、時刻tを始点とした音データを出力する。
本実施例によれば、実施形態と同様、ファイル生成部130は、取得された前記音データの一部を含むファイルを順次生成する。したがって、取得するデータ量が大きくなっても各ファイルのデータ量が大きくなりすぎない。ひいては、所望の音データの読み出し等の処理を短い時間で行える。
くわえて、本実施例によれば、取得部110は、複数の音データを取得する。したがって、モニタ対象の部位およびモニタ対象の人物の少なくとも一方が複数存在する場合にも、容易に所望の生体音を出力することができる。
以上、図面を参照して実施形態及び実施例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
以下、参考形態の例を付記する。
1-1. 生体音を含む音データを取得する取得部と、
取得された前記音データの一部を含むファイルを順次生成するファイル生成部と、
前記音データに基づいて、前記生体音の特徴を示す特徴情報を、時刻に関連づけて生成する特徴情報生成部と、
二以上の時刻の前記特徴情報を表示する表示部と、
前記表示部に表示された前記特徴情報のうち、一以上の前記特徴情報の指定を受け付ける入力部と、
指定された前記特徴情報に関連づけられた時刻に基づき、生成された前記ファイルから一以上の前記ファイルを選択し、選択された前記ファイルに含まれる前記音データを出力する出力部とを備える処理装置。
1-2. 1-1.に記載の処理装置において、
前記取得部で取得された前記音データは一時的に揮発性の第1記憶媒体に保持され、
前記ファイル生成部で生成された前記ファイルは不揮発性の第2記憶媒体に保持され、
前記出力部は、前記第1記憶媒体および前記第2記憶媒体の少なくとも一方から、少なくとも指定された前記特徴情報に関連づけられた時刻に対応する前記音データを取得し、取得した前記音データの少なくとも一部を出力する処理装置。
1-3. 1-2.に記載の処理装置において、
当該処理装置は計算機を用いて実現され、
前記第1記憶媒体は前記計算機のメモリである処理装置。
1-4. 1-2.または1-3.に記載の処理装置において、
前記ファイル生成部は、前記ファイルを示す情報と、前記ファイルに保持された前記音データの録音開始時刻を示す情報と、前記ファイルに保持された前記音データの録音時間とを対応づけたデータベースをさらに生成し、
前記出力部は、前記データベースに基づいて前記音データを取得する処理装置。
1-5. 1-4.に記載の処理装置において、
前記出力部は、
出力しようとする前記音データを含む前記ファイルが存在するか否かを前記データベースに基づいて判定し、
出力しようとする前記音データを含む前記ファイルが存在する場合、前記第2記憶媒体から前記ファイルを読み出すことにより前記音データを取得し、
出力しようとする前記音データを含む前記ファイルが存在しない場合、前記第1記憶媒体から前記音データを取得する処理装置。
1-6. 1-1.から1-5.のいずれか一つに記載の処理装置において、
前記生体音は呼吸音を含み、
前記特徴情報は、音量、呼吸数、副雑音の有無、副雑音の大きさ、および異常度を示す情報の少なくともいずれかを含む処理装置。
1-7. 1-1.から1-6.のいずれか一つに記載の処理装置において、
前記取得部は、生体の複数の部位で得られた前記生体音を示す複数の前記音データを取得し、
前記ファイル生成部は、前記部位別に前記ファイルを生成し、
前記表示部は、前記複数の部位を示す情報を表示し、
前記入力部は、前記表示部に表示された前記複数の部位を示す情報のうち一以上の前記部位を示す情報の指定をさらに受け付け、
前記出力部は、指定された前記部位を示す情報が示す前記部位の前記ファイルを選択する処理装置。
1-8. 1-1.から1-7.のいずれか一つに記載の処理装置において、
前記取得部は、複数の人物の前記生体音を示す複数の前記音データを取得し、
前記ファイル生成部は、前記人物別に前記ファイルを生成し、
前記表示部は、前記複数の人物を示す情報を表示し、
前記入力部は、前記表示部に表示された前記複数の人物を示す情報のうち一以上の前記人物を示す情報の指定をさらに受け付け、
前記出力部は、指定された前記人物を示す情報が示す前記人物の前記ファイルを選択する処理装置。
1-9. 1-1.から1-8.のいずれか一つに記載の処理装置と、
前記生体音を検出する検出部と、
前記出力部から出力された前記音データを音として出力する音出力部とを備えるシステム。
2-1. 生体音を示す音データを取得する取得ステップと、
取得された前記音データの一部を含むファイルを順次生成するファイル生成ステップと、
前記音データに基づいて、前記生体音の特徴を示す特徴情報を、時刻に関連づけて生成する特徴情報生成ステップと、
二以上の時刻の前記特徴情報を表示する表示ステップと、
前記表示ステップで表示された前記特徴情報のうち、一以上の前記特徴情報の指定を受け付ける入力ステップと、
指定された前記特徴情報に関連づけられた時刻に基づき、生成された前記ファイルから一以上の前記ファイルを選択し、選択された前記ファイルに含まれる前記音データを出力する出力ステップとを含む処理方法。
2-2. 2-1.に記載の処理方法において、
前記取得ステップで取得された前記音データは一時的に揮発性の第1記憶媒体に保持され、
前記ファイル生成ステップで生成された前記ファイルは不揮発性の第2記憶媒体に保持され、
前記出力ステップでは、前記第1記憶媒体および前記第2記憶媒体の少なくとも一方から、少なくとも指定された前記特徴情報に関連づけられた時刻に対応する前記音データを取得し、取得した前記音データの少なくとも一部を出力する処理方法。
2-3. 2-2.に記載の処理方法において、
当該処理方法は計算機により実行され、
前記第1記憶媒体は前記計算機のメモリである処理方法。
2-4. 2-2.または2-3.に記載の処理方法において、
前記ファイル生成ステップでは、前記ファイルを示す情報と、前記ファイルに保持された前記音データの録音開始時刻を示す情報と、前記ファイルに保持された前記音データの録音時間とを対応づけたデータベースをさらに生成し、
前記出力ステップでは、前記データベースに基づいて前記音データを取得する処理方法。
2-5. 2-4.に記載の処理方法において、
前記出力ステップでは、
出力しようとする前記音データを含む前記ファイルが存在するか否かを前記データベースに基づいて判定し、
出力しようとする前記音データを含む前記ファイルが存在する場合、前記第2記憶媒体から前記ファイルを読み出すことにより前記音データを取得し、
出力しようとする前記音データを含む前記ファイルが存在しない場合、前記第1記憶媒体から前記音データを取得する処理方法。
2-6. 2-1.から2-5.のいずれか一つに記載の処理方法において、
前記生体音は呼吸音を含み、
前記特徴情報は、音量、呼吸数、副雑音の有無、副雑音の大きさ、および異常度を示す情報の少なくともいずれかを含む処理方法。
2-7. 2-1.から2-6.のいずれか一つに記載の処理方法において、
前記取得ステップでは、生体の複数の部位で得られた前記生体音を示す複数の前記音データを取得し、
前記ファイル生成ステップでは、前記部位別に前記ファイルを生成し、
前記表示ステップでは、前記複数の部位を示す情報を表示し、
前記入力ステップでは、前記表示ステップに表示された前記複数の部位を示す情報のうち一以上の前記部位を示す情報の指定をさらに受け付け、
前記出力ステップでは、指定された前記部位を示す情報が示す前記部位の前記ファイルを選択する処理方法。
2-8. 2-1.から2-7.のいずれか一つに記載の処理方法において、
前記取得ステップでは、複数の人物の前記生体音を示す複数の前記音データを取得し、
前記ファイル生成ステップは、前記人物別に前記ファイルを生成し、
前記表示ステップでは、前記複数の人物を示す情報を表示し、
前記入力ステップでは、前記表示ステップで表示された前記複数の人物を示す情報のうち一以上の前記人物を示す情報の指定をさらに受け付け、
前記出力ステップでは、指定された前記人物を示す情報が示す前記人物の前記ファイルを選択する処理方法。
3-1. 2-1.から2-8.のいずれか一つに記載の処理方法の各ステップをコンピュータに実行させるプログラム。
10 処理装置
20 システム
110 取得部
120 第1記憶媒体
130 ファイル生成部
140 第2記憶媒体
150 特徴情報生成部
160 特徴情報記憶部
170 表示部
180 入力部
190 出力部
210 検出部
230 音出力部
510 グラフ
511,511a,511b,511c,511d ライン
512 カーソル
520 部位マップ
530 チャンネル指定ボタン
540 再生ボタン
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース

Claims (11)

  1. 生体音を含む音データを取得する取得部と、
    取得された前記音データの一部を含むファイルを順次生成するファイル生成部と、
    前記音データに基づいて、前記生体音の特徴を示す特徴情報を、時刻に関連づけて生成する特徴情報生成部と、
    二以上の時刻の前記特徴情報を表示する表示部と、
    前記表示部に表示された前記特徴情報のうち、一以上の前記特徴情報の指定を受け付ける入力部と、
    指定された前記特徴情報に関連づけられた時刻 に基づき、生成された前記ファイルから一以上の前記ファイルを選択し、選択された前記ファイルに含まれる前記音データを出力する出力部とを備え
    前記出力部は、選択された前記ファイルの前記音データのうち、当該ファイルの録音開始時刻とは異なる前記時刻t に対応する部分を始点とした、前記音データを出力する処理装置。
  2. 請求項1に記載の処理装置において、
    前記取得部で取得された前記音データは一時的に揮発性の第1記憶媒体に保持され、
    前記ファイル生成部で生成された前記ファイルは不揮発性の第2記憶媒体に保持され、
    前記出力部は、前記第1記憶媒体および前記第2記憶媒体の少なくとも一方から、少なくとも指定された前記特徴情報に関連づけられた時刻に対応する前記音データを取得し、取得した前記音データの少なくとも一部を出力する処理装置。
  3. 請求項2に記載の処理装置において、
    当該処理装置は計算機を用いて実現され、
    前記第1記憶媒体は前記計算機のメモリである処理装置。
  4. 請求項2または3に記載の処理装置において、
    前記ファイル生成部は、前記ファイルを示す情報と、前記ファイルに保持された前記音データの前記録音開始時刻を示す情報と、前記ファイルに保持された前記音データの録音時間とを対応づけたデータベースをさらに生成し、
    前記出力部は、前記データベースに基づいて前記音データを取得する処理装置。
  5. 請求項4に記載の処理装置において、
    前記出力部は、
    出力しようとする前記音データを含む前記ファイルが存在するか否かを前記データベースに基づいて判定し、
    出力しようとする前記音データを含む前記ファイルが存在する場合、前記第2記憶媒体から前記ファイルを読み出すことにより前記音データを取得し、
    出力しようとする前記音データを含む前記ファイルが存在しない場合、前記第1記憶媒体から前記音データを取得する処理装置。
  6. 請求項1から5のいずれか一項に記載の処理装置において、
    前記生体音は呼吸音を含み、
    前記特徴情報は、音量、呼吸数、副雑音の有無、副雑音の大きさ、および異常度を示す情報の少なくともいずれかを含む処理装置。
  7. 請求項1から6のいずれか一項に記載の処理装置において、
    前記取得部は、生体の複数の部位で得られた前記生体音を示す複数の前記音データを取得し、
    前記ファイル生成部は、前記部位別に前記ファイルを生成し、
    前記表示部は、前記複数の部位を示す情報を表示し、
    前記入力部は、前記表示部に表示された前記複数の部位を示す情報のうち一以上の前記部位を示す情報の指定をさらに受け付け、
    前記出力部は、指定された前記部位を示す情報が示す前記部位の前記ファイルを選択する処理装置。
  8. 請求項1から7のいずれか一項に記載の処理装置において、
    前記取得部は、複数の人物の前記生体音を示す複数の前記音データを取得し、
    前記ファイル生成部は、前記人物別に前記ファイルを生成し、
    前記表示部は、前記複数の人物を示す情報を表示し、
    前記入力部は、前記表示部に表示された前記複数の人物を示す情報のうち一以上の前記人物を示す情報の指定をさらに受け付け、
    前記出力部は、指定された前記人物を示す情報が示す前記人物の前記ファイルを選択する処理装置。
  9. 請求項1から8のいずれか一項に記載の処理装置と、
    前記生体音を検出する検出部と、
    前記出力部から出力された前記音データを音として出力する音出力部とを備えるシステム。
  10. 生体音を示す音データを取得する取得ステップと、
    取得された前記音データの一部を含むファイルを順次生成するファイル生成ステップと、
    前記音データに基づいて、前記生体音の特徴を示す特徴情報を、時刻に関連づけて生成する特徴情報生成ステップと、
    二以上の時刻の前記特徴情報を表示する表示ステップと、
    前記表示ステップで表示された前記特徴情報のうち、一以上の前記特徴情報の指定を受け付ける入力ステップと、
    指定された前記特徴情報に関連づけられた時刻 に基づき、生成された前記ファイルから一以上の前記ファイルを選択し、選択された前記ファイルに含まれる前記音データを出力する出力ステップとを含み、
    前記出力ステップでは、選択された前記ファイルの前記音データのうち、当該ファイルの録音開始時刻とは異なる前記時刻t に対応する部分を始点とした、前記音データを出力する処理方法。
  11. 請求項10に記載の処理方法の各ステップをコンピュータに実行させるプログラム。
JP2018212368A 2018-11-12 2018-11-12 処理装置、処理方法、システム、およびプログラム Active JP7233682B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018212368A JP7233682B2 (ja) 2018-11-12 2018-11-12 処理装置、処理方法、システム、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018212368A JP7233682B2 (ja) 2018-11-12 2018-11-12 処理装置、処理方法、システム、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020078394A JP2020078394A (ja) 2020-05-28
JP7233682B2 true JP7233682B2 (ja) 2023-03-07

Family

ID=70802117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018212368A Active JP7233682B2 (ja) 2018-11-12 2018-11-12 処理装置、処理方法、システム、およびプログラム

Country Status (1)

Country Link
JP (1) JP7233682B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001327488A (ja) 2000-05-19 2001-11-27 Tesshokai 聴診システム及びプログラムを記録した機械読み取り可能な媒体
US20020138013A1 (en) 1998-10-05 2002-09-26 Guerrero Juan R. System for analysis of biological voltage signals
US20020183874A1 (en) 2001-04-30 2002-12-05 The Government Of The United States Of America As Represented By The Secretary Of The Department Of Auscultatory training system
WO2003001421A1 (fr) 2001-06-21 2003-01-03 Kabushiki Kaisha Toshiba Programme, procede et dispositif d'aide a l'elaboration d'un rapport electronique
JP2005027804A (ja) 2003-07-10 2005-02-03 Konica Minolta Medical & Graphic Inc 診察支援システム、データ処理端末及びデータ処理プログラム
JP2006122375A (ja) 2004-10-29 2006-05-18 Toshiba Corp 手術記録装置及び脳機能検査装置
JP2011524769A (ja) 2008-06-17 2011-09-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声分類器とマイクロホンを用いる音響患者モニタリング

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020138013A1 (en) 1998-10-05 2002-09-26 Guerrero Juan R. System for analysis of biological voltage signals
JP2001327488A (ja) 2000-05-19 2001-11-27 Tesshokai 聴診システム及びプログラムを記録した機械読み取り可能な媒体
US20020183874A1 (en) 2001-04-30 2002-12-05 The Government Of The United States Of America As Represented By The Secretary Of The Department Of Auscultatory training system
WO2003001421A1 (fr) 2001-06-21 2003-01-03 Kabushiki Kaisha Toshiba Programme, procede et dispositif d'aide a l'elaboration d'un rapport electronique
JP2005027804A (ja) 2003-07-10 2005-02-03 Konica Minolta Medical & Graphic Inc 診察支援システム、データ処理端末及びデータ処理プログラム
US20060169529A1 (en) 2003-07-10 2006-08-03 Yasuaki Tamakoshi Diagnosis assist system, data processing terminal and data processing program
JP2006122375A (ja) 2004-10-29 2006-05-18 Toshiba Corp 手術記録装置及び脳機能検査装置
JP2011524769A (ja) 2008-06-17 2011-09-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声分類器とマイクロホンを用いる音響患者モニタリング

Also Published As

Publication number Publication date
JP2020078394A (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
US9877661B2 (en) Aural heart monitoring apparatus and method
US6623427B2 (en) Biofeedback based personal entertainment system
US7672464B2 (en) Locating and correcting undesirable effects in signals that represent time-based media
JP5873875B2 (ja) 信号処理装置、信号処理システム及び信号処理方法
US20080273709A1 (en) Systems and methods for tuning, analysis and display of heart sounds
JP2013544548A5 (ja)
JPH0990973A (ja) 音声処理装置
US20210249032A1 (en) Processing Audio Information
JPH06114038A (ja) 聴覚検査・訓練装置
CN107708780A (zh) 音频信号处理装置、音频信号处理方法和存储介质
JP2005027804A (ja) 診察支援システム、データ処理端末及びデータ処理プログラム
JP7233682B2 (ja) 処理装置、処理方法、システム、およびプログラム
JP2003038460A (ja) 咳嗽音検出装置、咳嗽音検出方法、咳嗽音検出プログラム及び情報記憶媒体
JPWO2014141413A1 (ja) 情報処理装置、出力方法およびプログラム
CN108416004A (zh) 电子设备、音乐控制方法及相关产品
CN109391875B (zh) 音频的调试方法及装置、存储介质、处理器
JP7122225B2 (ja) 処理装置、システム、処理方法、およびプログラム
CN113057613B (zh) 心率监测电路、方法及可穿戴设备
WO2007094427A1 (ja) コンテンツ再生装置
JP7437742B2 (ja) 音出力装置及びプログラム
JP2016202443A (ja) 社会性能力検査方法及び社会性能力検査システム
JP2018015212A (ja) 脳波信号処理システム、脳波信号処理方法及びプログラム
JP2007163586A (ja) 音楽ジャンル判別装置及びこれを備えたゲーム機
JP2023072246A (ja) 呼吸数計数装置、計数方法、コンピュータプログラム及び記録媒体
JP2005030851A (ja) 音源位置特定システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211021

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7233682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150