WO2020105229A1 - 診断支援システム - Google Patents
診断支援システムInfo
- Publication number
- WO2020105229A1 WO2020105229A1 PCT/JP2019/030762 JP2019030762W WO2020105229A1 WO 2020105229 A1 WO2020105229 A1 WO 2020105229A1 JP 2019030762 W JP2019030762 W JP 2019030762W WO 2020105229 A1 WO2020105229 A1 WO 2020105229A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- disease
- sound
- unit
- ultrasonic
- electronic stethoscope
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/02—Stethoscopes
- A61B7/04—Electric stethoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
Definitions
- the present invention relates to a diagnosis support system.
- Patent Document 1 a system that performs analysis for diagnosis based on voice data such as heart sounds obtained from a stethoscope has been considered (for example, Patent Document 1).
- auscultation techniques are being lost, which may be a factor that delays or misses the discovery of diseases. If the discovery of a disease is delayed or overlooked, it may worsen the condition and eventually increase medical costs, which is not preferable.
- an object of the present invention is to provide a diagnosis support system capable of more accurate diagnosis regardless of the doctor's personal skill.
- the diagnostic support system of the present invention for achieving the above object includes an electronic stethoscope, a disease identification unit, and a presentation unit.
- the electronic stethoscope is capable of transmitting and receiving ultrasonic waves as well as acquiring body sounds.
- the disease identifying unit identifies a disease based on voice data of the body sound, an ultrasonic image generated from the received ultrasonic waves, and a result of prior machine learning.
- the presentation unit presents the identification result by the disease identification unit.
- the diagnostic support system having the above-mentioned configuration, not only the voice data of the body sound is obtained, but further, an ultrasonic image is generated from the ultrasonic wave, and the disease is mechanically specified by using these, More accurate diagnosis is possible regardless of the personal skill of the doctor or nurse.
- the diagnosis support system 100 includes an electronic stethoscope 110, a server 120 (disease identifying unit), and a mobile terminal 130 (presenting unit).
- the electronic stethoscope 110 has a microphone 111 and an ultrasonic wave transmission / reception unit 112.
- the microphone 111 and the ultrasonic wave transmitting / receiving unit 112 are provided on the surface 113 of the electronic stethoscope 110 facing the patient.
- the electronic stethoscope 110 includes a communication unit, which is an interface capable of communicating with the server 120, and a battery.
- the microphones 111 are arranged around the ultrasonic transmission / reception unit 112, but the arrangement location and the number of the microphones 111 on the surface 113 are not particularly limited.
- the microphone 111 acquires the body sound of the patient while the electronic stethoscope 110 is in contact with the patient on the surface 113.
- the electronic stethoscope 110 may be capable of wireless or wired communication with headphones or earphones so that a doctor or a nurse can hear a body sound obtained via the microphone 111.
- the ultrasonic transmitting / receiving unit 112 is arranged in the center of the surface 113 of the electronic stethoscope 110, but the arrangement is not limited to this. Further, the ultrasonic transmission / reception unit 112 includes, for example, an acoustic lens, an acoustic matching layer, and an array-type piezoelectric element in this order from the surface 113 side in the thickness direction, but is not limited to such a configuration.
- the ultrasonic wave transmitting / receiving unit 112 transmits ultrasonic waves to the living body while the electronic stethoscope 110 is in contact with the patient on the surface 113, and receives the ultrasonic waves reflected from the living body.
- the server 120 is composed of, for example, a mainframe or a computer cluster, but is not limited to these.
- the server 120 mainly has a CPU (Central Processing Unit), a storage unit such as a memory and a hard disk, a communication unit that is an interface for communicating with the electronic stethoscope 110 and the mobile terminal 130, an input device such as a keyboard and a mouse, It also includes an output device such as a display or a printer.
- a CPU Central Processing Unit
- storage unit such as a memory and a hard disk
- a communication unit that is an interface for communicating with the electronic stethoscope 110 and the mobile terminal 130
- an input device such as a keyboard and a mouse
- It also includes an output device such as a display or a printer.
- the server 120 receives the voice data of the body sound acquired by the microphone 111 from the electronic stethoscope 110 wirelessly or by wire.
- the server 120 wirelessly or wiredly receives echo data obtained from the ultrasonic waves received by the ultrasonic wave transmitting / receiving unit 112 from the electronic stethoscope 110, and based on the echo data, the ultrasonic waves in the patient's body. Generate an image.
- the server 120 identifies a disease based on the voice data and ultrasonic image of the body sounds and the result of machine learning in advance.
- -Machine learning refers to analyzing input data using an algorithm, extracting useful rules and criteria from the analysis results, and developing the algorithm.
- -Machine learning algorithms are generally classified into supervised learning, unsupervised learning, and reinforcement learning.
- supervised learning algorithm a data set of an input (voice data of a body sound as a sample and an ultrasonic image) and a result (data of a disease corresponding to the input) is given, and machine learning is performed based on the data set.
- unsupervised learning algorithm only a large amount of input data is given and machine learning is performed.
- the reinforcement learning algorithm changes the environment based on the solution output by the algorithm, and makes corrections based on the reward of how correct the output solution is.
- the server 120 performs machine learning in advance to extract rules and judgment criteria for identifying a disease from voice data of body sounds and ultrasonic images as a sample.
- the voice data of the body sound and the ultrasonic image as the sample are collected, for example, at a medical institution such as a university hospital where many patients gather.
- the server 120 identifies the disease from the voice data and the ultrasonic image actually obtained via the electronic stethoscope 110 according to the rules and the judgment criteria extracted by the machine learning in advance.
- the server 120 transmits the identification result to the mobile terminal 130.
- the mobile terminal 130 is, for example, a smartphone, a tablet, a mobile phone, etc., and presents the identification result of the disease transmitted from the server 120 to the doctor / nurse via a screen display.
- a waveform of a body sound, an ultrasonic image, or the like may be shown in addition to the result of identifying the disease.
- the doctor / nurse can know the presence / absence of a disease from the specific result presented on the mobile terminal 130 and, if there is a disease, what it is.
- diagnosis support system 100 of the present embodiment not only the voice data of the body sound but also the disease is mechanically specified by using the ultrasonic image, so that it does not depend on the personal skill of the doctor or nurse. , More accurate diagnosis is possible.
- the biological region to be diagnosed is not particularly limited, but is, for example, the heart.
- the body sound is a heart sound
- the ultrasonic image is an image of the heart. Utilizing these, the diagnosis support system 100 mechanically identifies a heart disease (valve disease, etc.). For this reason, more accurate diagnosis is possible regardless of the personal skill of the doctor or nurse, leading to early detection of heart disease and suppression of stage progression of heart failure.
- the presentation unit that presents the disease identification result is not limited to the mobile terminal 130 as in the present embodiment, and may be, for example, a desktop PC (personal computer), but the presentation unit may be the mobile terminal 130.
- doctors and nurses can carry it around freely, making it possible to carry out diagnosis at various medical sites.
- the body region to be diagnosed by the diagnosis support system of the present invention is not limited to the heart exemplified in the above embodiment, but may be another region such as the brain, arm, lung, or intestine.
- voice data such as cerebral blood flow sound is obtained as the body sound, and this and the ultrasonic image of the brain are used for diagnosis.
- a shunt sound is obtained as a body sound, and this and an ultrasonic image of the arm are used for diagnosis.
- sound data of, for example, lung sounds is obtained as the body sound, and this and ultrasonic images of the lungs are used for diagnosis.
- voice data of intestinal sound for example, is obtained as a body sound, and this and an ultrasonic image of the intestine are used for diagnosis.
- the microphone 111 that acquires a body sound and the ultrasonic transmission / reception unit 112 that transmits / receives ultrasonic waves are separately provided, but the present invention is not limited to this mode.
- the electronic stethoscope may be provided with a device configuration having those functions.
- the presentation unit such as the mobile terminal 130 may execute a part of the process for identifying the disease.
- 100 diagnosis support system 110 electronic stethoscope, 111 microphone, 112 Ultrasonic wave transceiver, 113 Aspect for patient, 120 servers (disease identification unit), 130 Mobile terminal (presentation unit).
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Acoustics & Sound (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
【課題】医師の個人的技量によらず、より精度の高い診断が可能な診断支援システムを提供する。 【解決手段】診断支援システム100は、生体音の取得とともに超音波を送受信可能な電子聴診器110と、生体音の音声データ、受信した前記超音波から生成する超音波画像、および事前の機械学習結果に基づき、疾患を特定する疾患特定部120と、疾患特定部による特定結果を提示する提示部130と、を有する。
Description
本発明は、診断支援システムに関する。
従来、聴診器から得られた心臓音等の音声データに基づき、診断のための分析を行うシステムが考えられている(例えば特許文献1)。
しかしながら、現状では、医師・看護師が直接聞き取った生体音に基づいて診断するのが一般的で、聴診技術の個人差が大きい。
特に、中堅から若手の医師・看護師においては、聴診技術が失われつつあり、疾患の発見が遅れたり見逃されたりする要因となりうる。疾患の発見が遅れたり見逃されたりすると、病状の悪化、ひいては医療費の増大につながり、好ましくない。
そこで、本発明は、医師の個人的技量によらず、より精度の高い診断が可能な診断支援システムを提供することを目的とする。
上記目的を達成するための本発明の診断支援システムは、電子聴診器と、疾患特定部と、提示部と、を有する。前記電子聴診器は、生体音の取得とともに超音波を送受信可能である。前記疾患特定部は、前記生体音の音声データ、受信した前記超音波から生成する超音波画像、および事前の機械学習結果に基づき、疾患を特定する。前記提示部は、前記疾患特定部による特定結果を提示する。
上記構成を有する診断支援システムによれば、生体音の音声データが得られるだけでなく、さらに、超音波から超音波画像が生成され、これらを利用して疾患が機械的に特定されるため、医師や看護師の個人的技量によらず、より精度の高い診断が可能である。
以下、添付した図面を参照しながら、本発明の実施形態を説明する。
図1に示すように、実施形態の診断支援システム100は、電子聴診器110と、サーバ120(疾患特定部)と、携帯端末130(提示部)と、を有する。
電子聴診器110は、マイクロフォン111、および超音波送受信部112を有する。マイクロフォン111および超音波送受信部112は、電子聴診器110のうち、患者に対する面113に設けられている。また図示しないが、電子聴診器110は、サーバ120と通信可能なインターフェースである通信部、およびバッテリーを含む。
マイクロフォン111は、超音波送受信部112のまわりに配置されているが、面113におけるマイクロフォン111の配置箇所および数は、特に限定されない。マイクロフォン111は、電子聴診器110が面113で患者に接した状態で、患者の生体音を取得する。マイクロフォン111を介して得られる生体音を医師や看護師が聞くことができるよう、電子聴診器110は、ヘッドホンやイヤホンと無線または有線で通信可能であってもよい。
超音波送受信部112は、電子聴診器110において、面113の中央に配置されているが、このような配置に限定されない。また、超音波送受信部112は、例えば、面113側から厚み方向に、音響レンズ、音響整合層、およびアレイ型の圧電素子をこの順序で含むが、このような構成に限定されない。超音波送受信部112は、電子聴診器110が面113で患者に接した状態で、超音波を生体に送信するとともに、生体から反射してきた超音波を受信する。
サーバ120は、例えば、メインフレームやコンピュータ・クラスタ等によって構成されるが、これらに限定されない。サーバ120は、主たる構成として、CPU(Central Processing Unit)、メモリやハードディスク等の記憶部、電子聴診器110や携帯端末130と通信するためのインターフェースである通信部、キーボードやマウス等の入力装置、および、ディスプレイやプリンタ等の出力装置を含む。
サーバ120は、マイクロフォン111が取得した生体音の音声データを、電子聴診器110から無線または有線で受信する。また、サーバ120は、超音波送受信部112で受信された超音波から得られるエコーデータを、電子聴診器110から無線または有線で受信し、そのエコーデータをもとに、患者の体内の超音波画像を生成する。
サーバ120は、それら生体音の音声データおよび超音波画像、ならびに、事前の機械学習の結果に基づき、疾患を特定する。
機械学習とは、アルゴリズムを使用して入力データを解析し、その解析結果から有用な規則や判断基準等を抽出し、アルゴリズムを発展させることを指す。
機械学習のアルゴリズムは、一般的に、教師あり学習、教師なし学習、強化学習等に分類される。教師あり学習のアルゴリズムでは、入力(サンプルとなる生体音の音声データおよび超音波画像)と、結果(それらに対応した疾患のデータ)とのデータセットが与えられ、それに基づき機械学習が行われる。教師なし学習のアルゴリズムでは、入力データのみが大量に与えられて機械学習が行われる。強化学習のアルゴリズムは、アルゴリズムが出力した解に基づいて環境を変化させ、出力した解がどの程度正しいのかの報酬に基づいて、修正を加えていく。
サーバ120は、事前に機械学習を行うことによって、サンプルとなる生体音の音声データおよび超音波画像から疾患を特定するための規則や判断基準等を抽出しておく。サンプルとなる生体音の音声データおよび超音波画像は、例えば、多くの患者が集まる大学病院等の医療機関で収集される。
サーバ120は、事前の機械学習によって抽出した規則や判断基準等に則り、電子聴診器110を介して実際に得られる音声データおよび超音波画像から、疾患を特定する。サーバ120は、特定結果を、携帯端末130に送信する。
携帯端末130は、例えば、スマートフォン、タブレット、携帯電話等であり、サーバ120から送信された疾患の特定結果を、画面表示を介して医師・看護師に提示する。携帯端末130の画面表示には、疾患の特定結果に加え、生体音の波形や超音波画像等が示されてもよい。医師・看護師は、携帯端末130に提示される特定結果から、疾患の有無を知ることができるとともに、疾患がある場合には、それが何であるか知ることができる。
次に、本実施形態の作用効果について述べる。
本実施形態の診断支援システム100によれば、生体音の音声データだけでなく、さらに超音波画像を利用して疾患が機械的に特定されるため、医師や看護師の個人的技量によらず、より精度の高い診断が可能である。
診断対象となる生体領域は特に限定されないが、例えば心臓である。この場合、生体音は心音であり、超音波画像は心臓の画像である。これらを利用して、診断支援システム100は、心疾患(例えば弁膜症等)を機械的に特定する。このため、医師や看護師の個人的技量によらず、より精度の高い診断が可能であり、心疾患の早期発見、心不全のステージ進行抑制につながる。
疾患の特定結果を提示する提示部は、本実施形態のように携帯端末130に限定されず、例えば、デスクトップ型のPC(パーソナルコンピューター)であってもよいが、提示部が携帯端末130であれば、医師や看護師が自由に持ち運べるため、様々な医療現場で診断を行うことができる。
本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲内で種々改変できる。
例えば、本発明の診断支援システムの診断対象となる生体領域は、上記実施形態で例示した心臓に限定されず、脳、腕、肺、腸等の他の領域であってもよい。
脳では、生体音として例えば脳血流音の音声データが得られ、これと脳の超音波画像とが診断に利用される。腕では、生体音として例えばシャント音が得られ、これと腕の超音波画像とが診断に利用される。肺では、生体音として例えば肺音の音声データが得られ、これと肺の超音波画像とが診断に利用される。腸では、生体音として例えば腸音の音声データが得られ、これと腸の超音波画像とが診断に利用される。
上記実施形態の電子聴診器110では、生体音を取得するマイクロフォン111と、超音波を送受信する超音波送受信部112とが、別々に設けられているが、本発明はこの形態に限定されず、それらの機能を兼ね備えた装置構成が電子聴診器に設けられてもよい。
また、携帯端末130等の提示部が、疾患を特定するための処理の一部を実行してもよい。
本出願は、2018年11月19日に出願された日本国特許出願第2018-216682号に基づいており、その開示内容は、参照により全体として引用されている。
100 診断支援システム、
110 電子聴診器、
111 マイクロフォン、
112 超音波送受信部、
113 患者に対する面、
120 サーバ(疾患特定部)、
130 携帯端末(提示部)。
110 電子聴診器、
111 マイクロフォン、
112 超音波送受信部、
113 患者に対する面、
120 サーバ(疾患特定部)、
130 携帯端末(提示部)。
Claims (3)
- 生体音の取得とともに超音波を送受信可能な電子聴診器と、
前記生体音の音声データ、受信した前記超音波から生成する超音波画像、および事前の機械学習結果に基づき、疾患を特定する疾患特定部と、
前記疾患特定部による特定結果を提示する提示部と、を有する、診断支援システム。 - 前記生体音は心音であり、前記超音波画像は心臓の画像である、請求項1に記載の診断支援システム。
- 前記提示部は携帯端末である、請求項1または請求項2に記載の診断支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020558087A JPWO2020105229A1 (ja) | 2018-11-19 | 2019-08-05 | 診断支援システム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-216682 | 2018-11-19 | ||
JP2018216682 | 2018-11-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020105229A1 true WO2020105229A1 (ja) | 2020-05-28 |
Family
ID=70773936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/030762 WO2020105229A1 (ja) | 2018-11-19 | 2019-08-05 | 診断支援システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2020105229A1 (ja) |
WO (1) | WO2020105229A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022124189A1 (ja) * | 2020-12-07 | 2022-06-16 | サントリーホールディングス株式会社 | 生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004329909A (ja) * | 2003-05-08 | 2004-11-25 | Tokuyo Den | 測定装置 |
US20180325487A1 (en) * | 2017-05-15 | 2018-11-15 | Richard Hoppmann | Stethoscope with extended detection range |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3235550A1 (en) * | 2016-08-17 | 2018-02-22 | California Institute Of Technology | Enhanced stethoscope devices and methods |
-
2019
- 2019-08-05 WO PCT/JP2019/030762 patent/WO2020105229A1/ja active Application Filing
- 2019-08-05 JP JP2020558087A patent/JPWO2020105229A1/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004329909A (ja) * | 2003-05-08 | 2004-11-25 | Tokuyo Den | 測定装置 |
US20180325487A1 (en) * | 2017-05-15 | 2018-11-15 | Richard Hoppmann | Stethoscope with extended detection range |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022124189A1 (ja) * | 2020-12-07 | 2022-06-16 | サントリーホールディングス株式会社 | 生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020105229A1 (ja) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210030390A1 (en) | Electronic stethoscope | |
US9973847B2 (en) | Mobile device-based stethoscope system | |
CN104883976B (zh) | 电子听诊器 | |
US20160287207A1 (en) | Smart medical examination and communication apparatus | |
US8827920B2 (en) | Telemedical stethoscope | |
US20170007126A1 (en) | System for conducting a remote physical examination | |
US20110137210A1 (en) | Systems and methods for detecting cardiovascular disease | |
Ramanathan et al. | Digital stethoscopes in paediatric medicine | |
US20090279708A1 (en) | Electronic stethoscope apparatus | |
WO2016206704A1 (en) | The smart stethoscope | |
US20200129094A1 (en) | Diagnostic hearing health assessment system and method | |
US20220005601A1 (en) | Diagnostic device for remote consultations and telemedicine | |
US20200121189A1 (en) | Virtual stethoscope and otoscope | |
Elhilali et al. | The stethoscope gets smart: Engineers from Johns Hopkins are giving the humble stethoscope an AI upgrade | |
JP2023529803A (ja) | デジタル聴診器によって生成された音声データの分析を通じた健康に関する洞察の導出 | |
WO2020105229A1 (ja) | 診断支援システム | |
Landge et al. | Electronic stethoscopes: Brief review of clinical utility, evidence, and future implications | |
Rao et al. | Improved detection of lung fluid with standardized acoustic stimulation of the chest | |
US20220257195A1 (en) | Audio pill | |
US20240108304A1 (en) | Stethoscope | |
US20240147150A1 (en) | Digital stethoscope | |
Valery | On Adaptation of Certified Models of Electronic Stethoscopes to a Smartphone–Based System for Digital Auscultation | |
Andrès et al. | Ultrasound versus stethoscope in internal medicine: Do not skip steps | |
Dutta et al. | Reliable, real-time, low cost cardiac health monitoring system for affordable patient care | |
Chowdhury et al. | Quality Assessment of Respiratory Sounds Extracted from Self-Assembled Digital Stethoscopes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19887018 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2020558087 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19887018 Country of ref document: EP Kind code of ref document: A1 |