JPH04321096A - Work station for operation room - Google Patents

Work station for operation room

Info

Publication number
JPH04321096A
JPH04321096A JP3116784A JP11678491A JPH04321096A JP H04321096 A JPH04321096 A JP H04321096A JP 3116784 A JP3116784 A JP 3116784A JP 11678491 A JP11678491 A JP 11678491A JP H04321096 A JPH04321096 A JP H04321096A
Authority
JP
Japan
Prior art keywords
voice
screen
workstation
operating room
diagnostic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3116784A
Other languages
Japanese (ja)
Inventor
Osamu Sasahara
修 笹原
Yukio Ito
幸雄 伊藤
Mitsuyoshi Yamada
山田 光良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP3116784A priority Critical patent/JPH04321096A/en
Publication of JPH04321096A publication Critical patent/JPH04321096A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE:To enable a doctor in operation to drive in non-contact a work station set up in an operation room. CONSTITUTION:The work station is constituted of a microphone for inputting doctor's voice, a means for identifying the input voice and the contents of a display instruction and a means for selecting diagnostic information to be displayed on a screen in accordance with the identified results and displaying the selected information on the screen. Since the work station set up in the operation room can be handled in non-contact, the work station can be prevented from being soiled even at the time of operating a patient suffered from an infective desease or the like and the generation of unnecessary infection can be prevented.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、手術室に設置可能なワ
ークステーション、特に非接触で操作指令の入力を行う
手術室用ワークステーションに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a workstation that can be installed in an operating room, and more particularly to a workstation for operating rooms that allows input of operating commands without contact.

【0002】0002

【従来の技術】従来の手術室用ワークステーションは、
キーボードを使用した接触式のものであり、手術室中の
医者は、直接にキーボードに触れて、必要な診断情報を
マルチウィンド形式の画面に表示させている。ここで、
マルチウィンド形式としたのは、1つの画面に、例えば
脳波計測波形と、頭部CT3次元画像とを同時に表示さ
せて診断に供する如き場合が存在するためである。また
、診断情報には、波形や画像の他に、レポート等の文字
も含まれる。
[Prior Art] Conventional operating room workstations are
It is a contact type system that uses a keyboard, and doctors in the operating room can directly touch the keyboard to display the necessary diagnostic information on a multi-window screen. here,
The multi-window format is used because there are cases where, for example, an electroencephalogram measurement waveform and a three-dimensional head CT image are displayed simultaneously on one screen for diagnosis. In addition to waveforms and images, the diagnostic information also includes text such as reports.

【0003】0003

【発明が解決しようとする課題】キーボードを使った接
触式は、感染症の病気の手術時には、キーボードに病原
菌が付着する恐れがあるため、好ましくない。例えば、
他の手術者がこのキーボードを使った場合、感染の恐れ
がありうる。
[Problems to be Solved by the Invention] A contact type method using a keyboard is not preferable during surgery for infectious diseases because pathogenic bacteria may adhere to the keyboard. for example,
If another surgeon uses this keyboard, there may be a risk of infection.

【0004】本発明の目的は、非接触の操作入力形式に
させて感染症の防止などの安全性の向上と操作性を向上
させる手術室用ワークステーションを提供するものであ
る。
[0004] An object of the present invention is to provide a workstation for an operating room that uses a non-contact operation input format to improve safety such as prevention of infectious diseases and improve operability.

【0005】[0005]

【課題を達成するための手段】本発明は、操作者からの
音声を入力するマイクロホンと、該入力音声を識別し、
表示命令内容を識別する手段と、該識別結果より画面に
表示すべき診断情報を選択して、画面に表示する手段と
、より成る(請求項1)。
[Means for achieving the object] The present invention provides a microphone for inputting voice from an operator, identifying the input voice,
The present invention comprises means for identifying the contents of a display command, and means for selecting diagnostic information to be displayed on the screen based on the identification result and displaying the same on the screen (Claim 1).

【0006】更に本発明は、操作者からの基準音声を入
力し波形解析を行い、特徴抽出を行い、該抽出特徴を格
納する手段と、操作者からの表示命令音声を入力するマ
イクロホンと、該入力音声の波形解析を行い、特徴抽出
を行う手段と、該抽出した特徴と前記格納した抽出特徴
との対比により表示命令を識別する手段と、該識別結果
より画面に表示すべき診断情報を選択して、画面に表示
する手段と、より成る(請求項2)。
The present invention further provides a means for inputting reference speech from an operator, performing waveform analysis, extracting features, and storing the extracted features, a microphone for inputting display command speech from the operator, means for analyzing the waveform of input speech and extracting features; means for identifying display commands by comparing the extracted features with the stored extracted features; and selecting diagnostic information to be displayed on the screen based on the identification results. and means for displaying the information on the screen (Claim 2).

【0007】[0007]

【作用】本発明は、操作入力形式を音声とし、この音声
を識別して表示命令内容に従った診断情報を選択して表
示させることとした(請求項1)。
According to the present invention, the operation input format is voice, and the voice is identified to select and display diagnostic information according to the content of the display command (Claim 1).

【0008】更に本発明は、操作者基準音声を事前に入
力させてその特徴を格納しておき、実際の入力した表示
命令音声をこの特徴との対比で識別することとした(請
求項2)。
[0008]Furthermore, the present invention allows the operator to input a reference voice in advance and store its characteristics, and identifies the actually input display command voice by comparing it with these characteristics (Claim 2). .

【0009】[0009]

【実施例】図2、図3は、基準音声の入力処理のフロー
チャートを示す。図2において、操作者たる医者は基準
音声を発呼し、これをマイクロホンを通じてワークステ
ーション内に取り込む(ステップ101)。この基準音
声は、表示命令用に使う各種の命令を意味する音声であ
り、例えば、「脳波計波形」、「MR画像」、「頭部C
T3次元画像」、「心電図」、「脳診断レポート」等の
音声である。これらの単語音声の代わりに、「脳波計」
と「波形」とに分けて音声入力したり、更に細かく分解
して、「脳」、「波」、「計」の如き一語ずつの音声入
力方法もありうる。尚、事前にキー用語を設定しておき
、これを発呼させる音声形式もある。例えば、「脳波計
波形」の代わりに、「脳波計」とすることや、「脳波」
とすること等がある。次にステップ102で入力した音
声波形を解析する。この解析処理は、ディジタル処理で
ある。解析処理には、ピーク検出処理やフーリエ変換処
理によるスペクトル分析処理やヒストグラム処理等があ
る。
Embodiment FIGS. 2 and 3 show flowcharts of reference voice input processing. In FIG. 2, a doctor, who is an operator, calls a reference voice and captures it into the workstation through a microphone (step 101). This reference sound is a sound that means various commands used for display commands, such as "electroencephalogram waveform", "MR image", "head C
These are sounds such as "T3-dimensional image", "electrocardiogram", and "brain diagnosis report". Instead of these word sounds, "electroencephalography"
It is also possible to enter voice input into words such as ``brain'', ``wave'', and ``meter'', or break it down further into words such as ``brain'', ``wave'', and ``meter''. Note that there is also a voice format in which key terms are set in advance and are called out. For example, instead of "electroencephalograph waveform", you may use "electroencephalograph" or "electroencephalogram".
There are things like that. Next, in step 102, the input audio waveform is analyzed. This analysis process is digital processing. The analysis processing includes peak detection processing, spectrum analysis processing using Fourier transform processing, histogram processing, and the like.

【0010】ステップ103では、解析処理結果から、
音声の特徴を抽出し、ステップ104ではこの抽出特徴
をデータとして登録する。抽出特徴には、ピーク分布や
スペクトル分布やヒストグラム処理による強度分布等が
ある。この他に、各種の特徴を示すパラメータが存在す
ることもある。
[0010] In step 103, from the analysis processing results,
Voice features are extracted, and in step 104, these extracted features are registered as data. Extracted features include peak distribution, spectral distribution, intensity distribution by histogram processing, and the like. In addition to these, there may be parameters indicating various characteristics.

【0011】ステップ105では、音声の個数のチェッ
クを行い、規定値Nになるまで、ステップ101〜10
4の処理を繰り返し行わせる。
[0011] In step 105, the number of voices is checked, and steps 101 to 10 are performed until the number of voices reaches the specified value N.
Repeat step 4.

【0012】図3は、図2の処理フローを波形をまじえ
てわかりやすく表示した実施例図である。先ず、医者は
、基準音声を発呼し、マイクロホンを介してワークステ
ーションにその音声の電気信号を自動的に取り込ませる
(ステップ201)。次に、ステップ202で波形解析
処理を行う。この解析処理は、ピーク検出例を示した。 ピークには、アッパーピークとローワーピークとの2種
類がある。アッパーピークとは極大値、ローワーピーク
とは極少値である。ステップ203では、解析処理で得
たピーク値を特徴量としてぬき出し、ステップ204で
これをメモリに登録する。登録の仕方としては、脳波計
なる用語とこの「脳波計」なる音声のピーク値とを対応
させて格納する。
FIG. 3 is an embodiment diagram in which the processing flow of FIG. 2 is clearly displayed by adding waveforms. First, the doctor makes a reference voice call and causes the workstation to automatically receive the electrical signal of the voice through the microphone (step 201). Next, in step 202, waveform analysis processing is performed. This analysis process provided an example of peak detection. There are two types of peaks: upper peaks and lower peaks. The upper peak is the maximum value, and the lower peak is the minimum value. In step 203, the peak value obtained in the analysis process is extracted as a feature amount, and in step 204, this is registered in the memory. As for the registration method, the term "electroencephalograph" and the peak value of the voice "electroencephalograph" are stored in correspondence.

【0013】図1は、本発明の音声識別処理のフローチ
ャートである。この処理の前提として図2、図3に従っ
た処理で基準音声の入力が行われ、その抽出特徴がメモ
リに格納されていることが必要である。
FIG. 1 is a flowchart of the voice identification process of the present invention. As a prerequisite for this processing, it is necessary that the reference speech is inputted in the processing according to FIGS. 2 and 3, and that its extracted features are stored in the memory.

【0014】図1で、ステップ301では、基準音声を
入力した医者が表示命令用の音声をマイクロホンを通じ
てワークステーション内に入力する。ステップ302で
は、その音声電気波形の波形解析を行い、ステップ30
3ではその特徴を抽出する。ステップ304では、図1
、図2で作成したメモリを検索し、ステップ303で抽
出した特徴に一致する特徴が登録されているか否かを調
べる。もし、一致する特徴があれば、その特徴に付随す
る表示命令用の言葉を引き出す(ステップ305)。 「特徴」からの言葉の引出しとは、一種の翻訳であり、
図では「命令に翻訳」とした。ステップ306では、そ
の命令の機能を実行して画面に命令対応の診断情報の表
示を行う。
In FIG. 1, in step 301, the doctor who has input the reference voice inputs the voice for display commands into the workstation through the microphone. In step 302, waveform analysis of the audio electrical waveform is performed, and in step 30
In step 3, the features are extracted. In step 304, FIG.
, the memory created in FIG. 2 is searched to see if a feature matching the feature extracted in step 303 is registered. If there is a matching feature, words for display commands associated with the feature are extracted (step 305). Extracting words from "characteristics" is a kind of translation,
In the figure, it is "translated into instructions." In step 306, the function of the command is executed and diagnostic information corresponding to the command is displayed on the screen.

【0015】図4は、図1の処理を具体的に示す処理フ
ローである。医者は、「脳波計」と「頭部CT3次元画
像」との2つの言葉の音声をマイクロホンに向けて発呼
し、ワークステーション内に取り込ませる(ステップ4
01)。ステップ402では、この2つの音声を次々に
波形解析処理をし、ステップ403では、そのピーク値
を特徴量として抽出する。ステップ404では、図2、
図3で登録済みのメモリを検索し、一致する特徴の有無
を自動的に調べる。この結果、一致するものが既に登録
されている故に、それぞれ「脳波計」と「頭部CT3次
元画像」の抽出特徴と一致することとなる。ステップ4
05では、これを命令に翻訳し、ステップ406では、
この命令に対応する診断情報を読み出しこれを表示する
FIG. 4 is a processing flow specifically showing the processing of FIG. The doctor calls the two words "electroencephalogram" and "head CT 3D image" into the microphone and imports them into the workstation (step 4).
01). In step 402, these two voices are subjected to waveform analysis processing one after another, and in step 403, their peak values are extracted as feature quantities. In step 404, FIG.
In Figure 3, the registered memory is searched and the presence or absence of matching features is automatically checked. As a result, since matching features have already been registered, they match the extracted features of "electroencephalograph" and "head CT three-dimensional image," respectively. Step 4
In step 05, this is translated into an instruction, and in step 406,
The diagnostic information corresponding to this command is read and displayed.

【0016】この表示例を図5に示す。図5は、マルチ
ウィンド機能を持つワークステーションの表示画面例で
あり、脳波計の計測波形を左側に、頭部CT3次元画像
を右側に表示した画面501の側を示してある。
An example of this display is shown in FIG. FIG. 5 is an example of a display screen of a workstation with a multi-window function, and shows the side of the screen 501 on which the electroencephalograph measurement waveform is displayed on the left side and the head CT three-dimensional image is displayed on the right side.

【0017】図6は、図1〜図5の処理を実現する手術
用ワークステーションの実施例図である。このワークス
テーションは、入力装置1、出力装置2、各種計測器3
、画像処理装置4、データ転送バス5より成る。
FIG. 6 is a diagram of an embodiment of a surgical workstation that implements the processes of FIGS. 1-5. This workstation consists of an input device 1, an output device 2, and various measuring instruments 3.
, an image processing device 4, and a data transfer bus 5.

【0018】入力装置は、操作用音声端末(マイクロホ
ン等)であり、キーボードに代わるものである。出力装
置2はCRT等の表示手段やプリンタより成るものであ
り、図ではCRTの例を示してある。計測器3は、各種
の計測機械のことであり、脳波計、心電計、X線CT装
置、MRI装置等の各種の計測手段により成る。
[0018] The input device is a voice terminal for operation (such as a microphone), which replaces a keyboard. The output device 2 consists of a display means such as a CRT or a printer, and the figure shows an example of a CRT. The measuring device 3 refers to various measuring machines, and includes various measuring means such as an electroencephalograph, an electrocardiograph, an X-ray CT device, and an MRI device.

【0019】画像処理装置4は、中央処理装置(CPU
)40、主記憶装置41、高速演算装置42、外部記憶
装置43より成り、これらは、データ転送バス5を介し
て相互に共通接続されている。中央処理装置40と主記
憶装置41とは計算機の主要であり、プログラムに従っ
た図1〜図4に示す如き各種の処理を行う。高速演算装
置42は、CPU40での処理の代わりに専用処理を行
うものであり、画像処理等に利用される。図1〜図4に
おける波形解析や特徴抽出に利用することもできる。
The image processing device 4 includes a central processing unit (CPU).
) 40, a main storage device 41, a high-speed arithmetic unit 42, and an external storage device 43, which are commonly connected to each other via a data transfer bus 5. The central processing unit 40 and main memory 41 are the main parts of the computer, and perform various processes as shown in FIGS. 1 to 4 according to programs. The high-speed arithmetic unit 42 performs dedicated processing instead of the processing by the CPU 40, and is used for image processing and the like. It can also be used for waveform analysis and feature extraction in FIGS. 1 to 4.

【0020】さて、図6において、医者の音声入力は、
端末1を介して行い、基準音声は、主記憶装置41の一
部に登録させる。また診断情報は、オンラインで直接に
入力するやり方(例えば計測器3の脳波計のオンライン
脳波)と外部記憶装置43にオフラインで登録しておく
やり方の2つがありうる。図5の例では、手術中の場合
、脳波計の脳波(左側表示例)は患者からオンラインで
直接に得られ、頭部CT3次元画像とは、外部記憶装置
43に格納してあるオンラインデータを表示したもので
ある。
Now, in FIG. 6, the doctor's voice input is as follows:
This is performed via the terminal 1, and the reference voice is registered in a part of the main storage device 41. Furthermore, the diagnostic information can be input directly online (for example, online electroencephalograms from the electroencephalogram of the measuring device 3) or registered offline in the external storage device 43. In the example of FIG. 5, during surgery, the electroencephalogram (example shown on the left) is obtained directly from the patient online, and the head CT three-dimensional image is the online data stored in the external storage device 43. This is what is displayed.

【0021】CPU40は、こうした音声入力のもとで
、図2、図3の処理を行い、基準音声の抽出特徴を主記
憶装置41に登録する。更に、CPU40は、実際の表
示命令音声を入力し、図1、図4の処理を行い、入力表
示命令音声に一致する命令を見つけ出し、これの処理を
行い、画面にマルチウィンド形式で表示させる。かくし
て、図5の如き表示例とした場合、手術中の患者の脳波
計の波形が検査済みのCT画像との対比で判断でき、診
断能力を向上できる。この際、表示指示が音声でできる
ため、感染症の如き患者の手術に際しても、ワークステ
ーションを汚すことはなく、この結果、他の医者等への
感染の恐れも少なくなる。
The CPU 40 performs the processes shown in FIGS. 2 and 3 based on such voice input, and registers the extracted features of the reference voice in the main storage device 41. Furthermore, the CPU 40 inputs the actual display command voice, performs the processing shown in FIGS. 1 and 4, finds a command that matches the input display command voice, processes this, and displays the command on the screen in a multi-window format. Thus, in the case of the display example shown in FIG. 5, the waveform of the electroencephalogram of the patient undergoing surgery can be determined by comparing it with the examined CT image, and diagnostic ability can be improved. At this time, since the display instructions can be given by voice, the workstation will not be contaminated even when performing surgery on a patient with an infectious disease, and as a result, the risk of infection to other doctors etc. will be reduced.

【0022】以上は手術中の画像表示の操作例であった
が、手術前にシュミレーションなどを行って手術の成功
を高めたいような要求の場合にも本実施例のワークステ
ーションは利用できる。こうした場合は、診断情報は、
外部記憶装置内にオフラインで格納させておいたもので
あってもよい。
Although the above has been an example of operation for displaying images during surgery, the workstation of this embodiment can also be used in cases where there is a request to perform simulations or the like before surgery to increase the success of the surgery. In these cases, the diagnostic information
It may be stored offline in an external storage device.

【0023】[0023]

【発明の効果】本発明は以下に示すような効果がある。 (1)医者の音声により前記ワークステーションに非接
触で制御できるので、感染症を防止できる。 (2)前記音声制御により前記ワークステーションの操
作性の向上する。 (3)前記ワークステーションを手術室内に設置するこ
とにより、手術前のシュミレーションなどの診断計画を
容易に参照できる。
[Effects of the Invention] The present invention has the following effects. (1) Since the workstation can be controlled without contact using the doctor's voice, infections can be prevented. (2) The voice control improves the operability of the workstation. (3) By installing the workstation in the operating room, it is possible to easily refer to diagnostic plans such as pre-operative simulations.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】本発明の表示命令音声処理のフローチャートで
ある。
FIG. 1 is a flowchart of display command voice processing of the present invention.

【図2】本発明の基準音声登録処理のフローチャートで
ある。
FIG. 2 is a flowchart of reference voice registration processing of the present invention.

【図3】本発明の基準音声登録処理の具体的なフローチ
ャートである。
FIG. 3 is a detailed flowchart of the reference voice registration process of the present invention.

【図4】本発明の表示命令音声処理の具体的なフローチ
ャートである。
FIG. 4 is a detailed flowchart of display command voice processing of the present invention.

【図5】本発明のマルチウィンド表示例を示す。FIG. 5 shows an example of a multi-window display according to the present invention.

【図6】本発明のワークステーションの実施例図である
FIG. 6 is an embodiment diagram of a workstation of the present invention.

【符号の説明】[Explanation of symbols]

1  入力装置(操作用音声端末) 2  出力装置 3  計測器 4  画像処理装置 1 Input device (voice terminal for operation) 2 Output device 3 Measuring instruments 4 Image processing device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】  画面にマルチウィンド形式で複数の診
断情報を表示する、手術室設置可能な、手術室用ワーク
ステーションにおいて、操作者からの音声を入力するマ
イクロホンと、該入力音声を識別し、表示命令内容を識
別する手段と、該識別結果より画面に表示すべき診断情
報を選択して、画面に表示する手段と、より成る手術室
用ワークステーション。
Claim 1: In an operating room workstation that displays a plurality of pieces of diagnostic information in a multi-window format on a screen and that can be installed in an operating room, a microphone that inputs audio from an operator and the input audio are identified, A workstation for an operating room, comprising means for identifying display command contents, and means for selecting diagnostic information to be displayed on a screen based on the identification result and displaying the same on the screen.
【請求項2】  画面にマルチウィンド形式で複数の診
断情報を表示する、手術室設置可能な、手術室用ワーク
ステーションにおいて、操作者からの基準音声を入力し
波形解析を行い、特徴抽出を行い、該抽出特徴を格納す
る手段と、操作者からの表示命令音声を入力するマイク
ロホンと、該入力音声の波形解析を行い、特徴抽出を行
う手段と、該抽出した特徴と前記格納した抽出特徴との
対比により表示命令を識別する手段と、該識別結果より
画面に表示すべき診断情報を選択して、画面に表示する
手段と、より成る手術室用ワークステーション。
[Claim 2] An operating room workstation that displays multiple pieces of diagnostic information in a multi-window format on a screen and that can be installed in an operating room, inputs a reference voice from an operator, performs waveform analysis, and extracts features. , a means for storing the extracted feature, a microphone for inputting a display command voice from an operator, a means for performing waveform analysis of the input voice and extracting the feature, and a means for storing the extracted feature and the stored extracted feature. 1. A workstation for an operating room, comprising: means for identifying a display command by comparing the results; and means for selecting diagnostic information to be displayed on a screen based on the identification result and displaying the same on the screen.
JP3116784A 1991-04-19 1991-04-19 Work station for operation room Pending JPH04321096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3116784A JPH04321096A (en) 1991-04-19 1991-04-19 Work station for operation room

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3116784A JPH04321096A (en) 1991-04-19 1991-04-19 Work station for operation room

Publications (1)

Publication Number Publication Date
JPH04321096A true JPH04321096A (en) 1992-11-11

Family

ID=14695625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3116784A Pending JPH04321096A (en) 1991-04-19 1991-04-19 Work station for operation room

Country Status (1)

Country Link
JP (1) JPH04321096A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7278027B1 (en) * 2000-11-24 2007-10-02 Eizo Nanao Corporation Biomedical recognizing system comprising image diagnosis workstation and method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7278027B1 (en) * 2000-11-24 2007-10-02 Eizo Nanao Corporation Biomedical recognizing system comprising image diagnosis workstation and method therefor

Similar Documents

Publication Publication Date Title
JP5057635B2 (en) Method and apparatus for performing interactive annotation and measurement functions of time series data for centralized analysis and review
JP4493311B2 (en) Method and apparatus for performing interactive annotation and measurement functions of time series data with automatic marker sequence creation
JP4493310B2 (en) Method and apparatus for performing interactive annotation and measurement functions of time series data by automatic marking
JP5057636B2 (en) Method and apparatus for performing interactive annotation and measurement functions of time series data
JP6013438B2 (en) Brain disease diagnosis support system, brain disease diagnosis support method and program
CN107451417B (en) Dynamic electrocardiogram analysis intelligent diagnosis system and method
CN109074869A (en) Medical diagnosis supports device, information processing method, medical diagnosis to support system and program
CN115516571A (en) Imaging research report generation system
JP7102509B2 (en) Medical document creation support device, medical document creation support method, and medical document creation support program
CN114494798A (en) Electrocardiogram artifact confirmation method, terminal equipment and storage medium
EP1406198A2 (en) Method and apparatus for interactive annotation and measurement of time series data
CN110192851B (en) Arrhythmia analysis system based on machine learning technology
JPH04321096A (en) Work station for operation room
WO2021072873A1 (en) Grayscale image processing method, system, device, and computer-readable storage medium
CN111753831A (en) Image analysis method and device, image acquisition equipment and storage medium
WO2020165130A1 (en) Mapping pathology and radiology entities
US20230005580A1 (en) Document creation support apparatus, method, and program
US20220375562A1 (en) Document creation support apparatus, document creation support method, and program
CN113689377B (en) Method, device and medium for comparing lung CT scan images
US11830594B2 (en) Method and apparatus for template based treatment outcome generation
US20170119269A1 (en) Method for ecg lead placement changes to be accurately accounted for
JP2013149265A (en) Diagnosis support device and control method
JP2023020145A (en) Analysis device, analysis method, and program
CN111105872A (en) Interaction method and device of medical image artificial intelligence auxiliary diagnosis system and PACS
JP2021532888A (en) Medical image processing