JP7240665B2 - Information integration device - Google Patents
Information integration device Download PDFInfo
- Publication number
- JP7240665B2 JP7240665B2 JP2018241309A JP2018241309A JP7240665B2 JP 7240665 B2 JP7240665 B2 JP 7240665B2 JP 2018241309 A JP2018241309 A JP 2018241309A JP 2018241309 A JP2018241309 A JP 2018241309A JP 7240665 B2 JP7240665 B2 JP 7240665B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- comment
- target
- image
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本開示は、手術や治療で使用される医療装置から取得した医療情報を表示する技術に関する。 The present disclosure relates to technology for displaying medical information obtained from medical devices used in surgery and treatment.
下記特許文献1には、手術や治療で使用される複数の医療装置から医療情報を取得し、それら複数の医療情報を統合して画面に表示する医療情報システムが記載されている。
この種のシステムは、術中におけるリアルタイムな検討およびサポート、術後における手術解析、カンファレンス等のふりかえり、事故調査、教育用途などに用いられる。その際に、関係者の間で様々な情報を簡単に共有できるようにしたいという要望がある。共有する情報としては、術中にした判断の内容、術中に受けたサポートの内容、各医療装置の設定変更や計測値の変化に対するコメント、術中または術後の振り返り時に気づいたこと等、教育のため及び学会発表資料作成のため等に必要な様々な情報が挙げられる。 This type of system is used for real-time examination and support during surgery, surgery analysis after surgery, review of conferences and the like, investigation of accidents, educational purposes, and the like. At that time, there is a demand to make it possible to easily share various kinds of information among related parties. The information to be shared includes the details of decisions made during surgery, details of support received during surgery, comments on changes in the settings of each medical device and changes in measurement values, and things noticed during and after surgery, etc., for educational purposes. and various information necessary for preparing conference presentation materials.
本開示の1つの局面は、医療用のデバイスから取得され画面表示される情報に対する利用者のコメントを簡易に共有および記録する技術を提供することにある。 One aspect of the present disclosure is to provide a technique for easily sharing and recording user comments on information acquired from a medical device and displayed on the screen.
本開示の一態様は、情報統合装置であって、情報記憶部(31)と、主画像生成部(53:S210~S230)と、対象指定部(52,53:S310~S330)と、コメント入力部(52,53:S420)と、情報生成部(53:S340~S410,S440~S470)と、コメント画像生成部(53:S210~S220,S240)と、を備える。 One aspect of the present disclosure is an information integration device comprising an information storage unit (31), a main image generation unit (53: S210 to S230), a target designation unit (52, 53: S310 to S330), a comment It has an input section (52, 53: S420), an information generation section (53: S340 to S410, S440 to S470), and a comment image generation section (53: S210 to S220, S240).
情報記憶部は、患者の治療に使用される複数の医療用のデバイス(21)から取得されるデバイス情報が、デバイス情報が取得された時刻およびデバイス情報の種類を表す情報を含んだ第1タグ情報と関連づけて記憶される。主画像生成部は、情報記憶部に記憶された複数のデバイス情報のうち、同一時間に対応づけられる一種類以上のデバイス情報を抽出し、抽出したデバイス情報を1画面で表示するための画像データである主画像データを生成する。対象指定部は、画像データによって表示される表示画像中のコメント対象を指定する。コメント入力部は、対象指定部により指定されたコメント対象に関連付けられる情報であるコメント情報を入力する。情報生成部は、コメント入力部により入力されたコメント情報を、対象指定部にて指定されたコメント対象を特定するための情報を含んだ第2タグ情報と関連づけて情報記憶部に記憶させる。コメント画像生成部は、主画像データにより表示される画像である主画像中にコメント対象が含まれる場合に、当該コメント対象に対応するコメント情報を情報記憶部から抽出し、抽出したコメント情報を主画像中のコメント対象と関連づけて表示するための画像データであるコメント画像データを生成する。 The information storage unit stores device information obtained from a plurality of medical devices (21) used for treatment of a patient as a first tag containing information representing the time when the device information was obtained and the type of the device information. It is stored in association with information. The main image generation unit extracts one or more types of device information associated with the same time from among a plurality of pieces of device information stored in the information storage unit, and image data for displaying the extracted device information on one screen. to generate the main image data. The target specifying section specifies a comment target in the display image displayed by the image data. The comment input unit inputs comment information that is information associated with the comment target specified by the target specifying unit. The information generation unit stores the comment information input by the comment input unit in the information storage unit in association with second tag information including information for specifying the comment target specified by the target specification unit. The comment image generation unit extracts comment information corresponding to the comment target from the information storage unit when a comment target is included in the main image, which is an image displayed by the main image data, and stores the extracted comment information in the main image. Comment image data, which is image data to be displayed in association with the comment target in the image, is generated.
このような構成によれば、デバイス情報自体からは読み取ることのできない情報等を、コメント情報として簡単に残すことができる。しかも、そのコメント情報は、対応するデバイス情報と関連づけて表示されるため、表示画面の閲覧者は、コメント対象を明確に把握できる。 According to such a configuration, information that cannot be read from the device information itself can be easily left as comment information. Moreover, since the comment information is displayed in association with the corresponding device information, the viewer of the display screen can clearly grasp the target of the comment.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.全体構成]
情報統合装置1は、手術室における各種情報を統合して保存し、表示するための装置である。情報統合装置1は、術中におけるリアルタイムな検討およびサポート、術後における手術解析および教育用途などに適用される。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. overall structure]
The
図1に示すように、情報統合装置1は、デバイス群2と、サーバ3と、複数の端末5とを備える。
[2.デバイス群]
デバイス群2は、図2に示すように、複数のデバイス21A~21Hを備える。各デバイス21A~21Hは、それぞれ、データを生成してサーバ3に供給する。以下では、複数のデバイス21A~21Hを区別することなく、任意のデバイスを指す場合は、デバイス21と記す。
As shown in FIG. 1, the
[2. Devices]
The
デバイス21は、手術や治療時に使用される医療機器および医療設備等である。具体的には、医療機器として、例えば、生体情報モニタ、呼吸機能モニタ、循環動態モニタ、鎮静モニタ、麻酔器、輸液ポンプ、シリンジ、血液浄化装置、人工心肺装置、補助循環装置等が挙げられる。医療設備として、例えば、手術ナビゲーションシステム(以下、手術ナビ)、IPカメラ、医療ガスシステム、内視鏡、顕微鏡、電気メス、ドリル、超音照射装置等が上げられる。また、デバイスには、空調システム、アイソレーションシステム等が含まれてもよい。 The device 21 is a medical device, medical equipment, or the like used during surgery or treatment. Specifically, medical equipment includes, for example, biological information monitors, respiratory function monitors, hemodynamic monitors, sedation monitors, anesthesia machines, infusion pumps, syringes, blood purifiers, heart-lung machines, assisted circulation devices, and the like. Examples of medical equipment include surgical navigation systems (hereinafter referred to as surgical navigation), IP cameras, medical gas systems, endoscopes, microscopes, electric scalpels, drills, ultrasonic irradiation devices, and the like. Devices may also include air conditioning systems, isolation systems, and the like.
そして、デバイス21から供給されるデータ(以下、デバイス情報)には、デバイス21による計測値、デバイス21から出力される動画および静止画、デバイス21の使用状況やエラーを含むデバイスの状態、デバイス21自体の設定値、およびデバイス21が扱うパラメータに関する設定値等が含まれる。 The data supplied from the device 21 (hereinafter referred to as device information) includes measurement values from the device 21, video and still images output from the device 21, device status including the usage status and errors of the device 21, device 21 It includes setting values of itself and setting values related to parameters handled by the device 21 .
なお、手術ナビは、手術中における手術器具の3次元位置および姿勢を取得する装置である。手術器具としては、電気メスおよび鉗子の他、顕微鏡等も挙げられる。手術器具の3次元位置および姿勢を取得する方法として、例えば、予め複数のマーカを手術器具の特定の位置に取り付け、手術が実施される空間において予め規定された基準位置から手術器具における特定の位置までのベクトルを手術器具の3次元位置として特定し、複数のマーカ間の位置関係から姿勢を特定することが考えられる。また、顕微鏡の焦点を3次元位置として特定してもよい。このとき、CT、MRI等により、患者の患部を予め撮影した3次元画像に対応付けて3次元位置を特定する。CTはComputed Tomographyの略であり、MRIはMagnetic Resonance Imagingの略である。 The surgical navigation system is a device that acquires the three-dimensional position and orientation of surgical instruments during surgery. Surgical instruments include electric scalpels and forceps, as well as microscopes and the like. As a method of acquiring the three-dimensional position and orientation of a surgical instrument, for example, a plurality of markers are attached in advance to specific positions of the surgical instrument, and a predetermined reference position in the space where the surgery is performed is compared to a specific position on the surgical instrument. It is conceivable to specify the vector up to the point as the three-dimensional position of the surgical instrument, and to specify the orientation from the positional relationship between a plurality of markers. Also, the focal point of the microscope may be specified as a three-dimensional position. At this time, the three-dimensional position is specified by associating the patient's diseased part with a three-dimensional image taken in advance by CT, MRI, or the like. CT is an abbreviation for Computed Tomography, and MRI is an abbreviation for Magnetic Resonance Imaging.
[3.サーバ]
サーバ3は、データベース31と、サーバ処理部32とを備える。
データベース31は、HDD等によって実現され、図2に示すように、デバイス情報領域45、コメント情報領域46、およびイベント情報領域47が少なくとも確保されている。デバイス情報領域45には、タグ付きデバイス情報T_Idvが格納され、コメント情報領域46には、タグ付きコメント情報T_Icmが格納され、イベント情報領域47には、イベントリストLが格納される。また、タグ付きデバイス情報T_Idvおよびタグ付コメント情報T_Icmを総称して統合情報ともいう。サーバ3は、情報記憶部に相当する。
[3. server]
The
The
図3に示すように、タグ付きデバイス情報T_Idvは、第1タグ情報T1と、デバイス情報Idvとを有する。
デバイス情報Idvは、手術中等に、デバイス群2に属するいずれかのデバイス21から取得される情報であり、具体的には、計測値、設定値、および画像データ等が含まれる。
As shown in FIG. 3, tagged device information T_Idv has first tag information T1 and device information Idv.
The device information Idv is information acquired from one of the devices 21 belonging to the
第1タグ情報T1は、デバイス情報Idvに関する情報であり、時間タグT11およびデータ種別タグT12が少なくとも含まれる。時間タグT11は、デバイス情報Idvが取得された時刻(以下、取得時刻)を表す情報である。データ種別タグT12は、デバイス情報Idvの生成元となったデバイス21を特定するための識別情報を含む。なお、一つのデバイス21から複数のデバイス情報Idvが取得される場合は、いずれのデバイス情報Idvであるかを特定するための識別情報も含む。 The first tag information T1 is information related to device information Idv, and includes at least a time tag T11 and a data type tag T12. The time tag T11 is information representing the time when the device information Idv was acquired (hereinafter referred to as acquisition time). The data type tag T12 includes identification information for specifying the device 21 that generated the device information Idv. When a plurality of device information Idv are acquired from one device 21, identification information for specifying which device information Idv is included.
図4に示すように、タグ付きコメント情報T_Icmは、第2タグ情報T2と、コメント情報Icmとを有する。
コメント情報Icmは、術中または術後に端末5を介して入力される情報であり、具体的には、テキストデータ、音声データ、および画像データ等が含まれる。なお、画像データには、手書きの文字や図を表すビットマップデータ等が含まれてもよい。
As shown in FIG. 4, tagged comment information T_Icm has second tag information T2 and comment information Icm.
The comment information Icm is information input via the
第2タグ情報T2は、コメント情報Icmに関する情報であり、コメント対象タグT21、時間タグT22、時間タグT23、およびコメント種別タグT24が少なくとも含まれる。 The second tag information T2 is information related to the comment information Icm, and includes at least a comment target tag T21, a time tag T22, a time tag T23, and a comment type tag T24.
コメント対象タグT21は、コメントの対象を特定するための情報である。コメント対象には、データ種別タグT12で識別されるデバイス情報Idvの全体またはその一部、およびデバイス情報Idvを特定しない情報全体(即ち、デバイス情報Idvが表示された画面全体)が含まれる。デバイス情報Idvがデバイス21による測定値であり、その測定値が数字やグラフで表示される場合、デバイス情報Idvの一部とは、表示される数字またはグラフ等が含まれる。 The comment target tag T21 is information for specifying the target of the comment. Comment targets include all or part of the device information Idv identified by the data type tag T12, and all information not specifying the device information Idv (that is, the entire screen on which the device information Idv is displayed). When the device information Idv is a value measured by the device 21 and the measured value is displayed as a number or graph, the part of the device information Idv includes the displayed number, graph, or the like.
時間タグT22は、コメント対象の取得時刻、即ち、上述の時間タグT11と同様の時刻を表す情報である。つまり、タグ付きコメント情報T_Icmは、コメント対象タグT21と、時間タグT22とによって、タグ付きデバイス情報T_Idvに対応づけられる。 The time tag T22 is information representing the acquisition time of the comment target, that is, the time similar to the time tag T11 described above. That is, tagged comment information T_Icm is associated with tagged device information T_Idv by comment target tag T21 and time tag T22.
時間タグT23は、コメント情報Icmの入力時にコメント対象が指定された時刻を表す情報である。時間タグT23は、統合情報の再生が行われている現在の時刻(以下、再生時刻)を表す。但し、統合情報の再生がリアルタイムで行われている場合、即ち、統合情報の生成と同時に行われている場合は、時間タグT23は、時間タグT22と同じ値となってもよい。 The time tag T23 is information representing the time when the comment target was specified when the comment information Icm was input. The time tag T23 represents the current time at which the integrated information is being reproduced (hereinafter referred to as reproduction time). However, when the integrated information is reproduced in real time, that is, when the integrated information is generated at the same time, the time tag T23 may have the same value as the time tag T22.
コメント種別タグT24は、コメント情報Icmの形式を表す情報であり、テキストデータ、音声データ、画像データ、音声認識データ、動作解析データ等が含まれる。
図9に示すように、イベントリストLには、情報の項目として、「発生時刻」「イベントカテゴリ」「イベント作成者」「イベント内容」「再生時刻」が少なくとも含まれる。「発生時刻」は、イベントが発生した時刻であり、取得時刻と同じ時間軸上の時刻を表す。「イベントカテゴリ」は、発生したイベントのカテゴリを表し、具体的には、どのデバイスに関わるイベントであるかを表す。「イベント作成者」は、イベントが、端末5からの入力によって発生したイベントである場合に、そのイベントを発生させる操作をした者を表す。「イベント作成者」は、端末5を介して入力されてもよいし、端末5の使用者として予め登録された情報を端末5から取得してもよい。「イベント内容」は、発生したイベントの内容を表し、特にコメントを入力する際に発生させるコメントイベントの場合は入力されたコメントの内容を表す。「再生時刻」は、統合情報の再生時に、リストLにイベントが追加登録された場合に、その登録が行われた時刻であり、再生時における現在時刻を表す。
The comment type tag T24 is information representing the format of the comment information Icm, and includes text data, voice data, image data, voice recognition data, motion analysis data, and the like.
As shown in FIG. 9, the event list L includes at least "occurrence time", "event category", "event creator", "event content", and "reproduction time" as information items. "Occurrence time" is the time when the event occurred, and represents the time on the same time axis as the acquisition time. The “event category” represents the category of the event that occurred, and more specifically represents which device the event is related to. “Event Creator” represents a person who has performed an operation to generate an event when the event is generated by an input from the
なお、「イベント作成者」および「イベント内容」の欄は、端末5を介して適宜記入される。
図1に戻り、サーバ処理部32は、CPU321と、例えば、RAM、ROM等の半導体メモリ(以下、メモリ322)と、を有するマイクロコンピュータを備える。
The columns of “event creator” and “event content” are filled in via the
Returning to FIG. 1, the
サーバ処理部32は、機能的には、図2に示すように、複数のプロバイダ41A~41Hと、ミドルウェア42とを備える。以下では、複数のプロバイダ41A~41Hを区別することなく任意のプロバイダを指す場合は、プロバイダ41と記す。
The
各プロバイダ41には、それぞれデバイス21のいずれか一つが接続される。プロバイダ41は、接続されたデバイス21との間で情報のやり取りを仲介する。
ミドルウェア42は、プロバイダ41に接続される様々なデバイス21に対して、プログラミング言語や通信プロトコルの違いよらず、統一的なアクセス手段をプロバイダ41と共に提供する通信インターフェースである。ここでは、ミドルウェア42として、ORiNが用いられる。ORiNは、Open Resource interface for the Networkの略である。
One of the devices 21 is connected to each provider 41 . The provider 41 mediates exchange of information with the connected device 21 .
The
また、ミドルウェア42は、タグ付きデバイス情報T_Idvを生成するデバイス情報生成機能421と、要求に応じて現在時刻を提供する時計機能422とを少なくとも有する。
The
[3-1.デバイス情報処理]
サーバ処理部32のミドルウェア42がデバイス情報生成機能421を実現するために実行する処理(以下、デバイス情報処理)を、図5のフローチャートを用いて説明する。本処理は、サーバ3に電源が投入されると、プロバイダ41毎に実行される。
[3-1. device information processing]
Processing executed by the
S110では、サーバ処理部32は、処理対象のプロバイダ41にデバイス21が接続されているか否かを判断する。サーバ処理部32は、デバイス21が接続されていないと判断した場合は、同ステップを繰り返すことで待機し、デバイス21が接続されていると判断した場合は、処理をS120に移行する。
In S110, the
S120では、サーバ処理部32は、プロバイダ41を介してデバイス21からデバイス情報Idvを取得する。一つのデバイス21から取得されるデバイス情報Idvは、1種類であってもよいし、複数種類であってもよい。
In S<b>120 , the
続くS130では、サーバ処理部32は、現在時刻を取得して時間タグT11を生成し、その時間タグT11を、S110にて取得されたデバイス情報Idvに挿入する。現在時刻は、マイコンが有する時計機能422から取得してもよいし、デバイス21からデバイス情報Idvと共に提供されるデバイス情報Idvの取得時刻を表す時刻情報を用いてもよい。
In subsequent S130, the
続くS140では、サーバ処理部32は、S120で取得されたデバイス情報Idvに、そのデバイス情報Idvの種類を表すデータ種別タグT12を挿入する。データ種別タグT12は、プロバイダ41に接続されたデバイス21に応じて、予め用意されたものを用いる。
In subsequent S140, the
続くS150では、サーバ処理部32は、上述の処理で時間タグT11およびデータ種別タグT12からなる第1タグ情報T1が挿入されたデバイス情報Idvであるタグ付きデバイス情報T_Idvを、データベース31においてデバイス情報領域45に記憶させる。
In subsequent S150, the
続くS160では、サーバ処理部32は、デバイス情報Idvについてイベントが発生しているか否かを判断する。イベントは、デバイス情報Idvが予め設定されたイベント条件を満たした場合に発生する。イベント条件は、例えば、デバイス情報Idvが計測値である場合、その計測値または計測値の微分値や積分値が、予め設定された閾値を超えることを用いてもよい。但し、イベント条件は、これに限定されるものではない。
In subsequent S160, the
サーバ処理部32は、イベントが発生していると判断した場合は、処理をS170に移行し、イベントが発生していないと判断した場合は、処理をS180に移行する。
S170では、サーバ処理部32は、イベント発生時刻を表すイベント発生情報と、イベントの対象となったデバイス情報Idvを表すイベント対象情報とを、イベント情報領域47に格納されたイベントリストLに登録して、処理をS180に移行する。
If the
In S170, the
S180では、サーバ処理部32は、デバイス情報の生成を終了するか否かを判断する。具体的には、端末5を介して処理の終了を示す指令が入力されたか否かを判断する。サーバ処理部32は、デバイス情報の生成を継続すると判断した場合は、S110に戻り、
デバイス情報の生成を終了すると判断した場合は、処理を終了する。
In S180, the
If it is determined to end the generation of device information, the process ends.
[4.端末]
図1に示すように、端末5は、表示装置51と、入力装置52と、端末処理部53とを備える。複数の端末5は、いずれも同様の構成を有する。
[4. terminal]
As shown in FIG. 1 , the
表示装置51は、例えばタッチパネル方式の液晶ディスプレイであり、MPR画像等の3次元画像と生体情報等の測定結果を表す波形データや数値、各種の操作ボタン、各機器の設定値、表示設定値とを表示可能である。MPRは、Multi Planar Reconstructionの略である。
The
入力装置52は、例えば、上述の液晶ディスプレイに設けられたタッチパネル、キーボード、マウス、マイク、カメラ、およびモーションセンサ等の入力機器である。入力装置52、これら入力機器を介した入力操作に対応するテキストデータ、位置データ、音声データ、画像データ等を端末処理部53に対して出力する。
The
端末処理部53は、CPU531と、例えば、RAM、ROM等の半導体メモリ(以下、メモリ532)と、を有するマイクロコンピュータを備える。端末処理部53は、サーバ3のデータベース31に格納される情報に関連する1つ以上のアプリケーション(以下、AP)を実行する。ここでは、端末処理部53は、図2に示すように、表示AP61、音声認識AP62、動作解析AP63、コメント付与AP64、およびレイアウト変更AP65を少なくとも実行する。
The
音声認識AP62は、入力装置52を構成する入力機器の一つであるマイクにより取得されたユーザの音声に対して、音声認識処理を実行し、認識内容に対応したコマンドまたはテキストデータである音声認識データを生成し、認識対象となった音声と共に出力する。
The
動作解析AP63は、入力装置52を構成する入力機器の一つであるカメラによりユーザの動作(例えば、手、顔、頭等の動作)が撮影された画像を解析し、解析内容に対応したコマンドまたはテキストデータである動作解析データを生成し、解析対象となった画像と共に出力する。
The
つまり、端末5は、入力装置52と、音声認識AP62および動作解析AP63と、を備えることで、非接触での入力操作を実現する。
[4-1.表示処理]
端末処理部53が表示AP61を実行することで実現される処理(以下、表示処理)を、図6のフローチャートを用いて説明する。
That is, the
[4-1. Display processing]
Processing (hereinafter referred to as display processing) realized by the
表示処理は、入力装置52を介して表示開始指示が入力されてから表示終了指示が入力されるまでの間、予め設定された表示周期で繰り返し実行される。表示処理では、データベース31に保存された統合情報に基づき、入力装置52を介して指定される時間Sに対応したデバイス情報Idvおよびコメント情報Icmを表示装置51の表示画面に表示する。但し、静止画を表示する動作モードでは、時間Sは、入力装置52からの入力に応じて変更され、動画を表示する動作モードでは、時間Sは、入力装置52からの初期値の入力後は、表示周期に合わせて自動的に更新される。
The display process is repeatedly executed at a preset display cycle from when a display start instruction is input via the
S210では、端末処理部53は、時間Sを取得する。
続くS220では、端末処理部53は、データベース31から、全てのデバイス種別および全てのコメント種別について、時間S以前で最新の時刻を表す時間タグT11,T22が付与されたデバイス情報Idvおよびコメント情報Icmを取得する。なお、最新の時刻の探索には遡ることのできる上限時間が決められていてもよい。
In S210, the
In S220, the
例えば、図7に示すように、データベース31には、A~Dで識別される4種類のデバイス情報と、a,cで識別される2種類のコメント情報とが保存されているものとする。図7では、時間Sが9時00分Xミリ秒である場合、時および分を省略し、ミリ秒を単位として「X」と表示される。つまり、図5における「A」の欄に示す数値の列は、デバイス種別Aのデバイス情報Idvに付与された時間タグT11の内容を示す。
For example, as shown in FIG. 7, the
時間Sが「100」である場合、時間S以前で最新の時間タグT11を有するデバイス情報は、図7中に丸印で示したように、種類Aでは時間タグT11が「97」のデバイス情報であり、種類Bでは時間タグT11が「100」のデバイス情報であり、種類Cでは時間タグT11が「99」のデバイス情報であり、種類Dでは時間タグT11が「98」のデバイス情報である。 When the time S is "100", the device information having the latest time tag T11 before the time S is, as indicated by the circle in FIG. , type B has device information with a time tag T11 of "100", type C has device information with a time tag T11 of "99", and type D has device information with a time tag T11 of "98". .
また、時間S以前で最新の時間タグT22を有するコメント情報は、種類aでは時間タグT22が「93」のコメント情報である。種類cでは、上限時間範囲内に該当するコメント情報が存在しないことを意味する。 Also, the comment information having the latest time tag T22 before the time S is the comment information with the time tag T22 of "93" for the type a. Type c means that there is no corresponding comment information within the upper limit time range.
続くS230では、端末処理部53は、S220で読み出したデバイス情報Idvを、その時点で設定されているレイアウトに従って表示させるための画像データである主画像データを生成する。以下では、主画像データによって表示される画像を主画像という。
In subsequent S230, the
ここでレイアウトとは、以下の要素の複合である。(1)表示画面における表示領域をどのように区分するか。(2)区分された各領域に、どの種類のデバイス情報をいくつ同時に表示するか。(3)区分された各領域におけるデバイス情報の表示態様(画像、数値、グラフ、表等)をどのようにするか。 A layout is a combination of the following elements. (1) How to divide the display area on the display screen. (2) How many types of device information are to be displayed simultaneously in each of the divided areas. (3) How to display the device information (image, numerical value, graph, table, etc.) in each divided area.
主画像のレイアウトの一例として、例えば、図8に示すように、モニタ領域A1、映像領域A2、ナビ画像領域A3、時間領域A4等を有していてもよい。モニタ領域A1は、生体情報をモニタするグラフ等が表示される領域である。モニタ領域A1では、生体情報を数値およびグラフ形式で表示される。映像領域A2は、治療対象をカメラ等で撮影した動画が表示される領域である。ナビ画像領域A3は、手術ナビにより検出される3次元位置が、予め用意された患部の三次元画像と共に表示される領域である。ナビ画像領域では、検出位置を含みかつ互いに異なる断面を示す三つの断面画像が三面図形式で表示される。時間領域A4は、統合情報の時系列が存在する時間範囲を時間軸で表現し、その時間軸上で、時間Sを表示するための領域である。時間領域A4には、時間軸と共に、イベントの発生時刻を表すバルーン状の表示が行われてもよい。なお、レイアウトの設定および変更は、別途用意されるレイアウト変更AP65によって実現される。
As an example of the layout of the main image, for example, as shown in FIG. 8, it may have a monitor area A1, a video area A2, a navigation image area A3, a time area A4, and the like. The monitor area A1 is an area where a graph or the like for monitoring biological information is displayed. In the monitor area A1, biological information is displayed numerically and graphically. The image area A2 is an area in which a moving image of the treatment target captured by a camera or the like is displayed. The navigation image area A3 is an area where the three-dimensional position detected by surgery navigation is displayed together with a three-dimensional image of the affected area prepared in advance. In the navigation image area, three cross-sectional images including the detection position and showing mutually different cross-sections are displayed in a trihedron format. The time area A4 is an area for expressing the time range in which the time series of the integrated information exists on the time axis and displaying the time S on the time axis. In the time area A4, along with the time axis, a balloon-shaped display representing the event occurrence time may be displayed. The setting and change of the layout are realized by the
図6に戻り、続くS240では、端末処理部53は、S220で読み出したコメント情報Icmを、主画像と共に表示させるための画像データであるコメント画像データを生成する。以下では、コメント画像データによって表示される画像をコメント画像という。なお、主画像上におけるコメント画像の表示位置および表示形式は、コメント情報Icmのコメント種別、およびコメント対象となるデバイス情報Idvのデータ種別に応じて、予め設定されている。なお、コメント画像の表示位置および表示形式を変更する専用のアプリが存在してもよい。
Returning to FIG. 6, in subsequent S240, the
続くS250では、端末処理部53は、S230にて生成された主画像データおよびS240にて生成されたコメント画像データを、表示装置51に出力することで、主画像およびコメント画像を表示装置51の表示画面に表示させて、処理を一旦終了する。
In subsequent S250, the
なお、S210~S230が主画像生成部、S210~S220,S240がコメント画像生成部に相当する。
[4-2.コメント付与処理]
端末処理部53が表示AP61を実行することで実現される処理(以下、コメント付与処理)を、図10のフローチャートを用いて説明する。本処理は、表示処理が実行されている間、繰り返し実行される。
Note that S210 to S230 correspond to the main image generating section, and S210 to S220 and S240 correspond to the comment image generating section.
[4-2. Comment adding process]
A process realized by the
S310では、端末処理部53は、入力装置52を介して、表示装置51の画面(以下、表示画面)に表示されている情報全体(以下、「全体」)をコメント対象として指定する全指定入力が行われたか否かを判断する。端末処理部53は、全指定入力が行われたと判断した場合は、処理をS340に移行し、全指定入力が行われていないと判断した場合は、処理をS320に移行する。
In S310, the
S340では、端末処理部53は、全指定入力が行われたタイミングに対応した取得時刻を取得して時間タグT22を生成すると共に、当該タイミングに対応した再生時刻を取得して時間タグT23を生成する。なお、取得時刻とは、全指定入力が行われたタイミング以前に表示処理のS210にて直近で取得された時間S、または、当該タイミングで表示されているデバイス情報Idvに対応づけられた時間タグT11が示す時刻である。また、再生時刻とは、全指定入力が行われたタイミングで時計機能422から取得される現在時刻である。
In S340, the
続くS350では、端末処理部53は、コメント対象が「全体」であることを表すコメント対象タグT21を生成して、処理をS420に進める。
S320では、端末処理部53は、入力装置52を介して、表示画面上の位置を示す位置入力が行われたか否かを判断する。位置入力は、表示画面上のタッチパネルによって入力された位置でもよいし、マウスやキーボートによって操作される表示画面に表示されたカーソルが示す位置でもよい。更に、主画像中にナビ画像領域A3が含まれている場合は、そのナビ画像により示されている3次元位置であってもよい。具体的には、三面図のそれぞれに示された、補助線が交差する各画像の中心位置である。端末処理部53は、位置入力が行われたと判断した場合は、処理をS360に移行し、位置入力が行われていないと判断した場合は、処理をS330に移行する。
In subsequent S350, the
In S<b>320 , the
S360では、端末処理部53は、入力装置52を介して位置入力が行われたタイミングに対応した取得時刻および再生時刻を取得し、S340での処理と同様に、時間タグT22,T23を生成する。
In S360, the
続くS370では、端末処理部53は、位置入力によって指定された表示画面上の位置である指定位置に、測定値を表す数字または波形(以下、波形等)が表示されているか否か、即ち、位置入力によって波形等が指定されたか否かを判断する。端末処理部53は、波形等が指定されていないと判断した場合は、処理をS380に移行し、波形等が指定されていると判断した場合は、処理をS390に移行する。
In subsequent S370, the
S380では、端末処理部53は、指定位置と、その時点での表示のレイアウトとに基づいて、指定位置に表示されているデバイス情報Idvの種類を特定する。デバイス情報Idvの種類は、そのデバイス情報Idvに対応づけられたデータ種別タグT12で表される。更に、その特定されたデバイス情報Idvがコメント対象であることを表すコメント対象タグT21を生成して、処理をS420に進める。
In S380, the
S390では、端末処理部53は、位置入力によって指定された波形等が、コメント対象であることを表すコメント対象タグT21を生成して、処理をS420に進める。
なお、S380およびS390では、コメント対象に割り当てられた表示領域内における相対位置で、指定位置を表した情報を、コメント対象タグT21に含めてもよい。これは、レイアウトが変更された場合に、表示領域内での表示と指定位置との関係が変化しないようにするための情報である。
In S390, the
In S380 and S390, the comment target tag T21 may include information indicating the specified position as a relative position within the display area assigned to the comment target. This is information for preventing the relationship between the display and the specified position in the display area from changing when the layout is changed.
S330では、端末処理部53は、入力装置52を介してコメント入力を行う旨の操作であるコメントイベント入力が行われたか否かを判断する。具体的には、図6に示すように、画面上の時間領域A4に表示されるイベント追加ボタンBevが、入力装置52を介して操作された場合に、コメントイベント入力が行われたと判断する。端末処理部53は、コメントイベント入力が行われたと判断した場合は、処理をS400に移行し、コメントイベント入力が行われていないと判断した場合は、処理をS310に戻す。なお、イベント追加ボタンBevが操作されると、図9に示すように、画面上に新たなコメントイベントが追加されたイベントリストLが表示される。
In S330, the
S400では、端末処理部53は、コメントイベント入力が行われたタイミングに対応した取得時刻および再生時刻を取得し、S340での処理と同様に、時間タグT22,T23を生成する。この取得時刻および再生時刻は、イベントリストLにも表示される。
In S400, the
続くS410では、端末処理部53は、全体がコメント対象であることを表すコメント対象タグT21を生成して、処理をS420に進める。
S420では、端末処理部53は、入力装置52を介してコメント入力があったか否かを判断し、コメント入力があれば処理をS440に移行し、コメント入力がなければ、処理をS430に移行する。
In subsequent S410, the
In S420, the
S430では、入力装置52を介してコメント入力をキャンセルする指示が入力されたか否かを判断し、キャンセルする指示が入力された場合は処理を終了し、キャンセルする指示の入力がなければ、処理をS420に戻す。
At S430, it is determined whether or not an instruction to cancel the input of the comment has been input via the
S440では、端末処理部53は、コメント入力に使用された入力機器から、入力されたコメントの種別を特定して、コメント種別タグT24を生成する。コメントの種別とは、キーボードを介した文字入力、タッチパネルを介した手書き入力、マイクを介した音声入力、カメラを介した画像入力等がある。
In S440, the
続くS450では、端末処理部53は、コメント種別に応じたコメント情報Icmを生成する。具体的には、コメント種別が文字入力または手書き入力である場合、入力されたテキストデータまたは画像をそのままコメント情報Icmとする。コメント種別が音声入力である場合、音声データだけでなく、音声認識AP62を実行することによって生成される音声認識データもコメント情報Icmに含める。同様に、コメント種別が画像入力である場合、画像データだけでなく、動作解析AP63を実行することによって生成される動作解析データもコメント情報Icmに含める。
In subsequent S450, the
続くS460では、端末処理部53は、S450で生成されたコメント情報Icmに、S340、S360、S400で生成される時間タグT22,T23、S350、S380、S390、S410で生成されるコメント対象タグT21、S440で生成されるコメント種別タグT24を挿入することでタグ付きコメント情報T_Icmを生成する。
In subsequent S460, the
続くS470では、端末処理部53は、生成されたタグ付きコメント情報T_Icmを、データベース31に記憶させて、処理を一旦終了する。
データベース31に記憶されたタグ付きコメント情報T_Icmの内容は、繰り返し実行される表示処理によって、直ちに、表示に反映される。
In subsequent S470, the
The contents of the tagged comment information T_Icm stored in the
なお、S310~S330および入力装置52が対象指定部、S420および入力装置52がコメント入力部、S340~S410,S440~S470が情報生成部に相当する。
Note that S310 to S330 and the
なお、サーバ処理部32および端末処理部53の各機能は、CPU321,531が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ322,532が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、サーバ処理部32および端末処理部53は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
Each function of the
サーバ処理部32および端末処理部53に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
The method of realizing the function of each part included in the
[5.表示例]
ここで、表示処理によるコメント情報Icmの表示例を、図11を用いて説明する。
モニタ領域A1に表示された計測値が大きく変化した時に、その計測値が表示された画面上の部位を指で触れる等して位置入力をした後、キーボード等を介して「投薬にて変化」等のコメント入力をする。すると、図11中の符号C1に示すように、コメント対象となるパラメータに関連付けた文字コメントが表示される。
[5. Display example]
Here, a display example of the comment information Icm by display processing will be described with reference to FIG. 11 .
When the measured value displayed in the monitor area A1 changes significantly, after inputting the position by touching the part on the screen where the measured value is displayed with a finger, etc., "Change by medication" is entered via a keyboard or the like. Enter comments such as Then, as indicated by reference numeral C1 in FIG. 11, a character comment associated with the parameter to be commented is displayed.
映像領域A2を指定する位置入力が行われたあと、タッチパネル用の入力ペン等を用いて表示画面上に線図や文字を手書き入力する。すると、図11中の符号C2に示すように、コメント対象となる映像領域A2中の画像に、手書き入力した線図や文字がそのまま重畳表示される。 After the position input for designating the image area A2 is performed, a line drawing or characters are input by handwriting on the display screen using an input pen for a touch panel or the like. Then, as indicated by reference numeral C2 in FIG. 11, the handwritten line drawing and characters are superimposed and displayed as they are on the image in the image area A2 to be commented.
ナビ画像領域A3にMPR画像が3面図形式で表示されている状態で、ナビ画像領域A3を指定する操作が行われると、ナビ画像領域A3に表示されたMPR画像により特定される3次元位置を指定する位置入力が行われたものとされ、指定された3次元位置に対するコメントの入力が可能となる。この場合、3面図の各中央位置で表される3次元位置がコメント対象となり、図11中の符号C3で示す「コメ1」の部分にコメントが表示される。また、3面図の別の位置には、以前にコメント対象として指定された3次元位置を表す黒点に対応づけて、図11中の符号C4で示す「コメ2」の部分にコメントが表示される。なお、コメントは、画像に重畳表示されるのではなく、ナビ画像領域A3中で画像のない部分に表示されてもよい。
When an operation to specify the navigation image area A3 is performed while the MPR image is displayed in the navigation image area A3 in a three-view format, the three-dimensional position specified by the MPR image displayed in the navigation image area A3 is displayed. is assumed to have been entered, and a comment can be entered for the specified three-dimensional position. In this case, the three-dimensional position represented by each central position of the three-view drawing becomes a comment target, and the comment is displayed in the "
全指定入力が行われた場合、図示は省略するが、例えば、表示画面の右隅に、縦長のコメント表示領域が設定され、そのコメント表示領域の中に、コメント時間とコメント内容とが時系列で表示されてもよい。 When all specification inputs are performed, although illustration is omitted, for example, a vertically long comment display area is set in the right corner of the display screen, and the comment time and comment content are displayed in chronological order in the comment display area. may be displayed as
[6.効果]
以上詳述した情報統合装置1によれば、以下の効果を奏する。
(6a)手術や治療中にリアルタイムでデバイス情報Idvの表示を行った場合、任意の関係者と手術や治療の状況等をリアルタイムで共有できるだけでなく、術中に受けたアドバイスや術中に行った機器の操作や作業の意図、および術中に気づいたこと等の備忘として、リアルタイムでコメントを残すことができる。
[6. effect]
The
(6a) When device information Idv is displayed in real time during surgery or treatment, not only can the status of surgery or treatment be shared in real time with any stakeholders, but also advice received during surgery and equipment used during surgery It is possible to leave comments in real time as memorandums such as the operation of , the intention of the work, and what you noticed during the operation.
例えば、表示装置51の表示画面に表示されたデバイス情報に、他の部分とは異なる特徴的な部分が存在する場合、投薬、空調の設定変更、および患者の姿勢変更など、デバイス情報から読み取ることのできない情報をコメントとして残すことができる。
For example, if the device information displayed on the display screen of the
(6b)タッチパネル、キーボード、およびマウス等による機器の操作を伴う入力だけでなく、マイクがカメラを通した音声やジェスチャによる非接触でのコメント入力が可能なため、機器の操作を行えない状況にある施術者等のコメントも簡単に残すことができる。 (6b) In addition to input that involves operating the device using a touch panel, keyboard, mouse, etc., it is possible to input comments through a microphone through a camera and non-contact comment input using gestures, making it impossible to operate the device. It is also possible to easily leave a comment of a certain practitioner or the like.
(6c)手術や治療の振り返りや教育等のために、術後にデバイス情報Idvおよびコメント情報Icmの表示を行った場合は、閲覧者は、デバイス情報Idvだけからは得ることのできない、有用な情報をコメント情報Icmから得ることができる。また、このとき、新たなコメントを追加することもできる。 (6c) When the device information Idv and the comment information Icm are displayed after the surgery for the purpose of reviewing or educating the surgery or treatment, the viewer can obtain useful information that cannot be obtained from the device information Idv alone. Information can be obtained from the comment information Icm. At this time, new comments can also be added.
(6d)コメントを入力する際には、表示画面上の示された個々のデバイス情報Idvを指定することができ、その指定されたデバイス情報Idvと関連づけてコメント情報Icmが表示,再生されるため、閲覧者は、コメント対象を明確に把握することができる。 (6d) When entering a comment, individual device information Idv shown on the display screen can be specified, and the comment information Icm is displayed and reproduced in association with the specified device information Idv. , the viewer can clearly grasp the target of the comment.
(6e)コメント対象を「全体」とすることができるため、この機能を利用することで、閲覧者同士が表示画面上で議論をすることができ、また、その議論内容をコメントとして残すことができる。 (6e) Since it is possible to make comments on the "whole", by using this function, viewers can discuss with each other on the display screen, and the content of the discussion can be left as a comment. can.
[7.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[7. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.
(7a)上記実施形態では、端末5に複数のアプリケーション61~65が実装されているが、本開示は、これに限定されるものではない。例えば、サーバ3に端末5を一体化し、サーバ3に複数のアプリケーション61~65の少なくとも一部が実装されてもよい。
(7a) In the above embodiment, a plurality of
(7b)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (7b) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.
(7c)上述した情報統合装置の他、当該情報統合装置を構成要素とするシステム、当該情報統合装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体など、種々の形態で本開示を実現することもできる。 (7c) In addition to the information integration device described above, a system having the information integration device as a component, a program for making a computer function as the information integration device, a non-transitional actual record such as a semiconductor memory in which this program is recorded The present disclosure can also be implemented in various forms such as media.
1…情報統合装置、2…デバイス群、3…サーバ、5…端末、21A~21H…デバイス、31…データベース、32…サーバ処理部、41A~41H…プロバイダ、42…ミドルウェア、45…デバイス情報領域、46…コメント情報領域、47…イベント情報領域、51…表示装置、52…入力装置、53…端末処理部、61~65…アプリケーション、321,531…CPU、322,532…メモリ、421…デバイス情報生成機能、422…時計機能。
DESCRIPTION OF
Claims (6)
前記情報記憶部に記憶された複数の前記デバイス情報のうち、同一時間に対応づけられる一種類以上の前記デバイス情報を抽出し、抽出した前記デバイス情報を1画面で表示するための画像データである主画像データを生成するように構成された主画像生成部(53:S210~S230)と、
前記画像データによって表示される表示画像中のコメント対象を指定するように構成された対象指定部(52,53:S310~S330)と、
前記対象指定部により指定された前記コメント対象に関連付けられる情報であるコメント情報を入力するように構成されたコメント入力部(52,53:S420)と、
前記コメント入力部により入力された前記コメント情報を、前記対象指定部にて指定された前記コメント対象を特定するための情報を含んだ第2タグ情報と関連づけて前記情報記憶部に記憶させるように構成された情報生成部(53:S340~S410,S440~S470)と、
前記主画像データにより表示される画像である主画像中に前記コメント対象が含まれる場合に、当該コメント対象に対応する前記コメント情報を前記情報記憶部から抽出し、抽出した前記コメント情報を前記主画像中の前記コメント対象と関連づけて表示するための画像データであるコメント画像データを生成するように構成されたコメント画像生成部(53:S210~S220,S240)と、
を備え、
前記コメント対象の一つとして表示画像全体を含む
情報統合装置。 Device information acquired from a plurality of medical devices (21) used for treatment of a patient is associated with first tag information including information representing the time when the device information was acquired and the type of the device information. an information storage unit (31) stored by
image data for extracting one or more types of device information associated with the same time from among the plurality of device information stored in the information storage unit and displaying the extracted device information on one screen; a main image generator (53: S210 to S230) configured to generate main image data;
a target specifying unit (52, 53: S310 to S330) configured to specify a comment target in the display image displayed by the image data;
a comment input unit (52, 53: S420) configured to input comment information that is information associated with the comment target specified by the target specifying unit;
The comment information input by the comment input unit is stored in the information storage unit in association with second tag information including information for specifying the comment target specified by the target specifying unit. The configured information generation unit (53: S340 to S410, S440 to S470);
When the comment target is included in the main image that is the image displayed by the main image data, the comment information corresponding to the comment target is extracted from the information storage unit, and the extracted comment information is stored in the main image data. a comment image generation unit (53: S210 to S220, S240) configured to generate comment image data, which is image data to be displayed in association with the comment target in the image;
with
Include the entire display image as one of the comment targets
Information integrator.
前記対象指定部は、前記表示画像を表示する画面上の位置を指定するように構成され、
前記コメント対象の一つとして、前記指定部にて指定された位置に表示された前記デバイス情報または該デバイス情報の一部を含む、
情報統合装置。 2. The information integration device according to claim 1, wherein said target specifying unit is configured to specify a position on a screen where said display image is to be displayed,
including the device information or part of the device information displayed at the position specified by the specifying unit as one of the comment targets;
Information integrator.
前記デバイス情報の一つとして、前記デバイスに関する制御パラメータを含む
情報統合装置。 The information integration device according to claim 2,
An information integration apparatus including a control parameter related to the device as one of the device information.
前記デバイス情報の一つとして、生体情報の波形を表すグラフを含む
情報統合装置。 The information integration device according to claim 2 or claim 3,
An information integration apparatus including a graph representing a waveform of biometric information as one of the device information.
前記デバイス情報の一つとして、手術中における手術器具の3次元位置を含み、
前記コメント対象の一つとして、前記手術器具の3次元位置に対応した治療対象の3次元画像を表示する手術ナビゲーションシステムにおけるナビ画像を含む、
情報統合装置。 The information integration device according to any one of claims 1 to 4,
One of the device information includes a three-dimensional position of a surgical instrument during surgery,
One of the comment targets includes a navigation image in a surgical navigation system that displays a three-dimensional image of a treatment target corresponding to the three-dimensional position of the surgical instrument,
Information integrator.
前記対象指定部は、あらかじめ用意された操作部(Bev)が操作されたタイミングで
表示画像全体を前記コメント対象として指定するように構成された、
情報統合装置。 The information integration device according to any one of claims 1 to 5 ,
The target specifying unit is configured to specify the entire display image as the comment target at the timing when an operation unit (Bev) prepared in advance is operated.
Information integrator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018241309A JP7240665B2 (en) | 2018-12-25 | 2018-12-25 | Information integration device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018241309A JP7240665B2 (en) | 2018-12-25 | 2018-12-25 | Information integration device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020102126A JP2020102126A (en) | 2020-07-02 |
JP7240665B2 true JP7240665B2 (en) | 2023-03-16 |
Family
ID=71141286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018241309A Active JP7240665B2 (en) | 2018-12-25 | 2018-12-25 | Information integration device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7240665B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271127A (en) | 2008-04-30 | 2009-11-19 | Fuji Xerox Co Ltd | Information processor and program |
JP2015185125A (en) | 2014-03-26 | 2015-10-22 | 株式会社デンソー | Information integration device, information integration system, and program |
WO2018163600A1 (en) | 2017-03-07 | 2018-09-13 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical information management device, medical information management method, and medical information management system |
-
2018
- 2018-12-25 JP JP2018241309A patent/JP7240665B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271127A (en) | 2008-04-30 | 2009-11-19 | Fuji Xerox Co Ltd | Information processor and program |
JP2015185125A (en) | 2014-03-26 | 2015-10-22 | 株式会社デンソー | Information integration device, information integration system, and program |
WO2018163600A1 (en) | 2017-03-07 | 2018-09-13 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical information management device, medical information management method, and medical information management system |
Also Published As
Publication number | Publication date |
---|---|
JP2020102126A (en) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20060173858A1 (en) | Graphical medical data acquisition system | |
US7834891B2 (en) | System and method for perspective-based procedure analysis | |
Faiola et al. | Advancing critical care in the ICU: a human-centered biomedical data visualization systems | |
JP2005510326A (en) | Image report creation method and system | |
US20110150420A1 (en) | Method and device for storing medical data, method and device for viewing medical data, corresponding computer program products, signals and data medium | |
CA2798592A1 (en) | Visual indexing system for medical diagnostic data | |
JP2010075403A (en) | Information processing device and method of controlling the same, data processing system | |
US7418120B2 (en) | Method and system for structuring dynamic data | |
WO2012029265A1 (en) | Medical treatment information display device and method, and program | |
JP2004267273A (en) | Medical system | |
JP2004305289A (en) | Medical system | |
JP2012115446A (en) | Diagnosis support apparatus, method of controlling the same, and program | |
JP2009230304A (en) | Medical report creation support system, program, and method | |
US10642956B2 (en) | Medical report generation apparatus, method for controlling medical report generation apparatus, medical image browsing apparatus, method for controlling medical image browsing apparatus, medical report generation system, and non-transitory computer readable medium | |
US20070076929A1 (en) | System and method for automatic post processing image generation | |
JP2005027978A (en) | Medical information system | |
JP4992896B2 (en) | Medical imaging system | |
JP2009160233A (en) | Medical diagnostic apparatus, layout management apparatus for medical image, browsing apparatus for medical image, and medical image printer | |
US20160092637A1 (en) | Medical assistance device, medical assistance system, medical assistance program, and medical assistance method | |
CN103714236A (en) | Medical image display apparatus and medical image display method | |
JP2013052245A (en) | Information processing device and information processing method | |
JP2016057695A (en) | Support device for preparing image reading report and control method of the same | |
JP2020081280A (en) | Image display control system, image display system, and image analyzing device | |
JP2018055278A (en) | Medical information processing apparatus, medical information processing system, medical information processing method, and program | |
JP7240665B2 (en) | Information integration device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190903 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7240665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |