JP7240665B2 - Information integration device - Google Patents

Information integration device Download PDF

Info

Publication number
JP7240665B2
JP7240665B2 JP2018241309A JP2018241309A JP7240665B2 JP 7240665 B2 JP7240665 B2 JP 7240665B2 JP 2018241309 A JP2018241309 A JP 2018241309A JP 2018241309 A JP2018241309 A JP 2018241309A JP 7240665 B2 JP7240665 B2 JP 7240665B2
Authority
JP
Japan
Prior art keywords
information
comment
target
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018241309A
Other languages
Japanese (ja)
Other versions
JP2020102126A (en
Inventor
豪 椋本
英樹 奥田
善浩 村垣
淳 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OpexPark Inc
Original Assignee
OpexPark Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OpexPark Inc filed Critical OpexPark Inc
Priority to JP2018241309A priority Critical patent/JP7240665B2/en
Publication of JP2020102126A publication Critical patent/JP2020102126A/en
Application granted granted Critical
Publication of JP7240665B2 publication Critical patent/JP7240665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、手術や治療で使用される医療装置から取得した医療情報を表示する技術に関する。 The present disclosure relates to technology for displaying medical information obtained from medical devices used in surgery and treatment.

下記特許文献1には、手術や治療で使用される複数の医療装置から医療情報を取得し、それら複数の医療情報を統合して画面に表示する医療情報システムが記載されている。 Patent Literature 1 listed below describes a medical information system that obtains medical information from a plurality of medical devices used in surgery and treatment, integrates the plurality of medical information, and displays the information on a screen.

特開2015-185125号公報JP 2015-185125 A

この種のシステムは、術中におけるリアルタイムな検討およびサポート、術後における手術解析、カンファレンス等のふりかえり、事故調査、教育用途などに用いられる。その際に、関係者の間で様々な情報を簡単に共有できるようにしたいという要望がある。共有する情報としては、術中にした判断の内容、術中に受けたサポートの内容、各医療装置の設定変更や計測値の変化に対するコメント、術中または術後の振り返り時に気づいたこと等、教育のため及び学会発表資料作成のため等に必要な様々な情報が挙げられる。 This type of system is used for real-time examination and support during surgery, surgery analysis after surgery, review of conferences and the like, investigation of accidents, educational purposes, and the like. At that time, there is a demand to make it possible to easily share various kinds of information among related parties. The information to be shared includes the details of decisions made during surgery, details of support received during surgery, comments on changes in the settings of each medical device and changes in measurement values, and things noticed during and after surgery, etc., for educational purposes. and various information necessary for preparing conference presentation materials.

本開示の1つの局面は、医療用のデバイスから取得され画面表示される情報に対する利用者のコメントを簡易に共有および記録する技術を提供することにある。 One aspect of the present disclosure is to provide a technique for easily sharing and recording user comments on information acquired from a medical device and displayed on the screen.

本開示の一態様は、情報統合装置であって、情報記憶部(31)と、主画像生成部(53:S210~S230)と、対象指定部(52,53:S310~S330)と、コメント入力部(52,53:S420)と、情報生成部(53:S340~S410,S440~S470)と、コメント画像生成部(53:S210~S220,S240)と、を備える。 One aspect of the present disclosure is an information integration device comprising an information storage unit (31), a main image generation unit (53: S210 to S230), a target designation unit (52, 53: S310 to S330), a comment It has an input section (52, 53: S420), an information generation section (53: S340 to S410, S440 to S470), and a comment image generation section (53: S210 to S220, S240).

情報記憶部は、患者の治療に使用される複数の医療用のデバイス(21)から取得されるデバイス情報が、デバイス情報が取得された時刻およびデバイス情報の種類を表す情報を含んだ第1タグ情報と関連づけて記憶される。主画像生成部は、情報記憶部に記憶された複数のデバイス情報のうち、同一時間に対応づけられる一種類以上のデバイス情報を抽出し、抽出したデバイス情報を1画面で表示するための画像データである主画像データを生成する。対象指定部は、画像データによって表示される表示画像中のコメント対象を指定する。コメント入力部は、対象指定部により指定されたコメント対象に関連付けられる情報であるコメント情報を入力する。情報生成部は、コメント入力部により入力されたコメント情報を、対象指定部にて指定されたコメント対象を特定するための情報を含んだ第2タグ情報と関連づけて情報記憶部に記憶させる。コメント画像生成部は、主画像データにより表示される画像である主画像中にコメント対象が含まれる場合に、当該コメント対象に対応するコメント情報を情報記憶部から抽出し、抽出したコメント情報を主画像中のコメント対象と関連づけて表示するための画像データであるコメント画像データを生成する。 The information storage unit stores device information obtained from a plurality of medical devices (21) used for treatment of a patient as a first tag containing information representing the time when the device information was obtained and the type of the device information. It is stored in association with information. The main image generation unit extracts one or more types of device information associated with the same time from among a plurality of pieces of device information stored in the information storage unit, and image data for displaying the extracted device information on one screen. to generate the main image data. The target specifying section specifies a comment target in the display image displayed by the image data. The comment input unit inputs comment information that is information associated with the comment target specified by the target specifying unit. The information generation unit stores the comment information input by the comment input unit in the information storage unit in association with second tag information including information for specifying the comment target specified by the target specification unit. The comment image generation unit extracts comment information corresponding to the comment target from the information storage unit when a comment target is included in the main image, which is an image displayed by the main image data, and stores the extracted comment information in the main image. Comment image data, which is image data to be displayed in association with the comment target in the image, is generated.

このような構成によれば、デバイス情報自体からは読み取ることのできない情報等を、コメント情報として簡単に残すことができる。しかも、そのコメント情報は、対応するデバイス情報と関連づけて表示されるため、表示画面の閲覧者は、コメント対象を明確に把握できる。 According to such a configuration, information that cannot be read from the device information itself can be easily left as comment information. Moreover, since the comment information is displayed in association with the corresponding device information, the viewer of the display screen can clearly grasp the target of the comment.

情報統合装置の構成を表すブロック図である。It is a block diagram showing the structure of an information integration apparatus. 情報統合装置の機能を表す機能ブロック図である。It is a functional block diagram showing the function of an information integration device. タグ付きデバイス情報の構造を示す説明図である。FIG. 4 is an explanatory diagram showing the structure of tagged device information; タグ付きコメント情報の構造を示す説明図である。FIG. 4 is an explanatory diagram showing the structure of tagged comment information; デバイス情報生成処理を表すフローチャートである。9 is a flowchart showing device information generation processing; 表示処理を表すフローチャートである。4 is a flowchart showing display processing; 表示処理において読み出す情報を表す説明図である。FIG. 4 is an explanatory diagram showing information read out in display processing; 主画像のレイアウトの1例を表す説明図である。FIG. 4 is an explanatory diagram showing one example of a layout of a main image; イベントリストを表す説明図である。FIG. 4 is an explanatory diagram showing an event list; コメント付与処理を表すフローチャートである。It is a flow chart showing comment provision processing. コメント情報の表示例を表す説明図である。FIG. 10 is an explanatory diagram showing a display example of comment information;

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.全体構成]
情報統合装置1は、手術室における各種情報を統合して保存し、表示するための装置である。情報統合装置1は、術中におけるリアルタイムな検討およびサポート、術後における手術解析および教育用途などに適用される。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. overall structure]
The information integration device 1 is a device for integrating, storing, and displaying various types of information in an operating room. The information integration device 1 is applied to real-time examination and support during surgery, surgical analysis after surgery, educational purposes, and the like.

図1に示すように、情報統合装置1は、デバイス群2と、サーバ3と、複数の端末5とを備える。
[2.デバイス群]
デバイス群2は、図2に示すように、複数のデバイス21A~21Hを備える。各デバイス21A~21Hは、それぞれ、データを生成してサーバ3に供給する。以下では、複数のデバイス21A~21Hを区別することなく、任意のデバイスを指す場合は、デバイス21と記す。
As shown in FIG. 1, the information integration apparatus 1 includes a device group 2, a server 3, and a plurality of terminals 5. FIG.
[2. Devices]
The device group 2 includes a plurality of devices 21A-21H, as shown in FIG. Each of the devices 21A-21H generates data and supplies it to the server 3. FIG. Hereinafter, when referring to an arbitrary device, the device 21 is used without distinguishing between the plurality of devices 21A to 21H.

デバイス21は、手術や治療時に使用される医療機器および医療設備等である。具体的には、医療機器として、例えば、生体情報モニタ、呼吸機能モニタ、循環動態モニタ、鎮静モニタ、麻酔器、輸液ポンプ、シリンジ、血液浄化装置、人工心肺装置、補助循環装置等が挙げられる。医療設備として、例えば、手術ナビゲーションシステム(以下、手術ナビ)、IPカメラ、医療ガスシステム、内視鏡、顕微鏡、電気メス、ドリル、超音照射装置等が上げられる。また、デバイスには、空調システム、アイソレーションシステム等が含まれてもよい。 The device 21 is a medical device, medical equipment, or the like used during surgery or treatment. Specifically, medical equipment includes, for example, biological information monitors, respiratory function monitors, hemodynamic monitors, sedation monitors, anesthesia machines, infusion pumps, syringes, blood purifiers, heart-lung machines, assisted circulation devices, and the like. Examples of medical equipment include surgical navigation systems (hereinafter referred to as surgical navigation), IP cameras, medical gas systems, endoscopes, microscopes, electric scalpels, drills, ultrasonic irradiation devices, and the like. Devices may also include air conditioning systems, isolation systems, and the like.

そして、デバイス21から供給されるデータ(以下、デバイス情報)には、デバイス21による計測値、デバイス21から出力される動画および静止画、デバイス21の使用状況やエラーを含むデバイスの状態、デバイス21自体の設定値、およびデバイス21が扱うパラメータに関する設定値等が含まれる。 The data supplied from the device 21 (hereinafter referred to as device information) includes measurement values from the device 21, video and still images output from the device 21, device status including the usage status and errors of the device 21, device 21 It includes setting values of itself and setting values related to parameters handled by the device 21 .

なお、手術ナビは、手術中における手術器具の3次元位置および姿勢を取得する装置である。手術器具としては、電気メスおよび鉗子の他、顕微鏡等も挙げられる。手術器具の3次元位置および姿勢を取得する方法として、例えば、予め複数のマーカを手術器具の特定の位置に取り付け、手術が実施される空間において予め規定された基準位置から手術器具における特定の位置までのベクトルを手術器具の3次元位置として特定し、複数のマーカ間の位置関係から姿勢を特定することが考えられる。また、顕微鏡の焦点を3次元位置として特定してもよい。このとき、CT、MRI等により、患者の患部を予め撮影した3次元画像に対応付けて3次元位置を特定する。CTはComputed Tomographyの略であり、MRIはMagnetic Resonance Imagingの略である。 The surgical navigation system is a device that acquires the three-dimensional position and orientation of surgical instruments during surgery. Surgical instruments include electric scalpels and forceps, as well as microscopes and the like. As a method of acquiring the three-dimensional position and orientation of a surgical instrument, for example, a plurality of markers are attached in advance to specific positions of the surgical instrument, and a predetermined reference position in the space where the surgery is performed is compared to a specific position on the surgical instrument. It is conceivable to specify the vector up to the point as the three-dimensional position of the surgical instrument, and to specify the orientation from the positional relationship between a plurality of markers. Also, the focal point of the microscope may be specified as a three-dimensional position. At this time, the three-dimensional position is specified by associating the patient's diseased part with a three-dimensional image taken in advance by CT, MRI, or the like. CT is an abbreviation for Computed Tomography, and MRI is an abbreviation for Magnetic Resonance Imaging.

[3.サーバ]
サーバ3は、データベース31と、サーバ処理部32とを備える。
データベース31は、HDD等によって実現され、図2に示すように、デバイス情報領域45、コメント情報領域46、およびイベント情報領域47が少なくとも確保されている。デバイス情報領域45には、タグ付きデバイス情報T_Idvが格納され、コメント情報領域46には、タグ付きコメント情報T_Icmが格納され、イベント情報領域47には、イベントリストLが格納される。また、タグ付きデバイス情報T_Idvおよびタグ付コメント情報T_Icmを総称して統合情報ともいう。サーバ3は、情報記憶部に相当する。
[3. server]
The server 3 includes a database 31 and a server processing section 32 .
The database 31 is implemented by an HDD or the like, and as shown in FIG. 2, at least a device information area 45, a comment information area 46, and an event information area 47 are secured. The device information area 45 stores tagged device information T_Idv, the comment information area 46 stores tagged comment information T_Icm, and the event information area 47 stores an event list L. Also, the tagged device information T_Idv and the tagged comment information T_Icm are collectively referred to as integrated information. The server 3 corresponds to an information storage unit.

図3に示すように、タグ付きデバイス情報T_Idvは、第1タグ情報T1と、デバイス情報Idvとを有する。
デバイス情報Idvは、手術中等に、デバイス群2に属するいずれかのデバイス21から取得される情報であり、具体的には、計測値、設定値、および画像データ等が含まれる。
As shown in FIG. 3, tagged device information T_Idv has first tag information T1 and device information Idv.
The device information Idv is information acquired from one of the devices 21 belonging to the device group 2 during surgery or the like, and specifically includes measurement values, setting values, image data, and the like.

第1タグ情報T1は、デバイス情報Idvに関する情報であり、時間タグT11およびデータ種別タグT12が少なくとも含まれる。時間タグT11は、デバイス情報Idvが取得された時刻(以下、取得時刻)を表す情報である。データ種別タグT12は、デバイス情報Idvの生成元となったデバイス21を特定するための識別情報を含む。なお、一つのデバイス21から複数のデバイス情報Idvが取得される場合は、いずれのデバイス情報Idvであるかを特定するための識別情報も含む。 The first tag information T1 is information related to device information Idv, and includes at least a time tag T11 and a data type tag T12. The time tag T11 is information representing the time when the device information Idv was acquired (hereinafter referred to as acquisition time). The data type tag T12 includes identification information for specifying the device 21 that generated the device information Idv. When a plurality of device information Idv are acquired from one device 21, identification information for specifying which device information Idv is included.

図4に示すように、タグ付きコメント情報T_Icmは、第2タグ情報T2と、コメント情報Icmとを有する。
コメント情報Icmは、術中または術後に端末5を介して入力される情報であり、具体的には、テキストデータ、音声データ、および画像データ等が含まれる。なお、画像データには、手書きの文字や図を表すビットマップデータ等が含まれてもよい。
As shown in FIG. 4, tagged comment information T_Icm has second tag information T2 and comment information Icm.
The comment information Icm is information input via the terminal 5 during or after surgery, and specifically includes text data, voice data, image data, and the like. Note that the image data may include bitmap data representing handwritten characters and drawings.

第2タグ情報T2は、コメント情報Icmに関する情報であり、コメント対象タグT21、時間タグT22、時間タグT23、およびコメント種別タグT24が少なくとも含まれる。 The second tag information T2 is information related to the comment information Icm, and includes at least a comment target tag T21, a time tag T22, a time tag T23, and a comment type tag T24.

コメント対象タグT21は、コメントの対象を特定するための情報である。コメント対象には、データ種別タグT12で識別されるデバイス情報Idvの全体またはその一部、およびデバイス情報Idvを特定しない情報全体(即ち、デバイス情報Idvが表示された画面全体)が含まれる。デバイス情報Idvがデバイス21による測定値であり、その測定値が数字やグラフで表示される場合、デバイス情報Idvの一部とは、表示される数字またはグラフ等が含まれる。 The comment target tag T21 is information for specifying the target of the comment. Comment targets include all or part of the device information Idv identified by the data type tag T12, and all information not specifying the device information Idv (that is, the entire screen on which the device information Idv is displayed). When the device information Idv is a value measured by the device 21 and the measured value is displayed as a number or graph, the part of the device information Idv includes the displayed number, graph, or the like.

時間タグT22は、コメント対象の取得時刻、即ち、上述の時間タグT11と同様の時刻を表す情報である。つまり、タグ付きコメント情報T_Icmは、コメント対象タグT21と、時間タグT22とによって、タグ付きデバイス情報T_Idvに対応づけられる。 The time tag T22 is information representing the acquisition time of the comment target, that is, the time similar to the time tag T11 described above. That is, tagged comment information T_Icm is associated with tagged device information T_Idv by comment target tag T21 and time tag T22.

時間タグT23は、コメント情報Icmの入力時にコメント対象が指定された時刻を表す情報である。時間タグT23は、統合情報の再生が行われている現在の時刻(以下、再生時刻)を表す。但し、統合情報の再生がリアルタイムで行われている場合、即ち、統合情報の生成と同時に行われている場合は、時間タグT23は、時間タグT22と同じ値となってもよい。 The time tag T23 is information representing the time when the comment target was specified when the comment information Icm was input. The time tag T23 represents the current time at which the integrated information is being reproduced (hereinafter referred to as reproduction time). However, when the integrated information is reproduced in real time, that is, when the integrated information is generated at the same time, the time tag T23 may have the same value as the time tag T22.

コメント種別タグT24は、コメント情報Icmの形式を表す情報であり、テキストデータ、音声データ、画像データ、音声認識データ、動作解析データ等が含まれる。
図9に示すように、イベントリストLには、情報の項目として、「発生時刻」「イベントカテゴリ」「イベント作成者」「イベント内容」「再生時刻」が少なくとも含まれる。「発生時刻」は、イベントが発生した時刻であり、取得時刻と同じ時間軸上の時刻を表す。「イベントカテゴリ」は、発生したイベントのカテゴリを表し、具体的には、どのデバイスに関わるイベントであるかを表す。「イベント作成者」は、イベントが、端末5からの入力によって発生したイベントである場合に、そのイベントを発生させる操作をした者を表す。「イベント作成者」は、端末5を介して入力されてもよいし、端末5の使用者として予め登録された情報を端末5から取得してもよい。「イベント内容」は、発生したイベントの内容を表し、特にコメントを入力する際に発生させるコメントイベントの場合は入力されたコメントの内容を表す。「再生時刻」は、統合情報の再生時に、リストLにイベントが追加登録された場合に、その登録が行われた時刻であり、再生時における現在時刻を表す。
The comment type tag T24 is information representing the format of the comment information Icm, and includes text data, voice data, image data, voice recognition data, motion analysis data, and the like.
As shown in FIG. 9, the event list L includes at least "occurrence time", "event category", "event creator", "event content", and "reproduction time" as information items. "Occurrence time" is the time when the event occurred, and represents the time on the same time axis as the acquisition time. The “event category” represents the category of the event that occurred, and more specifically represents which device the event is related to. “Event Creator” represents a person who has performed an operation to generate an event when the event is generated by an input from the terminal 5 . The “event creator” may be input via the terminal 5 , or information pre-registered as a user of the terminal 5 may be obtained from the terminal 5 . The "content of event" indicates the content of the event that has occurred, particularly in the case of a comment event that occurs when a comment is input, the content of the input comment. "Reproduction time" is the time when an event is additionally registered in the list L when the integrated information is reproduced, and represents the current time at the time of reproduction.

なお、「イベント作成者」および「イベント内容」の欄は、端末5を介して適宜記入される。
図1に戻り、サーバ処理部32は、CPU321と、例えば、RAM、ROM等の半導体メモリ(以下、メモリ322)と、を有するマイクロコンピュータを備える。
The columns of “event creator” and “event content” are filled in via the terminal 5 as appropriate.
Returning to FIG. 1, the server processing unit 32 includes a microcomputer having a CPU 321 and semiconductor memory such as RAM and ROM (hereinafter referred to as memory 322).

サーバ処理部32は、機能的には、図2に示すように、複数のプロバイダ41A~41Hと、ミドルウェア42とを備える。以下では、複数のプロバイダ41A~41Hを区別することなく任意のプロバイダを指す場合は、プロバイダ41と記す。 The server processing unit 32 functionally includes a plurality of providers 41A to 41H and middleware 42, as shown in FIG. Hereinafter, when an arbitrary provider is indicated without distinguishing among the plurality of providers 41A to 41H, the provider 41 is used.

各プロバイダ41には、それぞれデバイス21のいずれか一つが接続される。プロバイダ41は、接続されたデバイス21との間で情報のやり取りを仲介する。
ミドルウェア42は、プロバイダ41に接続される様々なデバイス21に対して、プログラミング言語や通信プロトコルの違いよらず、統一的なアクセス手段をプロバイダ41と共に提供する通信インターフェースである。ここでは、ミドルウェア42として、ORiNが用いられる。ORiNは、Open Resource interface for the Networkの略である。
One of the devices 21 is connected to each provider 41 . The provider 41 mediates exchange of information with the connected device 21 .
The middleware 42 is a communication interface that provides unified access means together with the provider 41 to various devices 21 connected to the provider 41 regardless of differences in programming languages and communication protocols. Here, ORiN is used as the middleware 42 . ORiN is an abbreviation for Open Resource interface for the Network.

また、ミドルウェア42は、タグ付きデバイス情報T_Idvを生成するデバイス情報生成機能421と、要求に応じて現在時刻を提供する時計機能422とを少なくとも有する。 The middleware 42 also has at least a device information generation function 421 that generates tagged device information T_Idv and a clock function 422 that provides the current time upon request.

[3-1.デバイス情報処理]
サーバ処理部32のミドルウェア42がデバイス情報生成機能421を実現するために実行する処理(以下、デバイス情報処理)を、図5のフローチャートを用いて説明する。本処理は、サーバ3に電源が投入されると、プロバイダ41毎に実行される。
[3-1. device information processing]
Processing executed by the middleware 42 of the server processing unit 32 to realize the device information generation function 421 (hereinafter referred to as device information processing) will be described with reference to the flowchart of FIG. This process is executed for each provider 41 when the server 3 is powered on.

S110では、サーバ処理部32は、処理対象のプロバイダ41にデバイス21が接続されているか否かを判断する。サーバ処理部32は、デバイス21が接続されていないと判断した場合は、同ステップを繰り返すことで待機し、デバイス21が接続されていると判断した場合は、処理をS120に移行する。 In S110, the server processing unit 32 determines whether or not the device 21 is connected to the provider 41 to be processed. If the server processing unit 32 determines that the device 21 is not connected, it waits by repeating the same step, and if it determines that the device 21 is connected, the process proceeds to S120.

S120では、サーバ処理部32は、プロバイダ41を介してデバイス21からデバイス情報Idvを取得する。一つのデバイス21から取得されるデバイス情報Idvは、1種類であってもよいし、複数種類であってもよい。 In S<b>120 , the server processing unit 32 acquires device information Idv from the device 21 via the provider 41 . The device information Idv acquired from one device 21 may be of one type or of multiple types.

続くS130では、サーバ処理部32は、現在時刻を取得して時間タグT11を生成し、その時間タグT11を、S110にて取得されたデバイス情報Idvに挿入する。現在時刻は、マイコンが有する時計機能422から取得してもよいし、デバイス21からデバイス情報Idvと共に提供されるデバイス情報Idvの取得時刻を表す時刻情報を用いてもよい。 In subsequent S130, the server processing unit 32 acquires the current time, generates a time tag T11, and inserts the time tag T11 into the device information Idv acquired in S110. The current time may be obtained from the clock function 422 of the microcomputer, or may be time information representing the acquisition time of the device information Idv provided from the device 21 together with the device information Idv.

続くS140では、サーバ処理部32は、S120で取得されたデバイス情報Idvに、そのデバイス情報Idvの種類を表すデータ種別タグT12を挿入する。データ種別タグT12は、プロバイダ41に接続されたデバイス21に応じて、予め用意されたものを用いる。 In subsequent S140, the server processing unit 32 inserts a data type tag T12 representing the type of the device information Idv into the device information Idv acquired in S120. As the data type tag T12, one prepared in advance according to the device 21 connected to the provider 41 is used.

続くS150では、サーバ処理部32は、上述の処理で時間タグT11およびデータ種別タグT12からなる第1タグ情報T1が挿入されたデバイス情報Idvであるタグ付きデバイス情報T_Idvを、データベース31においてデバイス情報領域45に記憶させる。 In subsequent S150, the server processing unit 32 stores the tagged device information T_Idv, which is the device information Idv in which the first tag information T1 including the time tag T11 and the data type tag T12 is inserted in the above-described processing, in the database 31. Store in area 45 .

続くS160では、サーバ処理部32は、デバイス情報Idvについてイベントが発生しているか否かを判断する。イベントは、デバイス情報Idvが予め設定されたイベント条件を満たした場合に発生する。イベント条件は、例えば、デバイス情報Idvが計測値である場合、その計測値または計測値の微分値や積分値が、予め設定された閾値を超えることを用いてもよい。但し、イベント条件は、これに限定されるものではない。 In subsequent S160, the server processing unit 32 determines whether an event has occurred for the device information Idv. An event occurs when the device information Idv satisfies a preset event condition. For example, when the device information Idv is a measured value, the event condition may be that the measured value or the differential value or integral value of the measured value exceeds a preset threshold. However, the event condition is not limited to this.

サーバ処理部32は、イベントが発生していると判断した場合は、処理をS170に移行し、イベントが発生していないと判断した場合は、処理をS180に移行する。
S170では、サーバ処理部32は、イベント発生時刻を表すイベント発生情報と、イベントの対象となったデバイス情報Idvを表すイベント対象情報とを、イベント情報領域47に格納されたイベントリストLに登録して、処理をS180に移行する。
If the server processing unit 32 determines that an event has occurred, the process proceeds to S170, and if it determines that the event has not occurred, the process proceeds to S180.
In S170, the server processing unit 32 registers the event occurrence information representing the event occurrence time and the event target information representing the device information Idv that is the target of the event in the event list L stored in the event information area 47. Then, the process proceeds to S180.

S180では、サーバ処理部32は、デバイス情報の生成を終了するか否かを判断する。具体的には、端末5を介して処理の終了を示す指令が入力されたか否かを判断する。サーバ処理部32は、デバイス情報の生成を継続すると判断した場合は、S110に戻り、
デバイス情報の生成を終了すると判断した場合は、処理を終了する。
In S180, the server processing unit 32 determines whether or not to end generation of device information. Specifically, it is determined whether or not a command indicating the end of processing has been input via the terminal 5 . If the server processing unit 32 determines to continue generating the device information, it returns to S110,
If it is determined to end the generation of device information, the process ends.

[4.端末]
図1に示すように、端末5は、表示装置51と、入力装置52と、端末処理部53とを備える。複数の端末5は、いずれも同様の構成を有する。
[4. terminal]
As shown in FIG. 1 , the terminal 5 includes a display device 51 , an input device 52 and a terminal processing section 53 . A plurality of terminals 5 all have the same configuration.

表示装置51は、例えばタッチパネル方式の液晶ディスプレイであり、MPR画像等の3次元画像と生体情報等の測定結果を表す波形データや数値、各種の操作ボタン、各機器の設定値、表示設定値とを表示可能である。MPRは、Multi Planar Reconstructionの略である。 The display device 51 is, for example, a touch panel type liquid crystal display, and displays three-dimensional images such as MPR images, waveform data and numerical values representing measurement results such as biological information, various operation buttons, setting values of each device, and display setting values. can be displayed. MPR is an abbreviation for Multi Planar Reconstruction.

入力装置52は、例えば、上述の液晶ディスプレイに設けられたタッチパネル、キーボード、マウス、マイク、カメラ、およびモーションセンサ等の入力機器である。入力装置52、これら入力機器を介した入力操作に対応するテキストデータ、位置データ、音声データ、画像データ等を端末処理部53に対して出力する。 The input device 52 is, for example, an input device such as a touch panel, keyboard, mouse, microphone, camera, motion sensor, etc. provided on the liquid crystal display described above. The input device 52 outputs text data, position data, voice data, image data, etc. corresponding to input operations through these input devices to the terminal processing unit 53 .

端末処理部53は、CPU531と、例えば、RAM、ROM等の半導体メモリ(以下、メモリ532)と、を有するマイクロコンピュータを備える。端末処理部53は、サーバ3のデータベース31に格納される情報に関連する1つ以上のアプリケーション(以下、AP)を実行する。ここでは、端末処理部53は、図2に示すように、表示AP61、音声認識AP62、動作解析AP63、コメント付与AP64、およびレイアウト変更AP65を少なくとも実行する。 The terminal processing unit 53 includes a microcomputer having a CPU 531 and semiconductor memory such as RAM and ROM (hereinafter referred to as memory 532). The terminal processing unit 53 executes one or more applications (hereinafter referred to as APs) related to information stored in the database 31 of the server 3 . Here, the terminal processing unit 53 executes at least a display AP 61, a voice recognition AP 62, a motion analysis AP 63, a comment addition AP 64, and a layout change AP 65, as shown in FIG.

音声認識AP62は、入力装置52を構成する入力機器の一つであるマイクにより取得されたユーザの音声に対して、音声認識処理を実行し、認識内容に対応したコマンドまたはテキストデータである音声認識データを生成し、認識対象となった音声と共に出力する。 The voice recognition AP 62 executes voice recognition processing on the user's voice acquired by a microphone, which is one of the input devices that constitute the input device 52, and recognizes a command or text data corresponding to the recognition content. Data is generated and output along with the speech to be recognized.

動作解析AP63は、入力装置52を構成する入力機器の一つであるカメラによりユーザの動作(例えば、手、顔、頭等の動作)が撮影された画像を解析し、解析内容に対応したコマンドまたはテキストデータである動作解析データを生成し、解析対象となった画像と共に出力する。 The motion analysis AP 63 analyzes an image of a user's motion (for example, hand, face, head motion, etc.) photographed by a camera, which is one of the input devices constituting the input device 52, and analyzes a command corresponding to the content of the analysis. Alternatively, motion analysis data, which is text data, is generated and output together with the image to be analyzed.

つまり、端末5は、入力装置52と、音声認識AP62および動作解析AP63と、を備えることで、非接触での入力操作を実現する。
[4-1.表示処理]
端末処理部53が表示AP61を実行することで実現される処理(以下、表示処理)を、図6のフローチャートを用いて説明する。
That is, the terminal 5 is provided with the input device 52, the voice recognition AP 62, and the motion analysis AP 63, thereby realizing non-contact input operations.
[4-1. Display processing]
Processing (hereinafter referred to as display processing) realized by the terminal processing unit 53 executing the display AP 61 will be described with reference to the flowchart of FIG.

表示処理は、入力装置52を介して表示開始指示が入力されてから表示終了指示が入力されるまでの間、予め設定された表示周期で繰り返し実行される。表示処理では、データベース31に保存された統合情報に基づき、入力装置52を介して指定される時間Sに対応したデバイス情報Idvおよびコメント情報Icmを表示装置51の表示画面に表示する。但し、静止画を表示する動作モードでは、時間Sは、入力装置52からの入力に応じて変更され、動画を表示する動作モードでは、時間Sは、入力装置52からの初期値の入力後は、表示周期に合わせて自動的に更新される。 The display process is repeatedly executed at a preset display cycle from when a display start instruction is input via the input device 52 until when a display end instruction is input. In the display process, the device information Idv and the comment information Icm corresponding to the time S designated via the input device 52 are displayed on the display screen of the display device 51 based on the integrated information stored in the database 31 . However, in the operation mode for displaying a still image, the time S is changed according to the input from the input device 52, and in the operation mode for displaying a moving image, the time S is changed after the initial value is input from the input device 52. , is automatically updated according to the display cycle.

S210では、端末処理部53は、時間Sを取得する。
続くS220では、端末処理部53は、データベース31から、全てのデバイス種別および全てのコメント種別について、時間S以前で最新の時刻を表す時間タグT11,T22が付与されたデバイス情報Idvおよびコメント情報Icmを取得する。なお、最新の時刻の探索には遡ることのできる上限時間が決められていてもよい。
In S210, the terminal processing unit 53 acquires the time S.
In S220, the terminal processing unit 53 obtains from the database 31 device information Idv and comment information Icm with time tags T11 and T22 indicating the latest times before time S for all device types and all comment types. to get Note that an upper limit of time that can be traced back may be set for searching for the latest time.

例えば、図7に示すように、データベース31には、A~Dで識別される4種類のデバイス情報と、a,cで識別される2種類のコメント情報とが保存されているものとする。図7では、時間Sが9時00分Xミリ秒である場合、時および分を省略し、ミリ秒を単位として「X」と表示される。つまり、図5における「A」の欄に示す数値の列は、デバイス種別Aのデバイス情報Idvに付与された時間タグT11の内容を示す。 For example, as shown in FIG. 7, the database 31 stores four types of device information identified by A to D and two types of comment information identified by a and c. In FIG. 7, when the time S is 9:00 X milliseconds, the hours and minutes are omitted and displayed as "X" in units of milliseconds. That is, the column of numerical values shown in the "A" column in FIG.

時間Sが「100」である場合、時間S以前で最新の時間タグT11を有するデバイス情報は、図7中に丸印で示したように、種類Aでは時間タグT11が「97」のデバイス情報であり、種類Bでは時間タグT11が「100」のデバイス情報であり、種類Cでは時間タグT11が「99」のデバイス情報であり、種類Dでは時間タグT11が「98」のデバイス情報である。 When the time S is "100", the device information having the latest time tag T11 before the time S is, as indicated by the circle in FIG. , type B has device information with a time tag T11 of "100", type C has device information with a time tag T11 of "99", and type D has device information with a time tag T11 of "98". .

また、時間S以前で最新の時間タグT22を有するコメント情報は、種類aでは時間タグT22が「93」のコメント情報である。種類cでは、上限時間範囲内に該当するコメント情報が存在しないことを意味する。 Also, the comment information having the latest time tag T22 before the time S is the comment information with the time tag T22 of "93" for the type a. Type c means that there is no corresponding comment information within the upper limit time range.

続くS230では、端末処理部53は、S220で読み出したデバイス情報Idvを、その時点で設定されているレイアウトに従って表示させるための画像データである主画像データを生成する。以下では、主画像データによって表示される画像を主画像という。 In subsequent S230, the terminal processing unit 53 generates main image data, which is image data for displaying the device information Idv read out in S220 according to the layout set at that time. An image displayed by the main image data is hereinafter referred to as a main image.

ここでレイアウトとは、以下の要素の複合である。(1)表示画面における表示領域をどのように区分するか。(2)区分された各領域に、どの種類のデバイス情報をいくつ同時に表示するか。(3)区分された各領域におけるデバイス情報の表示態様(画像、数値、グラフ、表等)をどのようにするか。 A layout is a combination of the following elements. (1) How to divide the display area on the display screen. (2) How many types of device information are to be displayed simultaneously in each of the divided areas. (3) How to display the device information (image, numerical value, graph, table, etc.) in each divided area.

主画像のレイアウトの一例として、例えば、図8に示すように、モニタ領域A1、映像領域A2、ナビ画像領域A3、時間領域A4等を有していてもよい。モニタ領域A1は、生体情報をモニタするグラフ等が表示される領域である。モニタ領域A1では、生体情報を数値およびグラフ形式で表示される。映像領域A2は、治療対象をカメラ等で撮影した動画が表示される領域である。ナビ画像領域A3は、手術ナビにより検出される3次元位置が、予め用意された患部の三次元画像と共に表示される領域である。ナビ画像領域では、検出位置を含みかつ互いに異なる断面を示す三つの断面画像が三面図形式で表示される。時間領域A4は、統合情報の時系列が存在する時間範囲を時間軸で表現し、その時間軸上で、時間Sを表示するための領域である。時間領域A4には、時間軸と共に、イベントの発生時刻を表すバルーン状の表示が行われてもよい。なお、レイアウトの設定および変更は、別途用意されるレイアウト変更AP65によって実現される。 As an example of the layout of the main image, for example, as shown in FIG. 8, it may have a monitor area A1, a video area A2, a navigation image area A3, a time area A4, and the like. The monitor area A1 is an area where a graph or the like for monitoring biological information is displayed. In the monitor area A1, biological information is displayed numerically and graphically. The image area A2 is an area in which a moving image of the treatment target captured by a camera or the like is displayed. The navigation image area A3 is an area where the three-dimensional position detected by surgery navigation is displayed together with a three-dimensional image of the affected area prepared in advance. In the navigation image area, three cross-sectional images including the detection position and showing mutually different cross-sections are displayed in a trihedron format. The time area A4 is an area for expressing the time range in which the time series of the integrated information exists on the time axis and displaying the time S on the time axis. In the time area A4, along with the time axis, a balloon-shaped display representing the event occurrence time may be displayed. The setting and change of the layout are realized by the layout change AP 65 prepared separately.

図6に戻り、続くS240では、端末処理部53は、S220で読み出したコメント情報Icmを、主画像と共に表示させるための画像データであるコメント画像データを生成する。以下では、コメント画像データによって表示される画像をコメント画像という。なお、主画像上におけるコメント画像の表示位置および表示形式は、コメント情報Icmのコメント種別、およびコメント対象となるデバイス情報Idvのデータ種別に応じて、予め設定されている。なお、コメント画像の表示位置および表示形式を変更する専用のアプリが存在してもよい。 Returning to FIG. 6, in subsequent S240, the terminal processing unit 53 generates comment image data, which is image data for displaying the comment information Icm read out in S220 together with the main image. An image displayed by comment image data is hereinafter referred to as a comment image. The display position and display format of the comment image on the main image are set in advance according to the comment type of the comment information Icm and the data type of the device information Idv to be commented. Note that there may be a dedicated application for changing the display position and display format of the comment image.

続くS250では、端末処理部53は、S230にて生成された主画像データおよびS240にて生成されたコメント画像データを、表示装置51に出力することで、主画像およびコメント画像を表示装置51の表示画面に表示させて、処理を一旦終了する。 In subsequent S250, the terminal processing unit 53 outputs the main image data generated in S230 and the comment image data generated in S240 to the display device 51, thereby displaying the main image and the comment image on the display device 51. It is displayed on the display screen, and the process is once terminated.

なお、S210~S230が主画像生成部、S210~S220,S240がコメント画像生成部に相当する。
[4-2.コメント付与処理]
端末処理部53が表示AP61を実行することで実現される処理(以下、コメント付与処理)を、図10のフローチャートを用いて説明する。本処理は、表示処理が実行されている間、繰り返し実行される。
Note that S210 to S230 correspond to the main image generating section, and S210 to S220 and S240 correspond to the comment image generating section.
[4-2. Comment adding process]
A process realized by the terminal processing unit 53 executing the display AP 61 (hereinafter referred to as comment adding process) will be described with reference to the flowchart of FIG. 10 . This process is repeatedly executed while the display process is being executed.

S310では、端末処理部53は、入力装置52を介して、表示装置51の画面(以下、表示画面)に表示されている情報全体(以下、「全体」)をコメント対象として指定する全指定入力が行われたか否かを判断する。端末処理部53は、全指定入力が行われたと判断した場合は、処理をS340に移行し、全指定入力が行われていないと判断した場合は、処理をS320に移行する。 In S310, the terminal processing unit 53, through the input device 52, inputs the entire information displayed on the screen of the display device 51 (hereinafter referred to as the display screen) as a comment target. determine whether or not has been performed. The terminal processing unit 53 shifts the process to S340 when determining that all designation inputs have been performed, and shifts the processing to S320 when determining that all designation inputs have not been performed.

S340では、端末処理部53は、全指定入力が行われたタイミングに対応した取得時刻を取得して時間タグT22を生成すると共に、当該タイミングに対応した再生時刻を取得して時間タグT23を生成する。なお、取得時刻とは、全指定入力が行われたタイミング以前に表示処理のS210にて直近で取得された時間S、または、当該タイミングで表示されているデバイス情報Idvに対応づけられた時間タグT11が示す時刻である。また、再生時刻とは、全指定入力が行われたタイミングで時計機能422から取得される現在時刻である。 In S340, the terminal processing unit 53 acquires the acquisition time corresponding to the timing at which all designation inputs are performed to generate a time tag T22, acquires the reproduction time corresponding to the timing, and generates a time tag T23. do. Note that the acquisition time is the time S acquired most recently in S210 of the display processing before the timing at which all designation inputs are performed, or the time tag associated with the device information Idv displayed at that timing. This is the time indicated by T11. Also, the playback time is the current time obtained from the clock function 422 at the timing when all designation inputs are performed.

続くS350では、端末処理部53は、コメント対象が「全体」であることを表すコメント対象タグT21を生成して、処理をS420に進める。
S320では、端末処理部53は、入力装置52を介して、表示画面上の位置を示す位置入力が行われたか否かを判断する。位置入力は、表示画面上のタッチパネルによって入力された位置でもよいし、マウスやキーボートによって操作される表示画面に表示されたカーソルが示す位置でもよい。更に、主画像中にナビ画像領域A3が含まれている場合は、そのナビ画像により示されている3次元位置であってもよい。具体的には、三面図のそれぞれに示された、補助線が交差する各画像の中心位置である。端末処理部53は、位置入力が行われたと判断した場合は、処理をS360に移行し、位置入力が行われていないと判断した場合は、処理をS330に移行する。
In subsequent S350, the terminal processing unit 53 generates a comment target tag T21 indicating that the comment target is "whole", and advances the process to S420.
In S<b>320 , the terminal processing unit 53 determines whether or not a position input indicating a position on the display screen has been performed via the input device 52 . The position input may be a position input by a touch panel on the display screen, or a position indicated by a cursor displayed on the display screen operated by a mouse or keyboard. Furthermore, when the navigation image area A3 is included in the main image, it may be the three-dimensional position indicated by the navigation image. Specifically, it is the center position of each image where the auxiliary line intersects, which is shown in each of the three views. If the terminal processing unit 53 determines that the position input has been performed, the process proceeds to S360, and if it determines that the position input has not been performed, the process proceeds to S330.

S360では、端末処理部53は、入力装置52を介して位置入力が行われたタイミングに対応した取得時刻および再生時刻を取得し、S340での処理と同様に、時間タグT22,T23を生成する。 In S360, the terminal processing unit 53 acquires the acquisition time and the reproduction time corresponding to the timing of position input via the input device 52, and generates time tags T22 and T23 in the same manner as in S340. .

続くS370では、端末処理部53は、位置入力によって指定された表示画面上の位置である指定位置に、測定値を表す数字または波形(以下、波形等)が表示されているか否か、即ち、位置入力によって波形等が指定されたか否かを判断する。端末処理部53は、波形等が指定されていないと判断した場合は、処理をS380に移行し、波形等が指定されていると判断した場合は、処理をS390に移行する。 In subsequent S370, the terminal processing unit 53 determines whether or not a number or waveform (hereinafter referred to as a waveform, etc.) representing a measured value is displayed at the specified position, which is the position on the display screen specified by the position input. Determines whether or not a waveform or the like is specified by the position input. If the terminal processing unit 53 determines that the waveform or the like is not specified, the process proceeds to S380, and if it determines that the waveform or the like is specified, the process proceeds to S390.

S380では、端末処理部53は、指定位置と、その時点での表示のレイアウトとに基づいて、指定位置に表示されているデバイス情報Idvの種類を特定する。デバイス情報Idvの種類は、そのデバイス情報Idvに対応づけられたデータ種別タグT12で表される。更に、その特定されたデバイス情報Idvがコメント対象であることを表すコメント対象タグT21を生成して、処理をS420に進める。 In S380, the terminal processing unit 53 identifies the type of device information Idv displayed at the specified position based on the specified position and the layout of the display at that time. The type of device information Idv is represented by a data type tag T12 associated with the device information Idv. Further, a comment target tag T21 indicating that the identified device information Idv is a comment target is generated, and the process proceeds to S420.

S390では、端末処理部53は、位置入力によって指定された波形等が、コメント対象であることを表すコメント対象タグT21を生成して、処理をS420に進める。
なお、S380およびS390では、コメント対象に割り当てられた表示領域内における相対位置で、指定位置を表した情報を、コメント対象タグT21に含めてもよい。これは、レイアウトが変更された場合に、表示領域内での表示と指定位置との関係が変化しないようにするための情報である。
In S390, the terminal processing unit 53 generates a comment target tag T21 indicating that the waveform or the like specified by the position input is a comment target, and advances the process to S420.
In S380 and S390, the comment target tag T21 may include information indicating the specified position as a relative position within the display area assigned to the comment target. This is information for preventing the relationship between the display and the specified position in the display area from changing when the layout is changed.

S330では、端末処理部53は、入力装置52を介してコメント入力を行う旨の操作であるコメントイベント入力が行われたか否かを判断する。具体的には、図6に示すように、画面上の時間領域A4に表示されるイベント追加ボタンBevが、入力装置52を介して操作された場合に、コメントイベント入力が行われたと判断する。端末処理部53は、コメントイベント入力が行われたと判断した場合は、処理をS400に移行し、コメントイベント入力が行われていないと判断した場合は、処理をS310に戻す。なお、イベント追加ボタンBevが操作されると、図9に示すように、画面上に新たなコメントイベントが追加されたイベントリストLが表示される。 In S330, the terminal processing unit 53 determines whether or not a comment event input, which is an operation for inputting a comment via the input device 52, has been performed. Specifically, as shown in FIG. 6, when the event addition button Bev displayed in the time area A4 on the screen is operated via the input device 52, it is determined that a comment event has been input. If the terminal processing unit 53 determines that a comment event has been input, the process proceeds to S400, and if it determines that the comment event has not been input, the process returns to S310. When the event addition button Bev is operated, as shown in FIG. 9, an event list L to which a new comment event is added is displayed on the screen.

S400では、端末処理部53は、コメントイベント入力が行われたタイミングに対応した取得時刻および再生時刻を取得し、S340での処理と同様に、時間タグT22,T23を生成する。この取得時刻および再生時刻は、イベントリストLにも表示される。 In S400, the terminal processing unit 53 acquires the acquisition time and the reproduction time corresponding to the timing at which the comment event was input, and generates time tags T22 and T23 in the same manner as in S340. This acquisition time and playback time are also displayed in the event list L. FIG.

続くS410では、端末処理部53は、全体がコメント対象であることを表すコメント対象タグT21を生成して、処理をS420に進める。
S420では、端末処理部53は、入力装置52を介してコメント入力があったか否かを判断し、コメント入力があれば処理をS440に移行し、コメント入力がなければ、処理をS430に移行する。
In subsequent S410, the terminal processing unit 53 generates a comment target tag T21 indicating that the whole is a comment target, and advances the process to S420.
In S420, the terminal processing unit 53 determines whether or not a comment has been input via the input device 52. If there is a comment input, the process proceeds to S440, and if there is no comment input, the process proceeds to S430.

S430では、入力装置52を介してコメント入力をキャンセルする指示が入力されたか否かを判断し、キャンセルする指示が入力された場合は処理を終了し、キャンセルする指示の入力がなければ、処理をS420に戻す。 At S430, it is determined whether or not an instruction to cancel the input of the comment has been input via the input device 52. If the instruction to cancel has been input, the process is terminated. Return to S420.

S440では、端末処理部53は、コメント入力に使用された入力機器から、入力されたコメントの種別を特定して、コメント種別タグT24を生成する。コメントの種別とは、キーボードを介した文字入力、タッチパネルを介した手書き入力、マイクを介した音声入力、カメラを介した画像入力等がある。 In S440, the terminal processing unit 53 identifies the type of the input comment from the input device used to input the comment, and generates a comment type tag T24. Types of comments include character input via a keyboard, handwriting input via a touch panel, voice input via a microphone, image input via a camera, and the like.

続くS450では、端末処理部53は、コメント種別に応じたコメント情報Icmを生成する。具体的には、コメント種別が文字入力または手書き入力である場合、入力されたテキストデータまたは画像をそのままコメント情報Icmとする。コメント種別が音声入力である場合、音声データだけでなく、音声認識AP62を実行することによって生成される音声認識データもコメント情報Icmに含める。同様に、コメント種別が画像入力である場合、画像データだけでなく、動作解析AP63を実行することによって生成される動作解析データもコメント情報Icmに含める。 In subsequent S450, the terminal processing unit 53 generates comment information Icm corresponding to the comment type. Specifically, when the comment type is character input or handwriting input, the input text data or image is used as the comment information Icm as it is. When the comment type is voice input, not only voice data but also voice recognition data generated by executing the voice recognition AP 62 is included in the comment information Icm. Similarly, when the comment type is image input, the comment information Icm includes not only image data but also motion analysis data generated by executing the motion analysis AP 63 .

続くS460では、端末処理部53は、S450で生成されたコメント情報Icmに、S340、S360、S400で生成される時間タグT22,T23、S350、S380、S390、S410で生成されるコメント対象タグT21、S440で生成されるコメント種別タグT24を挿入することでタグ付きコメント情報T_Icmを生成する。 In subsequent S460, the terminal processing unit 53 adds time tags T22 and T23 generated in S340, S360, and S400, S350, S380, S390, and comment target tag T21 generated in S410 to the comment information Icm generated in S450. , and inserts the comment type tag T24 generated in S440 to generate tagged comment information T_Icm.

続くS470では、端末処理部53は、生成されたタグ付きコメント情報T_Icmを、データベース31に記憶させて、処理を一旦終了する。
データベース31に記憶されたタグ付きコメント情報T_Icmの内容は、繰り返し実行される表示処理によって、直ちに、表示に反映される。
In subsequent S470, the terminal processing unit 53 causes the database 31 to store the generated tagged comment information T_Icm, and ends the process.
The contents of the tagged comment information T_Icm stored in the database 31 are immediately reflected in the display by the repeatedly executed display processing.

なお、S310~S330および入力装置52が対象指定部、S420および入力装置52がコメント入力部、S340~S410,S440~S470が情報生成部に相当する。 Note that S310 to S330 and the input device 52 correspond to a target designating section, S420 and the input device 52 correspond to a comment input section, and S340 to S410 and S440 to S470 correspond to an information generating section.

なお、サーバ処理部32および端末処理部53の各機能は、CPU321,531が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ322,532が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、サーバ処理部32および端末処理部53は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。 Each function of the server processing unit 32 and the terminal processing unit 53 is realized by the CPUs 321 and 531 executing programs stored in non-transitional physical recording media. In this example, the memories 322 and 532 correspond to non-transitional substantive recording media storing programs. Also, by executing this program, a method corresponding to the program is executed. Note that the server processing unit 32 and the terminal processing unit 53 may be provided with one microcomputer, or may be provided with a plurality of microcomputers.

サーバ処理部32および端末処理部53に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。 The method of realizing the function of each part included in the server processing unit 32 and the terminal processing unit 53 is not limited to software, and some or all of the functions may be realized using one or more pieces of hardware. good. For example, when the above functions are realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.

[5.表示例]
ここで、表示処理によるコメント情報Icmの表示例を、図11を用いて説明する。
モニタ領域A1に表示された計測値が大きく変化した時に、その計測値が表示された画面上の部位を指で触れる等して位置入力をした後、キーボード等を介して「投薬にて変化」等のコメント入力をする。すると、図11中の符号C1に示すように、コメント対象となるパラメータに関連付けた文字コメントが表示される。
[5. Display example]
Here, a display example of the comment information Icm by display processing will be described with reference to FIG. 11 .
When the measured value displayed in the monitor area A1 changes significantly, after inputting the position by touching the part on the screen where the measured value is displayed with a finger, etc., "Change by medication" is entered via a keyboard or the like. Enter comments such as Then, as indicated by reference numeral C1 in FIG. 11, a character comment associated with the parameter to be commented is displayed.

映像領域A2を指定する位置入力が行われたあと、タッチパネル用の入力ペン等を用いて表示画面上に線図や文字を手書き入力する。すると、図11中の符号C2に示すように、コメント対象となる映像領域A2中の画像に、手書き入力した線図や文字がそのまま重畳表示される。 After the position input for designating the image area A2 is performed, a line drawing or characters are input by handwriting on the display screen using an input pen for a touch panel or the like. Then, as indicated by reference numeral C2 in FIG. 11, the handwritten line drawing and characters are superimposed and displayed as they are on the image in the image area A2 to be commented.

ナビ画像領域A3にMPR画像が3面図形式で表示されている状態で、ナビ画像領域A3を指定する操作が行われると、ナビ画像領域A3に表示されたMPR画像により特定される3次元位置を指定する位置入力が行われたものとされ、指定された3次元位置に対するコメントの入力が可能となる。この場合、3面図の各中央位置で表される3次元位置がコメント対象となり、図11中の符号C3で示す「コメ1」の部分にコメントが表示される。また、3面図の別の位置には、以前にコメント対象として指定された3次元位置を表す黒点に対応づけて、図11中の符号C4で示す「コメ2」の部分にコメントが表示される。なお、コメントは、画像に重畳表示されるのではなく、ナビ画像領域A3中で画像のない部分に表示されてもよい。 When an operation to specify the navigation image area A3 is performed while the MPR image is displayed in the navigation image area A3 in a three-view format, the three-dimensional position specified by the MPR image displayed in the navigation image area A3 is displayed. is assumed to have been entered, and a comment can be entered for the specified three-dimensional position. In this case, the three-dimensional position represented by each central position of the three-view drawing becomes a comment target, and the comment is displayed in the "rice 1" portion indicated by reference numeral C3 in FIG. Also, at another position in the three-view drawing, a comment is displayed in the "rice 2" portion indicated by symbol C4 in FIG. be. Note that the comment may be displayed in a part without an image in the navigation image area A3 instead of being superimposed on the image.

全指定入力が行われた場合、図示は省略するが、例えば、表示画面の右隅に、縦長のコメント表示領域が設定され、そのコメント表示領域の中に、コメント時間とコメント内容とが時系列で表示されてもよい。 When all specification inputs are performed, although illustration is omitted, for example, a vertically long comment display area is set in the right corner of the display screen, and the comment time and comment content are displayed in chronological order in the comment display area. may be displayed as

[6.効果]
以上詳述した情報統合装置1によれば、以下の効果を奏する。
(6a)手術や治療中にリアルタイムでデバイス情報Idvの表示を行った場合、任意の関係者と手術や治療の状況等をリアルタイムで共有できるだけでなく、術中に受けたアドバイスや術中に行った機器の操作や作業の意図、および術中に気づいたこと等の備忘として、リアルタイムでコメントを残すことができる。
[6. effect]
The information integration device 1 described in detail above has the following effects.
(6a) When device information Idv is displayed in real time during surgery or treatment, not only can the status of surgery or treatment be shared in real time with any stakeholders, but also advice received during surgery and equipment used during surgery It is possible to leave comments in real time as memorandums such as the operation of , the intention of the work, and what you noticed during the operation.

例えば、表示装置51の表示画面に表示されたデバイス情報に、他の部分とは異なる特徴的な部分が存在する場合、投薬、空調の設定変更、および患者の姿勢変更など、デバイス情報から読み取ることのできない情報をコメントとして残すことができる。 For example, if the device information displayed on the display screen of the display device 51 has a characteristic portion that differs from other portions, it is possible to read from the device information such as medication, air conditioning setting change, and patient posture change. You can leave information that cannot be displayed as a comment.

(6b)タッチパネル、キーボード、およびマウス等による機器の操作を伴う入力だけでなく、マイクがカメラを通した音声やジェスチャによる非接触でのコメント入力が可能なため、機器の操作を行えない状況にある施術者等のコメントも簡単に残すことができる。 (6b) In addition to input that involves operating the device using a touch panel, keyboard, mouse, etc., it is possible to input comments through a microphone through a camera and non-contact comment input using gestures, making it impossible to operate the device. It is also possible to easily leave a comment of a certain practitioner or the like.

(6c)手術や治療の振り返りや教育等のために、術後にデバイス情報Idvおよびコメント情報Icmの表示を行った場合は、閲覧者は、デバイス情報Idvだけからは得ることのできない、有用な情報をコメント情報Icmから得ることができる。また、このとき、新たなコメントを追加することもできる。 (6c) When the device information Idv and the comment information Icm are displayed after the surgery for the purpose of reviewing or educating the surgery or treatment, the viewer can obtain useful information that cannot be obtained from the device information Idv alone. Information can be obtained from the comment information Icm. At this time, new comments can also be added.

(6d)コメントを入力する際には、表示画面上の示された個々のデバイス情報Idvを指定することができ、その指定されたデバイス情報Idvと関連づけてコメント情報Icmが表示,再生されるため、閲覧者は、コメント対象を明確に把握することができる。 (6d) When entering a comment, individual device information Idv shown on the display screen can be specified, and the comment information Icm is displayed and reproduced in association with the specified device information Idv. , the viewer can clearly grasp the target of the comment.

(6e)コメント対象を「全体」とすることができるため、この機能を利用することで、閲覧者同士が表示画面上で議論をすることができ、また、その議論内容をコメントとして残すことができる。 (6e) Since it is possible to make comments on the "whole", by using this function, viewers can discuss with each other on the display screen, and the content of the discussion can be left as a comment. can.

[7.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[7. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(7a)上記実施形態では、端末5に複数のアプリケーション61~65が実装されているが、本開示は、これに限定されるものではない。例えば、サーバ3に端末5を一体化し、サーバ3に複数のアプリケーション61~65の少なくとも一部が実装されてもよい。 (7a) In the above embodiment, a plurality of applications 61 to 65 are installed in the terminal 5, but the present disclosure is not limited to this. For example, the terminal 5 may be integrated with the server 3 and at least some of the applications 61 to 65 may be installed on the server 3 .

(7b)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (7b) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(7c)上述した情報統合装置の他、当該情報統合装置を構成要素とするシステム、当該情報統合装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体など、種々の形態で本開示を実現することもできる。 (7c) In addition to the information integration device described above, a system having the information integration device as a component, a program for making a computer function as the information integration device, a non-transitional actual record such as a semiconductor memory in which this program is recorded The present disclosure can also be implemented in various forms such as media.

1…情報統合装置、2…デバイス群、3…サーバ、5…端末、21A~21H…デバイス、31…データベース、32…サーバ処理部、41A~41H…プロバイダ、42…ミドルウェア、45…デバイス情報領域、46…コメント情報領域、47…イベント情報領域、51…表示装置、52…入力装置、53…端末処理部、61~65…アプリケーション、321,531…CPU、322,532…メモリ、421…デバイス情報生成機能、422…時計機能。 DESCRIPTION OF SYMBOLS 1... Information integration apparatus, 2... Device group, 3... Server, 5... Terminal, 21A-21H... Device, 31... Database, 32... Server processing part, 41A-41H... Provider, 42... Middleware, 45... Device information area , 46... comment information area, 47... event information area, 51... display device, 52... input device, 53... terminal processing unit, 61 to 65... application, 321, 531... CPU, 322, 532... memory, 421... device Information generation function, 422... Clock function.

Claims (6)

患者の治療に使用される複数の医療用のデバイス(21)から取得されるデバイス情報が、前記デバイス情報が取得された時刻および前記デバイス情報の種類を表す情報を含んだ第1タグ情報と関連づけて記憶される情報記憶部(31)と、
前記情報記憶部に記憶された複数の前記デバイス情報のうち、同一時間に対応づけられる一種類以上の前記デバイス情報を抽出し、抽出した前記デバイス情報を1画面で表示するための画像データである主画像データを生成するように構成された主画像生成部(53:S210~S230)と、
前記画像データによって表示される表示画像中のコメント対象を指定するように構成された対象指定部(52,53:S310~S330)と、
前記対象指定部により指定された前記コメント対象に関連付けられる情報であるコメント情報を入力するように構成されたコメント入力部(52,53:S420)と、
前記コメント入力部により入力された前記コメント情報を、前記対象指定部にて指定された前記コメント対象を特定するための情報を含んだ第2タグ情報と関連づけて前記情報記憶部に記憶させるように構成された情報生成部(53:S340~S410,S440~S470)と、
前記主画像データにより表示される画像である主画像中に前記コメント対象が含まれる場合に、当該コメント対象に対応する前記コメント情報を前記情報記憶部から抽出し、抽出した前記コメント情報を前記主画像中の前記コメント対象と関連づけて表示するための画像データであるコメント画像データを生成するように構成されたコメント画像生成部(53:S210~S220,S240)と、
を備え
前記コメント対象の一つとして表示画像全体を含む
情報統合装置。
Device information acquired from a plurality of medical devices (21) used for treatment of a patient is associated with first tag information including information representing the time when the device information was acquired and the type of the device information. an information storage unit (31) stored by
image data for extracting one or more types of device information associated with the same time from among the plurality of device information stored in the information storage unit and displaying the extracted device information on one screen; a main image generator (53: S210 to S230) configured to generate main image data;
a target specifying unit (52, 53: S310 to S330) configured to specify a comment target in the display image displayed by the image data;
a comment input unit (52, 53: S420) configured to input comment information that is information associated with the comment target specified by the target specifying unit;
The comment information input by the comment input unit is stored in the information storage unit in association with second tag information including information for specifying the comment target specified by the target specifying unit. The configured information generation unit (53: S340 to S410, S440 to S470);
When the comment target is included in the main image that is the image displayed by the main image data, the comment information corresponding to the comment target is extracted from the information storage unit, and the extracted comment information is stored in the main image data. a comment image generation unit (53: S210 to S220, S240) configured to generate comment image data, which is image data to be displayed in association with the comment target in the image;
with
Include the entire display image as one of the comment targets
Information integrator.
請求項1に記載の情報統合装置であって
前記対象指定部は、前記表示画像を表示する画面上の位置を指定するように構成され、
前記コメント対象の一つとして、前記指定部にて指定された位置に表示された前記デバイス情報または該デバイス情報の一部を含む、
情報統合装置。
2. The information integration device according to claim 1, wherein said target specifying unit is configured to specify a position on a screen where said display image is to be displayed,
including the device information or part of the device information displayed at the position specified by the specifying unit as one of the comment targets;
Information integrator.
請求項2に記載の情報統合装置であって、
前記デバイス情報の一つとして、前記デバイスに関する制御パラメータを含む
情報統合装置。
The information integration device according to claim 2,
An information integration apparatus including a control parameter related to the device as one of the device information.
請求項2または請求項3に記載の情報統合装置であって、
前記デバイス情報の一つとして、生体情報の波形を表すグラフを含む
情報統合装置。
The information integration device according to claim 2 or claim 3,
An information integration apparatus including a graph representing a waveform of biometric information as one of the device information.
請求項1から請求項4までのいずれか1項に記載の情報統合装置であって、
前記デバイス情報の一つとして、手術中における手術器具の3次元位置を含み、
前記コメント対象の一つとして、前記手術器具の3次元位置に対応した治療対象の3次元画像を表示する手術ナビゲーションシステムにおけるナビ画像を含む、
情報統合装置。
The information integration device according to any one of claims 1 to 4,
One of the device information includes a three-dimensional position of a surgical instrument during surgery,
One of the comment targets includes a navigation image in a surgical navigation system that displays a three-dimensional image of a treatment target corresponding to the three-dimensional position of the surgical instrument,
Information integrator.
請求項1から請求項5までのいずれか1項に記載の情報統合装置であって、
前記対象指定部は、あらかじめ用意された操作部(Bev)が操作されたタイミングで
表示画像全体を前記コメント対象として指定するように構成された、
情報統合装置。
The information integration device according to any one of claims 1 to 5 ,
The target specifying unit is configured to specify the entire display image as the comment target at the timing when an operation unit (Bev) prepared in advance is operated.
Information integrator.
JP2018241309A 2018-12-25 2018-12-25 Information integration device Active JP7240665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018241309A JP7240665B2 (en) 2018-12-25 2018-12-25 Information integration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018241309A JP7240665B2 (en) 2018-12-25 2018-12-25 Information integration device

Publications (2)

Publication Number Publication Date
JP2020102126A JP2020102126A (en) 2020-07-02
JP7240665B2 true JP7240665B2 (en) 2023-03-16

Family

ID=71141286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018241309A Active JP7240665B2 (en) 2018-12-25 2018-12-25 Information integration device

Country Status (1)

Country Link
JP (1) JP7240665B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271127A (en) 2008-04-30 2009-11-19 Fuji Xerox Co Ltd Information processor and program
JP2015185125A (en) 2014-03-26 2015-10-22 株式会社デンソー Information integration device, information integration system, and program
WO2018163600A1 (en) 2017-03-07 2018-09-13 ソニー・オリンパスメディカルソリューションズ株式会社 Medical information management device, medical information management method, and medical information management system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271127A (en) 2008-04-30 2009-11-19 Fuji Xerox Co Ltd Information processor and program
JP2015185125A (en) 2014-03-26 2015-10-22 株式会社デンソー Information integration device, information integration system, and program
WO2018163600A1 (en) 2017-03-07 2018-09-13 ソニー・オリンパスメディカルソリューションズ株式会社 Medical information management device, medical information management method, and medical information management system

Also Published As

Publication number Publication date
JP2020102126A (en) 2020-07-02

Similar Documents

Publication Publication Date Title
US20060173858A1 (en) Graphical medical data acquisition system
US7834891B2 (en) System and method for perspective-based procedure analysis
Faiola et al. Advancing critical care in the ICU: a human-centered biomedical data visualization systems
JP2005510326A (en) Image report creation method and system
US20110150420A1 (en) Method and device for storing medical data, method and device for viewing medical data, corresponding computer program products, signals and data medium
CA2798592A1 (en) Visual indexing system for medical diagnostic data
JP2010075403A (en) Information processing device and method of controlling the same, data processing system
US7418120B2 (en) Method and system for structuring dynamic data
WO2012029265A1 (en) Medical treatment information display device and method, and program
JP2004267273A (en) Medical system
JP2004305289A (en) Medical system
JP2012115446A (en) Diagnosis support apparatus, method of controlling the same, and program
JP2009230304A (en) Medical report creation support system, program, and method
US10642956B2 (en) Medical report generation apparatus, method for controlling medical report generation apparatus, medical image browsing apparatus, method for controlling medical image browsing apparatus, medical report generation system, and non-transitory computer readable medium
US20070076929A1 (en) System and method for automatic post processing image generation
JP2005027978A (en) Medical information system
JP4992896B2 (en) Medical imaging system
JP2009160233A (en) Medical diagnostic apparatus, layout management apparatus for medical image, browsing apparatus for medical image, and medical image printer
US20160092637A1 (en) Medical assistance device, medical assistance system, medical assistance program, and medical assistance method
CN103714236A (en) Medical image display apparatus and medical image display method
JP2013052245A (en) Information processing device and information processing method
JP2016057695A (en) Support device for preparing image reading report and control method of the same
JP2020081280A (en) Image display control system, image display system, and image analyzing device
JP2018055278A (en) Medical information processing apparatus, medical information processing system, medical information processing method, and program
JP7240665B2 (en) Information integration device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7240665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150