JP6192602B2 - Image recording device - Google Patents

Image recording device Download PDF

Info

Publication number
JP6192602B2
JP6192602B2 JP2014130620A JP2014130620A JP6192602B2 JP 6192602 B2 JP6192602 B2 JP 6192602B2 JP 2014130620 A JP2014130620 A JP 2014130620A JP 2014130620 A JP2014130620 A JP 2014130620A JP 6192602 B2 JP6192602 B2 JP 6192602B2
Authority
JP
Japan
Prior art keywords
image
unit
meta information
recording
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014130620A
Other languages
Japanese (ja)
Other versions
JP2016007444A (en
Inventor
秋介 土谷
秋介 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014130620A priority Critical patent/JP6192602B2/en
Publication of JP2016007444A publication Critical patent/JP2016007444A/en
Application granted granted Critical
Publication of JP6192602B2 publication Critical patent/JP6192602B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、編集を行い易いように画像を記録する画像記録装置に関する。   The present invention relates to an image recording apparatus that records an image so as to facilitate editing.

近年、医療分野において内視鏡は広く用いられるようになっている。例えば第1の従来例としての特開2006−61469号公報は、カプセル内視鏡により患者の体腔内を時系列に撮像し、撮像された一連の画像の撮像期間を示す時間スケールが付されたタイムバーを表示すると共に、選択された所望の画像の撮像時刻に対応する時間スケール上の位置を示す指標を表示する。また、この公報は、画像の色分布を測定し、測定結果から画像が体外画像であるか否かを判定することと、体外画像の撮像期間を示すマークを表示することを開示している。
また、第2の従来例としての特開2005−124824号公報は、手術シミュレーション画像を生成するための手術支援システムにおいて、手術動画データを、手術シミュレーション画像の構築に必要な、各手技ステップ毎の最適な手技ステップ動画データに分割すると共に、分割された手技ステップ動画データをデータベースに登録することを開示している。また、この公報は、手術中において、手術動画データを分割するマークを、内視鏡の操作ボタンなどの押下に基づいて、手術動画データ内にインデックスデータを付加することも開示している。
In recent years, endoscopes have been widely used in the medical field. For example, Japanese Patent Laid-Open No. 2006-61469, which is a first conventional example, images a patient's body cavity in time series using a capsule endoscope, and a time scale indicating an imaging period of a series of images taken is attached. A time bar is displayed, and an index indicating a position on the time scale corresponding to the imaging time of the selected desired image is displayed. This publication also discloses measuring the color distribution of an image, determining whether the image is an extracorporeal image from the measurement result, and displaying a mark indicating the imaging period of the extracorporeal image.
Japanese Patent Laid-Open No. 2005-124824 as a second conventional example describes a surgical support system for generating a surgical simulation image in which surgical moving image data is necessary for each procedure step necessary for constructing the surgical simulation image. It is disclosed to divide into optimal procedure step moving image data and register the divided procedure step moving image data in a database. This publication also discloses that, during surgery, index data is added to the surgical video data based on the depression of an operation button or the like of an endoscope for a mark that divides the surgical video data.

特開2006−61469号公報JP 2006-61469 A 特開2005−124824号公報JP 2005-124824 A

通常、1回の手術を行う場合、手術の開始から終了まで、内視鏡画像を画像記録装置に記録するために、所望とするシーンの画像部分を効率良く抽出することが望まれる。第1の従来例は、時系列に沿って記録された一連の画像において、選択された画像の撮像位置を表示画面から容易に推定できるようにするものであり、所望とするシーンの画像部分を効率良く抽出することを開示していない。
また、第2の従来例は、手術中においてユーザの操作により、分割するマークを付けることを開示しているが、手術中においては、ユーザは手術に専念するために、この従来例では、ユーザに対して煩わしい操作を要求する欠点があると共に、分割するマークを付け忘れることが発生し易い欠点がある。
本発明は上述した点に鑑みてなされたもので、所望とするシーンの画像を簡単に抽出することができる画像記録装置を提供することを目的とする。
Usually, when performing a single operation, it is desirable to efficiently extract an image portion of a desired scene in order to record an endoscopic image in an image recording apparatus from the start to the end of the operation. In the first conventional example, an imaging position of a selected image in a series of images recorded in time series can be easily estimated from a display screen. It does not disclose efficient extraction.
In addition, the second conventional example discloses that a mark to be divided is attached by an operation of the user during the operation. In the conventional example, the user concentrates on the operation during the operation. However, there are drawbacks that require cumbersome operations, and forgetting to add marks to be divided.
SUMMARY An advantage of some aspects of the invention is that it provides an image recording apparatus that can easily extract an image of a desired scene.

本発明の一態様の画像記録装置は、画像信号が入力される画像信号入力部と、前記画像信号入力部に入力された前記画像信号における画像の特徴量を抽出する画像解析部と、入力される前記画像信号の前記画像に対して予め手術の進行状況に応じた画像種別毎に判別用特徴量と関連付けた複数の画像種別のデータベースを蓄積する画像種別データベース部と、前記画像解析部により抽出された前記特徴量の画像に対して前記画像種別データベース部における該当する画像種別を判別する画像判別部と、前記画像判別部の判別結果により判別された前記画像種別の変化に対応して、変化したタイミングの前記画像信号を特定するための編集ポイント及び前記画像信号に関連する第1のメタ情報を、前記画像信号に付加して記録するための記録データを生成する記録データ生成部と、前記記録データ生成部により生成された前記画像信号、前記編集ポイント及び前記第1のメタ情報を含む前記記録データを記録する記録部と、前記手術の際に利用される複数の周辺機器の動作状態の情報が入力される情報入力部と、前記情報入力部に入力された情報から、該情報に該当する前記複数の周辺機器の各動作状態を判別する状態判別部と、前記状態判別部の判別結果の変化に対応した前記編集ポイント及び前記状態判別部の判別結果が変化したタイミングの前記複数の周辺機器に関連する第2のメタ情報を前記画像信号に付加して、前記記録部に記録するように制御する制御部と、を備える。   An image recording apparatus according to an aspect of the present invention receives an image signal input unit to which an image signal is input, and an image analysis unit that extracts an image feature amount in the image signal input to the image signal input unit. An image type database unit that stores a database of a plurality of image types associated with feature amounts for discrimination for each image type corresponding to the progress of surgery in advance for the image of the image signal, and extracted by the image analysis unit An image discriminating unit that discriminates a corresponding image type in the image type database unit with respect to the image of the feature amount, and a change corresponding to the change in the image type discriminated by the discrimination result of the image discriminating unit An edit point for specifying the image signal at the specified timing and a first meta information related to the image signal are added to the image signal for recording. A recording data generating unit for generating data, a recording unit for recording the recording data including the image signal, the editing point and the first meta information generated by the recording data generating unit; An information input unit for inputting information on the operating state of a plurality of peripheral devices to be used, and a state for determining each operating state of the plurality of peripheral devices corresponding to the information from the information input to the information input unit A second meta information related to the plurality of peripheral devices at the timing when the determination point corresponding to the change in the determination result of the determination unit and the determination unit of the state determination unit and the determination result of the state determination unit is changed in the image signal And a control unit that controls to record in the recording unit.

本発明によれば、所望とするシーンの画像を簡単に抽出することができる。   According to the present invention, an image of a desired scene can be easily extracted.

図1は本発明の第1の実施形態の画像記録装置を備えた内視鏡システムの全体構成を示す図。FIG. 1 is a diagram illustrating an overall configuration of an endoscope system including an image recording apparatus according to a first embodiment of the present invention. 図2は図1における画像記録装置の内部構成を示した内視鏡システムの全体構成を示す図。2 is a diagram showing an overall configuration of an endoscope system showing an internal configuration of the image recording apparatus in FIG. 図3は手術の際に使用される複数の周辺機器と、各周辺機器の主な動作状態(ステータス)を表形式で示す図。FIG. 3 is a table showing a plurality of peripheral devices used in the operation and main operation states (status) of the peripheral devices in a table format. 図4は画像データ種別データベースに画像の種別毎に分類されて格納されているカテゴリ、サブカテゴリの画像を表形式で示す図。FIG. 4 is a diagram showing, in a tabular form, images of categories and subcategories that are classified and stored for each image type in the image data type database. 図5は体腔内画像、体腔外画像、カラーバー画像における代表的な色平均値を示す図。FIG. 5 is a diagram showing representative color average values in an intra-body cavity image, an extra-body cavity image, and a color bar image. 図6は第1の実施形態の画像記録装置の動作を示すフローチャート。FIG. 6 is a flowchart showing the operation of the image recording apparatus according to the first embodiment. 図7Aは手術の際に録画を行った場合において手術の進行状況に応じて周辺機器のステータスや画像のカテゴリが変化し、変化する時間に編集ポイントとメタ情報とが作成される様子を示すタイミングチャート。FIG. 7A is a timing diagram showing how the status of peripheral devices and image categories change according to the progress of surgery when recording is performed during surgery, and edit points and meta information are created at the time of change. chart. 図7Bは図7Aにおける編集ポイントと周辺機器のステータスの詳細を表形式で示す図。FIG. 7B is a diagram showing details of the edit points and peripheral device statuses in FIG. 7A in a table format. 図7Cは画像と共にメタ情報が記録される記録データの記録フォーマット例を示す図。FIG. 7C is a diagram showing an example of a recording format of recording data in which meta information is recorded together with an image. 図7Dは図7Cにおけるメタ情報の具体例を示す図。FIG. 7D is a diagram showing a specific example of the meta information in FIG. 7C. 図8は図6における画像種別を判別する処理の詳細を示すフローチャート。FIG. 8 is a flowchart showing details of processing for determining the image type in FIG. 図9はエッジ処理により判別される3D画像を示す図。FIG. 9 is a diagram illustrating a 3D image determined by edge processing. 図10はエッジ処理により判別されるPIP(ピクチャーインピクチャー)の画像を示す図。FIG. 10 is a diagram showing a PIP (Picture in Picture) image determined by edge processing. 図11はエッジ処理により判別されるPOP(ピクチャーアウトピクチャー)の画像を示す図。FIG. 11 is a diagram showing a POP (picture out picture) image determined by edge processing. 図12Aは記録された記録データから抽出しようとするシーンの指定を行う前のメニュー画面を示す図。FIG. 12A is a diagram showing a menu screen before designating a scene to be extracted from recorded data. 図12Bは図12Aにおいて体腔内のカテゴリの指定を行った場合に該当するシーンの画像の一覧が表示される画面を示す図。12B is a diagram showing a screen on which a list of images of the corresponding scene is displayed when the category in the body cavity is designated in FIG. 12A. 図12Cは図12Bにおいて更に処置のサブカテゴリの指定を行った場合に該当するシーンの画像の一覧が表示される画面を示す図。FIG. 12C is a diagram showing a screen on which a list of images of the corresponding scene is displayed when the treatment subcategory is further specified in FIG. 12B. 図12Dは図12Cにおいて更に周辺機器のステータスの指定を行った場合に該当するシーンの画像の一覧が表示される画面を示す図。12D is a view showing a screen on which a list of images of the corresponding scene is displayed when the status of the peripheral device is further specified in FIG. 12C. 図13は図6のフローチャートにおいて、周辺機器のステータスに関する処理を行わないで、画像種別に関する処理のみを行うようにした場合の処理内容を示すフローチャート。FIG. 13 is a flowchart showing the processing contents when only the processing related to the image type is performed without performing the processing related to the status of the peripheral device in the flowchart of FIG.

以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示すように本発明の第1の実施形態の画像記録装置10を備えた内視鏡システム1は、手術用ベッド(以下ベッド)2に載置される患者3に対して内視鏡4と、この内視鏡4と共に使用される複数の周辺機器としての照明光を発生する光源装置5、信号処理を行う信号処理装置としてのビデオプロセッサ(以下、プロセッサ)6、高周波電流により電気的処置を行う電気メス装置7、気腹を行う気腹装置8、内視鏡画像の表示を行う表示装置としてのモニタ9を備える。
画像記録装置10、光源装置5、プロセッサ6、電気メス装置7、気腹装置8、モニタ9は、移動自在のトロリ11に搭載されている。
内視鏡4は、細長の挿入部12を有し、挿入部12の基端(後端)から延出された信号ケーブル13はプロセッサ6に接続される。また、挿入部12の基端付近から延出されたライトガイドケーブル14は、光源装置5に接続される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
As shown in FIG. 1, an endoscope system 1 including an image recording apparatus 10 according to a first embodiment of the present invention is an endoscope for a patient 3 placed on a surgical bed (hereinafter referred to as a bed) 2. 4, a light source device 5 that generates illumination light as a plurality of peripheral devices used together with the endoscope 4, a video processor (hereinafter referred to as a processor) 6 as a signal processing device that performs signal processing, An electric scalpel device 7 for performing treatment, an insufflation device 8 for performing pneumoperitoneum, and a monitor 9 as a display device for displaying an endoscopic image are provided.
The image recording device 10, the light source device 5, the processor 6, the electric knife device 7, the pneumoperitoneum device 8, and the monitor 9 are mounted on a movable trolley 11.
The endoscope 4 has an elongated insertion portion 12, and a signal cable 13 extending from the proximal end (rear end) of the insertion portion 12 is connected to the processor 6. In addition, the light guide cable 14 extended from the vicinity of the proximal end of the insertion portion 12 is connected to the light source device 5.

図1に示すように手術を行う場合には、内視鏡4の挿入部12は、患者3の体腔内としての例えば腹腔内に挿入される。また、腹腔内を観察し易くするために気腹装置8は、送気チューブ15を介して、腹腔内に刺入されるトラカール16に送気し、腹腔内を気腹する。
また、電気メス装置7は、ケーブル18aを介して腹腔内に挿入され、切開等の処置を行う電気メス17に高周波電流を供給し、術者は、電気メス17を用いて腹腔内の病変組織等を切開したり、出血した部分を凝固する処置を行う。なお、電気メス17の先端が接触して病変組織側に流れた高周波電流は、患者3に広い面積で当接する対極板19と、この対極板19に接続されたリターン用ケーブル18bを介して電気メス装置7に戻る。
また、術者は、切開した部位等を吻合糸で吻合する処置を行う場合もある。
図2は、図1における画像記録装置10の内部構成と、複数の周辺機器の概略の構成を示す。
When performing surgery as shown in FIG. 1, the insertion portion 12 of the endoscope 4 is inserted into, for example, the abdominal cavity of the patient 3 as a body cavity. In order to make it easy to observe the inside of the abdominal cavity, the insufflation apparatus 8 supplies air to the trocar 16 inserted into the abdominal cavity through the air supply tube 15 and inhales the abdominal cavity.
The electric scalpel device 7 is inserted into the abdominal cavity via the cable 18 a and supplies a high-frequency current to the electric scalpel 17 that performs a treatment such as an incision. Incisions are made, and the bleeding part is coagulated. Note that the high-frequency current that has flowed toward the lesioned tissue when the tip of the electric knife 17 comes into contact with the patient 3 via a counter electrode 19 that contacts the patient 3 over a wide area and a return cable 18b connected to the counter electrode 19. Return to the female device 7.
In addition, the operator may perform a procedure of anastomosing the incised site with an anastomosis thread.
FIG. 2 shows an internal configuration of the image recording apparatus 10 in FIG. 1 and a schematic configuration of a plurality of peripheral devices.

内視鏡4内にはライトガイド21が挿通され、このライトガイド21の基端は光源装置5に接続される。光源装置5は、照明光を発生し、ライトガイド21に供給する。
また、内視鏡4の例えば先端部に配置された撮像素子22は、信号線23を介してプロセッサ6に接続される。
また、内視鏡4には、観察モードを切り替える操作を行う切替スイッチ24が設けてあり、切替スイッチ24の操作信号は、光源装置5とプロセッサ6に送られる。
切替スイッチ24は、切替スイッチがOFFとなる通常の状態においては、光源装置は、通常光観察(モード)に対応した白色光を照明光として出力し、切替スイッチ24がONされると特殊光観察(モード)に対応した特殊光を照明光として出力する状態に切り替わる。つまり、切替スイッチ24は、特殊光観察のON/OFFを行う機能を持つ。
光源装置5は、白色光を発生するランプ5aと、ランプ5aに点灯用の電力を供給する電源回路5bと、光路から挿脱されるフィルタ5cと、集光レンズ5dと、電源スイッチ5eと、光源装置5を制御する制御回路5fとを有する。制御回路5fは、通信線25aを介して画像記録装置10と接続される。
A light guide 21 is inserted into the endoscope 4, and a proximal end of the light guide 21 is connected to the light source device 5. The light source device 5 generates illumination light and supplies it to the light guide 21.
In addition, the imaging element 22 disposed at, for example, the distal end portion of the endoscope 4 is connected to the processor 6 via the signal line 23.
In addition, the endoscope 4 is provided with a changeover switch 24 that performs an operation of switching the observation mode, and an operation signal of the changeover switch 24 is sent to the light source device 5 and the processor 6.
In a normal state in which the changeover switch is turned off, the light source device outputs white light corresponding to normal light observation (mode) as illumination light. When the changeover switch 24 is turned on, the special light observation is performed. It switches to the state which outputs special light corresponding to (mode) as illumination light. That is, the changeover switch 24 has a function of turning on / off the special light observation.
The light source device 5 includes a lamp 5a that generates white light, a power supply circuit 5b that supplies lighting power to the lamp 5a, a filter 5c that is inserted and removed from the optical path, a condenser lens 5d, a power switch 5e, A control circuit 5f for controlling the light source device 5. The control circuit 5f is connected to the image recording apparatus 10 via the communication line 25a.

上記切替スイッチ24が操作されない状態においては、フィルタ5cは、光路から退避した位置に配置される。切替スイッチ24が操作されると制御回路5fは、フィルタ5cを、光路上の位置に配置するように制御し、光源装置5はフィルタ5cを通した特殊光、より具体的には狭帯域光をライトガイド21に供給する。
プロセッサ6は、撮像素子22に対する信号処理を行い、画像信号を生成する信号処理回路6aと、電源スイッチ6bと、プロセッサ6を制御する制御回路6cとを有する。信号処理回路6aにより生成された画像信号は、画像記録装置10(の画像信号入力部31)に入力される。
制御回路6cは、通信線25bを介して画像記録装置10と接続され、制御回路6cは、プロセッサ6の動作状態(ステータス)の情報を通信線25bを介して画像記録装置10に送信する。また、画像記録装置10側から送信信号が制御回路6cに送信されると、制御回路6cは、送信信号に対応した制御動作を行う。
In the state where the changeover switch 24 is not operated, the filter 5c is disposed at a position retracted from the optical path. When the changeover switch 24 is operated, the control circuit 5f controls the filter 5c to be disposed at a position on the optical path, and the light source device 5 emits special light, more specifically narrowband light, that has passed through the filter 5c. The light guide 21 is supplied.
The processor 6 includes a signal processing circuit 6 a that performs signal processing on the image sensor 22 and generates an image signal, a power switch 6 b, and a control circuit 6 c that controls the processor 6. The image signal generated by the signal processing circuit 6a is input to the image recording apparatus 10 (the image signal input unit 31 thereof).
The control circuit 6c is connected to the image recording apparatus 10 via the communication line 25b, and the control circuit 6c transmits information on the operating state (status) of the processor 6 to the image recording apparatus 10 via the communication line 25b. When a transmission signal is transmitted from the image recording apparatus 10 side to the control circuit 6c, the control circuit 6c performs a control operation corresponding to the transmission signal.

制御回路6cは、上記切替スイッチ24が操作されない状態においては、信号処理回路6aが白色光の照明のもとで撮像素子22が撮像した状態の画像信号を生成するように制御する。また、制御回路6cは、切替スイッチ24が操作された場合には、信号処理回路6aが特殊光の照明のもとで撮像素子22が撮像した状態の画像信号(より具体的には狭帯域の画像信号)を生成するように制御する。
また、制御回路6cは、プロセッサ6のステータスが切替スイッチ24のON/OFF、換言すると特殊光観察のON/OFFのいずれのステータスであるかの情報を画像記録装置10に送信する。
なお、光源装置5の制御回路5fも切替スイッチ24のON/OFF、換言すると特殊光観察のON/OFFにおけるいずれのステータスであるかの情報を画像記録装置10に送信する。画像記録装置10は、光源装置5とプロセッサ6との両方から特殊光観察のON/OFFのいずれのステータスであるかの情報を取得することができる。
In a state where the changeover switch 24 is not operated, the control circuit 6c performs control so that the signal processing circuit 6a generates an image signal in a state where the image pickup device 22 takes an image under white light illumination. In addition, when the changeover switch 24 is operated, the control circuit 6c is configured such that the signal processing circuit 6a captures an image signal (more specifically, a narrow-band signal) captured by the image sensor 22 under illumination of special light. (Image signal) is generated.
In addition, the control circuit 6 c transmits to the image recording apparatus 10 information indicating whether the status of the processor 6 is ON / OFF of the changeover switch 24, in other words, whether the special light observation is ON / OFF.
Note that the control circuit 5f of the light source device 5 also transmits to the image recording device 10 information indicating which status is ON / OFF of the changeover switch 24, in other words, whether the special light observation is ON / OFF. The image recording apparatus 10 can acquire information indicating whether the special light observation status is ON / OFF from both the light source device 5 and the processor 6.

このため、一方の周辺機器のみから特殊光観察のON/OFFのいずれのステータスであるかの情報を取得するようにしても良い。図3においては、例えばプロセッサ6で特殊光観察のON/OFFのいずれのステータスであるかの情報を取得することを、プロセッサ(光源装置)と表記して示している。特殊光観察のON/OFFは、内視鏡4による特殊光観察と通常光観察の切替ステータスでもあるので、内視鏡4の特殊光観察のON/OFFのステータスと見なしても良い(図7D参照)。
なお、信号処理回路6aは、実線で示すように内視鏡4から入力される第1の信号入力端の他に点線で示すように第2の信号入力端を有し、信号処理回路6aは、PIP(ピクチャーインピクチャー)の画像信号、POP(ピクチャーアウトピクチャー)、3Dの画像信号を生成する機能を有する。
図2においては、内視鏡4として1つの撮像素子22を備えた2D内視鏡の場合を示しているが、図2において2点鎖線によりその一部を示すように2つの撮像素子22a,22bを備えた3D内視鏡4bが内視鏡システム1に使用される場合もある。
For this reason, information regarding the status of special light observation ON / OFF may be acquired from only one peripheral device. In FIG. 3, for example, the acquisition of information indicating whether the special light observation status is ON / OFF by the processor 6 is indicated as a processor (light source device). Since the special light observation ON / OFF is also a switching status between special light observation and normal light observation by the endoscope 4, it may be regarded as a special light observation ON / OFF status of the endoscope 4 (FIG. 7D). reference).
The signal processing circuit 6a has a second signal input end as shown by a dotted line in addition to the first signal input end inputted from the endoscope 4 as shown by a solid line, and the signal processing circuit 6a has , PIP (Picture in Picture) image signal, POP (Picture Out Picture), and 3D image signal.
In FIG. 2, the case of a 2D endoscope including one image sensor 22 as the endoscope 4 is shown, but in FIG. 2, two image sensors 22a, The 3D endoscope 4b provided with 22b may be used for the endoscope system 1.

図2に示すように電気メス装置7は、高周波信号を発生する高周波発生回路7aと、発生した高周波信号を出力する出力スイッチ7bと、高周波信号の出力モードを変更するモードスイッチ7cと、電気メス装置7を制御する制御回路7dとを有する。制御回路7dは、通信線25cを介して画像記録装置10と接続される。制御回路7dは、電気メス装置7における出力スイッチ7bによる高周波信号の出力ON/OFF、モードスイッチ7cによる出力モードとしての切開モードと凝固モードとの選択に応じて高周波電力の波形を切開用と凝固用に切り替えを制御する。また、制御回路7dは、出力ON/OFFのステータスの情報と、出力モードのステータスの情報を画像記録装置10に送信する。
図2に示すように気腹装置8は、気腹のために送気を行う送気装置8aと、送気のON/OFFを行うスイッチ8bと、気腹装置8を制御する制御回路8cとを有する。また、送気装置8aは、送気する場合の流量や送気した場合の腹腔内の圧力を検出するセンサ8dを有する。制御回路8cは、通信線25dを介して画像記録装置10と接続される。
As shown in FIG. 2, the electric knife device 7 includes a high-frequency generator circuit 7a that generates a high-frequency signal, an output switch 7b that outputs the generated high-frequency signal, a mode switch 7c that changes the output mode of the high-frequency signal, and an electric knife. And a control circuit 7d for controlling the device 7. The control circuit 7d is connected to the image recording apparatus 10 via the communication line 25c. The control circuit 7d turns on and off the output of the high-frequency signal by the output switch 7b in the electric scalpel device 7, and changes the waveform of the high-frequency power according to the selection of the incision mode and the coagulation mode as the output mode by the mode switch 7c. Control switching for Further, the control circuit 7 d transmits output ON / OFF status information and output mode status information to the image recording apparatus 10.
As shown in FIG. 2, the insufflation apparatus 8 includes an insufflation apparatus 8 a that performs insufflation for insufflation, a switch 8 b that performs ON / OFF of the insufflation, and a control circuit 8 c that controls the insufflation apparatus 8. Have The air supply device 8a includes a sensor 8d that detects a flow rate when air is supplied and a pressure in the abdominal cavity when air is supplied. The control circuit 8c is connected to the image recording apparatus 10 via the communication line 25d.

制御回路8cは、気腹装置8における送気のON/OFFを行うスイッチ8bによる送気ON/OFFを制御する。また、制御回路7dは、気腹装置8における送気ON/OFFのステータスの情報を画像記録装置10に送信する。
また、モニタ9は、液晶ディスプレイ等の表示部9aと、画像を表示する場合の構造強調のON/OFF、構造強調をONにした場合の強度(モード)を変える構造強調スイッチ(図2では単に構造強調)9bと、フリップのON/OFFを行うフリップスイッチ(図2では単にフリップ)9cと、PIP/POPのON/OFFを行うPIP/POPスイッチ(図2では単にPIP)9dと、モニタ9を制御する制御回路9eとを有する。制御回路9eは、通信線25eを介して画像記録装置10と接続される。なお、フリップをONした場合には、モニタ9に表示される画像の上下を反転する。図2では、構造強調スイッチ9b、フリップスイッチ9cのON/OFFによるステータスをモニタ9のステータスとして説明しているが、プロセッサ6のステータスに割り当てるようにしても良い。
制御回路9eは、モニタ9における構造強調スイッチ9bによる構造強調のON/OFF、構造強調がONの場合の構造強調の強度(モード)のステータス、フリップスイッチ9cによるフリップのON/OFFのステータス、PIP/POPスイッチ9dによるPIP/POPのステータスの情報を画像記録装置10に送信する。
The control circuit 8c controls air supply ON / OFF by a switch 8b that performs ON / OFF of air supply in the insufflation apparatus 8. In addition, the control circuit 7 d transmits information on the status of air supply ON / OFF in the insufflation apparatus 8 to the image recording apparatus 10.
The monitor 9 includes a display unit 9a such as a liquid crystal display, a structure emphasis switch for changing the intensity (mode) when structure emphasis is turned on and off, and structure emphasis switch when the image is displayed (in FIG. (Structure emphasis) 9b, flip switch 9c for flip ON / OFF (simply flip in FIG. 2), PIP / POP switch 9d for simply ON / OFF PIP / POP (simply PIP in FIG. 2) 9d, monitor 9 And a control circuit 9e for controlling. The control circuit 9e is connected to the image recording apparatus 10 via the communication line 25e. When the flip is turned on, the image displayed on the monitor 9 is reversed upside down. In FIG. 2, the status by ON / OFF of the structure emphasis switch 9 b and the flip switch 9 c is described as the status of the monitor 9. However, the status may be assigned to the status of the processor 6.
The control circuit 9e is configured to turn ON / OFF the structure emphasis by the structure emphasis switch 9b in the monitor 9, the status of the structure emphasis intensity (mode) when the structure emphasis is ON, the status of the flip ON / OFF by the flip switch 9c, PIP The PIP / POP status information by the / POP switch 9d is transmitted to the image recording apparatus 10.

また、図2では示していないが、手術を行う場合、図3に示すように超音波切開(凝固)装置を用いる場合もある。超音波切開装置は、電気メス装置7における、高周波発生回路7aを超音波駆動信号を発生する超音波駆動信号発生回路に置換し、高周波信号を超音波駆動信号に読み替え、電気メス17を超音波プローブに置換した構成とほぼ同様の機能を有する。
この場合には超音波切開装置の制御回路は、超音波出力のON/OFFのステータスと、出力モードのステータスとの情報を画像記録装置10に送信する。
図2に示すように画像記録装置10は、プロセッサ6からの画像信号が入力される画像信号入力部(又は画像信号入力回路)31と、画像信号入力部31に入力された画像信号における画像の特徴量を抽出するための画像解析を行う画像解析部(又は画像解析回路)32と、画像解析部32を通った画像信号から記録するための記録データを生成する記録データ生成部(又は記録データ生成回路)33とを有する。
Although not shown in FIG. 2, when performing an operation, an ultrasonic dissection (coagulation) apparatus may be used as shown in FIG. The ultrasonic incision device replaces the high frequency generation circuit 7a in the electric scalpel device 7 with an ultrasonic drive signal generation circuit that generates an ultrasonic drive signal, replaces the high frequency signal with an ultrasonic drive signal, and converts the electric scalpel 17 into an ultrasonic wave. It has almost the same function as the structure replaced with the probe.
In this case, the control circuit of the ultrasonic incision apparatus transmits information about the ON / OFF status of the ultrasonic output and the status of the output mode to the image recording apparatus 10.
As shown in FIG. 2, the image recording apparatus 10 includes an image signal input unit (or image signal input circuit) 31 to which an image signal from the processor 6 is input, and an image signal in the image signal input to the image signal input unit 31. An image analysis unit (or image analysis circuit) 32 that performs image analysis for extracting feature quantities, and a record data generation unit (or record data) that generates recording data for recording from an image signal that has passed through the image analysis unit 32 Generation circuit) 33.

また、画像記録装置10は、記録データ生成部33により生成された記録データを記録するハードディスク34と、ハードディスク34に記録された記録データを読み出し、画像記録装置10から画像信号として出力する画像信号出力部(又は画像信号出力回路)35とを有する。画像信号出力部35は、記録データから生成した画像信号を、外部のモニタ9に出力する他に、画像信号入力部31に入力された画像信号を、モニタ9に出力することもできる。
また、画像記録装置10は、前記画像解析部32に入力される画像信号の画像に対して、予め手術の進行状況に応じた画像種別毎に、各画像種別の特徴量としての判別用特徴量と関連付けた(又は紐付けした)複数の画像種別のデータベースを蓄積する画像種別データベース部(又は画像種別データベース装置)36と、画像解析部32により抽出された特徴量の画像に対して、画像種別データベース部36に蓄積された複数の画像種別における該当する画像種別を判別する画像判別部(又は画像判別回路)37とを有する。
In addition, the image recording apparatus 10 reads the recording data recorded on the hard disk 34 and the hard disk 34 that records the recording data generated by the recording data generation unit 33, and outputs the image data from the image recording apparatus 10 as an image signal. Part (or image signal output circuit) 35. The image signal output unit 35 can output the image signal input from the image signal input unit 31 to the monitor 9 in addition to outputting the image signal generated from the recording data to the external monitor 9.
Further, the image recording apparatus 10 determines, for each image type corresponding to the progress of the operation, a feature value for each image type for the image of the image signal input to the image analysis unit 32 in advance. An image type database unit (or image type database device) 36 that stores a database of a plurality of image types associated with (or associated with) and an image of a feature amount extracted by the image analysis unit 32 And an image discriminating unit (or image discriminating circuit) 37 that discriminates corresponding image types in a plurality of image types stored in the database unit 36.

この画像判別部37は、前の時間において判別した画像種別が、その後の時間において変化した場合(タイミング)に、記録データ生成部33に通知し、記録データ生成部33は、画像種別が変化したことを表す編集用(又は抽出用)ポイントとなる編集ポイント(又は抽出ポイント)の情報と、編集ポイントのタイミングにおける少なくとも画像種別に関連する情報としてのメタ情報(より具体的には第1のメタ情報)とを画像(信号)の記録データに付加する。
つまり、画像判別部37により判別される画像種別が時間的に変化した場合、記録データ生成部33は、画像の記録データに、編集ポイント及び(第1の)メタ情報とを付加した記録データ(統合記録データとも言う)を生成する。なお、編集ポイント及び(第1の)メタ情報とが付加された記録データ(統合記録データ)は、画像の記録データと一体化されたファイルでも良いし、画像のファイル(一般的には動画ファイル)に関連付け(又は付随)した別体のファイルとから構成されるものでも良い。
図4は、画像種別データベース部36内に予め蓄積されている画像種別の情報を示す。画像種別の大まかな分類となるカテゴリ(又は大分類)と、カテゴリの分類におけるより詳細な分類となるサブカテゴリ(又は中分類)により画像種別を分類するようにしている。
The image discriminating unit 37 notifies the recording data generating unit 33 when the image type discriminated in the previous time changes (timing) in the subsequent time, and the recording data generating unit 33 changes the image type. Information of editing points (or extraction points) that serve as editing (or extraction) points indicating the above, and meta information (more specifically, first meta information as information related to at least the image type at the timing of the editing points) Information) is added to the recording data of the image (signal).
That is, when the image type discriminated by the image discriminating unit 37 changes with time, the recording data generating unit 33 adds the editing point and (first) meta information to the recording data of the image. Also called integrated recording data). The recording data (integrated recording data) to which the editing point and the (first) meta information are added may be a file integrated with the image recording data, or an image file (generally a moving image file). ) And a separate file associated (or attached).
FIG. 4 shows image type information stored in advance in the image type database unit 36. The image type is classified by a category (or a large classification) that is a rough classification of the image type and a sub-category (or a medium classification) that is a more detailed classification in the category classification.

カテゴリは、体腔内(画像)、体腔外(画像)、その他(画像)に分類する。また、体腔内(画像)、体腔外(画像)、その他(画像)には、それぞれの画像種別に対応する判別用特徴量が紐付け(関連付け)してある。つまり、画像種別データベース部36は、体腔内(画像)、体腔外(画像)、その他(画像)を判別(特定)するための判別用特徴量(又は特定用特徴量)を、体腔内(画像)、体腔外(画像)、その他(画像)にそれぞれ関連付けて(紐付け)して格納している。
なお、以下の複数のサブカテゴリの画像に関しても同様に、各サブカテゴリの画像に対応する判別用特徴量が関連付け(紐付け)してある。そして、画像種別データベース部36は、各サブカテゴリの画像に対応する判別用特徴量が関連付け(紐付け)して格納している。このため、画像種別データベース部36は、カテゴリ及びサブカテゴリの画像に関連付け(紐付け)た判別用特徴量(の情報)を予め格納する判別用特徴量格納部36aを有する。そして、画像記録装置10に入力される画像信号の画像の特徴量を抽出して、抽出した特徴量を判別用特徴量と比較することにより、抽出された画像がいずれのカテゴリ、サブカテゴリの画像種別の画像であるかを判別することができるようにしている。
The category is classified into body cavity (image), body cavity (image), and other (image). In addition, in the body cavity (image), outside the body cavity (image), and the other (image), discrimination feature amounts corresponding to the respective image types are linked (associated). That is, the image type database unit 36 determines the feature quantity for discrimination (or the feature quantity for specification) for discriminating (specifying) the inside of the body cavity (image), the outside of the body cavity (image), and the other (image). ), Outside the body cavity (image), and other (image), respectively (linked) and stored.
In addition, similarly for the following images of a plurality of subcategories, determination feature amounts corresponding to the images of each subcategory are associated (linked). Then, the image type database unit 36 stores the discrimination feature amounts corresponding to the images of the respective subcategories in association (linked). For this reason, the image type database unit 36 includes a determination feature amount storage unit 36a that stores in advance (information about) a determination feature amount associated (linked) with images of categories and subcategories. Then, the feature amount of the image of the image signal input to the image recording apparatus 10 is extracted, and the extracted feature amount is compared with the feature amount for discrimination, so that the extracted image has an image type of any category or subcategory. It is possible to determine whether the image is an image.

また、カテゴリが体腔内(画像)の場合には、2D(画像)の場合における処置(画像)、合成(画像)、吻合(画像)、その他(画像)のサブカテゴリと、3D(画像)の場合における処置(画像)、合成(画像)、吻合(画像)、その他(画像)のサブカテゴリと、に分類している。なお、吻合(画像)は、吻合糸(画像)とも言う。
処置(画像)は、処置具、プローブを用いた画像であり、合成(画像)はPIP/POP画像であり、吻合(画像)は、吻合を行っている吻合糸の画像であり、その他(画像)は上記のサブカテゴリに該当しない画像である。
一方、カテゴリが体腔内(画像)の場合には、黒画、カラーバー、その他のサブカテゴリに分類している。黒画は、無信号時の画像であり、カラーバーは術前のテスト画像であり、その他(画像)は、上記のサブカテゴリに該当しない画像である。なお、上述した分類と異なる分類を採用しても良い。また、合成(画像)のサブカテゴリを、合成(画像)を用いないで、PIP(画像)又はPOP(画像)のサブカテゴリを用いるようにしても良い。
上記画像解析部32は、入力される画像信号(の画像)におけるR,G,B色成分画像(単にR,G,Bと略記)の画素ヒストグラム(単にヒストグラムと略記)を解析(算出)することにより画像の特徴量を抽出するヒストグラム解析回路32aと、画像のエッジを抽出することにより画像の特徴量を抽出するエッジ抽出回路32bとを有する。なお、画像解析部32は、例えば吻合(画像)を判別する場合、ヒストグラム解析回路32aとエッジ抽出回路32bとの2つの回路の他に、後述するように、複数のフレームの画像におけるエッジ部分や、処置具の先端部分を抽出した画像部分が、予め登録された画像の特徴的な動きパターンに該当するか否かにより(吻合(画像)であるか否かを)判別するようにしても良い。
When the category is in the body cavity (image), the treatment (image), composition (image), anastomosis (image), and other (image) subcategories in the case of 2D (image), and 3D (image) Are classified into subcategories of treatment (image), composition (image), anastomosis (image), and other (image). An anastomosis (image) is also called an anastomosis thread (image).
The treatment (image) is an image using a treatment tool and a probe, the composite (image) is a PIP / POP image, the anastomosis (image) is an image of an anastomosis thread performing anastomosis, and the other (image ) Is an image not corresponding to the above-mentioned subcategory.
On the other hand, when the category is in a body cavity (image), it is classified into a black image, a color bar, and other subcategories. The black image is an image when there is no signal, the color bar is a pre-operative test image, and the other (image) is an image that does not fall within the above subcategory. In addition, you may employ | adopt the classification different from the classification mentioned above. Further, as a subcategory of composition (image), a subcategory of PIP (image) or POP (image) may be used without using composition (image).
The image analysis unit 32 analyzes (calculates) a pixel histogram (simply abbreviated as a histogram) of R, G, B color component images (simply abbreviated as R, G, B) in an input image signal (image thereof). Thus, a histogram analysis circuit 32a that extracts the feature amount of the image and an edge extraction circuit 32b that extracts the feature amount of the image by extracting the edge of the image are included. Note that, for example, when the anastomosis (image) is determined, the image analysis unit 32, in addition to the two circuits of the histogram analysis circuit 32a and the edge extraction circuit 32b, as described later, Depending on whether or not the image portion obtained by extracting the distal end portion of the treatment instrument corresponds to a characteristic motion pattern of a pre-registered image (whether or not it is an anastomosis (image)), it may be determined. .

ヒストグラム解析回路32aにより解析したR,G,Bのヒストグラムの解析結果と、エッジ抽出回路32bにより抽出されたエッジの抽出結果を、画像判別部37に送る。
画像判別部37は、画像解析部32の解析により抽出された特徴量を、画像種別データベース部36に蓄積された判別用特徴量と比較する等して、画像種別の判別対象となる特徴量の画像が複数の画像種別におけるいずれの画像種別に該当するか、又はいずれの画像種別に属するかを判別する。
画像判別部37による画像判別の処理の詳細は図8を参照して後述するが、図5を参照して画像判別の概略を説明する。図5は体腔内と体腔外における代表的な画像例を示すと共に、1フレームの画像におけるR,G,Bの平均値も示す。図5(A)と図5(B)は、体腔内における互いに異なる画像例を示し、それぞれの画像におけるR,G,Bの平均値に関して、G,B平均値に対して、R平均値はかなり大きくなるように、R,G,Bの平均値間のずれ量が大きい特徴を有する。
The R, G, and B histogram analysis results analyzed by the histogram analysis circuit 32 a and the edge extraction results extracted by the edge extraction circuit 32 b are sent to the image discrimination unit 37.
The image discriminating unit 37 compares the feature amount extracted by the analysis of the image analysis unit 32 with the discrimination feature amount accumulated in the image type database unit 36, etc. It is determined whether an image corresponds to which image type among a plurality of image types or belongs to which image type.
Details of the image discrimination processing by the image discrimination unit 37 will be described later with reference to FIG. 8, but the outline of the image discrimination will be described with reference to FIG. FIG. 5 shows typical image examples inside and outside the body cavity, and also shows the average values of R, G, and B in one frame image. 5 (A) and 5 (B) show examples of images different from each other in the body cavity. Regarding the average values of R, G, and B in the respective images, the R average value is There is a feature that the deviation amount between the average values of R, G, and B is large so as to be considerably large.

一方、図5(C)、図5(D)及び図5(E)は体腔外における代表的な画像例を示し、それぞれの画像におけるR,G,Bの平均値に関して、R,G,B平均値間のずれ量は小さい特徴を有する。このため、画像種別データベース部36は、体腔内と体腔外とを判別する判別用特徴量として、R,G,Bの平均値間のずれ量が例えば閾値としての20を格納し、画像判別部37は閾値以上となる画像を体腔内の画像と判別し、閾値未満となる画像を体腔外の画像と判別する。なお、G,Bの平均値に対して、Rの平均値が閾値以上であるか否かを体腔内と体腔外とを判別する判別用特徴量とするようにしても良い。
図5(E)は、(体腔外における)カラーバーの画像を示し、所定のパターンでRGB以外の色成分も表示し、この場合には通常の体腔外の画像の場合に比較して、R,G,Bの平均値間のずれ量が例えば第2の閾値としての5以下で、異なるフレームにおいてR,G,Bの平均値が変動しないこと等を判別用特徴量とする。画像判別部37は、抽出された特徴量がこのような判別用特徴量に該当するか否かを判別することにより、カラーバーの画像であるか否かを判別することができる。なお、図5において説明した内容の他に、図8において説明するような判別を行うようにしても良い。
On the other hand, FIG. 5C, FIG. 5D, and FIG. 5E show typical image examples outside the body cavity, and R, G, B regarding the average values of R, G, B in the respective images. The deviation between the average values has a small feature. For this reason, the image type database unit 36 stores, for example, a deviation amount between the average values of R, G, and B as a threshold value, for example, 20 as a threshold value as a discrimination feature value for discriminating between inside and outside the body cavity. 37 discriminate | determines the image which becomes more than a threshold value from the image in a body cavity, and discriminate | determines the image which becomes less than a threshold value from the image outside a body cavity. Note that whether or not the average value of R is greater than or equal to a threshold value with respect to the average values of G and B may be used as a distinguishing feature amount for discriminating between the body cavity and the outside of the body cavity.
FIG. 5E shows an image of the color bar (outside the body cavity) and displays color components other than RGB in a predetermined pattern. In this case, compared to the case of an image outside the body cavity, R The difference amount between the average values of G, B, and B is, for example, 5 or less as the second threshold value, and the average value of R, G, B does not vary in different frames, and the like is used as a distinguishing feature amount. The image discriminating unit 37 can discriminate whether or not it is a color bar image by discriminating whether or not the extracted feature amount corresponds to such a discriminating feature amount. In addition to the contents described in FIG. 5, the determination as described in FIG. 8 may be performed.

また、本実施形態においては、画像判別部37は、後述するステータス判別部38aによる複数の周辺機器のステータスの情報が画像判別する場合の付随的な情報として入力される。画像判別部37は、特徴量を用いた画像種別の判別の精度が低くなるような場合には、更に複数の周辺機器のステータスの情報を参照することにより、特徴量のみを用いた画像種別の判別の精度を向上する(ことができる)。
本実施形態においては、判別された画像種別が時間的に変化した場合には、記録データ生成部33は、画像の記録データに編集ポイントと、少なくとも画像種別の情報を含む第1のメタ情報を付加した(統合)記録データを生成し、ハードディスク34は、画像の記録データに編集ポイントと少なくとも画像種別の情報を含む第1のメタ情報を付加した(統合)記録データを記録する記録部34aの機能を有する。なお、記録データ生成部33は、判別された画像種別が時間的に変化していない場合には、所定のフォーマットで画像と各種のメタ情報(各種のメタ情報は、第1のメタ情報を含んでも、含まなくても良い)を付加して記録データを生成し、ハードディスク34は、当該記録データを記録部34aに記録する。
In the present embodiment, the image determination unit 37 inputs status information of a plurality of peripheral devices as incidental information when performing image determination by a status determination unit 38a described later. When the accuracy of determining the image type using the feature amount is low, the image determination unit 37 further refers to the status information of a plurality of peripheral devices to determine the image type using only the feature amount. Improve the accuracy of discrimination.
In the present embodiment, when the discriminated image type changes with time, the recording data generation unit 33 adds the editing point and the first meta information including at least image type information to the recording data of the image. The added (integrated) recording data is generated, and the hard disk 34 of the recording unit 34a that records the (integrated) recording data in which the first meta information including the edit point and at least the image type information is added to the image recording data. It has a function. Note that if the determined image type has not changed over time, the recording data generation unit 33 uses an image and various meta information (the various meta information includes the first meta information) in a predetermined format. However, it may not be included) to generate recording data, and the hard disk 34 records the recording data in the recording unit 34a.

なお、画像の記録を開始する場合には、画像種別又は後述するステータスが変化しない状態においても、記録データ生成部33は、最初の編集ポイントP1と、画像種別及びステータスに関連するメタ情報(第1のメタ情報及び第2のメタ情報)を付加した(統合)記録データを生成し、ハードディスク34は、(統合)記録データを記録する(後述する図7A参照)。なお、最初の編集ポイントP1は、省略し、メタ情報のみを付加するようにしても良い。
また、画像記録装置10は、複数の周辺機器と通信を行う通信部(又は通信回路)38を有する。この通信部38は、通信により複数の周辺機器における各周辺機器のステータス(動作状態)の情報を取得してステータスを判別するステータス判別部(ステータス判別回路)38aを有する。なお、図2においては、通信部38の内部にステータス判別部38aを設けた場合の構成例を示しているが、通信部38の外部にステータス判別部38aを設ける構成にしても良い。
また、画像記録装置10は、画像記録装置10の制御を行うと共に、通信部38を介して複数の周辺機器の制御と、複数の周辺機器からの情報の取得等を行う制御部(又は制御回路)39と、画像記録装置10に対する操作を行うタッチ操作で行うタッチパネル40と、ハードディスク34に記録される記録データを外部に保存する場合における保存先の切替を行う保存先切替部(又は保存先切替回路)41とを有する。
When starting image recording, the recording data generation unit 33 also includes the first editing point P1 and the meta information (the first information related to the image type and status) even when the image type or the status described later does not change. (Integrated) recording data to which the first meta information and the second meta information) are added is generated, and the hard disk 34 records the (integrated) recording data (see FIG. 7A described later). Note that the first editing point P1 may be omitted, and only meta information may be added.
The image recording apparatus 10 also includes a communication unit (or communication circuit) 38 that communicates with a plurality of peripheral devices. The communication unit 38 includes a status determination unit (status determination circuit) 38a that acquires information on the status (operation state) of each peripheral device in a plurality of peripheral devices by communication to determine the status. 2 shows a configuration example in which the status determination unit 38a is provided inside the communication unit 38, the status determination unit 38a may be provided outside the communication unit 38.
In addition, the image recording apparatus 10 controls the image recording apparatus 10 and also controls a plurality of peripheral devices and acquires information from the plurality of peripheral devices via the communication unit 38 (or a control circuit). ) 39, a touch panel 40 that is operated by a touch operation for performing operations on the image recording apparatus 10, and a storage destination switching unit (or storage destination switching) that switches a storage destination when recording data recorded in the hard disk 34 is stored externally. Circuit) 41.

なお、タッチパネル40は、タッチ操作による操作と表示する表示部との操作/表示部40aの機能を持つ。また、タッチパネル40は、記録部34aを有するハードディスク34に対して、所望とするシーンの画像部分を抽出又は検索するために、画像種別の指定と、複数の周辺機器における任意のステータスの指定とを行う指定部(指定入力装置)40bの機能を有する。
また、制御部39は、記録部34aに記録された記録データから指定部40bにより指定された画像種別と指定された動作状態とに合致する条件のメタ情報を検索(又は抽出)するメタ情報検索部(又はメタ情報検索装置)39aを有する。メタ情報検索部39aは、検索したメタ情報、又は該メタ情報に該当する画像部分の情報を、例えばタッチパネル40に送り、タッチパネル40の例えば操作/表示部40aは上記メタ情報又は該メタ情報に該当する画像部分の情報を表示する。このため、操作/表示部40aは 検索されたメタ情報に該当する画像部分の情報を表示する表示部を形成する。
画像記録装置10の外部の記録装置として、USBメモリ42a、光学メディア42b、PC/サーバ42c等を用いることができる。
The touch panel 40 has a function of an operation / display unit 40a with an operation by a touch operation and a display unit to display. Further, the touch panel 40 performs designation of an image type and designation of arbitrary statuses in a plurality of peripheral devices in order to extract or search an image portion of a desired scene with respect to the hard disk 34 having the recording unit 34a. It has the function of the designation | designated part (designated input device) 40b to perform.
In addition, the control unit 39 searches for (or extracts) meta information of conditions that match the image type specified by the specifying unit 40b and the specified operation state from the recording data recorded in the recording unit 34a. Section (or meta information retrieval device) 39a. The meta information search unit 39a sends the searched meta information or information of the image portion corresponding to the meta information to the touch panel 40, for example, and the operation / display unit 40a of the touch panel 40 corresponds to the meta information or the meta information. Displays the information of the image part to be used. For this reason, the operation / display unit 40a forms a display unit that displays information of the image portion corresponding to the searched meta information.
As a recording device external to the image recording device 10, a USB memory 42a, an optical medium 42b, a PC / server 42c, and the like can be used.

上記制御部39は、ステータス判別部38aにより判別された複数の周辺機器における各周辺機器のステータスの状態を監視し、そのステータスが変化したタイミングにおいて、変化したステータスを記録データ生成部33に送信し、記録データ生成部33がステータスの変化のタイミングにおける編集ポイントとメタ情報(第2のメタ情報)を付加した(統合)記録データを生成するように制御する。また、ハードディスク34は、記録データ生成部33により生成された(統合)記録データを記録する記録部34aの機能を有する。
記録データ生成部33は、画像信号入力部31から(画像解析部32を通って)入力された画像信号から当該画像信号の画像を記録するための記録データを生成し、この記録データには画像判別部37により判別された画像種別を含むメタ情報(第1のメタ情報)を付加し、画像種別が変化したタイミングで編集ポイントも付加する。更に、この記録データ生成部33は、制御部39から送信(入力)される複数の周辺機器におけるステータスの情報を含むメタ情報(第2のメタ情報)を、記録データに付加し、ステータスが変化したタイミングで編集ポイントも付加する。
The control unit 39 monitors the status status of each peripheral device in the plurality of peripheral devices determined by the status determination unit 38a, and transmits the changed status to the recording data generation unit 33 at the timing when the status changes. The recording data generation unit 33 controls to generate (integrated) recording data to which the editing point and the meta information (second meta information) at the status change timing are added. Further, the hard disk 34 has a function of a recording unit 34 a for recording (integrated) recording data generated by the recording data generating unit 33.
The recording data generation unit 33 generates recording data for recording an image of the image signal from the image signal input from the image signal input unit 31 (through the image analysis unit 32). Meta information (first meta information) including the image type determined by the determination unit 37 is added, and an edit point is also added at the timing when the image type changes. Further, the recording data generation unit 33 adds meta information (second meta information) including status information of a plurality of peripheral devices transmitted (input) from the control unit 39 to the recording data, and the status changes. Edit points are also added at the same timing.

本実施形態における画像記録装置10は、画像信号が入力される画像信号入力部31と、前記画像信号入力部31に入力された前記画像信号における画像の特徴量を抽出する画像解析部32と、入力される前記画像信号の前記画像に対して予め手術の進行状況に応じた画像種別毎に判別用特徴量と関連付けた複数の画像種別のデータベースを蓄積する画像種別データベース部と36と、前記画像解析部32により抽出された前記特徴量の画像に対して前記画像種別データベース部36における該当する画像種別を判別する画像判別部37と、前記画像判別部37の判別結果により判別された前記画像種別の変化に対応して、変化したタイミングの前記画像信号を特定するための編集ポイント及び前記画像信号に関連する第1のメタ情報を、前記画像信号に付加して記録するための記録データを生成する記録データ生成部33と、前記記録データ生成部33により生成された前記画像信号、前記編集ポイント及び前記第1のメタ情報を含む前記記録データを記録する記録部を備えるハードディスク34と、前記手術の際に利用される内視鏡の周辺装置としての複数の周辺機器の動作状態の情報が入力される情報入力部を構成する通信部38と、前記情報入力部に入力された情報から、該情報に該当する前記複数の周辺機器の各動作状態を判別する状態判別部を形成するステータス判別部38aと、前記状態判別部の判別結果の変化に対応した前記編集ポイント及び前記状態判別部の判別結果が変化したタイミングの前記複数の周辺機器に関連する第2のメタ情報を前記画像信号に付加して、前記記録部に記録するように制御する制御部39と、を備えることを特徴とする。   The image recording apparatus 10 according to the present embodiment includes an image signal input unit 31 to which an image signal is input, an image analysis unit 32 that extracts a feature amount of an image in the image signal input to the image signal input unit 31, An image type database unit 36 for storing a database of a plurality of image types associated with feature amounts for discrimination for each image type corresponding to the progress of surgery for the image of the input image signal; and the image An image discriminating unit 37 for discriminating a corresponding image type in the image type database unit 36 for the image of the feature amount extracted by the analyzing unit 32, and the image type discriminated by the discrimination result of the image discriminating unit 37. In response to the change in the image, the edit point for specifying the image signal at the changed timing and the first meta information related to the image signal A recording data generation unit 33 that generates recording data to be recorded in addition to an image signal, and the recording that includes the image signal, the editing point, and the first meta information generated by the recording data generation unit 33 A hard disk 34 having a recording unit for recording data, and a communication unit 38 constituting an information input unit to which information on operation states of a plurality of peripheral devices as peripheral devices for an endoscope used during the operation is input. A status determination unit 38a that forms a state determination unit for determining each operation state of the plurality of peripheral devices corresponding to the information from the information input to the information input unit, and a determination result of the state determination unit Second meta information related to the plurality of peripheral devices at the timing when the edit point corresponding to the change and the determination result of the state determination unit have changed is added to the image signal Te, characterized in that it comprises a control unit 39 for controlling so as to record in the recording unit.

次に本実施形態の動作を説明する。図6は手術を行う場合における本実施形態の画像記録装置10における代表的な動作に沿った処理を示す。
例えば図2に示すように内視鏡4と複数の周辺機器を設定した後、画像記録装置10の電源スイッチをONすることにより、画像記録装置10は動作状態になる。
図6におけるステップS1に示すように画像記録装置10の画像信号入力部31には、プロセッサ6からの画像信号が入力され、また、ステップS2に示すように画像記録装置10の通信部38には、複数の周辺機器のステータスの情報が入力される。
図7Aは手術を開始した後における手術の進行状況に応じて、画像種別が変化する例と、複数の周辺機器のステータスが変化する例と、編集ポイントが生成される様子を示す。また、図7Bは、図7Aの場合における複数の周辺機器のステータスの詳細を表形式で示す。なお、図7A等の具体例において示すように、画像種別及びステータスにおける一方のみが変化した場合においても第1のメタ情報と第2のメタ情報と付加して記録するようにしても良い。本実施形態においては、画像種別が変化した場合、又は複数の周辺機器におけるいずれかのステータスが変化した場合、共に画像種別に関する情報と複数の周辺機器の各ステータスの情報とを含むメタ情報を記録するようにしている(図7D参照)。
Next, the operation of this embodiment will be described. FIG. 6 shows processing according to a typical operation in the image recording apparatus 10 of the present embodiment when performing surgery.
For example, as shown in FIG. 2, after setting the endoscope 4 and a plurality of peripheral devices, the image recording apparatus 10 enters an operating state by turning on the power switch of the image recording apparatus 10.
The image signal from the processor 6 is input to the image signal input unit 31 of the image recording device 10 as shown in step S1 in FIG. 6, and the communication unit 38 of the image recording device 10 is input to the communication unit 38 as shown in step S2. The status information of a plurality of peripheral devices is input.
FIG. 7A shows an example in which the image type changes, an example in which the statuses of a plurality of peripheral devices change according to the progress of the operation after the operation is started, and a state in which edit points are generated. FIG. 7B shows details of statuses of a plurality of peripheral devices in the case of FIG. 7A in a table format. As shown in the specific example of FIG. 7A and the like, even when only one of the image type and the status changes, the first meta information and the second meta information may be added and recorded. In the present embodiment, when the image type changes, or when any status in a plurality of peripheral devices changes, meta information including information regarding the image type and information on each status of the plurality of peripheral devices is recorded. (See FIG. 7D).

図7Aに示すように手術開始の時間t0においては、複数の周辺機器のステータスとして、気腹装置8は送気OFF,電気メス装置7は、出力OFF、出力モードは切開モード(図7Aでは切開)、プロセッサ6は特殊光観察OFF(図7Aでは特殊光OFF)、モニタ9は構造強調OFFに設定されている。
手術を開始した状態においては、内視鏡4は、患者3の腹部内に、まだ挿入されない状態であり、画像記録装置10に入力される画像信号は、体腔外の画像信号となる。
この場合、画像記録装置10内の画像判別部37は、画像解析部32により抽出された特徴量が、画像種別データベース部36における判別用特徴量と比較して、体腔外のカテゴリに該当し、さらに黒画でもなく、カラーバーでもない、その他のサブカテゴリの画像であると判別する。画像判別部37による画像判別の詳細は図8において説明する。
術者等のスタッフは、タッチパネル40等から画像記録装置10(のハードディスク34等)に対して録画開始(記録開始)の指示操作を行う。
As shown in FIG. 7A, at the time t0 of the start of surgery, as the status of a plurality of peripheral devices, the insufflation apparatus 8 is turned off, the electrosurgical unit 7 is turned off, and the output mode is an incision mode (incision mode in FIG. 7A). ), Processor 6 is set to special light observation OFF (special light OFF in FIG. 7A), and monitor 9 is set to structure enhancement OFF.
In the state where the operation is started, the endoscope 4 is not yet inserted into the abdomen of the patient 3, and the image signal input to the image recording apparatus 10 is an image signal outside the body cavity.
In this case, the image discriminating unit 37 in the image recording device 10 corresponds to the category outside the body cavity in which the feature amount extracted by the image analyzing unit 32 is compared with the discriminating feature amount in the image type database unit 36, Further, it is determined that the image is not a black image or a color bar, and is an image of another subcategory. Details of the image discrimination by the image discrimination unit 37 will be described with reference to FIG.
A staff member such as a surgeon performs a recording start (recording start) instruction operation on the image recording apparatus 10 (such as the hard disk 34) from the touch panel 40 or the like.

録画開始の指示操作を受けて、制御部39は、画像信号入力部31から入力される画像信号の画像を記録データ生成部33等を経てハードディスク34に記録(録画)するように制御する。ステップS3に示すように画像記録装置10は、録画を開始する。
本実施形態においては、ステップS4に示すように録画が開始した時間を最初の編集ポイントP1に設定して、制御部39は、画像の記録データにメタ情報(P1)を関連付けてハードディスク34に記録するように制御する。なお、最初の編集ポイントP1の場合を含むi番目のメタ情報(Pi)は、編集ポイントPiの時点におけるメタ情報を表す。編集ポイントPi及びメタ情報(Pi)は、例えば図7Cに示す例では、(B3で示す)mdatに、画像の記録データにおける例えば録画開始からの時間情報に関連付けて記録される。
図7Aに示すように録画開始の時間t1においてプロセッサ6から画像記録装置10内に入力される画像信号の画像は、記録データ生成部33において(圧縮等されて)記録データに変換され、該記録データには録画開始の編集ポイントP1と、この編集ポイントP1におけるメタ情報(P1)としての画像種別の情報と、複数の周辺機器のステータスの情報と、本手術の患者情報とが付加(又は関連付け)されて記録される。
Upon receiving a recording start instruction operation, the control unit 39 controls to record (record) the image of the image signal input from the image signal input unit 31 on the hard disk 34 via the recording data generation unit 33 and the like. As shown in step S3, the image recording apparatus 10 starts recording.
In the present embodiment, as shown in step S4, the recording start time is set as the first editing point P1, and the control unit 39 records the image recording data in the hard disk 34 in association with the meta information (P1). Control to do. Note that the i-th meta information (Pi) including the case of the first edit point P1 represents meta information at the time of the edit point Pi. For example, in the example shown in FIG. 7C, the edit point Pi and the meta information (Pi) are recorded in mdat (indicated by B3) in association with, for example, time information from the start of recording in the image recording data.
As shown in FIG. 7A, the image of the image signal input from the processor 6 into the image recording apparatus 10 at the recording start time t1 is converted into recording data (compressed or the like) by the recording data generation unit 33, and the recording is performed. The editing point P1 at the start of recording, image type information as meta information (P1) at this editing point P1, status information of a plurality of peripheral devices, and patient information of the main surgery are added (or associated) to the data. ) And recorded.

本実施形態においては、少なくとも画像種別の情報を含むメタ情報を第1のメタ情報と言い、また少なくとも複数の周辺機器のステータスの情報を含むメタ情報を第2のメタ情報と言う。
図7Aに示す例では、記録データ(録画ファイル)には、編集ポイントP1において画像種別の情報として体腔外のカテゴリと、その他のサブカテゴリの情報が付加又は関連付けられ、更に複数の周辺機器のステータスの情報として、気腹装置8は送気OFF,電気メス装置7は、出力OFF、出力モードは切開モード、プロセッサ6は特殊光観察OFF、モニタ9は構造強調OFFの情報が、メタ情報(P1)として付加又は関連付けて、ハードディスク34に記録される。このメタ情報(P1)を図7Aではメタ(P1)と略記する。
図6のステップS5に示すように画像記録装置10の画像解析部32は、画像記録装置10に入力される画像信号の画像の特徴量を抽出し、ステップS6に示すように画像判別部37は抽出された画像の特徴量を画像種別データベース部36の判別用特徴量と比較する。比較結果により、ステップS7に示すように画像判別部37は抽出された画像の画像種別を判別する。
In the present embodiment, meta information including at least image type information is referred to as first meta information, and meta information including at least a plurality of peripheral device status information is referred to as second meta information.
In the example shown in FIG. 7A, the recording data (recording file) is added or associated with information on the category outside the body cavity and information on other subcategories as image type information at the editing point P1, and the statuses of a plurality of peripheral devices are added. As information, the insufflation apparatus 8 is air supply OFF, the electrosurgical apparatus 7 is output OFF, the output mode is incision mode, the processor 6 is special light observation OFF, and the monitor 9 is structure enhancement OFF information, meta information (P1). Is added to or associated with the hard disk 34. This meta information (P1) is abbreviated as meta (P1) in FIG. 7A.
As shown in step S5 of FIG. 6, the image analysis unit 32 of the image recording device 10 extracts the image feature amount of the image signal input to the image recording device 10, and as shown in step S6, the image determination unit 37 The feature amount of the extracted image is compared with the feature amount for discrimination in the image type database unit 36. Based on the comparison result, the image discriminating unit 37 discriminates the image type of the extracted image as shown in step S7.

次のステップS8において画像判別部37は、画像判別部37により判別した画像種別が変化したか否かを監視する。画像種別が変化した場合には、ステップS9に示すように画像種別が変化した時間において記録データに編集ポイントを付加し、第1のメタ情報を関連付ける。勿論、第1のメタ情報にステータスの情報を含めるようにしても良い。ハードディスク34は、記録データに編集ポイントと第1のメタ情報が付加された(統合)記録データを記録する。そして、次のステップS10の処理に移る。
一方、ステップS8において、画像種別が変化していない場合には、ステップS9の処理を行うことなく、ステップS10の処理に移る。
ステップS10において制御部39は、ステータス判別部38aにより判別された複数の周辺機器のステータスの情報を取得し、判別されたステータスが変化したか否かを判別する。ステータスが変化した場合には、次のステップS11において、記録データに編集ポイントを付加し、第2のメタ情報を関連付ける。勿論、第2のメタ情報に画像種別の情報を含めるようにしても良い。ハードディスク34は、記録データに編集ポイントと第2のメタ情報が付加された記録データを記録する。そして、次のステップS12の処理に移る。
In the next step S8, the image determination unit 37 monitors whether the image type determined by the image determination unit 37 has changed. When the image type changes, as shown in step S9, an edit point is added to the recording data at the time when the image type changes, and the first meta information is associated. Of course, status information may be included in the first meta information. The hard disk 34 records (integrated) recording data in which editing points and first meta information are added to the recording data. Then, the process proceeds to the next step S10.
On the other hand, if the image type has not changed in step S8, the process proceeds to step S10 without performing step S9.
In step S10, the control unit 39 acquires the status information of the plurality of peripheral devices determined by the status determination unit 38a, and determines whether or not the determined status has changed. If the status changes, in the next step S11, an edit point is added to the recording data and the second meta information is associated. Of course, image type information may be included in the second meta information. The hard disk 34 records the recording data in which the editing point and the second meta information are added to the recording data. Then, the process proceeds to the next step S12.

図7Aに示す例では、録画開始後において、例えば時間t2において気腹装置8は、送気OFFの状態からONの状態に変化する。そして、腹腔内が炭酸ガスの気体で気腹される。この時間t2において編集ポイントP2が生成され、この編集ポイントP2において第2のメタ情報(P2)が生成される。第2のメタ情報(P2)は、少なくとも複数の周辺機器のステータスの情報を含む。
ステップS11の処理の後、又はステップS10においてステータスが変化しない判定結果の場合にはステップS12において制御部39は、一定時間(例えば数秒)経過待ちの処理を行った後、次のステップS13において制御部39は、録画停止の操作が行われたか否かを判定する。録画停止の操作が行われていない場合には、ステップS5の処理に戻る。そして、ステップS8において画像種別の変化を判定し、ステップS10においてステータスの変化を判定し、変化した場合には編集ポイントとメタ情報を付加する処理を繰り返し行う。以下、図7Aを参照して、ステップS8,S10による処理の例を説明する。
In the example shown in FIG. 7A, after the start of recording, for example, at time t2, the pneumoperitoneum 8 changes from the air supply OFF state to the ON state. Then, the abdominal cavity is inhaled with carbon dioxide gas. At this time t2, an edit point P2 is generated, and second meta information (P2) is generated at the edit point P2. The second meta information (P2) includes status information of at least a plurality of peripheral devices.
After the process of step S11 or in the case of a determination result that the status does not change in step S10, the control unit 39 performs a process of waiting for the elapse of a fixed time (for example, several seconds) in step S12, and then performs control in the next step S13. The unit 39 determines whether or not a recording stop operation has been performed. If the recording stop operation has not been performed, the process returns to step S5. Then, a change in image type is determined in step S8, a change in status is determined in step S10, and if changed, the process of adding edit points and meta information is repeated. Hereinafter, an example of processing in steps S8 and S10 will be described with reference to FIG. 7A.

一方、録画停止の操作が行われると、ステップS14において、制御部39は記録データ生成部33により生成された記録データをハードディスク34に記録する動作を停止させ、図6の処理を終了する。
図7Aに示す例では、時間t2において送気して、腹腔内を気腹した後の例えば時間t3において、内視鏡4が体腔外から気腹された体腔(腹腔)内に挿入される。
すると、ステップS8において画像判別部37は、画像解析部32により抽出された特徴量から、抽出された特徴量の画像種別が体腔外から体腔内のカテゴリに変化したことを判別する。また、画像判別部37は、抽出された特徴量から体腔内のカテゴリにおけるいずれのサブカテゴリに属するかの判別も行う。内視鏡4を挿入した状態において、内視鏡4の視野内に処置具が入っていないと、画像判別部37は、抽出された特徴量の画像が図4におけるその他のサブカテゴリに属すると判別する。
この場合には、図7Aに示すように時間t3において、編集ポイントP3が生成され、この編集ポイントP3に画像種別の情報(体腔内のカテゴリ、その他のサブカテゴリ)を含む第1のメタ情報(P3)が生成される。ハードディスク34は、記録データに編集ポイントP3と第1のメタ情報(P3)が付加された(統合)記録データを記録する。
On the other hand, when the recording stop operation is performed, in step S14, the control unit 39 stops the operation of recording the recording data generated by the recording data generation unit 33 on the hard disk 34, and ends the process of FIG.
In the example shown in FIG. 7A, the endoscope 4 is inserted into the body cavity (abdominal cavity) that is inhaled from outside the body cavity, for example, at time t3 after the air is fed at time t2 and the stomach is inflated.
Then, in step S8, the image determination unit 37 determines from the feature amount extracted by the image analysis unit 32 that the image type of the extracted feature amount has changed from outside the body cavity to a category inside the body cavity. In addition, the image determination unit 37 also determines which subcategory belongs to the category in the body cavity from the extracted feature amount. When the endoscope 4 is inserted and there is no treatment tool in the field of view of the endoscope 4, the image determination unit 37 determines that the extracted feature amount image belongs to the other subcategory in FIG. 4. To do.
In this case, as shown in FIG. 7A, an edit point P3 is generated at time t3, and the first meta information (P3) including image type information (category in body cavity and other subcategories) is included in this edit point P3. ) Is generated. The hard disk 34 records (integrated) recording data in which the editing point P3 and the first meta information (P3) are added to the recording data.

また、図7Aにおいては、術者は時間t4において、モニタ9に対してモードM1の強度で構造強調を行う表示の操作を行っている。すると、図6におけるステップS10の処理を行う際に、ステータス判別部38aは、このステータスの変化を判別し、判別したステータスの情報を制御部39に送り、制御部39は、時間t4においてステータスが変化した判定に基づいて編集ポイントP4を生成し、また第2のメタ情報(P4)を付加するように制御する。
また、図7Aにおいて術者が電気メス17により、例えば病変部を切開する処置を行うために電気メス17を内視鏡4の視野内に入れると、例えば時間t5において画像判別部37は電気メス17を処置具として含む画像の特徴量が、その他のサブカテゴリから処置(画像)のサブカテゴリに変化したことを判別する。そして、画像判別部37は時間t5において編集ポイントP5を生成し、また第1のメタ情報(P5)を付加するように制御する。
また、術者が電気メス17により病変部を切開するために時間t6において出力ONの操作を行うと、ステータス判別部38aは、電気メス装置7から電気メス17への出力ONのステータスを判別して、制御部39に送り、制御部39は電気メス装置7の出力OFFからONへのステータス変化を判定し、編集ポイントP6と、第2のメタ情報(P6)を付加するように制御する。術者は、病変部を切開する処置を行った後、例えば時間t7において電気メス装置7から電気メス17への出力ONを出力OFFにする操作を行う。
Further, in FIG. 7A, the operator performs a display operation for enhancing the structure with the intensity of the mode M1 on the monitor 9 at time t4. Then, when performing the process of step S10 in FIG. 6, the status determination unit 38a determines the change in the status and sends information on the determined status to the control unit 39. The control unit 39 receives the status at time t4. The editing point P4 is generated based on the changed determination, and the second meta information (P4) is added.
Further, in FIG. 7A, when the operator places the electric scalpel 17 within the field of view of the endoscope 4 with the electric scalpel 17 in order to perform, for example, a treatment for incising the lesioned part, for example, at time t5, the image discriminating unit 37 It is determined that the feature amount of the image including 17 as a treatment tool has changed from the other subcategory to the treatment (image) subcategory. Then, the image discriminating unit 37 controls to generate the edit point P5 at time t5 and add the first meta information (P5).
When the surgeon performs an output ON operation at time t6 in order to incise the lesion with the electric scalpel 17, the status determination unit 38a determines the output ON status from the electric scalpel device 7 to the electric scalpel 17. The control unit 39 determines the status change from the output OFF of the electrosurgical knife device 7 to ON and controls to add the edit point P6 and the second meta information (P6). The surgeon performs an operation to turn off the output from the electric knife device 7 to the electric knife 17 at time t7, for example, after performing a treatment for incising the lesioned part.

すると、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力OFFへのステータスが変化したと判定をし、時間t7において編集ポイントP7を生成し、第2のメタ情報(P7)を付加するように制御する。
また、術者は、凝固が必要か否かを判断する。凝固の処置が必要と判断した場合には、例えば時間t8において電気メス装置7の出力モードを凝固モードに切り替える。
すると、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力モードが凝固モードのステータスに変化したと判定をし、時間t8において編集ポイントP8を生成し、第2のメタ情報(P8)を付加するように制御する。
また、術者は、粘膜の表層付近の血管の走行状態をより視認し易く、凝固の状態も確認し易い特殊光モードに切り替える操作を、例えば時間t9に行う。
すると、制御部39は、制御部39は、ステータス判別部38aによる判別結果からプロセッサ6の画像処理モードが特殊光観察モードのステータスに変化したと判定し、時間t9において編集ポイントP9を生成し、第2のメタ情報(P9)を付加するように制御する。
術者は、特殊光観察モードの状態で電気メス装置7から電気メス17への出力ONの操作を例えば時間t10において行うと、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力ONのステータスが変化したと判定し、時間t10において編集ポイントP10を生成し、第2のメタ情報(P10)を付加するように制御する。術者は、出血した部位を凝固する処置を行った後、例えば時間t11において電気メス装置7から電気メス17への出力ONを出力OFFにする操作を行う。
Then, the control unit 39 determines that the status of the electric knife device 7 from the determination result of the status determination unit 38a has changed to the output OFF, generates the edit point P7 at time t7, and generates the second meta information (P7 ) Is added.
The surgeon also determines whether coagulation is necessary. If it is determined that coagulation treatment is necessary, for example, the output mode of the electric knife device 7 is switched to the coagulation mode at time t8.
Then, the control unit 39 determines from the determination result by the status determination unit 38a that the output mode of the electric knife device 7 has changed to the coagulation mode status, generates an edit point P8 at time t8, and generates the second meta information. Control to add (P8).
Further, the operator performs an operation of switching to a special light mode in which, for example, the traveling state of the blood vessels near the surface layer of the mucous membrane is more easily recognized and the coagulation state is easily confirmed, for example, at time t9.
Then, the control unit 39 determines that the image processing mode of the processor 6 has changed to the special light observation mode status from the determination result by the status determination unit 38a, generates the edit point P9 at time t9, Control is performed to add the second meta information (P9).
When the surgeon performs an operation to turn ON the output from the electric knife device 7 to the electric knife 17 in the special light observation mode, for example, at time t10, the control unit 39 determines the electric knife device 7 from the determination result by the status determination unit 38a. It is determined that the output ON status has changed, and at time t10, an edit point P10 is generated and control is performed to add the second meta information (P10). After performing the treatment for coagulating the bleeding site, the surgeon performs an operation to turn off the output from the electric knife device 7 to the electric knife 17 at time t11, for example.

すると、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力OFFへのステータスが変化したと判定し、時間t11において編集ポイントP11を生成し、第2のメタ情報(P11)を付加するように制御する。
また、術者は凝固の処置を行った部位を特殊光観察モードで確認した後は、特殊光観察モードをOFF、つまり通常光観察モードの状態に切り替える操作を、例えば時間t12に行う。また、図7Aにおいては、構造強調もOFFにしている。
すると、制御部39は、ステータス判別部38aによる判別結果から特殊光観察モードがOFFと、構造強調がOFFとのステータスが変化したと判定し、時間t12において編集ポイントP12を生成し、また第2のメタ情報(P12)を付加するように制御する。
また、術者は、気腹装置8による送気をOFFにする操作を例えば時間t13に行う。すると、制御部39は、ステータス判別部38aによる判別結果から送気OFFのステータスが変化したことと判定し、時間t13において編集ポイントP13を生成し、第2のメタ情報(P13)を付加するように制御する。
Then, the control unit 39 determines that the status of the electric knife device 7 to the output OFF has changed from the determination result by the status determination unit 38a, generates the edit point P11 at time t11, and generates the second meta information (P11). Control to add.
Further, after confirming the site where the coagulation treatment has been performed in the special light observation mode, the surgeon performs an operation of switching the special light observation mode to OFF, that is, switching to the normal light observation mode, for example, at time t12. In FIG. 7A, structure enhancement is also turned off.
Then, the control unit 39 determines from the determination result by the status determination unit 38a that the status of the special light observation mode is OFF and the structure enhancement is OFF, generates the edit point P12 at time t12, and the second The meta information (P12) is controlled to be added.
Further, the surgeon performs an operation for turning off the air supply by the pneumoperitoneum device 8 at, for example, time t13. Then, the control unit 39 determines that the status of air supply OFF has changed from the determination result by the status determination unit 38a, generates the edit point P13 at time t13, and adds the second meta information (P13). To control.

術者は、その後、内視鏡4を体腔内から体腔外に引き抜く操作を例えば時間t14に行う。すると、画像判別部37は、抽出された特徴量から体腔外のカテゴリであり、体腔外におけるその他のサブカテゴリに該当すると判別する。
この場合には、時間t14において、編集ポイントP14が生成され、この編集ポイントP14に画像種別の情報(体腔内のカテゴリ、その他のカテゴリ)を含む第1のメタ情報(P14)が生成される。その後、例えば時間t15において録画停止の操作が行われると、録画が停止する。なお、録画停止の時間t15においても編集ポイントP15とメタ情報(P15)(第1のメタ情報及び第2のメタ情報)(P15)を付加して記録するようにしても良いし、付加しないようにしても良い。図7Aでは編集ポイントP15とメタ情報(P15)を付加しない例で示している。録画停止の時間t15の後の例えば時間t16において手術が終了する。
図7Bは、図7Aにおけるステータス変化の詳細を表形式で示す。図7Bは、複数の周辺機器においてステータスが変化したステータスを斜線で示している。
Thereafter, the operator performs an operation of pulling out the endoscope 4 from the body cavity to the outside of the body cavity, for example, at time t14. Then, the image discriminating unit 37 discriminates that it is a category outside the body cavity based on the extracted feature quantity and falls into other subcategories outside the body cavity.
In this case, an edit point P14 is generated at time t14, and first meta information (P14) including image type information (category in the body cavity and other categories) is generated at the edit point P14. Thereafter, for example, when a recording stop operation is performed at time t15, the recording is stopped. Even at the recording stop time t15, the editing point P15 and the meta information (P15) (first meta information and second meta information) (P15) may be added and recorded. Anyway. FIG. 7A shows an example in which edit point P15 and meta information (P15) are not added. For example, at the time t16 after the recording stop time t15, the operation ends.
FIG. 7B shows details of status changes in FIG. 7A in tabular form. FIG. 7B shows the statuses whose status has changed in a plurality of peripheral devices by hatching.

また、図7Cは、ハードディスク34に記録される(統合)記録データのフォーマット例を示す。
図7Cに示す例では、(統合)記録データは、動画、音声データ等を扱うのに適した、例えばMP4ファイルフォーマットを採用し、このMP4ファイルフォーマットは、図示のように3つのボックスと呼ばれるデータブロックで構成される。B1で示すftypは先頭に配置され、ファイルの種別を示すボックス、B2で示すmoovは、各種のメタデータを格納するボックス、B3で示すmdatは動画や音声のデータを格納したボックスである。本実施形態においては、B3で示すmdatに画像の記録データを格納し、B2で示すmoovに、編集ポイントP1,P2,…と、メタ情報(P1),メタ情報(P2),…を含むテキストファイルを格納している。
図7Dは、メタ情報(P1),メタ情報(P2),メタ情報(P3)の具体例を示す。メタ情報(P1)は、編集ポイントP1を示す記号又はデータP1(簡略化して編集ポイントP1と同じ符号で示すが異なる符号でも良い)と、このMP4ファイルとして記録される手術の患者情報のデータとしてDate、Patient ID,Patient name,BOD,Age,Sexを含み、また1つ目の手術のタイトル1の項目と、最初の編集ポイントP1の録画開始時間00:00:00のデータを含み、更に画像種別のカテゴリ、カテゴリ、複数の周辺機器のステータス情報を含む。
FIG. 7C shows a format example of (integrated) recording data recorded on the hard disk 34.
In the example shown in FIG. 7C, the (integrated) recording data adopts, for example, an MP4 file format suitable for handling moving images, audio data, etc., and this MP4 file format is data called three boxes as shown. Consists of blocks. “Ftyp” indicated by B1 is arranged at the head, a box indicating the file type, “moov” indicated by B2 is a box for storing various metadata, and “mdat” indicated by B3 is a box for storing video and audio data. In the present embodiment, image recording data is stored in mdat indicated by B3, and text including edit points P1, P2,..., Meta information (P1), meta information (P2),. The file is stored.
FIG. 7D shows specific examples of meta information (P1), meta information (P2), and meta information (P3). The meta information (P1) is a symbol or data P1 indicating the editing point P1 (simply shown by the same code as the editing point P1 but may be a different code) and data of surgical patient information recorded as this MP4 file. Date, Patient ID, Patient name, BOD, Age, Sex, including the title 1 item of the first operation and data of the recording start time 00:00:00 of the first editing point P1, and an image Includes category of category, category, and status information of multiple peripheral devices.

メタ情報(P2)は、気腹装置8のステータスが変化した場合に該当するもので、編集ポイントP2を示す記号又はデータP2と、編集ポイントP2に対応する動画の記録時間と、編集ポイントP2における画像種別のカテゴリ、カテゴリ、複数の周辺機器のステータス情報を含む。
メタ情報(P3)は、カテゴリが変化した場合に該当するもので、メタ情報(P3)における編集ポイントP3示す記号又はデータP3と、編集ポイントP3に対応した動画の記録時間と、編集ポイントP3における画像種別のカテゴリ、カテゴリ、複数の周辺機器のステータス情報を含む。
メタ情報(P4)等も同様のフォーマットのデータとなる。図7Dに示す例では、複数の周辺機器におけるステータスが変化した場合においても、画像種別が変化した場合においても、編集ポイントと共に、複数の周辺機器におけるステータス(動作状態)と、画像種別に関するメタ情報を生成している。
The meta information (P2) corresponds to the case where the status of the pneumoperitoneum 8 changes, and the symbol or data P2 indicating the editing point P2, the recording time of the moving image corresponding to the editing point P2, and the editing point P2. Includes image type category, category, and status information of multiple peripheral devices.
The meta information (P3) corresponds to the case where the category changes, and the symbol or data P3 indicating the edit point P3 in the meta information (P3), the recording time of the moving image corresponding to the edit point P3, and the edit point P3. Includes image type category, category, and status information of multiple peripheral devices.
The meta information (P4) or the like is data in the same format. In the example shown in FIG. 7D, the status (operating state) of the plurality of peripheral devices and the meta information regarding the image type are displayed together with the editing point regardless of whether the statuses of the plurality of peripheral devices change or the image type changes. Is generated.

このようにして、ハードディスク34には、記録データを構成する動画ファイルを含むMP4等のファイルが記録されると共に、当該ファイルは画像の特徴量により分類された画像種別の情報と、手術の進行状況に応じて変化する複数の周辺機器のステータスの情報とを、少なくとも画像種別が変化する時間の編集ポイントと、ステータスが変化する時間の編集ポイントとに対応付けて記録している。実際には、ハードディスク34には、各編集ポイントに、画像の特徴量により分類された画像種別の情報と、複数の周辺機器のステータスの情報とを付加して記録するようにしている。
従って、ハードディスク34に記録された記録データに対して、抽出又は編集したいシーンの情報を例えばパッチパネル40から入力することにより、抽出又は編集したいシーンに該当する動画部分を簡単かつ短時間に抽出することができる。
抽出又は編集したいシーンを簡単に抽出する場合の動作に関しては、図12A〜図12Dを用いて後述する。
なお、図6に示す処理においては、処理手順としてステップS8において画像種別が変化したか否かの判定を行い、その後におけるステップS10においてステータスが変化したか否かの判定を行うようにしているが、ステータスが変化したか否かの判定を行った後に、画像種別が変化したか否かの判定を行うようにしても良い。
In this way, files such as MP4 including moving image files constituting recording data are recorded on the hard disk 34, and the files include information on image types classified by image feature amounts, and progress of surgery. The information on the statuses of a plurality of peripheral devices that change in accordance with is recorded in association with at least an editing point at a time when the image type changes and an editing point at a time when the status changes. Actually, on the hard disk 34, information on the image type classified by the feature amount of the image and information on the status of a plurality of peripheral devices are added to each editing point and recorded.
Accordingly, by inputting the information of the scene to be extracted or edited from the recording data recorded on the hard disk 34, for example, from the patch panel 40, the moving image portion corresponding to the scene to be extracted or edited can be extracted easily and in a short time. be able to.
The operation when the scene to be extracted or edited is simply extracted will be described later with reference to FIGS. 12A to 12D.
In the processing shown in FIG. 6, as a processing procedure, it is determined whether or not the image type has changed in step S8, and then it is determined whether or not the status has changed in step S10. After determining whether or not the status has changed, it may be determined whether or not the image type has changed.

また、図8は図6におけるステップS7の処理の詳細を示す。
図8に示すように画像種別の判別処理が開始すると、最初のステップS21において画像判別部37は、画像解析部32により抽出された特徴量を、体腔内と体腔外とを判別する判別用特徴量と比較する。具体的には、図5において説明したように画像判別部37は、画像解析部32のヒストグラム解析回路32aにより抽出されたR,G,Bの画像の平均値間のずれ量が閾値(20)以上であるか否かの判定を行う。又は、画像判別部37は、R,G,Bの画像の平均値間のずれ量が、Rの平均値の1/10の値を閾値とした値以上であるか否かの判定を行う。又は、画像判別部37は、Rの画像の平均値がG,Bの画像の平均値と比較して、Rの平均値の1/10の値の閾値以上大きいか否かを判定する。
この判定結果に該当する場合には、ステップS22に示すように画像判別部37は、画像解析部32により抽出された特徴量の画像が体腔内のカテゴリの画像であると判別する。
FIG. 8 shows details of the processing in step S7 in FIG.
When the image type determination process starts as shown in FIG. 8, in the first step S <b> 21, the image determination unit 37 determines the feature amount extracted by the image analysis unit 32 from the body cavity and the outside of the body cavity. Compare with quantity. Specifically, as described with reference to FIG. 5, the image discriminating unit 37 has a threshold (20) as a deviation amount between the average values of the R, G, and B images extracted by the histogram analysis circuit 32a of the image analyzing unit 32. It is determined whether or not the above is true. Alternatively, the image determination unit 37 determines whether or not the amount of deviation between the average values of the R, G, and B images is equal to or greater than a value that is 1/10 of the average value of R as a threshold value. Alternatively, the image discriminating unit 37 determines whether or not the average value of the R image is larger than the threshold value of 1/10 of the average value of R as compared with the average value of the G and B images.
When the determination result is satisfied, as shown in step S22, the image determination unit 37 determines that the feature amount image extracted by the image analysis unit 32 is an image of a category in the body cavity.

一方、上記判定結果が、閾値以上でなく、閾値未満となる場合には、ステップS23に示すように画像判別部37は、画像解析部32により抽出された特徴量の画像が体腔外のカテゴリの画像であると判別する。
体腔外のカテゴリの画像であると判別された場合には、次のステップS24において画像判別部37は、画像解析部32により抽出された特徴量の画像の画像信号が無信号レベルであるか否かを判定する。画像判別部37は、当該画像信号が無信号レベルを判別するための0レベルより僅かに大きい閾値レベル以下か否かを判定する。そして、当該画像信号が閾値レベル以下の場合にはステップS25において画像判別部37は当該画像を黒画(像)のサブカテゴリであると判定し、図8の処理を終了する。
閾値レベル以下でない判定結果の場合には、ステップS26において画像判別部37は、当該画像の色分布の値が少なくとも数フレーム以上の期間において一定で変化しないか否か、又はR,G,G平均値のずれ量が3/100以下で、少なくとも数フレーム以上の期間において一定で変化しないか否かを判定する。
On the other hand, when the determination result is not equal to or greater than the threshold value but less than the threshold value, the image determination unit 37 determines that the feature amount image extracted by the image analysis unit 32 is in a category outside the body cavity, as shown in step S23. It is determined that it is an image.
If it is determined that the image is a category outside the body cavity, in the next step S24, the image determination unit 37 determines whether the image signal of the feature amount image extracted by the image analysis unit 32 is at a no-signal level. Determine whether. The image determination unit 37 determines whether or not the image signal is equal to or lower than a threshold level that is slightly larger than the 0 level for determining the no-signal level. If the image signal is equal to or lower than the threshold level, in step S25, the image determination unit 37 determines that the image is a subcategory of a black image (image), and ends the process of FIG.
In the case of a determination result that is not below the threshold level, in step S26, the image determination unit 37 determines whether or not the color distribution value of the image remains constant for at least several frames or more, or the R, G, G average It is determined whether or not the value shift amount is 3/100 or less and is constant or not changed in a period of at least several frames.

この判定結果に該当する場合にはステップS27において画像判別部37は、当該画像がカラーバーのサブカテゴリであると判定し、図8の処理を終了する。また、この判定結果に該当しない場合にはステップS28において画像判別部37は、当該画像がその他のサブカテゴリであると判定し、図8の処理を終了する。
上記ステップS22において体腔内のカテゴリと判別された場合には、ステップS29において画像判別部37は、画像解析部32のエッジ抽出回路32bにより抽出されたエッジが当該画像(当該画像全体)を左右又は上下に等分割するエッジ部分を含むか否かを判定する。
図9の(A)と(B)は、3D画像の場合のパターンを示し、3D画像は、左目画像となる第1の画像I1と右目画像となる第2の画像I2とは(A)のように左右、又は上下に隣接して画面(画像)全体を2等分するように同じサイズで表示される。
If the determination result is satisfied, the image determination unit 37 determines in step S27 that the image is a subcategory of the color bar, and ends the process of FIG. If the determination result does not correspond to this, the image determination unit 37 determines in step S28 that the image is in another subcategory, and ends the process of FIG.
If it is determined in step S22 that the category is a body cavity category, in step S29, the image determination unit 37 determines that the edge extracted by the edge extraction circuit 32b of the image analysis unit 32 causes the image (the entire image) to be left or right. It is determined whether or not an edge portion that is equally divided vertically is included.
FIGS. 9A and 9B show patterns in the case of a 3D image. The 3D image includes a first image I1 that is a left-eye image and a second image I2 that is a right-eye image. In this way, the entire screen (image) is displayed in the same size so as to be divided into two equal parts on the left and right or top and bottom.

そのために図9の画像においてエッジを抽出した場合、左右方向又は上下方向に等分割する第1の画像I1と第2の画像I2の境界線部分がエッジとして抽出される規則邸なパターンとなる。
従って、ステップS29において抽出されたエッジが当該画像全体を左右又は上下に等分割するエッジを含む規則的なパターンを含む判定結果の場合には、次のステップS30において画像判別部37は、当該画像が3D(画像)のサブカテゴリに該当すると判定する。一方、等分割するエッジを含まない判定結果の場合には、ステップS31において画像判別部37は、当該画像が2D(画像)のサブカテゴリに該当すると判定する。
ステップS30又はS31の処理後のステップS32において画像判別部37は、当該画像が直線的なエッジを含むか否かを判定する。直線的なエッジを含む片低結果の場合には、更に次のステップS33において画像判別部37は、規則的な一定パターンのエッジを含むか否かを判定する。この場合の規則的な一定パターンは、図10又は図11に示すように水平方向及び/又は垂直方向に延びる枠状のパターンを有するエッジ含むか否かを判定する。
For this reason, when an edge is extracted from the image of FIG. 9, the border line portion between the first image I1 and the second image I2 that are equally divided in the horizontal direction or the vertical direction is a regular pattern that is extracted as an edge.
Therefore, in the case where the edge extracted in step S29 is a determination result including a regular pattern including an edge that equally divides the entire image left and right or up and down, in the next step S30, the image determination unit 37 Is determined to fall under the 3D (image) subcategory. On the other hand, in the case of a determination result that does not include an equally divided edge, in step S31, the image determination unit 37 determines that the image falls under the 2D (image) subcategory.
In step S32 after the process of step S30 or S31, the image determination unit 37 determines whether or not the image includes a straight edge. In the case of a one-low result including a straight edge, in the next step S33, the image determination unit 37 determines whether or not an edge of a regular constant pattern is included. In this case, it is determined whether the regular constant pattern includes an edge having a frame-like pattern extending in the horizontal direction and / or the vertical direction as shown in FIG.

図10の(A)〜(D)は、合成画像を構成するPIPの場合の画像を示し、親画面となる第1の画像I1と第1の画像I1より小さい子画面となる第2の画像I2とからなり、第2の画像I2は、右下、右上、左上、左下の各隅において、例えば第1の画像I1における水平方向及び垂直方向の長さの1/2程度(1/2の値に限定されるものでない)に設定される。
図10の画像においてエッジを抽出した場合、画像における4隅のうちの1つの隅において第2の画像I2の水平方向及び垂直方向に延びる境界線部分がエッジとして抽出される。
また、図11の(A)〜(C)は、合成画像を構成するPOPの場合の画像を示し、1画面分の画像I(斜線で示す)は、第1の画像I1と第2の画像I2を内部に含み、第1の画像I1と第2の画像I2とは、水平方向(左右方向)に隣接して同じサイズ(A)、又は異なるサイズ(B)又は(C)で表示される。
(A) to (D) in FIG. 10 show images in the case of PIP that constitutes a composite image, and a first image I1 that is a parent screen and a second image that is a child screen smaller than the first image I1. The second image I2 includes, for example, about 1/2 of the length in the horizontal direction and the vertical direction in the first image I1 at the lower right, upper right, upper left, and lower left corners. Is not limited to a value).
When an edge is extracted from the image of FIG. 10, a boundary line portion extending in the horizontal direction and the vertical direction of the second image I2 is extracted as an edge at one of the four corners of the image.
11A to 11C show images in the case of a POP constituting a composite image, and an image I for one screen (shown by hatching) is a first image I1 and a second image. The first image I1 and the second image I2 are displayed in the same size (A) or different sizes (B) or (C) adjacent to each other in the horizontal direction (left-right direction). .

図11の画像においてエッジを抽出した場合、左右方向に隣接する第1の画像I1と第2の画像I2の境界線部分がエッジとして抽出される。
図10と図11とは明らかに境界部分のパターンが異なる。図10及び図11の境界部分のパターンの情報は、判別用特徴量(のエッジパターン)として判別用特徴量格納部36aに格納されており、画像判別部37は、抽出されたエッジを判別用特徴量格納部36aに格納された判別用特徴量(のエッジパターン)と比較してPIP又はPOP等の判別を行う。
ステップS33において規則的なパターンを有する判定結果の場合には、次のステップS34において画像判別部37は、規則的なパターンが4隅の1つを形成するものであるか否かを判定する。規則的なパターンが4隅の1つを形成する判定結果の場合には、ステップS35において画像判別部37は、規則的なパターンを有する当該画像がPIPのサブカテゴリに該当すると判定する。
When an edge is extracted from the image of FIG. 11, the boundary line portion between the first image I1 and the second image I2 adjacent in the left-right direction is extracted as an edge.
FIG. 10 and FIG. 11 clearly differ in the boundary pattern. 10 and 11 is stored in the discrimination feature quantity storage unit 36a as a discrimination feature quantity (edge pattern), and the image discrimination unit 37 discriminates the extracted edge. PIP or POP or the like is discriminated in comparison with the discrimination feature quantity (the edge pattern) stored in the feature quantity storage unit 36a.
In the case of the determination result having a regular pattern in step S33, in the next step S34, the image determination unit 37 determines whether or not the regular pattern forms one of the four corners. If the regular pattern is a determination result that forms one of the four corners, in step S35, the image determination unit 37 determines that the image having the regular pattern falls under the PIP subcategory.

一方、規則的なパターンが4隅の1つを形成しない判定結果の場合には、ステップS36において画像判別部37は、規則的なパターンを有する当該画像がPOPのサブカテゴリに該当すると判定する。
また、ステップS33において規則的なパターンでない判定結果の場合には、ステップS37において画像判別部37は、直線的なエッジパターンを有する画像が処置具を含む処置画像のサブカテゴリに該当すると判定する。
また、ステップS32において直線的なエッジを有しない判定結果の場合及び有する場合において、ステップS38に示すように画像判別部37は、当該画像が糸状のエッジを含む画像であるか否かの判定を行う。糸状のエッジを含む画像であると判定した場合には、ステップS39において画像判別部37は、当該画像が吻合(画像)のサブカテゴリに該当すると判別する。
On the other hand, if the determination result indicates that the regular pattern does not form one of the four corners, the image determination unit 37 determines in step S36 that the image having the regular pattern falls under the POP subcategory.
If the determination result is not a regular pattern in step S33, the image determination unit 37 determines in step S37 that the image having the linear edge pattern falls under the sub-category of the treatment image including the treatment tool.
In addition, in the case where the determination result does not have a linear edge in step S32 and in the case where the determination result has it, the image determination unit 37 determines whether the image is an image including a thread-like edge as shown in step S38. Do. If it is determined that the image includes a thread-like edge, in step S39, the image determination unit 37 determines that the image falls under an anastomosis (image) subcategory.

なお、ステップS38の処理の処理により当該画像が吻合(画像)であるか否かの判別を行う場合、吻合糸の吻合するための動きの特徴的なパターンを予め判別用特徴量として登録しておき、複数のフレームの画像における糸状のエッジが登録された判別用特徴量に該当するか否かにより当該画像が吻合(画像)であるか否かを判別するようにしても良い。また、吻合を行う際の処置具の先端の特徴的なパターンを予め判別用特徴量として登録しておき、複数のフレームの画像における処置具の先端の動きが登録された判別用特徴量に該当するか否かにより当該画像が吻合(画像)であるか否かを判別するようにしても良い。
一方、ステップS38の処理において糸状のエッジを含まない画像の判別結果の場合にはステップS40において画像判別部37は、当該画像がその他(画像)のサブカテゴリに該当すると判別する。
When it is determined whether or not the image is an anastomosis (image) by the process of step S38, a characteristic pattern of movement for anastomosis of the anastomosis thread is registered in advance as a determination feature amount. Alternatively, whether or not the image is an anastomosis (image) may be determined based on whether or not the thread-like edge in the images of a plurality of frames corresponds to the registered determination feature amount. Also, a characteristic pattern at the tip of the treatment tool when performing anastomosis is registered in advance as a feature value for discrimination, and the motion of the tip of the treatment tool in a plurality of frames of images corresponds to the registered feature amount Whether or not the image is an anastomosis (image) may be determined depending on whether or not to do so.
On the other hand, in the case of the determination result of the image that does not include the thread-like edge in the process of step S38, the image determination unit 37 determines in step S40 that the image corresponds to the other (image) subcategory.

上述した処置具、吻合糸の判別方法に限らず、例えばSIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Feature)といった一般に知られる局所特徴量の抽出・認識技術等を用い、過去の症例画像から(手術用鉗子を含む)処置具、吻合糸等のデバイスがある画像を学習データとして、予め画像種別データベース部36に判別用データベースを構築しておくようにしても良い。
そして、入力される判別対象となる画像から局所特徴量を抽出し、判別用データベースを用いた学習データとの比較を行うことで、処置具、吻合糸等のデバイスを判別するようにしても良い。また、上述したように判別の精度を向上するために、複数のフレームの画像に対する判別処理を行うようにしても良いし、画像種別を判別する場合に複数の周辺機器のステータスの情報を参照するようにしても良い。
ステップS35,S36,S37,S39、S40の処理の後、図8の処理を終了する。
Not only the above-mentioned treatment tools and anastomosis thread discrimination methods, but also past cases using commonly known local feature extraction / recognition techniques such as SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Feature) A discrimination database may be constructed in advance in the image type database unit 36 using an image with a device such as a treatment instrument (including surgical forceps) and anastomosis thread as learning data.
Then, a local feature amount is extracted from the input image to be discriminated, and a device such as a treatment instrument or anastomosis thread may be discriminated by comparing it with learning data using a discrimination database. . Further, as described above, in order to improve the accuracy of discrimination, discrimination processing may be performed on images of a plurality of frames, or status information of a plurality of peripheral devices is referred to when discriminating image types. You may do it.
After the processes of steps S35, S36, S37, S39, and S40, the process of FIG.

次に術者等のユーザが、ハードディスク34に記録された記録データから所望とするシーンの画像部分を抽出(又は検索)する場合の動作を図12A〜図12Dを用いて説明する。抽出する前のメニュー画面を図12Aに示す。このメニュー画面は、例えばタッチパネル40の操作/表示部40aに表示される。このメニュー画面においては、抽出前又は抽出後の画像の一覧を表示する画像一覧表示エリアA1には、録画を開始した時の画像の例えばサムネイル画像が表示され、その横に配置されたシーン抽出項目指定エリアA2にはシーン抽出を行う場合の項目を指定する複数のシーン抽出項目、具体的には画像種別を表すカテゴリ、サブカテゴリの項目と、周辺機器ステータスの項目とが表示される。図12Aにおける画像一覧表示エリアA1での表示例においては、P1からP14までの編集ポイントからなる14個の画像であることを模式的に示す。なお、図12A〜図12Dでは、編集ポイントPiを四角の枠で囲んで、その編集ポイントPiの画像であることを模式的に示している。
また、図12A〜図12Dにおいては、1つの周辺機器ステータスの項目のみを表示しているが、複数の周辺機器ステータスの項目を表示して、複数の周辺機器における任意の1つ又は複数のステータスの項目を指定できるようにしても良い。
Next, an operation when a user such as an operator extracts (or searches) an image portion of a desired scene from recorded data recorded on the hard disk 34 will be described with reference to FIGS. 12A to 12D. A menu screen before extraction is shown in FIG. 12A. This menu screen is displayed on the operation / display unit 40a of the touch panel 40, for example. In this menu screen, in the image list display area A1 for displaying a list of images before or after extraction, for example, thumbnail images of images when recording is started are displayed, and scene extraction items arranged next to the thumbnail images are displayed. In the designation area A2, a plurality of scene extraction items that specify items for scene extraction, specifically, a category representing an image type, a subcategory item, and a peripheral device status item are displayed. The display example in the image list display area A1 in FIG. 12A schematically shows that there are 14 images composed of edit points from P1 to P14. In FIG. 12A to FIG. 12D, the edit point Pi is surrounded by a square frame to schematically show that the image is the edit point Pi.
12A to 12D, only one peripheral device status item is displayed, but a plurality of peripheral device status items are displayed, and any one or more statuses in the plurality of peripheral devices are displayed. You may be allowed to specify the item.

図12Aのメニュー表示の初期状態においては、複数のシーン抽出項目は、いずれも指定無しの状態であり、ユーザは、例えばカテゴリの項目に対して、シーン抽出の指定を行うために、各項目内の例えば右側に配置された選択ボタンを操作する。選択ボタンの操作に対して、制御部39は、矢印で示すようにカテゴリにおいて指定可能な全指定項目を選択表示エリア(図12Aでは選択表示と略記)A3に表示する。
ユーザが例えば、体腔内の項目を指定すると、制御部39(のメタ情報検索部39a)は、体腔内の項目に該当する画像を、ハードディスク34に記録された記録データにおけるメタ情報から検索し、図12Bに示すように画像一覧表示エリアA1に検索に該当する編集ポイントの時間の画像のサムネイル画像を表示するように制御する。図7Aの例に適用した場合には、編集ポイントP3〜P13(のタイミング又は時間)の13個のサムネイル画像が表示される。なお、数が多い場合には一部を重ねる等して表示しても良い。
In the initial state of the menu display of FIG. 12A, all of the plurality of scene extraction items are in an unspecified state. For example, in order to specify scene extraction for a category item, For example, the selection button arranged on the right side is operated. In response to the operation of the selection button, the control unit 39 displays all designated items that can be designated in the category as indicated by arrows in a selection display area (abbreviated as selection display in FIG. 12A) A3.
For example, when the user designates an item in the body cavity, the control unit 39 (the meta information search unit 39a) retrieves an image corresponding to the item in the body cavity from the meta information in the recording data recorded in the hard disk 34, As shown in FIG. 12B, control is performed so that thumbnail images of images at the edit point time corresponding to the search are displayed in the image list display area A1. When applied to the example of FIG. 7A, 13 thumbnail images at edit points P3 to P13 (timing or time) are displayed. In addition, when there are many numbers, you may display by overlapping a part.

さらに、図12Bの状態において、ユーザがサブカテゴリの項目として処置を指定すると、制御部39は、カテゴリが体腔内で、更にサブカテゴリが処置に該当する画像を記録データにおけるメタ情報から検索し、図12Cに示すように画像一覧表示エリアA1に検索に該当する編集ポイントの時間の画像のサムネイル画像を表示する。
図7Aの例に適用した場合には、編集ポイントP5〜P13のサムネイル画像が表示される。図12Cの状態において、機器ステータスとして電気メス装置ONの指定を行うと、制御部39は、カテゴリが体腔内で、サブカテゴリが処置、電気メス装置ONの機器ステータスに該当する画像を記録データにおけるメタ情報から検索し、図12Dに示すように画像一覧表示エリアA1に検索に該当する編集ポイント(の時間)の画像のサムネイル画像を表示する。図7Aの例に適用した場合には、編集ポイントP6、P10のサムネイル画像が表示される。
図12A〜図12Dで説明した場合に限らず、例えば、体腔内における電気メス17により処置を行っているシーンを抽出しようとする場合には、電気メス装置7の出力ONのステータスの情報を入力することにより、編集ポイントP6、P10の動画ファイルを簡単に抽出することができる。更に、切開モードや凝固モードの情報を追加することにより、その一方の動画ファイルを抽出することもできる。
Further, in the state of FIG. 12B, when the user designates a treatment as a subcategory item, the control unit 39 searches the meta information in the recording data for an image in which the category is the body cavity and the subcategory corresponds to the treatment, and FIG. As shown in FIG. 6, thumbnail images of images at the edit point corresponding to the search are displayed in the image list display area A1.
When applied to the example of FIG. 7A, thumbnail images of edit points P5 to P13 are displayed. In the state of FIG. 12C, when the electric knife device ON is designated as the device status, the control unit 39 displays an image corresponding to the device status in which the category is the body cavity, the subcategory is treatment, and the electric knife device is ON. A search is performed from the information, and as shown in FIG. 12D, thumbnail images of images at the edit point (time) corresponding to the search are displayed in the image list display area A1. When applied to the example of FIG. 7A, thumbnail images of edit points P6 and P10 are displayed.
12A to 12D, for example, when extracting a scene in which treatment is performed by the electric knife 17 in the body cavity, information on the status of output ON of the electric knife device 7 is input. By doing so, the moving image files of the edit points P6 and P10 can be easily extracted. Furthermore, by adding information on the incision mode and coagulation mode, one of the moving image files can be extracted.

また、図7Aにおいては、電気メス17を用いて処置を行った例を示しているが、吻合糸を用いた吻合のサブカテゴリの場合や、PIP/POPの合成画像のサブカテゴリの場合も分類できるので、各種の手術を行った場合にも抽出又は編集したいシーンに該当する動画部分を簡単かつ短時間に抽出することができる。
このように動作する本実施形態によれば、所望とするシーンの画像を簡単に抽出することができる。より具体的には、ユーザが抽出(又は検索又は編集)しようと望むシーンに該当する画像種別や、当該シーンにおける複数の周辺機器のステータス(動作状態)の情報を指定することにより、指定された条件に合致する画像部分(の開始画像)を表示することができるようにしているので、所望とするシーンの画像を簡単に抽出することができる。
FIG. 7A shows an example in which treatment is performed using the electric knife 17. However, since the subcategory of the anastomosis using the anastomosis thread and the subcategory of the composite image of PIP / POP can also be classified. Even when various operations are performed, a moving image portion corresponding to a scene to be extracted or edited can be extracted easily and in a short time.
According to this embodiment that operates as described above, an image of a desired scene can be easily extracted. More specifically, it is specified by specifying the image type corresponding to the scene that the user wants to extract (or search or edit) and the status (operation state) information of a plurality of peripheral devices in the scene. Since the image portion (starting image) that matches the conditions can be displayed, an image of a desired scene can be easily extracted.

なお、図6においては、画像の種別の変化と、複数の周辺機器のステータス変化とを判定する処理を含むフローチャートを示しているが、例えばタッチパネル40からの選択指示により、この場合には、図6におけるステップS2,ステップS10〜S11を省いた図13に示す処理を行うようにしても良い。
また、図2に示す構成において、例えば画像判別部37が制御部39の機能を含む(又は兼ねる)構成にしたり、制御部39が画像判別部37の機能を含む(又は兼ねる)構成に変更しても良い。
また、本明細書において開示された範囲内の構成要素の中から、一部の構成要素、又は一部の開示内容を抽出して請求項を生成しても良い。
6 shows a flowchart including processing for determining a change in image type and a status change of a plurality of peripheral devices. In this case, for example, in response to a selection instruction from the touch panel 40, FIG. Alternatively, the process shown in FIG. 13 may be performed in which step S2 in step 6 and steps S10 to S11 are omitted.
In addition, in the configuration shown in FIG. 2, for example, the image determination unit 37 is changed to a configuration including (or also serving as) the function of the control unit 39, or the control unit 39 is changed to a configuration including (or also serves as the function of the image determination unit 37). May be.
Further, a part of the constituent elements or a part of the disclosed contents may be extracted from the constituent elements within the scope disclosed in the present specification to generate a claim.

1…内視鏡システム、3…患者、4…内視鏡、5…光源装置、6…プロセッサ、7…電気メス装置、8…気腹装置、9…モニタ、10…画像記録装置、11…トロリ、12…挿入部、16…トラカール、17…電気メス、22…撮像素子、24…切替スイッチ、25a〜25e…通信線、31…画像信号入力部、32…画像解析部、33…記録データ生成部、34…ハードディスク、35…画像信号出力部、36…画像種別データベース部、37…画像判別部、38…通信部、39…制御部、40…タッチパネル、41…保存先切替部 DESCRIPTION OF SYMBOLS 1 ... Endoscope system, 3 ... Patient, 4 ... Endoscope, 5 ... Light source device, 6 ... Processor, 7 ... Electric scalpel device, 8 ... Pneumo-abdominal device, 9 ... Monitor, 10 ... Image recording device, 11 ... Trolley, 12 ... insertion part, 16 ... trocar, 17 ... electric knife, 22 ... imaging element, 24 ... changeover switch, 25a-25e ... communication line, 31 ... image signal input part, 32 ... image analysis part, 33 ... recording data Generation unit 34... Hard disk 35. Image signal output unit 36... Image type database unit 37... Image discrimination unit 38 38 communication unit 39 control unit 40 touch panel 41 storage destination switching unit

Claims (9)

画像信号が入力される画像信号入力部と、
前記画像信号入力部に入力された前記画像信号における画像の特徴量を抽出する画像解析部と、
入力される前記画像信号の前記画像に対して予め手術の進行状況に応じた画像種別毎に判別用特徴量と関連付けた複数の画像種別のデータベースを蓄積する画像種別データベース部と、
前記画像解析部により抽出された前記特徴量の画像に対して前記画像種別データベース部における該当する画像種別を判別する画像判別部と、
前記画像判別部の判別結果により判別された前記画像種別の変化に対応して、変化したタイミングの前記画像信号を特定するための編集ポイント及び前記画像信号に関連する第1のメタ情報を、前記画像信号に付加して記録するための記録データを生成する記録データ生成部と、
前記記録データ生成部により生成された前記画像信号、前記編集ポイント及び前記第1のメタ情報を含む前記記録データを記録する記録部と、
前記手術の際に利用される複数の周辺機器の動作状態の情報が入力される情報入力部と、
前記情報入力部に入力された情報から、該情報に該当する前記複数の周辺機器の各動作状態を判別する状態判別部と、
前記状態判別部の判別結果の変化に対応した前記編集ポイント及び前記状態判別部の判別結果が変化したタイミングの前記複数の周辺機器に関連する第2のメタ情報を前記画像信号に付加して、前記記録部に記録するように制御する制御部と、
を備えることを特徴とする画像記録装置。
An image signal input unit to which an image signal is input;
An image analysis unit that extracts a feature amount of an image in the image signal input to the image signal input unit;
An image type database unit that stores a database of a plurality of image types associated with feature amounts for discrimination for each image type corresponding to the progress of surgery for the image of the input image signal;
An image discriminating unit that discriminates a corresponding image type in the image type database unit with respect to the image of the feature amount extracted by the image analysis unit;
Corresponding to the change of the image type determined by the determination result of the image determination unit, the editing point for specifying the image signal at the changed timing and the first meta information related to the image signal, A recording data generation unit for generating recording data to be recorded in addition to the image signal;
A recording unit that records the recording data including the image signal, the editing point, and the first meta information generated by the recording data generation unit;
An information input unit for inputting information on operation states of a plurality of peripheral devices used in the operation;
A state determination unit for determining each operation state of the plurality of peripheral devices corresponding to the information from the information input to the information input unit;
Adding the second meta information related to the plurality of peripheral devices at the timing when the edit result corresponding to the change in the determination result of the state determination unit and the determination result of the state determination unit has changed, to the image signal; A control unit that controls to record in the recording unit;
An image recording apparatus comprising:
前記画像種別データベース部は、前記手術の進行状況に応じた画像種別が体腔内と体腔外のいずれの画像であるかの大分類に分類した大分類部を有することを特徴とする請求項1に記載の画像記録装置。   The image type database unit includes a large classification unit that classifies the image type according to the progress of the operation into a large classification of whether the image type is an image inside or outside the body cavity. The image recording apparatus described. 前記画像種別データベース部は、前記大分類部における前記体腔内に属する画像種別が術中に処置具により処置を行っている処置画像、PIP画像/POP画像、若しくは術中において吻合を行っている吻合画像のいずれの画像であるかの中分類に分類した中分類部を有することを特徴とする請求項2に記載の画像記録装置。   The image type database unit includes a treatment image, a PIP image / POP image, or an anastomosis image in which an anastomosis is performed during surgery. The image recording apparatus according to claim 2, further comprising a middle classification unit that classifies the images into middle classifications. 前記画像解析部は、入力される前記画像信号のR,G,B色成分画像における画素ヒストグラムから前記画像の特徴量を抽出するヒストグラム解析回路と、前記画像のエッジを抽出するエッジ抽出回路と、を有し、
前記画像判別部は、前記ヒストグラム解析回路により抽出された第1の特徴量と前記エッジ抽出回路により抽出された第2の特徴量が、予め前記画像種別データベース部に格納されている前記複数の画像種別に対応付けた判別用特徴量と比較することにより、該当する画像種別を判別することを特徴とする請求項1に記載の画像記録装置。
The image analysis unit includes a histogram analysis circuit that extracts a feature amount of the image from a pixel histogram in an R, G, B color component image of the input image signal, an edge extraction circuit that extracts an edge of the image, Have
The image determination unit includes the plurality of images in which the first feature amount extracted by the histogram analysis circuit and the second feature amount extracted by the edge extraction circuit are stored in the image type database unit in advance. The image recording apparatus according to claim 1, wherein a corresponding image type is determined by comparison with a determination feature amount associated with the type.
前記状態判別部は、前記複数の周辺機器における各動作状態を判別し、前記制御部は、前記状態判別部による判別結果から前記複数の周辺機器における少なくとも1つの動作状態が変化したタイミングにおける前記複数の周辺機器の全ての動作状態の情報を前記第2のメタ情報として前記記録部に記録するように制御することを特徴とする請求項1に記載の画像記録装置。   The state discriminating unit discriminates each operation state in the plurality of peripheral devices, and the control unit determines the plurality at the timing when at least one operation state in the plurality of peripheral devices changes from the discrimination result by the state discriminating unit. 2. The image recording apparatus according to claim 1, wherein control is performed such that information on all operating states of the peripheral device is recorded in the recording unit as the second meta information. 更に、前記記録部に対して、前記画像種別の指定と、前記複数の周辺機器における任意の動作状態の指定とを行う指定部と、
前記記録部に記録された前記記録データから前記指定部により指定された画像種別と指定された動作状態に合致する条件のメタ情報を検索するメタ情報検索部と、
検索された前記メタ情報に該当する画像部分の情報を表示する表示部と、
を有することを特徴とする請求項1に記載の画像記録装置。
Further, for the recording unit, a designation unit that performs designation of the image type and designation of an arbitrary operation state in the plurality of peripheral devices;
A meta information retrieval unit that retrieves meta information of a condition that matches the image type designated by the designation unit and the designated operation state from the recording data recorded in the recording unit;
A display unit that displays information of an image portion corresponding to the searched meta information;
The image recording apparatus according to claim 1, further comprising:
前記状態判別部は、前記複数の周辺機器として少なくとも気腹装置と、電気メス装置又は超音波切開装置とにおけるそれぞれの動作状態を判別することを特徴とする請求項1に記載の画像記録装置。   The image recording apparatus according to claim 1, wherein the state determination unit determines each operation state of at least an insufflation apparatus and an electric scalpel apparatus or an ultrasonic incision apparatus as the plurality of peripheral devices. 前記画像種別データベース部は、前記大分類部における前記体腔外に属する画像種別が、無信号の黒画像、テスト画像を表すカラーバー画像、又は両画像に該当しないその他の画像におけるいずれの画像であるかの中分類に分類した中分類部を有することを特徴とする請求項2に記載の画像記録装置。   The image type database unit is any image in which the image type belonging to the outside of the body cavity in the large classification unit is a non-signal black image, a color bar image representing a test image, or other images not corresponding to both images. The image recording apparatus according to claim 2, further comprising a middle classification unit that is classified into the middle classification. 前記記録データ生成部は、前記第1のメタ情報として、該第1のメタ情報が生成されたタイミングにおける前記複数の周辺機器の各動作状態に関する情報を含む第3のメタ情報を生成し、前記記録部は、前記第3のメタ情報を記録し、
更に、前記制御部は、前記状態判別部による判別結果が変化した場合、前記第2のメタ情報として、該第2のメタ情報が生成されたタイミングにおける前記画像判別部により判別された画像種別に関する情報を含む第4のメタ情報を前記記録部に記録するように制御することを特徴とする請求項1に記載の画像記録装置。

The recording data generation unit generates, as the first meta information, third meta information including information on each operation state of the plurality of peripheral devices at a timing when the first meta information is generated, The recording unit records the third meta information,
Furthermore, the control unit relates to an image type determined by the image determination unit at a timing when the second meta information is generated as the second meta information when the determination result by the state determination unit is changed. The image recording apparatus according to claim 1, wherein control is performed so that fourth meta information including information is recorded in the recording unit.

JP2014130620A 2014-06-25 2014-06-25 Image recording device Active JP6192602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014130620A JP6192602B2 (en) 2014-06-25 2014-06-25 Image recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014130620A JP6192602B2 (en) 2014-06-25 2014-06-25 Image recording device

Publications (2)

Publication Number Publication Date
JP2016007444A JP2016007444A (en) 2016-01-18
JP6192602B2 true JP6192602B2 (en) 2017-09-06

Family

ID=55225462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014130620A Active JP6192602B2 (en) 2014-06-25 2014-06-25 Image recording device

Country Status (1)

Country Link
JP (1) JP6192602B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6834184B2 (en) 2016-06-16 2021-02-24 ソニー株式会社 Information processing device, operation method of information processing device, program and medical observation system
JP6608111B2 (en) 2016-09-28 2019-11-20 富士フイルム株式会社 MEDICAL IMAGE STORAGE / REPRODUCING DEVICE AND METHOD, AND PROGRAM
WO2018163644A1 (en) * 2017-03-07 2018-09-13 ソニー株式会社 Information processing device, assist system, and information processing method
JP7091349B2 (en) * 2017-09-07 2022-06-27 富士フイルム株式会社 Diagnosis support system, endoscopy system, processor, and how to operate the diagnosis support system
JP2019161643A (en) * 2018-03-08 2019-09-19 株式会社リコー Tamper protection and video source identification for video processing pipeline
JP6426867B1 (en) * 2018-03-30 2018-11-21 株式会社ミルプラトー Video viewing apparatus, control method for video viewing apparatus, and program
CN111937377B (en) * 2018-04-09 2022-06-21 奥林巴斯株式会社 Endoscope service support system, endoscope service support method, and recording medium
JP2021164490A (en) * 2018-04-10 2021-10-14 オリンパス株式会社 Medical system
GB2612246B (en) * 2018-10-03 2023-08-30 Cmr Surgical Ltd Automatic endoscope video augmentation
JP2019185726A (en) * 2018-10-25 2019-10-24 株式会社ミルプラトー Video browsing device, control method of video browsing device, and program
WO2020110218A1 (en) 2018-11-28 2020-06-04 オリンパス株式会社 Medical image recording control system
JP7495063B2 (en) 2021-05-21 2024-06-04 富士フイルム株式会社 Endoscope system and method of operation thereof
CN114565881B (en) * 2022-04-28 2022-07-12 成都与睿创新科技有限公司 Method and system for distinguishing different scenes inside and outside body cavity

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005124824A (en) * 2003-10-23 2005-05-19 Olympus Corp Operation supporting system
JP4007954B2 (en) * 2003-11-04 2007-11-14 オリンパス株式会社 Image processing apparatus, method, and program
JP2005348797A (en) * 2004-06-08 2005-12-22 Olympus Corp Medical practice recording system and medical practice recording device
JP4537803B2 (en) * 2004-08-27 2010-09-08 オリンパス株式会社 Image display device
JP5098253B2 (en) * 2006-08-25 2012-12-12 コニカミノルタエムジー株式会社 Database system, program, and report search method
JP4305483B2 (en) * 2006-09-12 2009-07-29 ソニー株式会社 Video signal generating device, video signal receiving device, and video signal generating / receiving system
JP5296396B2 (en) * 2008-03-05 2013-09-25 オリンパスメディカルシステムズ株式会社 In-vivo image acquisition device, in-vivo image receiving device, in-vivo image display device, and noise removal method
JP5467295B2 (en) * 2009-01-06 2014-04-09 学校法人東京電機大学 Surgery information real-time acquisition and analysis system and method in endoscopic surgery
JP2011036372A (en) * 2009-08-10 2011-02-24 Tohoku Otas Kk Medical image recording apparatus
JP2013003737A (en) * 2011-06-14 2013-01-07 Olympus Medical Systems Corp Medical information recording and outputting device

Also Published As

Publication number Publication date
JP2016007444A (en) 2016-01-18

Similar Documents

Publication Publication Date Title
JP6192602B2 (en) Image recording device
US11107571B2 (en) Information processing apparatus, information processing method, program, and medical observation system
US9186041B2 (en) Medical information recording apparatus that determines medical scene or changing of medical scene, synthesizes images obtained by medical equipment, and records synthesized image
US7940967B2 (en) Medical procedure support system and method
JP6663571B2 (en) Endoscope image processing apparatus, method of operating endoscope image processing apparatus, and program
JP2009247434A (en) Operation system
JP2011036371A (en) Medical image recording apparatus
CN112566540A (en) Processor for endoscope, information processing device, endoscope system, program, and information processing method
WO2019198322A1 (en) Medical treatment system
JP2004147778A (en) Image processor and endoscope image processor
CN110741334A (en) Display control apparatus, display control method, and display control program
JP7562193B2 (en) Information processing device, information processing method, and computer program
JP2024514638A (en) Intraoperative display for surgical systems
US20210295980A1 (en) Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium
JP5010778B2 (en) Endoscopic surgery system
US20070083480A1 (en) Operation information analysis device and method for analyzing operation information
US20220148209A1 (en) Medical system, signal processing device, and signal processing method
JP2019170667A (en) Intubation system
JP7147890B2 (en) Information processing system, information processing method and program
JP2006288956A (en) Surgery system
JP2007133513A (en) Operation information analysis system
JP7200353B2 (en) Centralized control device, setting method and centralized control system
JP2004357789A (en) Subject observation system and control method for subject observation system
JP2003164464A (en) Medical treatment system control device
WO2024104926A1 (en) A medical control system, method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R151 Written notification of patent or utility model registration

Ref document number: 6192602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250