JP6192602B2 - Image recording device - Google Patents
Image recording device Download PDFInfo
- Publication number
- JP6192602B2 JP6192602B2 JP2014130620A JP2014130620A JP6192602B2 JP 6192602 B2 JP6192602 B2 JP 6192602B2 JP 2014130620 A JP2014130620 A JP 2014130620A JP 2014130620 A JP2014130620 A JP 2014130620A JP 6192602 B2 JP6192602 B2 JP 6192602B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- meta information
- recording
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002093 peripheral effect Effects 0.000 claims description 63
- 230000003872 anastomosis Effects 0.000 claims description 24
- 238000010191 image analysis Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 12
- 238000001356 surgical procedure Methods 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 230000015271 coagulation Effects 0.000 description 9
- 238000005345 coagulation Methods 0.000 description 9
- 210000000683 abdominal cavity Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000005286 illumination Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 208000005646 Pneumoperitoneum Diseases 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- AWSBQWZZLBPUQH-UHFFFAOYSA-N mdat Chemical compound C1=C2CC(N)CCC2=CC2=C1OCO2 AWSBQWZZLBPUQH-UHFFFAOYSA-N 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000740 bleeding effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 230000001112 coagulating effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、編集を行い易いように画像を記録する画像記録装置に関する。 The present invention relates to an image recording apparatus that records an image so as to facilitate editing.
近年、医療分野において内視鏡は広く用いられるようになっている。例えば第1の従来例としての特開2006−61469号公報は、カプセル内視鏡により患者の体腔内を時系列に撮像し、撮像された一連の画像の撮像期間を示す時間スケールが付されたタイムバーを表示すると共に、選択された所望の画像の撮像時刻に対応する時間スケール上の位置を示す指標を表示する。また、この公報は、画像の色分布を測定し、測定結果から画像が体外画像であるか否かを判定することと、体外画像の撮像期間を示すマークを表示することを開示している。
また、第2の従来例としての特開2005−124824号公報は、手術シミュレーション画像を生成するための手術支援システムにおいて、手術動画データを、手術シミュレーション画像の構築に必要な、各手技ステップ毎の最適な手技ステップ動画データに分割すると共に、分割された手技ステップ動画データをデータベースに登録することを開示している。また、この公報は、手術中において、手術動画データを分割するマークを、内視鏡の操作ボタンなどの押下に基づいて、手術動画データ内にインデックスデータを付加することも開示している。
In recent years, endoscopes have been widely used in the medical field. For example, Japanese Patent Laid-Open No. 2006-61469, which is a first conventional example, images a patient's body cavity in time series using a capsule endoscope, and a time scale indicating an imaging period of a series of images taken is attached. A time bar is displayed, and an index indicating a position on the time scale corresponding to the imaging time of the selected desired image is displayed. This publication also discloses measuring the color distribution of an image, determining whether the image is an extracorporeal image from the measurement result, and displaying a mark indicating the imaging period of the extracorporeal image.
Japanese Patent Laid-Open No. 2005-124824 as a second conventional example describes a surgical support system for generating a surgical simulation image in which surgical moving image data is necessary for each procedure step necessary for constructing the surgical simulation image. It is disclosed to divide into optimal procedure step moving image data and register the divided procedure step moving image data in a database. This publication also discloses that, during surgery, index data is added to the surgical video data based on the depression of an operation button or the like of an endoscope for a mark that divides the surgical video data.
通常、1回の手術を行う場合、手術の開始から終了まで、内視鏡画像を画像記録装置に記録するために、所望とするシーンの画像部分を効率良く抽出することが望まれる。第1の従来例は、時系列に沿って記録された一連の画像において、選択された画像の撮像位置を表示画面から容易に推定できるようにするものであり、所望とするシーンの画像部分を効率良く抽出することを開示していない。
また、第2の従来例は、手術中においてユーザの操作により、分割するマークを付けることを開示しているが、手術中においては、ユーザは手術に専念するために、この従来例では、ユーザに対して煩わしい操作を要求する欠点があると共に、分割するマークを付け忘れることが発生し易い欠点がある。
本発明は上述した点に鑑みてなされたもので、所望とするシーンの画像を簡単に抽出することができる画像記録装置を提供することを目的とする。
Usually, when performing a single operation, it is desirable to efficiently extract an image portion of a desired scene in order to record an endoscopic image in an image recording apparatus from the start to the end of the operation. In the first conventional example, an imaging position of a selected image in a series of images recorded in time series can be easily estimated from a display screen. It does not disclose efficient extraction.
In addition, the second conventional example discloses that a mark to be divided is attached by an operation of the user during the operation. In the conventional example, the user concentrates on the operation during the operation. However, there are drawbacks that require cumbersome operations, and forgetting to add marks to be divided.
SUMMARY An advantage of some aspects of the invention is that it provides an image recording apparatus that can easily extract an image of a desired scene.
本発明の一態様の画像記録装置は、画像信号が入力される画像信号入力部と、前記画像信号入力部に入力された前記画像信号における画像の特徴量を抽出する画像解析部と、入力される前記画像信号の前記画像に対して予め手術の進行状況に応じた画像種別毎に判別用特徴量と関連付けた複数の画像種別のデータベースを蓄積する画像種別データベース部と、前記画像解析部により抽出された前記特徴量の画像に対して前記画像種別データベース部における該当する画像種別を判別する画像判別部と、前記画像判別部の判別結果により判別された前記画像種別の変化に対応して、変化したタイミングの前記画像信号を特定するための編集ポイント及び前記画像信号に関連する第1のメタ情報を、前記画像信号に付加して記録するための記録データを生成する記録データ生成部と、前記記録データ生成部により生成された前記画像信号、前記編集ポイント及び前記第1のメタ情報を含む前記記録データを記録する記録部と、前記手術の際に利用される複数の周辺機器の動作状態の情報が入力される情報入力部と、前記情報入力部に入力された情報から、該情報に該当する前記複数の周辺機器の各動作状態を判別する状態判別部と、前記状態判別部の判別結果の変化に対応した前記編集ポイント及び前記状態判別部の判別結果が変化したタイミングの前記複数の周辺機器に関連する第2のメタ情報を前記画像信号に付加して、前記記録部に記録するように制御する制御部と、を備える。 An image recording apparatus according to an aspect of the present invention receives an image signal input unit to which an image signal is input, and an image analysis unit that extracts an image feature amount in the image signal input to the image signal input unit. An image type database unit that stores a database of a plurality of image types associated with feature amounts for discrimination for each image type corresponding to the progress of surgery in advance for the image of the image signal, and extracted by the image analysis unit An image discriminating unit that discriminates a corresponding image type in the image type database unit with respect to the image of the feature amount, and a change corresponding to the change in the image type discriminated by the discrimination result of the image discriminating unit An edit point for specifying the image signal at the specified timing and a first meta information related to the image signal are added to the image signal for recording. A recording data generating unit for generating data, a recording unit for recording the recording data including the image signal, the editing point and the first meta information generated by the recording data generating unit; An information input unit for inputting information on the operating state of a plurality of peripheral devices to be used, and a state for determining each operating state of the plurality of peripheral devices corresponding to the information from the information input to the information input unit A second meta information related to the plurality of peripheral devices at the timing when the determination point corresponding to the change in the determination result of the determination unit and the determination unit of the state determination unit and the determination result of the state determination unit is changed in the image signal And a control unit that controls to record in the recording unit.
本発明によれば、所望とするシーンの画像を簡単に抽出することができる。 According to the present invention, an image of a desired scene can be easily extracted.
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示すように本発明の第1の実施形態の画像記録装置10を備えた内視鏡システム1は、手術用ベッド(以下ベッド)2に載置される患者3に対して内視鏡4と、この内視鏡4と共に使用される複数の周辺機器としての照明光を発生する光源装置5、信号処理を行う信号処理装置としてのビデオプロセッサ(以下、プロセッサ)6、高周波電流により電気的処置を行う電気メス装置7、気腹を行う気腹装置8、内視鏡画像の表示を行う表示装置としてのモニタ9を備える。
画像記録装置10、光源装置5、プロセッサ6、電気メス装置7、気腹装置8、モニタ9は、移動自在のトロリ11に搭載されている。
内視鏡4は、細長の挿入部12を有し、挿入部12の基端(後端)から延出された信号ケーブル13はプロセッサ6に接続される。また、挿入部12の基端付近から延出されたライトガイドケーブル14は、光源装置5に接続される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
As shown in FIG. 1, an
The
The endoscope 4 has an
図1に示すように手術を行う場合には、内視鏡4の挿入部12は、患者3の体腔内としての例えば腹腔内に挿入される。また、腹腔内を観察し易くするために気腹装置8は、送気チューブ15を介して、腹腔内に刺入されるトラカール16に送気し、腹腔内を気腹する。
また、電気メス装置7は、ケーブル18aを介して腹腔内に挿入され、切開等の処置を行う電気メス17に高周波電流を供給し、術者は、電気メス17を用いて腹腔内の病変組織等を切開したり、出血した部分を凝固する処置を行う。なお、電気メス17の先端が接触して病変組織側に流れた高周波電流は、患者3に広い面積で当接する対極板19と、この対極板19に接続されたリターン用ケーブル18bを介して電気メス装置7に戻る。
また、術者は、切開した部位等を吻合糸で吻合する処置を行う場合もある。
図2は、図1における画像記録装置10の内部構成と、複数の周辺機器の概略の構成を示す。
When performing surgery as shown in FIG. 1, the
The
In addition, the operator may perform a procedure of anastomosing the incised site with an anastomosis thread.
FIG. 2 shows an internal configuration of the
内視鏡4内にはライトガイド21が挿通され、このライトガイド21の基端は光源装置5に接続される。光源装置5は、照明光を発生し、ライトガイド21に供給する。
また、内視鏡4の例えば先端部に配置された撮像素子22は、信号線23を介してプロセッサ6に接続される。
また、内視鏡4には、観察モードを切り替える操作を行う切替スイッチ24が設けてあり、切替スイッチ24の操作信号は、光源装置5とプロセッサ6に送られる。
切替スイッチ24は、切替スイッチがOFFとなる通常の状態においては、光源装置は、通常光観察(モード)に対応した白色光を照明光として出力し、切替スイッチ24がONされると特殊光観察(モード)に対応した特殊光を照明光として出力する状態に切り替わる。つまり、切替スイッチ24は、特殊光観察のON/OFFを行う機能を持つ。
光源装置5は、白色光を発生するランプ5aと、ランプ5aに点灯用の電力を供給する電源回路5bと、光路から挿脱されるフィルタ5cと、集光レンズ5dと、電源スイッチ5eと、光源装置5を制御する制御回路5fとを有する。制御回路5fは、通信線25aを介して画像記録装置10と接続される。
A
In addition, the
In addition, the endoscope 4 is provided with a
In a normal state in which the changeover switch is turned off, the light source device outputs white light corresponding to normal light observation (mode) as illumination light. When the
The
上記切替スイッチ24が操作されない状態においては、フィルタ5cは、光路から退避した位置に配置される。切替スイッチ24が操作されると制御回路5fは、フィルタ5cを、光路上の位置に配置するように制御し、光源装置5はフィルタ5cを通した特殊光、より具体的には狭帯域光をライトガイド21に供給する。
プロセッサ6は、撮像素子22に対する信号処理を行い、画像信号を生成する信号処理回路6aと、電源スイッチ6bと、プロセッサ6を制御する制御回路6cとを有する。信号処理回路6aにより生成された画像信号は、画像記録装置10(の画像信号入力部31)に入力される。
制御回路6cは、通信線25bを介して画像記録装置10と接続され、制御回路6cは、プロセッサ6の動作状態(ステータス)の情報を通信線25bを介して画像記録装置10に送信する。また、画像記録装置10側から送信信号が制御回路6cに送信されると、制御回路6cは、送信信号に対応した制御動作を行う。
In the state where the
The
The control circuit 6c is connected to the
制御回路6cは、上記切替スイッチ24が操作されない状態においては、信号処理回路6aが白色光の照明のもとで撮像素子22が撮像した状態の画像信号を生成するように制御する。また、制御回路6cは、切替スイッチ24が操作された場合には、信号処理回路6aが特殊光の照明のもとで撮像素子22が撮像した状態の画像信号(より具体的には狭帯域の画像信号)を生成するように制御する。
また、制御回路6cは、プロセッサ6のステータスが切替スイッチ24のON/OFF、換言すると特殊光観察のON/OFFのいずれのステータスであるかの情報を画像記録装置10に送信する。
なお、光源装置5の制御回路5fも切替スイッチ24のON/OFF、換言すると特殊光観察のON/OFFにおけるいずれのステータスであるかの情報を画像記録装置10に送信する。画像記録装置10は、光源装置5とプロセッサ6との両方から特殊光観察のON/OFFのいずれのステータスであるかの情報を取得することができる。
In a state where the
In addition, the control circuit 6 c transmits to the
Note that the control circuit 5f of the
このため、一方の周辺機器のみから特殊光観察のON/OFFのいずれのステータスであるかの情報を取得するようにしても良い。図3においては、例えばプロセッサ6で特殊光観察のON/OFFのいずれのステータスであるかの情報を取得することを、プロセッサ(光源装置)と表記して示している。特殊光観察のON/OFFは、内視鏡4による特殊光観察と通常光観察の切替ステータスでもあるので、内視鏡4の特殊光観察のON/OFFのステータスと見なしても良い(図7D参照)。
なお、信号処理回路6aは、実線で示すように内視鏡4から入力される第1の信号入力端の他に点線で示すように第2の信号入力端を有し、信号処理回路6aは、PIP(ピクチャーインピクチャー)の画像信号、POP(ピクチャーアウトピクチャー)、3Dの画像信号を生成する機能を有する。
図2においては、内視鏡4として1つの撮像素子22を備えた2D内視鏡の場合を示しているが、図2において2点鎖線によりその一部を示すように2つの撮像素子22a,22bを備えた3D内視鏡4bが内視鏡システム1に使用される場合もある。
For this reason, information regarding the status of special light observation ON / OFF may be acquired from only one peripheral device. In FIG. 3, for example, the acquisition of information indicating whether the special light observation status is ON / OFF by the
The signal processing circuit 6a has a second signal input end as shown by a dotted line in addition to the first signal input end inputted from the endoscope 4 as shown by a solid line, and the signal processing circuit 6a has , PIP (Picture in Picture) image signal, POP (Picture Out Picture), and 3D image signal.
In FIG. 2, the case of a 2D endoscope including one
図2に示すように電気メス装置7は、高周波信号を発生する高周波発生回路7aと、発生した高周波信号を出力する出力スイッチ7bと、高周波信号の出力モードを変更するモードスイッチ7cと、電気メス装置7を制御する制御回路7dとを有する。制御回路7dは、通信線25cを介して画像記録装置10と接続される。制御回路7dは、電気メス装置7における出力スイッチ7bによる高周波信号の出力ON/OFF、モードスイッチ7cによる出力モードとしての切開モードと凝固モードとの選択に応じて高周波電力の波形を切開用と凝固用に切り替えを制御する。また、制御回路7dは、出力ON/OFFのステータスの情報と、出力モードのステータスの情報を画像記録装置10に送信する。
図2に示すように気腹装置8は、気腹のために送気を行う送気装置8aと、送気のON/OFFを行うスイッチ8bと、気腹装置8を制御する制御回路8cとを有する。また、送気装置8aは、送気する場合の流量や送気した場合の腹腔内の圧力を検出するセンサ8dを有する。制御回路8cは、通信線25dを介して画像記録装置10と接続される。
As shown in FIG. 2, the
As shown in FIG. 2, the
制御回路8cは、気腹装置8における送気のON/OFFを行うスイッチ8bによる送気ON/OFFを制御する。また、制御回路7dは、気腹装置8における送気ON/OFFのステータスの情報を画像記録装置10に送信する。
また、モニタ9は、液晶ディスプレイ等の表示部9aと、画像を表示する場合の構造強調のON/OFF、構造強調をONにした場合の強度(モード)を変える構造強調スイッチ(図2では単に構造強調)9bと、フリップのON/OFFを行うフリップスイッチ(図2では単にフリップ)9cと、PIP/POPのON/OFFを行うPIP/POPスイッチ(図2では単にPIP)9dと、モニタ9を制御する制御回路9eとを有する。制御回路9eは、通信線25eを介して画像記録装置10と接続される。なお、フリップをONした場合には、モニタ9に表示される画像の上下を反転する。図2では、構造強調スイッチ9b、フリップスイッチ9cのON/OFFによるステータスをモニタ9のステータスとして説明しているが、プロセッサ6のステータスに割り当てるようにしても良い。
制御回路9eは、モニタ9における構造強調スイッチ9bによる構造強調のON/OFF、構造強調がONの場合の構造強調の強度(モード)のステータス、フリップスイッチ9cによるフリップのON/OFFのステータス、PIP/POPスイッチ9dによるPIP/POPのステータスの情報を画像記録装置10に送信する。
The
The
The control circuit 9e is configured to turn ON / OFF the structure emphasis by the structure emphasis switch 9b in the
また、図2では示していないが、手術を行う場合、図3に示すように超音波切開(凝固)装置を用いる場合もある。超音波切開装置は、電気メス装置7における、高周波発生回路7aを超音波駆動信号を発生する超音波駆動信号発生回路に置換し、高周波信号を超音波駆動信号に読み替え、電気メス17を超音波プローブに置換した構成とほぼ同様の機能を有する。
この場合には超音波切開装置の制御回路は、超音波出力のON/OFFのステータスと、出力モードのステータスとの情報を画像記録装置10に送信する。
図2に示すように画像記録装置10は、プロセッサ6からの画像信号が入力される画像信号入力部(又は画像信号入力回路)31と、画像信号入力部31に入力された画像信号における画像の特徴量を抽出するための画像解析を行う画像解析部(又は画像解析回路)32と、画像解析部32を通った画像信号から記録するための記録データを生成する記録データ生成部(又は記録データ生成回路)33とを有する。
Although not shown in FIG. 2, when performing an operation, an ultrasonic dissection (coagulation) apparatus may be used as shown in FIG. The ultrasonic incision device replaces the high
In this case, the control circuit of the ultrasonic incision apparatus transmits information about the ON / OFF status of the ultrasonic output and the status of the output mode to the
As shown in FIG. 2, the
また、画像記録装置10は、記録データ生成部33により生成された記録データを記録するハードディスク34と、ハードディスク34に記録された記録データを読み出し、画像記録装置10から画像信号として出力する画像信号出力部(又は画像信号出力回路)35とを有する。画像信号出力部35は、記録データから生成した画像信号を、外部のモニタ9に出力する他に、画像信号入力部31に入力された画像信号を、モニタ9に出力することもできる。
また、画像記録装置10は、前記画像解析部32に入力される画像信号の画像に対して、予め手術の進行状況に応じた画像種別毎に、各画像種別の特徴量としての判別用特徴量と関連付けた(又は紐付けした)複数の画像種別のデータベースを蓄積する画像種別データベース部(又は画像種別データベース装置)36と、画像解析部32により抽出された特徴量の画像に対して、画像種別データベース部36に蓄積された複数の画像種別における該当する画像種別を判別する画像判別部(又は画像判別回路)37とを有する。
In addition, the
Further, the
この画像判別部37は、前の時間において判別した画像種別が、その後の時間において変化した場合(タイミング)に、記録データ生成部33に通知し、記録データ生成部33は、画像種別が変化したことを表す編集用(又は抽出用)ポイントとなる編集ポイント(又は抽出ポイント)の情報と、編集ポイントのタイミングにおける少なくとも画像種別に関連する情報としてのメタ情報(より具体的には第1のメタ情報)とを画像(信号)の記録データに付加する。
つまり、画像判別部37により判別される画像種別が時間的に変化した場合、記録データ生成部33は、画像の記録データに、編集ポイント及び(第1の)メタ情報とを付加した記録データ(統合記録データとも言う)を生成する。なお、編集ポイント及び(第1の)メタ情報とが付加された記録データ(統合記録データ)は、画像の記録データと一体化されたファイルでも良いし、画像のファイル(一般的には動画ファイル)に関連付け(又は付随)した別体のファイルとから構成されるものでも良い。
図4は、画像種別データベース部36内に予め蓄積されている画像種別の情報を示す。画像種別の大まかな分類となるカテゴリ(又は大分類)と、カテゴリの分類におけるより詳細な分類となるサブカテゴリ(又は中分類)により画像種別を分類するようにしている。
The
That is, when the image type discriminated by the
FIG. 4 shows image type information stored in advance in the image
カテゴリは、体腔内(画像)、体腔外(画像)、その他(画像)に分類する。また、体腔内(画像)、体腔外(画像)、その他(画像)には、それぞれの画像種別に対応する判別用特徴量が紐付け(関連付け)してある。つまり、画像種別データベース部36は、体腔内(画像)、体腔外(画像)、その他(画像)を判別(特定)するための判別用特徴量(又は特定用特徴量)を、体腔内(画像)、体腔外(画像)、その他(画像)にそれぞれ関連付けて(紐付け)して格納している。
なお、以下の複数のサブカテゴリの画像に関しても同様に、各サブカテゴリの画像に対応する判別用特徴量が関連付け(紐付け)してある。そして、画像種別データベース部36は、各サブカテゴリの画像に対応する判別用特徴量が関連付け(紐付け)して格納している。このため、画像種別データベース部36は、カテゴリ及びサブカテゴリの画像に関連付け(紐付け)た判別用特徴量(の情報)を予め格納する判別用特徴量格納部36aを有する。そして、画像記録装置10に入力される画像信号の画像の特徴量を抽出して、抽出した特徴量を判別用特徴量と比較することにより、抽出された画像がいずれのカテゴリ、サブカテゴリの画像種別の画像であるかを判別することができるようにしている。
The category is classified into body cavity (image), body cavity (image), and other (image). In addition, in the body cavity (image), outside the body cavity (image), and the other (image), discrimination feature amounts corresponding to the respective image types are linked (associated). That is, the image
In addition, similarly for the following images of a plurality of subcategories, determination feature amounts corresponding to the images of each subcategory are associated (linked). Then, the image
また、カテゴリが体腔内(画像)の場合には、2D(画像)の場合における処置(画像)、合成(画像)、吻合(画像)、その他(画像)のサブカテゴリと、3D(画像)の場合における処置(画像)、合成(画像)、吻合(画像)、その他(画像)のサブカテゴリと、に分類している。なお、吻合(画像)は、吻合糸(画像)とも言う。
処置(画像)は、処置具、プローブを用いた画像であり、合成(画像)はPIP/POP画像であり、吻合(画像)は、吻合を行っている吻合糸の画像であり、その他(画像)は上記のサブカテゴリに該当しない画像である。
一方、カテゴリが体腔内(画像)の場合には、黒画、カラーバー、その他のサブカテゴリに分類している。黒画は、無信号時の画像であり、カラーバーは術前のテスト画像であり、その他(画像)は、上記のサブカテゴリに該当しない画像である。なお、上述した分類と異なる分類を採用しても良い。また、合成(画像)のサブカテゴリを、合成(画像)を用いないで、PIP(画像)又はPOP(画像)のサブカテゴリを用いるようにしても良い。
上記画像解析部32は、入力される画像信号(の画像)におけるR,G,B色成分画像(単にR,G,Bと略記)の画素ヒストグラム(単にヒストグラムと略記)を解析(算出)することにより画像の特徴量を抽出するヒストグラム解析回路32aと、画像のエッジを抽出することにより画像の特徴量を抽出するエッジ抽出回路32bとを有する。なお、画像解析部32は、例えば吻合(画像)を判別する場合、ヒストグラム解析回路32aとエッジ抽出回路32bとの2つの回路の他に、後述するように、複数のフレームの画像におけるエッジ部分や、処置具の先端部分を抽出した画像部分が、予め登録された画像の特徴的な動きパターンに該当するか否かにより(吻合(画像)であるか否かを)判別するようにしても良い。
When the category is in the body cavity (image), the treatment (image), composition (image), anastomosis (image), and other (image) subcategories in the case of 2D (image), and 3D (image) Are classified into subcategories of treatment (image), composition (image), anastomosis (image), and other (image). An anastomosis (image) is also called an anastomosis thread (image).
The treatment (image) is an image using a treatment tool and a probe, the composite (image) is a PIP / POP image, the anastomosis (image) is an image of an anastomosis thread performing anastomosis, and the other (image ) Is an image not corresponding to the above-mentioned subcategory.
On the other hand, when the category is in a body cavity (image), it is classified into a black image, a color bar, and other subcategories. The black image is an image when there is no signal, the color bar is a pre-operative test image, and the other (image) is an image that does not fall within the above subcategory. In addition, you may employ | adopt the classification different from the classification mentioned above. Further, as a subcategory of composition (image), a subcategory of PIP (image) or POP (image) may be used without using composition (image).
The
ヒストグラム解析回路32aにより解析したR,G,Bのヒストグラムの解析結果と、エッジ抽出回路32bにより抽出されたエッジの抽出結果を、画像判別部37に送る。
画像判別部37は、画像解析部32の解析により抽出された特徴量を、画像種別データベース部36に蓄積された判別用特徴量と比較する等して、画像種別の判別対象となる特徴量の画像が複数の画像種別におけるいずれの画像種別に該当するか、又はいずれの画像種別に属するかを判別する。
画像判別部37による画像判別の処理の詳細は図8を参照して後述するが、図5を参照して画像判別の概略を説明する。図5は体腔内と体腔外における代表的な画像例を示すと共に、1フレームの画像におけるR,G,Bの平均値も示す。図5(A)と図5(B)は、体腔内における互いに異なる画像例を示し、それぞれの画像におけるR,G,Bの平均値に関して、G,B平均値に対して、R平均値はかなり大きくなるように、R,G,Bの平均値間のずれ量が大きい特徴を有する。
The R, G, and B histogram analysis results analyzed by the
The
Details of the image discrimination processing by the
一方、図5(C)、図5(D)及び図5(E)は体腔外における代表的な画像例を示し、それぞれの画像におけるR,G,Bの平均値に関して、R,G,B平均値間のずれ量は小さい特徴を有する。このため、画像種別データベース部36は、体腔内と体腔外とを判別する判別用特徴量として、R,G,Bの平均値間のずれ量が例えば閾値としての20を格納し、画像判別部37は閾値以上となる画像を体腔内の画像と判別し、閾値未満となる画像を体腔外の画像と判別する。なお、G,Bの平均値に対して、Rの平均値が閾値以上であるか否かを体腔内と体腔外とを判別する判別用特徴量とするようにしても良い。
図5(E)は、(体腔外における)カラーバーの画像を示し、所定のパターンでRGB以外の色成分も表示し、この場合には通常の体腔外の画像の場合に比較して、R,G,Bの平均値間のずれ量が例えば第2の閾値としての5以下で、異なるフレームにおいてR,G,Bの平均値が変動しないこと等を判別用特徴量とする。画像判別部37は、抽出された特徴量がこのような判別用特徴量に該当するか否かを判別することにより、カラーバーの画像であるか否かを判別することができる。なお、図5において説明した内容の他に、図8において説明するような判別を行うようにしても良い。
On the other hand, FIG. 5C, FIG. 5D, and FIG. 5E show typical image examples outside the body cavity, and R, G, B regarding the average values of R, G, B in the respective images. The deviation between the average values has a small feature. For this reason, the image
FIG. 5E shows an image of the color bar (outside the body cavity) and displays color components other than RGB in a predetermined pattern. In this case, compared to the case of an image outside the body cavity, R The difference amount between the average values of G, B, and B is, for example, 5 or less as the second threshold value, and the average value of R, G, B does not vary in different frames, and the like is used as a distinguishing feature amount. The
また、本実施形態においては、画像判別部37は、後述するステータス判別部38aによる複数の周辺機器のステータスの情報が画像判別する場合の付随的な情報として入力される。画像判別部37は、特徴量を用いた画像種別の判別の精度が低くなるような場合には、更に複数の周辺機器のステータスの情報を参照することにより、特徴量のみを用いた画像種別の判別の精度を向上する(ことができる)。
本実施形態においては、判別された画像種別が時間的に変化した場合には、記録データ生成部33は、画像の記録データに編集ポイントと、少なくとも画像種別の情報を含む第1のメタ情報を付加した(統合)記録データを生成し、ハードディスク34は、画像の記録データに編集ポイントと少なくとも画像種別の情報を含む第1のメタ情報を付加した(統合)記録データを記録する記録部34aの機能を有する。なお、記録データ生成部33は、判別された画像種別が時間的に変化していない場合には、所定のフォーマットで画像と各種のメタ情報(各種のメタ情報は、第1のメタ情報を含んでも、含まなくても良い)を付加して記録データを生成し、ハードディスク34は、当該記録データを記録部34aに記録する。
In the present embodiment, the
In the present embodiment, when the discriminated image type changes with time, the recording
なお、画像の記録を開始する場合には、画像種別又は後述するステータスが変化しない状態においても、記録データ生成部33は、最初の編集ポイントP1と、画像種別及びステータスに関連するメタ情報(第1のメタ情報及び第2のメタ情報)を付加した(統合)記録データを生成し、ハードディスク34は、(統合)記録データを記録する(後述する図7A参照)。なお、最初の編集ポイントP1は、省略し、メタ情報のみを付加するようにしても良い。
また、画像記録装置10は、複数の周辺機器と通信を行う通信部(又は通信回路)38を有する。この通信部38は、通信により複数の周辺機器における各周辺機器のステータス(動作状態)の情報を取得してステータスを判別するステータス判別部(ステータス判別回路)38aを有する。なお、図2においては、通信部38の内部にステータス判別部38aを設けた場合の構成例を示しているが、通信部38の外部にステータス判別部38aを設ける構成にしても良い。
また、画像記録装置10は、画像記録装置10の制御を行うと共に、通信部38を介して複数の周辺機器の制御と、複数の周辺機器からの情報の取得等を行う制御部(又は制御回路)39と、画像記録装置10に対する操作を行うタッチ操作で行うタッチパネル40と、ハードディスク34に記録される記録データを外部に保存する場合における保存先の切替を行う保存先切替部(又は保存先切替回路)41とを有する。
When starting image recording, the recording
The
In addition, the
なお、タッチパネル40は、タッチ操作による操作と表示する表示部との操作/表示部40aの機能を持つ。また、タッチパネル40は、記録部34aを有するハードディスク34に対して、所望とするシーンの画像部分を抽出又は検索するために、画像種別の指定と、複数の周辺機器における任意のステータスの指定とを行う指定部(指定入力装置)40bの機能を有する。
また、制御部39は、記録部34aに記録された記録データから指定部40bにより指定された画像種別と指定された動作状態とに合致する条件のメタ情報を検索(又は抽出)するメタ情報検索部(又はメタ情報検索装置)39aを有する。メタ情報検索部39aは、検索したメタ情報、又は該メタ情報に該当する画像部分の情報を、例えばタッチパネル40に送り、タッチパネル40の例えば操作/表示部40aは上記メタ情報又は該メタ情報に該当する画像部分の情報を表示する。このため、操作/表示部40aは 検索されたメタ情報に該当する画像部分の情報を表示する表示部を形成する。
画像記録装置10の外部の記録装置として、USBメモリ42a、光学メディア42b、PC/サーバ42c等を用いることができる。
The
In addition, the
As a recording device external to the
上記制御部39は、ステータス判別部38aにより判別された複数の周辺機器における各周辺機器のステータスの状態を監視し、そのステータスが変化したタイミングにおいて、変化したステータスを記録データ生成部33に送信し、記録データ生成部33がステータスの変化のタイミングにおける編集ポイントとメタ情報(第2のメタ情報)を付加した(統合)記録データを生成するように制御する。また、ハードディスク34は、記録データ生成部33により生成された(統合)記録データを記録する記録部34aの機能を有する。
記録データ生成部33は、画像信号入力部31から(画像解析部32を通って)入力された画像信号から当該画像信号の画像を記録するための記録データを生成し、この記録データには画像判別部37により判別された画像種別を含むメタ情報(第1のメタ情報)を付加し、画像種別が変化したタイミングで編集ポイントも付加する。更に、この記録データ生成部33は、制御部39から送信(入力)される複数の周辺機器におけるステータスの情報を含むメタ情報(第2のメタ情報)を、記録データに付加し、ステータスが変化したタイミングで編集ポイントも付加する。
The
The recording
本実施形態における画像記録装置10は、画像信号が入力される画像信号入力部31と、前記画像信号入力部31に入力された前記画像信号における画像の特徴量を抽出する画像解析部32と、入力される前記画像信号の前記画像に対して予め手術の進行状況に応じた画像種別毎に判別用特徴量と関連付けた複数の画像種別のデータベースを蓄積する画像種別データベース部と36と、前記画像解析部32により抽出された前記特徴量の画像に対して前記画像種別データベース部36における該当する画像種別を判別する画像判別部37と、前記画像判別部37の判別結果により判別された前記画像種別の変化に対応して、変化したタイミングの前記画像信号を特定するための編集ポイント及び前記画像信号に関連する第1のメタ情報を、前記画像信号に付加して記録するための記録データを生成する記録データ生成部33と、前記記録データ生成部33により生成された前記画像信号、前記編集ポイント及び前記第1のメタ情報を含む前記記録データを記録する記録部を備えるハードディスク34と、前記手術の際に利用される内視鏡の周辺装置としての複数の周辺機器の動作状態の情報が入力される情報入力部を構成する通信部38と、前記情報入力部に入力された情報から、該情報に該当する前記複数の周辺機器の各動作状態を判別する状態判別部を形成するステータス判別部38aと、前記状態判別部の判別結果の変化に対応した前記編集ポイント及び前記状態判別部の判別結果が変化したタイミングの前記複数の周辺機器に関連する第2のメタ情報を前記画像信号に付加して、前記記録部に記録するように制御する制御部39と、を備えることを特徴とする。
The
次に本実施形態の動作を説明する。図6は手術を行う場合における本実施形態の画像記録装置10における代表的な動作に沿った処理を示す。
例えば図2に示すように内視鏡4と複数の周辺機器を設定した後、画像記録装置10の電源スイッチをONすることにより、画像記録装置10は動作状態になる。
図6におけるステップS1に示すように画像記録装置10の画像信号入力部31には、プロセッサ6からの画像信号が入力され、また、ステップS2に示すように画像記録装置10の通信部38には、複数の周辺機器のステータスの情報が入力される。
図7Aは手術を開始した後における手術の進行状況に応じて、画像種別が変化する例と、複数の周辺機器のステータスが変化する例と、編集ポイントが生成される様子を示す。また、図7Bは、図7Aの場合における複数の周辺機器のステータスの詳細を表形式で示す。なお、図7A等の具体例において示すように、画像種別及びステータスにおける一方のみが変化した場合においても第1のメタ情報と第2のメタ情報と付加して記録するようにしても良い。本実施形態においては、画像種別が変化した場合、又は複数の周辺機器におけるいずれかのステータスが変化した場合、共に画像種別に関する情報と複数の周辺機器の各ステータスの情報とを含むメタ情報を記録するようにしている(図7D参照)。
Next, the operation of this embodiment will be described. FIG. 6 shows processing according to a typical operation in the
For example, as shown in FIG. 2, after setting the endoscope 4 and a plurality of peripheral devices, the
The image signal from the
FIG. 7A shows an example in which the image type changes, an example in which the statuses of a plurality of peripheral devices change according to the progress of the operation after the operation is started, and a state in which edit points are generated. FIG. 7B shows details of statuses of a plurality of peripheral devices in the case of FIG. 7A in a table format. As shown in the specific example of FIG. 7A and the like, even when only one of the image type and the status changes, the first meta information and the second meta information may be added and recorded. In the present embodiment, when the image type changes, or when any status in a plurality of peripheral devices changes, meta information including information regarding the image type and information on each status of the plurality of peripheral devices is recorded. (See FIG. 7D).
図7Aに示すように手術開始の時間t0においては、複数の周辺機器のステータスとして、気腹装置8は送気OFF,電気メス装置7は、出力OFF、出力モードは切開モード(図7Aでは切開)、プロセッサ6は特殊光観察OFF(図7Aでは特殊光OFF)、モニタ9は構造強調OFFに設定されている。
手術を開始した状態においては、内視鏡4は、患者3の腹部内に、まだ挿入されない状態であり、画像記録装置10に入力される画像信号は、体腔外の画像信号となる。
この場合、画像記録装置10内の画像判別部37は、画像解析部32により抽出された特徴量が、画像種別データベース部36における判別用特徴量と比較して、体腔外のカテゴリに該当し、さらに黒画でもなく、カラーバーでもない、その他のサブカテゴリの画像であると判別する。画像判別部37による画像判別の詳細は図8において説明する。
術者等のスタッフは、タッチパネル40等から画像記録装置10(のハードディスク34等)に対して録画開始(記録開始)の指示操作を行う。
As shown in FIG. 7A, at the time t0 of the start of surgery, as the status of a plurality of peripheral devices, the
In the state where the operation is started, the endoscope 4 is not yet inserted into the abdomen of the
In this case, the
A staff member such as a surgeon performs a recording start (recording start) instruction operation on the image recording apparatus 10 (such as the hard disk 34) from the
録画開始の指示操作を受けて、制御部39は、画像信号入力部31から入力される画像信号の画像を記録データ生成部33等を経てハードディスク34に記録(録画)するように制御する。ステップS3に示すように画像記録装置10は、録画を開始する。
本実施形態においては、ステップS4に示すように録画が開始した時間を最初の編集ポイントP1に設定して、制御部39は、画像の記録データにメタ情報(P1)を関連付けてハードディスク34に記録するように制御する。なお、最初の編集ポイントP1の場合を含むi番目のメタ情報(Pi)は、編集ポイントPiの時点におけるメタ情報を表す。編集ポイントPi及びメタ情報(Pi)は、例えば図7Cに示す例では、(B3で示す)mdatに、画像の記録データにおける例えば録画開始からの時間情報に関連付けて記録される。
図7Aに示すように録画開始の時間t1においてプロセッサ6から画像記録装置10内に入力される画像信号の画像は、記録データ生成部33において(圧縮等されて)記録データに変換され、該記録データには録画開始の編集ポイントP1と、この編集ポイントP1におけるメタ情報(P1)としての画像種別の情報と、複数の周辺機器のステータスの情報と、本手術の患者情報とが付加(又は関連付け)されて記録される。
Upon receiving a recording start instruction operation, the
In the present embodiment, as shown in step S4, the recording start time is set as the first editing point P1, and the
As shown in FIG. 7A, the image of the image signal input from the
本実施形態においては、少なくとも画像種別の情報を含むメタ情報を第1のメタ情報と言い、また少なくとも複数の周辺機器のステータスの情報を含むメタ情報を第2のメタ情報と言う。
図7Aに示す例では、記録データ(録画ファイル)には、編集ポイントP1において画像種別の情報として体腔外のカテゴリと、その他のサブカテゴリの情報が付加又は関連付けられ、更に複数の周辺機器のステータスの情報として、気腹装置8は送気OFF,電気メス装置7は、出力OFF、出力モードは切開モード、プロセッサ6は特殊光観察OFF、モニタ9は構造強調OFFの情報が、メタ情報(P1)として付加又は関連付けて、ハードディスク34に記録される。このメタ情報(P1)を図7Aではメタ(P1)と略記する。
図6のステップS5に示すように画像記録装置10の画像解析部32は、画像記録装置10に入力される画像信号の画像の特徴量を抽出し、ステップS6に示すように画像判別部37は抽出された画像の特徴量を画像種別データベース部36の判別用特徴量と比較する。比較結果により、ステップS7に示すように画像判別部37は抽出された画像の画像種別を判別する。
In the present embodiment, meta information including at least image type information is referred to as first meta information, and meta information including at least a plurality of peripheral device status information is referred to as second meta information.
In the example shown in FIG. 7A, the recording data (recording file) is added or associated with information on the category outside the body cavity and information on other subcategories as image type information at the editing point P1, and the statuses of a plurality of peripheral devices are added. As information, the
As shown in step S5 of FIG. 6, the
次のステップS8において画像判別部37は、画像判別部37により判別した画像種別が変化したか否かを監視する。画像種別が変化した場合には、ステップS9に示すように画像種別が変化した時間において記録データに編集ポイントを付加し、第1のメタ情報を関連付ける。勿論、第1のメタ情報にステータスの情報を含めるようにしても良い。ハードディスク34は、記録データに編集ポイントと第1のメタ情報が付加された(統合)記録データを記録する。そして、次のステップS10の処理に移る。
一方、ステップS8において、画像種別が変化していない場合には、ステップS9の処理を行うことなく、ステップS10の処理に移る。
ステップS10において制御部39は、ステータス判別部38aにより判別された複数の周辺機器のステータスの情報を取得し、判別されたステータスが変化したか否かを判別する。ステータスが変化した場合には、次のステップS11において、記録データに編集ポイントを付加し、第2のメタ情報を関連付ける。勿論、第2のメタ情報に画像種別の情報を含めるようにしても良い。ハードディスク34は、記録データに編集ポイントと第2のメタ情報が付加された記録データを記録する。そして、次のステップS12の処理に移る。
In the next step S8, the
On the other hand, if the image type has not changed in step S8, the process proceeds to step S10 without performing step S9.
In step S10, the
図7Aに示す例では、録画開始後において、例えば時間t2において気腹装置8は、送気OFFの状態からONの状態に変化する。そして、腹腔内が炭酸ガスの気体で気腹される。この時間t2において編集ポイントP2が生成され、この編集ポイントP2において第2のメタ情報(P2)が生成される。第2のメタ情報(P2)は、少なくとも複数の周辺機器のステータスの情報を含む。
ステップS11の処理の後、又はステップS10においてステータスが変化しない判定結果の場合にはステップS12において制御部39は、一定時間(例えば数秒)経過待ちの処理を行った後、次のステップS13において制御部39は、録画停止の操作が行われたか否かを判定する。録画停止の操作が行われていない場合には、ステップS5の処理に戻る。そして、ステップS8において画像種別の変化を判定し、ステップS10においてステータスの変化を判定し、変化した場合には編集ポイントとメタ情報を付加する処理を繰り返し行う。以下、図7Aを参照して、ステップS8,S10による処理の例を説明する。
In the example shown in FIG. 7A, after the start of recording, for example, at time t2, the
After the process of step S11 or in the case of a determination result that the status does not change in step S10, the
一方、録画停止の操作が行われると、ステップS14において、制御部39は記録データ生成部33により生成された記録データをハードディスク34に記録する動作を停止させ、図6の処理を終了する。
図7Aに示す例では、時間t2において送気して、腹腔内を気腹した後の例えば時間t3において、内視鏡4が体腔外から気腹された体腔(腹腔)内に挿入される。
すると、ステップS8において画像判別部37は、画像解析部32により抽出された特徴量から、抽出された特徴量の画像種別が体腔外から体腔内のカテゴリに変化したことを判別する。また、画像判別部37は、抽出された特徴量から体腔内のカテゴリにおけるいずれのサブカテゴリに属するかの判別も行う。内視鏡4を挿入した状態において、内視鏡4の視野内に処置具が入っていないと、画像判別部37は、抽出された特徴量の画像が図4におけるその他のサブカテゴリに属すると判別する。
この場合には、図7Aに示すように時間t3において、編集ポイントP3が生成され、この編集ポイントP3に画像種別の情報(体腔内のカテゴリ、その他のサブカテゴリ)を含む第1のメタ情報(P3)が生成される。ハードディスク34は、記録データに編集ポイントP3と第1のメタ情報(P3)が付加された(統合)記録データを記録する。
On the other hand, when the recording stop operation is performed, in step S14, the
In the example shown in FIG. 7A, the endoscope 4 is inserted into the body cavity (abdominal cavity) that is inhaled from outside the body cavity, for example, at time t3 after the air is fed at time t2 and the stomach is inflated.
Then, in step S8, the
In this case, as shown in FIG. 7A, an edit point P3 is generated at time t3, and the first meta information (P3) including image type information (category in body cavity and other subcategories) is included in this edit point P3. ) Is generated. The
また、図7Aにおいては、術者は時間t4において、モニタ9に対してモードM1の強度で構造強調を行う表示の操作を行っている。すると、図6におけるステップS10の処理を行う際に、ステータス判別部38aは、このステータスの変化を判別し、判別したステータスの情報を制御部39に送り、制御部39は、時間t4においてステータスが変化した判定に基づいて編集ポイントP4を生成し、また第2のメタ情報(P4)を付加するように制御する。
また、図7Aにおいて術者が電気メス17により、例えば病変部を切開する処置を行うために電気メス17を内視鏡4の視野内に入れると、例えば時間t5において画像判別部37は電気メス17を処置具として含む画像の特徴量が、その他のサブカテゴリから処置(画像)のサブカテゴリに変化したことを判別する。そして、画像判別部37は時間t5において編集ポイントP5を生成し、また第1のメタ情報(P5)を付加するように制御する。
また、術者が電気メス17により病変部を切開するために時間t6において出力ONの操作を行うと、ステータス判別部38aは、電気メス装置7から電気メス17への出力ONのステータスを判別して、制御部39に送り、制御部39は電気メス装置7の出力OFFからONへのステータス変化を判定し、編集ポイントP6と、第2のメタ情報(P6)を付加するように制御する。術者は、病変部を切開する処置を行った後、例えば時間t7において電気メス装置7から電気メス17への出力ONを出力OFFにする操作を行う。
Further, in FIG. 7A, the operator performs a display operation for enhancing the structure with the intensity of the mode M1 on the
Further, in FIG. 7A, when the operator places the
When the surgeon performs an output ON operation at time t6 in order to incise the lesion with the
すると、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力OFFへのステータスが変化したと判定をし、時間t7において編集ポイントP7を生成し、第2のメタ情報(P7)を付加するように制御する。
また、術者は、凝固が必要か否かを判断する。凝固の処置が必要と判断した場合には、例えば時間t8において電気メス装置7の出力モードを凝固モードに切り替える。
すると、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力モードが凝固モードのステータスに変化したと判定をし、時間t8において編集ポイントP8を生成し、第2のメタ情報(P8)を付加するように制御する。
また、術者は、粘膜の表層付近の血管の走行状態をより視認し易く、凝固の状態も確認し易い特殊光モードに切り替える操作を、例えば時間t9に行う。
すると、制御部39は、制御部39は、ステータス判別部38aによる判別結果からプロセッサ6の画像処理モードが特殊光観察モードのステータスに変化したと判定し、時間t9において編集ポイントP9を生成し、第2のメタ情報(P9)を付加するように制御する。
術者は、特殊光観察モードの状態で電気メス装置7から電気メス17への出力ONの操作を例えば時間t10において行うと、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力ONのステータスが変化したと判定し、時間t10において編集ポイントP10を生成し、第2のメタ情報(P10)を付加するように制御する。術者は、出血した部位を凝固する処置を行った後、例えば時間t11において電気メス装置7から電気メス17への出力ONを出力OFFにする操作を行う。
Then, the
The surgeon also determines whether coagulation is necessary. If it is determined that coagulation treatment is necessary, for example, the output mode of the
Then, the
Further, the operator performs an operation of switching to a special light mode in which, for example, the traveling state of the blood vessels near the surface layer of the mucous membrane is more easily recognized and the coagulation state is easily confirmed, for example, at time t9.
Then, the
When the surgeon performs an operation to turn ON the output from the
すると、制御部39は、ステータス判別部38aによる判別結果から電気メス装置7の出力OFFへのステータスが変化したと判定し、時間t11において編集ポイントP11を生成し、第2のメタ情報(P11)を付加するように制御する。
また、術者は凝固の処置を行った部位を特殊光観察モードで確認した後は、特殊光観察モードをOFF、つまり通常光観察モードの状態に切り替える操作を、例えば時間t12に行う。また、図7Aにおいては、構造強調もOFFにしている。
すると、制御部39は、ステータス判別部38aによる判別結果から特殊光観察モードがOFFと、構造強調がOFFとのステータスが変化したと判定し、時間t12において編集ポイントP12を生成し、また第2のメタ情報(P12)を付加するように制御する。
また、術者は、気腹装置8による送気をOFFにする操作を例えば時間t13に行う。すると、制御部39は、ステータス判別部38aによる判別結果から送気OFFのステータスが変化したことと判定し、時間t13において編集ポイントP13を生成し、第2のメタ情報(P13)を付加するように制御する。
Then, the
Further, after confirming the site where the coagulation treatment has been performed in the special light observation mode, the surgeon performs an operation of switching the special light observation mode to OFF, that is, switching to the normal light observation mode, for example, at time t12. In FIG. 7A, structure enhancement is also turned off.
Then, the
Further, the surgeon performs an operation for turning off the air supply by the
術者は、その後、内視鏡4を体腔内から体腔外に引き抜く操作を例えば時間t14に行う。すると、画像判別部37は、抽出された特徴量から体腔外のカテゴリであり、体腔外におけるその他のサブカテゴリに該当すると判別する。
この場合には、時間t14において、編集ポイントP14が生成され、この編集ポイントP14に画像種別の情報(体腔内のカテゴリ、その他のカテゴリ)を含む第1のメタ情報(P14)が生成される。その後、例えば時間t15において録画停止の操作が行われると、録画が停止する。なお、録画停止の時間t15においても編集ポイントP15とメタ情報(P15)(第1のメタ情報及び第2のメタ情報)(P15)を付加して記録するようにしても良いし、付加しないようにしても良い。図7Aでは編集ポイントP15とメタ情報(P15)を付加しない例で示している。録画停止の時間t15の後の例えば時間t16において手術が終了する。
図7Bは、図7Aにおけるステータス変化の詳細を表形式で示す。図7Bは、複数の周辺機器においてステータスが変化したステータスを斜線で示している。
Thereafter, the operator performs an operation of pulling out the endoscope 4 from the body cavity to the outside of the body cavity, for example, at time t14. Then, the
In this case, an edit point P14 is generated at time t14, and first meta information (P14) including image type information (category in the body cavity and other categories) is generated at the edit point P14. Thereafter, for example, when a recording stop operation is performed at time t15, the recording is stopped. Even at the recording stop time t15, the editing point P15 and the meta information (P15) (first meta information and second meta information) (P15) may be added and recorded. Anyway. FIG. 7A shows an example in which edit point P15 and meta information (P15) are not added. For example, at the time t16 after the recording stop time t15, the operation ends.
FIG. 7B shows details of status changes in FIG. 7A in tabular form. FIG. 7B shows the statuses whose status has changed in a plurality of peripheral devices by hatching.
また、図7Cは、ハードディスク34に記録される(統合)記録データのフォーマット例を示す。
図7Cに示す例では、(統合)記録データは、動画、音声データ等を扱うのに適した、例えばMP4ファイルフォーマットを採用し、このMP4ファイルフォーマットは、図示のように3つのボックスと呼ばれるデータブロックで構成される。B1で示すftypは先頭に配置され、ファイルの種別を示すボックス、B2で示すmoovは、各種のメタデータを格納するボックス、B3で示すmdatは動画や音声のデータを格納したボックスである。本実施形態においては、B3で示すmdatに画像の記録データを格納し、B2で示すmoovに、編集ポイントP1,P2,…と、メタ情報(P1),メタ情報(P2),…を含むテキストファイルを格納している。
図7Dは、メタ情報(P1),メタ情報(P2),メタ情報(P3)の具体例を示す。メタ情報(P1)は、編集ポイントP1を示す記号又はデータP1(簡略化して編集ポイントP1と同じ符号で示すが異なる符号でも良い)と、このMP4ファイルとして記録される手術の患者情報のデータとしてDate、Patient ID,Patient name,BOD,Age,Sexを含み、また1つ目の手術のタイトル1の項目と、最初の編集ポイントP1の録画開始時間00:00:00のデータを含み、更に画像種別のカテゴリ、カテゴリ、複数の周辺機器のステータス情報を含む。
FIG. 7C shows a format example of (integrated) recording data recorded on the
In the example shown in FIG. 7C, the (integrated) recording data adopts, for example, an MP4 file format suitable for handling moving images, audio data, etc., and this MP4 file format is data called three boxes as shown. Consists of blocks. “Ftyp” indicated by B1 is arranged at the head, a box indicating the file type, “moov” indicated by B2 is a box for storing various metadata, and “mdat” indicated by B3 is a box for storing video and audio data. In the present embodiment, image recording data is stored in mdat indicated by B3, and text including edit points P1, P2,..., Meta information (P1), meta information (P2),. The file is stored.
FIG. 7D shows specific examples of meta information (P1), meta information (P2), and meta information (P3). The meta information (P1) is a symbol or data P1 indicating the editing point P1 (simply shown by the same code as the editing point P1 but may be a different code) and data of surgical patient information recorded as this MP4 file. Date, Patient ID, Patient name, BOD, Age, Sex, including the
メタ情報(P2)は、気腹装置8のステータスが変化した場合に該当するもので、編集ポイントP2を示す記号又はデータP2と、編集ポイントP2に対応する動画の記録時間と、編集ポイントP2における画像種別のカテゴリ、カテゴリ、複数の周辺機器のステータス情報を含む。
メタ情報(P3)は、カテゴリが変化した場合に該当するもので、メタ情報(P3)における編集ポイントP3示す記号又はデータP3と、編集ポイントP3に対応した動画の記録時間と、編集ポイントP3における画像種別のカテゴリ、カテゴリ、複数の周辺機器のステータス情報を含む。
メタ情報(P4)等も同様のフォーマットのデータとなる。図7Dに示す例では、複数の周辺機器におけるステータスが変化した場合においても、画像種別が変化した場合においても、編集ポイントと共に、複数の周辺機器におけるステータス(動作状態)と、画像種別に関するメタ情報を生成している。
The meta information (P2) corresponds to the case where the status of the
The meta information (P3) corresponds to the case where the category changes, and the symbol or data P3 indicating the edit point P3 in the meta information (P3), the recording time of the moving image corresponding to the edit point P3, and the edit point P3. Includes image type category, category, and status information of multiple peripheral devices.
The meta information (P4) or the like is data in the same format. In the example shown in FIG. 7D, the status (operating state) of the plurality of peripheral devices and the meta information regarding the image type are displayed together with the editing point regardless of whether the statuses of the plurality of peripheral devices change or the image type changes. Is generated.
このようにして、ハードディスク34には、記録データを構成する動画ファイルを含むMP4等のファイルが記録されると共に、当該ファイルは画像の特徴量により分類された画像種別の情報と、手術の進行状況に応じて変化する複数の周辺機器のステータスの情報とを、少なくとも画像種別が変化する時間の編集ポイントと、ステータスが変化する時間の編集ポイントとに対応付けて記録している。実際には、ハードディスク34には、各編集ポイントに、画像の特徴量により分類された画像種別の情報と、複数の周辺機器のステータスの情報とを付加して記録するようにしている。
従って、ハードディスク34に記録された記録データに対して、抽出又は編集したいシーンの情報を例えばパッチパネル40から入力することにより、抽出又は編集したいシーンに該当する動画部分を簡単かつ短時間に抽出することができる。
抽出又は編集したいシーンを簡単に抽出する場合の動作に関しては、図12A〜図12Dを用いて後述する。
なお、図6に示す処理においては、処理手順としてステップS8において画像種別が変化したか否かの判定を行い、その後におけるステップS10においてステータスが変化したか否かの判定を行うようにしているが、ステータスが変化したか否かの判定を行った後に、画像種別が変化したか否かの判定を行うようにしても良い。
In this way, files such as MP4 including moving image files constituting recording data are recorded on the
Accordingly, by inputting the information of the scene to be extracted or edited from the recording data recorded on the
The operation when the scene to be extracted or edited is simply extracted will be described later with reference to FIGS. 12A to 12D.
In the processing shown in FIG. 6, as a processing procedure, it is determined whether or not the image type has changed in step S8, and then it is determined whether or not the status has changed in step S10. After determining whether or not the status has changed, it may be determined whether or not the image type has changed.
また、図8は図6におけるステップS7の処理の詳細を示す。
図8に示すように画像種別の判別処理が開始すると、最初のステップS21において画像判別部37は、画像解析部32により抽出された特徴量を、体腔内と体腔外とを判別する判別用特徴量と比較する。具体的には、図5において説明したように画像判別部37は、画像解析部32のヒストグラム解析回路32aにより抽出されたR,G,Bの画像の平均値間のずれ量が閾値(20)以上であるか否かの判定を行う。又は、画像判別部37は、R,G,Bの画像の平均値間のずれ量が、Rの平均値の1/10の値を閾値とした値以上であるか否かの判定を行う。又は、画像判別部37は、Rの画像の平均値がG,Bの画像の平均値と比較して、Rの平均値の1/10の値の閾値以上大きいか否かを判定する。
この判定結果に該当する場合には、ステップS22に示すように画像判別部37は、画像解析部32により抽出された特徴量の画像が体腔内のカテゴリの画像であると判別する。
FIG. 8 shows details of the processing in step S7 in FIG.
When the image type determination process starts as shown in FIG. 8, in the first step S <b> 21, the
When the determination result is satisfied, as shown in step S22, the
一方、上記判定結果が、閾値以上でなく、閾値未満となる場合には、ステップS23に示すように画像判別部37は、画像解析部32により抽出された特徴量の画像が体腔外のカテゴリの画像であると判別する。
体腔外のカテゴリの画像であると判別された場合には、次のステップS24において画像判別部37は、画像解析部32により抽出された特徴量の画像の画像信号が無信号レベルであるか否かを判定する。画像判別部37は、当該画像信号が無信号レベルを判別するための0レベルより僅かに大きい閾値レベル以下か否かを判定する。そして、当該画像信号が閾値レベル以下の場合にはステップS25において画像判別部37は当該画像を黒画(像)のサブカテゴリであると判定し、図8の処理を終了する。
閾値レベル以下でない判定結果の場合には、ステップS26において画像判別部37は、当該画像の色分布の値が少なくとも数フレーム以上の期間において一定で変化しないか否か、又はR,G,G平均値のずれ量が3/100以下で、少なくとも数フレーム以上の期間において一定で変化しないか否かを判定する。
On the other hand, when the determination result is not equal to or greater than the threshold value but less than the threshold value, the
If it is determined that the image is a category outside the body cavity, in the next step S24, the
In the case of a determination result that is not below the threshold level, in step S26, the
この判定結果に該当する場合にはステップS27において画像判別部37は、当該画像がカラーバーのサブカテゴリであると判定し、図8の処理を終了する。また、この判定結果に該当しない場合にはステップS28において画像判別部37は、当該画像がその他のサブカテゴリであると判定し、図8の処理を終了する。
上記ステップS22において体腔内のカテゴリと判別された場合には、ステップS29において画像判別部37は、画像解析部32のエッジ抽出回路32bにより抽出されたエッジが当該画像(当該画像全体)を左右又は上下に等分割するエッジ部分を含むか否かを判定する。
図9の(A)と(B)は、3D画像の場合のパターンを示し、3D画像は、左目画像となる第1の画像I1と右目画像となる第2の画像I2とは(A)のように左右、又は上下に隣接して画面(画像)全体を2等分するように同じサイズで表示される。
If the determination result is satisfied, the
If it is determined in step S22 that the category is a body cavity category, in step S29, the
FIGS. 9A and 9B show patterns in the case of a 3D image. The 3D image includes a first image I1 that is a left-eye image and a second image I2 that is a right-eye image. In this way, the entire screen (image) is displayed in the same size so as to be divided into two equal parts on the left and right or top and bottom.
そのために図9の画像においてエッジを抽出した場合、左右方向又は上下方向に等分割する第1の画像I1と第2の画像I2の境界線部分がエッジとして抽出される規則邸なパターンとなる。
従って、ステップS29において抽出されたエッジが当該画像全体を左右又は上下に等分割するエッジを含む規則的なパターンを含む判定結果の場合には、次のステップS30において画像判別部37は、当該画像が3D(画像)のサブカテゴリに該当すると判定する。一方、等分割するエッジを含まない判定結果の場合には、ステップS31において画像判別部37は、当該画像が2D(画像)のサブカテゴリに該当すると判定する。
ステップS30又はS31の処理後のステップS32において画像判別部37は、当該画像が直線的なエッジを含むか否かを判定する。直線的なエッジを含む片低結果の場合には、更に次のステップS33において画像判別部37は、規則的な一定パターンのエッジを含むか否かを判定する。この場合の規則的な一定パターンは、図10又は図11に示すように水平方向及び/又は垂直方向に延びる枠状のパターンを有するエッジ含むか否かを判定する。
For this reason, when an edge is extracted from the image of FIG. 9, the border line portion between the first image I1 and the second image I2 that are equally divided in the horizontal direction or the vertical direction is a regular pattern that is extracted as an edge.
Therefore, in the case where the edge extracted in step S29 is a determination result including a regular pattern including an edge that equally divides the entire image left and right or up and down, in the next step S30, the
In step S32 after the process of step S30 or S31, the
図10の(A)〜(D)は、合成画像を構成するPIPの場合の画像を示し、親画面となる第1の画像I1と第1の画像I1より小さい子画面となる第2の画像I2とからなり、第2の画像I2は、右下、右上、左上、左下の各隅において、例えば第1の画像I1における水平方向及び垂直方向の長さの1/2程度(1/2の値に限定されるものでない)に設定される。
図10の画像においてエッジを抽出した場合、画像における4隅のうちの1つの隅において第2の画像I2の水平方向及び垂直方向に延びる境界線部分がエッジとして抽出される。
また、図11の(A)〜(C)は、合成画像を構成するPOPの場合の画像を示し、1画面分の画像I(斜線で示す)は、第1の画像I1と第2の画像I2を内部に含み、第1の画像I1と第2の画像I2とは、水平方向(左右方向)に隣接して同じサイズ(A)、又は異なるサイズ(B)又は(C)で表示される。
(A) to (D) in FIG. 10 show images in the case of PIP that constitutes a composite image, and a first image I1 that is a parent screen and a second image that is a child screen smaller than the first image I1. The second image I2 includes, for example, about 1/2 of the length in the horizontal direction and the vertical direction in the first image I1 at the lower right, upper right, upper left, and lower left corners. Is not limited to a value).
When an edge is extracted from the image of FIG. 10, a boundary line portion extending in the horizontal direction and the vertical direction of the second image I2 is extracted as an edge at one of the four corners of the image.
11A to 11C show images in the case of a POP constituting a composite image, and an image I for one screen (shown by hatching) is a first image I1 and a second image. The first image I1 and the second image I2 are displayed in the same size (A) or different sizes (B) or (C) adjacent to each other in the horizontal direction (left-right direction). .
図11の画像においてエッジを抽出した場合、左右方向に隣接する第1の画像I1と第2の画像I2の境界線部分がエッジとして抽出される。
図10と図11とは明らかに境界部分のパターンが異なる。図10及び図11の境界部分のパターンの情報は、判別用特徴量(のエッジパターン)として判別用特徴量格納部36aに格納されており、画像判別部37は、抽出されたエッジを判別用特徴量格納部36aに格納された判別用特徴量(のエッジパターン)と比較してPIP又はPOP等の判別を行う。
ステップS33において規則的なパターンを有する判定結果の場合には、次のステップS34において画像判別部37は、規則的なパターンが4隅の1つを形成するものであるか否かを判定する。規則的なパターンが4隅の1つを形成する判定結果の場合には、ステップS35において画像判別部37は、規則的なパターンを有する当該画像がPIPのサブカテゴリに該当すると判定する。
When an edge is extracted from the image of FIG. 11, the boundary line portion between the first image I1 and the second image I2 adjacent in the left-right direction is extracted as an edge.
FIG. 10 and FIG. 11 clearly differ in the boundary pattern. 10 and 11 is stored in the discrimination feature quantity storage unit 36a as a discrimination feature quantity (edge pattern), and the
In the case of the determination result having a regular pattern in step S33, in the next step S34, the
一方、規則的なパターンが4隅の1つを形成しない判定結果の場合には、ステップS36において画像判別部37は、規則的なパターンを有する当該画像がPOPのサブカテゴリに該当すると判定する。
また、ステップS33において規則的なパターンでない判定結果の場合には、ステップS37において画像判別部37は、直線的なエッジパターンを有する画像が処置具を含む処置画像のサブカテゴリに該当すると判定する。
また、ステップS32において直線的なエッジを有しない判定結果の場合及び有する場合において、ステップS38に示すように画像判別部37は、当該画像が糸状のエッジを含む画像であるか否かの判定を行う。糸状のエッジを含む画像であると判定した場合には、ステップS39において画像判別部37は、当該画像が吻合(画像)のサブカテゴリに該当すると判別する。
On the other hand, if the determination result indicates that the regular pattern does not form one of the four corners, the
If the determination result is not a regular pattern in step S33, the
In addition, in the case where the determination result does not have a linear edge in step S32 and in the case where the determination result has it, the
なお、ステップS38の処理の処理により当該画像が吻合(画像)であるか否かの判別を行う場合、吻合糸の吻合するための動きの特徴的なパターンを予め判別用特徴量として登録しておき、複数のフレームの画像における糸状のエッジが登録された判別用特徴量に該当するか否かにより当該画像が吻合(画像)であるか否かを判別するようにしても良い。また、吻合を行う際の処置具の先端の特徴的なパターンを予め判別用特徴量として登録しておき、複数のフレームの画像における処置具の先端の動きが登録された判別用特徴量に該当するか否かにより当該画像が吻合(画像)であるか否かを判別するようにしても良い。
一方、ステップS38の処理において糸状のエッジを含まない画像の判別結果の場合にはステップS40において画像判別部37は、当該画像がその他(画像)のサブカテゴリに該当すると判別する。
When it is determined whether or not the image is an anastomosis (image) by the process of step S38, a characteristic pattern of movement for anastomosis of the anastomosis thread is registered in advance as a determination feature amount. Alternatively, whether or not the image is an anastomosis (image) may be determined based on whether or not the thread-like edge in the images of a plurality of frames corresponds to the registered determination feature amount. Also, a characteristic pattern at the tip of the treatment tool when performing anastomosis is registered in advance as a feature value for discrimination, and the motion of the tip of the treatment tool in a plurality of frames of images corresponds to the registered feature amount Whether or not the image is an anastomosis (image) may be determined depending on whether or not to do so.
On the other hand, in the case of the determination result of the image that does not include the thread-like edge in the process of step S38, the
上述した処置具、吻合糸の判別方法に限らず、例えばSIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Feature)といった一般に知られる局所特徴量の抽出・認識技術等を用い、過去の症例画像から(手術用鉗子を含む)処置具、吻合糸等のデバイスがある画像を学習データとして、予め画像種別データベース部36に判別用データベースを構築しておくようにしても良い。
そして、入力される判別対象となる画像から局所特徴量を抽出し、判別用データベースを用いた学習データとの比較を行うことで、処置具、吻合糸等のデバイスを判別するようにしても良い。また、上述したように判別の精度を向上するために、複数のフレームの画像に対する判別処理を行うようにしても良いし、画像種別を判別する場合に複数の周辺機器のステータスの情報を参照するようにしても良い。
ステップS35,S36,S37,S39、S40の処理の後、図8の処理を終了する。
Not only the above-mentioned treatment tools and anastomosis thread discrimination methods, but also past cases using commonly known local feature extraction / recognition techniques such as SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Feature) A discrimination database may be constructed in advance in the image
Then, a local feature amount is extracted from the input image to be discriminated, and a device such as a treatment instrument or anastomosis thread may be discriminated by comparing it with learning data using a discrimination database. . Further, as described above, in order to improve the accuracy of discrimination, discrimination processing may be performed on images of a plurality of frames, or status information of a plurality of peripheral devices is referred to when discriminating image types. You may do it.
After the processes of steps S35, S36, S37, S39, and S40, the process of FIG.
次に術者等のユーザが、ハードディスク34に記録された記録データから所望とするシーンの画像部分を抽出(又は検索)する場合の動作を図12A〜図12Dを用いて説明する。抽出する前のメニュー画面を図12Aに示す。このメニュー画面は、例えばタッチパネル40の操作/表示部40aに表示される。このメニュー画面においては、抽出前又は抽出後の画像の一覧を表示する画像一覧表示エリアA1には、録画を開始した時の画像の例えばサムネイル画像が表示され、その横に配置されたシーン抽出項目指定エリアA2にはシーン抽出を行う場合の項目を指定する複数のシーン抽出項目、具体的には画像種別を表すカテゴリ、サブカテゴリの項目と、周辺機器ステータスの項目とが表示される。図12Aにおける画像一覧表示エリアA1での表示例においては、P1からP14までの編集ポイントからなる14個の画像であることを模式的に示す。なお、図12A〜図12Dでは、編集ポイントPiを四角の枠で囲んで、その編集ポイントPiの画像であることを模式的に示している。
また、図12A〜図12Dにおいては、1つの周辺機器ステータスの項目のみを表示しているが、複数の周辺機器ステータスの項目を表示して、複数の周辺機器における任意の1つ又は複数のステータスの項目を指定できるようにしても良い。
Next, an operation when a user such as an operator extracts (or searches) an image portion of a desired scene from recorded data recorded on the
12A to 12D, only one peripheral device status item is displayed, but a plurality of peripheral device status items are displayed, and any one or more statuses in the plurality of peripheral devices are displayed. You may be allowed to specify the item.
図12Aのメニュー表示の初期状態においては、複数のシーン抽出項目は、いずれも指定無しの状態であり、ユーザは、例えばカテゴリの項目に対して、シーン抽出の指定を行うために、各項目内の例えば右側に配置された選択ボタンを操作する。選択ボタンの操作に対して、制御部39は、矢印で示すようにカテゴリにおいて指定可能な全指定項目を選択表示エリア(図12Aでは選択表示と略記)A3に表示する。
ユーザが例えば、体腔内の項目を指定すると、制御部39(のメタ情報検索部39a)は、体腔内の項目に該当する画像を、ハードディスク34に記録された記録データにおけるメタ情報から検索し、図12Bに示すように画像一覧表示エリアA1に検索に該当する編集ポイントの時間の画像のサムネイル画像を表示するように制御する。図7Aの例に適用した場合には、編集ポイントP3〜P13(のタイミング又は時間)の13個のサムネイル画像が表示される。なお、数が多い場合には一部を重ねる等して表示しても良い。
In the initial state of the menu display of FIG. 12A, all of the plurality of scene extraction items are in an unspecified state. For example, in order to specify scene extraction for a category item, For example, the selection button arranged on the right side is operated. In response to the operation of the selection button, the
For example, when the user designates an item in the body cavity, the control unit 39 (the meta
さらに、図12Bの状態において、ユーザがサブカテゴリの項目として処置を指定すると、制御部39は、カテゴリが体腔内で、更にサブカテゴリが処置に該当する画像を記録データにおけるメタ情報から検索し、図12Cに示すように画像一覧表示エリアA1に検索に該当する編集ポイントの時間の画像のサムネイル画像を表示する。
図7Aの例に適用した場合には、編集ポイントP5〜P13のサムネイル画像が表示される。図12Cの状態において、機器ステータスとして電気メス装置ONの指定を行うと、制御部39は、カテゴリが体腔内で、サブカテゴリが処置、電気メス装置ONの機器ステータスに該当する画像を記録データにおけるメタ情報から検索し、図12Dに示すように画像一覧表示エリアA1に検索に該当する編集ポイント(の時間)の画像のサムネイル画像を表示する。図7Aの例に適用した場合には、編集ポイントP6、P10のサムネイル画像が表示される。
図12A〜図12Dで説明した場合に限らず、例えば、体腔内における電気メス17により処置を行っているシーンを抽出しようとする場合には、電気メス装置7の出力ONのステータスの情報を入力することにより、編集ポイントP6、P10の動画ファイルを簡単に抽出することができる。更に、切開モードや凝固モードの情報を追加することにより、その一方の動画ファイルを抽出することもできる。
Further, in the state of FIG. 12B, when the user designates a treatment as a subcategory item, the
When applied to the example of FIG. 7A, thumbnail images of edit points P5 to P13 are displayed. In the state of FIG. 12C, when the electric knife device ON is designated as the device status, the
12A to 12D, for example, when extracting a scene in which treatment is performed by the
また、図7Aにおいては、電気メス17を用いて処置を行った例を示しているが、吻合糸を用いた吻合のサブカテゴリの場合や、PIP/POPの合成画像のサブカテゴリの場合も分類できるので、各種の手術を行った場合にも抽出又は編集したいシーンに該当する動画部分を簡単かつ短時間に抽出することができる。
このように動作する本実施形態によれば、所望とするシーンの画像を簡単に抽出することができる。より具体的には、ユーザが抽出(又は検索又は編集)しようと望むシーンに該当する画像種別や、当該シーンにおける複数の周辺機器のステータス(動作状態)の情報を指定することにより、指定された条件に合致する画像部分(の開始画像)を表示することができるようにしているので、所望とするシーンの画像を簡単に抽出することができる。
FIG. 7A shows an example in which treatment is performed using the
According to this embodiment that operates as described above, an image of a desired scene can be easily extracted. More specifically, it is specified by specifying the image type corresponding to the scene that the user wants to extract (or search or edit) and the status (operation state) information of a plurality of peripheral devices in the scene. Since the image portion (starting image) that matches the conditions can be displayed, an image of a desired scene can be easily extracted.
なお、図6においては、画像の種別の変化と、複数の周辺機器のステータス変化とを判定する処理を含むフローチャートを示しているが、例えばタッチパネル40からの選択指示により、この場合には、図6におけるステップS2,ステップS10〜S11を省いた図13に示す処理を行うようにしても良い。
また、図2に示す構成において、例えば画像判別部37が制御部39の機能を含む(又は兼ねる)構成にしたり、制御部39が画像判別部37の機能を含む(又は兼ねる)構成に変更しても良い。
また、本明細書において開示された範囲内の構成要素の中から、一部の構成要素、又は一部の開示内容を抽出して請求項を生成しても良い。
6 shows a flowchart including processing for determining a change in image type and a status change of a plurality of peripheral devices. In this case, for example, in response to a selection instruction from the
In addition, in the configuration shown in FIG. 2, for example, the
Further, a part of the constituent elements or a part of the disclosed contents may be extracted from the constituent elements within the scope disclosed in the present specification to generate a claim.
1…内視鏡システム、3…患者、4…内視鏡、5…光源装置、6…プロセッサ、7…電気メス装置、8…気腹装置、9…モニタ、10…画像記録装置、11…トロリ、12…挿入部、16…トラカール、17…電気メス、22…撮像素子、24…切替スイッチ、25a〜25e…通信線、31…画像信号入力部、32…画像解析部、33…記録データ生成部、34…ハードディスク、35…画像信号出力部、36…画像種別データベース部、37…画像判別部、38…通信部、39…制御部、40…タッチパネル、41…保存先切替部
DESCRIPTION OF
Claims (9)
前記画像信号入力部に入力された前記画像信号における画像の特徴量を抽出する画像解析部と、
入力される前記画像信号の前記画像に対して予め手術の進行状況に応じた画像種別毎に判別用特徴量と関連付けた複数の画像種別のデータベースを蓄積する画像種別データベース部と、
前記画像解析部により抽出された前記特徴量の画像に対して前記画像種別データベース部における該当する画像種別を判別する画像判別部と、
前記画像判別部の判別結果により判別された前記画像種別の変化に対応して、変化したタイミングの前記画像信号を特定するための編集ポイント及び前記画像信号に関連する第1のメタ情報を、前記画像信号に付加して記録するための記録データを生成する記録データ生成部と、
前記記録データ生成部により生成された前記画像信号、前記編集ポイント及び前記第1のメタ情報を含む前記記録データを記録する記録部と、
前記手術の際に利用される複数の周辺機器の動作状態の情報が入力される情報入力部と、
前記情報入力部に入力された情報から、該情報に該当する前記複数の周辺機器の各動作状態を判別する状態判別部と、
前記状態判別部の判別結果の変化に対応した前記編集ポイント及び前記状態判別部の判別結果が変化したタイミングの前記複数の周辺機器に関連する第2のメタ情報を前記画像信号に付加して、前記記録部に記録するように制御する制御部と、
を備えることを特徴とする画像記録装置。 An image signal input unit to which an image signal is input;
An image analysis unit that extracts a feature amount of an image in the image signal input to the image signal input unit;
An image type database unit that stores a database of a plurality of image types associated with feature amounts for discrimination for each image type corresponding to the progress of surgery for the image of the input image signal;
An image discriminating unit that discriminates a corresponding image type in the image type database unit with respect to the image of the feature amount extracted by the image analysis unit;
Corresponding to the change of the image type determined by the determination result of the image determination unit, the editing point for specifying the image signal at the changed timing and the first meta information related to the image signal, A recording data generation unit for generating recording data to be recorded in addition to the image signal;
A recording unit that records the recording data including the image signal, the editing point, and the first meta information generated by the recording data generation unit;
An information input unit for inputting information on operation states of a plurality of peripheral devices used in the operation;
A state determination unit for determining each operation state of the plurality of peripheral devices corresponding to the information from the information input to the information input unit;
Adding the second meta information related to the plurality of peripheral devices at the timing when the edit result corresponding to the change in the determination result of the state determination unit and the determination result of the state determination unit has changed, to the image signal; A control unit that controls to record in the recording unit;
An image recording apparatus comprising:
前記画像判別部は、前記ヒストグラム解析回路により抽出された第1の特徴量と前記エッジ抽出回路により抽出された第2の特徴量が、予め前記画像種別データベース部に格納されている前記複数の画像種別に対応付けた判別用特徴量と比較することにより、該当する画像種別を判別することを特徴とする請求項1に記載の画像記録装置。 The image analysis unit includes a histogram analysis circuit that extracts a feature amount of the image from a pixel histogram in an R, G, B color component image of the input image signal, an edge extraction circuit that extracts an edge of the image, Have
The image determination unit includes the plurality of images in which the first feature amount extracted by the histogram analysis circuit and the second feature amount extracted by the edge extraction circuit are stored in the image type database unit in advance. The image recording apparatus according to claim 1, wherein a corresponding image type is determined by comparison with a determination feature amount associated with the type.
前記記録部に記録された前記記録データから前記指定部により指定された画像種別と指定された動作状態に合致する条件のメタ情報を検索するメタ情報検索部と、
検索された前記メタ情報に該当する画像部分の情報を表示する表示部と、
を有することを特徴とする請求項1に記載の画像記録装置。 Further, for the recording unit, a designation unit that performs designation of the image type and designation of an arbitrary operation state in the plurality of peripheral devices;
A meta information retrieval unit that retrieves meta information of a condition that matches the image type designated by the designation unit and the designated operation state from the recording data recorded in the recording unit;
A display unit that displays information of an image portion corresponding to the searched meta information;
The image recording apparatus according to claim 1, further comprising:
更に、前記制御部は、前記状態判別部による判別結果が変化した場合、前記第2のメタ情報として、該第2のメタ情報が生成されたタイミングにおける前記画像判別部により判別された画像種別に関する情報を含む第4のメタ情報を前記記録部に記録するように制御することを特徴とする請求項1に記載の画像記録装置。
The recording data generation unit generates, as the first meta information, third meta information including information on each operation state of the plurality of peripheral devices at a timing when the first meta information is generated, The recording unit records the third meta information,
Furthermore, the control unit relates to an image type determined by the image determination unit at a timing when the second meta information is generated as the second meta information when the determination result by the state determination unit is changed. The image recording apparatus according to claim 1, wherein control is performed so that fourth meta information including information is recorded in the recording unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014130620A JP6192602B2 (en) | 2014-06-25 | 2014-06-25 | Image recording device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014130620A JP6192602B2 (en) | 2014-06-25 | 2014-06-25 | Image recording device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016007444A JP2016007444A (en) | 2016-01-18 |
JP6192602B2 true JP6192602B2 (en) | 2017-09-06 |
Family
ID=55225462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014130620A Active JP6192602B2 (en) | 2014-06-25 | 2014-06-25 | Image recording device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6192602B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6834184B2 (en) | 2016-06-16 | 2021-02-24 | ソニー株式会社 | Information processing device, operation method of information processing device, program and medical observation system |
JP6608111B2 (en) | 2016-09-28 | 2019-11-20 | 富士フイルム株式会社 | MEDICAL IMAGE STORAGE / REPRODUCING DEVICE AND METHOD, AND PROGRAM |
WO2018163644A1 (en) * | 2017-03-07 | 2018-09-13 | ソニー株式会社 | Information processing device, assist system, and information processing method |
JP7091349B2 (en) * | 2017-09-07 | 2022-06-27 | 富士フイルム株式会社 | Diagnosis support system, endoscopy system, processor, and how to operate the diagnosis support system |
JP2019161643A (en) * | 2018-03-08 | 2019-09-19 | 株式会社リコー | Tamper protection and video source identification for video processing pipeline |
JP6426867B1 (en) * | 2018-03-30 | 2018-11-21 | 株式会社ミルプラトー | Video viewing apparatus, control method for video viewing apparatus, and program |
CN111937377B (en) * | 2018-04-09 | 2022-06-21 | 奥林巴斯株式会社 | Endoscope service support system, endoscope service support method, and recording medium |
JP2021164490A (en) * | 2018-04-10 | 2021-10-14 | オリンパス株式会社 | Medical system |
GB2612246B (en) * | 2018-10-03 | 2023-08-30 | Cmr Surgical Ltd | Automatic endoscope video augmentation |
JP2019185726A (en) * | 2018-10-25 | 2019-10-24 | 株式会社ミルプラトー | Video browsing device, control method of video browsing device, and program |
WO2020110218A1 (en) | 2018-11-28 | 2020-06-04 | オリンパス株式会社 | Medical image recording control system |
JP7495063B2 (en) | 2021-05-21 | 2024-06-04 | 富士フイルム株式会社 | Endoscope system and method of operation thereof |
CN114565881B (en) * | 2022-04-28 | 2022-07-12 | 成都与睿创新科技有限公司 | Method and system for distinguishing different scenes inside and outside body cavity |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005124824A (en) * | 2003-10-23 | 2005-05-19 | Olympus Corp | Operation supporting system |
JP4007954B2 (en) * | 2003-11-04 | 2007-11-14 | オリンパス株式会社 | Image processing apparatus, method, and program |
JP2005348797A (en) * | 2004-06-08 | 2005-12-22 | Olympus Corp | Medical practice recording system and medical practice recording device |
JP4537803B2 (en) * | 2004-08-27 | 2010-09-08 | オリンパス株式会社 | Image display device |
JP5098253B2 (en) * | 2006-08-25 | 2012-12-12 | コニカミノルタエムジー株式会社 | Database system, program, and report search method |
JP4305483B2 (en) * | 2006-09-12 | 2009-07-29 | ソニー株式会社 | Video signal generating device, video signal receiving device, and video signal generating / receiving system |
JP5296396B2 (en) * | 2008-03-05 | 2013-09-25 | オリンパスメディカルシステムズ株式会社 | In-vivo image acquisition device, in-vivo image receiving device, in-vivo image display device, and noise removal method |
JP5467295B2 (en) * | 2009-01-06 | 2014-04-09 | 学校法人東京電機大学 | Surgery information real-time acquisition and analysis system and method in endoscopic surgery |
JP2011036372A (en) * | 2009-08-10 | 2011-02-24 | Tohoku Otas Kk | Medical image recording apparatus |
JP2013003737A (en) * | 2011-06-14 | 2013-01-07 | Olympus Medical Systems Corp | Medical information recording and outputting device |
-
2014
- 2014-06-25 JP JP2014130620A patent/JP6192602B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016007444A (en) | 2016-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6192602B2 (en) | Image recording device | |
US11107571B2 (en) | Information processing apparatus, information processing method, program, and medical observation system | |
US9186041B2 (en) | Medical information recording apparatus that determines medical scene or changing of medical scene, synthesizes images obtained by medical equipment, and records synthesized image | |
US7940967B2 (en) | Medical procedure support system and method | |
JP6663571B2 (en) | Endoscope image processing apparatus, method of operating endoscope image processing apparatus, and program | |
JP2009247434A (en) | Operation system | |
JP2011036371A (en) | Medical image recording apparatus | |
CN112566540A (en) | Processor for endoscope, information processing device, endoscope system, program, and information processing method | |
WO2019198322A1 (en) | Medical treatment system | |
JP2004147778A (en) | Image processor and endoscope image processor | |
CN110741334A (en) | Display control apparatus, display control method, and display control program | |
JP7562193B2 (en) | Information processing device, information processing method, and computer program | |
JP2024514638A (en) | Intraoperative display for surgical systems | |
US20210295980A1 (en) | Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium | |
JP5010778B2 (en) | Endoscopic surgery system | |
US20070083480A1 (en) | Operation information analysis device and method for analyzing operation information | |
US20220148209A1 (en) | Medical system, signal processing device, and signal processing method | |
JP2019170667A (en) | Intubation system | |
JP7147890B2 (en) | Information processing system, information processing method and program | |
JP2006288956A (en) | Surgery system | |
JP2007133513A (en) | Operation information analysis system | |
JP7200353B2 (en) | Centralized control device, setting method and centralized control system | |
JP2004357789A (en) | Subject observation system and control method for subject observation system | |
JP2003164464A (en) | Medical treatment system control device | |
WO2024104926A1 (en) | A medical control system, method and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170808 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6192602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |