JP2005348797A - Medical practice recording system and medical practice recording device - Google Patents

Medical practice recording system and medical practice recording device Download PDF

Info

Publication number
JP2005348797A
JP2005348797A JP2004169964A JP2004169964A JP2005348797A JP 2005348797 A JP2005348797 A JP 2005348797A JP 2004169964 A JP2004169964 A JP 2004169964A JP 2004169964 A JP2004169964 A JP 2004169964A JP 2005348797 A JP2005348797 A JP 2005348797A
Authority
JP
Japan
Prior art keywords
medical practice
medical
surgeon
detection
recording system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004169964A
Other languages
Japanese (ja)
Inventor
Nobuyuki Hirai
信行 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004169964A priority Critical patent/JP2005348797A/en
Publication of JP2005348797A publication Critical patent/JP2005348797A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To compile moving images of medical practice after the medical practice with as little time and efforts of a user as possible, and to make the moving images of the medical practice easily handleable. <P>SOLUTION: The medical practice recording system for recording medical practice of an operator in the medical site comprises a video camera 11 for capturing images of the operation of the operator 1 performing the medical practice, a recording part 12 structured to record prescribed auxiliary information according to a command from outside, together with the moving images of the medical practice captured by the video camera 11, a detection part 13 including the space between the operator 1 and an assistant 2 for assisting the operator in a detection range for detecting the change of the state within the detection range, and a control part 14 for preparing the auxiliary information based on the result of detection of the detection part 13 and commanding the recording part 12 to record the auxiliary information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、医療現場における術者の医療行為を記録する医療行為記録システム及び医療行為記録装置に関する。   The present invention relates to a medical practice recording system and a medical practice recording apparatus for recording a medical practice of an operator in a medical field.

近年、医療分野において、画像が利用される機会が増加している。例えば、手術室の中では、顕微鏡画像や内視鏡画像が記録され、手術後の検討、教育などに使用されている。あるいは、手術室で患部を処置している動画像(映像)をビデオレコーダで全て記録する試みも始まっている。   In recent years, opportunities for using images in the medical field are increasing. For example, in an operating room, microscopic images and endoscopic images are recorded and used for post-surgery studies and education. Alternatively, an attempt to record all moving images (videos) treating an affected part in an operating room with a video recorder has started.

具体的には、非特許文献1では、鉗子等の手術処置具にセンサを取り付けて手術時の処置具の位置姿勢を測定し、その位置姿勢情報も術野の画像、音声と共に記録している。   Specifically, in Non-Patent Document 1, a sensor is attached to a surgical instrument such as forceps to measure the position / posture of the surgical instrument during surgery, and the position / posture information is also recorded together with the image and sound of the surgical field. .

また、非特許文献2に開示されているように、モニタリング情報、術野映像などを同一時間軸で統合して記録する試みがなされている。   In addition, as disclosed in Non-Patent Document 2, an attempt is made to integrate and record monitoring information, surgical field images, and the like on the same time axis.

手術時に記録された動画像は、術後に編集を加えられ、手術記録として医師の症例検討などでも必須のものとなっている。また、近年増加する医療過誤に関する問題に関連して、手術を受けた患者に対し、医師による処置が妥当であったことを証明するため、希望により公開する病院も増えつつある。あるいは、経験の浅い医師が術式を学び、手術手技を向上させるための資料としても非常に有用である。
「サージェリーレコーディングシステムの提案と試作」、生田幸士他、J JSCAS、vol.4、no.2、2002 「手術イベントレコーダの開発」、苗村潔他、J JSCAS、vol.3、no.3、2001
The moving image recorded at the time of the operation is edited after the operation, and it is indispensable as a surgical record in a case study of a doctor. In addition, in relation to the problems related to medical errors that have been increasing in recent years, hospitals that are open to the public in hopes are increasing in order to prove that treatment by doctors was appropriate for patients undergoing surgery. Alternatively, it is very useful as a material for inexperienced doctors to learn surgical techniques and improve surgical techniques.
“Proposal and Prototype of Surgery Recording System”, Yuki Ikuta et al., J JSCAS, vol.4, no.2, 2002 "Development of surgical event recorder", Kiyoshi Naemura et al., J JSCAS, vol.3, no.3, 2001

上記のように動画像を撮影後に利用するためには、その長時間にわたる動画像の編集を行わなければならない。しかしながら、現状ではこの作業を手作業で、つまり、執刀した医師(術者)を含む手術に関わるスタッフ(補助者)が、編集装置により一々動画像をチェックしながら行っており、多大な時間とコストがかかっている。そのため、手術中に手術スタッフにより、動画像の重要部分にタグ付けして利用時の手間を省く方法が考えられているが、手動によるタグ付け時に手間がかかり煩雑である。   In order to use a moving image after shooting as described above, the moving image must be edited over a long period of time. However, at present, this operation is performed manually, that is, the staff (assistant) involved in the operation including the doctor (surgeon) who performs the operation is checking the moving image one by one with the editing device, and it takes a lot of time. There is a cost. For this reason, a method has been considered in which the operation staff tags the important part of the moving image during the operation and saves the trouble of using it. However, it is troublesome and troublesome during manual tagging.

同時に、医療行為の記録という観点から、医療処置、例えば手術室内における医師の医療行為の記録は、人手により行われている。これらの記録を自動化したいという要求がある。   At the same time, from the viewpoint of recording medical practice, medical procedures, for example, recording of medical practice of a doctor in an operating room, are performed manually. There is a demand to automate these records.

また、上述のようにビデオ画像に対する知的処理の研究が進んでいる。   In addition, as described above, research on intelligent processing for video images is progressing.

上記非特許文献2では、手術室内に分散しているモニタ、映像情報を一箇所に集めることで、手術関連情報のデータ集約、時系列を統一して記録している。しかしながら、情報が時系列に沿って統合されているのみであり、術者がどの時点でどのような処置を行ったかはわからない。このため、術後に利用する場合にも、重要な部分の判別に時間がかかる。   In the said nonpatent literature 2, the data disperse | distributed and time series of surgery relevant information are unified and recorded by collecting the monitor and image | video information which are disperse | distributed in the operating room in one place. However, the information is only integrated in chronological order, and it is not known what kind of treatment the surgeon performed at what point. For this reason, it takes time to discriminate important parts even when it is used after surgery.

また、上記非特許文献1では、画像を記録する際に、鉗子等の手術処置具の位置姿勢情報を時系列で記録することで、その処置具操作の技量をデータ化し、さらに術者の視覚情報と音声情報からのコメントを追加して記録するようにしている。しかしながら、この方法によった場合、術者のみの行為である処置具操作の位置姿勢情報だけが、その術者の行為を検出する手段になっており、情報量が限られ、複雑な特徴は抽出できない。また、術者が行っている、まさにその時点での位置姿勢情報が記録されているため、ある時点までの鉗子の移動記録に基づき、次の時点での危険性をリアルタイムに予測するなどの処理は不可能である。   In Non-Patent Document 1, when recording an image, the position and orientation information of a surgical instrument such as forceps is recorded in time series, so that the skill of operating the instrument is converted into data, and the operator's vision is further visualized. Comments from information and audio information are added and recorded. However, according to this method, only the position / posture information of the treatment tool operation that is an action of the surgeon is a means for detecting the action of the surgeon, the amount of information is limited, and the complicated features are It cannot be extracted. In addition, because the position and orientation information at that time is recorded by the surgeon, processing such as predicting the risk at the next time in real time based on the movement record of the forceps up to a certain time Is impossible.

本発明は、上記の点に鑑みてなされたもので、医療行為後に、できる限りユーザの手間をかけず医療行為の動画像の編集が行え、医療行為の動画像を扱い易い状態にする医療行為記録システム及び医療行為記録装置を提供することを目的とする。   The present invention has been made in view of the above points, and after a medical act, a medical act that can edit a moving image of the medical act as much as possible without making the user's effort as much as possible and make the moving image of the medical act easy to handle. An object is to provide a recording system and a medical practice recording apparatus.

本発明の医療行為記録システムの一態様は、医療現場における術者の医療行為を記録する医療行為記録システムにおいて、
医療行為を行う術者の処置を撮影するカメラと、
上記カメラで撮影された医療行為の時系列画像群(動画像)と共に、外部からの指示に応じて所定の補助情報を記録するよう構成された記録手段と、
術者と該術者を補助する補助者との間を検出領域に含み、当該検出領域内の状態の変化を検出する検出手段と、
上記検出手段の検出した結果に基づいて上記補助情報を作成し、その補助情報の記録を上記記録手段に指示する制御手段と、
を具備することを特徴とする。
One aspect of the medical practice recording system of the present invention is a medical practice recording system for recording a medical practice of an operator at a medical site,
A camera that captures the treatment of the surgeon performing the medical procedure;
A recording unit configured to record predetermined auxiliary information in accordance with an instruction from the outside, together with a time-series image group (moving image) of medical actions taken by the camera,
A detection means for detecting a change in a state in the detection area, including a surgeon and an assistant who assists the surgeon in the detection area;
Control means for creating the auxiliary information based on the detection result of the detection means and instructing the recording means to record the auxiliary information;
It is characterized by comprising.

また、本発明の医療行為記録装置の一の態様は、医療現場における術者の医療行為を記録する医療行為記録装置において、
医療行為を行う術者と該術者を補助する補助者との間を検出領域に含み、当該検出領域内の状態の変化を検出する検出手段と、
上記検出手段の検出した結果に基づいて上記補助情報を作成し、その補助情報を、上記術者の処置を撮影して得られた時系列画像群に関連付けて記録する記録手段と、
を具備することを特徴とする。
Moreover, one aspect of the medical practice recording apparatus of the present invention is a medical practice recording apparatus that records a medical practice of an operator at a medical site,
A detection means for detecting a change in a state in the detection region, including a region between a surgeon performing a medical practice and an assistant assisting the operator in a detection region;
The auxiliary information is created based on the detection result of the detection means, and the auxiliary information is recorded in association with a time-series image group obtained by photographing the surgeon's treatment;
It is characterized by comprising.

本発明によれば、医療行為後に、できる限りユーザの手間をかけず医療行為の時系列画像群の編集が行えるように、術者と補助者を含む領域内の状態変化に基づいて補助情報を作成し、それをインデックスとして医療行為の時系列画像群に対し半自動的にタグ付けすることにより、医療行為の時系列画像群を扱い易い状態にすることが可能な医療行為記録システム及び医療行為記録装置を提供することができる。   According to the present invention, after the medical practice, the auxiliary information is obtained based on the state change in the region including the surgeon and the assistant so that the time series image group of the medical practice can be edited without taking the user as much as possible. Medical action recording system and medical action record capable of making medical action time series images easy to handle by creating and semi-automatically tagging medical action time series images as an index An apparatus can be provided.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

[第1実施形態]
図1(A)は、本発明の第1実施形態に係る医療行為記録システムの構成を示す図である。
[First Embodiment]
FIG. 1A is a diagram showing a configuration of a medical practice recording system according to the first embodiment of the present invention.

本実施形態に係る医療行為記録システムは、医療現場における術者の医療行為、例えば手術室における手術作業を記録するものである。この医療行為記録システムは、医療行為を行う術者1(医師)の処置を撮影するカメラ11と、このカメラ11で撮影された医療行為の動画像と共に、外部からの指示に応じて所定の補助情報を記録するよう構成された記録部12(ビデオテープレコーダ,ハードディスクレコーダ,又はDVDレコーダ)と、上記術者1と該術者を補助する補助者2(看護師等の手術スタッフ)との間を検出領域に含み、当該検出領域内の状態の変化を検出する検出部13と、この検出部13の検出した結果に基づいて上記補助情報を作成し、その補助情報の記録を上記記録部12に指示する制御部14と、から構成される。   The medical practice recording system according to the present embodiment records a medical practice of an operator at a medical site, for example, a surgical operation in an operating room. This medical practice recording system includes a camera 11 that captures the treatment of a surgeon 1 (doctor) who performs a medical practice, a moving picture of the medical practice photographed by the camera 11, and predetermined assistance according to instructions from the outside. Between a recording unit 12 (video tape recorder, hard disk recorder, or DVD recorder) configured to record information, and the surgeon 1 and an assistant 2 (surgical staff such as a nurse) who assists the surgeon. Is detected in the detection area, and the auxiliary information is created based on the detection result of the detection section 13 and the detection section 13 detects the change, and the recording of the auxiliary information is recorded in the recording section 12. And a control unit 14 for instructing.

なおここで、カメラ11で撮影された動画像は、時系列に取得された画像間の間隔がより疎である、あるいは不定期であるような時系列画像群であっても良い。   Here, the moving image captured by the camera 11 may be a time-series image group in which intervals between images acquired in time series are more sparse or irregular.

このような医療行為記録システムでは、図2(A)に示された処理手続きに従い処理が行われる。   In such a medical practice recording system, processing is performed according to the processing procedure shown in FIG.

即ち、まず、医療行為を行う術者1の処置を撮影するカメラ11により、術者1が行う医療行為が撮影され、その撮影された動画像が記録部12に送信されて記録される(ステップS10)。また、特に図示はしていないが、手術用顕微鏡で得られた画像も記録しても良い。この場合、カメラ動画像と手術用顕微鏡画像とは同一のタイムチャートにより記録部12に記録されるが、トリガとなる同期信号をそれぞれの情報に付加すれば、時間の記録が付いていなくても構わない。   That is, first, a medical action performed by the operator 1 is photographed by the camera 11 that photographs the treatment of the surgeon 1 performing the medical action, and the photographed moving image is transmitted to the recording unit 12 and recorded (step). S10). Although not specifically shown, an image obtained with a surgical microscope may also be recorded. In this case, the camera moving image and the surgical microscope image are recorded in the recording unit 12 by the same time chart. However, if a synchronization signal serving as a trigger is added to each information, the time record is not attached. I do not care.

次に、術者1と補助者2との間を検出領域に含み当該領域内の状態の変化を検出する検出部13により、術者1と補助者2との間の状態の変化3が検出され、その検出結果が検出情報として制御部14に送信される(ステップS20)。   Next, the state change 3 between the surgeon 1 and the assistant 2 is detected by the detection unit 13 that includes the area between the surgeon 1 and the assistant 2 in the detection region and detects the change in the state in the region. Then, the detection result is transmitted to the control unit 14 as detection information (step S20).

制御部14は、この検出情報を受信し、その検出情報に基づいて、検出可能な補助情報を作成する(ステップS30)。そして、その作成した補助情報の記録を記録部12に指示する(ステップS40)。   The control unit 14 receives this detection information and creates detectable auxiliary information based on the detection information (step S30). Then, the recording unit 12 is instructed to record the created auxiliary information (step S40).

以下、具体的な実現方法について説明する。   Hereinafter, a specific implementation method will be described.

手術一般を考えた場合、術中の患者4への処置は、主に術者1が行い、その際には処置具5を用いる。手術室内の滅菌環境の関係から、図2(B)に示すように、通常、術者1及び補助者2は滅菌された手術着6及び手袋7を着用し、また処置具5は滅菌された布ドレープ(処置具置き場8)の上に置かれている。通常、これら手術着6,手袋7,及び処置具置き場8はそれぞれ所定の色(手術着6は青色、手袋7は肌色、処置具置き場8は緑色、等)をしており、そのため、後述の色情報による画像抽出処理などを容易に行うことができる。   In consideration of general surgery, the surgeon 1 mainly performs treatment on the patient 4 during the operation, and the treatment tool 5 is used at that time. In view of the sterilization environment in the operating room, as shown in FIG. 2 (B), the operator 1 and the assistant 2 usually wear sterilized surgical clothes 6 and gloves 7 and the treatment tool 5 is sterilized. It is placed on a cloth drape (treatment device storage 8). Usually, the surgical gown 6, gloves 7 and treatment tool storage 8 are each of a predetermined color (the surgical gown 6 is blue, the glove 7 is skin color, the treatment tool storage 8 is green, etc.). Image extraction processing based on color information can be easily performed.

処置具5は術者1が直接、処置具置き場8より選択するか、あるいは術者1が補助者2に指示を出し、補助者2より術者1に受け渡される。本実施形態では、この点に注目し、処置具5及び処置具を取り巻く処置具置き場8、術者1及び処置具出しを行う補助者2の手の動きに注目し、画像で記録した術者1と補助者2との間の領域から画像処理により、手の動き及び処置具5に関する状態の変化3を検出するようにしている。   The surgeon 1 selects the treatment tool 5 directly from the treatment tool place 8, or the surgeon 1 gives an instruction to the assistant 2 and is handed over from the assistant 2 to the surgeon 1. In this embodiment, paying attention to this point, paying attention to the movements of the treatment tool 5 and the treatment tool place 8 surrounding the treatment tool, the surgeon 1 and the assistant 2 who performs the treatment tool removal, the surgeon recorded as an image. The movement 3 of the hand and the state change 3 relating to the treatment instrument 5 are detected by image processing from the area between 1 and the assistant 2.

即ち、処置具5は処置具置き場8に整列されているものとしたとき、処置具5をめぐり術者1及び補助者2が行う手順は、例外は考えられるが、次の手順が大きな割合を占める。   In other words, when the treatment instrument 5 is aligned with the treatment instrument storage place 8, there are exceptions to the procedure performed by the surgeon 1 and the assistant 2 over the treatment instrument 5, but the next procedure has a large proportion. Occupy.

手順1.術者1が必要な処置具5を口頭で指示する。     Procedure 1. The surgeon 1 verbally indicates the necessary treatment tool 5.

手順2.補助者2が適切な処置具5を処置具置き場8から選択する。     Procedure 2. The assistant 2 selects an appropriate treatment tool 5 from the treatment tool place 8.

手順3.補助者2が術者1に処置具5を渡す。     Procedure 3. The assistant 2 gives the treatment tool 5 to the surgeon 1.

手順4.渡された処置具5で術者1が処置を行う。     Procedure 4. The surgeon 1 performs treatment with the delivered treatment tool 5.

手順5.処置具5を補助者2に返却し、1.に戻る。     Procedure 5. Return the treatment tool 5 to the assistant 2 and Return to.

術者1と補助者2の間を記録した画像から術者1の処置を推定するには、これら手順1.〜手順5.の流れの中で、上記手順3.〜手順5.の間に術者1が処置具5を持っている、即ち術者1による処置が行われていることを特定すれば良い。処置が行われていることを判定するには上記手順3.及び手順5.が行われたことを判定すれば良い。   In order to estimate the treatment of the surgeon 1 from the images recorded between the surgeon 1 and the assistant 2, the procedure 1. ~ Procedure 5 In the above flow, the above procedure 3. ~ Procedure 5 It is only necessary to specify that the surgeon 1 has the treatment tool 5 during the period, that is, the treatment by the surgeon 1 is being performed. To determine whether the treatment is being performed, the above procedure 3. And procedure 5. What is necessary is just to determine that has been performed.

これらの判定のために、本医療行為記録システムでは、検出部13をカメラ131及び状態変化検出装置132で構成し、まず、カメラ131によって、術者1と補助者2との間の検出領域を撮影する。状態変化検出装置132では、そのカメラ131によって撮影された検出領域の動画像から、処置具5、術者1及び補助者2の手、処置具置き場8などの状態の変化3を検出し、検出情報を制御部14に送信する。そして、制御部14は、その検出情報から、処置具5が上記手順1.から手順5.の何れの状況にあるかを推定し、処置が行われたとき、つまり上記手順3.又は手順5.が行われたときに、検出可能な補助情報を作成する。   In order to make these determinations, in the medical practice recording system, the detection unit 13 includes the camera 131 and the state change detection device 132. First, a detection area between the operator 1 and the assistant 2 is detected by the camera 131. Take a picture. The state change detection device 132 detects a change 3 in the state of the treatment tool 5, the hands of the surgeon 1 and the assistant 2, the treatment tool place 8, and the like from the moving image of the detection area captured by the camera 131. Information is transmitted to the control unit 14. Then, the control unit 14 determines that the treatment tool 5 has the procedure 1. To Step 5. When the treatment is performed, that is, in the above procedure 3. Or procedure 5. When this is done, auxiliary information that can be detected is created.

本実施形態では、検出可能な補助情報を上記のような手続きにより作成している。以下、これらのアルゴリズムの詳細を説明する。   In the present embodiment, the auxiliary information that can be detected is created by the procedure as described above. Details of these algorithms will be described below.

上記ステップS20では、具体的には、図3に示すようなアルゴリズムに基づき、状態の変化が検出される。   In step S20, specifically, a change in state is detected based on an algorithm as shown in FIG.

即ち、まず、検出部13のカメラ131により術者1と補助者2の間が撮影され、この撮影した動画像が状態変化検出装置132に入力される(ステップS201)。   That is, first, an image of the operator 1 and the assistant 2 is captured by the camera 131 of the detection unit 13, and the captured moving image is input to the state change detection device 132 (step S201).

状態変化検出装置132は、入力された現フレーム画像に対し、ステップS202〜S205において手が存在すると思われる領域(以下、手領域と称する)の重心位置の抽出を、またステップS206〜S209において処置具置き場領域の抽出を行う。なおここで、状態変化検出装置132は、複数のプロセッサを備え、これらステップS202〜S205の処理とステップS206〜S209の処理とを並列に実行することが、処理の高速化の上では好ましい。なお、当然、ステップS202〜S205の処理とステップS206〜S209の処理は、並列でなく逐次処理しても構わない。   The state change detection device 132 extracts the center of gravity position of an area (hereinafter referred to as a hand area) in which the hand is assumed to exist in steps S202 to S205, and performs a process in steps S206 to S209 for the input current frame image. Extract the storage area. Here, the state change detection device 132 includes a plurality of processors, and it is preferable to execute the processing in steps S202 to S205 and the processing in steps S206 to S209 in parallel for speeding up the processing. Of course, the processing in steps S202 to S205 and the processing in steps S206 to S209 may be performed sequentially instead of in parallel.

また、検出部13の構成要素としてのカメラ131は1台ではなく、複数台あっても良い。複数のカメラを備える場合には、遮蔽による検出率の低下を抑え、より的確に検出を行うことができる。   The number of cameras 131 as a component of the detection unit 13 is not limited to one, and a plurality of cameras 131 may be provided. In the case where a plurality of cameras are provided, it is possible to suppress the decrease in the detection rate due to shielding and perform detection more accurately.

手領域の重心位置の検出処理においては、入力画像に対するエッジ情報に基づくセグメンテーション(ステップS202)をベースとして、色情報により判別する処理(ステップS203)を行うことにより、まず、手領域の判別を行う。具体的には、次の手順による。   In the detection processing of the center of gravity position of the hand region, first, the hand region is determined by performing processing (step S203) for determining based on color information based on segmentation (step S202) based on edge information for the input image. . Specifically, the following procedure is followed.

即ち、ステップS203のセグメンテーションにおいては、例えば、入力された現フレーム画像に、図2(C)に示すような縦方向の直線あるいは曲線に感度のあるエッジ抽出フィルタをかけ、また、図2(D)に示すような横方向の直線あるいは曲線に感度のあるエッジ抽出フィルタをかけ、それぞれで得られたエッジを統合して領域の境界線を構成し、それらの境界線で囲まれる領域に分割する方法で、領域分割すれば良い。   That is, in the segmentation in step S203, for example, the input current frame image is subjected to an edge extraction filter having sensitivity to a vertical straight line or curve as shown in FIG. 2C, and FIG. ) Apply a sensitive edge extraction filter to the horizontal straight line or curve as shown in Fig. 2), combine the edges obtained from each to form the boundary line of the area, and divide it into the area surrounded by the boundary line The region may be divided by the method.

このようなセグメンテーションの後、ステップS203において、現フレーム画像に対して色情報に基づく判別のためのヒストグラムを作成する。まず、取得した現フレーム画像に対し、RGBから以下の変換式によりr−g空間への変換を行う。   After such segmentation, in step S203, a histogram for discrimination based on color information is created for the current frame image. First, the obtained current frame image is converted from RGB to rg space by the following conversion formula.

r=R/(R+G+B), g=G/(R+G+B)
この変換により、手術室内での照明変化により明度の変化がおきた場合にも対応可能となっている。
r = R / (R + G + B), g = G / (R + G + B)
By this conversion, it is possible to cope with a change in brightness due to a change in illumination in the operating room.

そして、変換されたrとgに関して2次元のr−gヒストグラムを作成し、処置を行う術者1の手(着用した手袋7)の色を指定し、その色(この場合は肌色)を持つオブジェクトのみ抽出する。例えば、図4(A)に示すように、r−g平面をいくつかに分割し、あらかじめ指定された手領域71のみを残し、その他は画素値を持たない画像を作成すれば、手(手袋7)のみをオブジェクトとして抽出した画像が作成される。あるいは、一般的に知られているk−NN(k nearest neighbor)法を用いて、図4(B)のように手領域72を規定しても良い。   Then, a two-dimensional rg histogram is created for the converted r and g, and the color of the hand (glove 7 worn) of the surgeon 1 who performs the treatment is designated, and the color (in this case, skin color) is possessed. Extract only objects. For example, as shown in FIG. 4 (A), if an rg plane is divided into several parts and an image having no pixel value is created except for the hand region 71 designated in advance, the hand (gloves) 7) An image extracted only as an object is created. Alternatively, the hand region 72 may be defined as shown in FIG. 4B by using a generally known k-NN (k nearest neighbor) method.

こうしてセグメンテーションを行った画像に対し色ヒストグラム処理を行った結果を使用して、分割された領域のうち指定色が一定以上の画素を占める領域を判定することで、指定色の領域を確定する(ステップS204)。   Using the result of the color histogram processing performed on the image thus segmented, the area of the designated color is determined by determining the area in which the designated color occupies a certain pixel or more among the divided areas ( Step S204).

次に、その確定した手領域に対して重心を求め、それら重心位置を現フレーム手領域情報として、該状態変化検出装置132内に設けた不図示の記録装置に記録しておく(ステップS205)。なお、手領域の重心の計算には、各画素の座標値に対して加重平均を用いれば良い。   Next, the center of gravity is obtained for the determined hand region, and the position of the center of gravity is recorded as current frame hand region information in a recording device (not shown) provided in the state change detecting device 132 (step S205). . In calculating the center of gravity of the hand region, a weighted average may be used for the coordinate value of each pixel.

同様に、処置具置き場8の重心位置の検出処理においても、入力画像に対するエッジ情報に基づくセグメンテーション(ステップS206)をベースとして、色情報により判別する処理(ステップS207)を行うことにより、まず、処置具置き場領域の判別を行う。但し、色情報により判別する処理では、背景色として大きな位置を占めるドレープ・布ドレープ(処置具置き場8)の色を指定し、その色(緑色)を持つオブジェクトのみ抽出することとなる。例えば、図4(A)に示すように、r−g平面をいくつかに分割し、あらかじめ指定された処置具置き場8に対応する色の領域(処置具置き場領域81)のみ残し、その他は画素値を持たない画像を作成すれば、処置具置き場8のみをオブジェクトとして抽出した画像が作成される。あるいは、k−NN法を用いて、図4(B)のように処置具置き場領域82を規定しても良い。   Similarly, also in the detection process of the center of gravity position of the treatment instrument storage place 8, first, by performing a process (step S207) for determining based on color information based on the segmentation (step S206) based on the edge information with respect to the input image. Determine the storage area. However, in the process of discriminating based on the color information, the color of the drape / cloth drape (treatment tool storage 8) occupying a large position as the background color is designated, and only the object having that color (green) is extracted. For example, as shown in FIG. 4A, the rg plane is divided into several parts, leaving only a color area (treatment tool place area 81) corresponding to the treatment tool place 8 designated in advance, and the others are pixels. If an image having no value is created, an image in which only the treatment tool storage 8 is extracted as an object is created. Or you may prescribe | regulate the treatment tool storage area | region 82 like FIG.4 (B) using k-NN method.

こうしてセグメンテーションを行った画像に対し色ヒストグラム処理を行った結果を使用して、分割された領域のうち指定色が一定以上の画素を占める領域を判定することで、指定色の領域を確定する(ステップS208)。そして、この確定した処置具置き場領域に対して位置情報を計算し、これを現フレーム処置具置き場領域情報として、不図示の記録装置に記録しておく(ステップS209)。   Using the result of the color histogram processing performed on the image thus segmented, the area of the designated color is determined by determining the area in which the designated color occupies a certain pixel or more among the divided areas ( Step S208). Then, position information is calculated for the determined treatment tool storage area, and this is recorded as a current frame treatment tool storage area information in a recording device (not shown) (step S209).

次に、これまで計算し不図示の記録装置に記録してある現フレーム及び前フレームの手領域情報及び処置具置き場領域情報を使用して、現フレームの手領域情報及び処置具置き場領域情報を前フレームの手領域情報及び処置具置き場領域情報と比較し、「処置具置き場領域に前フレームからの変化があり、かつ、処置具置き場領域に手領域重心の出入りがあり、かつ、手領域重心が一定量以上変化」したか否かを判定する(ステップS210)。ここで、処置具置き場領域に変化があり、かつ、処置具置き場領域に前フレームからの変化があり、かつ術者1及び補助者2の手が一定量以上動いていると判定されれば、補助者2が処置具置き場から処置具5を手に取って術者1に渡す動作を開始した可能性が高い。つまり、この動作から一定時刻後に術者1が処置を行うことを推定するきっかけが検出可能となる。この場合には、処置が行われると推定し、状態変化検出装置132は、検出情報を制御部14に送信する。   Next, using the current frame and previous frame hand area information and treatment tool storage area information calculated and recorded in a recording device (not shown), the current frame hand area information and treatment tool storage area information are obtained. Compared to the hand frame information and the treatment tool storage area information of the previous frame, `` There is a change in the treatment tool storage area from the previous frame, the hand tool center of gravity is in and out of the treatment tool storage area, and the hand area gravity center It is determined whether or not “has changed more than a certain amount” (step S210). Here, if it is determined that there is a change in the treatment tool storage area, that there is a change from the previous frame in the treatment tool storage area, and that the hands of the operator 1 and the assistant 2 are moving more than a certain amount, There is a high possibility that the assistant 2 has started the operation of picking up the treatment tool 5 from the treatment tool place and passing it to the operator 1. That is, it is possible to detect a trigger for estimating that the surgeon 1 performs a treatment after a certain time from this operation. In this case, it is estimated that treatment is performed, and the state change detection device 132 transmits detection information to the control unit 14.

上記ステップS30において上記検出情報を受信した制御部14が行う処理手続きを図4(C)に示す。   FIG. 4C shows a processing procedure performed by the control unit 14 that has received the detection information in step S30.

即ち、制御部14は、上記検出部13の状態変化検出装置132より検出情報を受信し(ステップS301)、その受信した検出情報に基づき、検出可能な補助情報を作成する(ステップS302)。その後、上記記録部12に対し、記録されたカメラ動画像及び/又は手術用顕微鏡画像にその作成した検出可能な補助情報を付与することを指示する(ステップS303)。   That is, the control unit 14 receives detection information from the state change detection device 132 of the detection unit 13 (step S301), and creates detectable auxiliary information based on the received detection information (step S302). Thereafter, the recording unit 12 is instructed to add the detected auxiliary information to the recorded camera moving image and / or surgical microscope image (step S303).

あるいは、制御部14は、図4(D)に示すような処理手続きを実行しても良い。   Alternatively, the control unit 14 may execute a processing procedure as shown in FIG.

即ち、上記検出部13の状態変化検出装置132より検出情報を受信し(ステップS301)、その受信した検出情報に基づき、検出可能な補助情報を作成する(ステップS302)。そしてその後、上記記録部12に対し、カメラ動画像及び/又は手術用顕微鏡画像と対応が付いた検出可能な補助情報テーブル作成を指示する(ステップS304)。   That is, detection information is received from the state change detection device 132 of the detection unit 13 (step S301), and detectable auxiliary information is created based on the received detection information (step S302). Thereafter, the recording unit 12 is instructed to create a detectable auxiliary information table corresponding to the camera moving image and / or the surgical microscope image (step S304).

上記のようにして、制御部14が記録部12に記録されたカメラ動画像及び/又は手術用顕微鏡画像と関連した検出可能な補助情報の記録を指示する。これにより、図1(B)に示すように、手術中に、補助情報の記録が行われていく。即ち、インデックスとしてタグ付けされる。   As described above, the control unit 14 instructs to record detectable auxiliary information related to the camera moving image and / or the surgical microscope image recorded in the recording unit 12. Thereby, as shown in FIG. 1 (B), auxiliary information is recorded during the operation. That is, it is tagged as an index.

そして、最終的に、手術終了後に、図1(B)に示すように、記録部12中に記録された情報の中から、上記補助情報を付与されたフレーム付近の複数フレームを抽出して、補助情報と共にユーザに呈示すれば、長時間の手術記録画像から処置を行った付近の重要部分のみをユーザに呈示でき、ユーザが膨大な手術記録画像中から重要部分を検索する手間を省くことが可能となる。なお、同図において、画像A,B,Cはそれぞれ処置内容の異なる画像であることを表している。例えば、Aは骨の破砕処置を行っている画像、Bは切開処置を行っている画像、Cは腫瘍摘出処置を行っている画像である。   Finally, after the operation is completed, as shown in FIG. 1 (B), from the information recorded in the recording unit 12, a plurality of frames near the frame to which the auxiliary information is added are extracted, If it is presented to the user together with the auxiliary information, only the important part in the vicinity where the treatment is performed from the long-time operation record image can be presented to the user, and the user can save time and effort to search the important part from the huge operation record image. It becomes possible. In the figure, images A, B, and C represent images with different treatment contents. For example, A is an image performing a bone crushing treatment, B is an image performing a dissection treatment, and C is an image performing a tumor excision treatment.

さらに、長時間の手術記録画像を、処置を行った付近の重要部分のみ圧縮率を低く、その他の重要度の低い部分は圧縮率を高くして、圧縮記録すれば、長時間記録された画像情報に対し、意味内容の上から記録情報の圧縮が可能となる。   Furthermore, if a long-term surgical record image is compressed and recorded only at the important part near the treated area, the compression rate is low, and the other less important part is compressed at a high compression rate. For information, it is possible to compress recorded information in terms of semantic content.

以上のように、本実施形態によれば、手術中にいつ処置動作を行ったかが、術者1と補助者2の間を撮影した動画像に対する画像処理技術により自動的に記録でき、手術時に撮影したカメラ動画像(及び/又は手術用顕微鏡画像)の取り扱いが容易になる。なお、本実施形態は、処置の内容判別は行っていないが、ユーザは、図1(B)に示すように呈示された画像から、その処置内容を容易に知ることができる。   As described above, according to the present embodiment, the time when the treatment operation was performed during the operation can be automatically recorded by the image processing technique for the moving image captured between the operator 1 and the assistant 2, and the image is taken at the time of the operation. The camera moving image (and / or surgical microscope image) can be handled easily. In the present embodiment, the content of the treatment is not determined, but the user can easily know the content of the treatment from the presented image as shown in FIG.

[第2実施形態]
次に、本発明の第2実施形態を説明する。本実施形態は、必要により処置の内容判別も行って、補助情報としてその処置内容を示す情報も記録するものである。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, the content of the treatment is also determined if necessary, and information indicating the content of the treatment is also recorded as auxiliary information.

そのため、本実施形態に係る医療行為記録システムにおいては、図5に示すように、制御部14を、主制御部141と判断部142から構成する。ここで、判断部142は、上記検出部13の検出した結果に基づいて術者1の行った処置の種類を判定するものであり、主制御部141は、この判断部142の判断結果に基づいて補助情報を作成し、その補助情報の記録を記録部12に指示するものである。   Therefore, in the medical practice recording system according to the present embodiment, the control unit 14 includes a main control unit 141 and a determination unit 142 as shown in FIG. Here, the determination unit 142 determines the type of treatment performed by the operator 1 based on the result detected by the detection unit 13, and the main control unit 141 is based on the determination result of the determination unit 142. Thus, auxiliary information is created, and the recording unit 12 is instructed to record the auxiliary information.

なお、本実施形態においては、検出部13の状態変化検出装置132からは、検出情報として、状態の変化3の検出結果に加えて、上記判断を実行するのに必要な情報、つまりカメラ131で撮影した画像(又はそれを加工した情報)を含むものとする。   In the present embodiment, the state change detection device 132 of the detection unit 13 receives information necessary for executing the above determination, that is, the camera 131 in addition to the detection result of the state change 3 as detection information. It shall include the photographed image (or information obtained by processing it).

本実施形態における全体の処理手続きを図6に示す。   FIG. 6 shows the entire processing procedure in this embodiment.

即ち、まず、医療行為を行う術者1の処置を撮影するカメラ11により、術者1が行う医療行為が撮影され、その撮影された動画像が記録部12に送信されて記録される(ステップS10)。また、特に図示はしていないが、手術用顕微鏡で得られた画像も記録しても良い。   That is, first, a medical action performed by the operator 1 is photographed by the camera 11 that photographs the treatment of the surgeon 1 performing the medical action, and the photographed moving image is transmitted to the recording unit 12 and recorded (step). S10). Although not specifically shown, an image obtained with a surgical microscope may also be recorded.

なおここで、カメラ11で撮影された動画像は、時系列に取得された画像間の間隔がより疎である、あるいは不定期であるような時系列画像群であっても良い。   Here, the moving image captured by the camera 11 may be a time-series image group in which intervals between images acquired in time series are more sparse or irregular.

次に、術者1と補助者2との間を検出領域に含み当該領域内の状態の変化を検出する検出部13により、術者1と補助者2との間の状態の変化3が検出され、その検出結果とカメラ131の撮影画像とが検出情報として制御部14に送信される(ステップS21)。   Next, the state change 3 between the surgeon 1 and the assistant 2 is detected by the detection unit 13 that includes the area between the surgeon 1 and the assistant 2 in the detection region and detects the change in the state in the region. Then, the detection result and the captured image of the camera 131 are transmitted as detection information to the control unit 14 (step S21).

制御部14中の主制御部141は、この検出情報を受信する(ステップS31)。そして、術者1の処置に関するより詳細な判断が必要か否かの判定を行う(ステップS32)。これは、例えば、ユーザのモード選択による。   The main control unit 141 in the control unit 14 receives this detection information (step S31). Then, it is determined whether or not more detailed judgment regarding the treatment of the surgeon 1 is necessary (step S32). This is due to, for example, user mode selection.

ここで、より詳細な判断が不要と判定した場合には、上記第1実施形態と同様に、主制御部141は、検出情報(状態の変化3の検出結果)に基づいた検出可能な補助情報を作成し(ステップS33)、その作成した検出可能な補助情報の記録を記録部12に指示する(ステップS41)。   Here, when it is determined that more detailed determination is not necessary, the main control unit 141 detects detectable auxiliary information based on the detection information (the detection result of the state change 3), as in the first embodiment. Is created (step S33), and the recording unit 12 is instructed to record the created auxiliary information that can be detected (step S41).

これに対して、より詳細な判断が必要と判定された場合には、まず、主制御部141は、上記受信した検出情報を判断部142に送信する(ステップS34)。判断部142は、この主制御部141より受け取った検出情報に基づき、処置に関してより詳細な判断を行い(ステップS35)、その判断結果を主制御部141に送信する(ステップS36)。そして、主制御部141は、受け取った判断結果に基づき検出可能な補助情報を作成して(ステップS37)、その作成した検出可能な補助情報の記録を上記記録部12に指示する(ステップS41)。   On the other hand, if it is determined that more detailed determination is necessary, first, the main control unit 141 transmits the received detection information to the determination unit 142 (step S34). Based on the detection information received from the main control unit 141, the determination unit 142 makes a more detailed determination regarding treatment (step S35), and transmits the determination result to the main control unit 141 (step S36). Then, the main control unit 141 creates detectable auxiliary information based on the received determination result (step S37), and instructs the recording unit 12 to record the created detectable auxiliary information (step S41). .

上記判断部142は、処置に関して、上記検出部13の状態変化検出装置132よりも複雑な判断を行う。具体的には、例えば、図7(A)に示すような手続きでも良い。   The determination unit 142 makes a more complicated determination regarding the treatment than the state change detection device 132 of the detection unit 13. Specifically, for example, a procedure as shown in FIG.

即ち、判断部142は、主制御部141より検出情報を受信し(ステップS351)、検出情報である術者1及び補助者2の手の動き及び処置具5の特徴により、処置の種類を判定する(ステップS352)。ここで、処置具5を扱う際の手の動きは処置具5毎に異なっており、処置具5に固有の手の動きを判断すれば、扱っている処置具5が推定可能となる。   That is, the determination unit 142 receives the detection information from the main control unit 141 (step S351), and determines the type of treatment based on the hand movements of the operator 1 and the assistant 2 as the detection information and the characteristics of the treatment tool 5. (Step S352). Here, the movement of the hand when the treatment tool 5 is handled is different for each treatment tool 5, and if the movement of the hand unique to the treatment tool 5 is determined, the treatment tool 5 being handled can be estimated.

処置具5毎に手の動きが異なっている様子を図8(A)及び図8(B)に示す。図8(A)は、骨を破壊するため手術で用いられる処置具5(手術用ドリル51)の受け渡しを行っている様子を撮影したカメラ画像であり、図8(B)は、組織を凝固させるためのピンセット状の形状をした処置具5(凝固用ピンセット状器具52)の受け渡しを行っている様子を撮影したカメラ画像である。   FIGS. 8A and 8B show how the hand movement differs for each treatment instrument 5. FIG. 8A is a camera image in which the delivery of the treatment instrument 5 (surgical drill 51) used in surgery to destroy the bone is taken, and FIG. 8B is a diagram of coagulating the tissue. It is the camera image which image | photographed the mode that the treatment tool 5 (the tweezers-shaped instrument 52 for coagulation | solidification) in the shape of the tweezers for making it deliver is performed.

これによれば、手術用ドリル51を持つ場合には、補助者2は左右両方の手で持ち、また、補助者2が術者1に凝固用ピンセット状器具52を渡す場合には、補助者2が左手で持ち上げた器具を右手に持ち替え、更に術者1に渡すという方法を取っている。これらの動きは選択する処置具5により異なっている。また、一つの処置具5で行える処置は1〜数種類に限定されている場合が多く、このことから手の動きを特定することにより、補助者2が選択しようとしている処置具5が高い精度で推定できる。よって、処置具5が推定できることにより、術者1が次に行うであろう、切開、骨の除去、腫瘍の摘出、縫合などの医療行為が高い確率で推定できる。   According to this, when the surgical drill 51 is held, the assistant 2 is held by both the left and right hands, and when the assistant 2 hands the tweezers-like instrument 52 for coagulation to the operator 1, the assistant 2 takes the method of changing the instrument lifted with the left hand to the right hand and handing it to the surgeon 1. These movements differ depending on the treatment instrument 5 to be selected. In addition, the number of treatments that can be performed with one treatment tool 5 is often limited to one to several types, and therefore, by specifying the movement of the hand, the treatment tool 5 that the assistant 2 is trying to select is highly accurate. Can be estimated. Therefore, since the treatment tool 5 can be estimated, medical actions such as incision, bone removal, tumor extraction, and suturing that the operator 1 will perform next can be estimated with high probability.

判断部142が判断したこれら処置に関する詳細な情報を、第1実施形態で述べた検出可能な補助情報にさらに加えて付加すれば、図7(B)に示すように、長時間にわたり記録された手術処置画像の中から、特定の処置が行われた部分のみを指定することが可能となり、よりユーザのニーズを満たす情報の呈示が可能となる。   If the detailed information on the treatment determined by the determination unit 142 is added in addition to the detectable auxiliary information described in the first embodiment, the information is recorded for a long time as shown in FIG. 7B. From the surgical treatment image, it is possible to designate only a portion where a specific treatment has been performed, and it is possible to present information that satisfies the needs of the user.

また、手術中に検出部13によりリアルタイムに術者1と補助者2の間の状態の変化を検出すれば、処置具5の種類がより詳細に判別した後、術者1・補助者2間で受け渡しが行われ次に術者1が医療行為に用いる処置具5に関する危険情報を判断部142が判断し、この判断結果を制御部14に送りさらに記録部12或いは別途設けられた警告装置(図示せず)上に呈示することにより、使用する処置具5や医療行為に関する危険性をユーザに知らせることが可能となる。このような危険性の予測により、術者1はより安全な手術を行うことが可能となり、ひいては患者4にとってもより安全な手術を受けることが可能になる、という大きなメリットがある。   Further, if a change in the state between the operator 1 and the assistant 2 is detected in real time by the detection unit 13 during the operation, the type of the treatment instrument 5 is determined in more detail, and then between the operator 1 and the assistant 2 The determination unit 142 determines risk information about the treatment instrument 5 used by the surgeon 1 for medical practice, and sends the determination result to the control unit 14. Further, the recording unit 12 or a separately provided warning device ( By presenting it on (not shown), it is possible to inform the user of the danger associated with the treatment instrument 5 to be used or medical practice. By predicting such a risk, the surgeon 1 can perform a safer operation, and thus has a great advantage that the patient 4 can also receive a safer operation.

以上のように、本実施形態によれば、手術中に、いつ、どのような処置動作を行ったかが、術者1と補助者2の間を撮影した動画像に対する画像処理技術により自動的に記録でき、手術時に撮影したカメラ動画像(及び/又は手術用顕微鏡画像)の取り扱いが容易になる。   As described above, according to the present embodiment, when and what kind of treatment operation is performed during the operation is automatically recorded by the image processing technique for the moving image captured between the operator 1 and the assistant 2. This makes it easier to handle camera moving images (and / or surgical microscope images) taken during surgery.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、上記実施形態では、カメラ11で撮影した手術処置画像と補助情報とを同時に記録部12に記録しているが、それに限定するものではない。即ち、手術中に、カメラ11で撮影した手術処置画像と検出部13中のカメラ131で撮影した検出領域の画像とを記録部12に記録しておき、手術後に、制御部14(主制御部141及び判断部142)及び検出部13の状態変化検出装置132により、記録部12に記録された上記検出領域の画像から上記のような補助情報を作成して、記録部12に記録されている手術処置画像の対応位置に追記する、あるいは対応付けを記録したテーブルを記録させるようにしても構わない。   For example, in the above-described embodiment, the surgical treatment image and auxiliary information captured by the camera 11 are simultaneously recorded in the recording unit 12, but the present invention is not limited to this. That is, during the operation, the surgical treatment image captured by the camera 11 and the image of the detection area captured by the camera 131 in the detection unit 13 are recorded in the recording unit 12, and after the operation, the control unit 14 (main control unit) 141 and the determination unit 142) and the state change detection device 132 of the detection unit 13 create the auxiliary information as described above from the image of the detection area recorded in the recording unit 12 and record it in the recording unit 12. You may make it record in the corresponding position of a surgical treatment image, or may record the table which recorded the correlation.

(付記)
前記の具体的実施形態から、以下のような構成の発明を抽出することができる。
(Appendix)
The invention having the following configuration can be extracted from the specific embodiment.

(1) 医療現場における術者の医療行為を記録する医療行為記録システムにおいて、
医療行為を行う術者の処置を撮影するカメラと、
上記カメラで撮影された医療行為の時系列画像群と共に、外部からの指示に応じて所定の補助情報を記録するよう構成された記録手段と、
術者と該術者を補助する補助者との間を検出領域に含み、当該検出領域内の状態の変化を検出する検出手段と、
上記検出手段の検出した結果に基づいて上記補助情報を作成し、その補助情報の記録を上記記録手段に指示する制御手段と、
を具備することを特徴とする医療行為記録システム。
(1) In the medical practice recording system that records the medical practice of the surgeon in the medical field,
A camera that captures the treatment of the surgeon performing the medical procedure;
A recording unit configured to record predetermined auxiliary information in response to an instruction from the outside, together with a time series image group of medical actions taken by the camera,
A detection means for detecting a change in a state in the detection area, including a surgeon and an assistant who assists the surgeon in the detection area;
Control means for creating the auxiliary information based on the detection result of the detection means and instructing the recording means to record the auxiliary information;
A medical practice recording system comprising:

(対応する実施形態)
この(1)に記載の医療行為記録システムに関する実施形態は、第1及び第2実施形態が対応する。ここで、上記カメラはそれら第1及び第2実施形態ではカメラ11が対応し、上記記録手段はそれら第1及び第2実施形態では記録部12が対応し、上記検出手段はそれら第1及び第2実施形態では検出部13が対応し、上記制御手段はそれら第1及び第2実施形態では制御部14が対応する。
(Corresponding embodiment)
The embodiment relating to the medical practice recording system described in (1) corresponds to the first and second embodiments. Here, the camera corresponds to the camera 11 in the first and second embodiments, the recording means corresponds to the recording unit 12 in the first and second embodiments, and the detection means corresponds to the first and second embodiments. In the second embodiment, the detection unit 13 corresponds, and the control unit corresponds to the control unit 14 in the first and second embodiments.

(作用効果)
この(1)に記載の医療行為記録システムによれば、長時間にわたる医療行為時の時系列画像群(動画像)に自動的にタグ付けが可能となり、医療行為後の画像の利用が非常に簡便になる。
(Function and effect)
According to the medical practice recording system described in (1), it is possible to automatically tag time-series images (moving images) at the time of medical practice over a long period of time. It becomes simple.

(2) 上記医療現場における医療行為は、手術室における手術作業であることを特徴とする(1)に記載の医療行為記録システム。   (2) The medical practice recording system according to (1), wherein the medical practice in the medical field is a surgical operation in an operating room.

(対応する実施形態)
この(2)に記載の医療行為記録システムに関する実施形態は、第1及び第2実施形態が対応する。
(Corresponding embodiment)
The first and second embodiments correspond to the embodiment relating to the medical practice recording system described in (2).

(作用効果)
この(2)に記載の医療行為記録システムによれば、特に長時間の記録が行われる可能性の高い手術室で使用した場合に、術後の時系列画像群(動画像)の管理が非常に簡便になり、大きな効果をもたらす。
(Function and effect)
According to the medical practice recording system described in (2), the time series image group (moving images) after the operation is extremely managed especially when used in an operating room where a long-term recording is likely to be performed. It becomes simple and brings a big effect.

(3) 上記検出手段は、上記術者の処置を撮影するカメラとは別の少なくとも1台のカメラを含むことを特徴とする(1)に記載の医療行為記録システム。   (3) The medical practice recording system according to (1), wherein the detection means includes at least one camera different from a camera that photographs the surgeon's treatment.

(対応する実施形態)
この(3)に記載の医療行為記録システムに関する実施形態は、第1及び第2実施形態が対応する。ここで、上記少なくとも1台のカメラはそれら第1及び第2実施形態ではカメラ131が対応する。
(Corresponding embodiment)
The first and second embodiments correspond to the embodiment relating to the medical practice recording system described in (3). Here, the at least one camera corresponds to the camera 131 in the first and second embodiments.

(作用効果)
この(3)に記載の医療行為記録システムによれば、検出手段としてカメラを用いるので、画像処理により状況に最適な情報をインデックスとしてタグ付けが可能となる。
(Function and effect)
According to the medical practice recording system described in (3), since a camera is used as the detecting means, it is possible to tag information that is optimal for the situation as an index by image processing.

複数のカメラを使用すれば、あるカメラで遮蔽が起こった部分にも他のカメラで対応が可能となる。また、複数のカメラによるチェックで、より多くの情報をタグ付け可能となり、更には、より精密なタグ付けが可能となる。   If a plurality of cameras are used, it becomes possible for another camera to cope with a portion where shielding has occurred with one camera. In addition, more information can be tagged by checking with a plurality of cameras, and more precise tagging can be performed.

(4) 上記検出手段は、術者が医療行為に使用する医療器具に関わる状態の変化を検出することを特徴とする(1)に記載の医療行為記録システム。   (4) The medical action recording system according to (1), wherein the detection means detects a change in a state related to a medical instrument used by the operator for the medical action.

(対応する実施形態)
この(4)に記載の医療行為記録システムに関する実施形態は、第1及び第2実施形態が対応する。ここで、上記医療器具はそれら第1及び第2実施形態では処置具5が対応する。
(Corresponding embodiment)
The first and second embodiments correspond to the embodiment relating to the medical practice recording system described in (4). Here, the medical instrument corresponds to the treatment instrument 5 in the first and second embodiments.

(作用効果)
この(4)に記載の医療行為記録システムによれば、処置具に関する状況の変化に着目することで、より多くの情報を画像処理により得られ、結果としてより詳細に、しかも確実に処置を推定可能となる。
(Function and effect)
According to the medical practice recording system described in (4), more information can be obtained by image processing by paying attention to changes in the situation regarding the treatment tool, and as a result, treatment can be estimated in more detail and reliably. It becomes possible.

(5) 上記検出手段は、術者と補助者との間の術者又は補助者の手の動きに関わる状態の変化を検出することを特徴とする(1)に記載の医療行為記録システム。   (5) The medical practice recording system according to (1), wherein the detection means detects a change in a state related to movement of the hand of the surgeon or the assistant between the surgeon and the assistant.

(対応する実施形態)
この(5)に記載の医療行為記録システムに関する実施形態は、第1及び第2実施形態が対応する。
(Corresponding embodiment)
The embodiment relating to the medical practice recording system described in (5) corresponds to the first and second embodiments.

(作用効果)
この(5)に記載の医療行為記録システムによれば、処置具ではなく手の動きに着目することで、処置具が抽出できない時に対応可能となる。また、より詳細で確実な推定ができる。
(Function and effect)
According to the medical practice recording system described in (5), it is possible to cope with the case where the treatment tool cannot be extracted by focusing on the movement of the hand, not the treatment tool. Further, more detailed and reliable estimation can be performed.

(6) 上記検出手段は、術者が医療行為に使用する医療器具に関わる状態の変化、及び、術者と補助者との間の術者又は補助者の手の動きに関わる状態の変化を検出することを特徴とする(1)に記載の医療行為記録システム。   (6) The detection means detects a change in a state related to a medical instrument used by the surgeon for medical treatment and a change in a state related to the movement of the surgeon or the assistant's hand between the surgeon and the assistant. The medical practice recording system according to (1), wherein the medical practice recording system is detected.

(対応する実施形態)
この(6)に記載の医療行為記録システムに関する実施形態は、第1及び第2実施形態が対応する。
(Corresponding embodiment)
The first and second embodiments correspond to the embodiment related to the medical practice recording system described in (6).

(作用効果)
この(6)に記載の医療行為記録システムによれば、処置具、手の動き双方を使用することにより情報量が増加し、より正確な推定が可能となる。
(Function and effect)
According to the medical practice recording system described in (6), the amount of information increases by using both the treatment tool and the hand movement, and more accurate estimation is possible.

(7) 上記制御手段は、
上記検出手段の検出した結果に基づいて、術者の行った処置の種類を判定する判断手段と、
上記判断手段の判断結果に基づいて補助情報を作成し、その補助情報の記録を上記記録手段に指示する主制御手段と、
を有することを特徴とする(1)に記載の医療行為記録システム。
(7) The control means includes
Based on the detection result of the detection means, a determination means for determining the type of treatment performed by the operator;
Main control means for creating auxiliary information based on the determination result of the determination means and instructing the recording means to record the auxiliary information;
(1) The medical practice recording system according to (1).

(対応する実施形態)
この(7)に記載の医療行為記録システムに関する実施形態は、第2実施形態が対応する。ここで、上記判断手段はその第2実施形態では判断部142が対応し、上記主制御手段はその第2実施形態では主制御部141が対応する。
(Corresponding embodiment)
The second embodiment corresponds to the embodiment relating to the medical practice recording system described in (7). Here, the determination unit corresponds to the determination unit 142 in the second embodiment, and the main control unit corresponds to the main control unit 141 in the second embodiment.

(作用効果)
この(7)に記載の医療行為記録システムによれば、判断手段を持つことで、より高度な医療行為の判断が行える。
(Function and effect)
According to the medical practice recording system described in (7), the judgment of more advanced medical practice can be performed by having the judging means.

(8) 上記判断手段は、術者あるいは補助者が行った医療行為の種類を予測して危険性を判断する危険性判断手段を有することを特徴とする(7)に記載の医療行為記録システム。   (8) The medical practice recording system according to (7), wherein the judging means includes risk judging means for predicting a type of medical practice performed by an operator or an assistant and judging the risk. .

(対応する実施形態)
この(8)に記載の医療行為記録システムに関する実施形態は、第2実施形態が対応する。
(Corresponding embodiment)
The second embodiment corresponds to the embodiment related to the medical practice recording system described in (8).

(作用効果)
この(8)に記載の医療行為記録システムによれば、使用する処置具や医療行為に関する危険性をユーザに知らせることが可能となる。このような危険性の予測により、術者はより安全な手術を行うことが可能となり、ひいては患者にとってもより安全な手術を受けることが可能になる。
(Function and effect)
According to the medical practice recording system described in (8), it is possible to notify the user of the risk associated with the treatment instrument to be used and the medical practice. By predicting such a risk, the surgeon can perform a safer operation, and thus can perform a safer operation for the patient.

(9) 医療現場における術者の医療行為を記録する医療行為記録装置において、
医療行為を行う術者と該術者を補助する補助者との間を検出領域に含み、当該検出領域内の状態の変化を検出する検出手段と、
上記検出手段の検出した結果に基づいて上記補助情報を作成し、その補助情報を、上記術者の処置を撮影して得られた時系列画像群に関連付けて記録する記録手段と、
を具備することを特徴とする医療行為記録装置。
(9) In the medical practice recording device that records the medical practice of the surgeon in the medical field,
A detection means for detecting a change in a state in the detection region, including a region between a surgeon performing a medical practice and an assistant assisting the operator in a detection region;
The auxiliary information is created based on the detection result of the detection means, and the auxiliary information is recorded in association with a time-series image group obtained by photographing the surgeon's treatment;
A medical practice recording apparatus comprising:

(対応する実施形態)
この(9)に記載の医療行為記録装置に関する実施形態は、第第1及び第2実施形態が対応する。ここで、上記検出手段はそれら第1及び第2実施形態では検出部13が対応し、上記記録手段はそれら第1及び第2実施形態では記録部12及び制御部14が対応する。
(Corresponding embodiment)
The first and second embodiments correspond to the embodiment relating to the medical practice recording apparatus described in (9). Here, the detection means corresponds to the detection unit 13 in the first and second embodiments, and the recording means corresponds to the recording unit 12 and the control unit 14 in the first and second embodiments.

(作用効果)
この(9)に記載の医療行為記録装置によれば、長時間にわたる医療行為時の時系列画像群(動画像)に自動的にタグ付けが可能となり、医療行為後の画像の利用が非常に簡便になる。
(Function and effect)
According to the medical practice recording apparatus described in (9), it is possible to automatically tag time-series images (moving images) at the time of medical practice over a long period of time, and the use of images after medical practice is very It becomes simple.

(A)は本発明の第1実施形態に係る医療行為記録システムの構成を示す図であり、(B)は時間軸上の補助情報の記録位置を示す図である。(A) is a figure which shows the structure of the medical practice recording system which concerns on 1st Embodiment of this invention, (B) is a figure which shows the recording position of the auxiliary information on a time-axis. (A)は第1実施形態に係る医療行為記録システム全体の処理動作のフローチャートを示す図、(B)は検出部のカメラが撮影した画像の例を示す図であり、(C)及び(D)はそれぞれセグメンテーション処理に用いられるエッジ抽出フィルタを示す図である。(A) is a figure which shows the flowchart of the processing operation of the whole medical practice recording system which concerns on 1st Embodiment, (B) is a figure which shows the example of the image image | photographed with the camera of the detection part, (C) and (D ) Are diagrams illustrating edge extraction filters used for segmentation processing. 検出部の状態変化検出装置の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of the state change detection apparatus of a detection part. (A)及び(B)はそれぞれr−g平面での手領域の色と処置具置き場の色を示す図であり、(C)及び(D)はそれぞれ制御部の動作フローチャートを示す図である。(A) And (B) is a figure which shows the color of the hand area | region in the rg plane, and the color of a treatment tool storage place, respectively, (C) And (D) is a figure which respectively shows the operation | movement flowchart of a control part. . 本発明の第2実施形態に係る医療行為記録システムの構成を示す図である。It is a figure which shows the structure of the medical practice recording system which concerns on 2nd Embodiment of this invention. 第2実施形態に係る医療行為記録システム全体の処理動作のフローチャートを示す図である。It is a figure which shows the flowchart of the processing operation of the whole medical practice recording system which concerns on 2nd Embodiment. (A)は判断部の動作フローチャートを示す図であり、(B)は時間軸上の補助情報の記録位置とそのときの処置内容とを示す図である。(A) is a figure which shows the operation | movement flowchart of a judgment part, (B) is a figure which shows the recording position of the auxiliary information on a time-axis, and the treatment content at that time. (A)は手術用ドリルの受け渡しを行っている様子を撮影した一連のカメラ画像を示す図であり、(B)は凝固用ピンセット状器具の受け渡しを行っている様子を撮影した一連のカメラ画像を示す図である。(A) is a figure which shows a series of camera images which image | photographed the state which is delivering the surgical drill, (B) is a series of camera images which imaged the state which is delivering the tweezer-shaped instrument for coagulation | solidification. FIG.

符号の説明Explanation of symbols

1…術者、 2…補助者、 3…状態の変化、 4…患者、 5…処置具、 6…手術着、 7…手袋、 8…処置具置き場、 11,131…カメラ、 12…記録部、 13…検出部、 14…制御部、 51…手術用ドリル、 52…凝固用ピンセット状器具、 71,72…手領域、 81,82…処置具置き場領域、 132…状態変化検出装置、 141…主制御部、 142…判断部。     DESCRIPTION OF SYMBOLS 1 ... Surgeon, 2 ... Assistant, 3 ... Change of state, 4 ... Patient, 5 ... Treatment tool, 6 ... Surgical clothes, 7 ... Gloves, 8 ... Treatment tool place, 11, 131 ... Camera, 12 ... Recording part , 13 ... detection unit, 14 ... control unit, 51 ... surgical drill, 52 ... coagulant tweezers, 71, 72 ... hand region, 81, 82 ... treatment instrument storage region, 132 ... state change detection device, 141 ... Main control unit, 142... Judgment unit.

Claims (9)

医療現場における術者の医療行為を記録する医療行為記録システムにおいて、
医療行為を行う術者の処置を撮影するカメラと、
上記カメラで撮影された医療行為の時系列画像群と共に、外部からの指示に応じて所定の補助情報を記録するよう構成された記録手段と、
術者と該術者を補助する補助者との間を検出領域に含み、当該検出領域内の状態の変化を検出する検出手段と、
上記検出手段の検出した結果に基づいて上記補助情報を作成し、その補助情報の記録を上記記録手段に指示する制御手段と、
を具備することを特徴とする医療行為記録システム。
In the medical practice recording system that records the medical practice of the surgeon in the medical field,
A camera that captures the treatment of the surgeon performing the medical procedure;
A recording unit configured to record predetermined auxiliary information in response to an instruction from the outside, together with a time series image group of medical actions taken by the camera,
A detection means for detecting a change in a state in the detection area, including a surgeon and an assistant who assists the surgeon in the detection area;
Control means for creating the auxiliary information based on the detection result of the detection means and instructing the recording means to record the auxiliary information;
A medical practice recording system comprising:
上記医療現場における医療行為は、手術室における手術作業であることを特徴とする請求項1に記載の医療行為記録システム。   The medical practice recording system according to claim 1, wherein the medical practice in the medical field is a surgical operation in an operating room. 上記検出手段は、上記術者の処置を撮影するカメラとは別の少なくとも1台のカメラを含むことを特徴とする請求項1に記載の医療行為記録システム。   The medical action recording system according to claim 1, wherein the detection unit includes at least one camera different from a camera that photographs the treatment of the surgeon. 上記検出手段は、術者が医療行為に使用する医療器具に関わる状態の変化を検出することを特徴とする請求項1に記載の医療行為記録システム。   The medical action recording system according to claim 1, wherein the detecting means detects a change in a state related to a medical instrument used by the surgeon for the medical action. 上記検出手段は、術者と補助者との間の術者又は補助者の手の動きに関わる状態の変化を検出することを特徴とする請求項1に記載の医療行為記録システム。   The medical action recording system according to claim 1, wherein the detection unit detects a change in a state related to the movement of the hand of the surgeon or the assistant between the surgeon and the assistant. 上記検出手段は、術者が医療行為に使用する医療器具に関わる状態の変化、及び、術者と補助者との間の術者又は補助者の手の動きに関わる状態の変化を検出することを特徴とする請求項1に記載の医療行為記録システム。   The detection means detects a change in a state related to a medical instrument used by the surgeon for medical practice and a change in a state related to the movement of the surgeon or the assistant's hand between the surgeon and the assistant. The medical practice recording system according to claim 1. 上記制御手段は、
上記検出手段の検出した結果に基づいて、術者の行った処置の種類を判定する判断手段と、
上記判断手段の判断結果に基づいて補助情報を作成し、その補助情報の記録を上記記録手段に指示する主制御手段と、
を有することを特徴とする請求項1に記載の医療行為記録システム。
The control means includes
Based on the detection result of the detection means, a determination means for determining the type of treatment performed by the operator;
Main control means for creating auxiliary information based on the determination result of the determination means and instructing the recording means to record the auxiliary information;
The medical practice recording system according to claim 1, comprising:
上記判断手段は、術者あるいは補助者が行った医療行為の種類を予測して危険性を判断する危険性判断手段を有することを特徴とする請求項7に記載の医療行為記録システム。   8. The medical practice recording system according to claim 7, wherein the judging means includes risk judging means for predicting a type of medical practice performed by an operator or an assistant and judging the risk. 医療現場における術者の医療行為を記録する医療行為記録装置において、
医療行為を行う術者と該術者を補助する補助者との間を検出領域に含み、当該検出領域内の状態の変化を検出する検出手段と、
上記検出手段の検出した結果に基づいて上記補助情報を作成し、その補助情報を、上記術者の処置を撮影して得られた時系列画像群に関連付けて記録する記録手段と、
を具備することを特徴とする医療行為記録装置。
In the medical practice recording device that records the medical practice of the surgeon in the medical field,
A detection means for detecting a change in a state in the detection region, including a region between a surgeon performing a medical practice and an assistant assisting the operator in a detection region;
The auxiliary information is created based on the detection result of the detection means, and the auxiliary information is recorded in association with a time-series image group obtained by photographing the surgeon's treatment;
A medical practice recording apparatus comprising:
JP2004169964A 2004-06-08 2004-06-08 Medical practice recording system and medical practice recording device Withdrawn JP2005348797A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004169964A JP2005348797A (en) 2004-06-08 2004-06-08 Medical practice recording system and medical practice recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004169964A JP2005348797A (en) 2004-06-08 2004-06-08 Medical practice recording system and medical practice recording device

Publications (1)

Publication Number Publication Date
JP2005348797A true JP2005348797A (en) 2005-12-22

Family

ID=35583747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004169964A Withdrawn JP2005348797A (en) 2004-06-08 2004-06-08 Medical practice recording system and medical practice recording device

Country Status (1)

Country Link
JP (1) JP2005348797A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006055403A (en) * 2004-08-20 2006-03-02 Toshiba Corp Treatment system, ultrasonic irradiation system and data management method in treatment system
JP2009134418A (en) * 2007-11-29 2009-06-18 Toshiba Corp Medical security system
JP2014506695A (en) * 2011-01-30 2014-03-17 ミレイ,ラム スリカンス Technical evaluation
JP2016007444A (en) * 2014-06-25 2016-01-18 オリンパス株式会社 Image recording device
CN105404787A (en) * 2015-12-12 2016-03-16 西安交通大学第一附属医院 Voice image-text recording operation system applied to surgical operation
WO2018138833A1 (en) * 2017-01-26 2018-08-02 オリンパス株式会社 Information recording system, information recording device, and information recording method
WO2018138834A1 (en) * 2017-01-26 2018-08-02 オリンパス株式会社 Information recording system, information recording device, and information recording method
JP2021509333A (en) * 2017-12-28 2021-03-25 エシコン エルエルシーEthicon LLC Surgeon / staff capacity use and technical analysis for baseline to optimize device utilization and capacity for both current and future procedures
US11779337B2 (en) 2017-12-28 2023-10-10 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11793537B2 (en) 2017-10-30 2023-10-24 Cilag Gmbh International Surgical instrument comprising an adaptive electrical system
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11844545B2 (en) 2018-03-08 2023-12-19 Cilag Gmbh International Calcified vessel identification
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11864845B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Sterile field interactive control displays
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11890065B2 (en) 2017-12-28 2024-02-06 Cilag Gmbh International Surgical system to limit displacement
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11903587B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Adjustment to the surgical stapling control based on situational awareness
US11925350B2 (en) 2019-02-19 2024-03-12 Cilag Gmbh International Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge
US11931027B2 (en) 2018-03-28 2024-03-19 Cilag Gmbh Interntional Surgical instrument comprising an adaptive control system
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006055403A (en) * 2004-08-20 2006-03-02 Toshiba Corp Treatment system, ultrasonic irradiation system and data management method in treatment system
JP2009134418A (en) * 2007-11-29 2009-06-18 Toshiba Corp Medical security system
JP2014506695A (en) * 2011-01-30 2014-03-17 ミレイ,ラム スリカンス Technical evaluation
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
JP2016007444A (en) * 2014-06-25 2016-01-18 オリンパス株式会社 Image recording device
CN105404787A (en) * 2015-12-12 2016-03-16 西安交通大学第一附属医院 Voice image-text recording operation system applied to surgical operation
WO2018138833A1 (en) * 2017-01-26 2018-08-02 オリンパス株式会社 Information recording system, information recording device, and information recording method
WO2018138834A1 (en) * 2017-01-26 2018-08-02 オリンパス株式会社 Information recording system, information recording device, and information recording method
US20190306453A1 (en) * 2017-01-26 2019-10-03 Olympus Corporation Information recording system, information recording device, and information recording method
US11925373B2 (en) 2017-10-30 2024-03-12 Cilag Gmbh International Surgical suturing instrument comprising a non-circular needle
US11793537B2 (en) 2017-10-30 2023-10-24 Cilag Gmbh International Surgical instrument comprising an adaptive electrical system
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11819231B2 (en) 2017-10-30 2023-11-21 Cilag Gmbh International Adaptive control programs for a surgical system comprising more than one type of cartridge
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11864845B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Sterile field interactive control displays
US11779337B2 (en) 2017-12-28 2023-10-10 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11890065B2 (en) 2017-12-28 2024-02-06 Cilag Gmbh International Surgical system to limit displacement
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11903587B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Adjustment to the surgical stapling control based on situational awareness
US11918302B2 (en) 2017-12-28 2024-03-05 Cilag Gmbh International Sterile field interactive control displays
JP2021509333A (en) * 2017-12-28 2021-03-25 エシコン エルエルシーEthicon LLC Surgeon / staff capacity use and technical analysis for baseline to optimize device utilization and capacity for both current and future procedures
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11844545B2 (en) 2018-03-08 2023-12-19 Cilag Gmbh International Calcified vessel identification
US11931027B2 (en) 2018-03-28 2024-03-19 Cilag Gmbh Interntional Surgical instrument comprising an adaptive control system
US11925350B2 (en) 2019-02-19 2024-03-12 Cilag Gmbh International Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge

Similar Documents

Publication Publication Date Title
JP2005348797A (en) Medical practice recording system and medical practice recording device
JP6922971B2 (en) Console and program
JP5794597B2 (en) Extracorporeal blood volume estimation and surgically removed sample counting system and method
KR101926123B1 (en) Device and method for segmenting surgical image
EP2014219A2 (en) Endoscopic image processing apparatus
US20160133014A1 (en) Marking And Tracking An Area Of Interest During Endoscopy
JP2011036371A (en) Medical image recording apparatus
US10910103B2 (en) Method and system for extracting an actual surgical duration from a total operating room (OR) time of a surgical procedure
KR101840350B1 (en) Method and apparatus for aiding reading efficiency using eye tracking information in medical image reading processing
JP2006320650A (en) Image display device
CN110662476B (en) Information processing apparatus, control method, and program
CN110662477A (en) Information processing apparatus, control method, and program
TWI788620B (en) Methods and systems for recording and processing an image information of tissue based on voice
US20210142487A1 (en) Surgical scene assessment based on computer vision
WO2019202827A1 (en) Image processing system, image processing device, image processing method, and program
JP2010274044A (en) Surgery support apparatus, surgery support method, and surgery support program
JP2020531099A (en) How to spatially locate a point of interest during a surgical procedure
CN106326856A (en) Surgery image processing method and surgery image processing device
JP6743588B2 (en) Medical imaging system and program
JP2008259661A (en) Examination information processing system and examination information processor
KR20200050262A (en) Apparatus and method for generating multimedia surgery record contents
JP6313913B2 (en) Endoscopic image observation support system
JP2005040223A (en) Medical image display device
KR20160115269A (en) System and application for providing information of health examinations
JP2023550630A (en) Clinical record data generation method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070413

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090918