JP2020137103A - Information processing system and information processing program - Google Patents

Information processing system and information processing program Download PDF

Info

Publication number
JP2020137103A
JP2020137103A JP2019042036A JP2019042036A JP2020137103A JP 2020137103 A JP2020137103 A JP 2020137103A JP 2019042036 A JP2019042036 A JP 2019042036A JP 2019042036 A JP2019042036 A JP 2019042036A JP 2020137103 A JP2020137103 A JP 2020137103A
Authority
JP
Japan
Prior art keywords
image
information processing
marker
surgical field
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019042036A
Other languages
Japanese (ja)
Other versions
JP7304508B2 (en
Inventor
浩紀 升本
Hiroki Masumoto
浩紀 升本
仁志 田淵
Hitoshi Tabuchi
仁志 田淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thinkout Co Ltd
Original Assignee
Thinkout Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thinkout Co Ltd filed Critical Thinkout Co Ltd
Priority to JP2019042036A priority Critical patent/JP7304508B2/en
Publication of JP2020137103A publication Critical patent/JP2020137103A/en
Application granted granted Critical
Publication of JP7304508B2 publication Critical patent/JP7304508B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing system and an information processing program capable of identifying an object that is hard to be discriminated.SOLUTION: According to an embodiment of the present information, an information processing system includes an acquisition part, and a display part. The acquisition part acquires position information in a picked-up image of an identification object or an area including the identification object by performing object detection in a segmentation image obtained from the picked-up image including the identification object. The display part displays a video obtained by overlapping a marker generated on the basis of the position information acquired by the acquisition part on the picked-up image.SELECTED DRAWING: Figure 3

Description

本発明は、識別の困難な対象物を識別する情報処理システムおよび情報処理プログラムに関する。 The present invention relates to an information processing system and an information processing program for identifying an object that is difficult to identify.

白内障などの眼の疾患を治療するには、眼の手術を行うことが一般的である。眼の手術を行う際、医療従事者は、患者の顔をドレープで覆い、手術を行う眼をドレープの開口から露出させる(非特許文献1参照)。 Eye surgery is commonly used to treat eye disorders such as cataracts. When performing eye surgery, the healthcare professional covers the patient's face with a drape to expose the eye to be operated on through the opening of the drape (see Non-Patent Document 1).

https://www.tsukazaki−hp.jp/care/ophthalmology/aihttps: // www. tsukazaki-hp. jp / care / ophthalmology / ai

患者の顔がドレープで覆われている場合、ドレープから露出している眼が左眼か右眼か識別が難しいことがある。そのため、医療従事者は、手術を行わない方の眼が誤って露出しているときに、手術を行う方の眼が露出していると誤認してしまう可能性がある。このような誤認の問題は、医療の現場以外の現場においても、起こり得る問題である。従って、識別の困難な対象物を識別することの可能な情報処理システムおよび情報処理プログラムを提供することが望ましい。 If the patient's face is covered with drapes, it can be difficult to tell whether the eyes exposed from the drapes are the left or right eye. Therefore, the medical staff may mistakenly think that the eye of the person performing the surgery is exposed when the eye of the person who does not perform the surgery is mistakenly exposed. The problem of such misidentification is a problem that can occur in a field other than the medical field. Therefore, it is desirable to provide an information processing system and an information processing program capable of identifying an object that is difficult to identify.

本発明の一実施形態に係る第1の情報処理システムは、取得部と、表示部とを備えている。取得部は、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する。表示部は、取得部で取得された位置情報に基づいて生成したマーカを撮像画像に重ね合わせた画像を表示する。 The first information processing system according to the embodiment of the present invention includes an acquisition unit and a display unit. The acquisition unit acquires the position information in the captured image of the identification target or the region including the identification target by detecting the object on the Segmentation image obtained from the captured image including the identification target. The display unit displays an image in which a marker generated based on the position information acquired by the acquisition unit is superimposed on the captured image.

本発明の一実施形態に係る第2の情報処理システムは、取得部と、合成部とを備えている。取得部は、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する。合成部は、取得部で取得された位置情報に基づいて生成したマーカを、光学系によって形成される、識別対象を含む術野の像に重ね合わせる。 The second information processing system according to the embodiment of the present invention includes an acquisition unit and a synthesis unit. The acquisition unit acquires the position information in the captured image of the identification target or the region including the identification target by detecting the object on the Segmentation image obtained from the captured image including the identification target. The synthesizing unit superimposes the marker generated based on the position information acquired by the acquiring unit on the image of the surgical field including the identification target formed by the optical system.

本発明の一実施形態に係る第3の情報処理システムは、取得部と、送信部とを備えている。取得部は、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する。送信部は、取得部で取得された位置情報を、表示部を備えた情報処理装置に送信する。 A third information processing system according to an embodiment of the present invention includes an acquisition unit and a transmission unit. The acquisition unit acquires the position information in the captured image of the identification target or the region including the identification target by detecting the object on the Segmentation image obtained from the captured image including the identification target. The transmission unit transmits the position information acquired by the acquisition unit to the information processing device provided with the display unit.

本発明の一実施形態に係る第1の情報処理プログラムは、以下の2つのステップをコンピュータに実行させる。
(1)識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する取得ステップ
(2)取得ステップで取得された位置情報に基づいて生成したマーカを撮像画像に重ね合わせた画像を表示するための映像信号を生成する生成ステップ
The first information processing program according to an embodiment of the present invention causes a computer to perform the following two steps.
(1) Acquisition step of acquiring the position information in the captured image of the identification target or the region including the identification target by detecting the object on the Segmentation image obtained from the captured image including the identification target (2) Acquisition step Generation step of generating a video signal for displaying an image in which the marker generated based on the position information acquired in is superimposed on the captured image.

本発明の一実施形態に係る第2の情報処理プログラムは、以下の2つのステップをコンピュータに実行させる。
(1)識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する取得ステップ
(2)取得ステップで取得された位置情報に基づいて生成したマーカを、光学系によって形成される、識別対象を含む術野の像に重ね合わせるための投射光生成用の映像信号を生成する生成ステップ
The second information processing program according to one embodiment of the present invention causes a computer to perform the following two steps.
(1) Acquisition step (2) Acquisition step of acquiring the position information in the captured image of the identification target or the region including the identification target by detecting the object on the Segmentation image obtained from the captured image including the identification target. Generation step of generating a video signal for generating projected light for superimposing the marker generated based on the position information acquired in the above on the image of the surgical field including the identification target formed by the optical system.

本発明の一実施形態に係る第3の情報処理プログラムは、以下の2つのステップをコンピュータに実行させる。
(1)識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する取得ステップ
(2)取得ステップで取得された位置情報を、表示部を備えた情報処理装置に送信する送信ステップ
A third information processing program according to an embodiment of the present invention causes a computer to perform the following two steps.
(1) Acquisition step of acquiring the position information in the captured image of the identification target or the region including the identification target by detecting the object on the Segmentation image obtained from the captured image including the identification target (2) Acquisition step Transmission step of transmitting the position information acquired in step 2 to an information processing device equipped with a display unit.

本発明の一実施形態に係る第1の情報処理システム、第2の情報処理システム、第3の情報処理システム、第1の情報処理プログラム、第2の情報処理プログラムおよび第3の情報処理プログラムでは、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報が取得される。これにより、例えば、取得された位置情報に基づいて生成したマーカを、撮像画像に重ね合わせた画像を表示したり、光学系によって形成される、識別対象を含む術野の像に重ね合わせたりすることが可能となる。その結果、識別対象を識別するのに必要な要素を撮像画像に確実に含ませることができるので、識別の困難な対象物を識別することができる。 In the first information processing system, the second information processing system, the third information processing system, the first information processing program, the second information processing program, and the third information processing program according to the embodiment of the present invention. By performing object detection on the Information Processing image obtained from the captured image including the identification target, the position information in the captured image of the identification target or the region including the identification target is acquired. As a result, for example, the marker generated based on the acquired position information is displayed as an image superimposed on the captured image, or superimposed on the image of the surgical field including the identification target formed by the optical system. It becomes possible. As a result, the elements necessary for identifying the identification target can be reliably included in the captured image, so that the object that is difficult to identify can be identified.

撮像領域の位置調整用のマーカが重ね合わされた術野画像の一例を表す図である。It is a figure which shows an example of the operative field image in which the marker for the position adjustment of an imaging region is superposed. 撮像領域の位置調整用のマーカが重ね合わされた術野画像の一例を表す図である。It is a figure which shows an example of the operative field image in which the marker for the position adjustment of an imaging region is superposed. 本発明の第1の実施の形態に係る左右眼識別システムの概略構成の一例を表す図である。It is a figure which shows an example of the schematic structure of the left-right eye discrimination system which concerns on 1st Embodiment of this invention. 図3の左右眼識別システムの機能ブロックの一例を表す図である。It is a figure which shows an example of the functional block of the left-right eye identification system of FIG. サーバ装置のメモリに記憶された画像データの一例を表す図である。It is a figure which shows an example of the image data stored in the memory of a server apparatus. Segmentation画像の一例を表す図である。It is a figure which shows an example of the Segmentation image. 図4の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。It is a flow chart which shows an example of the right-and-left eye identification procedure in the left-right eye identification system of FIG. 図6のSegmentation画像から得られるDetection画像の一例を表す図である。It is a figure which shows an example of the Detection image obtained from the Segmentation image of FIG. 図3の表示面に表示される画像の一例を表す図である。It is a figure which shows an example of the image displayed on the display surface of FIG. 図3の表示面に表示される画像の一例を表す図である。It is a figure which shows an example of the image displayed on the display surface of FIG. 図3の表示面に表示される画像の一例を表す図である。It is a figure which shows an example of the image displayed on the display surface of FIG. 図3の表示面に表示される画像の一例を表す図である。It is a figure which shows an example of the image displayed on the display surface of FIG. 図3の表示面に表示される画像の一例を表す図である。It is a figure which shows an example of the image displayed on the display surface of FIG. 図3の表示面に表示される画像の一例を表す図である。It is a figure which shows an example of the image displayed on the display surface of FIG. 図4の左右眼識別システムの機能ブロックの一変形例を表す図である。It is a figure which shows one modification of the functional block of the left-right eye identification system of FIG. 図15の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。It is a flow chart which shows an example of the right-and-left eye identification procedure in the left-right eye identification system of FIG. 図3の左右眼識別システムの概略構成の一変形例を表す図である。It is a figure which shows one modification of the schematic structure of the left-right eye identification system of FIG. 図17の左右眼識別システムの機能ブロックの一例を表す図である。It is a figure which shows an example of the functional block of the left-right eye identification system of FIG. 図18の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。It is a flow chart which shows an example of the right-and-left eye identification procedure in the left-right eye identification system of FIG. 図3の左右眼識別システムの概略構成の一変形例を表す図である。It is a figure which shows one modification of the schematic structure of the left-right eye identification system of FIG. 図20の左右眼識別システムの機能ブロックの一例を表す図である。It is a figure which shows an example of the functional block of the left-right eye identification system of FIG. 図20の左右眼識別システムの機能ブロックの一例を表す図である。It is a figure which shows an example of the functional block of the left-right eye identification system of FIG. 図3の左右眼識別システムの概略構成の一変形例を表す図である。It is a figure which shows one modification of the schematic structure of the left-right eye identification system of FIG. 図23の左右眼識別システムの機能ブロックの一例を表す図である。It is a figure which shows an example of the functional block of the left-right eye identification system of FIG. 本発明の第2の実施の形態に係る左右眼識別システムの概略構成の一例を表す図である。It is a figure which shows an example of the schematic structure of the left-right eye identification system which concerns on the 2nd Embodiment of this invention. 図25の左右眼識別システムの機能ブロックの一例を表す図である。It is a figure which shows an example of the functional block of the left-right eye identification system of FIG. 図26の投射部から出射される画像の一例を表す図である。It is a figure which shows an example of the image emitted from the projection part of FIG. 図26の投射部から出射される画像の一例を表す図である。It is a figure which shows an example of the image emitted from the projection part of FIG. 図26の投射部から出射される画像の一例を表す図である。It is a figure which shows an example of the image emitted from the projection part of FIG. 図26の投射部から出射される画像の一例を表す図である。It is a figure which shows an example of the image emitted from the projection part of FIG. 図26の投射部から出射される画像の一例を表す図である。It is a figure which shows an example of the image emitted from the projection part of FIG. 図25の接眼部で視認される画像の一例を表す図である。It is a figure which shows an example of the image which is visually recognized by the eyepiece part of FIG. 図26の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。It is a flow chart which shows an example of the right-and-left eye identification procedure in the left-right eye identification system of FIG. 図26の左右眼識別システムの機能ブロックの一変形例を表す図である。It is a figure which shows one modification of the functional block of the left-right eye identification system of FIG. 図34の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。FIG. 3 is a flow chart showing an example of a left-right eye identification procedure in the left-right eye identification system of FIG. 34. 図25の左右眼識別システムの概略構成の一変形例を表す図である。It is a figure which shows one modification of the schematic structure of the left-right eye identification system of FIG. 図36の左右眼識別システムの機能ブロックの一例を表す図である。It is a figure which shows an example of the functional block of the left-right eye identification system of FIG. 図37の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。It is a flow chart which shows an example of the right-and-left eye identification procedure in the left-right eye identification system of FIG.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。以下の説明は本発明の一具体例であって、本発明は以下の態様に限定されるものではない。また、本発明は、各図に示す各構成要素の配置や寸法、寸法比などについても、それらに限定されるものではない。また、以下の説明において、上下、左右、前後等の方向は、特に言及しない限り医療従事者側から見た方向とする。なお、上下方向については、後述の対物レンズから術野に向かう方向を下方とし、これの反対方向を上方とする。一般に患者は仰向け状態で手術を受けるので、上下方向と垂直方向とは同じになる。なお、説明は、以下の順序で行う。
1.発明の背景
2.第1の実施の形態(図1〜図14)
Segmentation画像の生成や左右眼識別をサーバ装置で行い、
明るさ判定、ピント判定、Detection画像の生成および位置判定を情報 処理装置で行う例
3.第1の実施の形態の変形例
変形例A(図15、図16)
明るさ判定、ピント判定、Detection画像の生成および位置判定もサー バ装置で行う例(情報処理装置がインターフェースとして機能する例)
変形例B(図17〜図19)
サーバ装置を省略した例
変形例C(図20〜図22)
第1の実施の形態および変形例Aにおいて、
情報処理装置とサーバ装置との通信とは異なる通信で、撮像画像を情報処理装置 に送信する例
変形例D(図23、図24)
変形例Cにおいてサーバ装置を省略した例
4.第2の実施の形態(図25〜図33)
Segmentation画像の生成や左右眼識別をサーバ装置で行い、
明るさ判定、ピント判定、Detection画像の生成および位置判定をカメ ラ付き情報処理装置で行う例
5.第2の実施の形態の変形例
変形例E(図34、図35)
明るさ判定、ピント判定、Detection画像の生成および位置判定もサー バ装置で行う例
(カメラ付き情報処理装置がインターフェースとして機能する例)
変形例F(図36〜図38)
サーバ装置を省略した例
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. The following description is a specific example of the present invention, and the present invention is not limited to the following aspects. Further, the present invention is not limited to the arrangement, dimensions, dimensional ratio, etc. of each component shown in each figure. Further, in the following description, the directions such as up / down, left / right, front / back, etc. are the directions seen from the medical staff side unless otherwise specified. Regarding the vertical direction, the direction from the objective lens described later toward the surgical field is downward, and the opposite direction is upward. Generally, the patient is operated on his back, so the vertical and vertical directions are the same. The description will be given in the following order.
1. 1. Background of the invention 2. First Embodiment (FIGS. 1 to 14)
The server device generates segmentation images and identifies the left and right eyes.
Example of performing brightness judgment, focus judgment, generation image generation and position judgment with an information processing device. Modification example of the first embodiment Modification A (FIGS. 15 and 16)
An example in which brightness judgment, focus judgment, generation image generation and position judgment are also performed by a server device (an example in which an information processing device functions as an interface).
Modification B (FIGS. 17 to 19)
Example of omitting the server device Modification C (FIGS. 20 to 22)
In the first embodiment and the modified example A,
Example of transmitting an captured image to the information processing device by a communication different from the communication between the information processing device and the server device Modification D (FIGS. 23 and 24)
Example of omitting the server device in the modified example C 4. Second Embodiment (FIGS. 25-33)
A server device is used to generate Segmentation images and identify the left and right eyes.
An example of performing brightness judgment, focus judgment, generation image generation and position judgment with an information processing device with a camera. Modification example of the second embodiment Modification E (FIGS. 34 and 35)
An example in which brightness judgment, focus judgment, generation image generation and position judgment are also performed by a server device (an example in which an information processing device with a camera functions as an interface)
Modification F (FIGS. 36 to 38)
Example of omitting the server device

<1.発明の背景>
図1、図2は、撮像領域の位置調整用のマーカMcが重ね合わされた術野画像Ia(撮像画像)の一例を表したものである。図1、図2に記載の術野画像Iaには、本発明の一実施の形態に係る左右眼識別システム(以下、単に「左右眼識別システム」と称する。)における識別対象である眼10が含まれている。眼10は、眼球11と、涙丘12とを含んで構成されている。涙丘12は、眼10のうち、鼻に近い端部(目頭)に存在している。図1、図2に記載の術野画像Iaは、例えば、医療従事者が患者の頭の傍に立ち、患者の頭上に設置された顕微鏡を覗いたときの術野の様子に対応している。従って、図1に示したように、術野画像Iaに対して物体検出(Detection)を行うことにより得られた画像(Detection画像Ib)の中に、涙丘12や目頭が含まれている場合には、例えば、Detection画像Ibの枠をマーカとして術野画像Iaに重ね合わせて表示することによって、医療従事者は、眼10全体が撮像領域内に入っているか否かを直感的に把握することができる。この場合、医療従事者が、マーカが術野画像Iaにおける所定の領域内に位置するように撮像領域を調整することで、眼10全体が術野画像Iaにおける所定の領域内に入るので、術野画像Iaに写っている眼10が左眼であるか、右眼であるかを左右眼識別システムにおいて正しく識別することが可能となる。
<1. Background of the invention>
1 and 2 show an example of a surgical field image Ia (captured image) in which markers Mc for adjusting the position of an imaging region are superimposed. In the surgical field image Ia shown in FIGS. 1 and 2, the eye 10 which is the identification target in the left and right eye identification system (hereinafter, simply referred to as “left and right eye identification system”) according to the embodiment of the present invention is included. include. The eye 10 includes an eyeball 11 and a caruncle 12. The caruncle 12 exists at the end (inner corner of the eye) of the eye 10 near the nose. The surgical field images Ia shown in FIGS. 1 and 2 correspond to, for example, the state of the surgical field when a medical worker stands beside the patient's head and looks into a microscope installed above the patient's head. .. Therefore, as shown in FIG. 1, when the caruncle 12 and the inner corner of the eye are included in the image (Detection image Ib) obtained by performing object detection (Detection) on the surgical field image Ia. For example, by superimposing the frame of the Detection image Ib on the surgical field image Ia as a marker and displaying it, the medical staff can intuitively grasp whether or not the entire eye 10 is within the imaging region. be able to. In this case, the medical staff adjusts the imaging region so that the marker is located within the predetermined region in the surgical field image Ia, so that the entire eye 10 falls within the predetermined region in the surgical field image Ia. Whether the eye 10 shown in the field image Ia is the left eye or the right eye can be correctly identified by the left and right eye identification system.

ところが、実際に、術野画像Iaに対して物体検出を行うと、例えば、図2に示したように、Detection画像Ibには、眼球11が含まれるが、涙丘12や目頭が含まれない。そのため、図2に示したように、Detection画像Ibの枠をマーカとして術野画像Iaに重ね合わせて表示した場合に、医療従事者が、眼10全体が撮像領域内に入っているか否かを直感的に把握することが難しいことがある。この場合、医療従事者が、マーカが術野画像Iaにおける所定の領域内に位置するように撮像領域を調整したとしても、眼10の一部が術野画像Iaにおける所定の領域から外れてしまい、術野画像Iaに写っている眼10が左眼であるか、右眼であるかを左右眼識別システムにおいて正しく識別することができないおそれがある。そこで、本発明では、Detection画像Ibの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)が確実に含まれるようにする手法を提案する。 However, when an object is actually detected on the surgical field image Ia, for example, as shown in FIG. 2, the Detection image Ib includes the eyeball 11, but does not include the caruncle 12 or the inner corner of the eye. .. Therefore, as shown in FIG. 2, when the frame of the Detection image Ib is superimposed on the surgical field image Ia as a marker and displayed, the medical staff can determine whether or not the entire eye 10 is within the imaging region. It can be difficult to grasp intuitively. In this case, even if the medical staff adjusts the imaging region so that the marker is located within the predetermined region in the surgical field image Ia, a part of the eye 10 is out of the predetermined region in the surgical field image Ia. There is a possibility that the left and right eye identification system cannot correctly distinguish whether the eye 10 shown in the surgical field image Ia is the left eye or the right eye. Therefore, the present invention proposes a method for ensuring that the Deception image Ib contains an element that facilitates identification of the left and right eyes (for example, the caruncle 12 and the inner corner of the eye).

<2.第1の実施の形態>
[構成]
図3は、本発明の第1の実施の形態に係る左右眼識別システム100の概略構成の一例を表したものである。左右眼識別システム100は、本発明の「情報処理システム」の一具体例に相当する。図4は、左右眼識別システム100の機能ブロックの一例を表したものである。図3には、医療従事者が術野を拡大して視認するための眼科手術用顕微鏡システム200が、左右眼識別システム100とともに例示されている。本実施の形態において、術野は、患者400の顔のうち、患者400の顔に被せたドレープ600の開口610内に露出している領域である。術野には、手術を行う眼が含まれている。患者400は、手術台300に仰向け状態で寝ており、患者400の身体には、シーツ500が被されており、患者400の顔にはドレープ600が被されている。
<2. First Embodiment>
[Constitution]
FIG. 3 shows an example of a schematic configuration of the left and right eye identification system 100 according to the first embodiment of the present invention. The left and right eye identification system 100 corresponds to a specific example of the "information processing system" of the present invention. FIG. 4 shows an example of the functional blocks of the left and right eye identification system 100. In FIG. 3, a microscope system 200 for ophthalmic surgery for a medical professional to magnify and visually recognize a surgical field is illustrated together with a left-right eye discrimination system 100. In the present embodiment, the surgical field is an area of the face of the patient 400 that is exposed within the opening 610 of the drape 600 that covers the face of the patient 400. The surgical field includes the eye on which surgery is performed. The patient 400 is lying on his back on the operating table 300, the body of the patient 400 is covered with sheets 500, and the face of the patient 400 is covered with a drape 600.

(眼科手術用顕微鏡システム200)
眼科手術用顕微鏡システム200は、例えば、支柱210と、第1アーム220と、第2アーム230と、駆動装置240と、医療従事者用顕微鏡250と、フットスイッチ260とを備えている。
(Microscope system for ophthalmic surgery 200)
The microscope system 200 for ophthalmic surgery includes, for example, a support 210, a first arm 220, a second arm 230, a drive device 240, a medical professional microscope 250, and a foot switch 260.

支柱210は、眼科手術用顕微鏡システム200の全体を支持する。支柱210の上端には、第1アーム220の一端が接続されている。第1アーム220の他端には、第2アーム230の一端が接続されている。第2アーム230の他端には、駆動装置240が接続されている。医療従事者用顕微鏡250は、駆動装置240により懸架されている。左右眼識別システム100に用いられるカメラ120が、医療従事者用顕微鏡250に付設されている。フットスイッチ260は、各種操作を医療従事者等の足で行うために用いられる。駆動装置240は、医療従事者等による操作に応じて、医療従事者用顕微鏡250とカメラ120とを上下方向および水平方向に3次元的に移動させる。 The stanchions 210 support the entire ophthalmologic surgical microscope system 200. One end of the first arm 220 is connected to the upper end of the support column 210. One end of the second arm 230 is connected to the other end of the first arm 220. A drive device 240 is connected to the other end of the second arm 230. The medical professional microscope 250 is suspended by a drive device 240. The camera 120 used in the left and right eye identification system 100 is attached to the microscope 250 for medical staff. The foot switch 260 is used to perform various operations with the feet of a medical worker or the like. The drive device 240 moves the microscope 250 for medical workers and the camera 120 three-dimensionally in the vertical direction and the horizontal direction in response to an operation by a medical worker or the like.

医療従事者用顕微鏡250は、各種光学系や駆動系などを収納する鏡筒部251と、左右一対の接眼部252とを有している。医療従事者は、接眼部252を覗き込んで、鏡筒部251を介して術野を両眼で観察する。鏡筒部251は、例えば、対物レンズと、照明光学系と、観察光学系と、撮影光学系とを含んで構成されている。観察光学系は、対物レンズに連結される光学系であり、撮影光学系は、カメラ120に連結される光学系である。 The microscope 250 for medical professionals has a lens barrel portion 251 for accommodating various optical systems, a drive system, and the like, and a pair of left and right eyepiece portions 252. The medical worker looks into the eyepiece 252 and observes the surgical field with both eyes through the lens barrel 251. The lens barrel portion 251 includes, for example, an objective lens, an illumination optical system, an observation optical system, and a photographing optical system. The observation optical system is an optical system connected to the objective lens, and the photographing optical system is an optical system connected to the camera 120.

照明光学系は、対物レンズを介して術野を照明する。観察光学系は、照明光学系により照明されている術野を、対物レンズを介して医療従事者用顕微鏡250により観察するために用いられる。観察光学系は、左右一対設けられており、右側の観察光学系は、右側の接眼部252に連結され、左側の観察光学系は、左側の接眼部252に連結されている。右側の観察光学系には、例えば、ビームスプリッタが設けられており、術野から右側の観察光学系を導光する光の一部がビームスプリッタによって撮影光学系に導かれる。 The illumination optical system illuminates the surgical field through the objective lens. The observation optical system is used for observing the surgical field illuminated by the illumination optical system with a microscope 250 for medical staff through an objective lens. A pair of left and right observation optical systems are provided, the right observation optical system is connected to the right eyepiece 252, and the left observation optical system is connected to the left eyepiece 252. The observation optical system on the right side is provided with, for example, a beam splitter, and a part of the light guiding the observation optical system on the right side from the surgical field is guided to the imaging optical system by the beam splitter.

(左右眼識別システム100)
左右眼識別システム100は、例えば、情報処理装置110と、カメラ120と、サーバ装置130とを備えている。情報処理装置110およびサーバ装置130は、ネットワーク140を介して接続されている。情報処理装置110は、ネットワーク140を介してサーバ装置130と通信することができるように構成されている。サーバ装置130は、ネットワーク140を介して情報処理装置110と通信することができるように構成されている。情報処理装置110およびカメラ120は、ネットワーク140を介して接続されている。情報処理装置110は、ネットワーク140を介してカメラ120と通信することができるように構成されている。カメラ120は、ネットワーク140を介して情報処理装置110と通信することができるように構成されている。
(Left and right eye identification system 100)
The left and right eye identification system 100 includes, for example, an information processing device 110, a camera 120, and a server device 130. The information processing device 110 and the server device 130 are connected to each other via the network 140. The information processing device 110 is configured to be able to communicate with the server device 130 via the network 140. The server device 130 is configured to be able to communicate with the information processing device 110 via the network 140. The information processing device 110 and the camera 120 are connected via the network 140. The information processing device 110 is configured to be able to communicate with the camera 120 via the network 140. The camera 120 is configured to be able to communicate with the information processing device 110 via the network 140.

ネットワーク140は、例えば、インターネットで標準的に利用されている通信プロトコル(TCP/IP)を用いて通信を行うネットワークである。ネットワーク140は、例えば、そのネットワーク独自の通信プロトコルを用いて通信を行うセキュアなネットワークであってもよい。ネットワーク140は、例えば、インターネット、イントラネット、または、ローカルエリアネットワークである。ネットワーク140と、情報処理装置110、サーバ装置130またはカメラ120との接続は、例えば、イーサネット等の有線LAN(Local Area Network)であってもよいし、Wi−Fi等の無線LANや、携帯電話回線などであってもよい。 The network 140 is, for example, a network that communicates using a communication protocol (TCP / IP) that is standardly used on the Internet. The network 140 may be, for example, a secure network that communicates using a communication protocol unique to the network. The network 140 is, for example, the Internet, an intranet, or a local area network. The connection between the network 140 and the information processing device 110, the server device 130, or the camera 120 may be, for example, a wired LAN (Local Area Network) such as Ethernet, a wireless LAN such as Wi-Fi, or a mobile phone. It may be a line or the like.

情報処理装置110は、例えば、制御部111、メモリ112、表示部113、入力部114およびネットワークIF(Interface)115を含んで構成されている。本実施の形態において、制御部111は、本発明の「取得部」の一具体例に相当する。表示部113は、本発明の「表示部」の一具体例に相当する。制御部111は、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)などを含んで構成され、例えば、メモリ112に記憶されたウェブブラウザプログラムや、オペレーティングシステムなど(図示せず)を実行する。制御部111は、さらに、例えば、メモリ112に記憶されたプログラム112Aを実行する。プログラム112Aは、本発明の「情報処理プログラム」の一具体例に相当する。プログラム112Aは、術野に含まれる眼の種類(左眼または右眼)を識別するための一連の手順を制御部111に実行させる。プログラム112Aが制御部111に実行させる一連の手順については、後に詳述する。 The information processing device 110 includes, for example, a control unit 111, a memory 112, a display unit 113, an input unit 114, and a network IF (Interface) 115. In the present embodiment, the control unit 111 corresponds to a specific example of the "acquisition unit" of the present invention. The display unit 113 corresponds to a specific example of the “display unit” of the present invention. The control unit 111 is configured to include a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and executes, for example, a web browser program stored in the memory 112, an operating system, and the like (not shown). The control unit 111 further executes, for example, the program 112A stored in the memory 112. The program 112A corresponds to a specific example of the "information processing program" of the present invention. Program 112A causes control unit 111 to perform a series of procedures for identifying the type of eye (left eye or right eye) included in the surgical field. A series of procedures for the program 112A to execute the control unit 111 will be described in detail later.

メモリ112は、制御部111によって実行されるプログラム(例えば、ウェブブラウザプログラムや、オペレーティングシステム)などを記憶している。メモリ112は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等によって構成される。メモリ112は、さらに、プログラム112Aを記憶している。 The memory 112 stores a program (for example, a web browser program or an operating system) executed by the control unit 111. The memory 112 is composed of, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), an auxiliary storage device (hard disk, etc.), and the like. The memory 112 further stores the program 112A.

表示部113は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等の表示装置からなる。表示部113は、制御部111からの映像信号に基づく画像を表示面110Aに表示する。入力部114は、外部(例えば、ユーザ)からの指示を受け付け、受け付けた指示を制御部111に出力する。入力部114は、例えば、ボタンやダイヤルなどを含む機械的な入力インターフェースであってもよいし、マイクロフォンなどを含む音声入力インターフェースであってもよい。入力部114は、例えば、情報処理装置110の表示面110Aに設けられたタッチパネルであってもよい。ネットワークIF115は、ネットワーク140を介してサーバ装置130と通信するための通信インターフェースである。 The display unit 113 includes, for example, a display device such as a liquid crystal panel or an organic EL (Electroluminescence) panel. The display unit 113 displays an image based on the video signal from the control unit 111 on the display surface 110A. The input unit 114 receives an instruction from the outside (for example, a user) and outputs the received instruction to the control unit 111. The input unit 114 may be, for example, a mechanical input interface including buttons, dials, or the like, or a voice input interface including a microphone or the like. The input unit 114 may be, for example, a touch panel provided on the display surface 110A of the information processing device 110. The network IF 115 is a communication interface for communicating with the server device 130 via the network 140.

カメラ120は、例えば、CCD(Charge Coupled Device)イメージセンサもしくはCMOS(Complementary metal−oxide−semiconductor)イメージセンサを含んで構成されている。カメラ120は、例えば、情報処理装置110による制御に従って撮像を行い、それにより得られた画像(術野画像Ia)を、ネットワーク140を介して情報処理装置110に出力する。 The camera 120 is configured to include, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary metal-oxide-semiconductor) image sensor. For example, the camera 120 takes an image under the control of the information processing device 110, and outputs the image (operative field image Ia) obtained thereby to the information processing device 110 via the network 140.

サーバ装置130は、例えば、制御部131、Segmentation学習モデル132、左右眼識別学習モデル133、メモリ134およびネットワークIF135などを含んで構成されている。左右眼識別学習モデル133は、本発明の「識別部」の一具体例に相当する。制御部131は、CPUおよびGPUなどを含んで構成され、例えば、メモリ134に記憶されたウェブサーバプログラムや、オペレーティングシステムなどを実行する。制御部131は、さらに、例えば、左右眼識別学習モデル133で得られた識別結果などを、ネットワークIF135を介して情報処理装置110に送信する。 The server device 130 includes, for example, a control unit 131, a segmentation learning model 132, a left / right eye discrimination learning model 133, a memory 134, a network IF 135, and the like. The left-right eye discrimination learning model 133 corresponds to a specific example of the "discrimination unit" of the present invention. The control unit 131 is configured to include a CPU, a GPU, and the like, and executes, for example, a web server program stored in the memory 134, an operating system, and the like. The control unit 131 further transmits, for example, the identification result obtained by the left and right eye identification learning model 133 to the information processing device 110 via the network IF135.

ネットワークIF135は、ネットワーク140を介して情報処理装置110と通信するための通信インターフェースである。メモリ134は、制御部131によって実行されるプログラム(例えば、ウェブサーバプログラムや、オペレーティングシステム)などを記憶する。メモリ134は、例えば、RAM、ROM、補助記憶装置(ハードディスク等)等によって構成される。メモリ134には、さらに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cが記憶されている。 The network IF 135 is a communication interface for communicating with the information processing device 110 via the network 140. The memory 134 stores a program (for example, a web server program or an operating system) executed by the control unit 131. The memory 134 is composed of, for example, a RAM, a ROM, an auxiliary storage device (hard disk, etc.) and the like. The memory 134 further stores a plurality of image data 134A, a plurality of image data 134B, and a plurality of surgical data 134C.

各画像データ134Aは、Segmentation学習モデル132に対して入力される2種類の学習データのうちの1つであるとともに、左右眼識別学習モデル133に対して入力される2種類の学習データのうちの1つである。各画像データ134Aは、例えば、図1、図2に示したような、カメラ120で得られた術野画像Iaである。各画像データ134Bは、Segmentation学習モデル132に対して入力される2種類の学習データのうちの1つであり、例えば、図5に示したような、各画像データ134Aのピクセルが示す意味がラベル付けされたSegmentation画像である。なお、図5に示した画像データ134Bは、眼領域Raであるとラベル付けされたピクセルと、周辺領域Rbであるとラベル付けされたピクセルとによって構成されている。各手術データ134Cは、患者の手術データであり、例えば、患者氏名、患者ID、病名、手術日時、術眼(左眼、右眼)、術式、担当医などを含んでいる。 Each image data 134A is one of the two types of learning data input to the Segmentation learning model 132, and is one of the two types of learning data input to the left / right eye discrimination learning model 133. There is one. Each image data 134A is, for example, a surgical field image Ia obtained by the camera 120 as shown in FIGS. 1 and 2. Each image data 134B is one of two types of training data input to the Segmentation learning model 132. For example, as shown in FIG. 5, the meaning indicated by the pixels of each image data 134A is labeled. It is a attached Segmentation image. The image data 134B shown in FIG. 5 is composed of pixels labeled as the eye region Ra and pixels labeled as the peripheral region Rb. Each surgical data 134C is surgical data of a patient, and includes, for example, a patient name, a patient ID, a disease name, a surgical date and time, a surgical eye (left eye, right eye), a surgical procedure, a doctor in charge, and the like.

Segmentation学習モデル132は、学習プロセスでは、一組の画像データ134A,134Bを学習データとして機械学習を行う。Segmentation学習モデル132は、機械学習の結果、画像データ134Aと画像データ134Bとの対応関係についての情報を学習結果として生成し、保有する。Segmentation学習モデル132は、変換プロセスでは、カメラ120で得られた術野画像Iaが入力されると、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。 In the learning process, the Segmentation learning model 132 performs machine learning using a set of image data 134A and 134B as learning data. The Segmentation learning model 132 generates and holds information on the correspondence between the image data 134A and the image data 134B as a learning result as a result of machine learning. In the segmentation learning model 132, when the surgical field image Ia obtained by the camera 120 is input in the conversion process, the surgical field image Ia is converted into the segmentation image Ic by using the learning result (see FIG. 6).

左右眼識別学習モデル133は、学習プロセスでは、画像データ134Aと、画像データ134Aに含まれる眼の種類(左眼または右眼)とを学習データとして機械学習を行う。左右眼識別学習モデル133は、機械学習の結果、画像データ134Aと、眼の種類との対応関係についての情報を学習結果として生成し、保有する。左右眼識別学習モデル133は、識別プロセスでは、術野画像Iaを取得すると、学習結果を利用して、術野画像Iaに含まれる眼の種類(左眼または右眼)を識別する。 In the learning process, the left-right eye discrimination learning model 133 performs machine learning using the image data 134A and the type of eye (left eye or right eye) included in the image data 134A as learning data. The left-right eye discrimination learning model 133 generates and holds information about the correspondence between the image data 134A and the eye type as a learning result as a result of machine learning. In the discrimination process, the left-right eye discrimination learning model 133 identifies the type of eye (left eye or right eye) included in the surgical field image Ia by using the learning result when the surgical field image Ia is acquired.

[動作]
次に、本実施の形態に係る左右眼識別システム100の動作の一例について説明する。
[motion]
Next, an example of the operation of the left and right eye identification system 100 according to the present embodiment will be described.

(機械学習)
ユーザは、入力部114を介して、Segmentation学習モデル132に対して学習開始を指示する。すると、Segmentation学習モデル132は、学習プロセスを実行する。具体的には、Segmentation学習モデル132は、メモリ134に記憶された複数組の画像データ134Aおよび画像データ134Bを学習データとして、機械学習を行う。Segmentation学習モデル132は、機械学習の結果、画像データ134Aと画像データ134Bとの対応関係についての情報を学習結果として生成し、保有する。このようにして、Segmentation学習モデル132による機械学習が終了する。
(Machine learning)
The user instructs the Segmentation learning model 132 to start learning via the input unit 114. Then, the Segmentation learning model 132 executes the learning process. Specifically, the Segmentation learning model 132 performs machine learning using a plurality of sets of image data 134A and image data 134B stored in the memory 134 as training data. The Segmentation learning model 132 generates and holds information on the correspondence between the image data 134A and the image data 134B as a learning result as a result of machine learning. In this way, machine learning by the Segmentation learning model 132 is completed.

次に、ユーザは、入力部114を介して、左右眼識別学習モデル133に対して学習開始を指示する。すると、左右眼識別学習モデル133は、学習プロセスを実行する。具体的には、左右眼識別学習モデル133は、メモリ134に記憶された複数の画像データ134Aのサムネイルおよび識別子とともに、各画像データ134Aに対する眼の種類(左眼、右眼)の入力要請を情報処理装置110に送信する。なお、通信速度等の問題がない場合には、左右眼識別学習モデル133は、サムネイルではなくオリジナルの画像データ134Aを情報処理装置110に送信してもよい。情報処理装置110は、左右眼識別学習モデル133から、複数の画像データ134Aのサムネイルおよび識別子とともに、各画像データ134Aに対する眼の種類(左眼、右眼)の入力要請を受信すると、受信した複数の画像データ134Aのサムネイルを表示部113に表示するとともに、ユーザに対して眼の種類(左眼、右眼)の入力を促す表示を表示部113に表示する。ユーザは、表示部113の表示に従い、画像データ134Aごとに、眼の種類(左眼、右眼)を入力部114に入力する。入力部114は、ユーザから入力された、画像データ134Aごとの眼の種類(左眼、右眼)を、画像データ134Aの識別子とともに左右眼識別学習モデル133に送信する。左右眼識別学習モデル133は、情報処理装置110から、画像データ134Aごとの眼の種類(左眼、右眼)を、画像データ134Aの識別子とともに受信すると、眼の種類(左眼、右眼)と、画像データ134Aの識別子との対応関係を生成し、保有する。このようにして、左右眼識別学習モデル133による機械学習が終了する。 Next, the user instructs the left and right eye discrimination learning model 133 to start learning via the input unit 114. Then, the left and right eye discrimination learning model 133 executes the learning process. Specifically, the left-right eye discrimination learning model 133 informs the input request of the eye type (left eye, right eye) for each image data 134A together with the thumbnails and identifiers of the plurality of image data 134A stored in the memory 134. It is transmitted to the processing device 110. If there is no problem such as communication speed, the left and right eye identification learning model 133 may transmit the original image data 134A instead of the thumbnail to the information processing device 110. When the information processing apparatus 110 receives an input request for an eye type (left eye, right eye) for each image data 134A together with thumbnails and identifiers of a plurality of image data 134A from the left and right eye discrimination learning model 133, the plurality of received information devices 110 The thumbnail of the image data 134A of the above is displayed on the display unit 113, and a display prompting the user to input the type of eye (left eye, right eye) is displayed on the display unit 113. The user inputs the eye type (left eye, right eye) to the input unit 114 for each image data 134A according to the display of the display unit 113. The input unit 114 transmits the eye type (left eye, right eye) for each image data 134A input by the user to the left / right eye discrimination learning model 133 together with the identifier of the image data 134A. When the left and right eye discrimination learning model 133 receives the eye type (left eye, right eye) for each image data 134A from the information processing device 110 together with the identifier of the image data 134A, the eye type (left eye, right eye) And the correspondence relationship with the identifier of the image data 134A is generated and held. In this way, machine learning by the left and right eye discrimination learning model 133 is completed.

(左右眼識別)
図7は、左右眼識別システム100における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、情報処理装置110(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを情報処理装置110に送信する。
(Left and right eye identification)
FIG. 7 is a flow chart showing an example of the left / right eye identification procedure in the left / right eye identification system 100. First, the user instructs the start of left / right eye identification via the input unit 114. The user instructs, for example, to start the program 112A via the input unit 114. Then, the information processing device 110 (control unit 111) reads the program 112A from the memory 112 and loads it into the control unit 111. The control unit 111 loaded with the program 112A executes a series of steps for distinguishing the left and right eyes. Specifically, first, the control unit 111 outputs an imaging instruction to the camera 120. The camera 120 images the inside of the opening of the drape 600 according to the imaging instruction, and transmits the surgical field image Ia obtained thereby to the information processing device 110.

情報処理装置110(制御部111)は、受信した術野画像Iaに対して明るさ判定を行う。情報処理装置110(制御部111)は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。情報処理装置110(制御部111)は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。情報処理装置110(制御部111)は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。情報処理装置110(制御部111)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像Iaをサーバ装置130に送信する。 The information processing device 110 (control unit 111) determines the brightness of the received surgical field image Ia. The information processing device 110 (control unit 111) converts, for example, the surgical field image Ia into HSV, and when the V value of each pixel obtained by the conversion is out of a predetermined range, the surgical field image Ia is bright. The display unit 113 indicates that the image is insufficient or too bright. The information processing device 110 (control unit 111) performs focus determination, for example, when the V value of each obtained pixel is within a predetermined range. For example, the information processing device 110 (control unit 111) performs Laplacian differentiation on the surgical field image Ia, and when the score obtained by the Laplacian differentiation is lower than a predetermined threshold value, the surgical field image Ia is out of focus. The fact that the information is displayed is displayed on the display unit 113. The information processing device 110 (control unit 111) transmits, for example, the surgical field image Ia to the server device 130 when the derived score is equal to or higher than a predetermined threshold value.

サーバ装置130が情報処理装置110から術野画像Iaを受信すると、Segmentation学習モデル132が変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを情報処理装置110に送信する。情報処理装置110(制御部111)は、受信したSegmentation画像Icに対して、物体検出を行う。情報処理装置110(制御部111)は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 When the server device 130 receives the surgical field image Ia from the information processing device 110, the segmentation learning model 132 executes the conversion process. Specifically, the Segmentation learning model 132 converts the surgical field image Ia into the Segmentation image Ic by using the learning result (see FIG. 6). The segmentation learning model 132 transmits the segmentation image Ic obtained by the conversion to the information processing device 110. The information processing device 110 (control unit 111) detects an object on the received Segmentation image Ic. As shown in FIG. 8, the information processing device 110 (control unit 111) cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the segmentation image Ic, for example. .. The image obtained in this way is referred to as a Detection image Id.

情報処理装置110(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。情報処理装置110(制御部111)は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、情報処理装置110(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The information processing device 110 (control unit 111) uses the position information of the obtained Detection image Id in the surgical field image Ia as the position information in the surgical field image Ia of the region including the eye to be identified. The information processing device 110 (control unit 111) uses, for example, the position information of the outer edge portion of the obtained Detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the information processing device 110 (control unit 111) acquires the position information in the surgical field image Ia of the region including the eye to be identified by detecting the object on the Segmentation image Ic.

なお、情報処理装置110(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。情報処理装置110(制御部111)は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、後述のマーカMcの位置情報としてもよい。この場合、情報処理装置110(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The information processing device 110 (control unit 111) may use the position information of the obtained Detection image Id in the surgical field image Ia as the position information of the eye to be identified in the surgical field image Ia. The information processing device 110 (control unit 111) may use, for example, the position information in the surgical field image Ia of the outer edge portion of the eye region Ra of the obtained Detection image Id as the position information of the marker Mc described later. In this case, the information processing device 110 (control unit 111) acquires the position information of the eye to be identified in the surgical field image Ia by detecting the object on the segmentation image Ic.

情報処理装置110(制御部111)は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図9に示したように、制御部111からの映像信号に基づいて、術野画像IaにマーカMcを重ね合わせた画像(マーカ画像Ie)を表示面110Aに表示する。 The information processing device 110 (control unit 111) generates a marker Mc based on the acquired position information, and then displays an image (marker image Ie) in which the generated marker Mc is superimposed on the surgical field image Ia. A signal is generated and output to the display unit 113. For example, as shown in FIG. 9, the display unit 113 displays an image (marker image Ie) in which the marker Mc is superimposed on the surgical field image Ia based on the video signal from the control unit 111 on the display surface 110A. ..

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、表示面110Aに表示された画像を参照しながら、カメラ120の撮像領域を微調整する。情報処理装置110(制御部111)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、情報処理装置110(制御部111)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図10に示したように、「顕微鏡位置がずれています。」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left and right eye identification system 100 periodically performs a series of procedures from the above-mentioned imaging instruction to the marker Mc display. At this time, the medical staff fine-tunes the imaging area of the camera 120 while referring to the image displayed on the display surface 110A. Whether or not the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region each time the information processing device 110 (control unit 111) executes a series of procedures from the above-mentioned imaging instruction to the marker Mc display. Is determined. As a result, when the position of the marker Mc in the surgical field image Ia protrudes from the predetermined area, the information processing apparatus 110 (control unit 111) may, for example, display the position of the marker Mc in the surgical field image Ia in the predetermined area. A video signal for displaying an image including information meaning that it protrudes from the image is generated and output to the display unit 113. The display unit 113 displays on the display surface 110A an image including information indicating that the position of the marker Mc in the surgical field image Ia protrudes from a predetermined region and the surgical field image Ia. For example, as shown in FIG. 10, the display unit 113 displays an image including the status ST such as “microscope position is deviated”, the marker Mc, and the surgical field image Ia on the display surface 110A. .. The information processing device 110 (control unit 111) uses a method other than displaying the image on the display surface 110A (for example, sound, lighting of a patrol lamp, etc.) to deviate the position of the marker Mc from the predetermined region in the surgical field image Ia. You may inform your healthcare professional that you are doing so.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、情報処理装置110(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図11に示したように、「顕微鏡位置OK」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc in the surgical field image Ia is within a predetermined area, the information processing apparatus 110 (control unit 111) causes the position of the marker Mc in the surgical field image Ia to be within the predetermined area. A video signal for displaying an image indicating the existence is generated and output to the display unit 113. The display unit 113 includes, for example, information indicating that the position of the marker Mc in the surgical field image Ia is within a predetermined region based on the video signal from the control unit 111, and the surgical field image Ia. The image is displayed on the display surface 110A. For example, as shown in FIG. 11, the display unit 113 displays an image including the status ST such as “microscope position OK”, the marker Mc, and the surgical field image Ia on the display surface 110A. The information processing device 110 (control unit 111) uses a method other than displaying an image on the display surface 110A (for example, sound, lighting of a patrol lamp, etc.) to position the marker Mc in a predetermined area in the surgical field image Ia. You may inform your healthcare professional that there is.

情報処理装置110(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130内の左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを情報処理装置110に送信する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図12に示したように、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図12に示したように、識別結果DRを術野画像Ia上に重ね合わせて表示してもよいし、例えば、図13に示したように、識別結果DRを術野画像Iaとは別の領域に表示してもよい。 When the position of the marker Mc in the surgical field image Ia is within a predetermined region, the information processing device 110 (control unit 111) refers to the left and right eyes with respect to the left and right eye discrimination learning model 133 in the server device 130. Output the identification instruction. When the left / right eye discrimination learning model 133 receives the left / right eye discrimination instruction, the left / right eye discrimination learning model 133 executes the discrimination process. Specifically, the left-right eye discrimination learning model 133 uses the learning result to discriminate the eyes included in the Detection image Ib. More specifically, the left-right eye discrimination learning model 133 uses the learning result to identify the type of eye (left eye, right eye) included in the Detection image Ib. The left and right eye discrimination learning model 133 transmits the discrimination result DR to the information processing device 110. The control unit 111 generates a video signal for displaying an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A, and outputs the video signal to the display unit 113. For example, as shown in FIG. 12, the display unit 113 displays an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia based on the video signal from the control unit 111. Display on 110A. For example, the display unit 113 may superimpose the identification result DR on the surgical field image Ia as shown in FIG. 12, or perform the identification result DR as shown in FIG. 13, for example. It may be displayed in an area different from the field image Ia.

医療従事者は、表示面110Aに表示された識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR displayed on the display surface 110A, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye, and by extension, the eye to be operated on. Can be confirmed. In this way, left and right eye discrimination is performed.

情報処理装置110(制御部111)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較する。情報処理装置110(制御部111)は、その比較結果CRと、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図14に示したように、制御部111からの映像信号に基づいて、比較結果CRと、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、図14には、比較結果CRとして、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとが一致したときの表示が例示されている。 The information processing device 110 (control unit 111) further reads, reads out, and includes the surgical data 134C corresponding to the patient 400 from the plurality of surgical data 134C stored in the memory 134, for example. The surgical eye is compared with the identification result DR. The information processing device 110 (control unit 111) displays a video signal for displaying an image including the comparison result CR, the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A. Generate and output to the display unit 113. For example, as shown in FIG. 14, the display unit 113 displays the comparison result CR, the status ST, the identification result DR, the marker Mc, and the surgical field image Ia based on the video signal from the control unit 111. The including image is displayed on the display surface 110A. Note that FIG. 14 illustrates, as the comparison result CR, the display when the surgical eye read and included in the surgical data 134C and the identification result DR match.

[効果]
次に、本実施の形態に係る左右眼識別システム100の効果について説明する。
[effect]
Next, the effect of the left and right eye identification system 100 according to the present embodiment will be described.

白内障などの眼の疾患を治療するには、眼の手術を行うことが一般的である。眼の手術を行う際、医療従事者は、患者の顔をドレープで覆い、手術を行う眼をドレープの開口から露出させる。患者の顔がドレープで覆われている場合、ドレープから露出している眼が左眼か右眼か識別が難しいことがある。そのため、医療従事者は、手術を行わない方の眼が誤って露出しているときに、手術を行う方の眼が露出していると誤認してしまう可能性がある。 Eye surgery is commonly used to treat eye disorders such as cataracts. When performing eye surgery, the healthcare professional covers the patient's face with a drape, exposing the eye to be operated on through the opening of the drape. If the patient's face is covered with drapes, it can be difficult to tell whether the eyes exposed from the drapes are the left or right eye. Therefore, the medical staff may mistakenly think that the eye of the person performing the surgery is exposed when the eye of the person who does not perform the surgery is mistakenly exposed.

一方、本実施の形態では、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本実施の形態では、取得された位置情報に基づいて生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)が表示される。これにより、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 On the other hand, in the present embodiment, the eye to be identified or the eye to be identified is included by detecting the object on the Segmentation image Ic obtained from the surgical field image Ia including the eye to be identified. The position information of the region in the surgical field image Ia is acquired. Further, in the present embodiment, an image (marker image Ie) in which the marker Mc generated based on the acquired position information is superimposed on the surgical field image Ia is displayed. As a result, the marker Mc can surely include an element (for example, the caruncle 12 and the inner corner of the eye) that facilitates the identification of the left and right eyes. As a result, the medical worker adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the surgical field image Ia, so that the eye reflected in the surgical field image Ia is the left eye. The left and right eye identification system 100 can correctly identify whether the eye is the right eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

また、本実施の形態では、左右眼識別学習モデル133による識別結果DRが表示部113の表示面110Aに表示される。また、本実施の形態では、術野画像Iaとともに、左右眼識別学習モデル133による識別結果DRが表示部113の表示面110Aに表示される。これにより、見過ごしの無い確実な確認作業を行うことができる。 Further, in the present embodiment, the discrimination result DR by the left and right eye discrimination learning model 133 is displayed on the display surface 110A of the display unit 113. Further, in the present embodiment, the identification result DR by the left and right eye identification learning model 133 is displayed on the display surface 110A of the display unit 113 together with the surgical field image Ia. As a result, it is possible to perform reliable confirmation work without oversight.

また、本実施の形態では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in the present embodiment, by performing object detection on the Segmentation image Ic, after the Detection image Id is cut out from the Segmentation image Ic, the position information of the cut out Detection image Id in the surgical field image Ia is obtained. , The position information in the surgical field image Ia of the eye to be identified or the region including the eye to be identified. As a result, the object is simply detected for the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the detection image obtained thereby. , The marker Mc can surely include an element (for example, the caruncle 12 and the inner corner of the eye) that facilitates the identification of the left and right eyes. As a result, the medical worker adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the surgical field image Ia, so that the eye reflected in the surgical field image Ia is the left eye. The left and right eye identification system 100 can correctly identify whether the eye is the right eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

また、本実施の形態では、マーカMcが術野画像Iaにおける所定の領域からはみ出している場合には、マーカMcが所定の領域からはみ出していることを意味する情報(例えば、ステータスST)を含む画像が表示部113の表示面110Aに表示される。これにより、医療従事者に対して、カメラ120の撮像領域の微調整が必要なことを確実に知らせることができる。 Further, in the present embodiment, when the marker Mc protrudes from the predetermined region in the surgical field image Ia, it includes information (for example, status ST) meaning that the marker Mc protrudes from the predetermined region. The image is displayed on the display surface 110A of the display unit 113. This makes it possible to reliably inform the medical staff that the imaging area of the camera 120 needs to be fine-tuned.

また、本実施の形態では、マーカMcが術野画像Iaにおける所定の領域内に収まっているときに得られた術野画像Iaをサーバ装置130に送信した後、左右眼の識別結果をサーバ装置130から受信するネットワークIF115が情報処理装置110に設けられている。これにより、Segmentation学習モデル132や左右眼識別学習モデル133などで行われる負荷の大きな処理を、情報処理装置110とは別の装置(サーバ装置130)に担わせることができる。その結果、例えば、手術室ごとに設置した各情報処理装置110が1つのサーバ装置130を共有することができるので、左右眼識別システム100を手術室ごとに設置する場合と比べて、左右眼識別システム100の設置コストを低減することができる。 Further, in the present embodiment, after the surgical field image Ia obtained when the marker Mc is within a predetermined area in the surgical field image Ia is transmitted to the server device 130, the identification result of the left and right eyes is transmitted to the server device. The information processing apparatus 110 is provided with a network IF 115 that receives from the 130. As a result, a device (server device 130) different from the information processing device 110 can handle the heavy-load processing performed by the segmentation learning model 132, the left-right eye discrimination learning model 133, and the like. As a result, for example, since each information processing device 110 installed in each operating room can share one server device 130, the left and right eye identification system 100 can be identified as compared with the case where the left and right eye identification system 100 is installed in each operating room. The installation cost of the system 100 can be reduced.

また、本実施の形態では、ネットワークIF115において、カメラ120から送信された術野画像Iaが受信される。これにより、カメラ120との通信用に、ネットワークIF115とは別個のネットワークIFを設ける必要がないので、情報処理装置110として廉価なものを用いることができる。その結果、左右眼識別システム100のコストを低減することができる。 Further, in the present embodiment, the surgical field image Ia transmitted from the camera 120 is received in the network IF 115. As a result, it is not necessary to provide a network IF separate from the network IF 115 for communication with the camera 120, so that an inexpensive information processing device 110 can be used. As a result, the cost of the left and right eye identification system 100 can be reduced.

<3.第1の実施の形態の変形例>
次に、第1実施の形態に係る左右眼識別システム100の変形例について説明する。
<3. Modification example of the first embodiment>
Next, a modified example of the left and right eye identification system 100 according to the first embodiment will be described.

[[変形例A]]
図15は、上記実施の形態に係る左右眼識別システム100の機能ブロックの一変形例を表したものである。本変形例に係る情報処理装置110は、メモリ112に、プログラム112Aの代わりに、プログラム112Bを記憶している。本変形例に係るサーバ装置130は、メモリ134に、さらに、プログラム134Dを記憶している。プログラム134Dは、本発明の「識別プログラム」の一具体例に相当する。
[[Modification A]]
FIG. 15 shows a modified example of the functional block of the left and right eye identification system 100 according to the above embodiment. The information processing device 110 according to this modification stores the program 112B in the memory 112 instead of the program 112A. The server device 130 according to this modification further stores the program 134D in the memory 134. Program 134D corresponds to a specific example of the "identification program" of the present invention.

プログラム112Bは、情報処理装置110を左右眼識別システム100におけるユーザーインターフェースとして機能させるための手順を制御部111に実行させる。プログラム134Dは、術野に含まれる眼の種類(左眼または右眼)を識別するための一連の手順を制御部131に実行させる。 The program 112B causes the control unit 111 to execute a procedure for causing the information processing device 110 to function as a user interface in the left and right eye identification system 100. The program 134D causes the control unit 131 to execute a series of procedures for identifying the type of eye (left eye or right eye) included in the surgical field.

(左右眼識別)
図16は、本変形例に係る左右眼識別システム100における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112B,134Dの起動を指示する。すると、情報処理装置110(制御部111)は、メモリ112からプログラム112Bを読み出して、制御部111にロードする。プログラム112Bがロードされた制御部111は、情報処理装置110を左右眼識別システム100におけるユーザーインターフェースとして機能させるための手順を実行する。サーバ装置130(制御部131)は、メモリ134からプログラム134Dを読み出して、制御部131にロードする。プログラム134Dがロードされた制御部131は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 16 is a flow chart showing an example of the left / right eye identification procedure in the left / right eye identification system 100 according to this modified example. First, the user instructs the start of left / right eye identification via the input unit 114. The user instructs, for example, to start the programs 112B and 134D via the input unit 114. Then, the information processing device 110 (control unit 111) reads the program 112B from the memory 112 and loads it into the control unit 111. The control unit 111 loaded with the program 112B executes a procedure for causing the information processing device 110 to function as a user interface in the left and right eye identification system 100. The server device 130 (control unit 131) reads the program 134D from the memory 134 and loads it into the control unit 131. The control unit 131 loaded with the program 134D executes a series of procedures for distinguishing the left and right eyes.

具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを情報処理装置110に送信する。 Specifically, first, the control unit 111 outputs an imaging instruction to the camera 120. The camera 120 images the inside of the opening of the drape 600 according to the imaging instruction, and transmits the surgical field image Ia obtained thereby to the information processing device 110.

情報処理装置110(制御部111)は、受信した術野画像Iaをサーバ装置130に送信する。サーバ装置130(制御部131)は、受信した術野画像Iaに対して明るさ判定を行う。サーバ装置130(制御部131)は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示させる信号を情報処理装置110に送信する。情報処理装置110は、サーバ装置130からの信号に基づいて、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。 The information processing device 110 (control unit 111) transmits the received surgical field image Ia to the server device 130. The server device 130 (control unit 131) determines the brightness of the received surgical field image Ia. The server device 130 (control unit 131) converts, for example, the surgical field image Ia into HSV, and when the V value of each pixel obtained by the conversion is out of a predetermined range, the surgical field image Ia is bright. A signal for displaying on the display unit 113 that the image is insufficient or too bright is transmitted to the information processing device 110. The information processing device 110 displays on the display unit 113 that the surgical field image Ia is insufficient or too bright based on the signal from the server device 130.

サーバ装置130(制御部131)は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。サーバ装置130(制御部131)は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示させる信号を情報処理装置110に送信する。情報処理装置110は、サーバ装置130からの信号に基づいて、術野画像Iaのピントがずれていることを表示部113に表示する。サーバ装置130(制御部131)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 The server device 130 (control unit 131) performs a focus determination, for example, when the V value of each obtained pixel is within a predetermined range. For example, the server device 130 (control unit 131) performs Laplacian differentiation on the surgical field image Ia, and when the score obtained by the Laplacian differentiation is below a predetermined threshold value, the surgical field image Ia is out of focus. A signal for displaying this on the display unit 113 is transmitted to the information processing device 110. The information processing device 110 displays on the display unit 113 that the surgical field image Ia is out of focus based on the signal from the server device 130. For example, when the derived score is equal to or higher than a predetermined threshold value, the server device 130 (control unit 131) inputs the surgical field image Ia into the segmentation learning model 132.

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部131に入力する。制御部131は、入力されたSegmentation画像Icに対して、物体検出を行う。制御部131は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the Segmentation learning model 132 converts the surgical field image Ia into the Segmentation image Ic by using the learning result (see FIG. 6). The Segmentation learning model 132 inputs the Segmentation image Ic obtained by the conversion to the control unit 131. The control unit 131 detects an object with respect to the input Segmentation image Ic. For example, as shown in FIG. 8, the control unit 131 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the Segmentation image Ic. The image obtained in this way is referred to as a Detection image Id.

制御部131は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。制御部131は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、制御部131は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The control unit 131 uses the position information of the obtained Detection image Id in the surgical field image Ia as the position information in the surgical field image Ia of the region including the eye to be identified. For example, the control unit 131 uses the position information of the outer edge portion of the obtained Detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the control unit 131 acquires the position information in the surgical field image Ia of the region including the eye to be identified by detecting the object on the Segmentation image Ic.

なお、制御部131は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。制御部131は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、制御部131は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The control unit 131 may use the position information of the obtained Detection image Id in the surgical field image Ia as the position information of the eye to be identified in the surgical field image Ia. For example, the control unit 131 may use the position information in the surgical field image Ia of the outer edge portion of the eye region Ra of the obtained Deception image Id as the position information of the marker Mc. In this case, the control unit 131 acquires the position information of the eye to be identified in the surgical field image Ia by detecting the object on the Segmentation image Ic.

制御部131は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)を情報処理装置110に送信する。情報処理装置110(制御部111)は、受信したマーカ画像Ieを含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図9に示したように、制御部111からの映像信号に基づいて、術野画像IaにマーカMcを重ね合わせた画像を表示面110Aに表示する。 The control unit 131 generates a marker Mc based on the acquired position information, and then transmits an image (marker image Ie) in which the generated marker Mc is superimposed on the surgical field image Ia to the information processing device 110. The information processing device 110 (control unit 111) generates a video signal for displaying an image including the received marker image IE, and outputs the video signal to the display unit 113. For example, as shown in FIG. 9, the display unit 113 displays an image in which the marker Mc is superimposed on the surgical field image Ia based on the video signal from the control unit 111 on the display surface 110A.

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、表示面110Aに表示された画像を参照しながら、カメラ120の撮像領域を微調整する。サーバ装置130(制御部131)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、サーバ装置130(制御部131)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を情報処理装置110に送信する。情報処理装置110(制御部111)は、受信した情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図10に示したように、「顕微鏡位置がずれています。」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left and right eye identification system 100 periodically performs a series of procedures from the above-mentioned imaging instruction to the marker Mc display. At this time, the medical staff fine-tunes the imaging area of the camera 120 while referring to the image displayed on the display surface 110A. Whether or not the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region each time the server device 130 (control unit 131) executes a series of procedures from the above-mentioned imaging instruction to the marker Mc display. To judge. As a result, when the position of the marker Mc in the surgical field image Ia protrudes from the predetermined area, the server device 130 (control unit 131) may, for example, move the position of the marker Mc in the surgical field image Ia from the predetermined area. Information indicating that it is protruding is transmitted to the information processing apparatus 110. The information processing device 110 (control unit 111) generates a video signal for displaying an image including the received information and outputs the video signal to the display unit 113. The display unit 113 includes, for example, information indicating that the position of the marker Mc in the surgical field image Ia protrudes from a predetermined region based on the video signal from the control unit 111, the marker Mc, and the surgical field image Ia. An image including and is displayed on the display surface 110A. For example, as shown in FIG. 10, the display unit 113 displays an image including the status ST such as “microscope position is deviated”, the marker Mc, and the surgical field image Ia on the display surface 110A. .. The information processing device 110 (control unit 111) uses a method other than displaying the image on the display surface 110A (for example, sound, lighting of a patrol lamp, etc.) to deviate the position of the marker Mc from the predetermined region in the surgical field image Ia. You may inform your healthcare professional that you are doing so.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す情報を情報処理装置110に送信する。情報処理装置110(制御部111)は、受信した情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc in the surgical field image Ia is within the predetermined region, the server device 130 (control unit 131) has the position of the marker Mc in the surgical field image Ia within the predetermined region. Information indicating that is transmitted to the information processing device 110. The information processing device 110 (control unit 111) generates a video signal for displaying an image including the received information and outputs the video signal to the display unit 113. The display unit 113 includes, for example, information indicating that the position of the marker Mc in the surgical field image Ia is within a predetermined region, the marker Mc, and the surgical field image based on the video signal from the control unit 111. An image including Ia is displayed on the display surface 110A. The information processing device 110 (control unit 111) uses a method other than displaying an image on the display surface 110A (for example, sound, lighting of a patrol lamp, etc.) to position the marker Mc in a predetermined area in the surgical field image Ia. You may inform your healthcare professional that there is.

サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果を制御部131に送信する。制御部131は、識別結果DRを情報処理装置110に送信する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図12に示したように、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図12に示したように、識別結果DRを術野画像Ia上に重ね合わせて表示してもよいし、例えば、図13に示したように、識別結果DRを術野画像Iaとは別の領域に表示してもよい。 The server device 130 (control unit 131) outputs a left / right eye identification instruction to the left / right eye identification learning model 133 when the position of the marker Mc is within a predetermined region in the surgical field image Ia. When the left / right eye discrimination learning model 133 receives the left / right eye discrimination instruction, the left / right eye discrimination learning model 133 executes the discrimination process. Specifically, the left-right eye discrimination learning model 133 uses the learning result to discriminate the eyes included in the Detection image Ib. More specifically, the left-right eye discrimination learning model 133 uses the learning result to identify the type of eye (left eye, right eye) included in the Detection image Ib. The left and right eye discrimination learning model 133 transmits the discrimination result to the control unit 131. The control unit 131 transmits the identification result DR to the information processing device 110. The control unit 111 generates a video signal for displaying an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A, and outputs the video signal to the display unit 113. For example, as shown in FIG. 12, the display unit 113 displays an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia based on the video signal from the control unit 111. Display on 110A. For example, the display unit 113 may superimpose the identification result DR on the surgical field image Ia as shown in FIG. 12, or perform the identification result DR as shown in FIG. 13, for example. It may be displayed in an area different from the field image Ia.

医療従事者は、表示面110Aに表示された識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR displayed on the display surface 110A, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye, and by extension, the eye to be operated on. Can be confirmed. In this way, left and right eye discrimination is performed.

情報処理装置110(制御部111)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較し、その比較結果CRを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図14に示したように、制御部111からの映像信号に基づいて、比較結果CRと、識別結果DRと、ステータスSTと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、図14には、比較結果CRとして、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとが一致したときの表示が例示されている。 The information processing device 110 (control unit 111) further reads, reads out, and includes the surgical data 134C corresponding to the patient 400 from the plurality of surgical data 134C stored in the memory 134, for example. The surgical eye is compared with the identification result DR, and a video signal for displaying an image including the comparison result CR on the display surface 110A is generated and output to the display unit 113. For example, as shown in FIG. 14, the display unit 113 displays an image including the comparison result CR, the identification result DR, the status ST, and the surgical field image Ia based on the video signal from the control unit 111. Displayed on surface 110A. Note that FIG. 14 illustrates, as the comparison result CR, the display when the surgical eye read and included in the surgical data 134C and the identification result DR match.

本変形例では、サーバ装置130において、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本変形例では、取得された位置情報に基づいて生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)が情報処理装置110に送信される。これにより、情報処理装置110において、マーカ画像Ieを表示することができるので、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 In this modification, the server device 130 detects the segmentation image Ic obtained from the surgical field image Ia including the eye to be identified, thereby detecting the eye to be identified or the eye to be identified. The position information in the surgical field image Ia of the region including the above is acquired. Further, in this modification, an image (marker image Ie) in which the marker Mc generated based on the acquired position information is superimposed on the surgical field image Ia is transmitted to the information processing apparatus 110. As a result, the information processing device 110 can display the marker image Ie, so that the marker Mc can surely include an element (for example, the caruncle 12 or the inner corner of the eye) that facilitates the identification of the left and right eyes. it can. As a result, the medical worker adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the surgical field image Ia, so that the eye reflected in the surgical field image Ia is the left eye. The left and right eye identification system 100 can correctly identify whether the eye is the right eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

また、本変形例では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in this modified example, by detecting the object on the Segmentation image Ic, after the Detection image Id is cut out from the Segmentation image Ic, the position information of the cut out Detection image Id in the surgical field image Ia is obtained. It is the position information in the surgical field image Ia of the eye to be identified or the region including the eye to be identified. As a result, the object is simply detected for the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the detection image obtained thereby. , The marker Mc can surely include an element (for example, the caruncle 12 and the inner corner of the eye) that facilitates the identification of the left and right eyes. As a result, the medical worker adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the surgical field image Ia, so that the eye reflected in the surgical field image Ia is the left eye. The left and right eye identification system 100 can correctly identify whether the eye is the right eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

[[変形例B]]
上記実施の形態において、例えば、図17に示したように、サーバ装置130が省略されるとともに、情報処理装置110がサーバ装置130の機能を備えていてもよい。このとき、情報処理装置110は、例えば、図18に示したように、Segmentation学習モデル132および左右眼識別学習モデル133を備えるとともに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cをメモリ112に記憶している。
[[Modification B]]
In the above embodiment, for example, as shown in FIG. 17, the server device 130 may be omitted, and the information processing device 110 may have the function of the server device 130. At this time, for example, as shown in FIG. 18, the information processing apparatus 110 includes a Segmentation learning model 132 and a left / right eye discrimination learning model 133, as well as a plurality of image data 134A, a plurality of image data 134B, and a plurality of surgical data. 134C is stored in the memory 112.

(左右眼識別)
図19は、本変形例に係る左右眼識別システム100における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、情報処理装置110(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 19 is a flow chart showing an example of the left / right eye identification procedure in the left / right eye identification system 100 according to this modified example. First, the user instructs the start of left / right eye identification via the input unit 114. The user instructs, for example, to start the program 112A via the input unit 114. Then, the information processing device 110 (control unit 111) reads the program 112A from the memory 112 and loads it into the control unit 111. The control unit 111 loaded with the program 112A executes a series of steps for distinguishing the left and right eyes.

具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを情報処理装置110に送信する。 Specifically, first, the control unit 111 outputs an imaging instruction to the camera 120. The camera 120 images the inside of the opening of the drape 600 according to the imaging instruction, and transmits the surgical field image Ia obtained thereby to the information processing device 110.

制御部111は、受信した術野画像Iaに対して明るさ判定を行う。制御部111は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。 The control unit 111 determines the brightness of the received surgical field image Ia. For example, the control unit 111 converts the surgical field image Ia into HSV, and when the V value of each pixel obtained by the conversion is out of the predetermined range, the surgical field image Ia is insufficiently bright or too bright. The presence is displayed on the display unit 113.

制御部111は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。制御部111は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。制御部111は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 For example, when the V value of each obtained pixel is within a predetermined range, the control unit 111 performs a focus determination. For example, the control unit 111 performs Laplacian differentiation on the surgical field image Ia, and when the score obtained by the Laplacian differentiation is below a predetermined threshold value, the display unit 113 indicates that the surgical field image Ia is out of focus. Display on. For example, when the derived score is equal to or higher than a predetermined threshold value, the control unit 111 inputs the surgical field image Ia into the segmentation learning model 132.

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部111に入力する。制御部111は、入力されたSegmentation画像Icに対して、物体検出を行う。制御部111は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the Segmentation learning model 132 converts the surgical field image Ia into the Segmentation image Ic by using the learning result (see FIG. 6). The Segmentation learning model 132 inputs the Segmentation image Ic obtained by the conversion to the control unit 111. The control unit 111 detects an object with respect to the input Segmentation image Ic. For example, as shown in FIG. 8, the control unit 111 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the Segmentation image Ic. The image obtained in this way is referred to as a Detection image Id.

制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。制御部111は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報をマーカMcの位置情報とする。つまり、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The control unit 111 uses the position information of the obtained Detection image Id in the surgical field image Ia as the position information in the surgical field image Ia of the region including the eye to be identified. For example, the control unit 111 uses the position information of the outer edge portion of the obtained Detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the control unit 111 acquires the position information in the surgical field image Ia of the region including the eye to be identified by detecting the object on the Segmentation image Ic.

なお、制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。制御部111は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The control unit 111 may use the position information of the obtained Detection image Id in the surgical field image Ia as the position information of the eye to be identified in the surgical field image Ia. For example, the control unit 111 may use the position information of the outer edge portion of the eye region Ra of the obtained Deception image Id in the surgical field image Ia as the position information of the marker Mc. In this case, the control unit 111 acquires the position information of the eye to be identified in the surgical field image Ia by detecting the object on the Segmentation image Ic.

制御部111は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを術野画像Iaに重ね合わせた画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図9に示したように、制御部111からの映像信号に基づいて、術野画像IaにマーカMcを重ね合わせた画像を表示面110Aに表示する。 The control unit 111 generates a marker Mc based on the acquired position information, then generates a video signal for displaying an image in which the generated marker Mc is superposed on the surgical field image Ia, and outputs the video signal to the display unit 113. .. For example, as shown in FIG. 9, the display unit 113 displays an image in which the marker Mc is superimposed on the surgical field image Ia based on the video signal from the control unit 111 on the display surface 110A.

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、表示面110Aに表示された画像を参照しながら、カメラ120の撮像領域を微調整する。制御部111は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、制御部111は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図10に示したように、「顕微鏡位置がずれています。」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、制御部111は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left and right eye identification system 100 periodically performs a series of procedures from the above-mentioned imaging instruction to the marker Mc display. At this time, the medical staff fine-tunes the imaging area of the camera 120 while referring to the image displayed on the display surface 110A. For example, each time the control unit 111 executes a series of procedures from the above-mentioned imaging instruction to the marker Mc display, the control unit 111 determines whether or not the position of the marker Mc in the surgical field image Ia protrudes from a predetermined region. As a result, when the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region, the control unit 111 indicates that, for example, the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region. A video signal for displaying an image including meaning information is generated and output to the display unit 113. The display unit 113 is, for example, an image including information indicating that the position of the marker Mc in the surgical field image Ia protrudes from a predetermined region based on the video signal from the control unit 111, and the surgical field image Ia. Is displayed on the display surface 110A. For example, as shown in FIG. 10, the display unit 113 displays an image including the status ST such as “microscope position is deviated”, the marker Mc, and the surgical field image Ia on the display surface 110A. .. The control unit 111 is engaged in medical treatment that the position of the marker Mc in the surgical field image Ia is out of a predetermined region by a method other than displaying the image on the display surface 110A (for example, sound or lighting of a patrol lamp). You may inform the person.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図11に示したように、「顕微鏡位置OK」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、制御部111は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc in the surgical field image Ia is within a predetermined region, the control unit 111 displays an image indicating that the position of the marker Mc in the surgical field image Ia is within the predetermined region. A video signal for display is generated and output to the display unit 113. The display unit 113 includes, for example, information indicating that the position of the marker Mc in the surgical field image Ia is within a predetermined region, the marker Mc, and the surgical field image based on the video signal from the control unit 111. An image including Ia is displayed on the display surface 110A. For example, as shown in FIG. 11, the display unit 113 displays an image including the status ST such as “microscope position OK”, the marker Mc, and the surgical field image Ia on the display surface 110A. The control unit 111 indicates that the position of the marker Mc in the surgical field image Ia is within a predetermined region by a method other than displaying the image on the display surface 110A (for example, sound or lighting of a patrol lamp). You may inform.

制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを制御部111に入力する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図12に示したように、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図12に示したように、識別結果DRを術野画像Ia上に重ね合わせて表示してもよいし、例えば、図13に示したように、識別結果DRを術野画像Iaとは別の領域に表示してもよい。 When the position of the marker Mc is within a predetermined region in the surgical field image Ia, the control unit 111 outputs a left / right eye identification instruction to the left / right eye identification learning model 133. When the left / right eye discrimination learning model 133 receives the left / right eye discrimination instruction, the left / right eye discrimination learning model 133 executes the discrimination process. Specifically, the left-right eye discrimination learning model 133 uses the learning result to discriminate the eyes included in the Detection image Ib. More specifically, the left-right eye discrimination learning model 133 uses the learning result to identify the type of eye (left eye, right eye) included in the Detection image Ib. The left and right eye discrimination learning model 133 inputs the discrimination result DR to the control unit 111. The control unit 111 generates a video signal for displaying an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A, and outputs the video signal to the display unit 113. For example, as shown in FIG. 12, the display unit 113 displays an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia based on the video signal from the control unit 111. Display on 110A. For example, the display unit 113 may superimpose the identification result DR on the surgical field image Ia as shown in FIG. 12, or perform the identification result DR as shown in FIG. 13, for example. It may be displayed in an area different from the field image Ia.

医療従事者は、表示面110Aに表示された識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR displayed on the display surface 110A, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye, and by extension, the eye to be operated on. Can be confirmed. In this way, left and right eye discrimination is performed.

制御部111は、さらに、例えば、メモリ112に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較し、その比較結果CRを表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図14に示したように、制御部111からの映像信号に基づいて、比較結果CRと、識別結果DRと、ステータスSTと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、図14には、比較結果CRとして、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとが一致したときの表示が例示されている。 The control unit 111 further reads, for example, from the plurality of surgical data 134C stored in the memory 112, the surgical data 134C corresponding to the patient 400, and the surgical eye included in the read and surgical data 134C and the identification result. The DR is compared, and a video signal for displaying the comparison result CR on the display surface 110A is generated and output to the display unit 113. For example, as shown in FIG. 14, the display unit 113 displays an image including the comparison result CR, the identification result DR, the status ST, and the surgical field image Ia based on the video signal from the control unit 111. Displayed on surface 110A. Note that FIG. 14 illustrates, as the comparison result CR, the display when the surgical eye read and included in the surgical data 134C and the identification result DR match.

本変形例では、情報処理装置110が上記実施の形態に係るサーバ装置130の機能を備えている。これにより、情報処理装置110とカメラ120を用意し、これらをネットワーク140に接続するだけで、左右眼識別を行うことができる。従って、サーバ装置130が不要な分だけ、左右眼識別システム100を設置する手間を削減することができる。 In this modification, the information processing device 110 has the function of the server device 130 according to the above embodiment. As a result, the left and right eyes can be identified simply by preparing the information processing device 110 and the camera 120 and connecting them to the network 140. Therefore, it is possible to reduce the time and effort required to install the left and right eye identification system 100 because the server device 130 is unnecessary.

[[変形例C]]
上記実施の形態において、例えば、図20、図21に示したように、情報処理装置110とカメラ120との通信が、ネットワーク140とは別のネットワーク150を介して行われてもよい。また、上記変形例Aにおいて、例えば、図20、図22に示したように、情報処理装置110とカメラ120との通信が、ネットワーク140とは別のネットワーク150を介して行われてもよい。このとき、ネットワーク150は、例えば、Bluetooth(登録商標)などの近距離無線通信であってもよい。このような構成となっている場合であっても、上記実施の形態と同様の効果を有している。
[[Modification C]]
In the above embodiment, for example, as shown in FIGS. 20 and 21, communication between the information processing device 110 and the camera 120 may be performed via a network 150 different from the network 140. Further, in the above-described modification A, for example, as shown in FIGS. 20 and 22, communication between the information processing device 110 and the camera 120 may be performed via a network 150 different from the network 140. At this time, the network 150 may be short-range wireless communication such as Bluetooth (registered trademark). Even in the case of such a configuration, it has the same effect as that of the above-described embodiment.

[[変形例D]]
上記実施の形態において、例えば、図23、図24に示したように、情報処理装置110が、サーバ装置130の機能を備え、さらに、情報処理装置110とカメラ120との通信が、ネットワーク150を介して行われてもよい。このとき、情報処理装置110は、Segmentation学習モデル132および左右眼識別学習モデル133を備えるとともに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cをメモリ112に格納している。また、情報処理装置110は、ネットワーク150を介してカメラ120と通信を行うネットワークIF116を有している。
[[Modification D]]
In the above embodiment, for example, as shown in FIGS. 23 and 24, the information processing device 110 has the function of the server device 130, and the communication between the information processing device 110 and the camera 120 provides the network 150. It may be done through. At this time, the information processing apparatus 110 includes a Segmentation learning model 132 and a left / right eye discrimination learning model 133, and stores a plurality of image data 134A, a plurality of image data 134B, and a plurality of surgical data 134C in the memory 112. Further, the information processing device 110 has a network IF 116 that communicates with the camera 120 via the network 150.

本変形例において、ネットワーク150がBluetooth(登録商標)などの近距離無線通信である場合、上記実施の形態と比べて、情報処理装置110とカメラ120との通信の確立が容易となる。 In this modification, when the network 150 is short-range wireless communication such as Bluetooth (registered trademark), it becomes easier to establish communication between the information processing device 110 and the camera 120 as compared with the above embodiment.

<4.第2の実施の形態>
[構成]
図25は、本発明の第2の実施の形態に係る左右眼識別システム700の概略構成の一例を表したものである。左右眼識別システム700は、本発明の「情報処理システム」の一具体例に相当する。図26は、左右眼識別システム700の機能ブロックの一例を表したものである。図25には、医療従事者が術野を拡大して視認するための眼科手術用顕微鏡システム200が、左右眼識別システム700とともに例示されている。
<4. Second Embodiment>
[Constitution]
FIG. 25 shows an example of a schematic configuration of the left and right eye identification system 700 according to the second embodiment of the present invention. The left and right eye identification system 700 corresponds to a specific example of the "information processing system" of the present invention. FIG. 26 shows an example of the functional blocks of the left and right eye identification system 700. In FIG. 25, a microscope system 200 for ophthalmic surgery for a medical professional to magnify and visually recognize a surgical field is illustrated together with a left-right eye discrimination system 700.

(左右眼識別システム700)
左右眼識別システム700は、例えば、カメラ付き情報処理装置160と、サーバ装置130とを備えている。カメラ付き情報処理装置160およびサーバ装置130は、ネットワーク140を介して接続されている。カメラ付き情報処理装置160は、ネットワーク140を介してサーバ装置130と通信することができるように構成されている。サーバ装置130は、ネットワーク140を介してカメラ付き情報処理装置160と通信することができるように構成されている。
(Left and right eye identification system 700)
The left and right eye identification system 700 includes, for example, an information processing device 160 with a camera and a server device 130. The information processing device 160 with a camera and the server device 130 are connected via a network 140. The information processing device 160 with a camera is configured to be able to communicate with the server device 130 via the network 140. The server device 130 is configured to be able to communicate with the information processing device 160 with a camera via the network 140.

カメラ付き情報処理装置160は、例えば、制御部111、メモリ112、入力部114、ネットワークIF115、投射部117およびカメラ120を含んで構成されている。投射部117は、接眼部252に連結されており、制御部111からの映像信号に基づいて生成した映像光を、接眼部252に入射させる。 The information processing device 160 with a camera includes, for example, a control unit 111, a memory 112, an input unit 114, a network IF 115, a projection unit 117, and a camera 120. The projection unit 117 is connected to the eyepiece unit 252, and causes the image light generated based on the image signal from the control unit 111 to enter the eyepiece unit 252.

投射部117によって生成される映像光は、例えば、図27、図28に示したように、マーカMcと、ステータスSTとを含む画像を生成する光束であってもよい。投射部117によって生成される映像光は、例えば、図29、図30に示したように、マーカMcと、ステータスSTと、識別結果DRとを含む画像を生成する光束であってもよい。このとき、投射部117によって生成される映像光において、例えば、図29に示したように、識別結果DRがマーカMcに重ね合わされていてもよいし、例えば、図30に示したように、識別結果DRがマーカMcとは別の箇所に配置されていてもよい。投射部117によって生成される映像光は、例えば、図31に示したように、マーカMcと、ステータスSTと、識別結果DRと、比較結果CRとを含む画像を生成する光束であってもよい。 The image light generated by the projection unit 117 may be, for example, a luminous flux that generates an image including the marker Mc and the status ST, as shown in FIGS. 27 and 28. The image light generated by the projection unit 117 may be, for example, a luminous flux that generates an image including the marker Mc, the status ST, and the identification result DR, as shown in FIGS. 29 and 30. At this time, in the image light generated by the projection unit 117, for example, the identification result DR may be superimposed on the marker Mc as shown in FIG. 29, or as shown in FIG. 30, for example, identification. The result DR may be arranged at a place different from the marker Mc. The image light generated by the projection unit 117 may be, for example, a luminous flux that generates an image including the marker Mc, the status ST, the identification result DR, and the comparison result CR, as shown in FIG. 31. ..

接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。つまり、接眼部252は、ステータスST、識別結果DRまたは比較結果CRと、マーカMcとを、観察光学系によって形成される、術野の像とともに表示する。その結果、医療従事者は、例えば、図32に示したような画像を視認する。なお、図32には、マーカMcが術野の像に重ね合わせて表示されるとともに、ステータスST、識別結果DRおよび比較結果CRが術野の像とは別個に(つまり術野の像には重ね合わさないで)表示されている場合が例示されている。なお、ステータスST、識別結果DRおよび比較結果CRが術野の像に重ね合わせて表示されてもよい。 The image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. That is, the eyepiece 252 displays the status ST, the identification result DR or the comparison result CR, and the marker Mc together with the image of the surgical field formed by the observation optical system. As a result, the medical staff visually recognizes an image as shown in FIG. 32, for example. In FIG. 32, the marker Mc is superposed on the image of the surgical field, and the status ST, the identification result DR, and the comparison result CR are displayed separately from the image of the surgical field (that is, the image of the surgical field is displayed). The case where it is displayed (without superposition) is illustrated. The status ST, the identification result DR, and the comparison result CR may be superposed on the image of the surgical field.

(左右眼識別)
図33は、左右眼識別システム700における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、カメラ付き情報処理装置160(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを制御部111に出力する。
(Left and right eye identification)
FIG. 33 is a flow chart showing an example of the left and right eye identification procedure in the left and right eye identification system 700. First, the user instructs the start of left / right eye identification via the input unit 114. The user instructs, for example, to start the program 112A via the input unit 114. Then, the information processing device 160 with a camera (control unit 111) reads the program 112A from the memory 112 and loads it into the control unit 111. The control unit 111 loaded with the program 112A executes a series of steps for distinguishing the left and right eyes. Specifically, first, the control unit 111 outputs an imaging instruction to the camera 120. The camera 120 images the inside of the opening of the drape 600 according to the imaging instruction, and outputs the surgical field image Ia obtained thereby to the control unit 111.

制御部111は、カメラ120から入力された術野画像Iaに対して明るさ判定を行う。制御部111は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。制御部111は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。制御部111は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。情報処理装置110(制御部111)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像Iaをサーバ装置130に送信する。 The control unit 111 determines the brightness of the surgical field image Ia input from the camera 120. For example, the control unit 111 converts the surgical field image Ia into HSV, and when the V value of each pixel obtained by the conversion is out of the predetermined range, the surgical field image Ia is insufficiently bright or too bright. The presence is displayed on the display unit 113. For example, when the V value of each obtained pixel is within a predetermined range, the control unit 111 performs a focus determination. For example, the control unit 111 performs Laplacian differentiation on the surgical field image Ia, and when the score obtained by the Laplacian differentiation is below a predetermined threshold value, the display unit 113 indicates that the surgical field image Ia is out of focus. Display on. The information processing device 110 (control unit 111) transmits, for example, the surgical field image Ia to the server device 130 when the derived score is equal to or higher than a predetermined threshold value.

サーバ装置130がカメラ付き情報処理装置160から術野画像Iaを受信すると、Segmentation学習モデル132が変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icをカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、受信したSegmentation画像Icに対して、物体検出を行う。カメラ付き情報処理装置160(制御部111)は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 When the server device 130 receives the surgical field image Ia from the information processing device 160 with a camera, the Segmentation learning model 132 executes the conversion process. Specifically, the Segmentation learning model 132 converts the surgical field image Ia into the Segmentation image Ic by using the learning result (see FIG. 6). The segmentation learning model 132 transmits the segmentation image Ic obtained by the conversion to the information processing device 160 with a camera. The information processing device 160 with a camera (control unit 111) detects an object for the received Segmentation image Ic. As shown in FIG. 8, for example, the information processing device 160 with a camera (control unit 111) has a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the segmentation image Ic. Cut out. The image obtained in this way is referred to as a Detection image Id.

カメラ付き情報処理装置160(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。カメラ付き情報処理装置160(制御部111)は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、カメラ付き情報処理装置160(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The information processing device 160 with a camera (control unit 111) uses the position information of the obtained Detection image Id in the surgical field image Ia as the position information in the surgical field image Ia of the region including the eye to be identified. The information processing device 160 with a camera (control unit 111) uses, for example, the position information of the outer edge portion of the obtained Detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the information processing device 160 with a camera (control unit 111) acquires the position information in the surgical field image Ia of the region including the eye to be identified by detecting the object on the Segmentation image Ic.

なお、カメラ付き情報処理装置160(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。カメラ付き情報処理装置160(制御部111)は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、カメラ付き情報処理装置160(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The information processing device 160 with a camera (control unit 111) may use the position information of the obtained Detection image Id in the surgical field image Ia as the position information of the eye to be identified in the surgical field image Ia. The information processing apparatus 160 with a camera (control unit 111) may use, for example, the position information in the surgical field image Ia of the outer edge portion of the eye region Ra of the obtained Deception image Id as the position information of the marker Mc. In this case, the information processing apparatus 160 with a camera (control unit 111) acquires the position information of the eye to be identified in the surgical field image Ia by detecting the object on the Sedication image Ic.

カメラ付き情報処理装置160(制御部111)は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、マーカMcを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、術野の像にマーカMcが重ね合わされた画像を視認する。つまり、接眼部252は、マーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。 The information processing device 160 with a camera (control unit 111) generates a marker Mc based on the acquired position information, then generates a video signal for generating video light including the generated marker Mc, and causes the projection unit 117 to generate a video signal. Output. The projection unit 117 generates image light including the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes the image in which the marker Mc is superimposed on the image of the surgical field. That is, the eyepiece 252 superimposes and displays the marker Mc on the image of the surgical field formed by the observation optical system.

左右眼識別システム700は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、接眼部252を介して見える視野(術野)の像を参照しながら、カメラ120の撮像領域を微調整する。カメラ付き情報処理装置160(制御部111)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、カメラ付き情報処理装置160(制御部111)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図27に示した像が重ね合わされた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left and right eye identification system 700 periodically performs a series of procedures from the above-mentioned imaging instruction to the marker Mc display. At this time, the medical staff fine-tunes the imaging region of the camera 120 while referring to the image of the visual field (surgical field) seen through the eyepiece 252. For example, each time the information processing apparatus 160 with a camera (control unit 111) executes a series of procedures from the above-mentioned imaging instruction to the marker Mc display, the position of the marker Mc in the surgical field image Ia protrudes from a predetermined area. Judge whether or not. As a result, when the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region, the information processing apparatus 160 with a camera (control unit 111) determines, for example, the position of the marker Mc in the surgical field image Ia. A video signal for generating video light including information meaning that it is out of the region of is generated and output to the projection unit 117. Based on the video signal from the control unit 111, the projection unit 117 generates information indicating that the position of the marker Mc in the surgical field image Ia protrudes from a predetermined region, and video light including the marker Mc. , Exits to the eyepiece 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 27 is superimposed on the image of the surgical field. The information processing device 160 with a camera (control unit 111) can be operated by a method other than displaying the marker Mc in the field of view (operative field) seen through the eyepiece 252 (for example, sound or lighting of a patrol lamp). The medical staff may be informed that the position of the marker Mc is out of the predetermined region in the field image Ia.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、カメラ付き情報処理装置160(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを意味する情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図28に示した像が重ね合わされた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc in the surgical field image Ia is within a predetermined area, the information processing apparatus 160 with a camera (control unit 111) has the position of the marker Mc in the surgical field image Ia in a predetermined area. A video signal for generating video light including information indicating that it is inside is generated and output to the projection unit 117. Based on the video signal from the control unit 111, the projection unit 117 generates video light including information indicating that the position of the marker Mc in the surgical field image Ia is within a predetermined region and the marker Mc. Then, the light is emitted to the eyepiece 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 28 is superimposed on the image of the surgical field. The information processing device 160 with a camera (control unit 111) is operated by a method other than displaying the marker Mc in the field of view (operative field) seen through the eyepiece 252 (for example, sound or lighting of a patrol lamp). The medical staff may be informed that the position of the marker Mc in the field image Ia is within a predetermined region.

カメラ付き情報処理装置160(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130内の左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRをカメラ付き情報処理装置160に送信する。制御部111は、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図29または図30に示した像が重ね合わされた画像を視認する。 When the position of the marker Mc in the surgical field image Ia is within a predetermined region, the information processing device 160 with a camera (control unit 111) refers to the left / right eye discrimination learning model 133 in the server device 130. Outputs left and right eye identification instructions. When the left / right eye discrimination learning model 133 receives the left / right eye discrimination instruction, the left / right eye discrimination learning model 133 executes the discrimination process. Specifically, the left-right eye discrimination learning model 133 uses the learning result to discriminate the eyes included in the Detection image Ib. More specifically, the left-right eye discrimination learning model 133 uses the learning result to identify the type of eye (left eye, right eye) included in the Detection image Ib. The left-right eye discrimination learning model 133 transmits the discrimination result DR to the information processing device 160 with a camera. The control unit 111 generates a video signal for generating video light including the status ST, the identification result DR, and the marker Mc, and outputs the video signal to the projection unit 117. The projection unit 117 generates image light including the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 29 or FIG. 30 is superimposed on the image of the surgical field.

医療従事者は、接眼部252を介して見える視野(術野)の像内の識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR in the image of the visual field (surgical field) seen through the eyepiece 252, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye. As a result, it is possible to confirm whether or not the eye is the target of surgery. In this way, left and right eye discrimination is performed.

カメラ付き情報処理装置160(制御部111)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較する。カメラ付き情報処理装置160(制御部111)は、その比較結果CRと、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、比較結果CRと、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、図32に示したように、比較結果CRと、識別結果DRと、ステータスSTと、マーカMcとを、接眼部252を介して見える視野(術野)の像内に視認する。 The information processing device 160 with a camera (control unit 111) further reads, reads out the surgical data 134C corresponding to the patient 400 from the plurality of surgical data 134C stored in the memory 134, and reads the surgical data 134C into the surgical data 134C. The included surgical eye is compared with the identification result DR. The information processing device 160 with a camera (control unit 111) generates a video signal for generating video light including the comparison result CR, the status ST, the identification result DR, and the marker Mc, and causes the projection unit 117 to generate a video signal. Output. The projection unit 117 generates image light including the comparison result CR, the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, for example, as shown in FIG. 32, the medical staff can see the comparison result CR, the identification result DR, the status ST, and the marker Mc through the eyepiece 252 (operative field). Visually visible in the image of.

[効果]
次に、本実施の形態に係る左右眼識別システム700の効果について説明する。
[effect]
Next, the effect of the left and right eye identification system 700 according to the present embodiment will be described.

本実施の形態では、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本実施の形態では、取得された位置情報に基づいて生成したマーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。これにより、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが観察光学系によって形成される、術野の像における所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 In the present embodiment, the object is detected on the Segumentation image Ic obtained from the surgical field image Ia including the eye to be identified, so that the eye to be identified or the region including the eye to be identified is included. , The position information in the surgical field image Ia is acquired. Further, in the present embodiment, the marker Mc generated based on the acquired position information is superposed on the image of the surgical field formed by the observation optical system and displayed. As a result, the marker Mc can surely include an element (for example, the caruncle 12 and the inner corner of the eye) that facilitates the identification of the left and right eyes. As a result, the medical staff adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the image of the surgical field formed by the observation optical system, so that the marker Mc is reflected in the surgical field image Ia. The left and right eye identification system 100 can correctly discriminate whether the eye is the left eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

また、本実施の形態では、医療従事者用顕微鏡250において、識別結果DRが、観察光学系によって形成される、術野の像に重ね合わせて表示される。また、本実施の形態では、医療従事者用顕微鏡250において、マーカMcとともに、識別結果DRが、観察光学系によって形成される、術野の像に重ね合わせて表示される。これにより、見過ごしの無い確実な確認作業を行うことができる。 Further, in the present embodiment, the identification result DR is displayed on the microscope 250 for medical staff by superimposing it on the image of the surgical field formed by the observation optical system. Further, in the present embodiment, in the microscope 250 for medical professionals, the identification result DR is displayed superposed on the image of the surgical field formed by the observation optical system together with the marker Mc. As a result, it is possible to perform reliable confirmation work without oversight.

また、本実施の形態では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが観察光学系によって形成される、術野の像における所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in the present embodiment, by performing object detection on the Segmentation image Ic, after the Detection image Id is cut out from the Segmentation image Ic, the position information of the cut out Detection image Id in the surgical field image Ia is obtained. , The position information in the surgical field image Ia of the eye to be identified or the region including the eye to be identified. As a result, the object is simply detected for the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the detection image obtained thereby. , The marker Mc can surely include an element (for example, the caruncle 12 and the inner corner of the eye) that facilitates the identification of the left and right eyes. As a result, the medical staff adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the image of the surgical field formed by the observation optical system, so that the marker Mc is reflected in the surgical field image Ia. The left and right eye identification system 100 can correctly discriminate whether the eye is the left eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

また、本実施の形態では、マーカMcが観察光学系によって形成される、術野の像における所定の領域からはみ出している場合には、マーカMcと、マーカMcが所定の領域からはみ出していることを意味する情報(例えば、ステータスST)とを含む画像が、観察光学系によって形成される、術野の像に重ね合わされる。これにより、医療従事者に対して、カメラ120の撮像領域の微調整が必要なことを確実に知らせることができる。 Further, in the present embodiment, when the marker Mc protrudes from a predetermined region in the image of the surgical field formed by the observation optical system, the marker Mc and the marker Mc protrude from the predetermined region. An image containing information (eg, status ST) is superimposed on the image of the surgical field formed by the observation optics. This makes it possible to reliably inform the medical staff that the imaging area of the camera 120 needs to be fine-tuned.

また、本実施の形態では、マーカMcが術野画像Iaにおける所定の領域内に収まっているときに得られた術野画像Iaをサーバ装置130に送信した後、左右眼の識別結果をサーバ装置130から受信するネットワークIF115がカメラ付き情報処理装置160に設けられている。これにより、Segmentation学習モデル132や左右眼識別学習モデル133などで行われる負荷の大きな処理を、カメラ付き情報処理装置160とは別の装置(サーバ装置130)に担わせることができる。その結果、例えば、手術室ごとに設置した各カメラ付き情報処理装置160が1つのサーバ装置130を共有することができるので、左右眼識別システム700を手術室ごとに設置する場合と比べて、左右眼識別システム700の設置コストを低減することができる。 Further, in the present embodiment, after the surgical field image Ia obtained when the marker Mc is within a predetermined area in the surgical field image Ia is transmitted to the server device 130, the identification result of the left and right eyes is transmitted to the server device. A network IF 115 that receives from 130 is provided in the information processing apparatus 160 with a camera. As a result, the heavy-load processing performed by the segmentation learning model 132, the left-right eye discrimination learning model 133, and the like can be assigned to a device (server device 130) different from the information processing device 160 with a camera. As a result, for example, since each information processing device 160 with a camera installed in each operating room can share one server device 130, the left and right eye identification systems 700 are installed in each operating room. The installation cost of the eye identification system 700 can be reduced.

<5.第2の実施の形態の変形例>
次に、第2の実施の形態に係る左右眼識別システム700の変形例について説明する。
<5. Modification example of the second embodiment>
Next, a modified example of the left / right eye identification system 700 according to the second embodiment will be described.

[[変形例E]]
図34は、第2の実施の形態に係る左右眼識別システム700の機能ブロックの一変形例を表したものである。本変形例に係るカメラ付き情報処理装置160は、メモリ112に、プログラム112Aの代わりに、プログラム112Bを記憶している。本変形例に係るサーバ装置130は、メモリ134に、さらに、プログラム134Dを記憶している。
[[Modification E]]
FIG. 34 shows a modified example of the functional block of the left and right eye identification system 700 according to the second embodiment. The information processing apparatus 160 with a camera according to this modification stores the program 112B in the memory 112 instead of the program 112A. The server device 130 according to this modification further stores the program 134D in the memory 134.

プログラム112Bは、カメラ付き情報処理装置160を左右眼識別システム100におけるユーザーインターフェースとして機能させるための手順を制御部111に実行させる。プログラム134Dは、術野に含まれる眼の種類(左眼または右眼)を識別するための一連の手順を制御部131に実行させる。 The program 112B causes the control unit 111 to execute a procedure for causing the information processing device 160 with a camera to function as a user interface in the left and right eye identification system 100. The program 134D causes the control unit 131 to execute a series of procedures for identifying the type of eye (left eye or right eye) included in the surgical field.

(左右眼識別)
図35は、本変形例に係る左右眼識別システム700における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112B,134Dの起動を指示する。すると、カメラ付き情報処理装置160(制御部111)は、メモリ112からプログラム112Bを読み出して、制御部111にロードする。プログラム112Bがロードされた制御部111は、カメラ付き情報処理装置160を左右眼識別システム700におけるユーザーインターフェースとして機能させるための手順を実行する。サーバ装置130(制御部131)は、メモリ134からプログラム134Dを読み出して、制御部131にロードする。プログラム134Dがロードされた制御部131は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 35 is a flow chart showing an example of the left / right eye identification procedure in the left / right eye identification system 700 according to this modified example. First, the user instructs the start of left / right eye identification via the input unit 114. The user instructs, for example, to start the programs 112B and 134D via the input unit 114. Then, the information processing device 160 with a camera (control unit 111) reads the program 112B from the memory 112 and loads it into the control unit 111. The control unit 111 loaded with the program 112B executes a procedure for causing the information processing device 160 with a camera to function as a user interface in the left-right eye identification system 700. The server device 130 (control unit 131) reads the program 134D from the memory 134 and loads it into the control unit 131. The control unit 131 loaded with the program 134D executes a series of procedures for distinguishing the left and right eyes.

具体的には、まず、カメラ付き情報処理装置160(制御部111)は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを制御部111に出力する。 Specifically, first, the information processing device 160 with a camera (control unit 111) outputs an imaging instruction to the camera 120. The camera 120 images the inside of the opening of the drape 600 according to the imaging instruction, and outputs the surgical field image Ia obtained thereby to the control unit 111.

カメラ付き情報処理装置160(制御部111)は、カメラ120から入力された術野画像Iaをサーバ装置130に送信する。サーバ装置130(制御部131)は、受信した術野画像Iaに対して明るさ判定を行う。サーバ装置130(制御部131)は、例えば、術野画像Iaの各ピクセルの明るさの平均値を導出し、導出した平均値が所定の閾値を下回る場合には、術野画像Iaが明るさ不足であることを表示部113に表示させる信号をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160は、サーバ装置130からの信号に基づいて、術野画像Iaが明るさ不足であることを表示部113に表示する。 The information processing device 160 with a camera (control unit 111) transmits the surgical field image Ia input from the camera 120 to the server device 130. The server device 130 (control unit 131) determines the brightness of the received surgical field image Ia. The server device 130 (control unit 131) derives, for example, the average value of the brightness of each pixel of the surgical field image Ia, and when the derived average value falls below a predetermined threshold value, the surgical field image Ia has the brightness. A signal for displaying the shortage on the display unit 113 is transmitted to the information processing device 160 with a camera. The information processing device 160 with a camera displays on the display unit 113 that the surgical field image Ia is insufficient in brightness based on the signal from the server device 130.

サーバ装置130(制御部131)は、例えば、導出した平均値が所定の範囲内にある場合には、ピント判定を実施する。サーバ装置130(制御部131)は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示させる信号をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160は、サーバ装置130からの信号に基づいて、術野画像Iaのピントがずれていることを表示部113に表示する。サーバ装置130(制御部131)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 The server device 130 (control unit 131) performs focus determination, for example, when the derived average value is within a predetermined range. For example, the server device 130 (control unit 131) performs Laplacian differentiation on the surgical field image Ia, and when the score obtained by the Laplacian differentiation is below a predetermined threshold value, the surgical field image Ia is out of focus. A signal for displaying this on the display unit 113 is transmitted to the information processing apparatus 160 with a camera. The information processing device 160 with a camera displays on the display unit 113 that the surgical field image Ia is out of focus based on the signal from the server device 130. For example, when the derived score is equal to or higher than a predetermined threshold value, the server device 130 (control unit 131) inputs the surgical field image Ia into the segmentation learning model 132.

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部131に入力する。制御部131は、入力されたSegmentation画像Icに対して物体検出を行う。制御部131は、例えば、図10に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the Segmentation learning model 132 converts the surgical field image Ia into the Segmentation image Ic by using the learning result (see FIG. 6). The Segmentation learning model 132 inputs the Segmentation image Ic obtained by the conversion to the control unit 131. The control unit 131 detects an object on the input Segmentation image Ic. For example, as shown in FIG. 10, the control unit 131 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the Segmentation image Ic. The image obtained in this way is referred to as a Detection image Id.

サーバ装置130(制御部131)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。サーバ装置130(制御部131)は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、サーバ装置130(制御部131)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The server device 130 (control unit 131) uses the position information of the obtained Detection image Id in the surgical field image Ia as the position information in the surgical field image Ia of the region including the eye to be identified. The server device 130 (control unit 131) uses, for example, the position information of the outer edge portion of the obtained Detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the server device 130 (control unit 131) acquires the position information in the surgical field image Ia of the region including the eye to be identified by detecting the object on the Segmentation image Ic.

なお、サーバ装置130(制御部131)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。サーバ装置130(制御部131)は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、サーバ装置130(制御部131)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The server device 130 (control unit 131) may use the position information of the obtained Detection image Id in the surgical field image Ia as the position information of the eye to be identified in the surgical field image Ia. The server device 130 (control unit 131) may use, for example, the position information in the surgical field image Ia of the outer edge portion of the eye region Ra of the obtained Deception image Id as the position information of the marker Mc. In this case, the server device 130 (control unit 131) acquires the position information of the eye to be identified in the surgical field image Ia by detecting the object on the Segmentation image Ic.

サーバ装置130(制御部131)は、取得した位置情報をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160は、サーバ装置130からの位置情報をに基づいてマーカMcを生成した後、生成したマーカMcを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、マーカMcを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像にマーカMcが重ね合わされた画像を視認する。このとき、マーカMcの位置や大きさは、制御部111から投射部117に入射される映像信号によって規定される。つまり、接眼部252は、マーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。 The server device 130 (control unit 131) transmits the acquired position information to the information processing device 160 with a camera. The information processing device 160 with a camera generates a marker Mc based on the position information from the server device 130, then generates a video signal for generating video light including the generated marker Mc, and outputs the video signal to the projection unit 117. To do. The projection unit 117 generates image light including the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the marker Mc is superimposed on the image of the surgical field. At this time, the position and size of the marker Mc are defined by the video signal incident on the projection unit 117 from the control unit 111. That is, the eyepiece 252 superimposes and displays the marker Mc on the image of the surgical field formed by the observation optical system.

左右眼識別システム700は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、接眼部252を介して見える視野(術野)の像を参照しながら、カメラ120の撮像領域を微調整する。サーバ装置130(制御部131)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、サーバ装置130(制御部131)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、受信した情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図27に示した像を重ね合わせた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left and right eye identification system 700 periodically performs a series of procedures from the above-mentioned imaging instruction to the marker Mc display. At this time, the medical staff fine-tunes the imaging region of the camera 120 while referring to the image of the visual field (surgical field) seen through the eyepiece 252. Whether or not the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region each time the server device 130 (control unit 131) executes a series of procedures from the above-mentioned imaging instruction to the marker Mc display. To judge. As a result, when the position of the marker Mc in the surgical field image Ia protrudes from the predetermined area, the server device 130 (control unit 131) may, for example, move the position of the marker Mc in the surgical field image Ia from the predetermined area. Information indicating that it is protruding is transmitted to the information processing apparatus 160 with a camera. The information processing device 160 with a camera (control unit 111) generates a video signal for displaying an image including the received information and outputs the video signal to the display unit 113. The display unit 113, for example, based on the video signal from the control unit 111, provides information indicating that the position of the marker Mc in the surgical field image Ia protrudes from a predetermined region, and video light including the marker Mc. It is generated and emitted to the eyepiece 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 27 is superimposed on the image of the surgical field. The information processing device 160 with a camera (control unit 111) can be operated by a method other than displaying the marker Mc in the field of view (operative field) seen through the eyepiece 252 (for example, sound or lighting of a patrol lamp). The medical staff may be informed that the position of the marker Mc is out of the predetermined region in the field image Ia.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す情報をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、受信した情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図28に示した像を重ね合わせた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc in the surgical field image Ia is within the predetermined region, the server device 130 (control unit 131) has the position of the marker Mc in the surgical field image Ia within the predetermined region. Information indicating that is transmitted to the information processing apparatus 160 with a camera. The information processing device 160 with a camera (control unit 111) generates a video signal for generating video light including the received information and outputs the video signal to the projection unit 117. Based on the video signal from the control unit 111, the projection unit 117 generates video light including information indicating that the position of the marker Mc in the surgical field image Ia is within a predetermined region and the marker Mc. Then, the light is emitted to the eyepiece 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 28 is superimposed on the image of the surgical field. The information processing device 160 with a camera (control unit 111) is operated by a method other than displaying the marker Mc in the field of view (operative field) seen through the eyepiece 252 (for example, sound or lighting of a patrol lamp). The medical staff may be informed that the position of the marker Mc in the field image Ia is within a predetermined region.

サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを制御部131に送信する。サーバ装置130(制御部131)は、識別結果DRをカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図29または図30に示した像を重ね合わせた画像を視認する。 The server device 130 (control unit 131) outputs a left / right eye identification instruction to the left / right eye identification learning model 133 when the position of the marker Mc is within a predetermined region in the surgical field image Ia. When the left / right eye discrimination learning model 133 receives the left / right eye discrimination instruction, the left / right eye discrimination learning model 133 executes the discrimination process. Specifically, the left-right eye discrimination learning model 133 uses the learning result to discriminate the eyes included in the Detection image Ib. More specifically, the left-right eye discrimination learning model 133 uses the learning result to identify the type of eye (left eye, right eye) included in the Detection image Ib. The left and right eye discrimination learning model 133 transmits the discrimination result DR to the control unit 131. The server device 130 (control unit 131) transmits the identification result DR to the information processing device 160 with a camera. The information processing device 160 with a camera (control unit 111) generates a video signal for generating video light including the status ST, the identification result DR, and the marker Mc, and outputs the video signal to the projection unit 117. The projection unit 117 generates image light including the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 29 or FIG. 30 is superimposed on the image of the surgical field.

医療従事者は、接眼部252を介して見える視野(術野)の像内の識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR in the image of the visual field (surgical field) seen through the eyepiece 252, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye. As a result, it is possible to confirm whether or not the eye is the target of surgery. In this way, left and right eye discrimination is performed.

サーバ装置130(制御部131)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較し、その比較結果CRをカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図31に示した像を重ね合わせた画像を視認する。 The server device 130 (control unit 131) further reads, for example, from the plurality of surgical data 134C stored in the memory 134, the surgical data 134C corresponding to the patient 400, reads out, and includes the surgical data 134C. The eye is compared with the identification result DR, and the comparison result CR is transmitted to the information processing apparatus 160 with a camera. The information processing device 160 with a camera (control unit 111) generates a video signal for generating video light including a status ST, a comparison result CR, an identification result DR, and a marker Mc, and outputs the video signal to the projection unit 117. To do. The projection unit 117 generates image light including the status ST, the comparison result CR, the identification result DR, and the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 31 is superimposed on the image of the surgical field.

本変形例では、サーバ装置130において、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本変形例では、取得された位置情報がカメラ付き情報処理装置160に送信される。これにより、カメラ付き情報処理装置160において、位置情報に基づいたマーカMcを術野の像に重ね合わせて表示することができるので、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが観察光学系によって形成される、術野の像における所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 In this modification, the server device 130 detects the segmentation image Ic obtained from the surgical field image Ia including the eye to be identified, thereby detecting the eye to be identified or the eye to be identified. The position information in the surgical field image Ia of the region including the above is acquired. Further, in this modification, the acquired position information is transmitted to the information processing apparatus 160 with a camera. As a result, in the information processing apparatus 160 with a camera, the marker Mc based on the position information can be superposed on the image of the surgical field and displayed, so that the element (in the marker Mc) that facilitates the identification of the left and right eyes ( For example, the caruncle 12 and the inner corner of the eye) can be reliably included. As a result, the medical staff adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the image of the surgical field formed by the observation optical system, so that the marker Mc is reflected in the surgical field image Ia. The left and right eye identification system 100 can correctly discriminate whether the eye is the left eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

また、本変形例では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in this modified example, by detecting the object on the Segmentation image Ic, after the Detection image Id is cut out from the Segmentation image Ic, the position information of the cut out Detection image Id in the surgical field image Ia is obtained. It is the position information in the surgical field image Ia of the eye to be identified or the region including the eye to be identified. As a result, the object is simply detected for the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the detection image obtained thereby. , The marker Mc can surely include an element (for example, the caruncle 12 and the inner corner of the eye) that facilitates the identification of the left and right eyes. As a result, the medical worker adjusts the imaging region of the camera 120 so that the marker Mc is located within a predetermined region in the surgical field image Ia, so that the eye reflected in the surgical field image Ia is the left eye. The left and right eye identification system 100 can correctly identify whether the eye is the right eye or the right eye. Therefore, it is possible to identify the type of eye that is difficult to identify.

[[変形例F]]
第2の実施の形態において、例えば、図36に示したように、サーバ装置130が省略されるとともに、カメラ付き情報処理装置160がサーバ装置130の機能を備えていてもよい。このとき、カメラ付き情報処理装置160は、例えば、図37に示したように、Segmentation学習モデル132、左右眼識別学習モデル133を備えるとともに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cをメモリ112に記憶している。
[[Modification F]]
In the second embodiment, for example, as shown in FIG. 36, the server device 130 may be omitted, and the information processing device 160 with a camera may have the function of the server device 130. At this time, the information processing apparatus 160 with a camera includes, for example, a Segmentation learning model 132 and a left / right eye discrimination learning model 133, as shown in FIG. 37, and a plurality of image data 134A, a plurality of image data 134B, and a plurality of image data 134B. The operation data 134C is stored in the memory 112.

(左右眼識別)
図38は、本変形例に係る左右眼識別システム700における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、カメラ付き情報処理装置160(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 38 is a flow chart showing an example of the left / right eye identification procedure in the left / right eye identification system 700 according to this modified example. First, the user instructs the start of left / right eye identification via the input unit 114. The user instructs, for example, to start the program 112A via the input unit 114. Then, the information processing device 160 with a camera (control unit 111) reads the program 112A from the memory 112 and loads it into the control unit 111. The control unit 111 loaded with the program 112A executes a series of steps for distinguishing the left and right eyes.

具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを制御部111に送信する。 Specifically, first, the control unit 111 outputs an imaging instruction to the camera 120. The camera 120 images the inside of the opening of the drape 600 according to the imaging instruction, and transmits the surgical field image Ia obtained thereby to the control unit 111.

制御部111は、受信した術野画像Iaに対して明るさ判定を行う。制御部111は、例えば、術野画像Iaの各ピクセルの明るさの平均値を導出し、導出した平均値が所定の閾値を下回る場合には、術野画像Iaが明るさ不足であることを表示部113に表示する。 The control unit 111 determines the brightness of the received surgical field image Ia. The control unit 111 derives, for example, the average value of the brightness of each pixel of the surgical field image Ia, and when the derived average value is less than a predetermined threshold value, it indicates that the surgical field image Ia is insufficient in brightness. It is displayed on the display unit 113.

制御部111は、例えば、導出した平均値が所定の閾値以上の場合には、ピント判定を実施する。制御部111は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。制御部111は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 The control unit 111 performs a focus determination, for example, when the derived average value is equal to or greater than a predetermined threshold value. For example, the control unit 111 performs Laplacian differentiation on the surgical field image Ia, and when the score obtained by the Laplacian differentiation is below a predetermined threshold value, the display unit 113 indicates that the surgical field image Ia is out of focus. Display on. For example, when the derived score is equal to or higher than a predetermined threshold value, the control unit 111 inputs the surgical field image Ia into the segmentation learning model 132.

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部131に入力する。制御部111は、入力されたSegmentation画像Icに対して、物体検出を行う。制御部111は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the Segmentation learning model 132 converts the surgical field image Ia into the Segmentation image Ic by using the learning result (see FIG. 6). The Segmentation learning model 132 inputs the Segmentation image Ic obtained by the conversion to the control unit 131. The control unit 111 detects an object with respect to the input Segmentation image Ic. For example, as shown in FIG. 8, the control unit 111 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the Segmentation image Ic. The image obtained in this way is referred to as a Detection image Id.

制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。制御部111は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報をマーカMcの位置情報とする。つまり、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The control unit 111 uses the position information of the obtained Detection image Id in the surgical field image Ia as the position information in the surgical field image Ia of the region including the eye to be identified. For example, the control unit 111 uses the position information of the outer edge portion of the obtained Detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the control unit 111 acquires the position information in the surgical field image Ia of the region including the eye to be identified by detecting the object on the Segmentation image Ic.

なお、制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。制御部111は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The control unit 111 may use the position information of the obtained Detection image Id in the surgical field image Ia as the position information of the eye to be identified in the surgical field image Ia. For example, the control unit 111 may use the position information of the outer edge portion of the eye region Ra of the obtained Deception image Id in the surgical field image Ia as the position information of the marker Mc. In this case, the control unit 111 acquires the position information of the eye to be identified in the surgical field image Ia by detecting the object on the Segmentation image Ic.

制御部111は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、マーカMcを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像にマーカMcが重ね合わされた画像を視認する。このとき、マーカMcの位置や大きさは、制御部111から投射部117に入射される映像信号によって規定される。つまり、接眼部252は、マーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。 The control unit 111 generates the marker Mc based on the acquired position information, then generates a video signal for generating the video light including the generated marker Mc, and outputs the video signal to the projection unit 117. The projection unit 117 generates image light including the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the marker Mc is superimposed on the image of the surgical field. At this time, the position and size of the marker Mc are defined by the video signal incident on the projection unit 117 from the control unit 111. That is, the eyepiece 252 superimposes and displays the marker Mc on the image of the surgical field formed by the observation optical system.

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、接眼部252を介して見える視野(術野)の像を参照しながら、カメラ120の撮像領域を微調整する。制御部111は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、制御部111は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図27に示した像を重ね合わせた画像を視認する。なお、制御部111は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left and right eye identification system 100 periodically performs a series of procedures from the above-mentioned imaging instruction to the marker Mc display. At this time, the medical staff fine-tunes the imaging region of the camera 120 while referring to the image of the visual field (surgical field) seen through the eyepiece 252. For example, each time the control unit 111 executes a series of procedures from the above-mentioned imaging instruction to the marker Mc display, the control unit 111 determines whether or not the position of the marker Mc in the surgical field image Ia protrudes from a predetermined region. As a result, when the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region, the control unit 111 indicates that, for example, the position of the marker Mc in the surgical field image Ia protrudes from the predetermined region. An image light containing the meaning information is generated and emitted to the eyepiece 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 27 is superposed on the image of the surgical field. The control unit 111 positions the marker Mc in the surgical field image Ia by a method other than displaying the marker Mc in the visual field (operative field) visible through the eyepiece 252 (for example, sound or lighting of a patrol lamp). May inform the healthcare professional that is out of the predetermined area.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図28に示した像を重ね合わせた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc in the surgical field image Ia is within a predetermined region, the control unit 111 provides information indicating that the position of the marker Mc in the surgical field image Ia is within the predetermined region. A video signal for generating the included video light is generated and output to the projection unit 117. Based on the video signal from the control unit 111, the projection unit 117 generates video light including information indicating that the position of the marker Mc in the surgical field image Ia is within a predetermined region and the marker Mc. Then, the light is emitted to the eyepiece 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 28 is superimposed on the image of the surgical field. The information processing device 160 with a camera (control unit 111) is operated by a method other than displaying the marker Mc in the field of view (operative field) seen through the eyepiece 252 (for example, sound or lighting of a patrol lamp). The medical staff may be informed that the position of the marker Mc in the field image Ia is within a predetermined region.

制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを制御部111に入力する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図29または図30に示した像を重ね合わせた画像を視認する。 When the position of the marker Mc is within a predetermined region in the surgical field image Ia, the control unit 111 outputs a left / right eye identification instruction to the left / right eye identification learning model 133. When the left / right eye discrimination learning model 133 receives the left / right eye discrimination instruction, the left / right eye discrimination learning model 133 executes the discrimination process. Specifically, the left-right eye discrimination learning model 133 uses the learning result to discriminate the eyes included in the Detection image Ib. More specifically, the left-right eye discrimination learning model 133 uses the learning result to identify the type of eye (left eye, right eye) included in the Detection image Ib. The left and right eye discrimination learning model 133 inputs the discrimination result DR to the control unit 111. The control unit 111 generates a video signal for generating the video light including the status ST, the identification result DR, and the marker Mc, and outputs the video signal to the projection unit 117. The projection unit 117 generates image light including the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 29 or FIG. 30 is superimposed on the image of the surgical field.

医療従事者は、接眼部252を介して見える視野(術野)の像内の識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR in the image of the visual field (surgical field) seen through the eyepiece 252, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye. As a result, it is possible to confirm whether or not the eye is the target of surgery. In this way, left and right eye discrimination is performed.

制御部111は、さらに、例えば、メモリ112に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較する。制御部111は、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図31に示した像を重ね合わせた画像を視認する。 The control unit 111 further reads, for example, from the plurality of surgical data 134C stored in the memory 112, the surgical data 134C corresponding to the patient 400, and the surgical eye included in the read and surgical data 134C and the identification result. Compare with DR. The control unit 111 generates a video signal for generating video light including the status ST, the comparison result CR, the identification result DR, and the marker Mc, and outputs the video signal to the projection unit 117. The projection unit 117 generates image light including the status ST, the comparison result CR, the identification result DR, and the marker Mc based on the image signal from the control unit 111, and emits the image light to the eyepiece unit 252. As a result, the image light incident on the eyepiece 252 and the light guiding the observation optical system from the surgical field are combined in the eyepiece 252 and incident on the eyes of the medical staff. As a result, the medical staff visually recognizes, for example, an image in which the image shown in FIG. 31 is superposed on the image of the surgical field.

本変形例では、カメラ付き情報処理装置160が上記第2の実施の形態に係るサーバ装置130の機能を備えている。これにより、カメラ付き情報処理装置160を用意するだけで、左右眼識別を行うことができる。従って、サーバ装置130が不要な分だけ、左右眼識別システム700を設置する手間を削減することができる。 In this modification, the information processing device 160 with a camera has the function of the server device 130 according to the second embodiment. As a result, the left and right eyes can be identified simply by preparing the information processing device 160 with a camera. Therefore, it is possible to reduce the time and effort required to install the left and right eye identification system 700 because the server device 130 is unnecessary.

以上、実施の形態およびその変形例を挙げて本発明を説明したが、本発明は実施の形態等に限定されるものではなく、種々変形が可能である。実施の形態等では、本発明は眼の手術に適用されていたが、識別の困難な対象物を識別する必要のある分野に好適に適用可能である。なお、本明細書中に記載された効果は、あくまで例示である。本発明の効果は、本明細書中に記載された効果に限定されるものではない。本発明が、本明細書中に記載された効果以外の効果を持っていてもよい。 Although the present invention has been described above with reference to the embodiments and examples thereof, the present invention is not limited to the embodiments and the like, and various modifications are possible. In embodiments and the like, the present invention has been applied to eye surgery, but is suitably applicable to fields where it is necessary to identify an object that is difficult to identify. The effects described in the present specification are merely examples. The effects of the present invention are not limited to the effects described herein. The present invention may have effects other than those described herein.

10…眼、11…眼球、12…涙丘、100…左右眼識別システム、110…情報処理装置、110A…表示面、111…制御部、112…メモリ、112A,112B…プログラム、113…表示部、114…入力部、115,116…ネットワークIF、117…投射部、120…カメラ、130…サーバ装置、131…制御部、132…Segmentation学習モデル、133…左右眼識別学習モデル、134…メモリ、134A,134B…画像データ、134C…手術データ、134D…プログラム、135…ネットワークIF、140,150…ネットワーク、160…カメラ付き情報処理装置、200…眼科手術用顕微鏡システム、210…支柱、220…第1アーム、230…第2アーム、240…駆動装置、250…医療従事者用顕微鏡、251…鏡筒部、252…接眼部、260…フットスイッチ、300…手術台、400…患者、500…シーツ、600…ドレープ、610…開口、700…左右眼識別システム、CR…比較結果、DR…識別結果、Ia…術野画像、Ib…Detection画像、Ic…Segmentation画像、Id…Detection画像、Mc…マーカ、Ra…眼領域、Rb…周辺領域、ST…ステータス。 10 ... Eye, 11 ... Eyeball, 12 ... Tear Hill, 100 ... Left and right eye identification system, 110 ... Information processing device, 110A ... Display surface, 111 ... Control unit, 112 ... Memory, 112A, 112B ... Program, 113 ... Display unit , 114 ... Input unit, 115, 116 ... Network IF, 117 ... Projection unit, 120 ... Camera, 130 ... Server device, 131 ... Control unit, 132 ... Segmentation learning model, 133 ... Left and right eye discrimination learning model, 134 ... Memory, 134A, 134B ... image data, 134C ... surgical data, 134D ... program, 135 ... network IF, 140, 150 ... network, 160 ... information processing device with camera, 200 ... ophthalmic surgery microscope system, 210 ... support, 220 ... 1 arm, 230 ... 2nd arm, 240 ... drive device, 250 ... medical worker microscope, 251 ... lens barrel, 252 ... eyepiece, 260 ... foot switch, 300 ... operating table, 400 ... patient, 500 ... Sheets, 600 ... Drape, 610 ... Opening, 700 ... Left and right eye identification system, CR ... Comparison result, DR ... Identification result, Ia ... Surgical field image, Ib ... Detection image, Ic ... Segment image, Id ... Detection image, Mc ... Marker, Ra ... eye area, Rb ... peripheral area, ST ... status.

Claims (15)

識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、前記識別対象、もしくは、前記識別対象を含む領域の、前記撮像画像における位置情報を取得する取得部と、
前記取得部で取得された前記位置情報に基づいて生成したマーカを前記撮像画像に重ね合わせた画像を表示する表示部と
を備えた
情報処理システム。
An acquisition unit that acquires position information in the captured image of the identification target or a region including the identification target by detecting an object on the Segmentation image obtained from the captured image including the identification target.
An information processing system including a display unit that displays an image in which a marker generated based on the position information acquired by the acquisition unit is superimposed on the captured image.
前記表示部は、前記画像として、さらに、前記撮像画像に含まれる前記識別対象の識別結果を含む画像を表示する
請求項1に記載の情報処理システム。
The information processing system according to claim 1, wherein the display unit further displays an image including the identification result of the identification target included in the captured image as the image.
識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、前記識別対象、もしくは、前記識別対象を含む領域の、前記撮像画像における位置情報を取得する取得部と、
前記取得部で取得された前記位置情報に基づいて生成したマーカを、光学系によって形成される、前記識別対象を含む視野の像に重ね合わせる合成部と
を備えた
情報処理システム。
An acquisition unit that acquires position information in the captured image of the identification target or a region including the identification target by detecting an object on the Segmentation image obtained from the captured image including the identification target.
An information processing system including a compositing unit that superimposes a marker generated based on the position information acquired by the acquisition unit on an image of a visual field including the identification target formed by an optical system.
前記合成部は、前記マーカと、前記撮像画像に含まれる前記識別対象の識別結果と、前記視野の像とを含む像を生成する
請求項3に記載の情報処理システム。
The information processing system according to claim 3, wherein the synthesis unit generates an image including the marker, the identification result of the identification target included in the captured image, and the image of the visual field.
識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、前記識別対象、もしくは、前記識別対象を含む領域の、前記撮像画像における位置情報を取得する取得部と、
前記取得部で取得された前記位置情報を、表示部を備えた情報処理装置に送信する送信部と
を備えた
情報処理システム。
An acquisition unit that acquires position information in the captured image of the identification target or a region including the identification target by detecting an object on the Segmentation image obtained from the captured image including the identification target.
An information processing system including a transmission unit that transmits the position information acquired by the acquisition unit to an information processing device including a display unit.
前記取得部は、前記Segmentation画像に対して物体検出を行うことにより、前記Segmentation画像からDetection画像を切り出し、切り出した前記Detection画像の、前記撮像画像における位置情報を、前記識別対象、もしくは、前記識別対象を含む領域の、前記撮像画像における位置情報とする
請求項1から請求項5のいずれか一項に記載の情報処理システム。
The acquisition unit cuts out a Detection image from the Segmentation image by detecting an object on the Segmentation image, and obtains the position information of the cut out Detection image in the captured image as the identification target or the identification. The information processing system according to any one of claims 1 to 5, which is used as position information in the captured image of a region including an object.
前記表示部は、前記マーカが所定の領域からはみ出している場合には、前記画像として、さらに、前記マーカが前記所定の領域からはみ出していることを意味する情報を含む画像を表示する
請求項1または請求項2に記載の情報処理システム。
The display unit displays, when the marker protrudes from a predetermined area, an image including information indicating that the marker protrudes from the predetermined area as the image. Alternatively, the information processing system according to claim 2.
前記合成部は、前記マーカが所定の領域からはみ出している場合には、前記マーカと、前記マーカが前記所定の領域からはみ出していることを意味する情報と、前記視野の像とを含む像を生成する
請求項3または請求項4に記載の情報処理システム。
When the marker protrudes from a predetermined region, the synthesis unit includes an image including the marker, information meaning that the marker protrudes from the predetermined region, and an image of the visual field. The information processing system according to claim 3 or 4, which is generated.
前記マーカが所定の領域内に収まっているときに得られた前記撮像画像を外部機器に送信し、前記識別結果を前記外部機器から受信する第1通信部を更に備えた
請求項1から請求項4のいずれか一項に記載の情報処理システム。
Claims 1 to claim 1 further include a first communication unit that transmits the captured image obtained when the marker is within a predetermined area to an external device and receives the identification result from the external device. The information processing system according to any one of 4.
前記マーカが所定の領域内に収まっているときに得られた前記撮像画像に含まれる前記識別対象の識別を行う識別部を更に備えた
請求項2または請求項4に記載の情報処理システム。
The information processing system according to claim 2 or 4, further comprising an identification unit that identifies the identification target included in the captured image obtained when the marker is within a predetermined area.
前記第1通信部は、撮像装置から送信された前記撮像画像を受信する
請求項9に記載の情報処理システム。
The information processing system according to claim 9, wherein the first communication unit receives the captured image transmitted from the imaging device.
無線通信により撮像装置から送信された前記撮像画像を受信する第2通信部を更に備えた
請求項9に記載の情報処理システム。
The information processing system according to claim 9, further comprising a second communication unit that receives the captured image transmitted from the image pickup device by wireless communication.
識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、前記識別対象、もしくは、前記識別対象を含む領域の、前記撮像画像における位置情報を取得する取得ステップと、
前記取得ステップで取得された前記位置情報に基づいて生成したマーカを前記撮像画像に重ね合わせた画像を表示するための映像信号を生成する生成ステップと
をコンピュータに実行させる
情報処理プログラム。
An acquisition step of acquiring position information in the captured image of the identification target or a region including the identification target by performing object detection on the Segmentation image obtained from the captured image including the identification target.
An information processing program that causes a computer to execute a generation step of generating a video signal for displaying an image in which a marker generated based on the position information acquired in the acquisition step is superimposed on the captured image.
識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、前記識別対象、もしくは、前記識別対象を含む領域の、前記撮像画像における位置情報を取得する取得ステップと、
前記取得ステップで取得された前記位置情報に基づいて生成したマーカを、光学系によって形成される、前記識別対象を含む視野の像に重ね合わせるための投射光生成用の映像信号を生成する生成ステップと
をコンピュータに実行させる
情報処理プログラム。
An acquisition step of acquiring position information in the captured image of the identification target or a region including the identification target by performing object detection on the Segmentation image obtained from the captured image including the identification target.
A generation step of generating a video signal for generating projected light for superimposing a marker generated based on the position information acquired in the acquisition step on an image of a visual field including the identification target formed by an optical system. An information processing program that causes a computer to execute and.
識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、前記識別対象、もしくは、前記識別対象を含む領域の、前記撮像画像における位置情報を取得する取得ステップと、
前記取得ステップで取得された前記位置情を、表示部を備えた情報処理装置に送信する送信ステップと
をコンピュータに実行させる
情報処理プログラム。
An acquisition step of acquiring position information in the captured image of the identification target or a region including the identification target by performing object detection on the Segmentation image obtained from the captured image including the identification target.
An information processing program that causes a computer to execute a transmission step of transmitting the position information acquired in the acquisition step to an information processing device provided with a display unit.
JP2019042036A 2019-02-19 2019-02-19 Information processing system and information processing program Active JP7304508B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019042036A JP7304508B2 (en) 2019-02-19 2019-02-19 Information processing system and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042036A JP7304508B2 (en) 2019-02-19 2019-02-19 Information processing system and information processing program

Publications (2)

Publication Number Publication Date
JP2020137103A true JP2020137103A (en) 2020-08-31
JP7304508B2 JP7304508B2 (en) 2023-07-07

Family

ID=72263754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042036A Active JP7304508B2 (en) 2019-02-19 2019-02-19 Information processing system and information processing program

Country Status (1)

Country Link
JP (1) JP7304508B2 (en)

Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11285471A (en) * 1999-02-22 1999-10-19 Nikon Corp Ophthalmologic device
JP2002238860A (en) * 2001-02-22 2002-08-27 Canon Inc Ophthalmological device and eye image display method
JP2003298887A (en) * 2002-03-29 2003-10-17 Matsushita Electric Ind Co Ltd Eye image pickup device
JP2006136714A (en) * 2004-10-26 2006-06-01 Carl Zeiss Surgical Gmbh Microscopic inspection system for surgical operation and method to perform surgical operation of eye
JP2006235921A (en) * 2005-02-24 2006-09-07 Hitachi Ltd Vehicle number recognition apparatus, and method for adjusting electric lens of vehicle number recognition apparatus
JP2007532148A (en) * 2004-02-19 2007-11-15 ヴィズイクス・インコーポレーテッド Method and system for distinguishing left and right eye images
JP2008178672A (en) * 2006-12-19 2008-08-07 Fujifilm Corp Method and apparatus for using probabilistic atlas for feature removal/positioning
JP2008219696A (en) * 2007-03-07 2008-09-18 Casio Comput Co Ltd Camera apparatus, camera apparatus control program and camera apparatus control method
JP2008244804A (en) * 2007-03-27 2008-10-09 Fujifilm Corp Image-taking device and method, and control program
JP2010122934A (en) * 2008-11-20 2010-06-03 Sony Corp Image processing apparatus, image processing method, and program
JP2012152469A (en) * 2011-01-27 2012-08-16 Nidek Co Ltd Ophthalmic surgical microscope
JP2013213872A (en) * 2012-03-30 2013-10-17 Sony Corp Information processing apparatus, information processing method and program
JP2013254437A (en) * 2012-06-08 2013-12-19 Pfu Ltd Image processing apparatus, image reading device, image processing method, and image processing program
JP2014110883A (en) * 2012-10-30 2014-06-19 Canon Inc Image processor and image processing method
JP2014233469A (en) * 2013-06-03 2014-12-15 株式会社ニデック Laser treatment apparatus and laser treatment auxiliary program
JP2015195923A (en) * 2014-03-31 2015-11-09 株式会社ニデック Ophthalmic laser surgery device
JP2016013233A (en) * 2014-07-01 2016-01-28 富士通株式会社 Output control method, image processing system, output control program, and information processing apparatus
JP2016126242A (en) * 2015-01-07 2016-07-11 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2016125366A1 (en) * 2015-02-05 2016-08-11 株式会社リコー Image processing device, image processing system, and image processing method
JP2016202351A (en) * 2015-04-17 2016-12-08 健司 三木 Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP2016214781A (en) * 2015-05-26 2016-12-22 ソニー株式会社 Surgery system, image processing device, and method
JP2017099757A (en) * 2015-12-03 2017-06-08 キヤノン株式会社 Image processing device and image processing method
JP2017139628A (en) * 2016-02-03 2017-08-10 キヤノン株式会社 Communication device, communication system, communication method and computer program
JP6434666B1 (en) * 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program
JP2019022580A (en) * 2017-07-24 2019-02-14 ソニー株式会社 Surgery system, information processing method and information processor

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11285471A (en) * 1999-02-22 1999-10-19 Nikon Corp Ophthalmologic device
JP2002238860A (en) * 2001-02-22 2002-08-27 Canon Inc Ophthalmological device and eye image display method
JP2003298887A (en) * 2002-03-29 2003-10-17 Matsushita Electric Ind Co Ltd Eye image pickup device
JP2007532148A (en) * 2004-02-19 2007-11-15 ヴィズイクス・インコーポレーテッド Method and system for distinguishing left and right eye images
JP2006136714A (en) * 2004-10-26 2006-06-01 Carl Zeiss Surgical Gmbh Microscopic inspection system for surgical operation and method to perform surgical operation of eye
JP2006235921A (en) * 2005-02-24 2006-09-07 Hitachi Ltd Vehicle number recognition apparatus, and method for adjusting electric lens of vehicle number recognition apparatus
JP2008178672A (en) * 2006-12-19 2008-08-07 Fujifilm Corp Method and apparatus for using probabilistic atlas for feature removal/positioning
JP2008219696A (en) * 2007-03-07 2008-09-18 Casio Comput Co Ltd Camera apparatus, camera apparatus control program and camera apparatus control method
JP2008244804A (en) * 2007-03-27 2008-10-09 Fujifilm Corp Image-taking device and method, and control program
JP2010122934A (en) * 2008-11-20 2010-06-03 Sony Corp Image processing apparatus, image processing method, and program
JP2012152469A (en) * 2011-01-27 2012-08-16 Nidek Co Ltd Ophthalmic surgical microscope
JP2013213872A (en) * 2012-03-30 2013-10-17 Sony Corp Information processing apparatus, information processing method and program
JP2013254437A (en) * 2012-06-08 2013-12-19 Pfu Ltd Image processing apparatus, image reading device, image processing method, and image processing program
JP2014110883A (en) * 2012-10-30 2014-06-19 Canon Inc Image processor and image processing method
JP2014233469A (en) * 2013-06-03 2014-12-15 株式会社ニデック Laser treatment apparatus and laser treatment auxiliary program
JP2015195923A (en) * 2014-03-31 2015-11-09 株式会社ニデック Ophthalmic laser surgery device
JP2016013233A (en) * 2014-07-01 2016-01-28 富士通株式会社 Output control method, image processing system, output control program, and information processing apparatus
JP2016126242A (en) * 2015-01-07 2016-07-11 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2016125366A1 (en) * 2015-02-05 2016-08-11 株式会社リコー Image processing device, image processing system, and image processing method
JP2016202351A (en) * 2015-04-17 2016-12-08 健司 三木 Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP2016214781A (en) * 2015-05-26 2016-12-22 ソニー株式会社 Surgery system, image processing device, and method
JP2017099757A (en) * 2015-12-03 2017-06-08 キヤノン株式会社 Image processing device and image processing method
JP2017139628A (en) * 2016-02-03 2017-08-10 キヤノン株式会社 Communication device, communication system, communication method and computer program
JP2019022580A (en) * 2017-07-24 2019-02-14 ソニー株式会社 Surgery system, information processing method and information processor
JP6434666B1 (en) * 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program

Also Published As

Publication number Publication date
JP7304508B2 (en) 2023-07-07

Similar Documents

Publication Publication Date Title
JP6693507B2 (en) Information processing apparatus, information processing method, and information processing system
JP4861540B2 (en) Medical equipment
EP3449859B1 (en) Control device, control method and surgical system
JP6950707B2 (en) Information processing equipment and methods, and programs
US11051716B2 (en) Method and apparatus for jaundice diagnosis based on an image
JP2013258627A (en) Image processing apparatus and three-dimensional image observation system
JP3625906B2 (en) Surgical microscope equipment
JPWO2018168261A1 (en) CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
JP2021029258A (en) Surgery support system, surgery support method, information processing device, and information processing program
JP5271157B2 (en) Fundus image analyzing apparatus, fundus photographing apparatus, and program
US20210019921A1 (en) Image processing device, image processing method, and program
JP6723843B2 (en) Ophthalmic equipment
JPWO2018221068A1 (en) Information processing apparatus, information processing method, and information processing program
CN110913787B (en) Operation support system, information processing method, and information processing apparatus
EP3346368B1 (en) Device, method and system for control of a target apparatus
JP6892540B2 (en) Ophthalmic equipment
US20190281233A1 (en) Image processing device, setting method, and program
WO2014011014A1 (en) Ophthalmic apparatus, and treatment site measuring method for the apparatus
JP2020137103A (en) Information processing system and information processing program
JP6895277B2 (en) Ophthalmic observation device and its operation method
JP7042029B2 (en) Ophthalmic observation device and its operation method
JP6895278B2 (en) Ophthalmic observation device and its operation method
JPWO2020009127A1 (en) Medical observation system, medical observation device, and driving method of medical observation device
US20190268547A1 (en) Image processing device and method, and program
US20200059608A1 (en) Image processing device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220426

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220907

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221230

A917 Reason for reinstatement of right to file examination request

Free format text: JAPANESE INTERMEDIATE CODE: A917

Effective date: 20230508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7304508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150