JP2023139442A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2023139442A
JP2023139442A JP2022044978A JP2022044978A JP2023139442A JP 2023139442 A JP2023139442 A JP 2023139442A JP 2022044978 A JP2022044978 A JP 2022044978A JP 2022044978 A JP2022044978 A JP 2022044978A JP 2023139442 A JP2023139442 A JP 2023139442A
Authority
JP
Japan
Prior art keywords
imaging unit
unit
surgical instrument
processing unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022044978A
Other languages
Japanese (ja)
Inventor
洋志 川村
Hiroshi Kawamura
文彦 青木
Fumihiko Aoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2022044978A priority Critical patent/JP2023139442A/en
Publication of JP2023139442A publication Critical patent/JP2023139442A/en
Pending legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)

Abstract

To provide an image processing system and an image processing method capable of properly focusing on a surgery target in a case of executing a surgical operation on the surgery target by using a plurality of surgical instruments.SOLUTION: The image processing system comprises: an acquisition processing unit which acquires a captured image from an image-capturing unit which captures an image of a surgery target; a detection processing unit which detects identification mediums provided respectively on a plurality of surgical instruments, in the captured image acquired by the acquisition processing unit; and a control processing unit which controls the imaging unit so as to focus on a position corresponding to a first surgical instrument identified based on priority order corresponding to the respective identification mediums detected by the detection processing unit.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理システム及び画像処理方法に関する。 The present invention relates to an image processing system and an image processing method.

従来、手術対象の部位を撮像した撮像画像をディスプレイに映しながら術者が手術を行う場合に、当該部位を適切に表示させるシステムが知られている(例えば特許文献1参照)。 BACKGROUND ART Conventionally, when an operator performs a surgery while displaying a captured image of a region to be operated on a display, a system is known that appropriately displays the region (for example, see Patent Document 1).

特開2015-228955号公報Japanese Patent Application Publication No. 2015-228955

従来の技術では、特定の手術器具を用いる場合には当該手術器具の位置を検出して手術対象の部位にフォーカスすることはできるが、手術器具が複数の場合に、手術器具に応じて手術対象の部位に適切にフォーカスすることは困難である。 With conventional technology, when using a specific surgical instrument, it is possible to detect the position of the surgical instrument and focus on the surgical target area, but when multiple surgical instruments are used, the surgical target can be focused on depending on the surgical instrument. It is difficult to properly focus on this area.

本発明の目的は、手術対象に対して複数の手術器具を用いて手術を行う場合に当該手術対象を適切にフォーカスすることが可能な画像処理システム及び画像処理方法を提供することにある。 An object of the present invention is to provide an image processing system and an image processing method that are capable of appropriately focusing a surgical target when performing surgery on the surgical target using a plurality of surgical instruments.

本発明の一の態様に係る画像処理システムは、手術対象を撮像する撮像部から撮像画像を取得する取得処理部と、前記取得処理部により取得される前記撮像画像において、複数の手術器具のそれぞれに設けられた識別媒体を検出する検出処理部と、前記検出処理部により検出される複数の前記識別媒体のそれぞれに対応する優先順位に基づいて特定される第1手術器具に対応する位置に前記撮像部の焦点が合うように前記撮像部を制御する制御処理部と、を備える。 An image processing system according to one aspect of the present invention includes: an acquisition processing unit that acquires a captured image from an imaging unit that images a surgical target; a detection processing unit that detects an identification medium provided in the detection processing unit; and a detection processing unit that detects an identification medium provided in the detection processing unit; and a control processing unit that controls the imaging unit so that the imaging unit is in focus.

本発明の一の態様に係る画像処理システムは、手術対象を撮像する撮像部から撮像画像を取得する取得処理部と、前記取得処理部により取得される前記撮像画像において、手術器具の所定位置に設けられた識別媒体を検出する検出処理部と、前記検出処理部により検出される前記識別媒体に基づいて特定される第1手術器具の前記所定位置から、前記第1手術器具に予め設定された設定距離だけ離れた位置に前記撮像部の焦点が合うように前記撮像部を制御する制御処理部と、を備える。 An image processing system according to one aspect of the present invention includes: an acquisition processing unit that acquires a captured image from an imaging unit that images a surgical target; a detection processing unit that detects an identification medium provided therein; and a detection processing unit that detects a predetermined identification medium set in advance on the first surgical instrument from the predetermined position of the first surgical instrument specified based on the identification medium detected by the detection processing unit. and a control processing unit that controls the imaging unit so that the imaging unit is focused at a position separated by a set distance.

本発明の他の態様に係る画像処理方法は、一又は複数のプロセッサーが、手術対象を撮像する撮像部から撮像画像を取得する取得ステップと、前記取得ステップにおいて取得される前記撮像画像において、複数の手術器具のそれぞれに設けられた識別媒体を検出する検出ステップと、前記検出ステップにおいて検出される複数の前記識別媒体のそれぞれに対応する優先順位に基づいて特定される第1手術器具に対応する位置に前記撮像部の焦点が合うように前記撮像部を制御する制御ステップと、を実行する画像処理方法である。 An image processing method according to another aspect of the present invention includes an acquisition step in which one or more processors acquire a captured image from an imaging unit that images a surgical target, and a plurality of captured images acquired in the acquisition step. a detection step of detecting identification media provided on each of the plurality of surgical instruments; and a first surgical instrument identified based on a priority order corresponding to each of the plurality of identification media detected in the detection step. and a control step of controlling the imaging section so that the imaging section is focused on a position.

本発明の他の態様に係る画像処理方法は、一又は複数のプロセッサーが、手術対象を撮像する撮像部から撮像画像を取得する取得ステップと、前記取得ステップにおいて取得される前記撮像画像において、手術器具の所定位置に設けられた識別媒体を検出する検出ステップと、前記検出ステップにおいて検出される前記識別媒体に基づいて特定される第1手術器具の前記所定位置から、前記第1手術器具に予め設定された設定距離だけ離れた位置に前記撮像部の焦点が合うように前記撮像部を制御する制御ステップと、を実行する画像処理方法である。 An image processing method according to another aspect of the present invention includes an acquisition step in which one or more processors acquire a captured image from an imaging unit that images a surgical target; a detection step of detecting an identification medium provided at a predetermined position of the instrument; and a detection step of detecting an identification medium provided at a predetermined position of the instrument; The image processing method includes a control step of controlling the imaging unit so that the imaging unit is focused on a position separated by a set distance.

本発明によれば、手術対象に対して複数の手術器具を用いて手術を行う場合に当該手術対象を適切にフォーカスすることが可能な画像処理システム及び画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing system and an image processing method that can appropriately focus on a surgical target when performing surgery on the surgical target using a plurality of surgical instruments.

図1は、本発明の実施形態に係る画像処理システムの構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing the configuration of an image processing system according to an embodiment of the present invention. 図2Aは、本発明の実施形態に係る手術器具の一例を示す図である。FIG. 2A is a diagram illustrating an example of a surgical instrument according to an embodiment of the present invention. 図2Bは、本発明の実施形態に係る手術器具の一例を示す図である。FIG. 2B is a diagram illustrating an example of a surgical instrument according to an embodiment of the present invention. 図2Cは、本発明の実施形態に係る手術器具の一例を示す図である。FIG. 2C is a diagram illustrating an example of a surgical instrument according to an embodiment of the present invention. 図3は、本発明の実施形態1に係る器具情報の一例を示す図である。FIG. 3 is a diagram showing an example of appliance information according to Embodiment 1 of the present invention. 図4は、本発明の実施形態に係るディスプレイの画面の一例を示す図である。FIG. 4 is a diagram showing an example of a display screen according to an embodiment of the present invention. 図5は、本発明の実施形態に係るディスプレイの画面の一例を示す図である。FIG. 5 is a diagram showing an example of a display screen according to an embodiment of the present invention. 図6は、本発明の実施形態に係るディスプレイの画面の一例を示す図である。FIG. 6 is a diagram showing an example of a display screen according to an embodiment of the present invention. 図7は、本発明の実施形態に係るディスプレイの画面の一例を示す図である。FIG. 7 is a diagram showing an example of a display screen according to an embodiment of the present invention. 図8は、本発明の実施形態1に係る画像処理システムにおいて実行される画像制御処理の手順の一例を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining an example of the procedure of image control processing executed in the image processing system according to the first embodiment of the present invention. 図9は、本発明の実施形態2に係る手術器具の一例を示す図である。FIG. 9 is a diagram showing an example of a surgical instrument according to Embodiment 2 of the present invention. 図10は、本発明の実施形態2に係る器具情報の一例を示す図である。FIG. 10 is a diagram showing an example of appliance information according to Embodiment 2 of the present invention. 図11は、本発明の実施形態2に係る画像処理システムにおいて実行される画像制御処理の手順の一例を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an example of the procedure of image control processing executed in the image processing system according to Embodiment 2 of the present invention.

以下添付図面を参照しながら、本発明の実施形態について説明し、本発明の理解に供する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。 Embodiments of the present invention will be described below with reference to the accompanying drawings to provide an understanding of the present invention. Note that the following embodiments are examples of embodying the present invention, and do not limit the technical scope of the present invention.

[実施形態1]
[画像処理システム10]
図1に示されるように、本発明の実施形態1に係る画像処理システム10は、画像処理装置1と撮像部2とディスプレイ3と複数の手術器具とを含む。画像処理装置1、撮像部2、及びディスプレイ3は、LAN、インターネット、WAN、又は公衆電話回線などの通信網N1を介して通信可能である。
[Embodiment 1]
[Image processing system 10]
As shown in FIG. 1, an image processing system 10 according to Embodiment 1 of the present invention includes an image processing device 1, an imaging section 2, a display 3, and a plurality of surgical instruments. The image processing device 1, the imaging unit 2, and the display 3 can communicate via a communication network N1 such as a LAN, the Internet, a WAN, or a public telephone line.

画像処理システム10は、病院など手術施設に導入される。画像処理装置1は病院内又は病院外に設置され、撮像部2及びディスプレイ3は病院内の手術室に設置される。また、手術室には、医師などの術者が使用する複数の手術器具が配置される。図1では、3個の手術器具A,B,Cを例示している。例えば、手術室において、撮像部2は手術対象(患者の手術部位など)を撮像し、ディスプレイ3は撮像部2の撮像画像を表示する。 The image processing system 10 is introduced into a surgical facility such as a hospital. The image processing device 1 is installed inside or outside the hospital, and the imaging unit 2 and display 3 are installed in an operating room within the hospital. In addition, a plurality of surgical instruments used by surgeons such as doctors are arranged in the operating room. In FIG. 1, three surgical instruments A, B, and C are illustrated. For example, in an operating room, the imaging unit 2 images a surgical target (such as a patient's surgical site), and the display 3 displays the captured image of the imaging unit 2.

撮像部2は、オートフォーカス機能を備えるデジタルカメラである。撮像部2は、周知のカメラで構成されてもよい。撮像部2は1台であってもよいし、複数台であってもよい。 The imaging unit 2 is a digital camera equipped with an autofocus function. The imaging unit 2 may be configured with a well-known camera. There may be one imaging unit 2, or there may be multiple imaging units.

術者は、必要に応じて、ディスプレイ3に映し出された撮影画像を見ながら、手術器具を使用して手術を行う。画像処理装置1は、撮像部2及びディスプレイ3の動作を制御する。例えば、画像処理装置1は、撮像部2の焦点を手術対象に合わせる処理(フォーカス処理)を実行する。画像処理装置1は、前記フォーカス処理を実行することにより、術者による手術を支援する。 The surgeon performs the surgery using surgical instruments while viewing the photographed image displayed on the display 3, as necessary. The image processing device 1 controls the operations of the imaging section 2 and the display 3. For example, the image processing device 1 executes processing to focus the imaging unit 2 on the surgical target (focus processing). The image processing device 1 supports the surgeon's surgery by performing the focus processing.

本実施形態では、画像処理装置1単体が本発明に係る画像処理システムに相当するが、本発明に係る画像処理システムは、画像処理装置1、撮像部2、及びディスプレイ3を含んで構成されてもよい。 In this embodiment, the image processing device 1 alone corresponds to the image processing system according to the present invention, but the image processing system according to the present invention is configured to include the image processing device 1, the imaging section 2, and the display 3. Good too.

本実施形態に係る手術器具には、当該手術器具を識別可能な識別媒体が設けられている。図2Aには、レーザーメスの手術器具Aを示し、図2Bには、ピンセットの手術器具Bを示し、図2Cには、鉗子の手術器具Cを示している。手術器具Aの先端側にはマーカーM1が設けられており、手術器具Bの先端側にはマーカーM2が設けられており、手術器具Cの先端側にはマーカーM3が設けられている。マーカーM1には、手術器具Aの識別情報(器具名、器具IDなど)が対応付けられており、マーカーM2には、手術器具Bの識別情報(器具名、器具IDなど)が対応付けられており、マーカーM3には、手術器具Cの識別情報(器具名、器具IDなど)が対応付けられている。マーカーM1,M2,M3は、互いに異なる色(赤色、青色、緑色など)のシールで構成されてもよい。前記識別媒体は、マーカーに限定されず、一次元コード又は二次元コードであってもよい。 The surgical instrument according to this embodiment is provided with an identification medium that can identify the surgical instrument. FIG. 2A shows a surgical instrument A that is a laser scalpel, FIG. 2B shows a surgical instrument B that is a tweezers, and FIG. 2C shows a surgical instrument C that is a forceps. A marker M1 is provided at the distal end of the surgical instrument A, a marker M2 is provided at the distal end of the surgical instrument B, and a marker M3 is provided at the distal end of the surgical instrument C. Marker M1 is associated with identification information of surgical instrument A (instrument name, instrument ID, etc.), and marker M2 is associated with identification information of surgical instrument B (instrument name, instrument ID, etc.). The marker M3 is associated with identification information of the surgical instrument C (instrument name, instrument ID, etc.). The markers M1, M2, M3 may be composed of stickers of different colors (red, blue, green, etc.). The identification medium is not limited to a marker, but may be a one-dimensional code or a two-dimensional code.

[画像処理装置1]
図1に示されるように、画像処理装置1は、制御部11、記憶部12、操作表示部13、及び通信部14などを備えるサーバーである。なお、画像処理装置1は、1台のコンピュータに限らず、複数台のコンピュータが協働して動作するコンピュータシステムであってもよい。また、画像処理装置1で実行される各種の処理は、一又は複数のプロセッサーによって分散して実行されてもよい。
[Image processing device 1]
As shown in FIG. 1, the image processing device 1 is a server that includes a control section 11, a storage section 12, an operation display section 13, a communication section 14, and the like. Note that the image processing apparatus 1 is not limited to one computer, but may be a computer system in which a plurality of computers work together. Furthermore, various types of processing executed by the image processing device 1 may be executed in a distributed manner by one or more processors.

通信部14は、画像処理装置1を有線又は無線で通信網N1に接続し、通信網N1を介して撮像部2、ディスプレイ3などの外部機器との間で所定の通信プロトコルに従ったデータ通信を実行するための通信インターフェースである。 The communication unit 14 connects the image processing device 1 to the communication network N1 by wire or wirelessly, and performs data communication with external devices such as the imaging unit 2 and the display 3 via the communication network N1 according to a predetermined communication protocol. It is a communication interface for executing.

操作表示部13は、各種の情報を表示する液晶ディスプレイ又は有機ELディスプレイのような表示部と、操作を受け付けるマウス、キーボード、又はタッチパネルのような操作部とを備えるユーザーインターフェースである。 The operation display unit 13 is a user interface that includes a display unit such as a liquid crystal display or an organic EL display that displays various information, and an operation unit such as a mouse, keyboard, or touch panel that receives operations.

記憶部12は、各種の情報を記憶するHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶部である。具体的に、記憶部12には、器具情報D1などのデータが記憶される。図3は器具情報D1の一例を示す図である。 The storage unit 12 is a nonvolatile storage unit such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that stores various information. Specifically, the storage unit 12 stores data such as appliance information D1. FIG. 3 is a diagram showing an example of the appliance information D1.

図3に示されるように、器具情報D1には、手術器具ごとに、対応する「器具名」、「マーカー」、「色」、「優先順位」などの情報が含まれる。前記器具名は、手術器具の名称(識別情報)である。前記マーカーは、手術器具に設けられるマーカーの種別(マーカー名、マーカID)である。前記色は、前記マーカーを識別する識別情報の一例である。前記優先順位は、手術器具の優先度を示す情報である。例えば、前記優先順位は、撮像部2の撮影画像に複数の手術器具が含まれる場合に、いずれの手術器具を優先してフォーカスするかを決定する際に利用される。図3では、一例として、手術器具Aが優先順位「第1位」に設定され、手術器具Bが優先順位「第2位」に設定され、手術器具Cが優先順位「第3位」に設定されている。例えば、術者は、手術の内容(工程)及び手術器具の種別に応じて、前記優先順位を予め登録する。例えば、術者は、手術を行う前に、画像処理装置1の操作表示部13において器具情報D1を予め登録する。 As shown in FIG. 3, the instrument information D1 includes information such as the corresponding "instrument name," "marker," "color," and "priority order" for each surgical instrument. The instrument name is the name (identification information) of the surgical instrument. The marker is the type of marker (marker name, marker ID) provided on the surgical instrument. The color is an example of identification information for identifying the marker. The priority order is information indicating the priority of surgical instruments. For example, the priority order is used when determining which surgical instrument should be prioritized and focused when a plurality of surgical instruments are included in the captured image of the imaging unit 2. In FIG. 3, as an example, surgical instrument A is set as the "first" priority, surgical instrument B is set as the "second" priority, and surgical instrument C is set as the "third" priority. has been done. For example, the surgeon registers the priority order in advance according to the content (step) of the surgery and the type of surgical instrument. For example, the surgeon registers the instrument information D1 in advance on the operation display section 13 of the image processing device 1 before performing the surgery.

なお、他の実施形態として、器具情報D1の一部又は全部が、画像処理装置1から通信網N1を介してアクセス可能な他のサーバーに記憶されてもよい。この場合、画像処理装置1の制御部11は、前記他のサーバーから前記情報を取得して、後述の画像制御処理(図8参照)などの各処理を実行してもよい。 In addition, as another embodiment, part or all of the appliance information D1 may be stored in another server that is accessible from the image processing device 1 via the communication network N1. In this case, the control unit 11 of the image processing device 1 may acquire the information from the other server and execute various processes such as image control processing (see FIG. 8), which will be described later.

さらに、記憶部12には、制御部11に後述の画像制御処理(図8参照)を実行させるための画像処理プログラムなどの制御プログラムが記憶されている。例えば、前記画像制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録されており、画像処理装置1が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶される。 Further, the storage unit 12 stores a control program such as an image processing program for causing the control unit 11 to execute image control processing (see FIG. 8), which will be described later. For example, the image control program is recorded non-temporarily on a computer-readable recording medium such as a CD or DVD, and is read by a reading device (not shown) such as a CD drive or a DVD drive included in the image processing device 1. and stored in the storage unit 12.

制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶される不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより画像処理装置1を制御する。 The control unit 11 includes control devices such as a CPU, ROM, and RAM. The CPU is a processor that executes various types of arithmetic processing. The ROM is a non-volatile storage unit that stores in advance control programs such as a BIOS and an OS for causing the CPU to execute various arithmetic processes. The RAM is a volatile or nonvolatile storage unit that stores various information, and is used as a temporary storage memory (work area) for various processes executed by the CPU. The control unit 11 controls the image processing apparatus 1 by executing various control programs stored in the ROM or the storage unit 12 in advance on the CPU.

具体的に、制御部11は、図1に示されるように、取得処理部111、検出処理部112、特定処理部113、焦点制御処理部114などの各種の処理部を含む。なお、制御部11は、前記CPUで前記画像制御プログラムに従った各種の処理を実行することによって前記各種の処理部として機能する。また、一部又は全部の前記処理部が電子回路で構成されていてもよい。なお、前記画像制御プログラムは、複数のプロセッサーを前記処理部として機能させるためのプログラムであってもよい。 Specifically, the control unit 11 includes various processing units such as an acquisition processing unit 111, a detection processing unit 112, a specific processing unit 113, and a focus control processing unit 114, as shown in FIG. The control unit 11 functions as the various processing units by causing the CPU to execute various processes according to the image control program. Further, a part or all of the processing section may be constituted by an electronic circuit. Note that the image control program may be a program for causing a plurality of processors to function as the processing units.

取得処理部111は、手術対象を撮像する撮像部2から撮像画像を取得する。例えば、手術が開始されると、制御部11は、撮像部2に対して撮像開始指示を出力する。撮像部2は、前記撮像開始指示を取得すると、所定の撮影範囲(術野)の撮像を開始する。撮像部2は、所定のフレームレートで撮影範囲を撮像して、撮像画像の画像データを制御部11に送信する。取得処理部111は、撮像部2から前記撮像画像を順次取得する。 The acquisition processing unit 111 acquires a captured image from the imaging unit 2 that images the surgical target. For example, when a surgery is started, the control unit 11 outputs an imaging start instruction to the imaging unit 2. Upon acquiring the imaging start instruction, the imaging unit 2 starts imaging a predetermined imaging range (operative field). The imaging unit 2 images a shooting range at a predetermined frame rate and transmits image data of the captured image to the control unit 11. The acquisition processing unit 111 sequentially acquires the captured images from the imaging unit 2.

取得処理部111が前記撮像画像を取得すると、制御部11は、当該撮像画像をディスプレイ3に表示させる。これにより、術者は、ディスプレイ3に表示された手術対象(例えば患者の手術部位)を見ながら手術を行うことが可能になる。 When the acquisition processing unit 111 acquires the captured image, the control unit 11 causes the display 3 to display the captured image. This allows the surgeon to perform the surgery while viewing the surgical target (for example, the patient's surgical site) displayed on the display 3.

検出処理部112は、取得処理部111により取得される前記撮像画像において、複数の手術器具のそれぞれに設けられたマーカーを検出する。また、検出処理部112は、前記撮像画像においてマーカーを認識し、認識したマーカーに基づいて手術器具を検出する。図4には、ディスプレイ3に表示される画面(撮像画像)の一例を示している。例えば図4に示す例では、検出処理部112は、マーカーM1の赤色を認識してマーカーM1に関連付けられた器具名(図3参照)に基づいて手術器具Aを検出し、マーカーM2の青色を認識してマーカーM2に関連付けられた器具名(図3参照)に基づいて手術器具Bを検出し、マーカーM3の緑色を認識してマーカーM3に関連付けられた器具名(図3参照)に基づいて手術器具Cを検出する。このように、検出処理部112は、撮像画像に少なくとも一つのマーカーが含まれる場合に当該マーカーを検出し、検出したマーカーに対応する手術器具を検出することが可能である。 The detection processing unit 112 detects markers provided on each of the plurality of surgical instruments in the captured image acquired by the acquisition processing unit 111. Furthermore, the detection processing unit 112 recognizes a marker in the captured image, and detects a surgical instrument based on the recognized marker. FIG. 4 shows an example of a screen (captured image) displayed on the display 3. For example, in the example shown in FIG. 4, the detection processing unit 112 recognizes the red color of the marker M1, detects the surgical instrument A based on the instrument name associated with the marker M1 (see FIG. 3), and detects the blue color of the marker M2. The surgical instrument B is detected based on the instrument name recognized and associated with the marker M2 (see FIG. 3), and the surgical instrument B is detected based on the instrument name recognized and associated with the marker M3 (see FIG. 3) by recognizing the green color of the marker M3. Detect surgical instrument C. In this manner, the detection processing unit 112 is able to detect at least one marker in the captured image and detect the surgical instrument corresponding to the detected marker.

特定処理部113は、検出処理部112により検出される複数のマーカーのそれぞれに対応する優先順位に基づいて、フォーカス対象の手術器具(本発明の第1手術器具の一例)を特定する。図4に示す例では、検出処理部112が手術器具A,B,Cを検出するため、特定処理部113は、器具情報D1(図3参照)を参照して、手術器具A,B,Cのうち優先順位が最も高い手術器具(ここでは優先順位「第1位」の「手術器具A」)を特定する。 The identification processing unit 113 identifies the surgical instrument to be focused (an example of the first surgical instrument of the present invention) based on the priority order corresponding to each of the plurality of markers detected by the detection processing unit 112. In the example shown in FIG. 4, since the detection processing unit 112 detects the surgical instruments A, B, and C, the identification processing unit 113 refers to the instrument information D1 (see FIG. 3) and detects the surgical instruments A, B, and C. Among them, the surgical instrument with the highest priority (here, "surgical instrument A" with the "first" priority) is specified.

また例えば図5に示す例では、検出処理部112が手術器具B,Cを検出するため、特定処理部113は、器具情報D1(図3参照)を参照して、手術器具B,Cのうち優先順位が最も高い手術器具(ここでは優先順位「第2位」の「手術器具B」)を特定する。 For example, in the example shown in FIG. 5, since the detection processing unit 112 detects surgical instruments B and C, the identification processing unit 113 refers to the instrument information D1 (see FIG. 3) and selects one of the surgical instruments B and C. The surgical instrument with the highest priority (here, "surgical instrument B" with the "second" priority) is identified.

焦点制御処理部114は、特定処理部113により特定された手術器具に対応する位置に撮像部2の焦点が合うように撮像部2を制御する。例えば、特定処理部113が手術器具Aを特定した場合、図6に示すように、焦点制御処理部114は、手術器具AのマーカーM1の位置に、撮像部2の焦点を合わせる。また例えば、特定処理部113が手術器具Bを特定した場合、図7に示すように、焦点制御処理部114は、手術器具BのマーカーM2の位置に、撮像部2の焦点を合わせる。 The focus control processing unit 114 controls the imaging unit 2 so that the imaging unit 2 focuses on the position corresponding to the surgical instrument specified by the identification processing unit 113. For example, when the identification processing unit 113 identifies the surgical instrument A, the focus control processing unit 114 focuses the imaging unit 2 on the position of the marker M1 of the surgical instrument A, as shown in FIG. For example, when the identification processing unit 113 identifies the surgical instrument B, the focus control processing unit 114 focuses the imaging unit 2 on the position of the marker M2 of the surgical instrument B, as shown in FIG.

このように、焦点制御処理部114は、検出処理部112により検出される複数の手術器具のそれぞれに対応する優先順位に基づいて特定される手術器具に対応する位置に撮像部2の焦点が合うように撮像部2を制御する。 In this way, the focus control processing section 114 causes the imaging section 2 to focus on the position corresponding to the surgical instrument specified based on the priority order corresponding to each of the plurality of surgical instruments detected by the detection processing section 112. The imaging unit 2 is controlled as follows.

[実施形態1の画像制御処理]
以下、図8を参照しつつ、実施形態1に係る画像処理システム10において実行される画像制御処理について説明する。具体的に、本実施形態では、画像処理装置1の制御部11によって前記画像制御処理が実行される。
[Image control processing of Embodiment 1]
Image control processing executed in the image processing system 10 according to the first embodiment will be described below with reference to FIG. 8. Specifically, in this embodiment, the image control process is executed by the control unit 11 of the image processing device 1.

なお、本発明は、前記画像制御処理に含まれる一又は複数のステップを実行する画像処理方法の発明として捉えることができる。また、ここで説明する前記画像制御処理に含まれる一又は複数のステップは適宜省略されてもよい。なお、前記画像制御処理における各ステップは同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部11が前記画像制御処理における各ステップを実行する場合を例に挙げて説明するが、一又は複数のプロセッサーが当該画像制御処理における各ステップを分散して実行する画像処理方法も他の実施形態として考えられる。 Note that the present invention can be regarded as an invention of an image processing method that executes one or more steps included in the image control processing. Furthermore, one or more steps included in the image control processing described here may be omitted as appropriate. Note that the steps in the image control processing may be executed in a different order as long as similar effects are produced. Furthermore, although the case where the control unit 11 executes each step in the image control processing will be described as an example, an image processing method in which one or more processors execute each step in the image control processing in a distributed manner Other embodiments are also possible.

先ず、ステップS1において、制御部11は、撮像部2から撮像画像を取得したか否かを判定する。制御部11は、撮像部2から撮像画像を取得すると(S1:Yes)、処理をステップS2に移行させる。また、制御部11は、前記撮像画像を取得すると、前記撮像画像をディスプレイ3に表示させる。制御部11は、撮像部2から撮像画像を取得するまで待機する(S1:No)。 First, in step S1, the control unit 11 determines whether a captured image has been acquired from the imaging unit 2. When the control unit 11 acquires the captured image from the imaging unit 2 (S1: Yes), the control unit 11 shifts the process to step S2. Furthermore, upon acquiring the captured image, the control unit 11 causes the display 3 to display the captured image. The control unit 11 waits until a captured image is acquired from the imaging unit 2 (S1: No).

次にステップS2において、制御部11は、前記撮像画像においてマーカーを検出したか否かを判定する。制御部11は、前記撮像画像においてマーカーを検出すると(S2:Yes)、処理をステップS3に移行させる。制御部11は、前記撮像画像においてマーカーを検出しない場合、処理をステップS1に移行させる(S2:No)。図4及び図5に示すように、撮像画像にマーカーが含まれる場合、制御部11は、当該マーカーを検出する。制御部11は、例えばマーカーの色を認識する。 Next, in step S2, the control unit 11 determines whether a marker is detected in the captured image. When the control unit 11 detects a marker in the captured image (S2: Yes), the control unit 11 moves the process to step S3. When the control unit 11 does not detect a marker in the captured image, the control unit 11 moves the process to step S1 (S2: No). As shown in FIGS. 4 and 5, when a marker is included in the captured image, the control unit 11 detects the marker. The control unit 11 recognizes, for example, the color of the marker.

次にステップS3において、制御部11は、検出したマーカーが複数であるか否かを判定する。制御部11は、検出したマーカーが複数であると判定すると(S3:Yes)、処理をステップS4に移行させる。一方、制御部11は、検出したマーカーが1個であると判定すると(S3:No)、処理をステップS31に移行させる。図4及び図5に示す例では、制御部11は、検出したマーカーが複数であると判定する。 Next, in step S3, the control unit 11 determines whether a plurality of markers have been detected. When the control unit 11 determines that there are a plurality of detected markers (S3: Yes), the control unit 11 moves the process to step S4. On the other hand, if the control unit 11 determines that the number of detected markers is one (S3: No), the control unit 11 shifts the process to step S31. In the example shown in FIGS. 4 and 5, the control unit 11 determines that a plurality of markers are detected.

ステップS4では、制御部11は、検出した複数のマーカーのそれぞれに関連付けられた優先順位を取得する。具体的には、制御部11は、検出したマーカーの色に基づいてマーカーを特定し、器具情報D1(図3参照)を参照して、特定したマーカーに関連付けられた優先順位を取得する。図4に示す例では、制御部11は、マーカーM1の赤色を認識してマーカーM1に関連付けられた優先順位「1」を取得し、マーカーM2の青色を認識してマーカーM2に関連付けられた優先順位「2」を取得し、マーカーM3の緑色を認識してマーカーM3に関連付けられた優先順位「3」を取得する。 In step S4, the control unit 11 acquires the priority order associated with each of the plurality of detected markers. Specifically, the control unit 11 specifies the marker based on the color of the detected marker, and refers to the appliance information D1 (see FIG. 3) to obtain the priority order associated with the specified marker. In the example shown in FIG. 4, the control unit 11 recognizes the red color of the marker M1 and acquires the priority "1" associated with the marker M1, and recognizes the blue color of the marker M2 and acquires the priority "1" associated with the marker M2. The priority level "2" is acquired, and the green color of the marker M3 is recognized to acquire the priority level "3" associated with the marker M3.

また図5に示す例では、制御部11は、マーカーM2の青色を認識してマーカーM2に関連付けられた優先順位「2」を取得し、マーカーM3の緑色を認識してマーカーM3に関連付けられた優先順位「3」を取得する。 Further, in the example shown in FIG. 5, the control unit 11 recognizes the blue color of the marker M2 and obtains the priority "2" associated with the marker M2, and recognizes the green color of the marker M3 and obtains the priority "2" associated with the marker M3. Get priority "3".

次にステップS5において、制御部11は、優先順位が最も高い手術器具に対応する位置に撮像部2の焦点が合うように撮像部2を制御する。例えば図4に示す例では、制御部11は、優先順位が第1位の手術器具AのマーカーM1の位置に撮像部2の焦点を合わせる(図6参照)。また例えば図5に示す例では、制御部11は、優先順位が第2位の手術器具BのマーカーM2の位置に撮像部2の焦点を合わせる(図7参照)。ステップS5の後、制御部11は、処理をステップS6に移行させる。 Next, in step S5, the control section 11 controls the imaging section 2 so that the imaging section 2 is focused on the position corresponding to the surgical instrument having the highest priority. For example, in the example shown in FIG. 4, the control unit 11 focuses the imaging unit 2 on the position of the marker M1 of the surgical instrument A having the first priority (see FIG. 6). For example, in the example shown in FIG. 5, the control unit 11 focuses the imaging unit 2 on the position of the marker M2 of the surgical instrument B having the second priority (see FIG. 7). After step S5, the control unit 11 moves the process to step S6.

これに対してステップS31では、制御部11は、検出した1個のマーカーに対応する手術器具に対応する位置に撮像部2の焦点が合うように撮像部2を制御する。ステップS31の後、制御部11は、処理をステップS6に移行させる。 On the other hand, in step S31, the control unit 11 controls the imaging unit 2 so that the imaging unit 2 is focused on the position corresponding to the surgical instrument corresponding to the one detected marker. After step S31, the control unit 11 moves the process to step S6.

ステップS6では、制御部11は、手術が終了したか否かを判定する。制御部11は、手術が終了した場合(S6:Yes)、前記画像制御処理を終了する。一方、制御部11は、手術が終了していない場合(S6:No)、処理をステップS1に戻し、上述の処理を繰り返す。このように、制御部11は、手術中、撮像画像において手術器具を検出しながら撮像部2の焦点を所定の位置に合わせるフォーカス処理を実行する。 In step S6, the control unit 11 determines whether the surgery has ended. When the surgery is completed (S6: Yes), the control unit 11 ends the image control process. On the other hand, if the surgery has not been completed (S6: No), the control unit 11 returns the process to step S1 and repeats the above-described process. In this manner, the control unit 11 performs a focus process to focus the imaging unit 2 at a predetermined position while detecting the surgical instrument in the captured image during the surgery.

以上説明したように、本実施形態に係る画像処理装置1は、手術対象を撮像する撮像部2から撮像画像を取得し、取得した前記撮像画像において、複数の手術器具のそれぞれに設けられた識別媒体(マーカー)に基づいて複数の手術器具を検出する。また、画像処理装置1は、検出した前記複数の手術器具のそれぞれに対応する優先順位に基づいて特定される第1手術器具に対応する位置に撮像部2の焦点が合うように撮像部2を制御する。 As described above, the image processing device 1 according to the present embodiment acquires a captured image from the imaging unit 2 that images a surgical target, and in the acquired captured image, identifies the identification provided on each of a plurality of surgical instruments. Detect multiple surgical instruments based on media (markers). The image processing device 1 also controls the imaging unit 2 so that the imaging unit 2 is focused on a position corresponding to the first surgical instrument specified based on the priority order corresponding to each of the plurality of detected surgical instruments. Control.

これにより、手術対象に対して複数の手術器具を用いて手術を行う場合に当該手術対象を適切にフォーカスすることが可能となる。また、複数の手術器具のそれぞれに対して、例えば、手術の工程に合わせて優先順位を設定することにより、手術の工程に従って撮像部2の焦点を制御することができる。 Thereby, when performing surgery on a surgical target using a plurality of surgical instruments, it becomes possible to appropriately focus on the surgical target. Furthermore, by setting priorities for each of the plurality of surgical instruments according to the surgical process, for example, the focus of the imaging unit 2 can be controlled according to the surgical process.

[実施形態2]
本発明の実施形態2に係る画像処理システム10について説明する。以下では、実施形態1に係る画像処理システム10と同一の構成については説明を省略する。
[Embodiment 2]
An image processing system 10 according to a second embodiment of the present invention will be described. Below, description of the same configuration as the image processing system 10 according to the first embodiment will be omitted.

ここで、例えば、撮像部2の焦点を手術器具のマーカーの位置に合わせた場合、焦点が手術対象(手術部位)の位置から僅かにずれる場合がある。例えば、図9に示すように、撮像部2の焦点を手術器具AのマーカーM1の位置に合わせた場合、焦点が手術対象の位置X1から距離L1だけずれてしまう。 Here, for example, when the focus of the imaging unit 2 is adjusted to the position of a marker of a surgical instrument, the focus may be slightly shifted from the position of the surgical target (surgical site). For example, as shown in FIG. 9, when the focus of the imaging unit 2 is adjusted to the position of the marker M1 of the surgical instrument A, the focus shifts by a distance L1 from the position X1 of the surgical object.

そこで、実施形態2に係る画像処理システム10は、撮像部2の焦点を手術対象の位置X1に合わせる構成を備える。 Therefore, the image processing system 10 according to the second embodiment is configured to focus the imaging unit 2 on the position X1 of the surgical target.

具体的には、実施形態2に係る画像処理システム10では、検出処理部112は、取得処理部111により取得される前記撮像画像において、手術器具の所定位置に設けられた識別媒体(マーカー)を検出する。また、焦点制御処理部114は、検出処理部112により検出される前記識別媒体に基づいて特定される手術器具の前記所定位置から、当該手術器具に予め設定された設定距離だけ離れた位置に撮像部2の焦点が合うように撮像部2を制御する。 Specifically, in the image processing system 10 according to the second embodiment, the detection processing unit 112 detects an identification medium (marker) provided at a predetermined position of the surgical instrument in the captured image acquired by the acquisition processing unit 111. To detect. Further, the focus control processing unit 114 captures an image at a position that is a predetermined distance away from the predetermined position of the surgical instrument specified based on the identification medium detected by the detection processing unit 112. The imaging section 2 is controlled so that the imaging section 2 is in focus.

具体的には、記憶部12には、図10に示す器具情報D2のデータが記憶される。図10は器具情報D2の一例を示す図である。 Specifically, the storage unit 12 stores data of appliance information D2 shown in FIG. FIG. 10 is a diagram showing an example of the appliance information D2.

図10に示されるように、器具情報D2には、手術器具ごとに、対応する「器具名」、「マーカー」、「色」、「設定距離」などの情報が含まれる。前記器具名、前記マーカー、前記色は、図3に示す器具情報D1と同一である。前記設定距離は、手術器具に設けられたマーカーの位置から手術器具の先端までの距離である。手術器具の先端は、手術対象の位置に対応する。例えば、手術器具Aに対して設定距離L1(図9参照)が設定され、手術器具Bに対して設定距離L2が設定され、手術器具Cに対して設定距離L3が設定される。前記設定距離は、手術器具の先端よりさらに先の位置までの距離であってもよい。また、前記設定距離は、手術器具ごとに異なる値が設定されてもよいし、同一の値が設定されてもよい。 As shown in FIG. 10, the instrument information D2 includes information such as the corresponding "instrument name," "marker," "color," and "setting distance" for each surgical instrument. The instrument name, the marker, and the color are the same as the instrument information D1 shown in FIG. 3. The set distance is the distance from the position of the marker provided on the surgical instrument to the tip of the surgical instrument. The tip of the surgical instrument corresponds to the location of the surgical target. For example, a set distance L1 (see FIG. 9) is set for surgical instrument A, a set distance L2 is set for surgical instrument B, and a set distance L3 is set for surgical instrument C. The set distance may be a distance to a position further beyond the tip of the surgical instrument. Further, the set distance may be set to a different value for each surgical instrument, or may be set to the same value.

焦点制御処理部114は、器具情報D2を参照して、検出処理部112が検出したマーカーに関連付けられた設定距離を取得し、手術器具のマーカーの位置から前記設定距離だけ離れた位置に撮像部2の焦点を合わせる。 The focus control processing unit 114 refers to the instrument information D2, obtains a set distance associated with the marker detected by the detection processing unit 112, and moves the imaging unit to a position that is the set distance away from the position of the marker of the surgical instrument. Focus on 2.

[実施形態2の画像制御処理]
以下、図11を参照しつつ、実施形態2に係る画像処理システム10において実行される画像制御処理について説明する。以下では、実施形態1に係る前記画像制御処理(図8参照)と同一の処理については説明を省略する。
[Image control processing of Embodiment 2]
Image control processing executed in the image processing system 10 according to the second embodiment will be described below with reference to FIG. 11. Below, description of the same processing as the image control processing (see FIG. 8) according to the first embodiment will be omitted.

制御部11は、撮像画像においてマーカーを検出すると(S22:Yes)、ステップS23において、検出したマーカーの色に基づいてマーカーを特定し、器具情報D2(図10参照)を参照して、特定したマーカーに関連付けられた設定距離を取得する。 When the control unit 11 detects the marker in the captured image (S22: Yes), in step S23, the control unit 11 identifies the marker based on the color of the detected marker, and refers to the instrument information D2 (see FIG. 10) to identify the marker. Gets the set distance associated with a marker.

次にステップS24において、制御部11は、撮像部2の焦点位置を算出する。例えば、制御部11は、撮像部2からマーカーまでの距離を、レンズの焦点距離、測距センサなどを用いて算出する。そして、制御部11は、算出した撮像部2からマーカーまでの距離に、ステップS23で取得した前記設定距離を加算し、算出された値を焦点位置とする。 Next, in step S24, the control unit 11 calculates the focal position of the imaging unit 2. For example, the control unit 11 calculates the distance from the imaging unit 2 to the marker using a focal length of a lens, a distance measuring sensor, and the like. Then, the control unit 11 adds the set distance acquired in step S23 to the calculated distance from the imaging unit 2 to the marker, and sets the calculated value as the focal position.

次にステップS25において、制御部11は、算出した焦点位置に撮像部2の焦点を合わせる。 Next, in step S25, the control unit 11 focuses the imaging unit 2 on the calculated focal position.

このように、実施形態2に係る画像処理装置1は、手術対象を撮像する撮像部2から撮像画像を取得し、取得した前記撮像画像において、手術器具の所定位置に設けられた識別媒体(マーカー)を検出する。また、画像処理装置1(焦点制御処理部114)は、検出した前記識別媒体に基づいて特定される第1手術器具の前記所定位置から、前記第1手術器具に予め設定された設定距離だけ離れた位置に撮像部2の焦点が合うように撮像部2を制御する。これにより、撮像部2の焦点を手術器具の先端に合わせることができるため、手術対象の位置X1(図9参照)をフォーカスすることができる。 In this way, the image processing device 1 according to the second embodiment acquires a captured image from the imaging unit 2 that images the surgical target, and uses an identification medium (marker) provided at a predetermined position of a surgical instrument in the acquired captured image. ) is detected. Further, the image processing device 1 (focus control processing unit 114) moves the first surgical instrument a preset distance away from the predetermined position of the first surgical instrument specified based on the detected identification medium. The imaging unit 2 is controlled so that the imaging unit 2 is focused at the position. Thereby, the focus of the imaging unit 2 can be adjusted to the tip of the surgical instrument, so that the position X1 (see FIG. 9) of the surgical target can be focused.

[他の実施形態]
本発明は上述の実施形態1,2に限定されない。以下、本発明の他の実施形態について説明する。
[Other embodiments]
The present invention is not limited to the first and second embodiments described above. Other embodiments of the present invention will be described below.

例えば、手術器具BのマーカーM2に応じた位置に焦点が合っている場合において、術者が手術器具Bを大きく手前(撮像部2側)に引くと、焦点位置が手前に大きく移動してしまう。例えば、術者が、ピンセット(手術器具B)で糸を手前に引く動作を行うと上記の問題が生じる。このような場合は、撮像部2の焦点位置を手前に移動させないために、制御部11は、フォーカス処理を実行しない構成としてもよい。具体的には、制御部11は、検出したマーカーに対するレンズの焦点距離が所定範囲から外れる場合に、当該マーカーを撮像部2の焦点を合わせる制御対象から除外する。前記所定範囲は、撮像部2から所定距離だけ離れた位置より遠い範囲に設定される。これにより、手術器具を手前に引いたときに焦点位置が大きく変動することを防ぐことができる。 For example, when surgical instrument B is in focus at a position corresponding to marker M2, if the surgeon pulls surgical instrument B largely toward the user (toward the imaging unit 2 side), the focal point will move significantly toward the user. . For example, the above problem occurs when the surgeon pulls the thread forward with tweezers (surgical instrument B). In such a case, the control unit 11 may be configured not to perform focus processing in order to prevent the focal position of the imaging unit 2 from moving toward the front. Specifically, when the focal length of the lens with respect to the detected marker is out of a predetermined range, the control unit 11 excludes the marker from the control target for focusing the imaging unit 2 . The predetermined range is set to a range that is farther than a position that is a predetermined distance away from the imaging unit 2. This can prevent the focal position from changing significantly when the surgical instrument is pulled toward the user.

また、例えば、検出処理部112は、マーカーの汚れ、向き、レンズまでの距離などの影響により、マーカーの存在を認識することはできるものの、マーカーの種別を判別することができない場合がある。この場合、撮像部2の焦点を適切に合わせることが困難になる。そこで、他の実施形態として、撮像部2の焦点を合わせる距離(焦点距離)を予め設定してもよい。例えば、前記焦点距離として、通常手術を行う際の手術器具の位置(マーカーの位置)よりも遠い距離を設定しておく。制御部11は、マーカーの種別を判別できないと判定した場合に、予め設定した焦点距離の位置に焦点を合わせる。 Further, for example, the detection processing unit 112 may be able to recognize the presence of the marker but may not be able to determine the type of marker due to the influence of dirt on the marker, orientation, distance to the lens, and the like. In this case, it becomes difficult to appropriately focus the imaging section 2. Therefore, as another embodiment, the distance at which the imaging unit 2 is focused (focal length) may be set in advance. For example, the focal length is set to a distance that is longer than the position of the surgical instrument (the position of the marker) when performing a normal surgery. When the control unit 11 determines that the type of marker cannot be determined, the control unit 11 focuses on a position having a preset focal length.

これにより、手術器具が撮像部2のレンズに近すぎる場合などにより、マーカーに焦点を合わせられない場合に、焦点を手術器具の少し先にあると予想される位置に近い位置に合わせることができる。このため、手術対象(手術部位)の位置の近くを確認し易くなる。なお、焦点を合わせる位置については、表示画面内の中央位置でもよいし、予め設定した位置でもよい。 As a result, when it is impossible to focus on the marker because the surgical instrument is too close to the lens of the imaging unit 2, the focus can be adjusted to a position close to the position expected to be a little ahead of the surgical instrument. . Therefore, it becomes easier to confirm the vicinity of the position of the surgical target (surgical site). Note that the focus position may be a central position within the display screen or a preset position.

このように、焦点制御処理部114は、検出処理部112により検出されるマーカーの種別を判別することができない場合に、撮像部2の焦点を、予め設定した焦点距離の位置に合わせてもよい。 In this way, the focus control processing section 114 may adjust the focus of the imaging section 2 to a position having a preset focal length when the type of marker detected by the detection processing section 112 cannot be determined. .

また、例えば、検出処理部112は、マーカー自体を認識することができない場合もある。例えば、撮像画像に手術器具の画像が存在しない場合には、検出処理部112は、マーカーを認識することができない。この場合、制御部11は、撮影範囲全体を把握し易くするため、撮像部2の焦点を撮影範囲全体に合わせる。例えば、焦点制御処理部114は、レンズの絞りをより絞って被写界深度を広げる。これにより、撮像部2の被写界深度が広くなるため、焦点が合う範囲を広げることができる。 Furthermore, for example, the detection processing unit 112 may not be able to recognize the marker itself. For example, if there is no image of a surgical instrument in the captured image, the detection processing unit 112 cannot recognize the marker. In this case, the control unit 11 focuses the imaging unit 2 on the entire imaging range in order to make it easier to understand the entire imaging range. For example, the focus control processing unit 114 further narrows down the aperture of the lens to widen the depth of field. This widens the depth of field of the imaging unit 2, so it is possible to widen the in-focus range.

ただし、露出を同じにしたままレンズの絞りを絞るとシャッタースピードが遅くなる。映像として利用できる範囲でシャッタースピードが遅くなる分には問題ないがそのときの撮影条件によっては映像として利用できない範囲にまでシャッタースピードが落ちる可能性がある。そこで、画面が明るくなるように制御することでシャッタースピードが落ちないようにする。また、撮像部2がNDフィルターを装備している場合には、NDフィルターの値を小さくする。これにより、画質を落とすことなく画面内全体を明るくできるためシャッタースピードを上げる、もしくは落とさずに済むようになる。また、照明システムを制御できる場合には、照明を明るくしてもよい。また、これらの手段を取ってもシャッタースピードを上げられない、もしくはこれらの手段がない場合には、撮像部2の感度を上げてもよい。これにより、露出を変えることなくシャッタースピードを上げることが可能になる。 However, if you close down the lens aperture while keeping the exposure the same, the shutter speed will slow down. There is no problem as long as the shutter speed is slow within the range that can be used as an image, but depending on the shooting conditions at the time, the shutter speed may drop to a range that cannot be used as an image. Therefore, by controlling the screen so that it becomes bright, the shutter speed does not drop. Furthermore, if the imaging unit 2 is equipped with an ND filter, the value of the ND filter is reduced. This makes it possible to brighten the entire screen without reducing image quality, making it possible to increase the shutter speed or avoid decreasing it. The lighting may also be brighter if the lighting system can be controlled. Furthermore, if the shutter speed cannot be increased even with these measures, or if these measures are not available, the sensitivity of the imaging section 2 may be increased. This allows you to increase the shutter speed without changing the exposure.

このように、検出処理部112がマーカーを検出できない場合に、焦点制御処理部114は、撮像部2の被写界深度を広げる(大きくする)。また制御部11は、マーカーを検出できない場合に、撮像部2のレンズの絞りをより絞って、シャッタースピードを確認して、予め設定していた値より落ちているか否かを確認する。制御部11は、シャッタースピードが予め設定していた値よりも落ちている場合にはNDフィルターの値を小さくする、照明システムを制御して術野を明るくする、又は、カメラの感度を上げる。 In this way, when the detection processing section 112 cannot detect a marker, the focus control processing section 114 widens (increases) the depth of field of the imaging section 2. Further, when the marker cannot be detected, the control unit 11 further narrows down the aperture of the lens of the imaging unit 2, checks the shutter speed, and checks whether it is lower than a preset value. When the shutter speed is lower than a preset value, the control unit 11 reduces the value of the ND filter, controls the illumination system to brighten the surgical field, or increases the sensitivity of the camera.

また、例えば、手術の進行中には開腹、開胸から身体深部へと施術部が進んでいく場合が多い。手術器具の位置も、手術の進行に従って撮像部2側から見て手前位置から次第に遠い位置に変化していく。ここで、複数の手術器具が術野内に存在する場合において、このうち一番遠い位置で施術中の手術器具の先端に撮像部2の焦点を合わせたい場合がある。この場合に、撮像部2の焦点を、予め一番遠い距離にあるマーカーに自動的に合わせるようにしておけば、実施形態1に示した優先順位を選択する手間が省ける。 Furthermore, for example, during a surgical procedure, the surgical site often advances from laparotomy and thoracotomy to deep parts of the body. As the surgery progresses, the position of the surgical instrument gradually changes from the front position to the far position when viewed from the imaging unit 2 side. Here, when a plurality of surgical instruments are present in the surgical field, there are cases where it is desired to focus the imaging unit 2 on the tip of the surgical instrument being operated at the farthest position among them. In this case, if the focus of the imaging unit 2 is automatically set in advance to the marker located at the farthest distance, the effort of selecting the priority order shown in the first embodiment can be saved.

また、手術の種類、シチュエーションによっては、一番手前の手術器具に撮像部2の焦点を合わせたい場合もある。この場合には、撮像部2の焦点を、一番近い位置にあるマーカーに自動的に合わせることが有効になる。 Further, depending on the type of surgery and the situation, it may be necessary to focus the imaging unit 2 on the surgical instrument closest to the user. In this case, it is effective to automatically focus the imaging unit 2 on the marker located at the closest position.

そこで、焦点制御処理部114は、検出処理部112により検出される複数のマーカーのそれぞれに対応する複数の手術器具のうち、撮像部2からの距離が最も遠い手術器具又は撮像部2からの距離が最も近い手術器具に対応する位置に撮像部2の焦点が合うように撮像部2を制御してもよい。 Therefore, the focus control processing section 114 selects the surgical instrument that is the farthest from the imaging section 2 or the distance from the imaging section 2 among the plurality of surgical instruments corresponding to each of the plurality of markers detected by the detection processing section 112. The imaging section 2 may be controlled so that the imaging section 2 is focused on a position corresponding to the surgical instrument closest to the surgical instrument.

他の実施形態として、検出処理部112が複数のマーカーを検出した場合に、焦点制御処理部114は、術者の指示に応じて撮像部2の焦点を合わせる制御対象のマーカーを切り替えてもよい。例えば、術者が、手術室に設置されたフットペダルを操作した場合、手術器具に設けられた操作スイッチを操作した場合、ディスプレイ3をタッチ操作した場合、又は、所定の音声(キーワード)を発話した場合に、焦点制御処理部114は、制御対象のマーカーを切り替える。 As another embodiment, when the detection processing section 112 detects a plurality of markers, the focus control processing section 114 may switch the marker to be controlled to focus the imaging section 2 according to instructions from the operator. . For example, when a surgeon operates a foot pedal installed in the operating room, operates an operation switch installed on a surgical instrument, performs a touch operation on the display 3, or utters a predetermined voice (keyword). In this case, the focus control processing unit 114 switches the marker to be controlled.

他の実施形態として、制御部11は、各手術器具に設けられたマーカーの色を変更可能な構成であってもよい。例えば、前記マーカーが発光素子で構成されている場合に、制御部11は、各手術器具のマーカーの発光色を変更する。例えば、赤色の優先順位を「第1位」、青色の優先順位を「第2位」、緑色の優先順位を「第3位」に設定(固定)しておく。この場合において、マーカーM1が設けられた手術器具Aの優先順位を第1位から第2位に変更したい場合には、制御部11は、マーカーM1の発光色を「赤色」から「青色」に変更すればよい。このように、発光色を変更することにより、手術器具の優先順位を容易に変更することが可能になる。なお、マーカーの識別情報は色に限定されず、点滅周波数であってもよい。このように、本発明は、前記マーカーは発光素子で構成され、複数のマーカーのそれぞれの発光色又は点滅周波数を相互に入れ替える構成であってもよい。 As another embodiment, the control unit 11 may be configured to be able to change the color of the marker provided on each surgical instrument. For example, when the marker is composed of a light emitting element, the control unit 11 changes the color of the light emitted from the marker of each surgical instrument. For example, the priority of red is set (fixed) to "first", the priority of blue to "second", and the priority of green to "third". In this case, if it is desired to change the priority of the surgical instrument A provided with the marker M1 from the first to the second, the control unit 11 changes the luminescent color of the marker M1 from "red" to "blue". Just change it. In this way, by changing the emitted light color, it becomes possible to easily change the priority order of surgical instruments. Note that the identification information of the marker is not limited to the color, but may be the blinking frequency. In this way, the present invention may be configured such that the marker is composed of a light emitting element, and the luminescent color or blinking frequency of each of the plurality of markers is mutually switched.

ところで、一旦、撮像部2の焦点が手術対象(手術部位)の位置にあった場合に、当該焦点を移動させたくない場合(焦点位置を固定したい場合)がある。そこで、他の実施形態として、焦点制御処理部114は、撮像部2の焦点を所定の位置に合わせた後に、撮像部2の焦点を術者の指示に応じて固定してもよい。前記術者の指示は、例えば、前記フットペダルの操作、前記手術器具に設けられた操作スイッチの操作、ディスプレイ3のタッチ操作、キーワードの発話などである。これにより、撮像部2の焦点が手術器具の移動に応じて頻繁に変化することを防ぐことができる。なお、術者は、固定した焦点位置を解除する指示を行ってもよい。また他の実施形態として、焦点制御処理部114は、撮像部2の焦点を所定の位置に合わせた後に、撮像部2の焦点を所定時間経過するまで固定してもよい。例えば、焦点制御処理部114は、撮像部2の焦点を所定の位置に合わせると、撮像部2の焦点を所定時間固定し、所定時間経過後に手術器具の位置に応じて再度、焦点を合わせる。 By the way, once the focal point of the imaging unit 2 is at the position of the surgical target (surgical site), there are cases where the focal point does not want to be moved (where the focal position is desired to be fixed). Therefore, as another embodiment, the focus control processing section 114 may fix the focus of the imaging section 2 in accordance with an instruction from the operator after adjusting the focus of the imaging section 2 to a predetermined position. The operator's instructions include, for example, operation of the foot pedal, operation of an operation switch provided on the surgical instrument, touch operation of the display 3, and utterance of a keyword. This can prevent the focus of the imaging unit 2 from changing frequently in response to movement of the surgical instrument. Note that the operator may issue an instruction to cancel the fixed focal position. In another embodiment, the focus control processing unit 114 may fix the focus of the imaging unit 2 until a predetermined time elapses after focusing the imaging unit 2 at a predetermined position. For example, the focus control processing unit 114 focuses the imaging unit 2 at a predetermined position, fixes the focus of the imaging unit 2 for a predetermined time, and adjusts the focus again according to the position of the surgical instrument after a predetermined time has elapsed.

他の実施形態として、撮像部2が画像処理装置1の各処理部を備えてもよい。すなわち、画像処理装置1及び撮像部2が一体の機器であってもよい。 As another embodiment, the imaging unit 2 may include each processing unit of the image processing device 1. In other words, the image processing device 1 and the imaging section 2 may be an integrated device.

本発明は、手術の分野に限定されず、様々な分野に適用することができる。すなわち、本発明の画像処理システムは、以下のように表すことができる。 The present invention is not limited to the field of surgery, but can be applied to various fields. That is, the image processing system of the present invention can be expressed as follows.

(構成1)
撮影対象を撮像する撮像部から撮像画像を取得する取得処理部と、
前記取得処理部により取得される前記撮像画像において、複数の識別媒体を検出する検出処理部と、
前記検出処理部により検出される複数の前記識別媒体のそれぞれに対応する優先順位に基づいて特定される前記識別媒体に対応する位置に前記撮像部の焦点が合うように前記撮像部を制御する制御処理部と、
を備える画像処理システム。
(Configuration 1)
an acquisition processing unit that acquires a captured image from an imaging unit that captures an image of a shooting target;
a detection processing unit that detects a plurality of identification media in the captured image acquired by the acquisition processing unit;
Control for controlling the imaging unit so that the imaging unit focuses on a position corresponding to the identification medium specified based on the priority order corresponding to each of the plurality of identification media detected by the detection processing unit. a processing section;
An image processing system comprising:

(構成2)
撮影対象を撮像する撮像部から撮像画像を取得する取得処理部と、
前記取得処理部により取得される前記撮像画像において識別媒体を検出する検出処理部と、
前記検出処理部により検出される前記識別媒体の所定位置から、前記識別媒体に予め設定された設定距離だけ離れた位置に前記撮像部の焦点が合うように前記撮像部を制御する制御処理部と、
を備える画像処理システム。
(Configuration 2)
an acquisition processing unit that acquires a captured image from an imaging unit that captures an image of a shooting target;
a detection processing unit that detects an identification medium in the captured image acquired by the acquisition processing unit;
a control processing unit that controls the imaging unit so that the imaging unit focuses on a position that is a preset distance away from the identification medium from a predetermined position of the identification medium detected by the detection processing unit; ,
An image processing system comprising:

1 :画像処理装置
2 :撮像部
3 :ディスプレイ
10 :画像処理システム
11 :制御部
12 :記憶部
13 :操作表示部
14 :通信部
111 :取得処理部
112 :検出処理部
113 :特定処理部
114 :焦点制御処理部
A :手術器具
B :手術器具
C :手術器具
D1 :器具情報
D2 :器具情報
L1 :設定距離
L2 :設定距離
L3 :設定距離
M1 :マーカー
M2 :マーカー
M3 :マーカー
1: Image processing device 2: Imaging section 3: Display 10: Image processing system 11: Control section 12: Storage section 13: Operation display section 14: Communication section 111: Acquisition processing section 112: Detection processing section 113: Specification processing section 114 : Focus control processing unit A : Surgical instrument B : Surgical instrument C : Surgical instrument D1 : Instrument information D2 : Instrument information L1 : Setting distance L2 : Setting distance L3 : Setting distance M1 : Marker M2 : Marker M3 : Marker

Claims (12)

手術対象を撮像する撮像部から撮像画像を取得する取得処理部と、
前記取得処理部により取得される前記撮像画像において、複数の手術器具のそれぞれに設けられた識別媒体を検出する検出処理部と、
前記検出処理部により検出される複数の前記識別媒体のそれぞれに対応する優先順位に基づいて特定される第1手術器具に対応する位置に前記撮像部の焦点が合うように前記撮像部を制御する制御処理部と、
を備える画像処理システム。
an acquisition processing unit that acquires a captured image from an imaging unit that captures an image of a surgical target;
a detection processing unit that detects an identification medium provided on each of a plurality of surgical instruments in the captured image acquired by the acquisition processing unit;
controlling the imaging unit so that the imaging unit focuses on a position corresponding to a first surgical instrument specified based on a priority order corresponding to each of the plurality of identification media detected by the detection processing unit; a control processing unit;
An image processing system comprising:
手術対象を撮像する撮像部から撮像画像を取得する取得処理部と、
前記取得処理部により取得される前記撮像画像において、手術器具の所定位置に設けられた識別媒体を検出する検出処理部と、
前記検出処理部により検出される前記識別媒体に基づいて特定される第1手術器具の前記所定位置から、前記第1手術器具に予め設定された設定距離だけ離れた位置に前記撮像部の焦点が合うように前記撮像部を制御する制御処理部と、
を備える画像処理システム。
an acquisition processing unit that acquires a captured image from an imaging unit that captures an image of a surgical target;
a detection processing unit that detects an identification medium provided at a predetermined position of a surgical instrument in the captured image acquired by the acquisition processing unit;
The focus of the imaging unit is located at a position that is a predetermined distance away from the predetermined position of the first surgical instrument that is specified based on the identification medium detected by the detection processing unit. a control processing unit that controls the imaging unit to match the imaging unit;
An image processing system comprising:
複数の前記手術器具のそれぞれに対して、前記識別媒体から前記手術器具の先端までの距離が予め設定されている、
請求項2に記載の画像処理システム。
A distance from the identification medium to the tip of the surgical instrument is set in advance for each of the plurality of surgical instruments;
The image processing system according to claim 2.
前記検出処理部により検出される前記識別媒体に対する前記撮像部の焦点距離が所定範囲から外れる場合に、当該識別媒体を、前記撮像部の焦点を合わせる制御対象から除外する、
請求項1から請求項3のいずれか1項に記載の画像処理システム。
If a focal length of the imaging unit with respect to the identification medium detected by the detection processing unit is outside a predetermined range, excluding the identification medium from a control target for focusing the imaging unit;
The image processing system according to any one of claims 1 to 3.
前記制御処理部は、前記検出処理部により検出される前記識別媒体の種別を判別することができない場合に、前記撮像部の焦点を、予め設定した焦点距離の位置に合わせる、
請求項1から請求項4のいずれか1項に記載の画像処理システム。
The control processing unit adjusts the focus of the imaging unit to a preset focal length position when the type of the identification medium detected by the detection processing unit cannot be determined.
The image processing system according to any one of claims 1 to 4.
前記検出処理部が前記識別媒体を検出できない場合に、前記制御処理部は、前記撮像部の被写界深度を広げる、
請求項1から請求項5のいずれか1項に記載の画像処理システム。
When the detection processing unit cannot detect the identification medium, the control processing unit increases the depth of field of the imaging unit.
The image processing system according to any one of claims 1 to 5.
前記制御処理部は、前記検出処理部により検出される複数の前記識別媒体のそれぞれに対応する前記複数の手術器具のうち、前記撮像部からの距離が最も遠い手術器具又は前記撮像部からの距離が最も近い手術器具に対応する位置に前記撮像部の焦点が合うように前記撮像部を制御する、
請求項1から請求項6のいずれか1項に記載の画像処理システム。
The control processing section is configured to select a surgical instrument that is the farthest from the imaging section or a distance from the imaging section among the plurality of surgical instruments corresponding to each of the plurality of identification media detected by the detection processing section. controlling the imaging unit so that the imaging unit is focused on a position corresponding to the surgical instrument closest to the imaging unit;
The image processing system according to any one of claims 1 to 6.
前記制御処理部は、術者の指示に応じて前記撮像部の焦点を合わせる制御対象のマーカーを切り替える、
請求項1から請求項7のいずれか1項に記載の画像処理システム。
The control processing unit switches a marker to be controlled to focus the imaging unit according to an instruction from a surgeon.
The image processing system according to any one of claims 1 to 7.
前記識別媒体は発光素子で構成されており、
複数の前記識別媒体のそれぞれの発光色又は点滅周波数を相互に入れ替える、
請求項1から請求項8のいずれか1項に記載の画像処理システム。
The identification medium is composed of a light emitting element,
mutually exchanging the luminescent colors or blinking frequencies of the plurality of identification media;
The image processing system according to any one of claims 1 to 8.
前記制御処理部は、前記撮像部の焦点を前記第1手術器具に対応する位置に合わせた場合に、前記焦点の位置を術者の指示に応じて固定する、
請求項1から請求項9のいずれか1項に記載の画像処理システム。
The control processing section fixes the focal point position according to an instruction from an operator when the focal point of the imaging section is adjusted to a position corresponding to the first surgical instrument.
The image processing system according to any one of claims 1 to 9.
一又は複数のプロセッサーが、
手術対象を撮像する撮像部から撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得される前記撮像画像において、複数の手術器具のそれぞれに設けられた識別媒体を検出する検出ステップと、
前記検出ステップにおいて検出される複数の前記識別媒体のそれぞれに対応する優先順位に基づいて特定される第1手術器具に対応する位置に前記撮像部の焦点が合うように前記撮像部を制御する制御ステップと、
を実行する画像処理方法。
one or more processors,
an acquisition step of acquiring a captured image from an imaging unit that images the surgical target;
a detection step of detecting an identification medium provided on each of a plurality of surgical instruments in the captured image obtained in the acquisition step;
Control for controlling the imaging unit so that the imaging unit focuses on a position corresponding to a first surgical instrument specified based on a priority order corresponding to each of the plurality of identification media detected in the detection step. step and
An image processing method that performs
一又は複数のプロセッサーが、
手術対象を撮像する撮像部から撮像画像を取得する取得ステップと、
前記取得ステップにおいて取得される前記撮像画像において、手術器具の所定位置に設けられた識別媒体を検出する検出ステップと、
前記検出ステップにおいて検出される前記識別媒体に基づいて特定される第1手術器具の前記所定位置から、前記第1手術器具に予め設定された設定距離だけ離れた位置に前記撮像部の焦点が合うように前記撮像部を制御する制御ステップと、
を実行する画像処理方法。
one or more processors,
an acquisition step of acquiring a captured image from an imaging unit that images the surgical target;
a detection step of detecting an identification medium provided at a predetermined position of a surgical instrument in the captured image acquired in the acquisition step;
The imaging section focuses on a position that is a preset distance away from the first surgical instrument from the predetermined position of the first surgical instrument that is identified based on the identification medium detected in the detection step. a control step of controlling the imaging unit so as to
An image processing method that performs
JP2022044978A 2022-03-22 2022-03-22 Image processing system and image processing method Pending JP2023139442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022044978A JP2023139442A (en) 2022-03-22 2022-03-22 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022044978A JP2023139442A (en) 2022-03-22 2022-03-22 Image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2023139442A true JP2023139442A (en) 2023-10-04

Family

ID=88205024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022044978A Pending JP2023139442A (en) 2022-03-22 2022-03-22 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2023139442A (en)

Similar Documents

Publication Publication Date Title
JP6010258B1 (en) Endoscope system
JP6453904B2 (en) FOCUS CONTROL DEVICE, ENDOSCOPE DEVICE, AND FOCUS CONTROL DEVICE CONTROL METHOD
JP2014188223A5 (en) Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus
JP6323184B2 (en) Image processing apparatus, image processing method, and program
JP5022580B2 (en) Endoscope device
JP6600362B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP6758287B2 (en) Control device and medical imaging system
WO2016088187A1 (en) Focus control device, endoscope device, and control method for focus control device
JP2011045553A (en) Fundus imaging apparatus
US11663716B2 (en) Optical imaging system and corresponding apparatus, method and computer program
JP2010039284A (en) Image pick-up apparatus and control method therefor
JP2023139442A (en) Image processing system and image processing method
JP2002311328A (en) Electronic camera
JP2009168499A (en) Endoscope apparatus and program
JP6572117B2 (en) Microscope, image pasting method, program
US9264603B2 (en) Imaging apparatus and imaging method
US20140118691A1 (en) Ophthalmic apparatus, imaging control apparatus, and imaging control method
WO2017130521A1 (en) Control device, control method, and program
JP2023043372A5 (en)
WO2017072860A1 (en) Imaging device, endoscope device, and method for operating imaging device
JPWO2019225231A1 (en) Surgical information processing equipment, information processing methods and programs
KR20090100815A (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP2017021177A (en) Range-finding point upon lens vignetting, range-finding area transition method
JP2004177925A (en) Focus information display device
JP5886909B2 (en) Ophthalmic apparatus, control method therefor, and program