JP2022185357A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2022185357A
JP2022185357A JP2021092983A JP2021092983A JP2022185357A JP 2022185357 A JP2022185357 A JP 2022185357A JP 2021092983 A JP2021092983 A JP 2021092983A JP 2021092983 A JP2021092983 A JP 2021092983A JP 2022185357 A JP2022185357 A JP 2022185357A
Authority
JP
Japan
Prior art keywords
light
blood flow
imaging
wavelength
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021092983A
Other languages
Japanese (ja)
Inventor
哲生 菅野
Tetsuo Sugano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Priority to JP2021092983A priority Critical patent/JP2022185357A/en
Publication of JP2022185357A publication Critical patent/JP2022185357A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

To provide an imaging device capable of suppressing influence on an operation time or accuracy of treatment itself due to a difference in experience values of operators.SOLUTION: An imaging device includes: a light source for emitting laser beams of a plurality of wavelengths; a light source optical system for radiating each of the laser beams of a plurality of wavelengths; an imaging part for photoelectrically converting reflected and scattered light, and generating imaging information; a calculation part for calculating a plurality of blood flow rates by executing laser speckle blood flow measurement for the imaging information; a video output part for generating a plurality of pieces of display information in which each of the plurality of blood flow rates is converted using any of a plurality of display characteristics, and outputting a video signal; and a control part for integrally controlling the light source, the imaging part, the calculation part, and the video output part, and identifying and displaying differences in the blood flow rates on the basis of an operation input by an operator.SELECTED DRAWING: Figure 1

Description

本開示は、医療用の撮像装置に関するものである。 The present disclosure relates to a medical imaging device.

脳内に発生した腫瘍を取り除く脳腫瘍切除術を行う際に、術者は、腫瘍部位と正常な脳の部位との識別を行う必要がある。このような識別を行うに当たっては、基本的には、医師がその経験に基づき、都度判断している。 When performing brain tumor resection to remove a tumor that has developed in the brain, it is necessary for the operator to distinguish between the tumor site and the normal brain site. In performing such identification, basically, the doctor makes a judgment on a case-by-case basis based on his/her experience.

近年は、光線力学的診断(photodynamic diagnosis:PDD)を用いた識別法が提案されている(例えば、特許文献1参照)。 In recent years, an identification method using photodynamic diagnosis (PDD) has been proposed (see, for example, Patent Document 1).

特許第2731032号公報Japanese Patent No. 2731032

しかしながら、従来技術には以下のような課題がある。
上述したように、脳腫瘍切除術を行う際に、術者は、腫瘍部位と正常な脳の部位との識別を、経験に基づいて行っている。
However, the prior art has the following problems.
As described above, when performing brain tumor resection, the operator distinguishes between the tumor site and the normal brain site based on experience.

術野から得られる微妙な色、明るさなどによる視感的情報、メスで接触した際の弾性、コリコリ感など手から伝わる物理的情報、などの実態情報に対して、術者の過去の手術実績の蓄積から生成された自らの経験データベースに照らしながら、腫瘍識別を行うという作業が必要となる。そして、術者は、このような作業を、時々刻々と状況が変化する開頭手術の間、常に高精度で実行し続ける必要がある。 Visual information such as subtle colors and brightness obtained from the surgical field, physical information transmitted from the hand such as elasticity and crunchy feeling when touching with a scalpel, etc. It is necessary to perform tumor identification while referring to one's own empirical database generated from accumulated achievements. The operator must continue to perform such work with high accuracy at all times during the craniotomy in which the situation changes from moment to moment.

従って、当然術者の経験値の違いが手術時間とともに、施術自体の精度に影響するという問題がある。また、このように術者の判断だけに頼る場合には、経験値が高い術者であっても、時間の経過とともに、視力の変化、感触の鈍化など疲労の度合いにより識別能力に影響が出る可能性がある。特に、困難な部位の手術、あるいは長時間にわたる手術において、常に一定の高精度での施術の継続が難しいという課題がある。 Therefore, naturally, there is a problem that the difference in the experience value of the operator affects the accuracy of the operation itself as well as the operation time. In addition, when relying only on the judgment of the operator in this way, even an operator with a high experience value will have an effect on the identification ability due to the degree of fatigue such as changes in visual acuity and dullness of touch over time. there is a possibility. In particular, there is a problem that it is difficult to continue the operation with constant high precision in operations on difficult sites or operations over a long period of time.

腫瘍部位を識別する方法として、上述した特許文献1のように、光線力学的診断(PDD)法を用いる従来の手法がある。この従来の手法では、患者に対して蛍光造影剤を術前に投与した上で、術野に紫外線に近い波長の照明を当てて、その反射光を専用の撮像装置にて撮像し、術野中の腫瘍部位から発する赤色帯域の蛍光発光を観察することで腫瘍部位の識別を行っている。 As a method for identifying a tumor site, there is a conventional method using a photodynamic diagnosis (PDD) method, such as the above-mentioned Patent Document 1. In this conventional method, a fluorescent contrast agent is administered to the patient before surgery, the operative field is illuminated with a wavelength close to ultraviolet light, and the reflected light is imaged with a dedicated imaging device. The tumor site is identified by observing the fluorescence emission in the red band emitted from the tumor site.

しかしながら、この従来の方法では、施術の都度で、特殊な蛍光造影剤が必要であるとともに、薬剤に対する副作用など、患者への負担が懸念される。さらに、従来の方法は、紫外線に近い波長を照射するため、長時間の照射を行った場合には患部へ悪影響を及ぼすといった課題がある。 However, in this conventional method, a special fluorescent contrast agent is required for each operation, and there is concern about the burden on the patient due to side effects of the agent. Furthermore, the conventional method involves irradiation with a wavelength close to that of ultraviolet rays, which poses the problem of adversely affecting the affected area when irradiation is performed for a long period of time.

この開示は、上記した問題点を解決するためになされたものであり、術者の経験値の違いによって手術時間あるいは施術自体の精度に影響を及ぼすことを抑制することができる撮像装置を得ることを目的とする。 This disclosure has been made in order to solve the above-described problems, and to obtain an imaging apparatus capable of suppressing the influence of the difference in the experience of the operator on the operation time or the accuracy of the operation itself. With the goal.

本開示に係る撮像装置は、複数の波長のレーザー光を発光する光源と、施術対象を含む術野に対して、複数の光源から発光された複数の波長のレーザー光のそれぞれを照射する光源光学系と、術野から得られる複数の波長のレーザー光によるそれぞれの反射散乱光を光電変換し、撮像情報を生成する撮像部と、撮像部で生成されたそれぞれの反射散乱光に関する撮像情報に対してレーザスペックル血流計測を行うことで、それぞれの撮像情報に対応する複数の血流量を演算する演算部と、演算部による演算結果に基づいて、複数の表示特性のいずれかを用いて、複数の血流量のそれぞれを変換した複数の表示情報を生成し、複数の表示情報の少なくとも1つ以上を画面に表示させるための映像信号を出力する映像出力部と、光源、撮像部、演算部、および映像出力部を統括制御し、術者による操作入力に基づいて、所望の表示特性を用いて複数の波長のうちの1以上の波長に対応する映像信号を出力させることで、血流量の相違を識別表示させる制御部とを備えるものである。 The imaging device according to the present disclosure includes a light source that emits laser light of a plurality of wavelengths, and light source optics that irradiates the surgical field including the treatment target with the laser light of a plurality of wavelengths emitted from the plurality of light sources. a system, an imaging unit that photoelectrically converts reflected and scattered light from laser beams of a plurality of wavelengths obtained from the surgical field to generate imaging information, and imaging information related to each reflected and scattered light generated by the imaging unit By performing laser speckle blood flow measurement using a calculation unit that calculates a plurality of blood flow volumes corresponding to each imaging information, and based on the calculation result of the calculation unit, using one of a plurality of display characteristics, A video output unit that generates a plurality of display information by converting each of a plurality of blood flow volumes and outputs a video signal for displaying at least one of the plurality of display information on a screen, a light source, an imaging unit, and a calculation unit , and an image output unit, and outputting an image signal corresponding to one or more wavelengths out of a plurality of wavelengths using desired display characteristics based on an operation input by the operator, thereby increasing blood flow. and a control unit for identifying and displaying the difference.

この開示によれば、施術対象を含む術野における血流量の相違を識別表示させることにより、術者の経験値の違いによって手術時間あるいは施術自体の精度に影響を及ぼすことを抑制することができる撮像装置を得ることができる。 According to this disclosure, by distinguishingly displaying the difference in the blood flow volume in the surgical field including the surgical target, it is possible to suppress the influence of the difference in the experience value of the operator on the surgical time or the accuracy of the surgical procedure itself. An imaging device can be obtained.

本開示の実施の形態1に係る撮像装置の概略ブロック図である。1 is a schematic block diagram of an imaging device according to Embodiment 1 of the present disclosure; FIG. 本開示の実施の形態1に係る撮像装置の生体での光損失特性例を示した図である。FIG. 5 is a diagram showing an example of optical loss characteristics in a living body of the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1に係る撮像装置の光源発光特性を示した図である。FIG. 4 is a diagram showing light source emission characteristics of the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1に係る撮像装置の血流量-輝度の表示特性例を示した図である。FIG. 4 is a diagram showing an example of blood flow-luminance display characteristics of the imaging device according to the first embodiment of the present disclosure; 本開示の実施の形態1に係る撮像装置の血流計測の表示例を示した図である。FIG. 4 is a diagram showing a display example of blood flow measurement of the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1に係る撮像装置の実際の腫瘍位置例を示した図である。FIG. 4 is a diagram showing an example of an actual tumor position of the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1に係る撮像装置の深度ごとの観察表示例を示した図である。FIG. 4 is a diagram showing an observation display example for each depth of the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1に係る撮像装置において、同時観察表示を行う具体例を示した図である。FIG. 4 is a diagram showing a specific example of performing simultaneous observation display in the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1に係る撮像装置の血流量-色彩の表示特性を示した図である。FIG. 4 is a diagram showing blood flow-color display characteristics of the imaging device according to the first embodiment of the present disclosure; 本開示の実施の形態1に係る撮像装置の血流量-輝度の表示特性を、術者の操作により変更する場合の説明図である。FIG. 5 is an explanatory diagram when the blood flow volume-brightness display characteristic of the imaging apparatus according to the first embodiment of the present disclosure is changed by an operator's operation; 本開示の実施の形態1に係る撮像装置の観察表示に関する第一の画像例を示した図である。FIG. 4 is a diagram showing a first image example regarding observation display of the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1に係る撮像装置の観察表示に関する第二の画像例を示した図である。FIG. 7 is a diagram showing a second image example regarding observation display of the imaging device according to Embodiment 1 of the present disclosure; 本開示の実施の形態2に係る撮像装置の光源系の概略ブロック図である。FIG. 5 is a schematic block diagram of a light source system of an imaging device according to Embodiment 2 of the present disclosure; 本開示の実施の形態2に係る撮像装置の撮像系の概略ブロック図である。FIG. 7 is a schematic block diagram of an imaging system of an imaging device according to Embodiment 2 of the present disclosure; 本開示の実施の形態2に係る撮像装置の3次元観察表示例を示した図である。FIG. 11 is a diagram showing a three-dimensional observation display example of an imaging device according to Embodiment 2 of the present disclosure;

以下、本開示に係る撮像装置の実施の形態に関し、図面を用いて説明する。本開示に係る撮像装置は、施術対象を含む術野における血流量の相違を識別表示させる構成を備えることで、術者の経験値の違いによって手術時間あるいは施術自体の精度に影響を及ぼすことを抑制することができる撮像装置を実現できる点を技術的特徴としている。 An embodiment of an imaging device according to the present disclosure will be described below with reference to the drawings. The imaging apparatus according to the present disclosure has a configuration for identifying and displaying differences in blood flow in the surgical field including the surgical target, so that the difference in the operator's experience value affects the surgical time or the precision of the surgical procedure itself. The technical feature is that an image pickup apparatus capable of suppressing noise can be realized.

実施の形態1.
図1は、本開示の実施の形態1に係る撮像装置の概略ブロック図である。図1において、第一の発光素子4は、レーザー発光素子が用いられ、第一の発光回路5と、第一の発光制御部6とにより発光動作を行うとともに、光源制御部10によりその動作が制御される。
Embodiment 1.
FIG. 1 is a schematic block diagram of an imaging device according to Embodiment 1 of the present disclosure. In FIG. 1, the first light emitting element 4 is a laser light emitting element, and performs light emitting operation by a first light emitting circuit 5 and a first light emission control section 6, and its operation is controlled by a light source control section 10. controlled.

同様に、第二の発光素子7は、レーザー発光素子が用いられ、第二の発光回路8と、第二の発光制御部9により発光動作を行うとともに、光源制御部10によりその動作が制御される。 Similarly, the second light emitting element 7 uses a laser light emitting element, performs light emitting operation by the second light emitting circuit 8 and the second light emission control section 9, and its operation is controlled by the light source control section 10. be.

第一の発光素子4と第二の発光素子7のそれぞれからの放射光は、光混合部3により合成されて、光源光学系2を通して術野1へ照射される。術野1からの反射散乱光は、撮像光学系11から光学フィルタ12を通して、第一の撮像素子13と第二の撮像素子15に導光され、それぞれの撮像素子にて光電変換され、この結果、撮像情報としての映像信号が生成される。 The light emitted from each of the first light emitting element 4 and the second light emitting element 7 is combined by the light mixer 3 and irradiated to the surgical field 1 through the light source optical system 2 . Reflected and scattered light from the surgical field 1 is guided from the imaging optical system 11 through the optical filter 12 to the first imaging element 13 and the second imaging element 15, and photoelectrically converted by each imaging element. , a video signal is generated as imaging information.

第一の撮像素子13により撮像された映像信号は、第一の映像信号処理部14を介して映像処理演算部17に入力される。同様に、第二の撮像素子15により撮像された映像信号は、第二の映像信号処理部16を介して映像処理演算部17に入力される。 A video signal captured by the first imaging device 13 is input to the video processing calculation unit 17 via the first video signal processing unit 14 . Similarly, a video signal captured by the second image pickup device 15 is input to the video processing calculation section 17 via the second video signal processing section 16 .

ここで、本実施の形態1において、第一の撮像素子13と第一の映像信号処理部14のまとまり、および第二の撮像素子15と第二の映像信号処理部16のまとまりは、撮像部に相当する。また、映像処理演算部17は、演算部に相当する。 Here, in Embodiment 1, the first imaging device 13 and the first video signal processing unit 14 and the second imaging device 15 and the second video signal processing unit 16 are the imaging units. corresponds to Also, the video processing calculation unit 17 corresponds to a calculation unit.

映像処理演算部17による演算結果は、映像出力部19と外部出力21とを通して外部のモニターに映像出力される。 The calculation result by the video processing calculation section 17 is output as video to an external monitor through the video output section 19 and the external output 21 .

システム制御部20は、撮像系を制御する撮像制御部18と、光源系を制御する光源制御部10と、外部コマンドを入力する操作部22と、を統括制御する。なお、光源制御部10、撮像制御部18、およびシステム制御部20を1つにまとめ、制御部として構成することも可能である。 The system control unit 20 comprehensively controls the imaging control unit 18 that controls the imaging system, the light source control unit 10 that controls the light source system, and the operation unit 22 that inputs external commands. It should be noted that the light source control section 10, the imaging control section 18, and the system control section 20 can be combined into one and configured as a control section.

図2は、本開示の実施の形態1に係る撮像装置の生体での光損失特性例を示した図である。図2に示した生体での光損失特性例は、人の生体組織に光を照射した際の、光の波長とその損失量との関係を示した特性である。より具体的には、図2では、総損失30と散乱損失31につき、可視領域32から近赤外領域33までの波長にわたる特性が示されている。 FIG. 2 is a diagram showing an example of optical loss characteristics in a living body of the imaging device according to Embodiment 1 of the present disclosure. The example of optical loss characteristics in a living body shown in FIG. 2 is a characteristic showing the relationship between the wavelength of light and the amount of loss when light is applied to human living tissue. More specifically, FIG. 2 shows the characteristics of total loss 30 and scattering loss 31 over wavelengths from the visible region 32 to the near-infrared region 33 .

なお、近赤外領域33は、可視に近い波長700~1000nm辺りの第一の近赤外34と、波長1000nmを超え波長1500nm辺りまでの第二の近赤外35と、波長1500nmを超え波長1900nm辺りまでの赤外に近い第三の近赤外36とに分けられ、それぞれ異なる光損失特性を持つ。 The near-infrared region 33 includes a first near-infrared 34 near visible wavelengths of 700 to 1000 nm, a second near-infrared 35 with a wavelength of more than 1000 nm and a wavelength of more than 1500 nm, and a wavelength of more than 1500 nm. and a third near-infrared 36 near infrared up to around 1900 nm, each having different optical loss characteristics.

図3は、本開示の実施の形態1に係る撮像装置の光源発光特性を示した図である。図3に示した光源発光特性は、本開示の光源系の発光波長例であり、第一の近赤外34では700nmの波長40と850nmの波長41、第二の近赤外35では1000nmの波長42と1300nmの波長43、第三の近赤外36では1700nmの波長44をそれぞれ発光する場合が例示されている。 FIG. 3 is a diagram showing light source emission characteristics of the imaging device according to Embodiment 1 of the present disclosure. The light source emission characteristics shown in FIG. 3 are examples of emission wavelengths of the light source system of the present disclosure. A case where wavelength 42 and wavelength 43 of 1300 nm are emitted, and wavelength 44 of 1700 nm is emitted by the third near-infrared 36 is illustrated.

図4は、本開示の実施の形態1に係る撮像装置の血流量-輝度の表示特性例を示した図である。図4に示す血流量-輝度の表示特性例は、撮像映像に基づきレーザスペックル血流計測を行った結果を、輝度の変化で画像表示する場合の表示特性例を示している。X軸は、血流量を表し、Y軸は、輝度レベルを表している。 FIG. 4 is a diagram showing an example of blood flow-luminance display characteristics of the imaging device according to Embodiment 1 of the present disclosure. The display characteristic example of blood flow versus luminance shown in FIG. 4 shows an example of display characteristics when the result of laser speckle blood flow measurement based on a captured image is displayed as an image with changes in luminance. The X-axis represents blood flow and the Y-axis represents brightness level.

血流量の領域は、腫瘍領域54と正常部位・血管部その他の領域55とに分けられている。表示特性としては、血流量の変化に対して輝度の変化が直線的な第一の輝度表示特性50と、腫瘍領域54が識別しやすいように血流量が少ない部分の輝度変化が大きくなるような非直線的な表示特性を有する第二の輝度表示特性51の2種の表示特性を例示している。 The area of blood flow is divided into a tumor area 54 and a normal site/vascular area and other area 55 . As the display characteristics, there is a first luminance display characteristic 50 in which luminance changes linearly with respect to changes in blood flow, and a luminance display characteristic 50 in which luminance changes are large in portions with low blood flow so that tumor regions 54 can be easily identified. Two types of display characteristics are illustrated, a second luminance display characteristic 51 having non-linear display characteristics.

具体的には、腫瘍領域54の輝度範囲は、図4に示すように、第一の輝度表示特性50を用いた場合には、第一の輝度範囲53となるが、第二の輝度表示特性51を用いた場合には、第二の輝度範囲52となり、輝度変化範囲をより大きくすることができる。なお、第三の輝度表示特性56に関しては、後述する。 Specifically, as shown in FIG. 4, the luminance range of the tumor region 54 is the first luminance range 53 when the first luminance display characteristic 50 is used, but the second luminance display characteristic is used. When 51 is used, it becomes the second luminance range 52, and the luminance change range can be made larger. Note that the third luminance display characteristic 56 will be described later.

図5は、本開示の実施の形態1に係る撮像装置の血流計測の表示例を示した図である。図5に示した血流計測の表示例では、図4の血流量-輝度の表示特性例に基づいて術野1の血流量を輝度の変化として生成した表示情報を画面表示した具体例を示している。例えば、正常部位60はグレーで表示され、腫瘍部位61は血流量が少ないため、かなり暗く表示される。 FIG. 5 is a diagram showing a display example of blood flow measurement of the imaging device according to Embodiment 1 of the present disclosure. The display example of blood flow measurement shown in FIG. 5 shows a specific example of displaying on the screen the display information generated as the change in luminance of the blood flow in the surgical field 1 based on the display characteristic example of blood flow vs. luminance in FIG. ing. For example, the normal site 60 is displayed in gray, and the tumor site 61 is displayed considerably darker because of the low blood flow.

なお、図5では、腫瘍部位61と正常部位との境界である境界部62、および血管部63も表示されている場合を例示している。 Note that FIG. 5 illustrates a case where a boundary portion 62 that is a boundary between a tumor site 61 and a normal site and a blood vessel portion 63 are also displayed.

図6は、本開示の実施の形態1に係る撮像装置の実際の腫瘍位置例を示した図である。図6に示した実際の腫瘍位置例では、腫瘍部位61、血管部63などの構造物と、各波長ごとで計測可能な各レイヤー73~76の位置関係が示されている。 FIG. 6 is a diagram showing an actual tumor position example of the imaging device according to Embodiment 1 of the present disclosure. The actual tumor position example shown in FIG. 6 shows the positional relationship between structures such as a tumor site 61 and a blood vessel portion 63 and layers 73 to 76 measurable for each wavelength.

具体的には、第一のレイヤー73は、最も可視に近い波長での計測レイヤーである。また、発光波長が長くなる第二のレイヤー74、第三のレイヤー75、および第四のレイヤー76は、この順で、計測レイヤーがより深くなっている。なお、図6では、術野表面70も示されている。 Specifically, the first layer 73 is the measurement layer at the wavelength closest to the visible. In addition, the second layer 74, the third layer 75, and the fourth layer 76 with longer emission wavelengths have deeper measurement layers in this order. Note that FIG. 6 also shows the surgical field surface 70 .

図7は、本開示の実施の形態1に係る撮像装置の深度ごとの観察表示例を示した図である。図7に示した深度ごとの表示例は、図6の実際の腫瘍位置例に基づいて各計測レイヤー73~76で撮像した上で血流計測を行い、その結果をレイヤー画面73a~76aとして画面表示した例である。すなわち、図7は、それぞれの深度ごとで、レイヤーからなる2次元情報を画面表示した例である。 FIG. 7 is a diagram showing an observation display example for each depth of the imaging device according to Embodiment 1 of the present disclosure. The display examples for each depth shown in FIG. 7 are based on the actual tumor position examples shown in FIG. This is a displayed example. That is, FIG. 7 is an example of screen display of two-dimensional information made up of layers for each depth.

その際の計測結果において、血流量は、先の図4の血流量-輝度の表示特性例に基づいて、レイヤーごとに、血流の輝度変化の状態が、それぞれのレイヤー画面73a~76aとして画面表示されている。 In the measurement results at that time, the blood flow is displayed as layer screens 73a to 76a for each layer based on the blood flow volume-brightness display characteristic example shown in FIG. is displayed.

例えば、図6の第一のレイヤー73~第四のレイヤー76もそれぞれに相当する表示画面は、第一のレイヤー画面73a~第四のレイヤー表示画面76aであり、レイヤー画面73a、74a、75a、76aの順で、その計測レイヤーが深くなる。なお、血流計測結果でなく、術野1近傍の撮像画像が、術野画像78として図7中に示されている。 For example, the display screens corresponding to the first layer 73 to the fourth layer 76 in FIG. 6 are the first layer screen 73a to the fourth layer display screen 76a. In the order of 76a, the metrology layer becomes deeper. Note that the captured image of the vicinity of the surgical field 1 is shown as the surgical field image 78 in FIG. 7 instead of the blood flow measurement result.

次に、本開示による撮像装置の動作につき、図を用いて説明する。図1において、電源が投入されると、システム制御部20が撮像制御部18および光源制御部10を含むシステム全体を起動し、撮像装置が動作可能状態となる。このとき、撮像は可能な状態であるが、光源からの発光は停止した状態にあり、観察待機のモードである。 Next, the operation of the imaging device according to the present disclosure will be described with reference to the drawings. In FIG. 1, when the power is turned on, the system control unit 20 activates the entire system including the imaging control unit 18 and the light source control unit 10, and the imaging apparatus becomes operable. At this time, imaging is possible, but light emission from the light source is stopped, and the observation standby mode is in effect.

この状態から、例えば、術者が操作部22からボタン操作にて腫瘍観察モード1を選択することで、システム制御部20は、光源制御部10を制御して第一の発光回路5と第一の発光素子4を動作させ、第一の放射光である波長700nm近傍のレーザー光を発光させる。この第一の放射光は、光混合部3と光源光学系2を通して均一な光として2次元的に術野1へ照射される。 From this state, for example, when the operator selects tumor observation mode 1 by operating a button on the operation unit 22, the system control unit 20 controls the light source control unit 10 to control the first light emitting circuit 5 and the first light emitting circuit 5. The light emitting element 4 is operated to emit laser light having a wavelength of about 700 nm, which is the first emitted light. The first emitted light is two-dimensionally irradiated onto the surgical field 1 as uniform light through the light mixing unit 3 and the light source optical system 2 .

波長700nm近傍の第一の放射光は、近赤外光であり、近赤外光は、人の生体に照射された場合の光損失量が、可視光より少ない。このため、近赤外光は、術野1に対して浸透することで、ある程度の深部まで到達する。その特性は、図2のようになり、700nm近傍の波長は、第一の近赤外34に相当し、その到達深度は、術野表面70に対して約5mmである。 The first radiated light having a wavelength of about 700 nm is near-infrared light, and near-infrared light causes less light loss than visible light when the human body is irradiated with the near-infrared light. Therefore, the near-infrared light reaches a certain depth by penetrating the surgical field 1 . Its characteristics are as shown in FIG. 2, the wavelength near 700 nm corresponds to the first near-infrared rays 34, and the reaching depth is about 5 mm with respect to the surface 70 of the surgical field.

また、波長700nm近傍の第一の放射光は、レーザー光であり、可干渉性を持つコヒーレントな光である。この光を生体に照射した場合、生体内の粒子により散乱された光が干渉し合うことで、術野1からの反射散乱光にランダムな模様としてスペックルパターンを得ることができる。 Also, the first emitted light having a wavelength of about 700 nm is laser light, which is coherent light having coherence. When a living body is irradiated with this light, light scattered by particles in the living body interferes with each other, so that a speckle pattern can be obtained as a random pattern in the reflected and scattered light from the surgical field 1 .

第一の放射光を発光させることにより、図6の術野表面70より約5mm深部の第一のレイヤー73からの反射散乱光が得られる。この反射散乱光は、撮像光学系11と光学フィルタ12にて波長700nm近傍のみを通した光となった後、第一の撮像素子13と第一の映像信号処理部14にて光電変換と電気信号処理を行うことで、第一の映像信号に変換される。 By emitting the first radiation, reflected scattered light from the first layer 73 about 5 mm deeper than the surgical field surface 70 in FIG. 6 is obtained. This reflected and scattered light becomes light that only passes through the imaging optical system 11 and the optical filter 12 with a wavelength of about 700 nm. By performing signal processing, it is converted into a first video signal.

腫瘍の組織は、一般的には細胞の代謝過程で生じる異常細胞が増殖した集合体である。従って、腫瘍の組織は、異常増殖の影響により、通常の細胞と比較して血流量が低いという特徴を持つと言われている。 Tumor tissue is generally an aggregate of abnormal cell proliferation that occurs during cell metabolism. Therefore, tumor tissue is said to have a low blood flow compared to normal cells due to abnormal proliferation.

さらに、腫瘍部位61と正常部位との境界部分においては、細胞が異常化する過程で酸素が必要となる関係から、部分的に血流量が増える傾向にあるとも言われている。本開示は、境界部分を含めた腫瘍関連部位の位置を、この特徴である血流量の相違を測定することで識別を行うことを特徴としている。 Furthermore, it is said that the blood flow tends to partially increase at the boundary between the tumor site 61 and the normal site because oxygen is required in the process of abnormalization of cells. The present disclosure is characterized by identifying the position of a tumor-related site, including a boundary portion, by measuring the difference in blood flow, which is this feature.

映像処理演算部17は、第一の映像信号処理部14で得られた第一の映像信号に基づき、血流計測のための演算を行う。レーザー光によって得られたスペックルパターンは、生体組織内の血球粒子移動に伴い、時々刻々と変化してゆく。 The video processing calculation unit 17 performs calculation for blood flow measurement based on the first video signal obtained by the first video signal processing unit 14 . A speckle pattern obtained by a laser beam changes from moment to moment as blood cells move in living tissue.

血球粒子の動きが大きく速いほど、スペックルパターンの単位時間あたりの変化が大きい。このスペックルパターンを、2次元の撮像センサーにて映像信号として撮像し、空間的に同位置の輝度信号につき、その単位時間あたりの変化を計測することで、血流の量あるいは血流の速度に比例した血流情報が得られる。 The greater and faster the blood cell particles move, the greater the change in the speckle pattern per unit time. This speckle pattern is imaged as a video signal by a two-dimensional imaging sensor, and by measuring the change per unit time of the luminance signal at the same spatial position, the amount of blood flow or the blood flow velocity is measured. Blood flow information proportional to is obtained.

血流量の多い位置の映像信号には、高い周波数成分が多く含まれており、血流量の少ない位置の映像信号には、低い周波数成分が多く含まれている。このことから、映像処理演算部17は、第一の映像信号処理部14からの映像信号に対して、その位置ごとで周波数解析等の演算を行うことで、血流量に比例した情報を得ることができる。すなわち、映像処理演算部17は、映像信号に対応する血流量を演算することができる。 A video signal at a position with a large blood flow contains many high frequency components, and a video signal at a position with a small blood flow contains many low frequency components. Therefore, the video processing calculation unit 17 performs calculation such as frequency analysis for each position on the video signal from the first video signal processing unit 14, thereby obtaining information proportional to the blood flow rate. can be done. That is, the video processing calculation unit 17 can calculate the blood flow volume corresponding to the video signal.

この演算によって得られた血流量の情報は、映像出力部19により、図4の特性に従って、血流量の多い部分は明るく、血流量の少ない部分は暗く、といった映像信号上の輝度変化という形に変換され、表示情報が生成される。さらに、外部出力21に接続された外部モニターにて、図5のような変換後の映像信号に相当する表示情報が表示されることで、術者がその測定結果を撮像映像として確認することができる。 The blood flow information obtained by this calculation is converted by the video output unit 19 into the form of luminance changes on the video signal, such that areas with high blood flow are bright and areas with low blood flow are dark, according to the characteristics of FIG. Transformed to generate display information. Furthermore, display information corresponding to the video signal after conversion as shown in FIG. 5 is displayed on an external monitor connected to the external output 21, so that the operator can confirm the measurement result as a captured video. can.

このとき、映像出力部19は、図4のように、血流量と輝度レベルとの関係が直線的な特性である第一の輝度表示特性50と、非直線的な特性である第二の輝度表示特性51のいずれかを採用することができる。 At this time, as shown in FIG. 4, the image output unit 19 has a first luminance display characteristic 50 that is a linear characteristic of the relationship between the blood flow and the luminance level, and a second luminance display characteristic that is a nonlinear characteristic. Any of the display characteristics 51 can be employed.

一例として、映像出力部19は、通常の腫瘍観察では、第二の輝度表示特性51を採用して生成した変換後の映像信号を表示させることができる。第二の輝度表示特性51を採用する理由としては、腫瘍領域54は、血流量が比較的少ないため、この部分の輝度変化を大きくとることで、腫瘍部位61と正常・その他の部位とを視感上より識別しやすくすることが挙げられる。 As an example, the image output unit 19 can display a converted image signal generated by adopting the second luminance display characteristic 51 in normal tumor observation. The reason for adopting the second luminance display characteristic 51 is that the tumor region 54 has a relatively small blood flow, and therefore, the tumor region 61 and the normal/other regions can be visually recognized by increasing the luminance change in this portion. One example is to make it easier to identify visually.

この結果、ユーザが腫瘍識別時に確認する映像は、図5のようになり、正常部位60はほぼグレーであるのに対し、血流量の少ない腫瘍部位61は血流量が少ないため、かなり暗く、流量の多い血管部63は白に近い輝度として表示させることができる。 As a result, the image that the user confirms when identifying the tumor is as shown in FIG. The blood vessel portion 63 with a large amount of blood can be displayed with a brightness close to white.

また、その他の傾向として、腫瘍部位61と正常部位との境界部62は、比較的血流が多い場合があり、その際には、白に近い明るいグレーとなる可能性がある。動脈、静脈、穿通枝などの血管部63は、その壁面厚あるいは状態にも依存するが、基本的には、血管部63に流れる血流の状態情報が表示される。この場合、画面上に白っぽい線状のものが表示されることで、術者は、深部にある血管部の存在をも把握することができる。 In addition, as another tendency, the boundary portion 62 between the tumor site 61 and the normal site may have a relatively large amount of blood flow, and in such a case, there is a possibility that the color will be bright gray close to white. The blood vessel part 63 such as arteries, veins, and perforating branches depends on the wall thickness or condition thereof, but basically, the status information of the blood flowing through the blood vessel part 63 is displayed. In this case, a whitish linear object is displayed on the screen, so that the operator can also grasp the presence of the deep blood vessel.

このように、術者が選択した腫瘍観察モード1による第一の放射光での観察では、700nmの1波長を使用するため、術野1の深部は、約5mmとなる。この結果、図6に示した第一のレイヤー73近傍の観察ができ、表示画面として、図7に示した第一のレイヤー画面73aが表示されることとなる。 Thus, in observation with the first synchrotron radiation in tumor observation mode 1 selected by the operator, one wavelength of 700 nm is used, so the depth of the surgical field 1 is approximately 5 mm. As a result, the vicinity of the first layer 73 shown in FIG. 6 can be observed, and the first layer screen 73a shown in FIG. 7 is displayed as the display screen.

この第一のレイヤー73は、術者が肉眼で直接確認できる位置であり、表示された観察画像は、肉眼で見えている構造物が腫瘍か正常かを判断する情報、つまり、今現在の施術判断に大変有用な情報となる。従って、術者は、腫瘍観察モード1による画面表示内容を確認することで、より確実に現状の施術を進めることができる。 This first layer 73 is a position that can be directly confirmed by the operator with the naked eye. It will be very useful information for decision making. Therefore, by confirming the screen display contents in the tumor observation mode 1, the operator can proceed with the current treatment more reliably.

この腫瘍観察モード1では、深度約5mmの単一なレイヤーの観察情報しか得られないため、確実な腫瘍切除施術を行うには、さらに深いレイヤーでの観察情報が必要となる場合がある。この場合、術者は、操作部22より腫瘍観察モード2を選択入力することができる。 In this tumor observation mode 1, only a single layer of observation information with a depth of about 5 mm can be obtained, so observation information in a deeper layer may be required to perform reliable tumor resection. In this case, the operator can select and input tumor observation mode 2 from the operation unit 22 .

腫瘍観察モード2が選択された場合には、システム制御部20は、光源制御部10を制御して、一旦第一の放射光の発光を止めると同時に、第二の発光制御部9により、第二の発光回路8と第二の発光素子7を動作させる。この結果、第二の放射光である波長1000nm近傍のレーザー光を発光させることができる。この第二の放射光は、光混合部3と光源光学系2を通して均一な光として2次元的に術野1へ照射される。 When the tumor observation mode 2 is selected, the system control unit 20 controls the light source control unit 10 to once stop emitting the first emitted light, and at the same time, the second light emission control unit 9 causes the second emission control unit 9 to The second light emitting circuit 8 and the second light emitting element 7 are operated. As a result, laser light having a wavelength of about 1000 nm, which is the second emitted light, can be emitted. This second radiated light passes through the light mixer 3 and the light source optical system 2 and is two-dimensionally irradiated onto the surgical field 1 as uniform light.

この波長1000nm近傍の放射光は、第一の放射光である波長700nm近傍の第一の放射光よりも光損失量が少ない。このため、第二の放射光は、術野1に対して、第一の放射光よりもさらに深部まで到達する。第二の放射光の光損失特性は、図2に示したようになり、その到達深度としては、術野表面70に対して約20mmである。 This radiated light with a wavelength of about 1000 nm has a smaller amount of light loss than the first radiated light with a wavelength of about 700 nm, which is the first radiated light. Therefore, the second synchrotron radiation reaches the surgical field 1 deeper than the first synchrotron radiation. The light loss characteristic of the second radiant light is as shown in FIG.

また、第一の放射光と同様に、この第二の放射光もレーザー光であり、可干渉性を持つコヒーレントな光である。この光を生体に照射した場合、生体内の粒子により散乱された光が干渉し合うことで、術野1からの反射散乱光にランダムな模様としてスペックルパターンを得ることができる。 Moreover, like the first emitted light, this second emitted light is also laser light, which is coherent light having coherence. When a living body is irradiated with this light, light scattered by particles in the living body interferes with each other, so that a speckle pattern can be obtained as a random pattern in the reflected and scattered light from the surgical field 1 .

第二の放射光を発光させることにより、図6の術野表面70より約20mm深部の第三のレイヤー75からの反射散乱光が得られる。この反射散乱光は、撮像光学系11と光学フィルタ12にて波長1000nm近傍のみを通した光となった後、第二の撮像素子15と第二の映像信号処理部16にて光電変換と電気信号処理を行うことで、第二の映像信号に変換される。 By emitting the second emitted light, reflected scattered light from a third layer 75 about 20 mm deeper than the surgical field surface 70 in FIG. 6 is obtained. This reflected and scattered light is converted into light that only passes through the imaging optical system 11 and the optical filter 12 with a wavelength of about 1000 nm. By performing signal processing, it is converted into a second video signal.

映像処理演算部17は、第二の映像信号処理部16からの映像信号に対して、その位置ごとで周波数解析等の演算を行うことで、血流量に比例した情報を得ることができる。 The video processing calculation unit 17 can obtain information proportional to the blood flow rate by performing calculation such as frequency analysis on the video signal from the second video signal processing unit 16 for each position.

この測定によって得られた血流量の情報は、映像出力部19により、図4の特性に従って、血流量の多い部分は明るく、血流量の少ない部分は暗く、といった映像信号上の輝度変化という形に変換される。さらに、外部出力21に接続された外部モニターにて、図5に示すような変換後の映像信号が表示されることで、術者がその測定結果を撮像映像として確認することができる。 The blood flow information obtained by this measurement is converted by the video output unit 19 into the form of luminance changes on the video signal such that areas with high blood flow are bright and areas with low blood flow are dark, according to the characteristics shown in FIG. converted. Furthermore, by displaying the converted video signal as shown in FIG. 5 on the external monitor connected to the external output 21, the operator can confirm the measurement result as a captured video.

このように、術者が選択した腫瘍観察モード2による第二の放射光での観察では、1000nmの1波長を使用するため、術野1の深部は、約20mmとなる。この結果、図6に示した第三のレイヤー75近傍の観察ができ、表示画面として、図7に示した第三のレイヤー画面75aが表示されることとなる。 In this way, in the observation with the second synchrotron radiation in the tumor observation mode 2 selected by the operator, one wavelength of 1000 nm is used, so the depth of the surgical field 1 is approximately 20 mm. As a result, the vicinity of the third layer 75 shown in FIG. 6 can be observed, and the third layer screen 75a shown in FIG. 7 is displayed as the display screen.

この第三のレイヤー画像75aは、約20mmの深部レイヤーの観察結果であり、術者からは肉眼では見えない領域の情報である。 This third layer image 75a is an observation result of a deep layer of about 20 mm, and is information of a region that cannot be seen by the operator with the naked eye.

このように、術者は、まず腫瘍観察モード1にて、現状の施術の状態確認を行うため、術野上肉眼でほぼ確認できる表面に近い位置で、画像と肉眼による実態とを比較確認しながら、腫瘍切除を進めることができる。 In this way, the operator first confirms the current state of the treatment in tumor observation mode 1, so that the operator can compare and confirm the image with the naked eye at a position close to the surface of the surgical field that can be seen with the naked eye. , tumor resection can proceed.

さらに、術者は、その施術の要所にて、さらに深い位置まで腫瘍が存在するのか、あるいは、腫瘍の奥に正常部位、血管部など、ほかの構造物が存在するかなどを確認したい場合がある。このような場合には、術者は、次の施術アクションを起こす際に、組織の切除をこのまま続けてよいかどうかの展望的な確認を行うために、腫瘍観察モード2に切り替えることで、より深部の画像を観察できる。 In addition, when the operator wants to check whether the tumor exists in a deeper position at the key point of the operation, or whether there are other structures such as normal parts and blood vessels behind the tumor. There is In such a case, the operator switches to tumor observation mode 2 in order to make a prospective confirmation as to whether or not it is permissible to continue excision of the tissue when performing the next surgical action. Deep images can be observed.

つまり、必要に応じて術者が、腫瘍観察モード1による画像と腫瘍観察モード2による画像を選択的に利用することで、異なるレイヤーごとの腫瘍観察を、術中に非侵襲でリアルタイムに行うことができる。このため、ある程度の経験のある術者であれば、本実施の形態1に係る撮像装置を腫瘍の識別に併用することで、術者の経験度合、あるいは施術の難易度に寄らず、ほぼ同様な精度での施術が可能となり、大変有益である。 In other words, the operator can selectively use images in tumor observation mode 1 and tumor observation mode 2 as needed to observe tumors in different layers non-invasively and in real time during surgery. can. For this reason, if an operator with a certain amount of experience can use the imaging apparatus according to the first embodiment to identify a tumor, the results can be almost the same regardless of the operator's experience or the difficulty of the operation. It is possible to perform surgery with a high degree of accuracy, which is very beneficial.

上記では、波長700nm近傍の第一の放射光での腫瘍観察と、波長1000nm近傍の第二の放射光での腫瘍観察を、術者の選択操作にて表示のモードを切り替えて個別に行なう場合について説明した。しかしながら、本実施の形態1に係る撮像装置では、これら2つの腫瘍観察を同時に行う腫瘍観察モード3を設けることもできる。そこで、この腫瘍観察モード3について、次に説明する。 In the above case, the observation of the tumor with the first radiant light having a wavelength of about 700 nm and the observation of the tumor with the second radiant light having a wavelength of about 1000 nm are individually performed by switching the display mode by the operator's selection operation. explained. However, in the imaging apparatus according to Embodiment 1, it is also possible to provide a tumor observation mode 3 in which these two tumor observations are performed simultaneously. Therefore, this tumor observation mode 3 will be described below.

術者が操作部22より腫瘍観察モード3を選択することで、システム制御部20は、波長700nm近傍の第一の放射光と、波長1000nm近傍の第二の放射光とを同時に発光させるように制御する。 When the operator selects tumor observation mode 3 from the operation unit 22, the system control unit 20 simultaneously emits the first radiant light having a wavelength of approximately 700 nm and the second radiant light having a wavelength of approximately 1000 nm. Control.

具体的には、システム制御部20は、光源制御部10を通して、第一の発光制御部6と第一の発光回路5と第一の発光素子4とを動作させるとともに、第二の発光制御部9と第二の発光回路8と第二の発光素子7とを動作させる。 Specifically, the system control unit 20 operates the first light emission control unit 6, the first light emission circuit 5, and the first light emitting element 4 through the light source control unit 10, and operates the second light emission control unit 9, the second light emitting circuit 8 and the second light emitting element 7 are operated.

同時に発光された波長700nm近傍の第一の放射光と、波長1000nm近傍の第二の放射光は、光混合部3により混合された後、光源光学系2を通して2次元的に均一な光として、術野1に対して同時に照射される。 The first radiant light with a wavelength of about 700 nm and the second radiant light with a wavelength of about 1000 nm, which are emitted simultaneously, are mixed by the light mixing unit 3, and passed through the light source optical system 2 to form two-dimensionally uniform light. The operative field 1 is irradiated simultaneously.

これら2つの放射光は、レーザー光であり、可干渉性を持つコヒーレントな光であり、同時に照射される場合には、厳密には、相互に若干干渉することが考えられる。このような干渉問題に対しては、波長と位相の関係を実際には影響しないレベルに設定することで、相互の干渉をある程度抑制することが可能である。 These two emitted light beams are laser beams, which are coherent light beams having coherence. Strictly speaking, it is conceivable that they will interfere with each other to some extent when they are irradiated at the same time. With respect to such an interference problem, it is possible to suppress mutual interference to some extent by setting the relationship between wavelength and phase to a level that does not actually affect them.

本実施の形態1では、例えば、いずれか一方の発光波長の位相を定期的もしくは不定期的にずらすなどの制御動作を光源制御部10が実行することで、干渉対策を実施できる。 In Embodiment 1, for example, the light source control unit 10 performs a control operation such as regularly or irregularly shifting the phase of one of the emission wavelengths, so that interference countermeasures can be implemented.

ただし、2つの波長が、例えば150nm以上異なる、術野1への到達深度が5mm以上異なるなど、干渉の面で特徴的な関係性が事前に確認できている場合には、本開示のレベルにおける血流の測定には、実態として支障がないとして、複数の波長の干渉対策は特に行わなくても問題はない。 However, if a characteristic relationship in terms of interference can be confirmed in advance, such as two wavelengths differing by 150 nm or more and reaching depths to the surgical field 1 differing by 5 mm or more, at the level of the present disclosure Assuming that there is actually no problem in measuring blood flow, there is no problem even if no particular countermeasures against interference of multiple wavelengths are taken.

第一の放射光を発光させることにより、図6の術野表面70より約5mm深部の第一のレイヤー73から反射散乱光が得られる。また、第二の放射光を発光させることにより、図6の術野表面70より約20mm深部の第三のレイヤー75から反射散乱光が得られる。これらの反射散乱光は、撮像光学系11を通過した後、光学フィルタ12にて2種の波長に分けられる。 By emitting the first radiation, reflected scattered light is obtained from the first layer 73 about 5 mm deeper than the surgical field surface 70 in FIG. Further, by emitting the second synchrotron radiation, reflected scattered light can be obtained from the third layer 75 which is about 20 mm deeper than the surgical field surface 70 in FIG. After passing through the imaging optical system 11 , these reflected scattered lights are separated into two wavelengths by the optical filter 12 .

700nm近傍の波長は、第一の撮像素子13側にのみ透過され、第一の映像信号処理部14にて光電変換と電気信号処理が行われることで、第一の映像信号が生成される。一方、1000nm近傍の波長は、第二の撮像素子15側にのみ透過され、第二の映像信号処理部16にて光電変換と電気信号処理が行われることで、第二の映像信号が生成される。 A wavelength near 700 nm is transmitted only to the first imaging element 13 side, and photoelectric conversion and electrical signal processing are performed in the first video signal processing unit 14 to generate a first video signal. On the other hand, wavelengths in the vicinity of 1000 nm are transmitted only to the second imaging element 15 side, and are subjected to photoelectric conversion and electrical signal processing in the second video signal processing unit 16 to generate a second video signal. be.

映像処理演算部17は、第一の映像信号処理部14と第二の映像信号処理部16からの2種の映像信号を、個別かつ同時に、その位置ごとで周波数解析等の演算を行うことで、2種の波長ごとに、血流量に比例した情報を同時に得ることができる。 The video processing calculation unit 17 performs calculations such as frequency analysis on the two types of video signals from the first video signal processing unit 14 and the second video signal processing unit 16 individually and simultaneously for each position. , information proportional to the blood flow can be obtained simultaneously for each of the two wavelengths.

この測定によって得られた2種の波長ごとの血流量の情報は、映像出力部19により、図4の特性に従って、血流量の多い部分は明るく、血流量の少ない部分は暗く、といった映像信号上の輝度変化という形に変換される。さらに、外部出力21に接続された外部モニターにて、変換後の映像信号が表示されることで、術者が2種の測定結果を個別の撮像映像として同時に確認することができる。 The blood flow information for each of the two wavelengths obtained by this measurement is processed by the image output unit 19 according to the characteristics shown in FIG. is converted into a luminance change of Furthermore, the video signal after conversion is displayed on the external monitor connected to the external output 21, so that the operator can simultaneously confirm the two types of measurement results as separate captured images.

この腫瘍観察モード3では、2種の観察画像を同じ画面に表示させることで、術者が同時に観察可能である。図8は、本開示の実施の形態1に係る撮像装置において、同時観察表示を行う具体例を示した図である。表示方法としては、図8では、実際の肉眼での術野1に近い、深部の浅い第一のレイヤー画面73aを比較的大きめに表示させ、参考レベルとしての深部の深い第三のレイヤー画面75aを比較的小さめにして、並べて表示させている。 In this tumor observation mode 3, two types of observation images are displayed on the same screen so that the operator can observe them simultaneously. FIG. 8 is a diagram showing a specific example of performing simultaneous observation display in the imaging device according to Embodiment 1 of the present disclosure. As a display method, in FIG. 8, a shallow first layer screen 73a close to the actual operative field 1 with the naked eye is displayed relatively large, and a deep third layer screen 75a is displayed as a reference level. are made relatively small and displayed side by side.

さらに、この大小の位置を入れ替える表示モード、あるいは一方の画面上の一部にもう一方の画面を大きさを変えて重ねて表示させる表示モードなどを備えることで、術者は、必要に応じてこれらの表示モードを適宜、選択切り替えすることが可能となる。 Furthermore, by providing a display mode that switches the position of this large and small, or a display mode that changes the size of one screen and superimposes it on a part of the other screen, the operator can It is possible to select and switch between these display modes as appropriate.

なお、上記では、表示画面としては、測定した血流量を画像化した観察画像のみをモニター表示している。これに加えて、本開示では、術者の肉眼レベルでの確認あるいは術野画像の記録を行うために、第一の放射光での撮像画像を、図7あるいは図8で示したような術野画像78としてそのまま表示させ、術野モニターとして使用するモードを備えることもできる。 In the above description, only the observed image obtained by imaging the measured blood flow is displayed on the monitor as the display screen. In addition to this, in the present disclosure, in order to perform confirmation at the operator's naked eye level or to record an image of the operative field, an image captured with the first synchrotron radiation is captured by the surgical operator as shown in FIG. 7 or 8 . It is also possible to provide a mode in which the field image 78 is displayed as it is and used as a surgical field monitor.

観察画像を同時に表示させる表示モードとしては、図7のように、レイヤーごとに切り替えて個別に表示させる方法、図8のように、複数の画像を並べて、もしくは重ねて表示させる方法などを採用することができる。そして、術者はこれらの表示モードの中から、状況に応じて所望の表示モードを選択することが可能である。 As a display mode for simultaneously displaying observed images, a method of switching and displaying each layer individually as shown in FIG. 7, and a method of displaying a plurality of images side by side or overlapping each other as shown in FIG. 8 are adopted. be able to. The operator can select a desired display mode from among these display modes according to the situation.

また、通常の撮像画像は、光源が近赤外のため、基本的にはモノクロ画像となるが、必要に応じて、淡色もしくは、疑似カラーで表示させることも可能である。 Also, since the light source is near-infrared, a normal captured image is basically a monochrome image, but it is also possible to display it in a light color or a pseudo-color if necessary.

また、血流計測の結果については、図4に示した表示特性に基づいて、血流量の変化を輝度変化に変換して画面表示させる場合について説明したが、血流量-輝度の表示特性以外の表示特性を採用することもできる。 Regarding the results of blood flow measurement, the case where changes in blood flow are converted into brightness changes and displayed on the screen based on the display characteristics shown in FIG. 4 has been described. Display characteristics can also be employed.

図9は、本開示の実施の形態1に係る撮像装置の血流量-色彩の表示特性を示した図である。図9に示した血流量-色彩の表示特性例は、撮像映像に基づきレーザスペックル血流計測を行った結果を、色彩の変化で画像表示する場合の表示特性例を示している。X軸は、血流量を表し、Y軸は、色彩を表している。 FIG. 9 is a diagram showing blood flow-color display characteristics of the imaging device according to Embodiment 1 of the present disclosure. The example of blood flow-color display characteristics shown in FIG. 9 shows an example of display characteristics when the result of performing laser speckle blood flow measurement based on a captured image is displayed as an image with changes in color. The X-axis represents blood flow and the Y-axis represents color.

図9では、先の図4と同様に、血流量の変化に対して色彩の変化が直線的な第一の色彩表示特性80と、腫瘍領域54が識別しやすいよう血流量が少ない部分の色の変化がより大きくなるような非直線的な第二の色彩表示特性81の2種の表示特性を例示している。 In FIG. 9, as in FIG. 4 above, a first color display characteristic 80 in which the color changes linearly with respect to changes in blood flow, and a color display characteristic 80 for portions with low blood flow so that the tumor region 54 can be easily identified. 2 illustrates two types of display characteristics, a non-linear second color display characteristic 81 in which the change in is greater.

図9に示すように、血流量の変化を色彩変化に変換した観察画像を画面表示させることも可能である。一般的に、色彩の変化は、人の精神的な面に影響することがある。このため、通常は、輝度変化の表示を行い、術者が必要に応じて色彩変化表示も選択可能とすることが考えられる。 As shown in FIG. 9, it is also possible to display on the screen an observation image in which changes in blood flow are converted into color changes. In general, color changes can affect people's mental aspects. For this reason, it is conceivable to normally display a change in luminance, and to enable the operator to select a change in color display as necessary.

図9では、血流量の変化に対して色彩の変化が直線的な第一の色彩表示特性80と、血流量の変化に対して色彩の変化が非直線的な第二の色彩表示特性81の2種の特性を例示している。術者は、状況に応じて、所望の色彩表示特性を選択可能である。 FIG. 9 shows a first color display characteristic 80 in which the color change is linear with respect to changes in blood flow, and a second color display characteristic 81 in which color changes are nonlinear with respect to changes in blood flow. Two properties are exemplified. The operator can select desired color display characteristics depending on the situation.

通常は、非直線的な第二の色彩表示特性81にて表示させることで、腫瘍領域54がより識別しやすいように、血流量が少ない部分の色の変化を、より大きな変化量として表示させることができる。 Usually, by displaying with the non-linear second color display characteristic 81, the color change in the portion with low blood flow is displayed as a larger amount of change so that the tumor region 54 can be more easily identified. be able to.

なお、図4および図9の表示特性は一例であり、血流測定時の腫瘍部位61と正常部位とのレベル差が多く、その識別性がより高くなるような特性が望ましい。そのため、本開示に係る撮像装置では、特性固定のモ-ドとは別に、計測結果の観察画像を見ながら、術者が、直接操作して、腫瘍をより識別しやすい画像となるように、特性を可変できるモードも設けられている。 The display characteristics shown in FIGS. 4 and 9 are only examples, and it is desirable to have characteristics such that there is a large level difference between the tumor site 61 and the normal site during blood flow measurement, and the distinguishability between the tumor site and the normal site is higher. Therefore, in the imaging apparatus according to the present disclosure, apart from the characteristic fixed mode, the operator directly operates while looking at the observation image of the measurement result, so that the tumor can be easily identified. There is also a mode in which the characteristics can be changed.

図10は、本開示の実施の形態1に係る撮像装置の血流量-輝度の表示特性を、術者の操作により変更する場合の説明図である。術者は、例えば、図10の第四の輝度表示特性57のように、画面を見ながら、血流量の差異が識別しやすくなるように、直線の傾きを可変することで、所望の表示特性に変更することができる。 FIG. 10 is an explanatory diagram of a case where the blood flow volume-luminance display characteristics of the imaging apparatus according to Embodiment 1 of the present disclosure are changed by an operator's operation. For example, the operator can obtain the desired display characteristic by changing the slope of the straight line so that the difference in the blood flow can be easily identified while viewing the screen, for example, as in the fourth luminance display characteristic 57 in FIG. can be changed to

また、術者は、腫瘍を発見した時点で、例えばマウスでポインタを動かしてクリックするように、図1の操作部22から、その位置を入力することで、システム制御部20に腫瘍部位61を認識させることができる。 When the operator discovers a tumor, the operator inputs the position of the tumor from the operation unit 22 in FIG. can be recognized.

従って、システム制御部20は、術者によるこのような入力操作が行われた以降の表示を行う際には、入力された腫瘍部位61の明るさを起点に、腫瘍部位61と正常部位との差異をより明確に表示できるように、表示特性を変更することができる。 Therefore, when performing display after such an input operation by the operator, the system control unit 20 uses the input brightness of the tumor site 61 as a starting point to distinguish between the tumor site 61 and the normal site. The display characteristics can be changed so that the differences can be displayed more clearly.

このときの表示特性例としては、図4に示した第三の輝度表示特性56、あるいは図10に示した第五の表示特性が考えられる。入力された腫瘍位置の血流量が、図4の腫瘍領域54の範囲内であれば、図4に示した第三の輝度表示特性56を採用して表示を行い、腫瘍領域をほぼ黒固定とすることで、腫瘍部位61と正常部位との差異を明確化することができる。 As examples of display characteristics at this time, the third luminance display characteristics 56 shown in FIG. 4 or the fifth display characteristics shown in FIG. 10 can be considered. If the blood flow rate at the input tumor position is within the range of the tumor region 54 in FIG. 4, display is performed using the third luminance display characteristic 56 shown in FIG. By doing so, the difference between the tumor site 61 and the normal site can be clarified.

同様に、入力された腫瘍位置の血流量が、図10の腫瘍領域54の範囲内であれば、図10に示した第五の輝度表示特性58を採用して表示を行い、腫瘍領域をほぼ黒固定とすることで、腫瘍部位61と正常部位との差異を明確化することができる。 Similarly, if the blood flow at the input tumor position is within the range of the tumor region 54 of FIG. 10, display is performed using the fifth luminance display characteristic 58 shown in FIG. The black fixation makes it possible to clarify the difference between the tumor site 61 and the normal site.

本開示に係る撮像装置では、図1の入力部23より、手術前に採取されたMRIあるいはCTでの腫瘍を含む患部の画像を本システムに取り込むことができる構成となっている。また、手術ナビゲーションの画像あるいは情報の入力も、入力部23を介して可能な構成となっている。 The imaging apparatus according to the present disclosure is configured such that an image of an affected area including a tumor obtained by MRI or CT obtained before surgery can be imported into the system from the input unit 23 of FIG. Also, an image or information for surgical navigation can be input via the input unit 23 .

このような構成により、システム制御部20および映像出力部19は、血流量の観察画像と、入力部23より取り込んだ画像との位置を合わせ込んだ上での合成画像の表示、観察画像と取り込んだ画像との同時表示など、種々の表示を行うことができる。 With such a configuration, the system control unit 20 and the video output unit 19 display a composite image after aligning the positions of the observation image of the blood flow and the image captured from the input unit 23, and capture the observation image. Various displays can be performed, such as simultaneous display with an image.

換言すると、本開示に係る撮像装置は、現在の観察映像に対して、他の有益な情報あるいは画像を重畳表示させるような拡張現実的な機能を備え、腫瘍部位61の識別性をさらに高めることができる。 In other words, the imaging device according to the present disclosure has an augmented reality function that superimposes other useful information or images on the current observation video, thereby further enhancing the identifiability of the tumor site 61. can be done.

さらに、本開示に係る撮像装置では、図7の観察結果の映像表示を行う際に、腫瘍部位61、血管部63などの構造物を、その形状、血流量などの特徴的情報に基づき、識別表示させることができる構成となっている。 Furthermore, in the imaging apparatus according to the present disclosure, when displaying the image of the observation result in FIG. It is configured so that it can be displayed.

具体的には、図1の映像処理演算部17は、構造物の識別を自動で行うとともに、映像出力部19を通して観察画像に対して、識別した結果を重畳もしくは個別に表示させることができる。その際、血管部あるいは正常部位らしい構造物が深部に存在する場合などには、警告的な表示、ブザーの鳴動などを併用することにより、術者に対する告知機能を備える構成となっている。 Specifically, the video processing calculation unit 17 in FIG. 1 can automatically identify the structure, and can superimpose or individually display the identification result on the observed image through the video output unit 19 . At that time, when there is a blood vessel or a structure that seems to be a normal site in a deep part, a warning display, a buzzer sound, or the like is used in combination to provide a notification function to the operator.

また、本開示に係る撮像装置では、本開示の撮像装置を使用して手術を行った患者さんの画像、観察結果などの情報を、システム制御部20に記憶させておくことができる構成となっている。同じ患者さんの再手術時などには、記憶された情報を読み出した上で、図8のような同時表示、あるいは図7のような階層表示を、適宜切り替えて表示させることが可能である。以前の手術情報を参照することで、構造物がより正確に分かるため、さらに高精度な施術が可能となる。 In addition, in the imaging apparatus according to the present disclosure, information such as images and observation results of patients who have undergone surgery using the imaging apparatus according to the present disclosure can be stored in the system control unit 20. ing. When the same patient undergoes reoperation, etc., after reading out the stored information, it is possible to switch between the simultaneous display as shown in FIG. 8 and the hierarchical display as shown in FIG. 7 as appropriate. By referring to the previous surgery information, the structure can be understood more accurately, so the surgery can be performed with higher precision.

さらに、本開示に係る撮像装置は、測定結果に対して複数の学習機能を備えた構成とすることができる。第一の学習機能としては、腫瘍部位61を識別しやすくする目的で、撮像制御部18および映像処理演算部17により、血流量の測定結果に基づいて腫瘍部位61の血流量を学習させる。 Furthermore, the imaging device according to the present disclosure can be configured to have a plurality of learning functions for measurement results. As a first learning function, the blood flow rate of the tumor site 61 is learned by the imaging control unit 18 and the video processing calculation unit 17 based on the blood flow rate measurement results for the purpose of facilitating identification of the tumor site 61 .

そして、撮像制御部18および映像処理演算部17は、学習結果として、1画面上に表示される血流量差が、例えば256階調上のセンター中心に±50(絶対値で100)以上になるように、図10に示した第四の輝度表示特性57の傾きを所望の値に可変設定する。このような学習機能を利用することで、血流量の測定結果に応じて、所望の表示特性に可変させて、表示の輝度レベルの最適化を図ることができる。 Then, the imaging control unit 18 and the image processing calculation unit 17 learn that the difference in blood flow displayed on one screen is, for example, ±50 (100 in absolute value) or more centered on the 256th gray scale. Thus, the slope of the fourth luminance display characteristic 57 shown in FIG. 10 is variably set to a desired value. By using such a learning function, it is possible to optimize the luminance level of the display by changing the desired display characteristics according to the blood flow measurement result.

さらに、第二の学習機能としては、血管部63、神経などの構造物の識別を精度よく行う目的で、撮像制御部18および映像処理演算部17により、頭蓋内の構造物の位置をあらかじめシステムに学習(インプット)させる。 Furthermore, as a second learning function, the positions of intracranial structures are preliminarily determined by the imaging control unit 18 and the image processing calculation unit 17 for the purpose of accurately identifying structures such as blood vessels 63 and nerves. to learn (input).

そして、撮像制御部18および映像処理演算部17は、血流量の測定結果に応じて、あらかじめ学習した構造物の存在を予測しながら、虚血部位に相当する腫瘍部位61と正常部位との識別を行うことができる。この場合には、例えば、手術ナビゲーションとの連携などにより、システムが施術位置を把握できる状態であることが前提となる。 Then, the imaging control unit 18 and the image processing calculation unit 17 discriminate between the tumor site 61 corresponding to the ischemic site and the normal site while predicting the existence of the structure learned in advance according to the blood flow measurement result. It can be performed. In this case, for example, it is assumed that the system is in a state of being able to ascertain the surgical position through cooperation with surgical navigation.

例えば、撮像制御部18および映像処理演算部17は、術野1における血管部あるいは神経に関する形状情報をあらかじめ取得しておく。さらに、撮像制御部18および映像処理演算部17は、演算された血流量のうち、あらかじめ決められた閾値以上の部分を正常部位として特定するとともに、正常部位と形状情報との位置合せを行うことで、正常部位に対する虚血部位に相当する腫瘍部位61の位置を特定する第二の学習機能を実行することができる。 For example, the imaging control unit 18 and the image processing calculation unit 17 acquire in advance shape information related to blood vessels or nerves in the surgical field 1 . Furthermore, the imaging control unit 18 and the image processing calculation unit 17 identify a portion of the calculated blood flow volume that is equal to or greater than a predetermined threshold value as a normal region, and align the normal region with the shape information. , a second learning function can be performed to locate the tumor site 61 corresponding to the ischemic site relative to the normal site.

この結果、映像出力部19は、生成した表示情報に対して、第二の学習機能により特定された腫瘍部位61の位置に対して血管部63あるいは神経が表示されるように表示情報を修正して映像信号を出力することができる。 As a result, the image output unit 19 modifies the generated display information so that the blood vessel part 63 or the nerve is displayed with respect to the position of the tumor site 61 specified by the second learning function. can output a video signal.

また、本開示に係る撮像装置では、術者に腫瘍部位61を識別させる目的において、図7に示すように、血流量に相当する情報を画像表示するだけでなく、より識別しやすい目的にて別の表示手段を備えるように構成することができる。 Further, in the imaging apparatus according to the present disclosure, for the purpose of allowing the operator to identify the tumor site 61, as shown in FIG. It can be configured to provide a separate display means.

例えば、映像出力部19は、図10の第五の輝度表示特性58のように、血流量をほぼ2値に変換して表示させることで、腫瘍部位61を明確に表示させることが可能である。 For example, the video output unit 19 can display the tumor site 61 clearly by converting the blood flow into approximately binary values and displaying them, as in the fifth luminance display characteristic 58 of FIG. .

図11は、本開示の実施の形態1に係る撮像装置の観察表示に関する第一の画像例を示した図である。第一の画像例では、図11において腫瘍部位61bと血管部63bで示されるように、コントラスト的に視認性を向上させた術野重畳画像79aが表示されている。 FIG. 11 is a diagram showing a first image example regarding observation display of the imaging device according to Embodiment 1 of the present disclosure. In the first image example, as indicated by a tumor site 61b and a blood vessel section 63b in FIG. 11, an operative field superimposed image 79a with improved visibility in terms of contrast is displayed.

図11に示したような表示機能は、例えば、一度、他の表示特性にて腫瘍部位61bの位置を特定した後で、この第五の輝度表示特性58に切り替え、腫瘍の表示をより明確にした上で施術を続けるといった使用方法に適している。 The display function as shown in FIG. 11, for example, is switched to the fifth luminance display characteristic 58 after the position of the tumor site 61b is once specified by another display characteristic, and the tumor is displayed more clearly. It is suitable for usage such as continuing the treatment after doing it.

さらに、本開示では、術者の肉眼レベルにより近い映像情報として、波長700nm近傍の第一の放射光での撮像画像に対して、血流量に相当する観察画像あるいは情報を重畳させてモニター表示を行う機能を有するように構成することができる。 Furthermore, in the present disclosure, as video information closer to the naked eye level of the operator, an observation image or information corresponding to the blood flow is superimposed on the image captured with the first radiation having a wavelength of about 700 nm and displayed on the monitor. can be configured to have the ability to

図12は、本開示の実施の形態1に係る撮像装置の観察表示に関する第二の画像例を示した図である。第二の画像例では、映像処理演算部17と撮像制御部18と映像出力部19とにおいて、図12に示したような術野重畳画像79bを表示させている。 FIG. 12 is a diagram showing a second image example regarding observation display of the imaging device according to Embodiment 1 of the present disclosure. In the second image example, the video processing calculation unit 17, the imaging control unit 18, and the video output unit 19 display the surgical field superimposed image 79b as shown in FIG.

この第二の画像例では、図7の術野画像78のような術野表面70の撮像画像に対し、第三のレイヤー画面75aの観察画像を重畳させている。その際、自動での識別結果を、『腫瘍』を示す文字情報61cあるいは『血管部』を示す文字情報63cといった文字情報として、同時に画面に表示させることができる。 In this second image example, the observed image of the third layer screen 75a is superimposed on the captured image of the surgical field surface 70 such as the surgical field image 78 of FIG. At this time, the automatic identification result can be simultaneously displayed on the screen as character information such as character information 61c indicating "tumor" or character information 63c indicating "vascular part".

さらに、図11の術野重畳画像79aのように、第三のレイヤー画面75aの観察画像から、例えば腫瘍部位61、血管部63などを、図10に示した第五の表示特性を用いて2値画像に変換して抽出し、特定の情報のみを重畳することができる。この結果、さらに視認性のよい表示画像が得られる。 Furthermore, like the surgical field superimposed image 79a in FIG. 11, for example, the tumor site 61, the blood vessel part 63, etc. are displayed from the observation image of the third layer screen 75a using the fifth display characteristic shown in FIG. It can be converted into a value image, extracted, and only specific information can be superimposed. As a result, a display image with better visibility can be obtained.

術野重畳画像79a、79bのような表示を行うことにより、術者は、より肉眼での観察に近い映像状態にて、さほど違和感を覚えることなく、自らの識別経験を活かしながら、腫瘍部位61の識別を行うことが可能となる。 By displaying the superimposed images 79a and 79b of the surgical field, the operator can view the tumor site 61 in a video state closer to observation with the naked eye without feeling uncomfortable and making use of his or her identification experience. can be identified.

本開示は、レーザスペックルによる血流量測定を行うため、その血流量の絶対値を求めることができる。例えば、画面上の位置を指定した上で、その絶対値を表示するモードを設ける構成とすることができる。このような構成を採用する場合には、術者は、必要に応じて、そのモードを選択できる。つまり、術者は、簡単な操作入力に基づいて術野1の血流量の絶対値をそのレイヤーごとで表示させることができ、血流量を定量的に把握することが可能となる。 Since the present disclosure performs blood flow measurement using laser speckle, the absolute value of the blood flow can be obtained. For example, it is possible to provide a mode in which the position on the screen is specified and the absolute value thereof is displayed. When adopting such a configuration, the operator can select the mode as necessary. That is, the operator can display the absolute value of the blood flow in the surgical field 1 for each layer based on a simple operation input, and can quantitatively grasp the blood flow.

ただし、本開示は、術者が腫瘍部位61と正常部位とをより分かりやすく識別できることに主眼を置いており、血流量の絶対値の計測は必ずしも必須ではなく、腫瘍識別機能の性能確保を優先して、システムを構築している。 However, the present disclosure focuses on enabling the operator to distinguish between the tumor site 61 and the normal site in a more comprehensible manner, and the measurement of the absolute value of the blood flow is not necessarily essential, and priority is given to ensuring the performance of the tumor identification function. and build the system.

例えば、血流量の絶対値計測は、術野表面70に近い第一のレイヤー73のみとし、深度の深い他のレイヤーに関しては、揺らぎ、損失などの影響から絶対値誤差が大きくなる場合には、腫瘍の識別機能のみに特化してもよい。 For example, the absolute value of the blood flow is measured only in the first layer 73 close to the surface of the surgical field 70, and the other deep layers have large absolute value errors due to fluctuations, losses, etc. It may be specialized only for the function of recognizing tumors.

使用する波長については、図3を基本とするが、近赤外のレーザーであれば、これらに限らず設定可能であり、場合によっては可視の赤色領域の波長を使用してもよい。ただし、絶対値計測までを考慮し、精度よく計測を行うためには、波長1nm以下の狭帯域のレーザー発光素子が望ましい。 The wavelengths to be used are based on those shown in FIG. 3, but any near-infrared laser can be used. In some cases, wavelengths in the visible red region may be used. However, in order to perform accurate measurement in consideration of absolute value measurement, it is desirable to use a narrow-band laser emitting element with a wavelength of 1 nm or less.

上記では、第一の撮像素子13と第二の撮像素子15を用いている。ここで、第一の撮像素子13は、可視から700nm近傍を含む900nmあたりまでの波長の感度帯域を持つシリコンベースのセンサーであり、安価な民生産業用の中から比較的広帯域な素子を選択することができる。 In the above description, the first imaging element 13 and the second imaging element 15 are used. Here, the first imaging device 13 is a silicon-based sensor having a sensitivity band of wavelengths from visible to around 900 nm including near 700 nm, and a relatively wide band device is selected from among inexpensive consumer products. be able to.

一方、第二の撮像素子15は、波長が、近赤外であっても900~1500nmもしくは最大2000nmといった赤外に近く、「第二の生体の窓」に感度帯域を持つ特殊な撮像素子である。これは、例えばInGaAsベースのCCDなど、この帯域でも十分な感度を持つセンサーを選択することができる。 On the other hand, the second imaging device 15 is a special imaging device with a wavelength close to infrared such as 900 to 1500 nm or a maximum of 2000 nm even if it is near infrared, and has a sensitivity band in the "second biological window". be. This allows the selection of sensors with sufficient sensitivity even in this band, for example InGaAs-based CCDs.

上記のように、本実施の形態1では、それぞれの波長に合わせた異なる撮像素子を使用しているが、可視帯域もしくは600nmから2000nmまでの波長の広帯域な感度特性を持つ同じ撮像素子を複数用いてもよい。こうすることで、回路構成の簡素化、センサー間の感度バラツキ抑制、などの効果が得られる。 As described above, in the first embodiment, different imaging elements are used for each wavelength. may By doing so, effects such as simplification of the circuit configuration and suppression of variations in sensitivity between sensors can be obtained.

また、本実施の形態1における撮像素子は、複数でなく一つの撮像素子で行ってもよいことは言うまでもない。その際には、前述の可視もしくは波長600nm~2000nm近傍の近赤外帯域感度を有する撮像素子を使用し、発光側と連携の上、時間分割での同期発光と撮像を行うように、システム制御部20による制御が行われる。 Further, it goes without saying that the imaging device in the first embodiment may be performed by one imaging device instead of a plurality of imaging devices. In that case, the above-mentioned visible or near-infrared band sensitivity in the vicinity of 600 nm to 2000 nm is used, and in cooperation with the light emitting side, the system is controlled so that synchronized light emission and imaging are performed in time division. Control by the unit 20 is performed.

このときは、例えば、1フレームごとに、波長700nmと波長1000nmとの発光波長切替えを行う。そして、撮像時において、700nm発光フレーム期間での撮像と演算により図7の第一のレイヤー画面73aを構築し、1000nm発光フレーム期間での撮像と演算により、第三のレイヤー画面75aを構築する。 At this time, for example, the emission wavelength is switched between a wavelength of 700 nm and a wavelength of 1000 nm for each frame. During imaging, the first layer screen 73a in FIG. 7 is constructed by imaging and calculation in the 700 nm emission frame period, and the third layer screen 75a is constructed by imaging and calculation in the 1000 nm emission frame period.

さらに、安価であるとともに供給および性能が安定し、かつ取り扱いが容易な民生産業用レベルの撮像素子を使ってもよい。その際には、波長1100nmあたりまでの近赤外帯域感度が十分でなくとも、例えば、波長850nmあたりを十分な感度で撮像できる性能のものであってもよい。 In addition, a consumer-grade imaging device that is inexpensive, stable in supply and performance, and easy to handle may be used. In that case, even if the sensitivity in the near-infrared band up to a wavelength of about 1100 nm is not sufficient, for example, it may have a performance capable of imaging with a sufficient sensitivity at a wavelength of about 850 nm.

この場合には、第二の発光波長を850nmとした上で、1フレームごとに波長700nmと波長850nmの発光波長切替えが行われる。そして、撮像時において、700nm発光フレーム期間での撮像と演算により、図7の第一のレイヤー画面73aの画面を構築し、850nm発光フレーム期間での撮像と演算により、第二のレイヤー画面74aの画面を構築する。 In this case, after setting the second emission wavelength to 850 nm, the emission wavelength is switched between the wavelength of 700 nm and the wavelength of 850 nm for each frame. Then, at the time of imaging, the screen of the first layer screen 73a in FIG. 7 is constructed by imaging and calculation in the 700 nm emission frame period, and the second layer screen 74a is constructed by imaging and calculation in the 850 nm emission frame period. Build a screen.

この場合には、さほど深い深度ではないが、例えば、5mmと10mmの異なる深度での腫瘍観察システムを、安価に構築することが可能となる。 In this case, although the depth is not so deep, for example, it is possible to construct a tumor observation system at different depths of 5 mm and 10 mm at low cost.

本実施の形態1では、脳腫瘍の識別を想定して記載しているが、血流量の相違にて識別可能であれば、脳以外の腫瘍部位61に使用できるのは言うまでもない。その際、例えば、胃もしくは腸・膀胱など、15mmの深部での観察で十分な場合であれば、前述のような安価な撮像素子による観察システムが構築可能である。 In the first embodiment, the identification of a brain tumor is assumed, but it goes without saying that it can be used for a tumor site 61 other than the brain as long as it can be identified based on the difference in blood flow. In this case, for example, if observation at a depth of 15 mm, such as the stomach or intestines/bladder, is sufficient, it is possible to construct an observation system using an inexpensive imaging device as described above.

さらには、術野組織の血流量を計測し、これに相当する情報を表示することで、腫瘍部位61の特定だけでなく、虚血部位の観察、経過確認などの応用が可能であることは言うまでもない。この場合には、深部ごとに、各測定レイヤーにて定量的な血流量が把握できるという効果がある。 Furthermore, by measuring the blood flow in the tissue in the surgical field and displaying information corresponding to the measurement, it is possible to not only specify the tumor site 61 but also observe the ischemic site and check progress. Needless to say. In this case, there is an effect that a quantitative blood flow can be grasped in each measurement layer for each deep part.

実施の形態2.
以下、本開示の光源装置の実施の形態2を、図を用いて説明する。本実施の形態2では、4つの発光素子を用いる場合について説明する。なお、本実施の形態2では、図13~図15を新たに追加するとともに、先の実施の形態1で使用した図1~図12も必要に応じて流用しながら、説明する。
Embodiment 2.
A second embodiment of the light source device of the present disclosure will be described below with reference to the drawings. In Embodiment Mode 2, the case of using four light emitting elements will be described. 13 to 15 are newly added to the second embodiment, and FIGS. 1 to 12 used in the first embodiment are also used as necessary.

図13は、本開示の実施の形態2に係る撮像装置の光源系の概略ブロック図である。第一の発光素子4と第二の発光素子7と第三の発光素子90と第四の発光素子93は、ともにレーザー発光素子が用いられている。 FIG. 13 is a schematic block diagram of a light source system of an imaging device according to Embodiment 2 of the present disclosure. The first light emitting element 4, the second light emitting element 7, the third light emitting element 90, and the fourth light emitting element 93 are all laser light emitting elements.

第一の発光素子4は、第一の発光回路5と、第一の発光制御部6により発光動作を行うとともに、光源制御部10によりその動作が制御される。第二の発光素子7は、第二の発光回路8と、第二の発光制御部9により発光動作を行うとともに、光源制御部10によりその動作が制御される。 The first light emitting element 4 performs light emitting operation by the first light emitting circuit 5 and the first light emission control section 6 , and its operation is controlled by the light source control section 10 . The second light emitting element 7 emits light by the second light emitting circuit 8 and the second light emission control section 9 , and its operation is controlled by the light source control section 10 .

第三の発光素子90は、第三の発光回路91と、第三の発光制御部92により発光動作を行うとともに、光源制御部10によりその動作が制御される。第四の発光素子93は、第四の発光回路94と、第四の発光制御部95により発光動作を行うとともに、光源制御部10によりその動作が制御される。 The third light emitting element 90 emits light by means of a third light emitting circuit 91 and a third light emission control section 92 and its operation is controlled by the light source control section 10 . The fourth light emitting element 93 emits light by means of the fourth light emitting circuit 94 and the fourth light emission control section 95 , and its operation is controlled by the light source control section 10 .

第一の発光素子4、第二の発光素子7、第三の発光素子90、および第四の発光素子93からなる4つの発光素子のそれぞれからの放射光は、光混合部3により合成されて、光源光学系2を通して術野1へ照射される。 The light emitted from each of the four light emitting elements consisting of the first light emitting element 4, the second light emitting element 7, the third light emitting element 90, and the fourth light emitting element 93 is synthesized by the light mixer 3. , through a light source optical system 2 onto an operating field 1 .

図14は、本開示の実施の形態2に係る撮像装置の撮像系の概略ブロック図である。術野1からの反射光は、撮像光学系11から、4つの光学フィルタである第一の光学フィルタ96、第二の光学フィルタ97、第三の光学フィルタ98、および第四の光学フィルタ101のそれぞれに導光される。 FIG. 14 is a schematic block diagram of an imaging system of an imaging device according to Embodiment 2 of the present disclosure. Reflected light from the surgical field 1 passes through the imaging optical system 11 and passes through four optical filters: a first optical filter 96 , a second optical filter 97 , a third optical filter 98 , and a fourth optical filter 101 . Light is guided to each.

第一の光学フィルタ96を通過した反射光は、第一の撮像素子13で光電変換された後、第一の映像信号処理部14で信号処理され、映像処理演算部17に入力される。第二の光学フィルタ97を通過した反射光は、第二の撮像素子15で光電変換された後、第二の映像信号処理部16で信号処理され、映像処理演算部17に入力される。 The reflected light that has passed through the first optical filter 96 is photoelectrically converted by the first imaging element 13 , signal-processed by the first video signal processing unit 14 , and input to the video processing calculation unit 17 . The reflected light that has passed through the second optical filter 97 is photoelectrically converted by the second imaging element 15 , signal-processed by the second video signal processing unit 16 , and input to the video processing calculation unit 17 .

第三の光学フィルタ98を通過した反射光は、第三の撮像素子99で光電変換された後、第三の映像信号処理部100で信号処理され、映像処理演算部17に入力される。第四の光学フィルタ101を通過した反射光は、第四の撮像素子102で光電変換された後、第四の映像信号処理部103で信号処理され、映像処理演算部17に入力される。 The reflected light that has passed through the third optical filter 98 is photoelectrically converted by the third imaging device 99 , signal-processed by the third video signal processing unit 100 , and input to the video processing calculation unit 17 . The reflected light that has passed through the fourth optical filter 101 is photoelectrically converted by the fourth image sensor 102 , signal-processed by the fourth video signal processor 103 , and input to the video processor 17 .

第一の映像信号処理部14、第二の映像信号処理部16、第三の映像信号処理部100、および第四の映像信号処理部103と、映像処理演算部17と、映像出力部19と、外部出力21とを通過した映像信号は、先の実施の形態1と同様の処理が施された後、外部のモニターに映像出力される。 A first video signal processing unit 14, a second video signal processing unit 16, a third video signal processing unit 100, a fourth video signal processing unit 103, a video processing calculation unit 17, and a video output unit 19 , and the external output 21 are processed in the same manner as in the first embodiment, and then output to an external monitor.

ここで、本実施の形態2において、第一の撮像素子13と第一の映像信号処理部14のまとまり、第二の撮像素子15と第二の映像信号処理部16のまとまり、第三の撮像素子99と第三の映像信号処理部100のまとまり、および第四の撮像素子102と第四の映像信号処理部103のまとまりは、撮像部に相当する。また、映像処理演算部17は、演算部に相当する。 Here, in Embodiment 2, the grouping of the first imaging device 13 and the first video signal processing unit 14, the grouping of the second imaging device 15 and the second video signal processing unit 16, and the third imaging device A group of the device 99 and the third video signal processing unit 100 and a group of the fourth imaging device 102 and the fourth video signal processing unit 103 correspond to the imaging unit. Also, the video processing calculation unit 17 corresponds to a calculation unit.

図13に示したシステム制御部20は、図14に示した撮像系を制御する撮像制御部18と、図13に示した光源系を制御する光源制御部10および外部コマンドを入力する操作部22とを統括制御する。なお、光源制御部10、撮像制御部18、およびシステム制御部20を1つにまとめ、制御部として構成することも可能である。 The system control unit 20 shown in FIG. 13 includes an imaging control unit 18 that controls the imaging system shown in FIG. 14, a light source control unit 10 that controls the light source system shown in FIG. 13, and an operation unit 22 that inputs external commands. and overall control. It should be noted that the light source control section 10, the imaging control section 18, and the system control section 20 can be combined into one and configured as a control section.

先の実施の形態1で説明した図2の光損失特性を参照すると、第二の近赤外35と第三の近赤外36は、生体内で到達する深度としてはさほど変わらないが、第二の近赤外35に比べて、第三の近赤外36の方が、さらに波長が長いため、生体内での散乱損失31が相対的に少なくなっている。 Referring to the optical loss characteristics of FIG. 2 described in the first embodiment, the second near-infrared rays 35 and the third near-infrared rays 36 are not so different in terms of the depth they reach in vivo, Since the wavelength of the third near-infrared rays 36 is longer than that of the second near-infrared rays 35, the scattering loss 31 in the living body is relatively small.

先の実施の形態1で説明した図2の光損失特性および図3の光源発生特性を参照すると、第一の近赤外34の領域では、波長700nmの発光40と、波長850nmの発光41の2つが発光される。 Referring to the light loss characteristics in FIG. 2 and the light source generation characteristics in FIG. 3 described in the first embodiment, in the first near-infrared region 34, the light emission 40 with a wavelength of 700 nm and the light emission 41 with a wavelength of 850 nm Two are emitted.

同様に、第二の近赤外35の領域では、波長1000nmの発光42と、波長1300nmの発光43の2つが発光され、第三の近赤外36の領域では、波長1700nmの発光44の1つが発光される。 Similarly, in the second near-infrared region 35, two of the light emission 42 with a wavelength of 1000 nm and the light emission 43 with a wavelength of 1300 nm are emitted. one is illuminated.

先の実施の形態1で説明した図4の血流量-輝度の表示特性例を参照すると、本実施の形態2においても、撮像映像に基づきレーザスペックル血流計測を行った結果を、輝度、色彩等の変化で画像表示することができる。 Referring to the blood flow-brightness display characteristic example of FIG. 4 described in the first embodiment, the result of laser speckle blood flow measurement based on the captured image is also displayed in the second embodiment. An image can be displayed with a change in color or the like.

先の実施の形態1で説明した図5の血流計測の表示例を参照すると、本実施の形態2においても、図4の血流量-輝度の表示特性例に基づいて、術野1の血流量を輝度の変化として画面表示することができる。 Referring to the display example of blood flow measurement in FIG. 5 described in the first embodiment, in the second embodiment as well, the blood flow in the surgical field 1 is displayed based on the blood flow-brightness display characteristic example in FIG. The flow rate can be displayed on the screen as a change in brightness.

先の実施の形態1で説明した図6の実際の腫瘍位置例を参照すると、本実施の形態2においても、発光波長に応じて、第一のレイヤー73、第二のレイヤー74、第三のレイヤー75、および第四のレイヤー76の各レイヤーでの計測が可能となる。 Referring to the actual tumor position example of FIG. 6 described in the previous Embodiment 1, also in the present Embodiment 2, the first layer 73, the second layer 74, and the third layer are formed according to the emission wavelength. Measurement in each layer of the layer 75 and the fourth layer 76 becomes possible.

先の実施の形態1で説明した図7の深度ごと観察表示例を参照すると、本実施の形態2においても、図6での各レイヤーでの血流計測結果に基づいて、レイヤー画面73a~76aとして画面表示させることができる。 Referring to the observation display example for each depth in FIG. 7 described in the previous first embodiment, also in the second embodiment, layer screens 73a to 76a are displayed based on the blood flow measurement results in each layer in FIG. can be displayed on the screen as

図15は、本開示の実施の形態2に係る撮像装置の3次元観察表示例を示した図である。図15に示した3次元観察表示例は、図7のように複数のレイヤーを個別で表示を行うモードの代わりに、複数のレイヤーの観察情報を元に立体的な情報に変換し、3次元での観察表示を行うモードの例を示している。 FIG. 15 is a diagram showing a three-dimensional observation display example of the imaging device according to Embodiment 2 of the present disclosure. In the three-dimensional observation display example shown in FIG. 15, instead of the mode in which multiple layers are individually displayed as in FIG. 4 shows an example of a mode for observation display in .

また、先の実施の形態1で説明した図9の血流量-色彩の表示特性を参照すると、本実施の形態2においても、撮像映像に基づきレーザスペックル血流計測を行った結果を、色彩の変化で画像表示することができる。 Further, referring to the blood flow-color display characteristics of FIG. 9 described in the first embodiment, the result of laser speckle blood flow measurement based on the captured image is also displayed in the second embodiment. The image can be displayed by changing the

次に、本開示による撮像装置の動作につき、図を用いて説明する。図13と図14において、電源が投入されると、システム制御部20が撮像制御部18および光源制御部10を含むシステム全体を起動し、撮像装置が動作可能状態となる。このとき、撮像は可能な状態であるが、光源からの発光は停止した状態にあり、観察待機のモードである。 Next, the operation of the imaging device according to the present disclosure will be described with reference to the drawings. 13 and 14, when the power is turned on, the system control unit 20 activates the entire system including the imaging control unit 18 and the light source control unit 10, and the imaging apparatus becomes operable. At this time, imaging is possible, but light emission from the light source is stopped, and the observation standby mode is in effect.

この状態から、例えば、術者が操作部22からボタン操作にて腫瘍観察モードAを選択することで、システム制御部20は、光源制御部10を制御して第一の発光回路5と第一の発光素子4を動作させ、第一の放射光である波長700nm近傍のレーザー光を発光させる。この第一の放射光は、光混合部3と光源光学系2を通して均一な光として2次元的に術野1へ照射される。 From this state, for example, when the operator selects the tumor observation mode A by operating a button on the operation unit 22, the system control unit 20 controls the light source control unit 10 to control the first light emitting circuit 5 and the first light emitting circuit 5. The light emitting element 4 is operated to emit laser light having a wavelength of about 700 nm, which is the first emitted light. The first emitted light is two-dimensionally irradiated onto the surgical field 1 as uniform light through the light mixing unit 3 and the light source optical system 2 .

この波長700nm近傍の第一の放射光は、近赤外光であり、近赤外光は、人の生体に照射された場合の光損失量が、可視光より少ない。このため、近赤外光は、術野1に対して浸透することで、ある程度の深部まで到達する。その特性は、図2のようになり、700nm近傍の波長は、第一の近赤外34に相当し、その到達深度は、術野表面70に対して約5mmである。 The first radiated light having a wavelength of about 700 nm is near-infrared light, and near-infrared light causes less light loss than visible light when irradiated to a human body. Therefore, the near-infrared light reaches a certain depth by penetrating the surgical field 1 . Its characteristics are as shown in FIG. 2, the wavelength near 700 nm corresponds to the first near-infrared rays 34, and the reaching depth is about 5 mm with respect to the surface 70 of the surgical field.

また、波長700nm近傍の第一の放射光は、レーザー光であり、可干渉性を持つコヒーレントな光である。この光を生体に照射した場合、生体内の粒子により散乱された光が干渉し合うことで、術野1からの反射散乱光にランダムな模様としてスペックルパターンを得ることができる。 Also, the first emitted light having a wavelength of about 700 nm is laser light, which is coherent light having coherence. When a living body is irradiated with this light, light scattered by particles in the living body interferes with each other, so that a speckle pattern can be obtained as a random pattern in the reflected and scattered light from the surgical field 1 .

第一の放射光を発光させることにより、図6の術野表面70より約5mm深部の第一のレイヤー73からの反射散乱光が得られる。この反射散乱光は、撮像光学系11と第一の光学フィルタ96にて波長700nm近傍のみを通した光となった後、第一の撮像素子13と第一の映像信号処理部14にて光電変換と電気信号処理を行うことで、第一の映像信号に変換される。 By emitting the first radiation, reflected scattered light from the first layer 73 about 5 mm deeper than the surgical field surface 70 in FIG. 6 is obtained. This reflected and scattered light passes through the imaging optical system 11 and the first optical filter 96 only in the vicinity of a wavelength of 700 nm. By performing conversion and electrical signal processing, it is converted into a first video signal.

腫瘍の組織は、一般的には細胞の代謝過程で生じる異常細胞が増殖した集合体である。従って、腫瘍の組織は、異常増殖の影響により、通常の細胞と比較して血流量が低いという特徴を持つと言われている。 Tumor tissue is generally an aggregate of abnormal cell proliferation that occurs during cell metabolism. Therefore, tumor tissue is said to have a low blood flow compared to normal cells due to abnormal proliferation.

さらに、腫瘍部位61と正常部位との境界部分においては、細胞が異常化する過程で酸素が必要となる関係から、部分的に血流量が増える傾向にあるとも言われている。本開示は、境界部分を含めた腫瘍関連部位の位置を、この特徴である血流量の相違を測定することで識別を行うことを特徴としている。 Furthermore, it is said that the blood flow tends to partially increase at the boundary between the tumor site 61 and the normal site because oxygen is required in the process of abnormalization of cells. The present disclosure is characterized by identifying the position of a tumor-related site, including a boundary portion, by measuring the difference in blood flow, which is this feature.

映像処理演算部17は、第一の映像信号処理部14で得られた第一の映像信号に基づき、血流計測のための演算を行う。レーザー光によって得られたスペックルパターンは、生体組織内の血球粒子移動に伴い、時々刻々と変化してゆく。 The video processing calculation unit 17 performs calculation for blood flow measurement based on the first video signal obtained by the first video signal processing unit 14 . A speckle pattern obtained by a laser beam changes from moment to moment as blood cells move in living tissue.

血球粒子の動きが大きく速いほど、スペックルパターンの単位時間あたりの変化が大きい。このスペックルパターンを、2次元の撮像センサーにて映像信号として撮像し、空間的に同位置の輝度信号につき、その単位時間あたりの変化を計測することで、血流の量あるいは血流の速度に比例した血流情報が得られる。 The greater and faster the blood cell particles move, the greater the change in the speckle pattern per unit time. This speckle pattern is imaged as a video signal by a two-dimensional imaging sensor, and by measuring the change per unit time of the luminance signal at the same spatial position, the amount of blood flow or the blood flow velocity is measured. Blood flow information proportional to is obtained.

血流量の多い位置の映像信号には、高い周波数成分が多く含まれており、血流量の少ない位置の映像信号には、低い周波数成分が多く含まれている。このことから、映像処理演算部17は、第一の映像信号処理部14からの映像信号に対して、その位置ごとで周波数解析等の演算を行うことで、血流量に比例した情報を得ることができる。 A video signal at a position with a large blood flow contains many high frequency components, and a video signal at a position with a small blood flow contains many low frequency components. Therefore, the video processing calculation unit 17 performs calculation such as frequency analysis for each position on the video signal from the first video signal processing unit 14, thereby obtaining information proportional to the blood flow rate. can be done.

この測定によって得られた血流量の情報は、映像出力部19により、図4の特性に従って、血流量の多い部分は明るく、血流量の少ない部分は暗く、といった映像信号上の輝度変化という形に変換される。さらに、外部出力21に接続された外部モニターにて、図5のような変換後の映像信号が表示されることで、術者がその測定結果を撮像映像として確認することができる。 The blood flow information obtained by this measurement is converted by the video output unit 19 into the form of luminance changes on the video signal such that areas with high blood flow are bright and areas with low blood flow are dark, according to the characteristics shown in FIG. converted. Furthermore, by displaying the converted video signal as shown in FIG. 5 on the external monitor connected to the external output 21, the operator can confirm the measurement result as a captured video.

このとき、映像出力部19は、図4のように、血流量と輝度レベルとの関係が直線的な特性である第一の輝度表示特性50と、非直線的な特性である第二の輝度表示特性51のいずれかを採用することができる。 At this time, as shown in FIG. 4, the image output unit 19 has a first luminance display characteristic 50 that is a linear characteristic of the relationship between the blood flow and the luminance level, and a second luminance display characteristic that is a nonlinear characteristic. Any of the display characteristics 51 can be employed.

一例として、映像出力部19は、通常の腫瘍観察では、第二の輝度表示特性51を採用して生成した変換後の映像信号を表示させることができる。第二の輝度表示特性51を採用する理由としては、腫瘍領域54は、血流量が比較的少ないため、この部分の輝度変化を大きくとることで、腫瘍部位61と正常・その他の部位とを視感上より識別しやすくすることが挙げられる。 As an example, the image output unit 19 can display a converted image signal generated by adopting the second luminance display characteristic 51 in normal tumor observation. The reason for adopting the second luminance display characteristic 51 is that the tumor region 54 has a relatively small blood flow, and therefore, the tumor region 61 and the normal/other regions can be visually recognized by increasing the luminance change in this portion. One example is to make it easier to identify visually.

この結果、ユーザが腫瘍識別時に確認する映像は、図5のようになり、正常部位60はほぼグレーであるのに対し、血流量の少ない腫瘍部位61は血流量が少ないため、かなり暗く、流量の多い血管部63は白に近い輝度として表示させることができる。 As a result, the image that the user confirms when identifying the tumor is as shown in FIG. The blood vessel portion 63 with a large amount of blood can be displayed with a brightness close to white.

また、その他の傾向として、腫瘍部位61と正常部位との境界部62は、比較的血流が多い場合があり、その際には、白に近い明るいグレーとなる可能性がある。動脈、静脈、穿通枝などの血管部63は、その壁面厚あるいは状態にも依存するが、基本的には、血管部63に流れる血流の状態情報が表示される。この場合、画面上に白っぽい線状のものが表示されることで、術者は、深部にある血管部の存在をも把握することができる。 In addition, as another tendency, the boundary portion 62 between the tumor site 61 and the normal site may have a relatively large amount of blood flow, and in such a case, there is a possibility that the color will be bright gray close to white. The blood vessel part 63 such as arteries, veins, and perforating branches depends on the wall thickness or condition thereof, but basically, the status information of the blood flowing through the blood vessel part 63 is displayed. In this case, a whitish linear object is displayed on the screen, so that the operator can also grasp the presence of the deep blood vessel.

術者が選択した腫瘍観察モードAによる第一の放射光での観察では、700nmの1波長を使用するため、術野1の深部は、約5mmとなる。この結果、図6に示した第一のレイヤー73近傍の観察ができ、表示画面として、図7に示した第一のレイヤー画面73aが表示されることとなる。 Observation with the first radiation in tumor observation mode A selected by the operator uses one wavelength of 700 nm, so the depth of the surgical field 1 is approximately 5 mm. As a result, the vicinity of the first layer 73 shown in FIG. 6 can be observed, and the first layer screen 73a shown in FIG. 7 is displayed as the display screen.

この第一のレイヤー73は、術者が肉眼で直接確認できる位置であり、表示された観察画像は、肉眼で見えている構造物が腫瘍か正常かを判断する情報、つまり、今現在の施術判断に大変有用な情報となる。従って、術者は、腫瘍観察モードAによる画面表示内容を確認することで、より確実に現状の施術を進めることができる。 This first layer 73 is a position that can be directly confirmed by the operator with the naked eye. It will be very useful information for decision making. Therefore, by confirming the screen display contents in the tumor observation mode A, the operator can proceed with the current treatment more reliably.

この腫瘍観察モードAでは、深度約5mmの単一なレイヤーの観察情報しか得られないため、確実な腫瘍切除施術を行うには、さらに深いレイヤーでの観察情報が必要となる場合がある。この場合、術者は、操作部22より腫瘍観察モードBを選択入力することができる。 In this tumor observation mode A, since only a single layer of observation information with a depth of about 5 mm can be obtained, observation information in a deeper layer may be required to perform reliable tumor resection. In this case, the operator can select and input the tumor observation mode B using the operation unit 22 .

腫瘍観察モードBが選択された場合には、システム制御部20は、光源制御部10を制御して、一旦第一の放射光の発光を止めると同時に、第二の発光制御部9により、第二の発光回路8と第二の発光素子7を動作させる。この結果、第二の放射光である波長1000nm近傍のレーザー光を発光させることができる。この第二の放射光は、光混合部3と光源光学系2を通して均一な光として2次元的に術野1へ照射される。 When the tumor observation mode B is selected, the system control unit 20 controls the light source control unit 10 to once stop emitting the first emitted light, and at the same time, the second light emission control unit 9 causes the second emission control unit 9 to The second light emitting circuit 8 and the second light emitting element 7 are operated. As a result, laser light having a wavelength of about 1000 nm, which is the second emitted light, can be emitted. This second radiated light passes through the light mixer 3 and the light source optical system 2 and is two-dimensionally irradiated onto the surgical field 1 as uniform light.

この波長1000nm近傍の第二の放射光は、波長700nm近傍の第一の放射光よりも光損失量が少ない。このため、第二の放射光は、術野1に対して、第一の放射光よりもさらに深部まで到達する。第二の放射光の光損失特性は、図2に示したようになり、その到達深度としては、術野表面70に対して約20mmである。 The second radiant light having a wavelength of about 1000 nm has less light loss than the first radiant light having a wavelength of about 700 nm. Therefore, the second synchrotron radiation reaches the surgical field 1 deeper than the first synchrotron radiation. The light loss characteristic of the second radiant light is as shown in FIG.

また、第一の放射光と同様に、この第二の放射光もレーザー光であり、可干渉性を持つコヒーレントな光である。この光を生体に照射した場合、生体内の粒子により散乱された光が干渉し合うことで、術野1からの反射散乱光にランダムな模様としてスペックルパターンを得ることができる。 Moreover, like the first emitted light, this second emitted light is also laser light, which is coherent light having coherence. When a living body is irradiated with this light, light scattered by particles in the living body interferes with each other, so that a speckle pattern can be obtained as a random pattern in the reflected and scattered light from the surgical field 1 .

第二の放射光を発光させることにより、図6の術野表面70より約20mm深部の第三のレイヤー75からの反射散乱光が得られる。この反射散乱光は、撮像光学系11と第二の光学フィルタ97にて波長1000nm近傍のみを通した光となった後、第二の撮像素子15と第二の映像信号処理部16にて光電変換と電気信号処理を行うことで、第二の映像信号に変換される。 By emitting the second emitted light, reflected scattered light from a third layer 75 about 20 mm deeper than the surgical field surface 70 in FIG. 6 is obtained. This reflected and scattered light passes through the imaging optical system 11 and the second optical filter 97 only in the vicinity of a wavelength of 1000 nm. By performing conversion and electrical signal processing, it is converted into a second video signal.

映像処理演算部17は、第二の映像信号処理部16からの映像信号に対して、その位置ごとで周波数解析等の演算を行うことで、血流量に比例した情報を得ることができる。 The video processing calculation unit 17 can obtain information proportional to the blood flow rate by performing calculation such as frequency analysis on the video signal from the second video signal processing unit 16 for each position.

この測定によって得られた血流量の情報は、映像出力部19により、図4の特性に従って、血流量の多い部分は明るく、血流量の少ない部分は暗く、といった映像信号上の輝度変化という形に変換される。さらに、外部出力21に接続された外部モニターにて、図5に示すような変換後の映像信号が表示されることで、術者がその測定結果を撮像映像として確認することができる。 The blood flow information obtained by this measurement is converted by the video output unit 19 into the form of luminance changes on the video signal such that areas with high blood flow are bright and areas with low blood flow are dark, according to the characteristics shown in FIG. converted. Furthermore, by displaying the converted video signal as shown in FIG. 5 on the external monitor connected to the external output 21, the operator can confirm the measurement result as a captured video.

このように、術者が選択した腫瘍観察モードBによる第二の放射光での観察では、1000nmの1波長を使用するため、術野1の深部は、約20mmとなる。この結果、図6に示した第三のレイヤー75近傍の観察ができ、表示画面として、図7に示した第三のレイヤー画面75aが表示されることとなる。 Thus, in the observation with the second synchrotron radiation in the tumor observation mode B selected by the operator, one wavelength of 1000 nm is used, so the depth of the surgical field 1 is approximately 20 mm. As a result, the vicinity of the third layer 75 shown in FIG. 6 can be observed, and the third layer screen 75a shown in FIG. 7 is displayed as the display screen.

この第三のレイヤー画像75aは、約20mmの深部レイヤーの観察結果であり、術者からは肉眼では見えない領域の情報である。 This third layer image 75a is an observation result of a deep layer of about 20 mm, and is information of a region that cannot be seen by the operator with the naked eye.

上述同様に、腫瘍観察モードCでは、波長850nmである第三の放射光が、第三の発光制御部92と第三の発光回路91と第三の発光素子90とにより発光され、光混合部3と光源光学系2を通して術野1に照射される。 In the same manner as described above, in tumor observation mode C, the third radiation having a wavelength of 850 nm is emitted by the third light emission control section 92, the third light emitting circuit 91, and the third light emitting element 90, and the light mixing section 3 and a light source optical system 2 to illuminate the surgical field 1 .

第三の放射光は、術野表面70より約10mm深部からの反射散乱光として、第三の光学フィルタ98を通して第三の撮像素子99で光電変換され、第三の映像信号処理部100を通して映像処理演算部17へ送られる。 The third emitted light is photoelectrically converted by the third imaging device 99 through the third optical filter 98 as reflected scattered light from a depth of about 10 mm from the surface of the surgical field 70, and is transmitted through the third image signal processing unit 100 to the image. It is sent to the processing calculation unit 17 .

映像処理演算部17は、周波数解析等の演算を行い、血流量に比例した情報を生成する。映像出力部19では、図4の特性に従って、血流量を映像信号上の輝度変化に変換し、外部出力21に接続された外部モニターにて、図7上の第二のレイヤー画面74aのように表示される。この結果、術者は、術野表面70より約10mm深部の情報を確認できる。 The video processing calculation unit 17 performs calculation such as frequency analysis and generates information proportional to the blood flow rate. The video output unit 19 converts the blood flow into a luminance change on the video signal according to the characteristics of FIG. Is displayed. As a result, the operator can confirm information about 10 mm deeper than the surgical field surface 70 .

さらに同様に、腫瘍観察モードDでは、波長1300nmである第四の放射光が、第四の発光制御部95と第四の発光回路94と第四の発光素子93とにより発光され、光混合部3と光源光学系2を通して術野1に照射される。 Furthermore, similarly, in tumor observation mode D, the fourth radiation having a wavelength of 1300 nm is emitted by the fourth light emission control section 95, the fourth light emitting circuit 94, and the fourth light emitting element 93, and the light mixing section 3 and a light source optical system 2 to illuminate the surgical field 1 .

第四の放射光は、術野表面70より約30mm深部からの反射散乱光として、第四の光学フィルタ101を通して第四の撮像素子102で光電変換され、第四の映像信号処理部103を通して映像処理演算部17へ送られる。 The fourth radiant light passes through the fourth optical filter 101 and is photoelectrically converted by the fourth imaging device 102 as reflected scattered light from a depth of about 30 mm from the surgical field surface 70 . It is sent to the processing calculation unit 17 .

映像処理演算部17は、周波数解析等の演算を行い、血流量に比例した情報を生成する。映像出力部19では、図4の特性に従って、血流量を映像信号上の輝度変化に変換し、外部出力21に接続された外部モニターにて、図7上の第四のレイヤー画面76aのように表示される。この結果、術者は、術野表面70より約30mm深部の情報を確認できる。 The video processing calculation unit 17 performs calculation such as frequency analysis and generates information proportional to the blood flow rate. The video output unit 19 converts the blood flow into luminance changes on the video signal according to the characteristics of FIG. Is displayed. As a result, the operator can confirm information about 30 mm deeper than the surgical field surface 70 .

このように、術者は、まず腫瘍観察モードAにて、現状の施術の状態確認を行うため、術野上肉眼でほぼ確認できる表面に近い位置で、画像と肉眼による実態とを比較確認しながら、腫瘍切除を進めることができる。 In this way, in order to confirm the current state of the treatment in tumor observation mode A, the operator first compares and confirms the image and the actual condition with the naked eye at a position close to the surface of the surgical field that can be confirmed with the naked eye. , tumor resection can proceed.

さらに、術者は、その施術の要所にて、さらに深い位置まで腫瘍が存在するのか、あるいは、腫瘍の奥に正常部位、血管部などのほかの構造物が存在するかなどを確認したい場合がある。このような場合には、術者は、次の施術アクションを起こす際に、組織の切除をこのまま続けてよいかどうかの展望的な確認を行うために、腫瘍観察モードB~Dのいずれかに切り替えることで、さらに深部の画像を観察できる。 In addition, when the operator wants to confirm whether the tumor exists in a deeper position at the key point of the operation, or whether there are other structures such as a normal site or a blood vessel behind the tumor. There is In such a case, the operator should select one of the tumor observation modes B to D in order to make a prospective confirmation as to whether or not it is permissible to continue excision of the tissue when performing the next surgical action. By switching, you can observe a deeper image.

このように、異なるレイヤーごとでより細かな腫瘍観察を術中に非侵襲でリアルタイムに行うことができる。このため、ある程度の経験のある術者であれば、本実施の形態2に係る撮像装置を腫瘍の識別に併用することで、術者の経験度合、あるいは施術の難易度に寄らず、ほぼ同様な精度での施術が可能となり、大変有益である。 In this way, more detailed tumor observation can be performed non-invasively and in real time during surgery for each different layer. For this reason, if the operator has a certain amount of experience, by using the imaging apparatus according to the second embodiment together for tumor identification, substantially the same results can be obtained regardless of the operator's experience or the difficulty of the operation. It is possible to perform surgery with a high degree of accuracy, which is very beneficial.

上記では、波長700nm近傍の第一の放射光と、波長1000nm近傍の第二の放射光と、波長850nm近傍の第三の放射光と、波長1300nm近傍の第四の放射光での腫瘍観察を、術者の選択操作にて表示のモードを切り替えて個別に行なう場合について説明した。 In the above, the first radiant light with a wavelength of about 700 nm, the second radiated light with a wavelength of about 1000 nm, the third radiated light with a wavelength of about 850 nm, and the fourth radiated light with a wavelength of about 1300 nm are used for tumor observation. , the case where the display mode is switched individually by the operator's selection operation has been described.

しかしながら、本実施の形態1に係る撮像装置では、これら4つの腫瘍観察のうちの2つ以上を同時に行う腫瘍観察モードEを設けることもできる。そこで、この腫瘍観察モードEについて、4つ全てのレイヤーでの腫瘍観察を同時選択する場合を例として、次に具体的に説明する。 However, in the imaging apparatus according to Embodiment 1, it is also possible to provide a tumor observation mode E in which two or more of these four tumor observations are performed simultaneously. Therefore, this tumor observation mode E will be specifically described below by taking as an example a case of simultaneously selecting tumor observation in all four layers.

術者が操作部22より腫瘍観察モードEを選択することで、システム制御部20は、波長700nm近傍の第一の放射光と、波長1000nm近傍の第二の放射光と、波長850nm近傍の第三の放射光と、波長1300nm近傍の第四の放射光とを同時に発光させるように制御する。 When the operator selects the tumor observation mode E from the operation unit 22, the system control unit 20 controls the first radiant light having a wavelength of approximately 700 nm, the second radiant light having a wavelength of approximately 1000 nm, and the second radiant light having a wavelength of approximately 850 nm. Control is performed so that the third radiant light and the fourth radiant light having a wavelength of about 1300 nm are emitted simultaneously.

具体的には、システム制御部20は、光源制御部10を通して、第一の発光制御部6と第一の発光回路5と第一の発光素子4とを動作させ、第二の発光制御部9と第二の発光回路8と第二の発光素子7とを動作させ、第三の発光制御部92と第三の発光回路91と第三の発光素子90とを動作させ、さらに、第四の発光制御部95と第四の発光回路94と第四の発光素子93とを動作させる。 Specifically, the system control unit 20 operates the first light emission control unit 6, the first light emission circuit 5, and the first light emitting element 4 through the light source control unit 10, and operates the second light emission control unit 9. and the second light emitting circuit 8 and the second light emitting element 7 are operated, the third light emission control unit 92, the third light emitting circuit 91 and the third light emitting element 90 are operated, and the fourth The light emission control section 95, the fourth light emitting circuit 94 and the fourth light emitting element 93 are operated.

同時に発光された波長700nm近傍の第一の放射光と、波長1000nm近傍の第二の放射光と、波長850nm近傍の第三の放射光と、波長1300nm近傍の第四の放射光とは、光混合部3により混合された後、光源光学系2を通して2次元的に均一な光として術野1に対して同時に照射される。 The first radiant light with a wavelength of about 700 nm, the second radiant light with a wavelength of about 1000 nm, the third radiant light with a wavelength of about 850 nm, and the fourth radiated light with a wavelength of about 1300 nm emitted simultaneously are light After being mixed by the mixing unit 3 , the light is simultaneously irradiated onto the surgical field 1 as two-dimensionally uniform light through the light source optical system 2 .

これら4つの放射光は、レーザー光であり、可干渉性を持つコヒーレントな光であり、同時に照射される場合には、厳密には、相互に若干干渉することが考えられる。このような干渉問題に対しては、波長と位相の関係を実際には影響しないレベルに設定することで、相互の干渉をある程度抑制することが可能である。 These four emitted light beams are laser beams and coherent light beams having coherence. Strictly speaking, they may interfere with each other to some extent when they are irradiated simultaneously. With respect to such an interference problem, it is possible to suppress mutual interference to some extent by setting the relationship between wavelength and phase to a level that does not actually affect them.

本実施の形態2では、例えば、他の発光波長の位相を定期的もしくは不定期的にずらすなどの制御動作を光源制御部10が実行することで、干渉対策を実施できる。 In the second embodiment, for example, the light source control unit 10 performs a control operation such as regularly or irregularly shifting the phases of other emission wavelengths, so that interference countermeasures can be implemented.

ただし、4つの波長のそれぞれが、例えば150nm以上異なる、術野1への到達深度が5mm以上異なるなど、干渉の面で特徴的な関係性が事前に確認できている場合には、本開示のレベルにおける血流の測定には、実態として支障がないとして、複数の波長の干渉対策は特に行わなくても問題はない。 However, if each of the four wavelengths has a characteristic relationship in terms of interference, such as a difference of 150 nm or more, a difference of 5 mm or more in the depth of arrival to the surgical field 1, etc., the present disclosure Assuming that there is actually no problem in measuring the blood flow at the level, there is no problem even if no special countermeasures against interference of multiple wavelengths are taken.

映像処理演算部17は、第一の映像信号処理部14、第二の映像信号処理部16、第三の映像信号処理部100、および第四の映像信号処理部103のそれぞれからの4種の映像信号を、個別かつ同時に、その位置ごとで周波数解析等の演算を行うことで、4種の波長ごとに、血流量に比例した情報を同時に得ることができる。 The image processing operation unit 17 uses four types of signals from each of the first image signal processing unit 14, the second image signal processing unit 16, the third image signal processing unit 100, and the fourth image signal processing unit 103. By performing calculations such as frequency analysis on the video signals individually and simultaneously for each position, it is possible to simultaneously obtain information proportional to the blood flow rate for each of the four wavelengths.

この測定によって得られた4種の波長ごとの血流量の情報は、映像出力部19により、図4の特性に従って、血流量の多い部分は明るく、血流量の少ない部分は暗く、といった映像信号上の輝度変化という形に変換される。 The blood flow information for each of the four wavelengths obtained by this measurement is processed by the image output unit 19 according to the characteristics shown in FIG. is converted into a luminance change of

さらに、映像処理演算部17は、これら各レイヤーの情報を元にして、立体的な情報に変換する。映像処理演算部17は、異なる複数のレイヤーの情報をその深度に従って立体的に重ねるとともに、足りないレイヤーの情報は、その前後の観測情報から推測した上で、3次元画像を構築する。 Further, the video processing calculation unit 17 converts the information of each layer into stereoscopic information. The image processing operation unit 17 three-dimensionally superimposes the information of a plurality of different layers according to the depth, and constructs a three-dimensional image by estimating the information of the missing layer from the observation information before and after it.

実際の腫瘍などの位置とレイヤーとの関係が図6の場合には、映像処理演算部17は、3次元画像として、例えば図15のような画像を構築することができる。具体的には、映像出力部19は、第一のレイヤー画面73a~第四のレイヤー画面76aの4種の深度の観察情報とともに、3D血管部63aを含め、レイヤー間の情報を推測補間して、破線部で示した3D腫瘍61aのように、3次元情報に基づく立体的な表示を行うことができる。 When the relationship between the position of the actual tumor and the layers is shown in FIG. 6, the image processing operation unit 17 can construct an image as shown in FIG. 15, for example, as a three-dimensional image. Specifically, the video output unit 19 estimates and interpolates information between layers, including the 3D blood vessel part 63a, along with observation information of four types of depths of the first layer screen 73a to the fourth layer screen 76a. , and a 3D tumor 61a indicated by a broken line, three-dimensional display based on three-dimensional information can be performed.

すなわち、図15は、それぞれの深度ごとでのレイヤーからなる2次元情報を元に、レイヤー間の情報を推測補間することで生成した3次元情報を画面表示した例である。 That is, FIG. 15 is an example of screen display of three-dimensional information generated by interpolating information between layers based on two-dimensional information composed of layers at respective depths.

本開示では、上記のとおり、異なる深度にて2次元的に腫瘍が観察でき、特に、20~30mm奥の情報が同時に得られることで有益である。さらに、腫瘍観察モードEでは、複数の深度での情報を纏めて立体情報として表示することで、概略ながら表面から30mm程までの深さの術野1を、3次元的に把握することが可能となる。 In the present disclosure, as described above, it is possible to two-dimensionally observe a tumor at different depths, and in particular, it is beneficial to simultaneously obtain information on a depth of 20 to 30 mm. Furthermore, in tumor observation mode E, information at multiple depths is summarized and displayed as three-dimensional information, making it possible to three-dimensionally grasp the surgical field 1 at a depth of approximately 30 mm from the surface, although roughly. becomes.

これによって、今まで術者の経験に頼っていた部分を、深部の観察情報として視覚的に提供することで、術者の技術を補間でき、腫瘍の取り残しの抑制、正常部位へのダメージ抑制など、施術全体の精度を高められる大変有用な効果を実現できる。 As a result, it is possible to interpolate the technique of the operator by visually providing deep observation information for areas that have relied on the experience of the operator until now. , it is possible to achieve a very useful effect of improving the accuracy of the entire treatment.

なお、上記では、表示画面としては、測定した血流量を画像化した観察画像のみをモニター表示している。これに加えて、本開示では、術者の肉眼レベルでの確認あるいは術野画像の記録を行うために、第一の放射光での撮像画像を、図7あるいは図8で示したような術野画像78としてそのまま表示させ、術野モニターとして使用するモードを備えることもできる。 In the above description, only the observed image obtained by imaging the measured blood flow is displayed on the monitor as the display screen. In addition to this, in the present disclosure, in order to perform confirmation at the operator's naked eye level or to record an image of the operative field, an image captured with the first synchrotron radiation is captured by the surgical operator as shown in FIG. 7 or 8 . It is also possible to provide a mode in which the field image 78 is displayed as it is and used as a surgical field monitor.

観察画像を同時に表示させる表示モードとしては、図7のように、レイヤーごとに切り替えて個別に表示させる方法、図8のように、複数の画像を並べて、もしくは重ねて表示させる方法などを採用することができる。そして、術者は、これらの表示モードの中から、状況に応じて所望の表示モードを選択することが可能である。 As a display mode for simultaneously displaying observed images, a method of switching and displaying each layer individually as shown in FIG. 7, and a method of displaying a plurality of images side by side or overlapping each other as shown in FIG. 8 are adopted. be able to. Then, the operator can select a desired display mode from among these display modes according to the situation.

また、通常の撮像画像は、光源が近赤外のため、基本的にはモノクロ画像となるが、必要に応じて、淡色もしくは、疑似カラーで表示させることも可能である。 Also, since the light source is near-infrared, a normal captured image is basically a monochrome image, but it is also possible to display it in a light color or a pseudo-color if necessary.

また、血流計測の結果については、図4に示した表示特性に基づいて、血流量の変化を輝度変化に変換して画面表示させる場合について説明したが、血流量-輝度の表示特性以外の表示特性を採用することもできる。 Regarding the results of blood flow measurement, the case where changes in blood flow are converted into brightness changes and displayed on the screen based on the display characteristics shown in FIG. 4 has been described. Display characteristics can also be employed.

図9に示すように、血流量の変化を色彩変化に変換した観察画像を画面表示させることも可能である。一般的に、色彩の変化は、人の精神的な面に影響することがある。このため、通常は、輝度変化の表示を行い、術者が必要に応じて色彩変化表示も選択可能とすることが考えられる。 As shown in FIG. 9, it is also possible to display on the screen an observation image in which changes in blood flow are converted into color changes. In general, color changes can affect people's mental aspects. For this reason, it is conceivable to normally display a change in luminance, and to enable the operator to select a change in color display as necessary.

図9では、血流量の変化に対して色彩の変化が直線的な第一の色彩表示特性80と、血流量の変化に対して色彩の変化が非直線的な第二の色彩表示特性81の2種の特性を有している。術者は、状況に応じて、所望の色彩表示特性を選択可能である。 FIG. 9 shows a first color display characteristic 80 in which the color change is linear with respect to changes in blood flow, and a second color display characteristic 81 in which color changes are nonlinear with respect to changes in blood flow. It has two properties. The operator can select desired color display characteristics depending on the situation.

通常は、非直線的な第二の色彩表示特性81にて表示させることで、腫瘍領域54がより識別しやすいように、血流量が少ない部分の色の変化を、より大きな変化量として表示させることができる。 Usually, by displaying with the non-linear second color display characteristic 81, the color change in the portion with low blood flow is displayed as a larger amount of change so that the tumor region 54 can be more easily identified. be able to.

なお、図4および図9の表示特性は一例であり、血流測定時の腫瘍部位61と正常部位とのレベル差が多く、その識別性がより高くなるような特性が望ましい。そのため、本開示に係る撮像装置では、特性固定のモ-ドとは別に、計測結果の観察画像を見ながら、術者が、直接操作して、腫瘍をより識別しやすい画像となるように、表示特性を可変できるモードも備えている。 The display characteristics shown in FIGS. 4 and 9 are only examples, and it is desirable to have characteristics such that there is a large level difference between the tumor site 61 and the normal site during blood flow measurement, and the distinguishability between the tumor site and the normal site is higher. Therefore, in the imaging apparatus according to the present disclosure, apart from the characteristic fixed mode, the operator directly operates while looking at the observation image of the measurement result, so that the tumor can be easily identified. It also has a mode that allows you to change the display characteristics.

術者は、例えば、図10の第四の輝度表示特性57のように、画面を見ながら、血流量の差異が識別しやすくなるように、直線の傾きを可変することで、所望の表示特性に変更することができる。 For example, the operator can obtain the desired display characteristic by changing the slope of the straight line so that the difference in the blood flow can be easily identified while viewing the screen, for example, as in the fourth luminance display characteristic 57 in FIG. can be changed to

また、術者は、腫瘍を発見した時点で、例えばマウスでポインタを動かしてクリックするように、図1の操作部22からその位置を入力することで、システム制御部20に腫瘍部位61を認識させることができる。 When the operator finds a tumor, the system controller 20 recognizes the tumor site 61 by inputting the position from the operation unit 22 in FIG. can be made

従って、システム制御部20は、術者によるこのような入力操作が行われた以降の表示を行う際には、入力された腫瘍部位61の明るさを起点に、腫瘍部位61と正常部位との差異をより明確に表示できるように、表示特性を変更することができる。 Therefore, when performing display after such an input operation by the operator, the system control unit 20 uses the input brightness of the tumor site 61 as a starting point to distinguish between the tumor site 61 and the normal site. The display characteristics can be changed so that the differences can be displayed more clearly.

このときの表示特性例としては、図4に示した第三の輝度表示特性56、あるいは図10に示した第五の表示特性が考えられる。入力された腫瘍位置の血流量が、図4の腫瘍領域54の範囲にあれば、図4に示した第三の輝度表示特性56を採用して表示を行い、腫瘍領域をほぼ黒固定とすることで、腫瘍部位61と正常部位との差異を明確化することができる。 As examples of display characteristics at this time, the third luminance display characteristics 56 shown in FIG. 4 or the fifth display characteristics shown in FIG. 10 can be considered. If the blood flow at the input tumor position is within the range of the tumor region 54 in FIG. 4, display is performed using the third luminance display characteristic 56 shown in FIG. 4, and the tumor region is fixed to black. Thus, the difference between the tumor site 61 and the normal site can be clarified.

同様に、入力された腫瘍位置の血流量が、図10の腫瘍領域54の範囲内であれば、図10に示した第五の輝度表示特性58を採用して表示を行い、腫瘍領域をほぼ黒固定とすることで、腫瘍部位61と正常部位との差異を明確化することができる。 Similarly, if the blood flow at the input tumor position is within the range of the tumor region 54 of FIG. 10, display is performed using the fifth luminance display characteristic 58 shown in FIG. The black fixation makes it possible to clarify the difference between the tumor site 61 and the normal site.

本開示に係る撮像装置では、図1の入力部23より、手術前に採取されたMRIあるいはCTでの腫瘍を含む患部の画像を本システムに取り込むことができる構成となっている。また、手術ナビゲーションの画像あるいは情報の入力も、入力部23を介して可能な構成となっている。 The imaging apparatus according to the present disclosure is configured such that an image of an affected area including a tumor obtained by MRI or CT obtained before surgery can be imported into the system from the input unit 23 of FIG. Also, an image or information for surgical navigation can be input via the input unit 23 .

このような構成により、システム制御部20および映像出力部19は、血流量の観察画像と、入力部23より取り込んだ画像との位置を合わせ込んだ上での合成画像の表示、観察画像と取り込んだ画像との同時表示など、種々の表示を行うことができる。 With such a configuration, the system control unit 20 and the video output unit 19 display a composite image after aligning the positions of the observation image of the blood flow and the image captured from the input unit 23, and capture the observation image. Various displays can be performed, such as simultaneous display with an image.

換言すると、本開示に係る撮像装置は、現在の観察映像に対して、他の有益な情報あるいは画像を重畳表示させるような拡張現実的な機能を備え、腫瘍部位61の識別性をさらに高めることができる。 In other words, the imaging device according to the present disclosure has an augmented reality function that superimposes other useful information or images on the current observation video, thereby further enhancing the identifiability of the tumor site 61. can be done.

さらに、本開示に係る撮像装置では、図7および図15の観察結果の映像表示を行う際に、腫瘍部位61、血管部63などの構造物を、その形状、血流量などの特徴的情報に基づき、識別表示させることができる構成となっている。 Furthermore, in the imaging apparatus according to the present disclosure, when displaying the images of the observation results of FIGS. Based on this, it is configured to be identifiable and displayable.

具体的には、図1の映像処理演算部17は、構造物の識別を自動で行うとともに、映像出力部19を通して観察画像に対して、識別した結果を重畳もしくは個別に表示させることができる。その際、血管部あるいは正常部位らしい構造物が深部に存在する場合などには、警告的な表示、ブザーの鳴動などを併用することにより、術者に対する告知機能を備える構成となっている。 Specifically, the video processing calculation unit 17 in FIG. 1 can automatically identify the structure, and can superimpose or individually display the identification result on the observed image through the video output unit 19 . At that time, when there is a blood vessel or a structure that seems to be a normal site in a deep part, a warning display, a buzzer sound, or the like is used in combination to provide a notification function to the operator.

また、本開示の撮像装置を使用して手術を行った患者さんの画像、観察結果などの情報を、システム制御部20に記憶させておくことができる構成となっている。同じ患者さんの再手術時などには、記憶された情報を読み出した上で、図8のような同時表示、もしくは図7のような階層表示を、適宜切り替えて表示させることが可能である。以前の手術情報を参照することで、構造物がより正確に分かるため、さらに高精度な施術が可能となる。 In addition, the system control unit 20 can store information such as images and observation results of patients who have undergone surgery using the imaging apparatus of the present disclosure. When the same patient undergoes reoperation, etc., after reading out the stored information, it is possible to switch between the simultaneous display as shown in FIG. 8 and the hierarchical display as shown in FIG. 7 as appropriate. By referring to the previous surgery information, the structure can be understood more accurately, so the surgery can be performed with higher precision.

さらに、本開示に係る撮像装置は、測定結果に対して複数の学習機能を備えた構成とすることができる。第一の学習機能としては、腫瘍部位61を識別しやすくする目的で、撮像制御部18および映像処理演算部17は、血流量の測定結果に基づいて腫瘍部位61の血流量を学習する。 Furthermore, the imaging device according to the present disclosure can be configured to have a plurality of learning functions for measurement results. As a first learning function, the imaging control unit 18 and the image processing calculation unit 17 learn the blood flow rate of the tumor site 61 based on the blood flow rate measurement results for the purpose of facilitating identification of the tumor site 61 .

そして、撮像制御部18および映像処理演算部17は、学習結果として、1画面上に表示される血流量差が、例えば256階調上のセンター中心に±50(絶対値で100)以上になるように、図10に示した第四の輝度表示特性57の傾きを所望の値に可変設定する。 Then, the imaging control unit 18 and the image processing calculation unit 17 learn that the difference in blood flow displayed on one screen is, for example, ±50 (100 in absolute value) or more centered on the 256th gray scale. Thus, the slope of the fourth luminance display characteristic 57 shown in FIG. 10 is variably set to a desired value.

このような学習機能を利用することで、血流量の測定結果に応じて、表示の輝度レベルの最適化を図ることができる。この結果、映像出力部19は、第一の学習機能により学習された適切な表示特性を用いて、血流量の相違を識別表示させることができる。 By using such a learning function, it is possible to optimize the brightness level of the display according to the blood flow measurement result. As a result, the video output unit 19 can distinguishably display the difference in blood flow using the appropriate display characteristics learned by the first learning function.

さらに、第二の学習機能としては、血管部63、神経などの構造物の識別を精度よく行う目的で、撮像制御部18および映像処理演算部17は、頭蓋内の構造物の位置をあらかじめシステムに学習(インプット)させておく。 Furthermore, as a second learning function, the imaging control unit 18 and the image processing calculation unit 17 preliminarily determine the positions of intracranial structures in order to accurately identify structures such as blood vessels 63 and nerves. to learn (input).

そして、撮像制御部18および映像処理演算部17は、血流量の測定結果に応じて、あらかじめ学習した構造物の存在を予測しながら、虚血部位に相当する腫瘍部位61と正常部位との識別を行うことができる。この場合には、例えば、手術ナビゲーションとの連携などにより、システムが施術位置を把握できる状態であることが前提となる。 Then, the imaging control unit 18 and the image processing calculation unit 17 discriminate between the tumor site 61 corresponding to the ischemic site and the normal site while predicting the existence of the structure learned in advance according to the blood flow measurement result. It can be performed. In this case, for example, it is assumed that the system is in a state of being able to ascertain the surgical position through cooperation with surgical navigation.

例えば、撮像制御部18および映像処理演算部17は、術野1における血管部あるいは神経に関する形状情報をあらかじめ取得しておく。さらに、撮像制御部18および映像処理演算部17は、演算された血流量のうち、あらかじめ決められた閾値以上の部分を正常部位として特定するとともに、正常部位と形状情報との位置合せを行うことで、正常部位に対する虚血部位に相当する腫瘍部位61の位置を特定する第二の学習機能を実行することができる。 For example, the imaging control unit 18 and the image processing calculation unit 17 acquire in advance shape information related to blood vessels or nerves in the surgical field 1 . Furthermore, the imaging control unit 18 and the image processing calculation unit 17 identify a portion of the calculated blood flow volume that is equal to or greater than a predetermined threshold value as a normal region, and align the normal region with the shape information. , a second learning function can be performed to locate the tumor site 61 corresponding to the ischemic site relative to the normal site.

この結果、映像出力部19は、生成した表示情報に対して、第二の学習機能により特定された腫瘍部位61の位置に対して血管部63あるいは神経が表示されるように表示情報を修正して映像信号を出力することができる。 As a result, the image output unit 19 modifies the generated display information so that the blood vessel part 63 or the nerve is displayed with respect to the position of the tumor site 61 specified by the second learning function. can output a video signal.

また、撮像制御部18と映像処理演算部17は、術者に腫瘍部位61を識別させる目的において、図7に示すように、血流量に相当する情報を画像表示するだけでなく、より識別しやすい目的にて別の表示手段を備えるように構成することができる。 For the purpose of allowing the operator to identify the tumor site 61, the imaging control unit 18 and the image processing calculation unit 17 not only display the information corresponding to the blood flow as an image, but also perform further identification, as shown in FIG. It can be arranged to provide a separate display means for convenience purposes.

例えば、撮像制御部18と映像処理演算部17は、図10の第五の輝度表示特性58のように、血流量をほぼ2値に変換して表示させることで、腫瘍部位61を明確に表示させることが可能である。 For example, the imaging control unit 18 and the video processing calculation unit 17 display the tumor site 61 clearly by converting the blood flow into approximately binary values and displaying them, as in the fifth luminance display characteristic 58 of FIG. It is possible to

図11に示した第一の画像例では、腫瘍部位61bと血管部63bで示されるように、コントラスト的に視認性を向上させた術野重畳画像79aが表示されている。 In the first image example shown in FIG. 11, a surgical field superimposed image 79a with improved visibility in terms of contrast is displayed, as indicated by a tumor site 61b and a blood vessel section 63b.

図11に示したような表示機能は、例えば、一度、他の表示特性にて腫瘍部位61の位置を特定した後で、この第五の輝度表示特性58に切り替え、腫瘍の表示をより明確にした上で施術を続けるといった使用方法に適している。 The display function as shown in FIG. 11, for example, is switched to the fifth brightness display characteristic 58 after specifying the position of the tumor site 61 once with another display characteristic, and the tumor is displayed more clearly. It is suitable for usage such as continuing the treatment after doing it.

さらに、本開示では、術者の肉眼レベルにより近い映像情報として、波長700nm近傍の第一の放射光での撮像画像に対して、血流量に相当する観察画像あるいは情報を重畳させてモニター表示を行う機能を有するように構成することができる。この場合には、映像処理演算部17と撮像制御部18と映像出力部19とにおいて、図12に示した第二の画像例としての術野重畳画像79bを表示させている。 Furthermore, in the present disclosure, as video information closer to the naked eye level of the operator, an observation image or information corresponding to the blood flow is superimposed on the image captured with the first radiation having a wavelength of about 700 nm and displayed on the monitor. can be configured to have the ability to In this case, the video processing calculation unit 17, the imaging control unit 18, and the video output unit 19 display the surgical field superimposed image 79b as the second image example shown in FIG.

この第二の画像例では、図7の術野画像78のような術野表面70の撮像画像に対し、第三のレイヤー画面75aの観察画像を重畳させている。その際、自動での識別結果を、『腫瘍』を示す文字情報61cあるいは『血管部』を示す文字情報63cといった文字情報として、同時に画面に表示させることができる。 In this second image example, the observed image of the third layer screen 75a is superimposed on the captured image of the surgical field surface 70 such as the surgical field image 78 of FIG. At this time, the automatic identification result can be simultaneously displayed on the screen as character information such as character information 61c indicating "tumor" or character information 63c indicating "vascular part".

さらに、図11の術野重畳画像79aのように、第三のレイヤー画面75aの観察画像から、例えば腫瘍部位61、血管部63などの部位を、図10に示した第五の表示特性を用いて2値画像に変換して抽出し、特定の情報のみを重畳することができる。この結果、さらに視認性のよい表示画像が得られる。 Furthermore, like the surgical field superimposed image 79a in FIG. 11, the tumor site 61, the blood vessel part 63, and the like are displayed from the observation image of the third layer screen 75a using the fifth display characteristic shown in FIG. can be converted into a binary image and extracted, and only specific information can be superimposed. As a result, a display image with better visibility can be obtained.

術野重畳画像79a、79bのような表示を行うことにより、術者は、より肉眼での観察に近い映像状態にて、さほど違和感を覚えることなく、自らの識別経験を活かしながら、腫瘍部位61の識別を行うことが可能となる。 By displaying the superimposed images 79a and 79b of the surgical field, the operator can view the tumor site 61 in a video state closer to observation with the naked eye without feeling uncomfortable, and making use of his or her identification experience. can be identified.

本開示は、レーザスペックルによる血流量測定を行うため、その血流量の絶対値が求められる。画面上の位置を指定した上で、その絶対値を表示するモードを設ける構成とすることができる。このような構成を採用する場合には、術者は、必要に応じて、そのモードを選択できる。つまり、術者は、簡単な操作入力に基づいて術野1の血流量の絶対値をそのレイヤーごとで表示させることができ、血流量を定量的に把握することが可能となる。 Since the present disclosure performs blood flow measurement using laser speckle, the absolute value of the blood flow is obtained. It is possible to provide a mode in which the position on the screen is designated and the absolute value thereof is displayed. When adopting such a configuration, the operator can select the mode as necessary. That is, the operator can display the absolute value of the blood flow in the surgical field 1 for each layer based on a simple operation input, and can quantitatively grasp the blood flow.

ただし、本開示は、術者が腫瘍部位61と正常部位とをより分かりやすく識別できることに主眼を置いており、血流量の絶対値の計測は必ずしも必須ではなく、腫瘍識別機能の性能確保を優先して、システムを構築している。 However, the present disclosure focuses on enabling the operator to distinguish between the tumor site 61 and the normal site in a more comprehensible manner, and the measurement of the absolute value of the blood flow is not necessarily essential, and priority is given to ensuring the performance of the tumor identification function. and build the system.

例えば、血流量の絶対値計測は、術野表面70に近い第一のレイヤー73のみとし、深度の深い他のレイヤーに関しては、揺らぎ、損失などの影響から絶対値誤差が大きくなる場合には、腫瘍の識別機能のみに特化してもよい。 For example, the absolute value of the blood flow is measured only in the first layer 73 close to the surface of the surgical field 70, and the other deep layers have large absolute value errors due to fluctuations, losses, etc. It may be specialized only for the function of recognizing tumors.

使用する波長については、図3を基本とするが、近赤外のレーザーであれば、これらに限らず設定可能であり、場合によっては可視の赤色領域の波長を使用してもよい。ただし、絶対値計測までを考慮し、精度よく計測を行うためには、波長1nm以下の狭帯域のレーザー発光素子が望ましい。 The wavelengths to be used are based on those shown in FIG. 3, but any near-infrared laser can be used. In some cases, wavelengths in the visible red region may be used. However, in order to perform accurate measurement in consideration of absolute value measurement, it is desirable to use a narrow-band laser emitting element with a wavelength of 1 nm or less.

上記では、第一の撮像素子13、第二の撮像素子15、第三の撮像素子99、および第四の撮像素子を用いている。ここで、第一の撮像素子13と第三の撮像素子99は、可視から700nm近傍を含む900nmあたりまでの波長の感度帯域を持つシリコンベースのセンサーであり、安価な民生産業用の中から比較的広帯域な素子を選択することができる。 In the above, the first imaging element 13, the second imaging element 15, the third imaging element 99, and the fourth imaging element are used. Here, the first imaging element 13 and the third imaging element 99 are silicon-based sensors having a wavelength sensitivity band from the visible to around 900 nm including near 700 nm, and are inexpensive for commercial use. A broadband element can be selected.

一方、第二の撮像素子15と第四の撮像素子102は、波長が、近赤外でも900~1500nmもしくは最大2000nmといった赤外に近く、「第二の生体の窓」に感度帯域を持つ特殊な撮像素子である。これは、例えばInGaAsベースのCCDなど、この帯域でも十分な感度を持つセンサーを選択することができる。 On the other hand, the second imaging element 15 and the fourth imaging element 102 have a wavelength close to the infrared such as 900 to 1500 nm or a maximum of 2000 nm even in the near infrared, and have a sensitivity band in the "second biological window". image sensor. This allows the selection of sensors with sufficient sensitivity even in this band, for example InGaAs-based CCDs.

上記のように、本実施の形態2では、それぞれの波長に合わせた異なる撮像素子を使用しているが、可視帯域もしくは600nmから2000nmまでの波長の広帯域な感度特性を持つ同じ撮像素子を複数用いてもよく、さらに、血流量測定に必要な近赤外波長帯域のみに特化した特殊なセンサーでもよい。このように同じ撮像素子を複数使用することで、回路構成の簡素化、センサー間の感度バラツキ抑制、などの効果が得られる。 As described above, in the second embodiment, different imaging elements are used for each wavelength. Further, a special sensor specialized only for the near-infrared wavelength band required for blood flow measurement may be used. By using a plurality of the same imaging elements in this way, effects such as simplification of the circuit configuration and suppression of variations in sensitivity between sensors can be obtained.

また、本実施の形態2における撮像素子は、4種でなく2種あるいは3種の撮像素子で行ってもよいことは言うまでもない。その際には、例えば前述のように、波長700nmから波長1000nm近傍の撮像には、可視から700nm近傍を含む900nmあたりまでの波長の感度帯域を持つシリコンベースの民生産業用で比較的安価な第一のセンサーを使用し、波長1000nmから波長2000nm近傍の撮像には、近赤外でも波長900nm~波長2000nmの「第二の生体の窓」に感度帯域を持つ特殊な第二のセンサーを使用する。 Further, it goes without saying that two or three types of image pickup elements may be used instead of four types of image pickup elements in the second embodiment. In that case, for example, as described above, for imaging from a wavelength of 700 nm to a wavelength of about 1000 nm, a relatively inexpensive silicon-based consumer-use device with a sensitivity band of wavelengths from the visible to about 900 nm including the vicinity of 700 nm is used. Using one sensor, for imaging in the vicinity of wavelengths from 1000 nm to 2000 nm, use a special second sensor that has a sensitivity band in the "second biological window" of wavelengths from 900 nm to 2000 nm even in the near infrared. .

具体的には、撮像側と発光側が連携の上、時間分割での同期発光と撮像を行うように、図1のシステム制御部20がシステムを制御する。このとき、第一のセンサーでは、例えば1フレームごとに波長700nmと波長850nmの発光波長切替えが行われる。そして、撮像時に、700nm発光フレーム期間の撮像と演算にて、図7の第一のレイヤー画面73aが構築される。同様に、撮像時に、850nm発光フレーム期間の撮像と演算にて、図7の第二のレイヤー画面74aが構築される。 Specifically, the system control unit 20 in FIG. 1 controls the system so that the imaging side and the light emitting side cooperate to perform synchronous light emission and imaging in a time division manner. At this time, in the first sensor, for example, the emission wavelength is switched between a wavelength of 700 nm and a wavelength of 850 nm for each frame. Then, at the time of imaging, the first layer screen 73a of FIG. 7 is constructed by imaging and calculation during the 700 nm emission frame period. Similarly, during imaging, the second layer screen 74a of FIG. 7 is constructed by imaging and computing during the 850 nm emission frame period.

また、第二のセンサーでは、例えば1フレームごとに波長1000nmと波長1300nmの発光波長切替えが行われる、そして、撮像時に、1000nm発光フレーム期間の撮像と演算にて、図7の第三のレイヤー画面75aが構築され、1300nm発光フレーム期間の撮像と演算にて、図7の第四のレイヤー画面76aが構築される。 Also, in the second sensor, for example, the emission wavelength is switched between a wavelength of 1000 nm and a wavelength of 1300 nm for each frame. 75a is constructed, and imaging and computation of the 1300 nm emission frame period constructs the fourth layer screen 76a of FIG.

さらに、安価であるとともに供給および性能が安定し、かつ取り扱いが容易な民生産業用レベルの撮像素子を使ってもよい。使用する撮像素子の撮像可能な上限が波長1000nmあたりまでであれば、例えば、700nmと800nmと900nmと1000nmの4つの波長を、血流量の観測波長として使用する。この場合には、深度は比較的浅いが、5mmから15mm辺りまでの異なる深度での腫瘍観察システムを、比較的安価に構築することが可能となる。 In addition, a consumer-grade imaging device that is inexpensive, stable in supply and performance, and easy to handle may be used. If the upper limit of imaging capability of the imaging device to be used is around 1000 nm, four wavelengths of 700 nm, 800 nm, 900 nm and 1000 nm are used as blood flow observation wavelengths, for example. In this case, although the depth is relatively shallow, it is possible to construct a tumor observation system at different depths from 5 mm to 15 mm at a relatively low cost.

本実施の形態2では、脳腫瘍の識別を想定して記載しているが、血流量の相違にて識別可能であれば、脳以外の腫瘍部位61に使用できるのは言うまでもない。その際、例えば、胃もしくは腸・膀胱など、15mmの深部での観察で十分な場合であれば、前述のような安価な撮像素子による観察システムが構築可能である。 In the second embodiment, the description is made assuming identification of a brain tumor, but it goes without saying that it can be used for a tumor site 61 other than the brain as long as it can be identified by a difference in the amount of blood flow. In this case, for example, if observation at a depth of 15 mm, such as the stomach or intestines/bladder, is sufficient, it is possible to construct an observation system using an inexpensive imaging device as described above.

さらには、術野組織の血流量を計測し、これに相当する情報を表示することで、腫瘍部位61の特定だけでなく、虚血部位の観察、経過確認などの応用が可能であることは言うまでもない。この場合には、深部ごとに、各測定レイヤーにて定量的な血流量が把握できるという効果がある。 Furthermore, by measuring the blood flow in the tissue in the surgical field and displaying information corresponding to the measurement, it is possible to not only specify the tumor site 61 but also observe the ischemic site and check progress. Needless to say. In this case, there is an effect that a quantitative blood flow can be grasped in each measurement layer for each deep part.

実施の形態3.
本実施の形態3に係る撮像装置の動作につき、先の実施の形態1、2で示した図面を必要に応じて流用し、説明する。光源系および撮像系のブロック図としては、先の実施の形態2で示した図13、図14と同様であるが、本実施の形態3では取り扱う波長が先の実施の形態2とは異なる。
Embodiment 3.
The operation of the imaging apparatus according to the third embodiment will be described by using the drawings shown in the first and second embodiments as necessary. The block diagrams of the light source system and imaging system are the same as those in FIGS. 13 and 14 shown in the second embodiment, but the third embodiment differs from the second embodiment in the wavelengths handled.

術者が操作した腫瘍観察モードAによる第一の放射光での観察では、先の実施の形態2にて説明のとおり、700nmの1波長を使用する。このため、術野1の深部は、約5mmとなり、図6の第一のレイヤー73近傍の観察となり、表示画面としては、図7の第一のレイヤー画面73aが表示される。 In observation with the first radiation light in tumor observation mode A operated by the operator, one wavelength of 700 nm is used as described in the second embodiment. Therefore, the depth of the operative field 1 is about 5 mm, and observation is performed near the first layer 73 in FIG. 6, and the first layer screen 73a in FIG. 7 is displayed as the display screen.

この腫瘍観察モードAでは、深度約5mmの単一なレイヤーの観察情報しか得られないため、確実な腫瘍切除施術を行うには、さらに深いレイヤーでの観察情報が必要となる場合がある。この場合、術者は、操作部22より腫瘍観察モードBを選択入力することができる。 In this tumor observation mode A, since only a single layer of observation information with a depth of about 5 mm can be obtained, observation information in a deeper layer may be required to perform reliable tumor resection. In this case, the operator can select and input the tumor observation mode B using the operation unit 22 .

腫瘍観察モードBが選択された場合には、システム制御部20は、光源制御部10を制御して、一旦第一の放射光の発光を止めると同時に、第二の発光制御部9により、第二の発光回路8と第二の発光素子7を動作させる。この結果、第二の放射光である波長1000nm近傍のレーザー光が発光される。この第二の放射光は、光混合部3と光源光学系2を通して均一な光として2次元的に術野1へ照射される。 When the tumor observation mode B is selected, the system control unit 20 controls the light source control unit 10 to once stop emitting the first emitted light, and at the same time, the second light emission control unit 9 causes the second emission control unit 9 to The second light emitting circuit 8 and the second light emitting element 7 are operated. As a result, laser light having a wavelength of about 1000 nm, which is the second emitted light, is emitted. This second radiated light is two-dimensionally irradiated onto the surgical field 1 as uniform light through the light mixing unit 3 and the light source optical system 2 .

この波長1000nm近傍の第二の放射光は、波長700nm近傍の第一の放射光よりも光損失量が少ない。このため、第二の放射光は、術野1に対して、第一の放射光よりもさらに深部まで到達する。第二の放射光の光損失特性は、図2に示したようになり、その到達深度としては、術野表面70に対して約20mmである。 The second radiant light having a wavelength of about 1000 nm has less light loss than the first radiant light having a wavelength of about 700 nm. Therefore, the second synchrotron radiation reaches the surgical field 1 deeper than the first synchrotron radiation. The light loss characteristic of the second radiant light is as shown in FIG.

また、第一の放射光と同様に、この第二の放射光もレーザー光であり、可干渉性を持つコヒーレントな光である。この光を生体に照射した場合、生体内の粒子により散乱された光が干渉し合うことで、術野1からの反射散乱光にランダムな模様としてスペックルパターンを得ることができる。 Moreover, like the first emitted light, this second emitted light is also laser light, which is coherent light having coherence. When a living body is irradiated with this light, light scattered by particles in the living body interferes with each other, so that a speckle pattern can be obtained as a random pattern in the reflected and scattered light from the surgical field 1 .

第二の放射光を発光させることにより、図6の術野表面70より約20mm深部の第三のレイヤー75からの反射散乱光が得られる。この反射散乱光は、撮像光学系11と第二の光学フィルタ97にて波長1000nm近傍のみを通した光となった後、第二の撮像素子15と第二の映像信号処理部16にて光電変換と電気信号処理を行うことで、第二の映像信号に変換される。 By emitting the second emitted light, reflected scattered light from a third layer 75 about 20 mm deeper than the surgical field surface 70 in FIG. 6 is obtained. This reflected and scattered light passes through the imaging optical system 11 and the second optical filter 97 only in the vicinity of a wavelength of 1000 nm. By performing conversion and electrical signal processing, it is converted into a second video signal.

映像処理演算部17は、第二の映像信号処理部16からの映像信号に対して、その位置ごとで周波数解析等の演算を行うことで、血流量に比例した情報を得ることができる。 The video processing calculation unit 17 can obtain information proportional to the blood flow rate by performing calculation such as frequency analysis on the video signal from the second video signal processing unit 16 for each position.

この測定によって得られた血流量の情報は、映像出力部19により、図4の特性に従って、血流量の多い部分は明るく、血流量の少ない部分は暗く、といった映像信号上の輝度変化という形に変換される。さらに、外部出力21に接続された外部モニターにて、図5に示すような変換後の映像信号が表示されることで、術者がその測定結果を撮像映像として確認することができる。 The blood flow information obtained by this measurement is converted by the video output unit 19 into the form of luminance changes on the video signal such that areas with high blood flow are bright and areas with low blood flow are dark, according to the characteristics shown in FIG. converted. Furthermore, by displaying the converted video signal as shown in FIG. 5 on the external monitor connected to the external output 21, the operator can confirm the measurement result as a captured video.

このように、術者が選択した腫瘍観察モードBによる第二の放射光での観察では、1000nmの1波長を使用するため、術野1の深部は、約20mmとなる。この結果、図6に示した第三のレイヤー75近傍の観察ができ、表示画面として、図7に示した第三のレイヤー画面75aが表示されることとなる。 Thus, in the observation with the second synchrotron radiation in the tumor observation mode B selected by the operator, one wavelength of 1000 nm is used, so the depth of the surgical field 1 is approximately 20 mm. As a result, the vicinity of the third layer 75 shown in FIG. 6 can be observed, and the third layer screen 75a shown in FIG. 7 is displayed as the display screen.

この第三のレイヤー画像75aは、約20mmの深部レイヤーの観察結果であり、術者からは肉眼では見えない領域の情報である。 This third layer image 75a is an observation result of a deep layer of about 20 mm, and is information of a region that cannot be seen by the operator with the naked eye.

上述同様に、腫瘍観察モードDでは、波長1300nmである第四の放射光が、第四の発光制御部95と第四の発光回路94と第四の発光素子93とにより発光され、光混合部3にて光源光学系2を通して術野1に照射される。 In the same manner as described above, in tumor observation mode D, the fourth radiation having a wavelength of 1300 nm is emitted by the fourth light emission control section 95, the fourth light emitting circuit 94, and the fourth light emitting element 93, and the light mixing section At 3 , the operating field 1 is irradiated with light through the light source optical system 2 .

第四の放射光は、術野表面70より約30mm深部からの反射散乱光として、第四の光学フィルタ101を通して第四の撮像素子102で光電変換され、第四の映像信号処理部103を通して映像処理演算部17へ送られる。 The fourth radiant light passes through the fourth optical filter 101 and is photoelectrically converted by the fourth imaging device 102 as reflected scattered light from a depth of about 30 mm from the surgical field surface 70 . It is sent to the processing calculation unit 17 .

映像処理演算部17は、周波数解析等の演算を行い、血流量に比例した情報を生成する。映像出力部19では、図4の特性に従って、血流量を映像信号上の輝度変化に変換し、外部出力21に接続された外部モニターにて、図7上の第四のレイヤー画面76aのように表示される。この結果、術者は、術野表面70より約30mm深部の情報を確認できる。 The video processing calculation unit 17 performs calculation such as frequency analysis and generates information proportional to the blood flow rate. The video output unit 19 converts the blood flow into luminance changes on the video signal according to the characteristics of FIG. Is displayed. As a result, the operator can confirm information about 30 mm deeper than the surgical field surface 70 .

さらに同様に、腫瘍観察モードFでは、波長1700nmである第三の放射光が、第三の発光制御部92と第三の発光回路91と第三の発光素子90とにより発光され、光混合部3にて光源光学系2を通して術野1に照射される。 Furthermore, similarly, in tumor observation mode F, third radiation having a wavelength of 1700 nm is emitted by the third light emission control section 92, the third light emitting circuit 91, and the third light emitting element 90, and the light mixing section At 3 , the surgical field 1 is irradiated with light through the light source optical system 2 .

第三の放射光は、術野表面70より約30mm深部からの反射散乱光として、第三の光学フィルタ98を通して第三の撮像素子99で光電変換され、第三の映像信号処理部100を通して映像処理演算部17へ送られる。 The third radiant light passes through the third optical filter 98 and is photoelectrically converted by the third imaging device 99 as reflected scattered light from a depth of about 30 mm from the surface of the surgical field 70. It is sent to the processing calculation unit 17 .

映像処理演算部17は、周波数解析等の演算を行い、血流量に比例した情報を生成する。映像出力部19では、図4の特性に従って、血流量を映像信号上の輝度変化に変換し、外部出力21に接続された外部モニターにて、第四の放射光と同じように、図7上の第四のレイヤー画面76aのように表示される。この結果、術者は、術野表面70より約30mm深部の情報を確認できる。 The video processing calculation unit 17 performs calculation such as frequency analysis and generates information proportional to the blood flow rate. The image output unit 19 converts the blood flow into a luminance change on the image signal according to the characteristics of FIG. is displayed like the fourth layer screen 76a. As a result, the operator can confirm information about 30 mm deeper than the surgical field surface 70 .

上記第三の放射光と第四の放射光は、図2に示すように、生体内で到達する深度としてはさほど変わらないが、第二の近赤外35に比べて、第三の近赤外36の方が、さらに波長が長いため、生体内での散乱損失31が相対的に少なくなっている。 As shown in FIG. 2, the third synchrotron radiation and the fourth synchrotron radiation are not so different in terms of the depth they reach in the living body, but compared to the second near-infrared 35, the third near-infrared Since the wavelength of the outer 36 is longer, the scattering loss 31 in the living body is relatively small.

つまり、術野深部の生体成分状況により、第四の放射光の波長1300nmにて観察を行うより、第三の放射光の波長1700nmにて観察を行う方が、より鮮明で精度のよい観察が可能な場合がある。一方で、一般的な近赤外撮像センサーの感度性能の観点では、第四の放射光の波長1300nmの方が、第三の放射光の波長1700nmより感度的に有利である。 In other words, depending on the condition of the biological components in the deep part of the operative field, observation with the third synchrotron radiation wavelength of 1700 nm is more clear and accurate than observation with the fourth synchrotron radiation wavelength of 1300 nm. Sometimes it is possible. On the other hand, from the viewpoint of the sensitivity performance of a general near-infrared imaging sensor, the wavelength of the fourth radiant light of 1300 nm is more advantageous in terms of sensitivity than the wavelength of the third radiant light of 1700 nm.

例えば、観察対象の術野1に視神経、動静脈・穿通枝など、単純な脳組織以外の構造物が存在する場合には、それぞれで散乱の度合いが異なる。このため、得られる観察画像が不明瞭になる場合がある。このようなケースでは、より散乱の影響を受けにくい波長1700nmでの観察が適している。 For example, if structures other than simple brain tissue, such as optic nerves, arteries, veins, and perforators, are present in the observation target field 1, the degree of scattering differs for each structure. For this reason, the obtained observation image may become unclear. In such cases, observation at a wavelength of 1700 nm, which is less affected by scattering, is suitable.

また、これとは逆に、頭蓋体など脳の構造的深部の観察時には、放射光自体が十分な強度で照射できない場合がある。このような場合には、撮像系の感度が相対的に有利な波長1300nmでの観察が推奨される。 Conversely, when observing structurally deep parts of the brain such as the cranial body, the synchrotron radiation itself may not irradiate with sufficient intensity. In such a case, observation at a wavelength of 1300 nm is recommended because the sensitivity of the imaging system is relatively advantageous.

このように、術野1の状態により波長1300nmを用いた腫瘍観察モードDか、波長1700nmを用いた腫瘍観察モードFかを、術者が選択し、各状況下での最適な観察画像が得られるよう、切り替えて使用することができる。 In this manner, the operator selects tumor observation mode D using a wavelength of 1300 nm or tumor observation mode F using a wavelength of 1700 nm depending on the state of the surgical field 1, and an optimal observation image is obtained under each situation. It can be used by switching.

1 術野、2 光源光学系、3 光混合部、4 第一の発光素子(光源)、5 第一の発光回路、6 第一の発光制御部、7 第二の発光素子(光源)、8 第二の発光回路、9 第二の発光制御部、10 光源制御部(制御部)、11 撮像光学系、12 光学フィルタ、13 第一の撮像素子(撮像部)、14 第一の映像信号処理部(撮像部)、15 第二の撮像素子(撮像部)、16 第二の映像信号処理部(撮像部)、17 映像処理演算部(演算部)、18 撮像制御部(制御部)、19 映像出力部、20 システム制御部(制御部)、21 外部出力、22 操作部、23 入力部、50 第一の輝度表示特性(表示特性)、51 第二の輝度表示特性(表示特性)、56 第三の輝度表示特性(表示特性)、57 第四の輝度表示特性(表示特性)、58 第五の輝度表示特性(表示特性)、61a 3D腫瘍(3次元情報)、73 第一のレイヤー、73a 第一のレイヤー画面(2次元情報)、74 第二のレイヤー、74a 第二のレイヤー画面(2次元情報)、75 第三のレイヤー、75a 第三のレイヤー画面(2次元情報)、76 第4のレイヤー、76a 第四のレイヤー画面(2次元情報)、80 第一の色彩表示特性(表示特性)、81 第二の色彩表示特性(表示特性)、90 第三の発光素子(光源)、91 第三の発光回路、92 第三の発光制御部、93 第四の発光素子(光源)、94 第四の発光回路、95 第四の発光制御部、96 第一の光学フィルタ、97 第二の光学フィルタ、98 第三の光学フィルタ、99 第三の撮像素子(撮像部)、100 第三の映像信号処理部(撮像部)、101 第四の光学フィルタ、102 第四の撮像素子(撮像部)、103 第四の映像信号処理部(撮像部)。 Reference Signs List 1 operating field 2 light source optical system 3 light mixing section 4 first light emitting element (light source) 5 first light emitting circuit 6 first light emission control section 7 second light emitting element (light source) 8 Second light emission circuit 9 Second light emission control unit 10 Light source control unit (control unit) 11 Imaging optical system 12 Optical filter 13 First image sensor (imaging unit) 14 First video signal processing Section (imaging section), 15 Second imaging device (imaging section), 16 Second video signal processing section (imaging section), 17 Video processing calculation section (calculation section), 18 Imaging control section (control section), 19 video output unit 20 system control unit (control unit) 21 external output 22 operation unit 23 input unit 50 first luminance display characteristic (display characteristic) 51 second luminance display characteristic (display characteristic) 56 Third luminance display characteristic (display characteristic), 57 Fourth luminance display characteristic (display characteristic), 58 Fifth luminance display characteristic (display characteristic), 61a 3D tumor (three-dimensional information), 73 First layer, 73a first layer screen (two-dimensional information), 74 second layer, 74a second layer screen (two-dimensional information), 75 third layer, 75a third layer screen (two-dimensional information), 76 second layer screen 4 layer, 76a fourth layer screen (two-dimensional information), 80 first color display characteristics (display characteristics), 81 second color display characteristics (display characteristics), 90 third light emitting element (light source), 91 third light emitting circuit 92 third light emitting control section 93 fourth light emitting element (light source) 94 fourth light emitting circuit 95 fourth light emitting control section 96 first optical filter 97 second Optical filter 98 Third optical filter 99 Third imaging device (imaging unit) 100 Third video signal processing unit (imaging unit) 101 Fourth optical filter 102 Fourth imaging device (imaging section), 103 a fourth video signal processing section (imaging section).

Claims (11)

複数の波長のレーザー光を発光する光源と、
施術対象を含む術野に対して、前記複数の光源から発光された前記複数の波長のレーザー光のそれぞれを照射する光源光学系と、
前記術野から得られる前記複数の波長のレーザー光によるそれぞれの反射散乱光を光電変換し、撮像情報を生成する撮像部と、
前記撮像部で生成された前記それぞれの反射散乱光に関する前記撮像情報に対してレーザスペックル血流計測を行うことで、それぞれの前記撮像情報に対応する複数の血流量を演算する演算部と、
前記演算部による演算結果に基づいて、複数の表示特性のいずれかを用いて、前記複数の血流量のそれぞれを変換した複数の表示情報を生成し、前記複数の表示情報の少なくとも1つ以上を画面に表示させるための映像信号を出力する映像出力部と、
前記光源、前記撮像部、前記演算部、および前記映像出力部を統括制御し、術者による操作入力に基づいて、所望の表示特性を用いて前記複数の波長のうちの1以上の波長に対応する前記映像信号を出力させることで、前記血流量の相違を識別表示させる制御部と
を備える撮像装置。
a light source that emits laser light of multiple wavelengths;
A light source optical system that irradiates each of the laser beams of the plurality of wavelengths emitted from the plurality of light sources to the surgical field including the treatment target;
an imaging unit that photoelectrically converts reflected and scattered light from the laser beams of the plurality of wavelengths obtained from the surgical field to generate imaging information;
a calculation unit that calculates a plurality of blood flow volumes corresponding to each of the imaging information by performing laser speckle blood flow measurement on the imaging information related to each of the reflected scattered lights generated by the imaging unit;
generating a plurality of pieces of display information obtained by converting each of the plurality of blood flows using any one of a plurality of display characteristics based on the calculation results of the calculation unit, and generating at least one or more of the plurality of pieces of display information; a video output unit that outputs a video signal to be displayed on the screen;
The light source, the imaging unit, the calculation unit, and the image output unit are collectively controlled, and based on the operation input by the operator, one or more wavelengths out of the plurality of wavelengths are supported using desired display characteristics. and a control unit that discriminately displays the difference in blood flow by outputting the video signal.
前記光源は、前記複数の波長のレーザー光として、複数の近赤外帯域の波長を発光し、
前記制御部は、前記複数の近赤外帯域の波長の中から、術者による前記操作入力に基づいて選択された波長の前記映像信号を出力させるように統括制御を行うことで、前記術野における異なる深度による画像表示を可能とする
請求項1に記載の撮像装置。
The light source emits a plurality of wavelengths in a near-infrared band as the laser light of the plurality of wavelengths,
The control unit performs overall control so as to output the video signal having a wavelength selected from among the plurality of wavelengths in the near-infrared band based on the operation input by the operator, so that the operative field 2. The imaging device according to claim 1, capable of displaying images at different depths.
前記制御部は、前記複数の近赤外帯域の波長の中から、術者による前記操作入力に基づいて選択された2以上の波長のそれぞれに対応する異なる深度ごとでのレイヤーからなる2次元情報を生成し、生成した前記2次元情報を前記映像信号として出力させるように前記統括制御を行う
請求項2に記載の撮像装置。
The control unit provides two-dimensional information consisting of layers at different depths corresponding to two or more wavelengths selected from the plurality of wavelengths in the near-infrared band based on the operation input by the operator. and performs the overall control so as to output the generated two-dimensional information as the video signal.
前記制御部は、前記異なる深度ごとでのレイヤーからなる前記2次元情報の中で、術者による前記操作入力に基づいて選択された1以上のレイヤーを同時に表示させるための前記映像信号を出力させるように前記統括制御を行う
請求項3に記載の撮像装置。
The control unit outputs the video signal for simultaneously displaying one or more layers selected based on the operation input by the operator from the two-dimensional information consisting of layers at different depths. 4. The imaging apparatus according to claim 3, wherein the overall control is performed in such a manner as to
前記制御部は、前記異なる深度ごとでのレイヤーからなる前記2次元情報を元に、レイヤー間の情報を推測補間することで3次元情報を生成し、生成した前記3次元情報を前記映像信号として出力させるように前記統括制御を行う
請求項3に記載の撮像装置。
The control unit generates three-dimensional information by estimating and interpolating information between layers based on the two-dimensional information consisting of layers at different depths, and uses the generated three-dimensional information as the video signal. The imaging apparatus according to claim 3, wherein the integrated control is performed so as to output.
前記制御部は、前記演算部による前記血流量の演算結果に基づいて、前記表示情報を用いて前記血流量の相違を識別表示させるために適切な表示特性を学習する第一の学習機能を有し、
前記映像出力部は、前記第一の学習機能により学習された前記適切な表示特性を用いて、前記表示情報を生成する
請求項1から5のいずれか1項に記載の撮像装置。
The control unit has a first learning function for learning appropriate display characteristics for distinguishing and displaying the difference in blood flow using the display information, based on the result of calculation of the blood flow by the calculation unit. death,
The imaging device according to any one of claims 1 to 5, wherein the video output unit generates the display information using the appropriate display characteristics learned by the first learning function.
前記制御部は、前記術野における血管部あるいは神経に関する形状情報をあらかじめ取得しておき、前記演算部で演算された前記血流量のうち、あらかじめ決められた閾値以上の部分を正常部位として特定するとともに、前記正常部位と前記形状情報との位置合せを行うことで、正常部位に対する虚血部位の位置を特定する第二の学習機能を有し、
前記映像出力部は、前記生成した表示情報に対して、前記第二の学習機能により特定された前記虚血部位の位置に対して前記血管部あるいは前記神経が表示されるように前記表示情報を修正して前記映像信号を出力する
請求項1から6のいずれか1項に記載の撮像装置。
The control unit acquires in advance shape information about blood vessels or nerves in the operative field, and identifies a portion of the blood flow calculated by the calculation unit that is equal to or greater than a predetermined threshold as a normal region. Also, having a second learning function of identifying the position of the ischemic site with respect to the normal site by aligning the normal site and the shape information,
The video output unit outputs the generated display information such that the blood vessel or the nerve is displayed with respect to the position of the ischemic site identified by the second learning function. The imaging device according to any one of claims 1 to 6, wherein the video signal is output after being corrected.
前記光源は、前記複数の波長のレーザー光として、波長700nm~波長1000nmの帯域のレーザー光が含まれている
請求項1から7のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 7, wherein the light source includes laser light in a wavelength band of 700 nm to 1000 nm as the laser light of the plurality of wavelengths.
前記光源は、前記複数の波長のレーザー光として、波長700nm~波長1000nmの帯域と、波長1000nm~波長1500nmの帯域と、波長1550nm~波長1800nmの帯域のレーザー光が含まれている
請求項1から7のいずれか1項に記載の撮像装置。
2. From claim 1, wherein the light source includes laser light in a wavelength band of 700 nm to 1000 nm, a wavelength band of 1000 nm to 1500 nm, and a wavelength band of 1550 nm to 1800 nm as the laser light of the plurality of wavelengths. 8. The imaging device according to any one of 7.
前記光源は、前記複数の波長のレーザー光として、波長700nmのレーザー光と、波長1000nmのレーザー光が含まれている
請求項1から7のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 7, wherein the light source includes a laser beam with a wavelength of 700 nm and a laser beam with a wavelength of 1000 nm as the laser beams with the plurality of wavelengths.
前記光源は、前記複数の波長のレーザー光として、波長700nmのレーザー光と、波長850nmのレーザー光と、波長1000nmのレーザー光と、波長1300nmのレーザー光と、波長1700nmのレーザー光が含まれている
請求項1から7のいずれか1項に記載の撮像装置。
The light source includes laser light with a wavelength of 700 nm, laser light with a wavelength of 850 nm, laser light with a wavelength of 1000 nm, laser light with a wavelength of 1300 nm, and laser light with a wavelength of 1700 nm as the laser light with a plurality of wavelengths. The imaging device according to any one of claims 1 to 7.
JP2021092983A 2021-06-02 2021-06-02 Imaging device Pending JP2022185357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021092983A JP2022185357A (en) 2021-06-02 2021-06-02 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021092983A JP2022185357A (en) 2021-06-02 2021-06-02 Imaging device

Publications (1)

Publication Number Publication Date
JP2022185357A true JP2022185357A (en) 2022-12-14

Family

ID=84438750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092983A Pending JP2022185357A (en) 2021-06-02 2021-06-02 Imaging device

Country Status (1)

Country Link
JP (1) JP2022185357A (en)

Similar Documents

Publication Publication Date Title
JP6071073B2 (en) Inspection device
US20180078239A1 (en) Systems and methods for displaying medical images
JP7014715B2 (en) Optical coherence tomography position indicator in eye visualization
JP5657467B2 (en) Medical image display system
EP2857793B1 (en) Image capture device and image capture method
JP4968167B2 (en) Optical biometric apparatus and holder arrangement support system used therefor
US20070014464A1 (en) Optical coherence tomograph
JP7427251B2 (en) Multispectral physiology visualization (MSPV) using laser imaging methods and systems for blood flow and perfusion imaging and quantification in endoscope design
WO2011010355A1 (en) Organism optical measurement device
EP2552300B1 (en) Optical coherent imaging medical device
JP6339269B2 (en) Optical measuring device
WO2010102197A2 (en) Thermal surgical monitoring
JP2016524478A (en) Method and apparatus for stereoscopic display of image data
JP2010119660A (en) Organism measuring instrument
TWI342201B (en)
JP2022185357A (en) Imaging device
JP4978485B2 (en) Optical biometric device
EP2451358B1 (en) Visualization of physiological parameters
WO2022038806A1 (en) Therapeutic assistance system and therapeutic assistance device
JP4594208B2 (en) Functional confocal image display device
WO2020116067A1 (en) Medical system, information processing device, and information processing method
JP5853777B2 (en) Optical biological measurement device
JP2012050598A (en) Imaging and displaying method and apparatus
JP2007135690A (en) Ultrasonic diagnostic therapeutic apparatus
WO2018181953A1 (en) Hemoglobin quantification device, hemoglobin quantification method, hemoglobin quantification program, and surgical assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240304