JP2022108089A - projection device - Google Patents

projection device Download PDF

Info

Publication number
JP2022108089A
JP2022108089A JP2021002923A JP2021002923A JP2022108089A JP 2022108089 A JP2022108089 A JP 2022108089A JP 2021002923 A JP2021002923 A JP 2021002923A JP 2021002923 A JP2021002923 A JP 2021002923A JP 2022108089 A JP2022108089 A JP 2022108089A
Authority
JP
Japan
Prior art keywords
light
image
observation site
projection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021002923A
Other languages
Japanese (ja)
Inventor
穣二 和田
Joji Wada
洋太 橋本
Hirota Hashimoto
隼 和智
Hayato Wachi
哲 宮西
Satoru Miyanishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I Pro Co Ltd filed Critical I Pro Co Ltd
Priority to JP2021002923A priority Critical patent/JP2022108089A/en
Publication of JP2022108089A publication Critical patent/JP2022108089A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Projection Apparatus (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To suppress the complication of adjustment of each optical axis in imaging and projection of a subject and achieve the size reduction and weight reduction of the entire system.SOLUTION: A projection device comprises: a lens to which light from an observation portion is incident; an imaging unit which captures an image of the observation portion on the basis of the light received through the lens; and a projection unit which generates a projection image to the observation portion on the basis of the image of the observation portion captured by the imaging unit. The lens projects light of the projection image from the projection unit along a light projection axis being coaxial with an incident axis of the light from the observation portion in the direction opposite to the direction in which the light from the observation portion is incident.SELECTED DRAWING: Figure 3

Description

本開示は、投影装置に関する。 The present disclosure relates to projection devices.

近年、手術あるいは検査時に、被検体内に蛍光試薬としてICG(インドシアニングリーン)が投与され、励起光の照射等によりICGを励起させ、ICGが発する近赤外の蛍光像を被写体像とともに撮像し、観察することにより診断を行う方法が注目されている。例えば特許文献1に開示されている光学イメージングシステムは、サイト(例えば患者が手術される場所)の画像とプロジェクタから投影される画像とを撮像する電子イメージングデバイスと、手術中にサイト上で撮像される画像が目に見えるように表現した物を投影するプロジェクタと、電子イメージングデバイスとプロジェクタとの各光軸を一直線状に整列する光学要素とを含む。 In recent years, during surgery or examination, ICG (indocyanine green) is administered as a fluorescent reagent into the subject, and the ICG is excited by irradiation with excitation light, etc., and the near-infrared fluorescence image emitted by the ICG is captured together with the subject image. , a method of making a diagnosis by observation has attracted attention. For example, the optical imaging system disclosed in US Pat. and optical elements that align optical axes of the electronic imaging device and the projector.

米国特許出願公開第2008/0004533号明細書U.S. Patent Application Publication No. 2008/0004533

特許文献1の構成では、光学イメージングシステムを構成する電子イメージングデバイス(例えばカメラ)とプロジェクタとがそれぞれ別体で異なる位置に配置され、電子イメージングデバイスおよびプロジェクタのそれぞれが異なるレンズを有する構成となっている。このため、電子イメージングデバイスが撮像する時の光軸およびプロジェクタが投影する時の光軸を個別に一直線状に調整するために煩雑な作業が要求されるだけでなく、システムの小型化の実現が困難であった。つまり、被写体(例えば患者)の撮像時および投影時の各光軸の調整とともに全体的なシステムの小型化とを実現する上で改善の余地があった。 In the configuration of Patent Document 1, an electronic imaging device (for example, a camera) and a projector that constitute an optical imaging system are arranged separately and at different positions, and the electronic imaging device and the projector each have a different lens. there is For this reason, not only is complicated work required to individually align the optical axis when the electronic imaging device picks up an image and the optical axis when the projector projects, but it also makes it possible to reduce the size of the system. It was difficult. In other words, there is room for improvement in terms of adjustment of each optical axis during imaging and projection of a subject (for example, a patient) and miniaturization of the overall system.

本開示は、上述した従来の事情に鑑みて案出され、被写体の撮像時および投影時の各光軸の調整の煩雑化を抑制するとともに、全体的なシステムの小型化および軽量化を実現する投影装置を提供することを目的とする。 The present disclosure has been devised in view of the above-described conventional circumstances, and suppresses the complexity of adjusting each optical axis when imaging and projecting a subject, and realizes the overall size and weight of the system. It is an object of the present invention to provide a projection device.

本開示は、観察部位からの光が入射するレンズと、前記レンズを透して受光された光に基づいて、前記観察部位の画像を撮像する撮像部と、前記撮像部により撮像された前記観察部位の画像に基づいて、前記観察部位への投影画像を生成する投影部と、を備え、前記レンズは、前記投影部からの前記投影画像の光を、前記観察部位からの光が入射する方向と逆方向であって、かつ前記観察部位からの光の入射軸と同軸である投光軸に沿って投光する、投影装置を提供する。 The present disclosure includes a lens into which light from an observation site is incident, an imaging unit that captures an image of the observation site based on the light received through the lens, and the observation imaged by the imaging unit. a projection unit that generates a projected image onto the observed region based on the image of the region, and the lens projects the light of the projected image from the projection unit in a direction in which the light from the observed region is incident. A projection device that projects light along a projection axis that is opposite to and coaxial with the incident axis of light from the observation site.

本開示によれば、被写体の撮像時および投影時の各光軸の調整の煩雑化を抑制でき、全体的なシステムの小型化および軽量化を実現できる。 Advantageous Effects of Invention According to the present disclosure, it is possible to suppress complication of adjustment of each optical axis when imaging an object and when projecting, and realize miniaturization and weight reduction of the entire system.

実施の形態1に係る分光プリズムカメラのユースケース例を示す図FIG. 4 is a diagram showing a use case example of the spectral prism camera according to the first embodiment; 実施の形態1に係る分光プリズムカメラの内部構成例を示すブロック図1 is a block diagram showing an internal configuration example of a spectral prism camera according to Embodiment 1; FIG. 実施の形態1に係る分光プリズムカメラの動作概要を示す図FIG. 4 is a diagram showing an outline of the operation of the spectral prism camera according to Embodiment 1; クロスプリズムのA面の反射特性例を示すグラフA graph showing an example of the reflection characteristics of the A surface of the cross prism クロスプリズムのB面の反射特性例を示すグラフGraph showing an example of the reflection characteristics of the B surface of the cross prism 光学フィルタの透過特性の第1例を示すグラフGraph showing a first example of transmission characteristics of an optical filter 光学フィルタの透過特性の第2例を示すグラフGraph showing a second example of transmission characteristics of an optical filter 実施の形態1に係る分光プリズムカメラの第1動作手順例を示すフローチャート4 is a flow chart showing a first example of operation procedure of the spectral prism camera according to the first embodiment; 実施の形態1に係る分光プリズムカメラの第2動作手順例を示すフローチャート4 is a flow chart showing a second operation procedure example of the spectral prism camera according to the first embodiment; 実施の形態1に係る分光プリズムカメラの第3動作手順例を示すフローチャート10 is a flow chart showing a third operation procedure example of the spectral prism camera according to the first embodiment; 実施の形態2に係る分光プリズムカメラの内部構成例を示すブロック図FIG. 4 is a block diagram showing an internal configuration example of a spectral prism camera according to Embodiment 2; 実施の形態2に係る分光プリズムカメラの動作概要を示す図FIG. 11 is a diagram showing an outline of the operation of the spectral prism camera according to the second embodiment; 実施の形態2に係る分光プリズムカメラの第1動作手順例を示すフローチャート10 is a flow chart showing a first operation procedure example of the spectral prism camera according to the second embodiment;

以下、適宜図面を参照しながら、本開示に係る投影装置を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明および実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments specifically disclosing a projection apparatus according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.

図1は、実施の形態1に係る分光プリズムカメラ100のユースケース例を示す図である。本開示に係る投影装置の一例としての分光プリズムカメラ100は、例えば看護師等の補助者U2の協力の下で患者PAT1への手術を施している医師U1により装着されて使用され、投影画像(後述参照)の光PJL1を患者PAT1の患部AFP1に投影する。分光プリズムカメラ100は、例えば医師U1の頭部の外周を覆うヘッドバンドHMB1の先端側に取り付けられて固定され、医師U1の頭部の動きに追従するように投影画像を投影するヘッドマウント型の投影装置である。なお、分光プリズムカメラ100のユースケースは、手術中の医師U1に装着されるような医療用途に限定されなくてもよい。 FIG. 1 is a diagram showing a use case example of the spectral prism camera 100 according to the first embodiment. A spectroscopic prism camera 100 as an example of a projection device according to the present disclosure is used by being worn by a doctor U1 who is performing an operation on a patient PAT1 with the cooperation of an assistant U2 such as a nurse. (see below) is projected onto the affected area AFP1 of the patient PAT1. The spectroscopic prism camera 100 is, for example, attached and fixed to the tip side of a headband HMB1 that covers the outer circumference of the head of the doctor U1, and is a head-mounted type that projects a projection image so as to follow the movement of the head of the doctor U1. It is a projection device. Note that the use case of the spectral prism camera 100 need not be limited to a medical application such as being worn by a doctor U1 during an operation.

(実施の形態1)
図2は、実施の形態1に係る分光プリズムカメラ100の内部構成例を示すブロック図である。分光プリズムカメラ100は、共用レンズLS1と、カメラヘッド部10と、カメラ信号処理部20と、CCU(Camera Control Unit)30と、投影機部40と、カメラ制御部50と、ABF(Auto Back Focus)制御部51と、照明制御部52と、レンズ制御部54と、照明部ILM1とを含む構成である。また、分光プリズムカメラ100は、表示器DP1と有線あるいは無線を介して接続されている。
(Embodiment 1)
FIG. 2 is a block diagram showing an example internal configuration of the spectral prism camera 100 according to the first embodiment. The spectral prism camera 100 includes a common lens LS1, a camera head section 10, a camera signal processing section 20, a CCU (Camera Control Unit) 30, a projector section 40, a camera control section 50, an ABF (Auto Back Focus ) includes a control unit 51, an illumination control unit 52, a lens control unit 54, and an illumination unit ILM1. Also, the spectral prism camera 100 is connected to the display DP1 via wire or wireless.

レンズの一例としての共用レンズLS1は、カメラヘッド部10のクロスプリズムCXP1(後述参照)より対物側(言い換えると、観察部位の一例としての患部AFP1側)に取り付けられた光学レンズを含むレンズユニットとして構成される。共用レンズLS1には観察部位からの光(例えば観察部位での反射光)が入射し、共用レンズLS1はその入射した光を集光する。共用レンズLS1により集光された観察部位からの光は、カメラヘッド部10のクロスプリズムCXP1に入射する。 A common lens LS1 as an example of a lens is a lens unit including an optical lens attached on the object side (in other words, on the affected part AFP1 side as an example of an observed part) from the cross prism CXP1 (see below) of the camera head section 10. Configured. Light from an observation site (for example, reflected light from the observation site) is incident on the common lens LS1, and the common lens LS1 collects the incident light. The light from the observation site condensed by the common lens LS1 enters the cross prism CXP1 of the camera head section 10 .

また、共用レンズLS1は、カメラヘッド部10のイメージセンサ11,12で受光される光を集光する機能と、投影機部40からの投影画像(後述参照)の光を投光する機能とを有する。つまり、共用レンズLS1は、投影機部40からの投影画像(後述参照)の光を、観察部位からの光が入射する方向と逆方向であって、かつ観察部位からの光の入射軸IMX1(例えば光軸)と同軸である投光軸PJX1に沿って投光する。言い換えると、実施の形態1において、共用レンズLS1は、カメラヘッド部10と投影機部40とで共用されている。 Further, the common lens LS1 has a function of condensing light received by the image sensors 11 and 12 of the camera head section 10 and a function of projecting light of a projected image (see later) from the projector section 40. have. In other words, the common lens LS1 projects the light of the projected image (see below) from the projector unit 40 in the direction opposite to the direction in which the light from the observation site is incident, and the incident axis IMX1 of the light from the observation site ( For example, light is projected along a light projection axis PJX1 that is coaxial with the optical axis). In other words, in Embodiment 1, the shared lens LS1 is shared by the camera head section 10 and the projector section 40 .

カメラヘッド部10は、共用レンズLS1の次に対物側(つまり観察部位側)に配置され、共用レンズLS1を透過した光を分光したり撮像したりする。カメラヘッド部10は、2つの光学面(後述するA面AS1およびB面BS1参照)を有するクロスプリズムCXP1と、光学フィルタOPF1と、イメージセンサ11を含むオートバックフォーカス機構ABF1と、光学フィルタOPF2と、イメージセンサ12を含むオートバックフォーカス機構ABF2と、光学フィルタOPF3とを含む。 The camera head unit 10 is arranged next to the shared lens LS1 on the object side (that is, on the observation site side), and separates and images the light transmitted through the shared lens LS1. The camera head unit 10 includes a cross prism CXP1 having two optical surfaces (see A surface AS1 and B surface BS1 which will be described later), an optical filter OPF1, an auto back focus mechanism ABF1 including an image sensor 11, and an optical filter OPF2. , an automatic back focus mechanism ABF2 including an image sensor 12, and an optical filter OPF3.

分光プリズムの一例としてのクロスプリズムCXP1は、光学面としての性質を有するA面AS1およびB面BS1を有し、プリズム固定部材FX1により固定される。クロスプリズムCXP1は、共用レンズLS1により集光された光(つまり観察部位からの光)をB面BS1において反射および透過するとともに、投影機部40から投光された投影画像(後述参照)の光をA面AS1において反射あるいは全反射して共用レンズLS1に投光する。 A cross prism CXP1 as an example of a spectral prism has an A surface AS1 and a B surface BS1 having properties as optical surfaces, and is fixed by a prism fixing member FX1. The cross prism CXP1 reflects and transmits the light condensed by the common lens LS1 (that is, the light from the observation site) on the surface B BS1, and also reflects the light of the projection image (see below) projected from the projector unit 40. is reflected or totally reflected by the A surface AS1 and projected onto the common lens LS1.

ここで、図4Aおよび図4Bを参照して、クロスプリズムCXP1のA面AS1およびB面BS1の光学特性について説明する。図4Aは、クロスプリズムCXP1のA面AS1の反射特性例を示すグラフである。図4Bは、クロスプリズムCXP1のB面BS1の反射特性例を示すグラフである。図4Aおよび図4Bにおいて、横軸は波長[nm:ナノメートル]、縦軸は反射特性の一例としての反射率を示す。 Here, optical characteristics of the A surface AS1 and the B surface BS1 of the cross prism CXP1 will be described with reference to FIGS. 4A and 4B. FIG. 4A is a graph showing an example of reflection characteristics of the A surface AS1 of the cross prism CXP1. FIG. 4B is a graph showing an example of reflection characteristics of the B surface BS1 of the cross prism CXP1. 4A and 4B, the horizontal axis indicates wavelength [nm: nanometer], and the vertical axis indicates reflectance as an example of reflection characteristics.

図4Aにおいて、A面AS1は、例えば400±20[nm]の波長を有する青色単色の光(青色光)を高い反射率(例えば70%)で反射する光学的性質を有している。なお、図4AではA面AS1の青色光の反射率が70%となっているが、100%(つまり全反射可能な反射率)であってもよい。一方で、A面AS1は、例えば830±30[nm]の波長を有する近赤外(IR:Infrared Ray)光をほぼ透過させずに反射させる光学的性質を有している。例えば透過率に関する光学濃度(OD(Optical Density)値)は4から5である。 In FIG. 4A, the A surface AS1 has an optical property of reflecting monochromatic blue light (blue light) having a wavelength of, for example, 400±20 [nm] with a high reflectance (eg, 70%). Although the blue light reflectance of the A surface AS1 is 70% in FIG. 4A, it may be 100% (that is, a reflectance capable of total reflection). On the other hand, the A-surface AS1 has an optical property of reflecting near-infrared (IR) light having a wavelength of, for example, 830±30 [nm] without transmitting it. For example, the optical density (OD (Optical Density) value) for transmittance is 4-5.

図4Bにおいて、B面BS1は、例えば430~680[nm]の波長を有する可視光を高い反射率(例えば70%)で反射する光学的性質を有している。なお、図4BではB面BS1の可視光の反射率が70%となっているが、70%に限定されなくてよい。一方で、B面BS1は、例えば830±30[nm]の波長を有する近赤外(IR)光をほぼ透過させずに反射させる光学的性質を有している。例えば透過率に関する光学濃度(OD値)は4から5である。 In FIG. 4B, B-side BS1 has an optical property of reflecting visible light having a wavelength of, for example, 430 to 680 [nm] with a high reflectance (eg, 70%). Although the visible light reflectance of the B surface BS1 is 70% in FIG. 4B, it is not limited to 70%. On the other hand, the B-side BS1 has an optical property of reflecting near-infrared (IR) light having a wavelength of, for example, 830±30 [nm] without transmitting it. For example, the optical density (OD value) in terms of transmittance is 4-5.

光学フィルタOPF1は、例えば840~900[nm]の波長を有する近赤外(IR)光のみを透過させて他の帯域の波長を有する光を遮断するバンドパスフィルタ(BPF:Band Pass Filter)により構成される。なお、光学フィルタOPF1(バンドパスフィルタ)が透過させる光の波長帯域は840~900[nm]に限定されなくてよい。光学フィルタOPF1は、クロスプリズムのB面BS1により反射された近赤外(IR)光(例えば観察部位により反射された励起光(後述参照)および蛍光(後述参照))のうち840~900[nm]の光(例えば観察部位により反射された蛍光)を透過する。光学フィルタOPF1を透過した近赤外(IR)光はイメージセンサ11により受光される。なお、光学フィルタOPF1は、オートバックフォーカス機構ABF1内に設けられるように配置されてもよいし、オートバックフォーカス機構ABF1とは別体で設けられてもよい。 The optical filter OPF1 is, for example, a band pass filter (BPF) that transmits only near-infrared (IR) light having a wavelength of 840 to 900 [nm] and blocks light having wavelengths in other bands. Configured. The wavelength band of light transmitted by the optical filter OPF1 (bandpass filter) need not be limited to 840 to 900 [nm]. The optical filter OPF1 filters 840 to 900 [nm ] (for example, fluorescence reflected by the site of observation). Near-infrared (IR) light transmitted through the optical filter OPF1 is received by the image sensor 11 . The optical filter OPF1 may be arranged so as to be provided within the automatic back focus mechanism ABF1, or may be provided separately from the automatic back focus mechanism ABF1.

ここで、図4Cおよび図4Dを参照して、光学フィルタOPF1の光学特性について説明する。図4Cは、光学フィルタOPF1の透過特性の第1例を示すグラフである。図4Dは、光学フィルタOPF1の透過特性の第2例を示すグラフである。図4Cおよび図4Dにおいて、横軸は波長[nm:ナノメートル]、縦軸は透過特性の一例としての透過率を示す。 Here, optical characteristics of the optical filter OPF1 will be described with reference to FIGS. 4C and 4D. FIG. 4C is a graph showing a first example of transmission characteristics of the optical filter OPF1. FIG. 4D is a graph showing a second example of transmission characteristics of the optical filter OPF1. In FIGS. 4C and 4D, the horizontal axis indicates wavelength [nm: nanometer], and the vertical axis indicates transmittance as an example of transmission characteristics.

図4Cにおいて、光学フィルタOPF1は、例えば840~900[nm]の波長を有する近赤外(IR)光を高い透過率(例えば80%)で透過する光学的性質を有している。これは、例えば患部APF1に手術前に予め投与された蛍光試薬(例えばICG:インドシアニングリーン)が720~820[nm]の励起光に基づいて発光した蛍光の波長帯域が840~900[nm]であることに基づく。なお、図4Cでは光学フィルタOPF1の840~900[nm]の波長を有する近赤外(IR)光の透過率が80%となっているが、80%に限定されなくてよい。一方で、光学フィルタOPF1は、例えば600~670[nm]の波長を有する可視光をほぼ透過させずに反射させる光学的性質を有している。例えば透過率に関する光学濃度(OD値)は5である。 In FIG. 4C, the optical filter OPF1 has an optical property of transmitting near-infrared (IR) light having a wavelength of, for example, 840 to 900 [nm] with a high transmittance (eg, 80%). This is because, for example, a fluorescent reagent (eg, ICG: indocyanine green) pre-administered to the affected area APF1 before surgery emits fluorescence based on excitation light of 720 to 820 [nm], and the wavelength band is 840 to 900 [nm]. based on being In FIG. 4C, the transmittance of near-infrared (IR) light having a wavelength of 840 to 900 [nm] of the optical filter OPF1 is 80%, but it is not limited to 80%. On the other hand, the optical filter OPF1 has an optical property of reflecting visible light having a wavelength of, for example, 600 to 670 [nm] without substantially transmitting it. For example, the optical density (OD value) for transmittance is 5.

図4Dにおいて、光学フィルタOPF1は、例えば800~860[nm]の波長を有する近赤外(IR)光を高い透過率(例えば80%)で透過する光学的性質を有している。これは、例えば患部APF1に手術前に予め蛍光試薬(例えば720~820[nm]の励起光に基づいて発光した蛍光の波長帯域が800~860[nm]となる蛍光試薬)が投与されていることに基づく。なお、図4Dでは光学フィルタOPF1の800~860[nm]の波長を有する近赤外(IR)光の透過率が80%となっているが、80%に限定されなくてよい。一方で、光学フィルタOPF1は、例えば600~670[nm]の波長を有する可視光をほぼ透過させずに反射させる光学的性質を有している。例えば透過率に関する光学濃度(OD値)は5である。 In FIG. 4D, the optical filter OPF1 has an optical property of transmitting near-infrared (IR) light having a wavelength of, for example, 800 to 860 [nm] with a high transmittance (eg, 80%). For example, a fluorescent reagent (for example, a fluorescent reagent whose wavelength band is 800 to 860 [nm] for fluorescence emitted based on excitation light of 720 to 820 [nm]) is administered to the affected area APF1 in advance before surgery. based on In FIG. 4D, the transmittance of near-infrared (IR) light having a wavelength of 800 to 860 [nm] of the optical filter OPF1 is 80%, but it is not limited to 80%. On the other hand, the optical filter OPF1 has an optical property of reflecting visible light having a wavelength of, for example, 600 to 670 [nm] without substantially transmitting it. For example, the optical density (OD value) for transmittance is 5.

イメージセンサ11は、例えば近赤外(IR)光の撮像に適した複数の画素が配列されたCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)を含む。イメージセンサ11は、クロスプリズムCXP1のB面BS1により反射あるいは全反射された近赤外(IR)光が受光し易くなるように、上述した入射軸IMXと直交する撮像軸CAX1と撮像面が直交する状態で配置される。イメージセンサ11は、受光された近赤外(IR)光に基づいて観察部位の近赤外画像(例えばICGの蛍光発光に基づいて患部AFP1の位置を特定可能な蛍光画像)を撮像する。イメージセンサ11は、撮像により得られた観察部位の近赤外画像信号を第1信号処理部21に送る。 The image sensor 11 includes, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) in which a plurality of pixels suitable for imaging near-infrared (IR) light are arranged. The imaging surface of the image sensor 11 is perpendicular to the imaging axis CAX1, which is perpendicular to the incident axis IMX, so that the near-infrared (IR) light reflected or totally reflected by the B surface BS1 of the cross prism CXP1 can be easily received. placed in a state where The image sensor 11 captures a near-infrared image of the observation site based on the received near-infrared (IR) light (for example, a fluorescence image that allows the position of the affected area AFP 1 to be identified based on fluorescence emission of ICG). The image sensor 11 sends a near-infrared image signal of the observation site obtained by imaging to the first signal processing section 21 .

オートバックフォーカス機構ABF1は、例えば特許第3738777号公報に開示されているような機構により構成され、ABF制御部51からの制御信号に基づいて、イメージセンサ11の撮像面が撮像軸CAX1に直交する状態を維持しながらイメージセンサ11を撮像軸CAX1の方向に移動させることでイメージセンサ11の焦点距離を適宜調整する機能を有している。つまり、オートバックフォーカス機構ABF1によれば、例えばイメージセンサ11に受光される光の波長帯域がカメラ制御部50(後述参照)によって異なる波長帯域に選択される場合でも、異なる波長帯域に伴う光路長の変化があってもイメージセンサ11を撮像軸CAX1の方向に移動可能となることでピントの合う鮮明な近赤外画像を得ることができる。 The automatic back focus mechanism ABF1 is configured by a mechanism such as that disclosed in Japanese Patent No. 3738777, for example, and based on a control signal from the ABF control section 51, the imaging surface of the image sensor 11 is perpendicular to the imaging axis CAX1. It has a function of appropriately adjusting the focal length of the image sensor 11 by moving the image sensor 11 in the direction of the imaging axis CAX1 while maintaining the state. That is, according to the auto back focus mechanism ABF1, even if the wavelength band of the light received by the image sensor 11 is selected by the camera control unit 50 (see below) as a different wavelength band, the optical path length associated with the different wavelength band Since the image sensor 11 can be moved in the direction of the imaging axis CAX1 even if there is a change in , a clear near-infrared image in focus can be obtained.

光学フィルタOPF2は、例えば430~680[nm]の波長を有する可視光(但し青色光は少ない)のみを透過させて他の帯域の波長を有する光を遮断するバンドパスフィルタ(BPF)により構成される。つまり、光学フィルタOPF2は赤外光カットフィルタとしての機能を有する。なお、光学フィルタOPF2(バンドパスフィルタ)が透過させる光の波長帯域は430~680[nm]に限定されなくてよい。光学フィルタOPF2は、クロスプリズムのB面BS1を透過した430~680[nm]の波長を有する可視光(但し青色光は少ない)を透過する。光学フィルタOPF2を透過した可視光(但し青色光は少ない)はイメージセンサ12により受光される。なお、光学フィルタOPF2は、オートバックフォーカス機構ABF2内に設けられるように配置されてもよいし、オートバックフォーカス機構ABF2とは別体で設けられてもよい。 The optical filter OPF2 is composed of a bandpass filter (BPF) that transmits only visible light (however, there is little blue light) having a wavelength of, for example, 430 to 680 [nm] and blocks light having wavelengths in other bands. be. In other words, the optical filter OPF2 functions as an infrared light cut filter. The wavelength band of light transmitted by the optical filter OPF2 (band-pass filter) need not be limited to 430 to 680 [nm]. The optical filter OPF2 transmits visible light (however, little blue light) having a wavelength of 430 to 680 [nm] transmitted through the B surface BS1 of the cross prism. Visible light (however, blue light is less) transmitted through the optical filter OPF2 is received by the image sensor 12 . The optical filter OPF2 may be arranged so as to be provided inside the automatic back focus mechanism ABF2, or may be provided separately from the automatic back focus mechanism ABF2.

イメージセンサ12は、例えば可視光の撮像に適した複数の画素が配列されたCCDまたはCMOSを含む。イメージセンサ12は、クロスプリズムCXP1のB面BS1を透過した可視光(但し青色光は少ない)が受光し易くなるように、上述した入射軸IMX1と撮像面が直交する状態で配置される。イメージセンサ12は、受光された可視光(但し青色光は少ない)に基づいて観察部位の可視画像を撮像する。イメージセンサ12は、撮像により得られた観察部位の可視画像信号を第2信号処理部22に送る。なお、イメージセンサ12は、イメージセンサ11と同様に、近赤外(IR)光の撮像に適した複数の画素が配列されたCCDまたはCMOSを含む構成としてもよい。 The image sensor 12 includes, for example, a CCD or CMOS in which a plurality of pixels suitable for visible light imaging are arranged. The image sensor 12 is arranged so that the incident axis IMX1 and the imaging surface are perpendicular to each other so that visible light (however, blue light is less) transmitted through the B surface BS1 of the cross prism CXP1 is easily received. The image sensor 12 captures a visible image of the observation site based on the received visible light (however, blue light is less). The image sensor 12 sends a visible image signal of the observation site obtained by imaging to the second signal processing section 22 . Note that the image sensor 12 may have a configuration including a CCD or a CMOS in which a plurality of pixels suitable for capturing near-infrared (IR) light are arranged, like the image sensor 11 .

オートバックフォーカス機構ABF2は、例えば特許第3738777号公報に開示されているような機構により構成され、ABF制御部51からの制御信号に基づいて、イメージセンサ12の撮像面が入射軸IMX1に直交する状態を維持しながらイメージセンサ12を入射軸IMX1の方向に移動させることでイメージセンサ12の焦点距離を適宜調整する機能を有している。つまり、オートバックフォーカス機構ABF2によれば、例えばイメージセンサ12に受光される光の波長帯域がカメラ制御部50(後述参照)によって異なる波長帯域に選択される場合でも、異なる波長帯域に伴う光路長の変化があってもイメージセンサ12を入射軸IMX1の方向に移動可能となることでピントの合う鮮明な可視画像を得ることができる。 The auto back focus mechanism ABF2 is configured by a mechanism such as that disclosed in Japanese Patent No. 3738777, for example, and based on a control signal from the ABF control section 51, the imaging surface of the image sensor 12 is perpendicular to the incident axis IMX1. It has a function of appropriately adjusting the focal length of the image sensor 12 by moving the image sensor 12 in the direction of the incident axis IMX1 while maintaining the state. That is, according to the auto back focus mechanism ABF2, even if the wavelength band of the light received by the image sensor 12 is selected by the camera control unit 50 (see below), the optical path length associated with the different wavelength band Even if there is a change in , the image sensor 12 can be moved in the direction of the incident axis IMX1, so that a sharp visible image in focus can be obtained.

光学フィルタOPF3は、例えば400±20[nm]の波長を有する青色光のみを透過させて他の帯域の波長を有する光を遮断するバンドパスフィルタ(BPF)により構成される。なお、光学フィルタOPF3(バンドパスフィルタ)が透過させる光の波長帯域は400[nm]に限定されなくてよい。光学フィルタOPF3は、投影機部40の画像結像面43(後述参照)により形成された投影画像(後述参照)の光のうち400±20[nm]の青色光を透過する。光学フィルタOPF3を透過した青色光はクロスプリズムCXP1のA面AS1により反射あるいは全反射される。なお、光学フィルタOPF3は、オートバックフォーカス機構ABF3内に設けられるように配置されてもよいし、オートバックフォーカス機構ABF3とは別体で設けられてもよい。 The optical filter OPF3 is composed of a band-pass filter (BPF) that transmits only blue light having a wavelength of, for example, 400±20 [nm] and blocks light having wavelengths in other bands. The wavelength band of light transmitted by the optical filter OPF3 (band-pass filter) need not be limited to 400 [nm]. The optical filter OPF3 transmits blue light of 400±20 [nm] out of the light of the projection image (see below) formed by the image forming plane 43 (see below) of the projector section 40 . Blue light transmitted through the optical filter OPF3 is reflected or totally reflected by the A surface AS1 of the cross prism CXP1. Note that the optical filter OPF3 may be arranged so as to be provided within the automatic back focus mechanism ABF3, or may be provided separately from the automatic back focus mechanism ABF3.

カメラ信号処理部20は、カメラヘッド部10での撮像により得られた画像信号を用いて人が認知可能な形式(例えばRGB形式もしくはYUV形式)の撮像画像データを生成する。カメラ信号処理部20は、第1信号処理部21と、第2信号処理部22とを含む。なお、後述するCCU30はカメラ信号処理部20内に含まれる構成としてもよい。 The camera signal processing unit 20 uses an image signal obtained by imaging with the camera head unit 10 to generate captured image data in a format recognizable by humans (for example, RGB format or YUV format). The camera signal processing section 20 includes a first signal processing section 21 and a second signal processing section 22 . Note that the CCU 30 to be described later may be configured to be included in the camera signal processing section 20 .

第1信号処理部21は、例えばDSP(Digital Signal Processor)あるいはFPGA(Field Programmable Gate Array)等のプロセッサにより構成される。第1信号処理部21は、イメージセンサ11からの画像信号(例えば観察部位の近赤外画像信号)を用いて各種のカメラ信号処理を施して撮像画像データ(例えば観察部位の蛍光画像データ)を生成してCCU30に送る。なお、第1信号処理部21により生成される撮像画像データは、上述した観察部位の近赤外画像データに限定されず、例えば観察部位の可視画像データ、もしくは観察部位の特定波長画像データであってもよい。特定波長画像データは、第1信号処理部21におけるカメラ信号処理によって、予め設定された特定の波長帯域の成分のみ抽出された画像データである。 The first signal processing unit 21 is configured by a processor such as a DSP (Digital Signal Processor) or an FPGA (Field Programmable Gate Array). The first signal processing unit 21 performs various camera signal processing using an image signal from the image sensor 11 (for example, a near-infrared image signal of an observation site) to generate imaged image data (for example, fluorescence image data of an observation site). Generate and send to CCU 30 . Note that the captured image data generated by the first signal processing unit 21 is not limited to the above-described near-infrared image data of the observation site, and may be, for example, visible image data of the observation site or specific wavelength image data of the observation site. may The specific wavelength image data is image data in which only components in a preset specific wavelength band are extracted by camera signal processing in the first signal processing unit 21 .

第2信号処理部22は、例えばDSPあるいはFPGA等のプロセッサにより構成される。第2信号処理部22は、イメージセンサ12からの画像信号(例えば観察部位の可視画像信号)を用いて各種のカメラ信号処理を施して撮像画像データ(例えば観察部位の可視画像データ)を生成してCCU30に送る。なお、第2信号処理部22により生成される撮像画像データは、上述した観察部位の可視画像データに限定されず、例えば観察部位の近赤外画像データ(上述参照)、もしくは観察部位の特定波長画像データであってもよい。特定波長画像データは、第2信号処理部22におけるカメラ信号処理によって、予め設定された特定の波長帯域の成分のみ抽出された画像データである。 The second signal processing unit 22 is configured by a processor such as DSP or FPGA, for example. The second signal processing unit 22 performs various camera signal processing using an image signal (for example, a visible image signal of an observation site) from the image sensor 12 to generate imaged image data (for example, visible image data of an observation site). and sent to the CCU 30. Note that the imaged image data generated by the second signal processing unit 22 is not limited to the visible image data of the observation site described above, and is, for example, the near-infrared image data of the observation site (see above), or the specific wavelength of the observation site. It may be image data. The specific wavelength image data is image data from which only components in a preset specific wavelength band are extracted by camera signal processing in the second signal processing unit 22 .

CCU30は、例えばDSPあるいはFPGA等のプロセッサにより構成され、第1信号処理部21および第2信号処理部22のそれぞれからの撮像画像データを用いて各種の画像解析処理(例えば画像間演算もしくは画像合成)を行う。また、CCU30は、前述した画像解析処理によって観察部位あるいは観察部位に置かれている対象物(例えば分析対象の物体)の状態、性質等を分析してもよい。 The CCU 30 is composed of a processor such as a DSP or FPGA, for example, and uses the captured image data from each of the first signal processing section 21 and the second signal processing section 22 to perform various image analysis processes (for example, inter-image calculation or image synthesis). )I do. In addition, the CCU 30 may analyze the state, properties, etc. of the observation site or an object placed at the observation site (for example, an object to be analyzed) by the above-described image analysis processing.

また、CCU30は、第1信号処理部21からの観察部位の近赤外画像データと第2信号処理部22からの観察部位の可視画像データとを用いて観察部位の近赤外画像データを観察部位の可視画像データ(例えば投影機部40による投影用の青色単色の投影画像データ)に変換するための生成指示を生成して投影処理部41に指示してもよい。なお、この投影画像データの生成はCCU30により実行されてもよい。また、CCU30は、第1信号処理部21からの観察部位の近赤外画像データと第2信号処理部22からの観察部位の可視画像データとを重畳した画像合成を行って表示器DP1に表示出力してもよい。これにより、医師U1あるいは補助者U2は、可視画像データと近赤外画像データとにより観察部位の詳細な状態を直感的に把握できて医療行為(例えば手術)の進行の支援を受けることができる。 Further, the CCU 30 observes the near-infrared image data of the observation site using the near-infrared image data of the observation site from the first signal processing unit 21 and the visible image data of the observation site from the second signal processing unit 22. A generation instruction may be generated for conversion into visible image data of the part (for example, blue single-color projection image data for projection by the projector unit 40), and the projection processing unit 41 may be instructed. Note that the generation of this projection image data may be executed by the CCU 30 . In addition, the CCU 30 superimposes the near-infrared image data of the observed region from the first signal processing unit 21 and the visible image data of the observed region from the second signal processing unit 22, synthesizes an image, and displays the synthesized image on the display device DP1. may be output. As a result, the doctor U1 or the assistant U2 can intuitively grasp the detailed state of the observation site from the visible image data and the near-infrared image data, and can receive assistance in the progress of medical procedures (for example, surgery). .

投影機部40は、CCU30での画像解析処理結果に基づいて観察部位に投影するべき投影画像を生成し、投影画像の光をカメラヘッド部10に投光する。投影機部40は、投影処理部41と、データベース42と、画像結像面43と、オートバックフォーカス機構ABF3とを含む。 The projector section 40 generates a projection image to be projected onto the observation site based on the image analysis processing result of the CCU 30 and projects the light of the projection image onto the camera head section 10 . The projector unit 40 includes a projection processing unit 41, a database 42, an image plane 43, and an automatic back focus mechanism ABF3.

投影処理部41は、CCU30からの生成指示に基づいて、観察部位に投影するべき投影画像を生成して投影画像の光を画像結像面43に投光する。投影処理部41は、CCU30からの生成指示に基づいて、データベース42に予め登録(保存)されている基準となる画像を参照(例えば部分的もしくは全体的に組み合わせるまたは削る等)して投影画像を生成してもよい。 Based on the generation instruction from the CCU 30 , the projection processing unit 41 generates a projection image to be projected onto the observation site and projects the light of the projection image onto the image forming plane 43 . Based on a generation instruction from the CCU 30, the projection processing unit 41 refers to (for example, partially or wholly combines or cuts) a reference image registered (saved) in advance in the database 42 to generate a projection image. may be generated.

データベース42は、投影処理部41が生成する投影画像の一部あるいは全部となり得る、基準となる画像データを保存している。基準となる画像データは、例えば「〇」、「×」、数字、割合(例えば「%」)であるが、これらに限定されないことは言うまでもない。 The database 42 stores reference image data that can be part or all of the projection image generated by the projection processing unit 41 . The reference image data are, for example, "o", "x", numbers, and ratios (for example, "%"), but needless to say, they are not limited to these.

画像結像面43は、例えば公知のMEMS(Micro Electro Mechanical System)ミラーを用いて構成され、投影処理部41からの投影画像の光を結像することで投影画像を形成して光学フィルタOPF3に投光する。 The image forming surface 43 is configured using, for example, a known MEMS (Micro Electro Mechanical System) mirror, and forms a projected image by forming the light of the projected image from the projection processing unit 41, and transmits it to the optical filter OPF3. emit light.

オートバックフォーカス機構ABF3は、例えば特許第3738777号公報に開示されているような機構により構成され、ABF制御部51からの制御信号に基づいて、画像結像面43が初期投光軸PJX0に直交する状態を維持しながら画像結像面43を初期投光軸PJX0の方向に移動させることで画像結像面43の焦点距離を適宜調整する機能を有している。初期投光軸PJX0に沿って投光された投影画像の光は、クロスプリズムCXP1のA面AS1において反射あるいは全反射されて、初期投光軸PJX0と直交する投光軸PJX1に沿って共用レンズLS1を介して観察部位に投影される。つまり、オートバックフォーカス機構ABF3によれば、例えば画像結像面43に結像される光の波長帯域がカメラ制御部50(後述参照)によって異なる波長帯域に選択される場合でも、異なる波長帯域に伴う光路長の変化があっても画像結像面43を初期投光軸PJX0の方向に移動可能となることでピントの合う鮮明な投影画像を得ることができる。 The auto-back focus mechanism ABF3 is configured by a mechanism such as that disclosed in Japanese Patent No. 3738777, for example, and based on a control signal from the ABF control section 51, the image plane 43 is perpendicular to the initial projection axis PJX0. It has a function of appropriately adjusting the focal length of the image forming surface 43 by moving the image forming surface 43 in the direction of the initial light projection axis PJX0 while maintaining the state in which it is projected. The light of the projected image projected along the initial projection axis PJX0 is reflected or totally reflected by the A surface AS1 of the cross prism CXP1, and is projected along the projection axis PJX1 orthogonal to the initial projection axis PJX0. It is projected onto the observation site via LS1. That is, according to the auto-back focus mechanism ABF3, for example, even if the wavelength band of the light imaged on the image forming surface 43 is selected by the camera control unit 50 (see below), the wavelength band is set to a different wavelength band. Even if there is an accompanying change in the optical path length, the image plane 43 can be moved in the direction of the initial light projection axis PJX0, so that a clear and focused projected image can be obtained.

カメラ制御部50は、例えばCPU(Central Processing Unit)、DSPあるいはFPGA等のプロセッサにより構成され、分光プリズムカメラ100の作動に関する各種の制御を統括する。例えば、カメラ制御部50は、ABF制御部51にオートバックフォーカスに関する制御信号を送ったり、照明制御部52に励起光の照射に関する制御信号を送ったり、レンズ制御部54に共用レンズLS1の特性調整に関する制御信号を送ったりする。また、カメラ制御部50は、分光プリズムカメラ100とは異なる外部入力に基づく外部制御信号を受けて、分光プリズムカメラ100の作動に関する各種の制御を実行してもよい。 The camera control unit 50 is composed of a processor such as a CPU (Central Processing Unit), DSP, or FPGA, and supervises various controls related to the operation of the spectral prism camera 100 . For example, the camera control unit 50 sends a control signal related to auto-back focus to the ABF control unit 51, sends a control signal related to excitation light irradiation to the lighting control unit 52, and transmits a control signal related to irradiation of excitation light to the lens control unit 54. and send control signals related to Further, the camera control unit 50 may receive an external control signal based on an external input different from that of the spectral prism camera 100 and execute various controls related to the operation of the spectral prism camera 100 .

ABF制御部51は、カメラ制御部50からの制御信号に基づいて、3つのオートバックフォーカス機構ABF1,ABF2,ABF3のそれぞれに、前進、原点検出、位置保持に関する制御信号を独立に生成して送る。これにより、3つのオートバックフォーカス機構ABF1,ABF2,ABF3のそれぞれは、ABF制御部51からの制御信号に基づいて、前進、原点検出、位置保持を実行できる。 Based on the control signal from the camera control unit 50, the ABF control unit 51 independently generates and sends control signals for forward movement, origin detection, and position holding to each of the three auto-back focus mechanisms ABF1, ABF2, and ABF3. . As a result, each of the three automatic back focus mechanisms ABF1, ABF2, and ABF3 can advance, detect the origin, and hold the position based on the control signal from the ABF control section 51. FIG.

照明制御部52は、カメラ制御部50からの制御信号に基づいて、照明部ILM1から照射する光の点灯もしくは消灯、光量に関する制御信号を生成して照明部ILM1に送る。照明部ILM1から照射される光は、例えば可視光、近赤外(IR)光、特定波長帯域(例えば720~820[nm])の励起光である。なお、720~820[nm]の波長を有する励起光は、手術前に予め観察部位(例えば患部AFP1)に投与された蛍光試薬(ICG)が蛍光発光するために照射される。これにより、照明部ILM1は、可視光、近赤外(IR)光、あるいは特定波長帯域の励起光を照射できる。 Based on the control signal from the camera control unit 50, the illumination control unit 52 generates a control signal for turning on or off the light emitted from the illumination unit ILM1 and the amount of light, and sends the control signal to the illumination unit ILM1. The light emitted from the illumination unit ILM1 is, for example, visible light, near-infrared (IR) light, or excitation light in a specific wavelength band (eg, 720 to 820 [nm]). The excitation light having a wavelength of 720 to 820 [nm] is irradiated in order to fluoresce a fluorescent reagent (ICG) preliminarily administered to the observation site (eg, the diseased site AFP1) before surgery. Thereby, the illumination unit ILM1 can irradiate visible light, near-infrared (IR) light, or excitation light in a specific wavelength band.

レンズ制御部54は、カメラ制御部50からの制御信号に基づいて、共用レンズLS1の絞り、倍率、焦点に関する制御信号を生成する。これにより、分光プリズムカメラ100において、共用レンズLS1の絞り、倍率、焦点が適切に調整可能となる。 Based on the control signal from the camera control unit 50, the lens control unit 54 generates control signals regarding the diaphragm, magnification, and focus of the common lens LS1. As a result, in the spectral prism camera 100, the aperture, magnification, and focus of the common lens LS1 can be appropriately adjusted.

照明部ILM1は、照明制御部52からの制御信号(上述参照)に基づいて、可視光、近赤外(IR)光、あるいは特定波長帯域(上述参照)の励起光を観察部位(例えば患部AFP1)に向けて照射する。 Based on the control signal (see above) from the illumination control unit 52, the illumination unit ILM1 emits visible light, near-infrared (IR) light, or excitation light of a specific wavelength band (see above) to the observation site (for example, the affected area AFP1). ).

表示器DP1は、例えばLCD(Liquid Crystal Display)あるいは有機EL(Electroluminescence)デバイスを用いて構成され、CCU30により画像合成された後の画像データを表示する。 The display DP1 is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) device, and displays image data after image synthesis by the CCU30.

図3は、実施の形態1に係る分光プリズムカメラ100の動作概要を示す図である。図3では、患者PAT1の手術時における分光プリズムカメラ100のユースケース例が示されている。分光プリズムカメラ100は、例えば720~820[nm]の波長を有する近赤外(IR)光である励起光(照明光)を患者PAT1に照射する。なお、患者PAT1に照射される照明光は、上述した励起光に限定されず、例えば430~680[nm]の波長を有する可視照明でもよいし、400~680[nm]の波長を有する無影灯でもよい。患者PAT1の観察部位(例えば図1の患部AFP1)からの光は共用レンズLS1を透してクロスプリズムCXP1に入射する。この光には、励起光の照射に基づいて蛍光試薬(例えばICG)が発光した蛍光(例えば840~900[nm]の波長を有する蛍光)が含まれる。 FIG. 3 is a diagram showing an outline of the operation of spectral prism camera 100 according to the first embodiment. FIG. 3 shows a use case example of the spectral prism camera 100 during surgery on the patient PAT1. The spectral prism camera 100 irradiates the patient PAT1 with excitation light (illumination light), which is near-infrared (IR) light having a wavelength of, for example, 720 to 820 [nm]. In addition, the illumination light irradiated to the patient PAT1 is not limited to the excitation light described above. It can be a lamp. Light from the observed site of the patient PAT1 (eg, the affected site AFP1 in FIG. 1) passes through the common lens LS1 and enters the cross prism CXP1. This light includes fluorescence (for example, fluorescence having a wavelength of 840 to 900 [nm]) emitted by a fluorescent reagent (eg, ICG) based on irradiation with excitation light.

クロスプリズムCXP1に入射した光(例えば400~900[nm]の波長を有する光)のうち840~900[nm]の波長を有する蛍光はB面BS1において反射あるいは全反射して光学フィルタOPF1を透過してイメージセンサ11において受光される。イメージセンサ11によって蛍光が撮像された撮像画像信号はCCU30に伝送されてCCU30により蛍光画像データが生成される。 Fluorescence having a wavelength of 840 to 900 [nm] out of the light (for example, light having a wavelength of 400 to 900 [nm]) incident on the cross prism CXP1 is reflected or totally reflected by the B surface BS1 and transmitted through the optical filter OPF1. Then, the light is received by the image sensor 11 . A captured image signal obtained by capturing an image of fluorescence by the image sensor 11 is transmitted to the CCU 30, and the CCU 30 generates fluorescence image data.

一方、クロスプリズムCXP1に入射した光(例えば400~900[nm]の波長を有する光)のうち430~680[nm]の波長を有する可視光(但し青色光は少ない)はB面BS1、光学フィルタOPF2(図3では図示を省略)を透過してイメージセンサ12において受光される。イメージセンサ12によって可視光(但し青色光は少ない)が撮像された撮像画像信号はCCU30に伝送されてCCU30により可視画像データが生成される。 On the other hand, among the light (for example, light having a wavelength of 400 to 900 [nm]) incident on the cross prism CXP1, visible light (however, there is little blue light) having a wavelength of 430 to 680 [nm] is B surface BS1, optical The light passes through the filter OPF2 (not shown in FIG. 3) and is received by the image sensor 12 . A picked-up image signal obtained by picking up visible light (however, there is little blue light) by the image sensor 12 is transmitted to the CCU 30, and the CCU 30 generates visible image data.

CCU30は、蛍光画像データと可視画像データとを合成して表示器DP1に表示したり、蛍光画像データと可視画像データとを用いて投影用の投影画像データの生成指示を投影機部40に送ったりする。投影機部40は、CCU30からの生成指示に基づいて、例えば患者PAT1等の人物の皮膚に投影し易い(言い換えると、識別し易い)青色単色の投影画像の光(例えば400[nm]の波長を有する光)を、光学フィルタOPF3、A面AS1を介して観察部位に投影する。400[nm]の波長を有する光は、光学フィルタOPF3を透過し易く、さらに、A面AS1において反射し易い(図4A参照)。 The CCU 30 synthesizes the fluorescence image data and the visible image data and displays them on the display device DP1, or uses the fluorescence image data and the visible image data to send an instruction to the projector unit 40 to generate projection image data for projection. or Based on a generation instruction from the CCU 30, the projector unit 40 produces a monochromatic blue projection image light (e.g., 400 [nm] wavelength) that is easy to project (in other words, easy to identify) onto the skin of a person such as the patient PAT1. ) is projected onto the observation site via the optical filter OPF3 and the A-plane AS1. Light having a wavelength of 400 [nm] easily passes through the optical filter OPF3 and is easily reflected by the A surface AS1 (see FIG. 4A).

次に、実施の形態1に係る分光プリズムカメラ100の動作手順例について、図5、図6および図7のそれぞれを参照して説明する。図5は、実施の形態1に係る分光プリズムカメラ100の第1動作手順例を示すフローチャートである。図6は、実施の形態1に係る分光プリズムカメラ100の第2動作手順例を示すフローチャートである。図7は、実施の形態1に係る分光プリズムカメラ100の第3動作手順例を示すフローチャートである。図6および図7の説明において、図5の処理と重複する処理については同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。 Next, an operation procedure example of the spectral prism camera 100 according to the first embodiment will be described with reference to FIGS. 5, 6 and 7, respectively. FIG. 5 is a flow chart showing a first operation procedure example of the spectral prism camera 100 according to the first embodiment. FIG. 6 is a flow chart showing a second operation procedure example of the spectral prism camera 100 according to the first embodiment. FIG. 7 is a flow chart showing a third operation procedure example of the spectral prism camera 100 according to the first embodiment. In the description of FIGS. 6 and 7, the same reference numerals are given to the processes that overlap with the processes of FIG. 5, and the description is simplified or omitted, and the different contents are described.

図5に示す第1動作手順では、分光プリズムカメラ100は、患者PATの患部AFP1(例えば腹部の内臓)に励起光(例えば720~820[nm]の波長を有する励起光)を照射し、励起光の照射に基づく蛍光の撮像を用いて投影画像を患部AFP1に投影する例を説明する。 In the first operation procedure shown in FIG. 5, the spectral prism camera 100 irradiates the affected area AFP1 (eg, abdominal internal organs) of the patient PAT with excitation light (eg, excitation light having a wavelength of 720 to 820 [nm]) to excite the An example in which a projection image is projected onto the affected area AFP1 using imaging of fluorescence based on irradiation of light will be described.

図5において、分光プリズムカメラ100は、ICG用の励起光(例えば720~820[nm]の波長を有する励起光)を照明部ILM1から観察部位に向けて照射する(St1)。分光プリズムカメラ100は、ステップSt1で照射された励起光に基づいて観察部位の蛍光試薬(例えばICG)が発光した蛍光を含む光(観察部位からの光)を、共用レンズLS1を透して入光する。分光プリズムカメラ100は、共用レンズLS1により集光された観察部位からの光のうち近赤外(IR)光である蛍光をクロスプリズムCXP1のB面BS1で反射あるいは全反射する(St2)。分光プリズムカメラ100は、ステップSt2においてB面BS1で反射あるいは全反射された蛍光をイメージセンサ11で受光して撮像する(St3)。 In FIG. 5, the spectral prism camera 100 irradiates an observation site with excitation light for ICG (for example, excitation light having a wavelength of 720 to 820 [nm]) from the illumination unit ILM1 (St1). The spectral prism camera 100 receives light (light from the observation site) containing fluorescence emitted by a fluorescent reagent (for example, ICG) at the observation site based on the excitation light irradiated in step St1, through the common lens LS1. shine. Spectral prism camera 100 reflects or totally reflects fluorescence, which is near-infrared (IR) light, out of the light from the observation site condensed by common lens LS1 by B surface BS1 of cross prism CXP1 (St2). The spectral prism camera 100 receives the fluorescence reflected or totally reflected by the B surface BS1 in step St2 with the image sensor 11 and takes an image (St3).

分光プリズムカメラ100は、共用レンズLS1により集光された観察部位からの光のうち可視光(例えば430~680[nm]の波長を有する可視光)をクロスプリズムCXP1のB面BS1で透過させてイメージセンサ12で受光して撮像する。分光プリズムカメラ100は、イメージセンサ11,12のそれぞれでの撮像に基づいて得られた観察部位の蛍光画像データおよび可視画像データを用いて、蛍光画像データを投影用の投影画像データ(具体的には青色単色の投影画像データ)に変換する(St4)。分光プリズムカメラ100は、ステップSt4で生成された投影画像データをクロスプリズムCXP1のA面AS1で反射あるいは全反射させて共用レンズLS1を介して観察部位に向けて投光(投影)する(St5)。 Spectral prism camera 100 allows visible light (for example, visible light having a wavelength of 430 to 680 [nm]) out of the light from the observation site condensed by shared lens LS1 to pass through B surface BS1 of cross prism CXP1. The image sensor 12 receives the light and takes an image. Spectral prism camera 100 converts the fluorescence image data into projection image data (specifically, (St4). The spectral prism camera 100 reflects or totally reflects the projection image data generated in step St4 by the A surface AS1 of the cross prism CXP1, and projects the light toward the observation site via the shared lens LS1 (St5). .

ステップSt5の後、分光プリズムカメラ100の処理が終了とならない場合には(St6、NO)、分光プリズムカメラ100の処理はステップSt1に戻る。つまり、分光プリズムカメラ100の処理が終了となるまで、分光プリズムカメラ100はステップSt1からステップSt6までの処理を繰り返す。一方、ステップSt5の後、分光プリズムカメラ100の処理が終了となる場合(例えば医師U1あるいは補助者U2の操作による分光プリズムカメラ100の電源OFFがなされた場合)には(St6、YES)、分光プリズムカメラ100の処理は終了する。 After step St5, if the processing of the spectral prism camera 100 has not ended (St6, NO), the processing of the spectral prism camera 100 returns to step St1. That is, the spectral prism camera 100 repeats the processing from step St1 to step St6 until the processing of the spectral prism camera 100 is completed. On the other hand, after step St5, when the processing of the spectral prism camera 100 ends (for example, when the power of the spectral prism camera 100 is turned off by the operation of the doctor U1 or the assistant U2) (St6, YES), The processing of the prism camera 100 ends.

図6に示す第2動作手順では、分光プリズムカメラ100は、第1動作手順とは異なり、異なる波長帯の光をイメージセンサ11,12のそれぞれで撮像し、観察部位に置かれている対象物の状態(例えばみかん等の果物あるいは葉っぱの活性度)を分析し、その分析結果を示す投影画像を観察部位に投影する例を説明する。 In the second operation procedure shown in FIG. 6, unlike the first operation procedure, the spectral prism camera 100 captures images of light in different wavelength bands with the image sensors 11 and 12, respectively. (For example, activity of fruits such as mandarin oranges or leaves) is analyzed, and a projection image showing the analysis result is projected onto the observation site.

図6において、分光プリズムカメラ100は、例えば430~680[nm]の波長を有する可視光を照明部ILM1から観察部位に向けて照射する。分光プリズムカメラ100は、照射された可視光に基づいて観察部位に置かれている対象物(例えばみかん)により反射された光を、共用レンズLS1を透して入光する。分光プリズムカメラ100は、共用レンズLS1により集光された対象物からの光のうち第1波長帯(例えば800[nm]の波長)を有する近赤外(IR)光をクロスプリズムCXP1のB面BS1で反射あるいは全反射する(St11)。分光プリズムカメラ100は、ステップSt11においてB面BS1で反射あるいは全反射された800[nm]の近赤外(IR)光をイメージセンサ11で受光して撮像する(St12)。 In FIG. 6, the spectral prism camera 100 irradiates visible light having a wavelength of, for example, 430 to 680 [nm] from the illuminator ILM1 toward the observation site. The spectral prism camera 100 receives the light reflected by an object (for example, an orange) placed at the observation site based on the irradiated visible light through the shared lens LS1. Spectral prism camera 100 captures near-infrared (IR) light having a first wavelength band (for example, a wavelength of 800 [nm]) out of the light from the object condensed by common lens LS1, and directs it to surface B of cross prism CXP1. Reflected or totally reflected at BS1 (St11). The spectral prism camera 100 receives the 800 [nm] near-infrared (IR) light reflected or totally reflected by the B surface BS1 in step St11 with the image sensor 11 and takes an image (St12).

分光プリズムカメラ100は、共用レンズLS1により集光された対象物からの光のうち第2波長帯(例えば850[nm]の波長)を有する近赤外(IR)光をクロスプリズムCXP1のB面BS1で透過させる(St13)。分光プリズムカメラ100は、ステップSt13においてB面BS1を透過した850[nm]の近赤外(IR)光をイメージセンサ12で受光して撮像する(St14)。分光プリズムカメラ100は、イメージセンサ11,12のそれぞれでの撮像に基づいて得られた観察部位の近赤外画像データを画像解析処理し、観察部位に置かれている対象物(例えばみかん)の糖度を分析処理する(St15)。分光プリズムカメラ100は、ステップSt15での分析処理によって得られた分析結果(例えばみかんの糖度)を示す投影画像データを生成し、その投影画像データの光をクロスプリズムCXP1のA面AS1で反射あるいは全反射させて共用レンズLS1を介して観察部位に向けて投光(投影)する(St16)。ステップSt16以降の処理は図5と同一であるため説明は省略する。 Spectral prism camera 100 converts near-infrared (IR) light having a second wavelength band (for example, a wavelength of 850 [nm]) out of the light from the object condensed by common lens LS1 to surface B of cross prism CXP1. It is transmitted by BS1 (St13). The spectral prism camera 100 receives the near-infrared (IR) light of 850 [nm] that has passed through the B surface BS1 in step St13 with the image sensor 12 and takes an image (St14). The spectral prism camera 100 performs image analysis processing on the near-infrared image data of the observation site obtained based on the images captured by the image sensors 11 and 12, respectively, and determines the size of the object (for example, an orange) placed on the observation site. The sugar content is analyzed and processed (St15). Spectral prism camera 100 generates projection image data indicating the analysis result (for example, the sugar content of oranges) obtained by the analysis processing in step St15, and the light of the projection image data is reflected or reflected by A surface AS1 of cross prism CXP1. The light is totally reflected and projected (projected) toward the observation site through the common lens LS1 (St16). Since the processing after step St16 is the same as in FIG. 5, the description is omitted.

図7に示す第3動作手順では、分光プリズムカメラ100は、第1動作手順および第2動作手順とは異なり、観察部位に置かれている対象物(例えばみかん等の果物)の大きさあるいは真円度を分析し、その分析結果(例えば良否判定結果)を示す投影画像を観察部位に投影する例を説明する。 In the third operation procedure shown in FIG. 7, the spectral prism camera 100 is different from the first operation procedure and the second operation procedure in that the size or true size of the object (for example, a fruit such as an orange) placed on the observation site is determined. An example will be described in which the circularity is analyzed and a projection image showing the analysis result (for example, the quality determination result) is projected onto the observation site.

図7において、分光プリズムカメラ100は、例えば400[nm]の波長を有する青色単色の投影画像(例えば基準となる形状を示す図もしくは目盛り(メジャー)を示す投影画像)の光を、クロスプリズムCXP1のA面AS1で反射あるいは全反射させて共用レンズLS1を介して観察部位に向けて投光(投影)する(St21)。分光プリズムカメラ100は、ステップSt21で投影された投影画像が対象物によって反射された光を含む対象物(例えばみかん)からの光を、共用レンズLS1を透して入光する。分光プリズムカメラ100は、共用レンズLS1により集光された対象物からの光の一部をクロスプリズムCXP1のB面BS1で反射する(St22)。分光プリズムカメラ100は、ステップSt22においてB面BS1で反射された一部の光をイメージセンサ11で受光して撮像する(St23)。 In FIG. 7, the spectroscopic prism camera 100 projects light of a monochromatic blue projection image (for example, a diagram showing a reference shape or a scale (measure)) having a wavelength of 400 [nm], for example, into a cross prism CXP1. The light is reflected or totally reflected by the A surface AS1, and is projected (projected) toward the observation site through the common lens LS1 (St21). The spectral prism camera 100 receives light from an object (such as an orange) including light reflected by the object in the projection image projected in step St21 through the common lens LS1. Spectral prism camera 100 reflects part of the light from the object condensed by shared lens LS1 by B surface BS1 of cross prism CXP1 (St22). The spectral prism camera 100 receives a part of the light reflected by the B surface BS1 in step St22 with the image sensor 11 and takes an image (St23).

分光プリズムカメラ100は、共用レンズLS1により集光された対象物からの光のうち残りの光をクロスプリズムCXP1のB面BS1で透過させる。分光プリズムカメラ100は、B面BS1を透過した残りの光をイメージセンサ12で受光して撮像する。分光プリズムカメラ100は、イメージセンサ11,12のそれぞれでの撮像に基づいて得られた観察部位の近赤外画像データを画像解析処理し、観察部位に置かれている対象物(例えばみかん)の大きさもしくは真円度等を分析処理して対象物の良否判定を実行する(St24)。分光プリズムカメラ100は、データベース42を参照して、ステップSt24での良否判定によって得られた判定結果(例えばみかんの大きさあるいは真円度)を既存の投影画像(ステップSt21参照)に重畳した投影画像データを生成する(St25)。分光プリズムカメラ100は、その生成された投影画像データの光をクロスプリズムCXP1のA面AS1で反射あるいは全反射させて共用レンズLS1を介して観察部位に向けて投光(投影)する(St26)。ステップSt16以降の処理は図5と同一であるため説明は省略する。 Spectral prism camera 100 allows the rest of the light from the object condensed by common lens LS1 to pass through surface B BS1 of cross prism CXP1. The spectral prism camera 100 receives the remaining light transmitted through the B surface BS1 with the image sensor 12 and takes an image. The spectral prism camera 100 performs image analysis processing on the near-infrared image data of the observation site obtained based on the images captured by the image sensors 11 and 12, respectively, and determines the size of the object (for example, an orange) placed on the observation site. The quality of the object is determined by analyzing the size, roundness, etc. (St24). The spectroscopic prism camera 100 refers to the database 42, and projects the determination result (for example, the size or roundness of the mandarin orange) obtained by the pass/fail determination in step St24 superimposed on the existing projection image (see step St21). Image data is generated (St25). Spectral prism camera 100 reflects or totally reflects the light of the generated projection image data by surface A AS1 of cross prism CXP1, and projects the light toward the observation site via common lens LS1 (St26). . Since the processing after step St16 is the same as in FIG. 5, the description is omitted.

以上により、実施の形態1に係る分光プリズムカメラ100は、観察部位からの光が入射するレンズ(例えば共用レンズLS1)と、レンズを透して受光された光に基づいて、観察部位の画像を撮像する撮像部(例えばカメラヘッド部10)と、撮像部により撮像された観察部位の画像に基づいて、観察部位への投影画像を生成する投影部(例えば投影機部40)と、を備える。レンズは、投影部からの投影画像の光を、観察部位からの光が入射する方向と逆方向であって、かつ観察部位からの光の入射軸IMX1と同軸である投光軸PJX1に沿って投光する。 As described above, the spectral prism camera 100 according to the first embodiment can obtain an image of the observation site based on the lens (for example, the shared lens LS1) into which the light from the observation site is incident and the light received through the lens. An imaging unit (for example, camera head unit 10) that takes an image, and a projection unit (for example, projector unit 40) that generates a projected image of the observed region based on the image of the observed region captured by the imaging unit. The lens projects the light of the projected image from the projection unit along a projection axis PJX1 that is opposite to the incident direction of the light from the observation site and coaxial with the incident axis IMX1 of the light from the observation site. emit light.

これにより、分光プリズムカメラ100は、投影画像を観察部位に投影する投影機部40と観察部位からの光に基づいて撮像するカメラヘッド部10とを別体とする必要無く、共用レンズLS1を投影機部40とカメラヘッド部10とで共用できるので、被写体(例えば観察部位)の撮像時および投影時の各光軸の調整の煩雑化を抑制できる(つまり、それぞれの光軸の微調整が不要となる)。したがって、分光プリズムカメラ100によれば、一つの筐体内に投影機部40およびカメラヘッド部10を配置可能となるので全体的なシステムの小型化および軽量化を実現でき、例えばヘッドマウント型の投影装置(図1参照)のようにユーザの使い勝手が向上する。例えば医療現場等において、ヘッドマウント型の分光プリズムカメラ100によって観察部位への患部AFP1等に画像の投影が可能となる。入射軸IMX1と投光軸PJX1とが同軸となるので、分光プリズムカメラ100の筐体が揺れたとしてもぶれにくくなり、撮像された画像の画質劣化が抑制される。 As a result, the spectral prism camera 100 projects the shared lens LS1 without the need to separate the projector unit 40 for projecting the projection image onto the observation site and the camera head unit 10 for imaging based on the light from the observation site. Since it can be shared by the machine unit 40 and the camera head unit 10, it is possible to suppress the complexity of adjusting each optical axis when imaging and projecting a subject (for example, an observation part) (that is, fine adjustment of each optical axis is unnecessary). becomes). Therefore, according to the spectroscopic prism camera 100, the projector section 40 and the camera head section 10 can be arranged in one housing, so that the size and weight of the overall system can be reduced. User-friendliness is improved like the device (see FIG. 1). For example, in a medical field or the like, the head-mounted spectroscopic prism camera 100 enables projection of an image onto an affected area AFP 1 or the like on an observation site. Since the incident axis IMX1 and the light projecting axis PJX1 are coaxial, even if the housing of the spectral prism camera 100 shakes, the camera is less likely to shake, thereby suppressing image quality deterioration of the captured image.

また、分光プリズムカメラ100は、観察部位からの光の一部を反射して残りの光を透過する第1面(例えばB面BS1)と、投影画像の光を投光軸PJX1に向けて反射する第2面(例えばA面AS1)と、を有する分光プリズム(例えばクロスプリズムCXP1)をさらに備える。レンズ(例えば共用レンズLS1)は、分光プリズムよりも観察部位側に配置される。これにより、分光プリズムカメラ100は、簡易な構造で、観察部位からの光をB面BS1で2つの光に分光できて2種類の撮像画像を得ることができるとともに、投影画像の光を反射して観察部位に投影(投光)できる。 In addition, the spectral prism camera 100 has a first surface (for example, surface B BS1) that reflects part of the light from the observation site and transmits the remaining light, and a surface that reflects the light of the projected image toward the projection axis PJX1. and a spectral prism (eg, cross prism CXP1) having a second surface (eg, A surface AS1). A lens (for example, a shared lens LS1) is arranged closer to the observation site than the spectral prism. As a result, the spectroscopic prism camera 100 has a simple structure, and can split the light from the observation site into two lights on the B surface BS1 to obtain two types of captured images. can be projected (illuminated) onto the observation site.

また、分光プリズム(例えばクロスプリズムCXP1)は、第1面(例えばB面BS1)において観察部位の光のうち近赤外光(例えば840~900[nm]の波長を有する光)を反射しかつ観察部位の光のうち可視光(例えば430~680[nm]の波長を有する光)を透過する。撮像部(例えばカメラヘッド部10)は、近赤外光に基づいて観察部位の近赤外画像を撮像する第1撮像部(例えばイメージセンサ11)と、可視光に基づいて観察部位の可視画像を撮像する第2撮像部(例えばイメージセンサ12)と、を有する。投影部(例えば投影機部40)は、観察部位の近赤外画像と観察部位の可視画像とに基づいて投影画像を生成し、分光プリズムおよびレンズを介して投影画像を観察部位に投影する。これにより、分光プリズムカメラ100は、クロスプリズムCXP1のB面BS1において蛍光試薬(例えばICG)の発光により生じた蛍光を反射してその蛍光に基づく観察部位の画像を得ることができるとともに、青色が少ない可視光に基づく観察部位の画像を得ることができる。 In addition, the spectral prism (for example, cross prism CXP1) reflects near-infrared light (for example, light having a wavelength of 840 to 900 [nm]) out of the light of the observation site on the first surface (for example, B surface BS1), and It transmits visible light (for example, light having a wavelength of 430 to 680 [nm]) out of the light of the observation site. The imaging unit (for example, camera head unit 10) includes a first imaging unit (for example, image sensor 11) that captures a near-infrared image of the observation site based on near-infrared light, and a visible image of the observation site based on visible light. and a second imaging unit (for example, the image sensor 12) that captures the . A projection unit (for example, the projector unit 40) generates a projection image based on the near-infrared image of the observed region and the visible image of the observed region, and projects the projected image onto the observed region via a spectral prism and a lens. Thereby, the spectroscopic prism camera 100 can reflect the fluorescence generated by the emission of the fluorescent reagent (for example, ICG) on the B surface BS1 of the cross prism CXP1 and obtain an image of the observation site based on the fluorescence. An image of the observation site based on less visible light can be obtained.

また、投影部(例えば投影機部40)は、投影画像の青色光を、レンズ(例えば共用レンズLS1)を介して観察部位に投影する。これにより、分光プリズムカメラ100を装着する医師U1あるいは補助者U2は、観察部位(例えば患者PAT1の患部AFP1)に投影してもその内容が認識し易い青色の投影画像を的確に認識できて、医療行為の進行の支援を適応的に受けることができる。 Also, the projection unit (for example, the projector unit 40) projects the blue light of the projected image onto the observation site via the lens (for example, the shared lens LS1). As a result, the doctor U1 or the assistant U2 who wears the spectral prism camera 100 can accurately recognize the blue projected image whose content is easy to recognize even when projected onto the observation site (for example, the affected area AFP1 of the patient PAT1). Assistance in the progress of medical intervention can be adaptively received.

また、分光プリズムカメラ100は、撮像部により撮像された観察部位の少なくとも2つの第1画像(例えば800[nm]の波長を有する近赤外(IR)光に基づく近赤外画像)および第2画像(例えば850[nm]の波長を有する近赤外(IR)光に基づく近赤外画像)に基づいて、観察部位の対象物を分析する信号処理部(例えばCCU30)をさらに備える。投影部(例えば投影機部40)は、対象物の分析結果(例えばみかん等の果物の糖度、あるいは葉っぱの活性度)の分析結果を示す投影画像を生成する。これにより、分光プリズムカメラ100は、医療行為(例えば手術)時に観察部位(例えば患部AFP1)の状態の観察だけでなく、観察部位に置かれている対象物(例えばみかん等の果物)の状態(例えば糖度)の分析に利用できて多目的なユースケースに対応して使用できる。また、800[nm]の波長を有する近赤外(IR)光に基づく近赤外画像)と第2画像(例えば850[nm]の波長を有する近赤外(IR)光に基づく近赤外画像)とにより、患部AFP1(例えば患者PAT1の血管)を観察部位としている際にその結果の識別(例えば動脈あるいは静脈)が可能となり、医療行為時の進行を適切に支援可能となる。 In addition, the spectral prism camera 100 captures at least two first images (for example, a near-infrared image based on near-infrared (IR) light having a wavelength of 800 [nm]) and a second It further comprises a signal processing unit (for example, CCU 30) that analyzes the object at the observation site based on an image (for example, a near-infrared image based on near-infrared (IR) light having a wavelength of 850 [nm]). The projection unit (for example, the projector unit 40) generates a projection image showing the analysis result of the target object (for example, the sugar content of fruits such as mandarin oranges, or the activity level of leaves). As a result, the spectral prism camera 100 can not only observe the state of the observation site (eg, the affected area AFP1) during medical practice (eg, surgery), but also the state of the object (eg, fruit such as an orange) placed on the observation site ( For example, it can be used for analysis of sugar content) and can be used for versatile use cases. Also, a near-infrared image based on near-infrared (IR) light having a wavelength of 800 [nm] and a second image (for example, a near-infrared image based on near-infrared (IR) light having a wavelength of 850 [nm] image) makes it possible to identify the results (for example, arteries or veins) when the affected area AFP1 (for example, blood vessels of the patient PAT1) is the observation site, and to appropriately support the progress of medical procedures.

また、分光プリズムカメラ100は、撮像部により撮像された観察部位の画像に基づいて、観察部位の対象物の良否を分析する信号処理部(例えばCCU30)をさらに備える。投影部(例えば投影機部40)は、対象物の良否を分析するための基準画像を観察部位に予め投影する。撮像部(例えばイメージセンサ11あるいはイメージセンサ12)は、投影部により投影された基準画像を含む観察部位の画像を撮像する。信号処理部は、撮像部により撮像された基準画像を含む観察部位の画像に基づいて、対象物の良否を分析する。投影部は、対象物の良否の分析結果を示す投影画像を生成する。これにより、分光プリズムカメラ100は、観察部位に配置されている対象物の基準となる図あるいはメジャー等の基準画像を予め投影しておき、対象物からの光に基づく撮像によって得られた対象物の撮像画像と基準画像とから対象物の良否を判定できてその判定結果を投影できるので、対象物の良否状態を直感的にユーザに認識させることができる。 Moreover, the spectral prism camera 100 further includes a signal processing unit (for example, the CCU 30) that analyzes the quality of the object in the observed region based on the image of the observed region captured by the imaging unit. A projection unit (for example, the projector unit 40) projects in advance a reference image for analyzing the quality of an object onto an observation site. An imaging unit (for example, the image sensor 11 or the image sensor 12) captures an image of an observed region including the reference image projected by the projection unit. The signal processing unit analyzes the quality of the target object based on the image of the observed region including the reference image captured by the imaging unit. The projection unit generates a projection image showing the quality analysis result of the object. Thereby, the spectroscopic prism camera 100 projects a reference image such as a diagram or a measure that serves as a reference of the object placed at the observation site in advance, and the object is obtained by imaging based on the light from the object. Since the quality of the object can be determined from the captured image and the reference image, and the result of the determination can be projected, the user can intuitively recognize the quality of the object.

また、分光プリズムカメラ100は、蛍光試薬が予め投与された観察部位に所定の波長帯域(例えば720~820[nm]の波長)を有する励起光を照射する照明部ILM1をさらに備える。分光プリズムは、励起光に基づいて蛍光試薬が発光した光である蛍光を第1面(例えばB面BS1)において反射する。第1撮像部(例えばイメージセンサ11)は、分光プリズムを介して蛍光を受光して観察部位の近赤外画像を撮像する。投影部(例えば投影機部40)は、観察部位の近赤外画像に基づいて、蛍光試薬の発光箇所を教示するための投影画像を生成する。これにより、手術時において、医師U1あるいは補助者U2は、患者PAT1に予め投与されたICG等の蛍光試薬の発光箇所を直感的に把握できるので、適切な医療行為の進行の支援を受けることができる。 The spectroscopic prism camera 100 further includes an illumination unit ILM1 that irradiates excitation light having a predetermined wavelength band (for example, a wavelength of 720 to 820 [nm]) to an observation site to which a fluorescent reagent has been administered in advance. The spectral prism reflects fluorescence, which is light emitted by the fluorescent reagent based on the excitation light, on the first surface (for example, B surface BS1). A first imaging unit (for example, the image sensor 11) receives fluorescence via a spectral prism and captures a near-infrared image of an observation site. A projection unit (for example, the projector unit 40) generates a projection image for indicating the light-emitting location of the fluorescent reagent based on the near-infrared image of the observation site. As a result, during surgery, the doctor U1 or the assistant U2 can intuitively grasp the luminescence point of the fluorescent reagent such as ICG that has been administered to the patient PAT1 in advance, so that he/she can receive support for the progress of appropriate medical practice. can.

(実施の形態2)
実施の形態1に係る分光プリズムカメラ100では、クロスプリズムCXP1のB面BS1を透過した可視光の波長が430~680[nm]であるために青色光が少なく、イメージセンサ12により撮像された可視画像信号にも青色成分が少なかった。このため、第2信号処理部22により生成された可視画像データにも青色成分が少なく、観察部位(被写体の一例)によってはその状況の把握が容易ではないことがあり得る。
(Embodiment 2)
In spectral prism camera 100 according to Embodiment 1, since the wavelength of visible light transmitted through B surface BS1 of cross prism CXP1 is 430 to 680 [nm], there is little blue light, and visible light captured by image sensor 12 The image signal also had little blue component. Therefore, the visible image data generated by the second signal processing unit 22 also has little blue component, and depending on the observation site (an example of the subject), it may not be easy to grasp the situation.

そこで、以下の実施の形態2では、クロスプリズムのB面を透過した可視光の波長帯域に青色光が少なくなることを抑制する分光プリズムカメラ100Aの例を説明する。 Therefore, in the second embodiment below, an example of a spectroscopic prism camera 100A that suppresses a decrease in blue light in the wavelength band of visible light transmitted through the B surface of the cross prism will be described.

図8は、実施の形態2に係る分光プリズムカメラ100Aの内部構成例を示すブロック図である。分光プリズムカメラ100Aは、共用レンズLS1と、カメラヘッド部10Aと、カメラ信号処理部20と、CCU30と、投影機部40と、カメラ制御部50と、ABF制御部51と、照明制御部52と、偏光フィルタ制御部53と、レンズ制御部54と、照明部ILM1とを含む構成である。図8の説明において、図2の構成と同一の構成については同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。 FIG. 8 is a block diagram showing an internal configuration example of the spectral prism camera 100A according to the second embodiment. The spectral prism camera 100A includes a common lens LS1, a camera head section 10A, a camera signal processing section 20, a CCU 30, a projector section 40, a camera control section 50, an ABF control section 51, and an illumination control section 52. , a polarization filter control unit 53, a lens control unit 54, and an illumination unit ILM1. In the description of FIG. 8, the same reference numerals are assigned to the same configurations as those of FIG. 2, and the description is simplified or omitted, and different contents are described.

カメラヘッド部10Aは、共用レンズLS1の次に対物側(つまり観察部位側)に配置され、共用レンズLS1を透過した光を分光したり撮像したりする。カメラヘッド部10Aは、偏光フィルタPLF1と、2つの光学面(後述するA面AS2およびB面BS2参照)を有するクロスプリズムCXP2と、光学フィルタOPF1と、イメージセンサ11を含むオートバックフォーカス機構ABF1と、光学フィルタOPF2と、イメージセンサ12を含むオートバックフォーカス機構ABF2と、光学フィルタOPF4とを含む。 The camera head unit 10A is arranged next to the shared lens LS1 on the object side (that is, on the observation site side), and separates and images the light transmitted through the shared lens LS1. The camera head unit 10A includes a polarizing filter PLF1, a cross prism CXP2 having two optical surfaces (see A surface AS2 and B surface BS2, which will be described later), an optical filter OPF1, and an automatic back focus mechanism ABF1 including an image sensor 11. , an optical filter OPF2, an automatic back focus mechanism ABF2 including an image sensor 12, and an optical filter OPF4.

偏光フィルタPLF1は、共用レンズLS1により集光された光(つまり観察部位からの光)のうち特定の偏光成分(例えば偏光フィルタ制御部53により設定された光の進行方向に対するp偏光成分およびs偏光成分)のみ透過させる光学的性質を有している。 The polarizing filter PLF1 selects specific polarized components (for example, p-polarized component and s-polarized component with respect to the traveling direction of light set by the polarizing filter control unit 53) of the light condensed by the common lens LS1 (that is, the light from the observation site). It has an optical property to transmit only component).

分光プリズムの一例としてのクロスプリズムCXP2は、光学面としての性質を有するA面AS2およびB面BS2を有し、プリズム固定部材FX1により固定される。クロスプリズムCXP2は、偏光フィルタPLF1を透過したp偏光成分およびs偏光成分の光のうちs偏光成分をB面BS2において反射しかつp偏光成分をB面BS2において透過するとともに、投影機部40から投光された投影画像(後述参照)の光(s偏光成分)をA面AS2において反射あるいは全反射して偏光フィルタPLF1を介して共用レンズLS1に投光する。 A cross prism CXP2 as an example of a spectral prism has an A surface AS2 and a B surface BS2 having properties as optical surfaces, and is fixed by a prism fixing member FX1. The cross prism CXP2 reflects the s-polarized component of the light of the p-polarized component and the s-polarized component that have passed through the polarizing filter PLF1 on the B-surface BS2 and transmits the p-polarized component on the B-surface BS2. The light (s-polarized component) of the projected image (see later) is reflected or totally reflected by the A surface AS2 and projected onto the common lens LS1 via the polarizing filter PLF1.

B面BS2において反射されたs偏光成分のうち840~900[nm]の波長を有する近赤外(IR)光だけが光学フィルタOPF1を透過してイメージセンサ11において受光される。イメージセンサ11およびオートバックフォーカス機構ABF1の動作内容は実施の形態1と同様であるため、説明を省略する。 Only near-infrared (IR) light having a wavelength of 840 to 900 [nm] out of the s-polarized light component reflected by B surface BS2 is transmitted through optical filter OPF1 and received by image sensor 11 . Since the operation contents of the image sensor 11 and the automatic back focus mechanism ABF1 are the same as those of the first embodiment, the description thereof is omitted.

B面BS2を透過したp偏光成分のうち400~680[nm]の波長を有する可視光(p偏光成分)だけが光学フィルタOPF2を透過してイメージセンサ12において受光される。イメージセンサ12およびオートバックフォーカス機構ABF2の動作内容は実施の形態1と同様であるため、説明を省略する。 Of the p-polarized light component transmitted through B-side BS2, only visible light (p-polarized light component) having a wavelength of 400 to 680 [nm] is transmitted through optical filter OPF2 and received by image sensor 12 . Since the contents of operations of the image sensor 12 and the automatic back focus mechanism ABF2 are the same as those of the first embodiment, the description thereof will be omitted.

光学フィルタOPF4は、例えば400~680[nm]の波長を有する可視光のみを透過させて他の帯域の波長を有する光を遮断するバンドパスフィルタ(BPF)により構成される。つまり、光学フィルタOPF4は赤外光カットフィルタとしての機能を有する。なお、光学フィルタOPF4(バンドパスフィルタ)が透過させる光の波長帯域は400~680[nm]に限定されなくてよい。光学フィルタOPF4は、投影機部40の画像結像面43により形成された投影画像の光(例えば400~680[nm]の波長を有する可視光(s偏光成分))を透過する。光学フィルタOPF4を透過した可視光(s偏光成分)はクロスプリズムCXP2のA面AS2により反射あるいは全反射される。なお、光学フィルタOPF4は、オートバックフォーカス機構ABF3内に設けられるように配置されてもよいし、オートバックフォーカス機構ABF3とは別体で設けられてもよい。 The optical filter OPF4 is composed of a bandpass filter (BPF) that transmits only visible light having a wavelength of 400 to 680 [nm], for example, and blocks light having wavelengths in other bands. That is, the optical filter OPF4 has a function as an infrared light cut filter. The wavelength band of light transmitted by the optical filter OPF4 (bandpass filter) need not be limited to 400 to 680 [nm]. The optical filter OPF4 transmits the light of the projected image formed by the image forming plane 43 of the projector unit 40 (eg, visible light (s-polarized component) having a wavelength of 400 to 680 [nm]). The visible light (s-polarized component) transmitted through the optical filter OPF4 is reflected or totally reflected by the A surface AS2 of the cross prism CXP2. The optical filter OPF4 may be arranged so as to be provided within the automatic back focus mechanism ABF3, or may be provided separately from the automatic back focus mechanism ABF3.

実施の形態2では、投影機部40の投影処理部41は、CCU30からの生成指示に基づいて、観察部位に投影するべき投影画像を生成して投影画像の光(例えば400~680[nm]の波長を有する可視光(s偏光成分))を画像結像面43に投光する。この光は、画像結像面43および光学フィルタOPF4を介してクロスプリズムCXP2のA面AS2において反射あるいは全反射され、偏光フィルタPLF1および共用レンズLS1を介して観察部位に投影される。 In the second embodiment, the projection processing unit 41 of the projector unit 40 generates a projection image to be projected onto the observation site based on a generation instruction from the CCU 30, and emits light of the projection image (for example, 400 to 680 [nm] (s-polarized light component) having a wavelength of ) is projected onto the imaging plane 43 . This light is reflected or totally reflected by the A surface AS2 of the cross prism CXP2 via the image forming plane 43 and the optical filter OPF4, and is projected onto the observation site via the polarizing filter PLF1 and the common lens LS1.

偏光フィルタ制御部53は、カメラ制御部50からの制御信号に基づいて偏光フィルタPLF1を旋回させることで、偏光フィルタPLF1で透過させるべき観察部位からの光の偏光角度(例えば観察部位からの光の進行方向に対するp偏光成分およびs偏光成分の角度)を設定する。 The polarizing filter control unit 53 rotates the polarizing filter PLF1 based on a control signal from the camera control unit 50 to change the polarization angle of the light from the observation site to be transmitted by the polarizing filter PLF1 (for example, the angle of the light from the observation site). Set the angles of the p- and s-polarization components with respect to the direction of travel).

図9は、実施の形態2に係る分光プリズムカメラ100Aの動作概要を示す図である。図9では、例えば図3と同様に、患者PAT1の手術時における分光プリズムカメラ100Aのユースケース例が示されている。図9の説明において、図3の要素と同一のものには同一の符号もしくは名称を付与して説明を簡略化あるいは省略し、異なる内容について説明する。 FIG. 9 is a diagram showing an operation outline of the spectral prism camera 100A according to the second embodiment. FIG. 9 shows a use case example of the spectral prism camera 100A during surgery on the patient PAT1, for example, like FIG. In the description of FIG. 9, the same reference numerals or names are given to the same elements as those of FIG. 3, the description is simplified or omitted, and different contents are described.

分光プリズムカメラ100Aは、例えば720~820[nm]の波長を有する近赤外(IR)光である励起光(照明光)を患者PAT1に照射する。なお、患者PAT1に照射される照明光は、上述した励起光に限定されず、例えば430~680[nm]の波長を有する可視照明でもよいし、400~680[nm]の波長を有する無影灯でもよい。患者PAT1の観察部位(例えば図1の患部AFP1)からの光は共用レンズLS1を透過し、その透過した光のうち特定の偏光成分(例えば偏光フィルタ制御部53により設定された光の進行方向に対するp偏光成分およびs偏光成分)がクロスプリズムCXP2に入射する。この光には、励起光の照射に基づいて蛍光試薬(例えばICG)が発光した蛍光(例えば840~900[nm]の波長を有する蛍光)が含まれる。 The spectral prism camera 100A irradiates the patient PAT1 with excitation light (illumination light), which is near-infrared (IR) light having a wavelength of, for example, 720 to 820 [nm]. In addition, the illumination light irradiated to the patient PAT1 is not limited to the excitation light described above. It can be a lamp. Light from the observation site of the patient PAT1 (for example, the affected site AFP1 in FIG. 1) is transmitted through the common lens LS1, and a specific polarized component of the transmitted light (eg p-polarized component and s-polarized component) enter the cross prism CXP2. This light includes fluorescence (for example, fluorescence having a wavelength of 840 to 900 [nm]) emitted by a fluorescent reagent (eg, ICG) based on irradiation with excitation light.

クロスプリズムCXP2は、偏光フィルタPLF1を透過したp偏光成分およびs偏光成分の光のうちs偏光成分をB面BS2において反射しかつp偏光成分をB面BS2において透過する。したがって、s偏光成分(例えば蛍光)は光学フィルタOPF1を透過してイメージセンサ11において受光され、イメージセンサ11によって蛍光が撮像された撮像画像信号はCCU30に伝送されてCCU30により蛍光画像データが生成される。 The cross prism CXP2 reflects the s-polarized component of the light of the p-polarized component and the s-polarized component transmitted through the polarizing filter PLF1 at the B-surface BS2 and transmits the p-polarized component at the B-surface BS2. Therefore, the s-polarized component (e.g., fluorescence) passes through the optical filter OPF1 and is received by the image sensor 11, and the captured image signal of the fluorescence imaged by the image sensor 11 is transmitted to the CCU 30, where the CCU 30 generates fluorescence image data. be.

一方、クロスプリズムCXP2のB面BS2を透過したp偏光成分(例えば400~680[nm]の波長を有する可視光)は光学フィルタOPF2(図3では図示を省略)を透過してイメージセンサ12において受光される。イメージセンサ12によって可視光が撮像された撮像画像信号はCCU30に伝送されてCCU30により可視画像データが生成される。 On the other hand, the p-polarized component (for example, visible light having a wavelength of 400 to 680 [nm]) that has passed through the B surface BS2 of the cross prism CXP2 passes through the optical filter OPF2 (not shown in FIG. 3) and reaches the image sensor 12. light is received. A captured image signal obtained by capturing visible light by the image sensor 12 is transmitted to the CCU 30, and the CCU 30 generates visible image data.

CCU30は、蛍光画像データと可視画像データとを合成して表示器DP1に表示したり、蛍光画像データと可視画像データとを用いて投影用の投影画像データの生成指示を投影機部40に送ったりする。投影機部40は、CCU30からの生成指示に基づいて、例えば患者PAT1等の人物の皮膚に投影し易い(言い換えると、識別し易い)青色単色の投影画像の光(例えば400[nm]の波長を有するs偏光成分の光)を、光学フィルタOPF4(図9では図示を省略)、A面AS2を介して観察部位に投影する。400[nm]の波長を有する光は、光学フィルタOPF4を透過し易く、さらに、A面AS2において反射し易い。 The CCU 30 synthesizes the fluorescence image data and the visible image data and displays them on the display device DP1, or uses the fluorescence image data and the visible image data to send an instruction to the projector unit 40 to generate projection image data for projection. or Based on a generation instruction from the CCU 30, the projector unit 40 produces a monochromatic blue projection image light (e.g., 400 [nm] wavelength) that is easy to project (in other words, easy to identify) onto the skin of a person such as the patient PAT1. ) is projected onto the observation site via the optical filter OPF4 (not shown in FIG. 9) and the A plane AS2. Light having a wavelength of 400 [nm] is likely to pass through the optical filter OPF4, and is also likely to be reflected by the A surface AS2.

次に、実施の形態2に係る分光プリズムカメラ100Aの動作手順例について、図10を参照して説明する。図10は、実施の形態2に係る分光プリズムカメラ100Aの第1動作手順例を示すフローチャートである。図10の説明において、図5の処理と同一の処理については同一のステップ番号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。 Next, an operation procedure example of the spectral prism camera 100A according to the second embodiment will be described with reference to FIG. FIG. 10 is a flow chart showing a first operation procedure example of the spectral prism camera 100A according to the second embodiment. In the description of FIG. 10, the same step numbers are given to the same processes as those of FIG. 5, and the description is simplified or omitted, and different contents are described.

図10において、ステップSt2の後、分光プリズムカメラ100Aは、クロスプリズムCXP2のB面BS2を透過したp偏光成分(例えば400~680[nm]の波長を有する可視光)を光学フィルタOPF2(図3では図示を省略)で透過させてイメージセンサ12において受光する(St31)。ステップSt3の後、分光プリズムカメラ100Aは、イメージセンサ11の撮像により得られた蛍光画像信号に基づく蛍光画像データとイメージセンサ12の撮像により得られた可視画像信号(p偏光成分)に基づく可視画像データ(p偏光成分)とを用いて、蛍光画像データを投影用の投影画像データ(具体的には可視光による投影画像データ(s偏光成分))に変換する(St4A)。 In FIG. 10, after step St2, the spectral prism camera 100A passes the p-polarized component (for example, visible light having a wavelength of 400 to 680 [nm]) transmitted through the B surface BS2 of the cross prism CXP2 to the optical filter OPF2 (see FIG. 3). (not shown)) and received by the image sensor 12 (St31). After step St3, the spectral prism camera 100A generates a visible image based on the fluorescence image data based on the fluorescence image signal obtained by the image sensor 11 and the visible image signal (p-polarized component) obtained by the image sensor 12. Data (p polarization component) is used to convert the fluorescence image data into projection image data for projection (specifically, projection image data (s polarization component) of visible light) (St4A).

分光プリズムカメラ100Aは、ステップSt4Aで生成された投影画像データ(s偏光成分)をクロスプリズムCXP2のA面AS2で反射あるいは全反射させて共用レンズLS1を介して観察部位に向けて投光(投影)する(St5A)。ステップSt5A以降の処理は図5と同一であるため、説明を省略する。 The spectral prism camera 100A reflects or totally reflects the projection image data (s-polarized component) generated in step St4A by the A surface AS2 of the cross prism CXP2, and projects light toward the observation site via the shared lens LS1. ) (St5A). Since the processing after step St5A is the same as in FIG. 5, the description is omitted.

なお、実施の形態2に係る分光プリズムカメラ100Aは、実施の形態1に係る分光プリズムカメラ100と同様に、図6あるいは図7に示す動作手順と同一の動作手順にしたがった動作を実行しても構わない。 Note that, similarly to the spectral prism camera 100 according to the first embodiment, the spectral prism camera 100A according to the second embodiment performs operations according to the same operation procedures as those shown in FIG. 6 or FIG. I don't mind.

以上により、実施の形態2に係る分光プリズムカメラ100Aでは、分光プリズム(例えばクロスプリズムCXP2)は、第1面(例えばB面BS2)において観察部位の光のうち近赤外光(例えば840~900[nm]の波長を有する光)を反射しかつ観察部位の光のうち可視光と同じ波長帯域を有する第1偏光(例えば400~680[nm]の波長を有する可視光のp偏光成分)を透過する。撮像部(例えばカメラヘッド部10A)は、近赤外光に基づいて観察部位の近赤外画像を撮像する第1撮像部(例えばイメージセンサ11)と、第1偏光に基づいて観察部位の可視画像を撮像する第2撮像部(例えばイメージセンサ12)と、を有する。投影部(例えば投影機部40)は、観察部位の近赤外画像と観察部位の可視画像とに基づいて、投影画像を生成し、可視光と同じ波長帯域を有する第2偏光(例えば400~680[nm]の波長を有する可視光のs偏光成分)により分光プリズム(例えばクロスプリズムCXP2)およびレンズ(例えば共用レンズLS1)を介して投影画像を投影する。 As described above, in the spectral prism camera 100A according to the second embodiment, the spectral prism (for example, the cross prism CXP2) has the near-infrared light (for example, 840 to 900 light having a wavelength of [nm]) and having the same wavelength band as visible light among the light of the observation site (for example, p-polarized light component of visible light having a wavelength of 400 to 680 [nm]) To Penetrate. The imaging unit (for example, the camera head unit 10A) includes a first imaging unit (for example, the image sensor 11) that captures a near-infrared image of the observation site based on near-infrared light, and a visible image of the observation site based on the first polarized light. and a second imaging unit (for example, the image sensor 12) that captures an image. The projection unit (for example, the projector unit 40) generates a projection image based on the near-infrared image of the observation site and the visible image of the observation site, and emits a second polarized light having the same wavelength band as the visible light (for example, 400 to An s-polarized component of visible light having a wavelength of 680 [nm] is used to project a projection image through a spectral prism (for example, cross prism CXP2) and a lens (for example, shared lens LS1).

これにより、分光プリズムカメラ100Aは、実施の形態1に係る分光プリズムカメラ100と同様に、投影画像を観察部位に投影する投影機部40と観察部位からの光に基づいて撮像するカメラヘッド部10Aとを別体とする必要無く、共用レンズLS1を投影機部40とカメラヘッド部10Aとで共用できるので、被写体(例えば観察部位)の撮像時および投影時の各光軸の調整の煩雑化を抑制できる。また、分光プリズムカメラ100Aは、イメージセンサ12において受光される可視光(p偏光成分)と投影機部40から投影される投影画像の光(つまり可視光のs偏光成分)とが異なる偏光成分となるので、クロスプリズムCXP2のB面BS2を透過してイメージセンサ12において受光される可視光の波長帯域に青色光が少なくなることを抑制できる。したがって、分光プリズムカメラ100Aは、実施の形態1に係る分光プリズムカメラ100に比べて、第2信号処理部22により得られる可視光画像データに青色の情報をより多く保持できるので、高画質な投影画像を形成できる。 Thus, similarly to the spectral prism camera 100 according to the first embodiment, the spectral prism camera 100A includes the projector unit 40 that projects a projected image onto the observation site and the camera head unit 10A that captures an image based on the light from the observation site. Since the common lens LS1 can be shared between the projector section 40 and the camera head section 10A without the need to separate the , the complicated adjustment of each optical axis during imaging and projection of a subject (for example, an observation site) can be reduced. can be suppressed. In addition, the spectral prism camera 100A detects that the visible light (p-polarized component) received by the image sensor 12 and the light of the projection image projected from the projector unit 40 (that is, the s-polarized component of the visible light) are different polarized components. Therefore, it is possible to prevent blue light from decreasing in the wavelength band of visible light that is received by the image sensor 12 after passing through the B surface BS2 of the cross prism CXP2. Therefore, spectroscopic prism camera 100A can retain more blue information in the visible light image data obtained by second signal processing unit 22 than spectroscopic prism camera 100 according to the first embodiment. can form an image.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that it belongs to the technical scope of the present disclosure. In addition, the constituent elements of the various embodiments described above may be combined arbitrarily without departing from the gist of the invention.

本開示は、被写体の撮像時および投影時の各光軸の調整の煩雑化を抑制するとともに、全体的なシステムの小型化および軽量化を実現する投影装置として有用である。 INDUSTRIAL APPLICABILITY The present disclosure is useful as a projection apparatus that suppresses complicated adjustment of each optical axis when capturing an image of a subject and when projecting, and realizes miniaturization and weight reduction of the overall system.

10、10A カメラヘッド部
11、12 イメージセンサ
20 カメラ信号処理部
21 第1信号処理部
22 第2信号処理部
30 CCU
40 投影機部
41 投影処理部
42 データベース
43 画像結像面
50 カメラ制御部
51 ABF制御部
52 照明制御部
53 偏光フィルタ制御部
54 レンズ制御部
100、100A 分光プリズムカメラ
ABF1、ABF2、ABF3 オートバックフォーカス機構
AS1、AS2 A面
BS1、BS2 B面
CXP1 クロスプリズム
DP1 表示器
FX1 プリズム固定部材
ILM1 照明部
LS1 共用レンズ
OPF1、OPF2、OPF3 光学フィルタ
10, 10A camera head units 11, 12 image sensor 20 camera signal processing unit 21 first signal processing unit 22 second signal processing unit 30 CCU
40 projector section 41 projection processing section 42 database 43 image forming surface 50 camera control section 51 ABF control section 52 lighting control section 53 polarizing filter control section 54 lens control section 100, 100A spectral prism cameras ABF1, ABF2, ABF3 auto back focus Mechanism AS1, AS2 A surface BS1, BS2 B surface CXP1 Cross prism DP1 Display FX1 Prism fixing member ILM1 Illumination unit LS1 Common lens OPF1, OPF2, OPF3 Optical filter

Claims (8)

観察部位からの光が入射するレンズと、
前記レンズを透して受光された光に基づいて、前記観察部位の画像を撮像する撮像部と、
前記撮像部により撮像された前記観察部位の画像に基づいて、前記観察部位への投影画像を生成する投影部と、を備え、
前記レンズは、前記投影部からの前記投影画像の光を、前記観察部位からの光が入射する方向と逆方向であって、かつ前記観察部位からの光の入射軸と同軸である投光軸に沿って投光する、
投影装置。
a lens into which light from an observation site is incident;
an imaging unit configured to capture an image of the observation site based on light received through the lens;
a projection unit that generates an image projected onto the observed region based on the image of the observed region captured by the imaging unit;
The lens projects the light of the projected image from the projection unit in a direction opposite to a direction in which the light from the observation site is incident and has a projection axis that is coaxial with the incident axis of the light from the observation site. project along the
projection device.
前記観察部位からの光の一部を反射して残りの光を透過する第1面と、前記投影画像の光を前記投光軸に向けて反射する第2面と、を有する分光プリズム、をさらに備え、
前記レンズは、前記分光プリズムよりも前記観察部位側に配置される、
請求項1に記載の投影装置。
a spectral prism having a first surface that reflects part of the light from the observation site and transmits the remaining light, and a second surface that reflects the light of the projected image toward the projection axis; further prepared,
The lens is arranged closer to the observation site than the spectral prism.
A projection device according to claim 1 .
前記分光プリズムは、前記第1面において前記観察部位の光のうち近赤外光を反射しかつ前記観察部位の光のうち可視光を透過し、
前記撮像部は、前記近赤外光に基づいて前記観察部位の近赤外画像を撮像する第1撮像部と、前記可視光に基づいて前記観察部位の可視画像を撮像する第2撮像部と、を有し、
前記投影部は、前記観察部位の近赤外画像と前記観察部位の可視画像とに基づいて前記投影画像を生成し、前記分光プリズムおよび前記レンズを介して前記投影画像を前記観察部位に投影する、
請求項2に記載の投影装置。
the spectral prism reflects near-infrared light out of the light of the observed region on the first surface and transmits visible light out of the light of the observed region,
The imaging unit includes a first imaging unit that captures a near-infrared image of the observation site based on the near-infrared light, and a second imaging unit that captures a visible image of the observation site based on the visible light. , has
The projection unit generates the projection image based on the near-infrared image of the observation site and the visible image of the observation site, and projects the projection image onto the observation site through the spectral prism and the lens. ,
3. A projection device according to claim 2.
前記投影部は、前記投影画像の青色光を、前記レンズを介して前記観察部位に投影する、
請求項3に記載の投影装置。
The projection unit projects the blue light of the projection image onto the observation site through the lens.
4. Projection device according to claim 3.
前記撮像部により撮像された前記観察部位の少なくとも第1画像および第2画像に基づいて、前記観察部位の対象物を分析する信号処理部、をさらに備え、
前記投影部は、前記対象物の分析結果を示す前記投影画像を生成する、
請求項1に記載の投影装置。
a signal processing unit that analyzes an object of the observation site based on at least a first image and a second image of the observation site captured by the imaging unit;
The projection unit generates the projection image showing the analysis result of the object.
A projection device according to claim 1 .
前記撮像部により撮像された前記観察部位の画像に基づいて、前記観察部位の対象物の良否を分析する信号処理部、をさらに備え、
前記投影部は、前記対象物の良否を分析するための基準画像を前記観察部位に予め投影し、
前記撮像部は、前記投影部により投影された前記基準画像を含む前記観察部位の画像を撮像し、
前記信号処理部は、前記撮像部により撮像された前記基準画像を含む前記観察部位の画像に基づいて、前記対象物の良否を分析し、
前記投影部は、前記対象物の良否の分析結果を示す前記投影画像を生成する、
請求項1に記載の投影装置。
a signal processing unit that analyzes the quality of the object at the observation site based on the image of the observation site captured by the imaging unit;
The projection unit projects a reference image for analyzing the quality of the object onto the observation site in advance,
The imaging unit captures an image of the observation site including the reference image projected by the projection unit,
The signal processing unit analyzes the quality of the object based on the image of the observation site including the reference image captured by the imaging unit,
wherein the projection unit generates the projection image indicating the quality analysis result of the object;
A projection device according to claim 1 .
前記分光プリズムは、前記第1面において前記観察部位の光のうち近赤外光を反射しかつ前記観察部位の光のうち可視光と同じ波長帯域を有する第1偏光を透過し、
前記撮像部は、前記近赤外光に基づいて前記観察部位の近赤外画像を撮像する第1撮像部と、前記第1偏光に基づいて前記観察部位の可視画像を撮像する第2撮像部と、を有し、
前記投影部は、前記観察部位の近赤外画像と前記観察部位の可視画像とに基づいて、前記投影画像を生成し、可視光と同じ波長帯域を有する第2偏光により前記分光プリズムおよび前記レンズを介して前記投影画像を投影する、
請求項2に記載の投影装置。
the spectral prism reflects near-infrared light out of the light from the observed region on the first surface and transmits first polarized light having the same wavelength band as visible light out of the light from the observed region,
The imaging unit includes a first imaging unit that captures a near-infrared image of the observation site based on the near-infrared light, and a second imaging unit that captures a visible image of the observation site based on the first polarized light. and
The projection unit generates the projection image based on the near-infrared image of the observation site and the visible image of the observation site, and uses second polarized light having the same wavelength band as visible light to project the spectral prism and the lens. projecting the projection image through
3. A projection device according to claim 2.
蛍光試薬が予め投与された前記観察部位に所定の波長帯域を有する励起光を照射する照明部、をさらに備え、
前記分光プリズムは、前記励起光に基づいて前記蛍光試薬が発光した光である蛍光を前記第1面において反射し、
前記第1撮像部は、前記分光プリズムを介して前記蛍光を受光して前記観察部位の近赤外画像を撮像し、
前記投影部は、前記観察部位の近赤外画像に基づいて、前記蛍光試薬の発光箇所を教示するための前記投影画像を生成する、
請求項3に記載の投影装置。
further comprising an illumination unit that irradiates excitation light having a predetermined wavelength band to the observation site to which the fluorescent reagent has been administered in advance,
the spectral prism reflects fluorescence, which is light emitted by the fluorescent reagent based on the excitation light, on the first surface;
The first imaging unit receives the fluorescence through the spectral prism and captures a near-infrared image of the observation site,
The projection unit generates the projection image for teaching the light emitting location of the fluorescent reagent based on the near-infrared image of the observation site.
4. Projection device according to claim 3.
JP2021002923A 2021-01-12 2021-01-12 projection device Pending JP2022108089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021002923A JP2022108089A (en) 2021-01-12 2021-01-12 projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021002923A JP2022108089A (en) 2021-01-12 2021-01-12 projection device

Publications (1)

Publication Number Publication Date
JP2022108089A true JP2022108089A (en) 2022-07-25

Family

ID=82556237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021002923A Pending JP2022108089A (en) 2021-01-12 2021-01-12 projection device

Country Status (1)

Country Link
JP (1) JP2022108089A (en)

Similar Documents

Publication Publication Date Title
US11788966B2 (en) Imaging system
RU2391894C2 (en) Device for reading live organism image and system of live organism image formation
EP2060227A1 (en) Multimodal imaging system for tissue imaging
JP5358368B2 (en) Endoscope system
JP6996518B2 (en) Branch optical system, imaging device, and imaging system
JP2012065698A (en) Operation support system, and operation support method using the same
US10805512B2 (en) Dual path endoscope
US11160442B2 (en) Endoscope apparatus
JP2007029555A (en) Living body observation apparatus
JPH06125911A (en) Endoscopic device
US20220247981A1 (en) Signal processing device, signal processing method, image capture device, and medical image capture device
WO2018221041A1 (en) Medical observation system and medical observation device
JP2004024656A (en) Fluorescent endoscope equipment
CN115917394A (en) Medical imaging system, medical imaging apparatus and method of operation
JP6859554B2 (en) Observation aids, information processing methods, and programs
US20210290036A1 (en) Control device and medical observation system
JP6886748B2 (en) Eye imaging device and eye imaging system
WO2020008920A1 (en) Medical observation system, medical observation device, and medical observation device driving method
JP2022108089A (en) projection device
JPH05344997A (en) Medical stereoscopic microscope
JP2003250759A (en) Endoscope imaging system
JP2022117069A (en) Imaging apparatus
JP2021186321A (en) Endoscope system
JPWO2018220930A1 (en) Image processing apparatus, image processing system and operation method of image processing apparatus
JP2003079567A (en) Image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231225