JP2006102360A - Living body information presentation device - Google Patents

Living body information presentation device Download PDF

Info

Publication number
JP2006102360A
JP2006102360A JP2004296152A JP2004296152A JP2006102360A JP 2006102360 A JP2006102360 A JP 2006102360A JP 2004296152 A JP2004296152 A JP 2004296152A JP 2004296152 A JP2004296152 A JP 2004296152A JP 2006102360 A JP2006102360 A JP 2006102360A
Authority
JP
Japan
Prior art keywords
information
image
blood vessel
image information
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004296152A
Other languages
Japanese (ja)
Inventor
Akinari Yada
明也 矢田
Takao Inoue
貴生 井上
Yasushi Ueda
泰志 上田
Kuniyuki Matsuda
晋幸 松田
Shunsuke Nishihara
俊介 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004296152A priority Critical patent/JP2006102360A/en
Publication of JP2006102360A publication Critical patent/JP2006102360A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Infusion, Injection, And Reservoir Apparatuses (AREA)
  • Image Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a living body information presentation device capable of correctly and quickly confirming a characteristic information of a living body such as the position and direction of a blood vessel by a simple operation. <P>SOLUTION: The device is equipped with an image pick-up means 402 for imaging the living body, an illumination means 401 for illuminating an illuminating light of a specific wavelength, an image processing means for producing an emphasis image information emphasizing the characteristic information of the living body based on the photographed image information from the image pick-up means 402, and a projection means for projecting the image emphasizing the characteristic information on the surface of the living body. The characteristic information of the living body is, for instance, the position of the blood vessel. The image emphasizing the blood vessel is projected on the actual position of the blood vessel. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、生体の血管位置等の特徴情報を画像として提示する生体情報提示装置に関するものである。   The present invention relates to a biological information presentation apparatus that presents characteristic information such as a blood vessel position of a biological body as an image.

医師または看護師が患者の腕等に対して静脈注射や点滴を行うためには、まず注射針やカテーテルを穿刺する患者の静脈の正確な位置を確認できなければならない。そして、内腕関節付近は比較的に脂肪層が薄く、静脈の確認が比較的容易である。そこで、通常、上腕部をゴムバンド等で絞めて静脈の血行を停止させ、静脈を血圧により膨張させてより正確な位置の確認がなされる。ところが、脂肪層が厚いほど静脈の位置を確認することが困難であり、上記ゴムバンド等を用いても確認できない場合もある。このように単にゴムバンドで上腕部を絞めただけでは静脈の位置が確認できない時には、従来では腕を温めたり針先で静脈を探る方法が行われていたが、熟練度を要求されるとともに患者に大きな苦痛を与えるという不具合があった。さらに、入院患者に対して夜間に行われる定期的処置等、薄暗がりの中で行う場合は、一層の困難さが伴う。   In order for a doctor or nurse to perform intravenous injection or infusion on the patient's arm or the like, it must first be possible to confirm the exact position of the patient's vein to puncture the injection needle or catheter. The fat layer is relatively thin near the inner arm joint, and veins are relatively easy to check. Therefore, normally, the upper arm is squeezed with a rubber band or the like to stop the blood circulation of the vein, and the vein is inflated with blood pressure to confirm the position more accurately. However, the thicker the fat layer, the more difficult it is to confirm the position of the vein, and there are cases where it cannot be confirmed using the rubber band or the like. In this way, when the position of the vein cannot be confirmed simply by tightening the upper arm with a rubber band, conventionally, a method of warming the arm or searching for the vein with the needle tip has been performed. There was a problem that it caused great pains. Furthermore, when it is performed in the dark, such as a regular treatment performed at night on an inpatient, further difficulties are involved.

これらの困難を回避するための静脈探査装置が、従来から提案されている(特許文献1−6参照)。   A vein exploration device for avoiding these difficulties has been conventionally proposed (see Patent Documents 1-6).

図10に、特許文献1に記載された従来の静脈探査装置の構成例を示す。図10の静脈探査装置は、細長い筐体1の先端部に、赤色ないし赤外線領域の波長光を発光する発光素子2が先端前方を照射するように中央に配置される。また、筐体1の先端部に、この発光素子2を挟んで両側に、赤色ないし赤外線領域の波長を受光する受光素子3を備え、該受光素子3は、前記発光素子2の腕への波長光が静脈以外の他の組織による反射光のみを効率よく受光できるように配置される。また、筐体1には、駆動電源用の電池4が収納される。筐体1の外周壁には、電池4の駆動電源を供給制御するための電源操作スイッチ5と、該装置と静脈との位置の関係を表示する表示素子6が配置される。さらに、筐体1の先端部の外周壁中央に本装置の中心を示す矢印7が刻印され、本装置をポケットに挟むためのクリップ8が設けられる。   In FIG. 10, the structural example of the conventional vein search apparatus described in patent document 1 is shown. The vein exploration device of FIG. 10 is disposed at the center of the distal end portion of the elongated casing 1 so that the light emitting element 2 that emits light having a wavelength in the red or infrared region irradiates the front of the distal end. Further, a light receiving element 3 for receiving a wavelength in the red or infrared region is provided on both sides of the light emitting element 2 at the front end portion of the housing 1, and the light receiving element 3 has a wavelength to the arm of the light emitting element 2. The light is arranged so that it can efficiently receive only the reflected light from tissues other than the veins. Further, the casing 1 houses a battery 4 for driving power. On the outer peripheral wall of the housing 1, a power operation switch 5 for supplying and controlling the driving power of the battery 4 and a display element 6 for displaying the positional relationship between the device and the vein are arranged. Further, an arrow 7 indicating the center of the apparatus is engraved at the center of the outer peripheral wall of the front end portion of the housing 1, and a clip 8 is provided for holding the apparatus in a pocket.

医師または看護師がこの装置を手に持ち、患者の腕上で穿刺したい箇所周辺に先端部をあてがって腕上をなぞると、2つの受光素子3の受光量の差が静脈位置に対する矢印7のずれ程度に対応し、該受光量の差に対応するように表示素子6に表示する。医師や看護師は表示素子6の表示を見ながら先端部の位置を微調整し、該受光量の差がゼロになるようにする。その時の矢印7が示す位置が、静脈が存在している位置を示すことになる。   When a doctor or nurse holds this device in his hand and puts the tip around the area where he wants to puncture on the patient's arm and traces the arm, the difference in the amount of light received by the two light receiving elements 3 is indicated by the arrow 7 relative to the vein position. In response to the degree of deviation, display is performed on the display element 6 so as to correspond to the difference in the amount of received light. The doctor or nurse finely adjusts the position of the tip while viewing the display on the display element 6 so that the difference in the amount of received light becomes zero. The position indicated by the arrow 7 at that time indicates the position where the vein exists.

また、特許文献2−6には、類似の静脈探査装置が記載されている。特許文献2の静脈探査装置は、発光素子と受光素子2個の組が複数組配列され、静脈の位置と方向を検知するものである。特許文献3の静脈探査装置は、2本のアームを腕に装着して、各アーム上を発光素子と受光素子2個の組を組み込んだカーソルが移動可能とすることによって、静脈の位置と方向を検知するものである。   Patent Documents 2-6 describe a similar vein exploration device. The vein exploration device of Patent Document 2 is configured to detect the position and direction of a vein by arranging a plurality of sets of two light emitting elements and two light receiving elements. The vein exploration device of Patent Document 3 attaches two arms to an arm, and a cursor incorporating a set of two light-emitting elements and two light-receiving elements can be moved on each arm. Is detected.

特許文献4の静脈探査装置は、発光素子と受光素子2個の組が複数組配列された構成を有するとともに、腕上にスポット照明する手段を設け、腕上に静脈位置を示すものである。特許文献5の静脈探査装置は、発光素子と受光素子2個の組が複数組配列された構成を有するとともに、少なくとも1つの受光素子の受光量から脈動を検出し、脈動の有無を表示するものである。また、特許文献6の静脈探査装置は、腕輪に発光素子と受光素子2個の組を組み込んだカーソルをスライド可能にしておき、腕を締め付け、腕輪についたカーソルをスライドさせて、静脈真上にくると、腕輪上のLEDが点灯するものである。   The vein exploration device of Patent Document 4 has a configuration in which a plurality of sets of light emitting elements and two light receiving elements are arranged, and is provided with means for spot illumination on the arm to indicate the vein position on the arm. The vein exploration device of Patent Document 5 has a configuration in which a plurality of pairs of light emitting elements and two light receiving elements are arranged, detects pulsation from the amount of light received by at least one light receiving element, and displays the presence or absence of pulsation. It is. Further, the vein exploration device of Patent Document 6 allows a cursor incorporating a pair of a light emitting element and a light receiving element to be slidable on a bracelet, tightens the arm, slides the cursor on the bracelet, and directly above the vein. When it comes, the LED on the bracelet lights up.

その他に、装置の目的は異なるが技術的に関連する従来の個人識別装置として、指の可視光像と近赤外像を取得・利用して血管パターンの特徴を抽出し、抽出された血管パターンの特徴と登録されている血管パターンの特徴と比較することで個人を識別する装置の提案がなされている(特許文献7参照)。   In addition, as a conventional personal identification device that is technically related, although the purpose of the device is different, the features of the blood vessel pattern are extracted and acquired using the visible light image and near infrared image of the finger, and the extracted blood vessel pattern There has been proposed a device for identifying an individual by comparing it with the registered blood vessel pattern features (see Patent Document 7).

特開平2−161956号公報(第3頁、第2、3、4図)Japanese Patent Laid-Open No. 2-161956 (page 3, FIGS. 2, 3, 4) 特開平2−172472号公報(第4頁、第3、4、5図)Japanese Patent Laid-Open No. 2-172472 (page 4, 3, 4 and 5) 特開平2−172473号公報(第2頁、第1、2、3図)JP-A-2-172473 (2nd page, FIGS. 1, 2 and 3) 特開平2−174852号公報(第3頁、第3、4、5図)JP-A-2-174852 (page 3, FIGS. 3, 4, 5) 特開平2−174853号公報(第4頁、第1図)Japanese Patent Laid-Open No. 2-174853 (page 4, FIG. 1) 特開平2−174854号公報(第2頁、第1図)Japanese Patent Laid-Open No. 2-174854 (2nd page, FIG. 1) 特開平11−203452号公報(第3頁、第1図)Japanese Patent Laid-Open No. 11-203452 (page 3, FIG. 1)

しかしながら、前記従来の構成では、装置を腕に接触もしくは装着した状態で注射を打つことになり、装置自体が邪魔になって穿刺しにくい。また、不特定多数の患者に使用する場合、血液感染の恐れもあり不衛生である。また、従来の構成では、より太く直線性のある最適な静脈位置や方向を探し出すことは困難である。さらに、従来の構成では、穿刺後、生体中にある針先端が正しく狙った静脈に刺さらなかった場合に、どのように針先端位置を動かして狙った静脈に刺し直すかがわからない。   However, in the conventional configuration, the injection is performed in a state where the device is in contact with or attached to the arm, and the device itself is obstructive and is difficult to puncture. In addition, when used for an unspecified number of patients, there is a risk of blood infection, which is unsanitary. Also, with the conventional configuration, it is difficult to find an optimal vein position and direction that is thicker and more linear. Furthermore, in the conventional configuration, after the puncture, if the tip of the needle in the living body does not pierce the target vein correctly, it is not known how to move the needle tip position and re-pierce the target vein.

本発明は、血管の位置や方向等の生体の特徴情報を簡単な操作で正確かつ迅速に確認できる生体情報提示装置を提供することを目的とする。   An object of the present invention is to provide a biological information presentation apparatus that can accurately and quickly confirm biological feature information such as the position and direction of a blood vessel with a simple operation.

本発明の生体情報提示装置は、生体の特徴情報を画像として提示するものであって、前記特徴情報を撮影するための所定波長の照明光を前記生体へ照射する照明手段と、前記生体を撮影し、生体撮像画像情報を取得する撮像手段と、前記生体撮像画像情報に基づいて前記特徴情報を検出し、検出した前記特徴情報を画像化した投影画像情報に変換する画像処理手段と、前記投影画像情報に基づく投影画像を前記生体表面に投影する投影手段と、を備えるものである。   The biological information presentation apparatus according to the present invention presents biological feature information as an image, and illuminates illumination light having a predetermined wavelength for photographing the feature information onto the biological body, and photographs the biological body. Imaging means for acquiring biometric captured image information, image processing means for detecting the feature information based on the biometric captured image information, and converting the detected feature information into imaged projection image information, and the projection Projecting means for projecting a projected image based on image information onto the surface of the living body.

本発明の生体情報提示装置は、前記撮像手段が、前記投影手段が前記生体上に投影した前記投影画像を撮影して可視画像情報を取得し、前記画像処理手段が、前記生体撮像画像情報に基づいて検出した前記特徴情報と、前記可視画像情報に基づいて検出した前記特徴情報との位置ずれを検出し、前記位置ずれに基づいて、前記投影手段が生体表面に投影した投影画像の前記特徴情報の位置が前記生体の特徴情報の位置と一致するように前記投影画像情報を補正するものを含む。   In the biological information presentation apparatus according to the present invention, the imaging unit captures the projected image projected on the living body by the projection unit to obtain visible image information, and the image processing unit includes the biological image captured image information. A positional deviation between the feature information detected based on the feature information detected based on the visible image information is detected, and the feature of the projection image projected on the living body surface by the projection unit based on the positional deviation is detected. The information for correcting the projection image information so that the position of the information coincides with the position of the feature information of the living body is included.

本発明の生体情報提示装置は、前記照明手段が、前記照明光を前記生体へ間欠的に照射し、前記撮像手段が、前記照明光照射時の前記生体撮像画像情報に基づいて前記特徴情報を検出するものを含む。   In the biological information presentation device of the present invention, the illumination unit intermittently irradiates the living body with the illumination light, and the imaging unit displays the feature information based on the biological image image information at the time of the illumination light irradiation. Includes what to detect.

本発明の生体情報提示装置は、前記画像処理手段が、連続して取得した前記生体撮像画像情報に基づく前記特徴情報間の位置ずれを、前記生体の移動情報して検出し、前記移動情報に基づいて前記投影画像情報を補正するものを含む。   In the biological information presentation device according to the present invention, the image processing means detects a positional shift between the feature information based on the biological captured image information continuously acquired as movement information of the living body, and includes the movement information as the movement information. And correcting the projection image information on the basis thereof.

本発明の生体情報提示装置は、前記撮像手段と前記投影手段が、同一のレンズを使用するものを含む。   The biological information presentation apparatus according to the present invention includes an apparatus in which the imaging unit and the projection unit use the same lens.

本発明の生体情報提示装置は、前記特徴情報が、血管位置であり、前記照明手段が、近赤外波長の照明光を照射し、前記撮像手段が、近赤外波長の分光感度が高いものであって、前記照明光照射時の前記生体撮像画像情報である近赤外画像情報、及び、前記照明光非照射時の前記生体撮像画像情報である可視画像情報を取得し、前記画像処理手段が、前記近赤外画像情報に基づいて血管像を画像強調した投影画像情報を生成し、前記投影手段が、前記投影画像情報に基づく可視画像を前記生体表面に投影するものを含む。   In the biological information presentation device of the present invention, the feature information is a blood vessel position, the illumination unit irradiates near-infrared wavelength illumination light, and the imaging unit has high near-infrared wavelength spectral sensitivity. And obtaining near-infrared image information that is the biologically-captured image information at the time of illumination light irradiation, and visible image information that is the biologically-captured image information at the time of non-irradiation of the illumination light, and the image processing means Includes generating projection image information in which a blood vessel image is image-enhanced based on the near-infrared image information, and the projection unit projects a visible image based on the projection image information onto the living body surface.

本発明の生体情報提示装置は、前記画像処理手段が、前記生体撮像画像情報から前記特徴情報を生成する特徴抽出手段と、前記特徴情報のうち、血管の位置形状情報から血管強調画像情報を生成する強調画像生成手段と、前記血管強調画像情報を記憶し、該記憶した血管強調画像情報を前記投影画像情報として前記投影手段へ出力する血管強調画像記憶手段と、前記生体撮像画像情報が生体からの近赤外光を撮像した近赤外画像情報の場合に、前記特徴抽出手段が生成する前記特徴情報を記憶する近赤外特徴情報第1記憶手段と、前記生体撮像画像情報が生体からの可視光を撮像した可視画像情報の場合に、前記特徴抽出手段が生成する前記特徴情報を記憶する可視特徴情報記憶手段と、前記生体撮像画像情報が生体からの近赤外光を撮像した近赤外画像情報の場合に、前記特徴抽出手段が生成する前記特徴情報を近赤外特徴情報第1記憶手段に記憶するに先立ち、前記近赤外特徴情報第1記憶手段に記憶されている前記特徴情報を記憶する近赤外特徴情報第2記憶手段と、前記可視特徴情報記憶手段が記憶する前記特徴情報と前記近赤外特徴情報第1記憶手段が記憶する前記特徴情報から、前記特徴情報の位置ずれを検出し、該位置ずれの方向と位置ずれ量を第1のベクトルとして生成し、前記近赤外特徴情報第2記憶手段が記憶する前記特徴情報と前記近赤外特徴情報第1記憶手段が記憶する前記特徴情報から、前記特徴情報の位置ずれを検出し、該位置ずれの方向と位置ずれ量を第2のベクトルとして生成する位置ずれ検出手段と、前記血管強調画像記憶手段が記憶する前記血管強調画像情報を前記第1のベクトル、または、前記第2のベクトルの方向へ該ベクトル量だけ移動させた補正画像情報を生成し、該補正画像情報を新たな血管強調画像情報として前記血管強調画像記憶手段に更新記憶させる画像補正手段と、を備えるものを含む。   In the biometric information presentation apparatus according to the present invention, the image processing unit generates feature information from the biometric image information, and generates blood vessel emphasized image information from blood vessel position shape information among the feature information. An enhanced image generating unit that stores the blood vessel enhanced image information, and outputs the stored blood vessel enhanced image information to the projecting unit as the projection image information. In the case of near-infrared image information obtained by imaging near-infrared light, near-infrared feature information first storage means for storing the feature information generated by the feature extraction means, and the biological image-captured image information from the living body In the case of visible image information obtained by imaging visible light, visible feature information storage means for storing the feature information generated by the feature extraction means, and the biometric imaged image information images near-infrared light from a living body. In the case of near-infrared image information, the feature information generated by the feature extraction means is stored in the near-infrared feature information first storage means prior to being stored in the near-infrared feature information first storage means. From the feature information stored in the near-infrared feature information second storage means for storing the feature information, the feature information stored in the visible feature information storage means, and the feature information stored in the near-infrared feature information first storage means, the feature A positional deviation of information is detected, a direction of the positional deviation and a positional deviation amount are generated as a first vector, and the feature information and the near-infrared feature information stored in the near-infrared feature information second storage means are stored. A positional deviation detecting means for detecting a positional deviation of the characteristic information from the feature information stored in one storage means and generating the positional deviation direction and the positional deviation amount as a second vector; and the blood vessel enhanced image storage means Remember Corrected image information is generated by moving the tube-enhanced image information by the amount of the vector in the direction of the first vector or the second vector, and the corrected image information is used as the new blood vessel-enhanced image information. And an image correction unit that is updated and stored in the image storage unit.

本発明の生体情報提示装置は、前記特徴抽出手段が生成する前記特徴情報が、血管の位置形状、もしくは、血管分岐点、もしくは、生体に貼付した特殊シールの像の位置、もしくは、最適穿刺領域の中心点であり、前記位置ずれ検出手段が前記特徴情報の位置の変化を検出するものを含む。   In the biological information presentation device according to the present invention, the feature information generated by the feature extraction unit is a position shape of a blood vessel, a blood vessel branch point, a position of an image of a special sticker attached to a living body, or an optimum puncture region. And the positional deviation detecting means detects a change in the position of the feature information.

本発明の生体情報提示装置は、前記照明手段と、前記撮像手段と、前記画像処理手段と、前記投影手段を収容する筐体と、前記筐体を前記生体に対して所定の位置に支持するための支持手段を備えるものを含む。   The biological information presentation device of the present invention supports the illumination unit, the imaging unit, the image processing unit, a housing that houses the projection unit, and the housing at a predetermined position with respect to the living body. Including a support means for.

本発明の生体情報提示装置は、前記生体をのせる台座手段を備え、前記支持手段が、前記台座手段に固定化されるものを含む。   The biological information presentation apparatus of the present invention includes a pedestal unit for placing the living body, and the support unit is fixed to the pedestal unit.

本発明の生体情報提示装置は、前記支持手段が、前記筐体の前記生体に対する角度又は高さが調整可能であるものを含む。   In the biological information presentation apparatus according to the present invention, the support means includes an apparatus that can adjust an angle or a height of the housing with respect to the living body.

本発明の生体情報提示装置は、前記画像処理手段が保持している情報を外部に出力するとともに外部からの情報を受信する入出力手段を備え、前記画像処理手段が、前記投影画像情報と前記外部からの情報とを合成した合成画像情報を生成し、前記投影手段が、前記合成画像情報に基づく投影画像を前記生体表面に投影するものを含む。   The biological information presentation apparatus of the present invention includes an input / output unit that outputs information held by the image processing unit to the outside and receives information from the outside, and the image processing unit includes the projection image information and the information It includes generating composite image information obtained by combining information from the outside, and the projection unit projecting a projection image based on the composite image information onto the living body surface.

本発明の生体情報提示装置の実施の形態について図面を用いて説明する。以下の説明では、生体情報提示装置の一例として、生体の特徴情報として血管位置を提示する血管位置提示装置について説明する。   Embodiments of the biological information presentation apparatus of the present invention will be described with reference to the drawings. In the following description, a blood vessel position presentation device that presents a blood vessel position as biometric feature information will be described as an example of a biological information presentation device.

従来から知られているように、生体内の静脈血は近赤外光を吸収しやすい特性があり、例えば、生体に近赤外光を照射した状態で生体からの反射光を、近赤外光に感度の高い撮像素子(例えばCCD型撮像素子)を用いて撮像すると、血管部分が相対的に低輝度で、皮膚部分が相対的に高輝度の画像が得られる。   As is conventionally known, venous blood in a living body has a characteristic of easily absorbing near-infrared light.For example, reflected light from a living body is irradiated with near-infrared light in a state where the living body is irradiated with near-infrared light. When an image is picked up using an image sensor having high sensitivity to light (for example, a CCD type image sensor), an image with a relatively low luminance in the blood vessel portion and a relatively high luminance in the skin portion is obtained.

本発明の血管位置提示装置は、この特性を利用して生体の血管を検出し、検出した血管を示す画像を生体の真の血管位置に投影するものである。したがって、医師や看護師が血管への注射を行う場合、目視で見えにくい血管であっても、生体に投影した画像により血管位置を正確かつ迅速に確認できる。   The blood vessel position presentation apparatus of the present invention detects a blood vessel of a living body using this characteristic, and projects an image showing the detected blood vessel on a true blood vessel position of the living body. Therefore, when a doctor or nurse performs an injection into a blood vessel, the blood vessel position can be accurately and quickly confirmed by an image projected on a living body even if the blood vessel is difficult to see visually.

(第1の実施の形態)
図1に、本発明の第1の実施の形態の血管位置提示装置の概略機能ブロック図を示す。図1の血管位置提示装置は、照明手段401、撮像手段402、画像処理手段403、投影手段404、入出力手段405を含んで構成される。
(First embodiment)
FIG. 1 shows a schematic functional block diagram of the blood vessel position presentation device according to the first embodiment of the present invention. The blood vessel position presentation apparatus in FIG. 1 includes an illumination unit 401, an imaging unit 402, an image processing unit 403, a projection unit 404, and an input / output unit 405.

照明手段401は、近赤外波長領域の照明光である近赤外光421を生体に照射するものであり、例えば近赤外LEDを近赤外光源として含む。照明手段401は、画像処理手段403からの指示411(最適な光の強度と照射タイミング)にしたがって、近赤外光源を発光させる。近赤外光421の照射は間欠的に行われ、例えば、撮像手段402が3フレームを撮像する期間照射し、続く9フレームを撮像する期間照射を休止する。また、照射する近赤外光421の強度は、近赤外光照射時の撮影画像において、血管部分と皮膚部分のコントラストが最大になるように画像処理手段403から指示411を出力し、近赤外LEDへの入力電流量を制御することによって制御される。   The illumination unit 401 irradiates a living body with near infrared light 421 that is illumination light in the near infrared wavelength region, and includes, for example, a near infrared LED as a near infrared light source. The illumination unit 401 causes the near-infrared light source to emit light in accordance with an instruction 411 (optimal light intensity and irradiation timing) from the image processing unit 403. The near-infrared light 421 is irradiated intermittently. For example, the imaging unit 402 irradiates for a period in which 3 frames are imaged, and the irradiation for a period in which the subsequent 9 frames are imaged is stopped. Further, the intensity of the near infrared light 421 to be irradiated is output from the image processing means 403 so that the contrast between the blood vessel portion and the skin portion is maximized in the photographed image at the time of near infrared light irradiation, and the near red light is emitted. It is controlled by controlling the amount of input current to the outer LED.

撮像手段402は、生体及び投影手段404が生体に投影した投影画像を撮影するもので、可視光波長から近赤外波長において分光感度の高いCCD撮像素子又はCMOS撮像素子を備える。生体からの反射光422から得られる撮像画像情報は、生体撮像画像情報413として画像処理手段403に転送される。前述のように、照明手段401からの近赤外光421は間欠的に照射されるので、撮像手段402は、近赤外光421を照射した時の撮像情報である近赤外画像情報と、近赤外光421を照射しない時の撮像情報である可視画像情報を取得して、生体撮像画像413として画像処理手段403に転送する。なお、後述するように、撮像手段402は、近赤外光421照射時には近赤外波長の光だけを透過するフィルタを介して撮像し、近赤外光421非照射時には、このようなフィルタなしで撮像する。また、撮像手段402は、転送する生体撮像画像情報413が近赤外画像情報か可視画像情報かを区別するためのフラグ情報412を、合わせて画像処理手段403に転送する。フラグ情報412としては、近赤外波長の光だけを透過するフィルタの使用期間及び非使用期間を示す信号を利用できる。   The imaging unit 402 captures a projection image projected on the living body by the living body and the projecting unit 404, and includes a CCD imaging device or a CMOS imaging device having high spectral sensitivity from the visible light wavelength to the near infrared wavelength. The captured image information obtained from the reflected light 422 from the living body is transferred to the image processing unit 403 as the biological captured image information 413. As described above, since the near-infrared light 421 from the illumination unit 401 is intermittently irradiated, the imaging unit 402 includes near-infrared image information that is imaging information when the near-infrared light 421 is irradiated, Visible image information that is imaging information when the near-infrared light 421 is not irradiated is acquired, and is transferred to the image processing unit 403 as a living body captured image 413. As will be described later, the imaging unit 402 captures an image through a filter that transmits only near-infrared wavelength light when the near-infrared light 421 is irradiated, and there is no such filter when the near-infrared light 421 is not irradiated. Take an image with. The imaging unit 402 also transfers flag information 412 for distinguishing whether the biometric captured image information 413 to be transferred is near-infrared image information or visible image information to the image processing unit 403. As the flag information 412, a signal indicating a use period and a non-use period of a filter that transmits only light having a near infrared wavelength can be used.

投影手段404は、画像処理手段403からの投影画像情報414に基づいて生体表面に映し出す投影光423を生成するものである。投影画像情報414は、近赤外画像情報に基づいて血管像を画像強調したものであり、投影光423は可視光であるので、生体表面に映し出された像は、血管を可視化した投影血管像となり、医師や看護師の目にみえるものとなる。なお、投影画像情報414は、各画素の画素値がR(赤)、G(緑)、B(青)各8ビットで表現される画像情報である。   The projection unit 404 generates projection light 423 to be projected on the surface of the living body based on the projection image information 414 from the image processing unit 403. The projected image information 414 is an image enhancement of a blood vessel image based on near-infrared image information. Since the projection light 423 is visible light, the image projected on the surface of the living body is a projected blood vessel image obtained by visualizing blood vessels. And become visible to doctors and nurses. The projection image information 414 is image information in which the pixel value of each pixel is represented by 8 bits each for R (red), G (green), and B (blue).

画像処理手段403は、生体撮像画像情報413に基づいて生体の特徴情報を検出し、検出した特徴情報を血管の投影画像情報に変換するものであり、所定のプログラムを実行するプロセッサを主体に実現される。血管位置の提示を行う場合、具体的には、近赤外光421を照射した時の生体撮像画像情報413である近赤外画像情報に基づいて、血管像を画像強調した投影画像情報414を生成する。また、近赤外光421を照射しない時の生体撮像画像情報413である可視画像情報に基づいて、投影光423によって映し出された投影血管像の位置を認識する。そして、投影血管像の位置が生体の血管位置に一致するように、投影画像情報414を補正する。なお、投影画像情報414の補正に際しては、連続して取得した生体撮像画像情報413に基づいて検出した血管位置のずれを、生体の移動を示すベクトルとして検出し、このベクトルに基づいて投影画像情報414を補正してもよい。   The image processing means 403 detects biological feature information based on the biological captured image information 413, converts the detected feature information into blood vessel projection image information, and is realized mainly by a processor that executes a predetermined program. Is done. When the blood vessel position is presented, specifically, the projection image information 414 in which the blood vessel image is image-enhanced based on the near-infrared image information which is the living body captured image information 413 when the near-infrared light 421 is irradiated. Generate. Further, the position of the projected blood vessel image projected by the projection light 423 is recognized based on the visible image information that is the living body captured image information 413 when the near infrared light 421 is not irradiated. Then, the projection image information 414 is corrected so that the position of the projected blood vessel image matches the blood vessel position of the living body. When correcting the projection image information 414, the displacement of the blood vessel position detected based on the continuously acquired biological image information 413 is detected as a vector indicating the movement of the biological body, and the projection image information is based on this vector. 414 may be corrected.

なお、血管像を画像強調するに際しては、画像処理手段403にてエッジ強調や色の付加などの加工を行う。このような処理を行うことにより血管部分のエッジなどがぼやけていたりしても、投影画像は鮮明なものとなる。   Note that when the blood vessel image is enhanced, the image processing unit 403 performs processing such as edge enhancement and color addition. By performing such processing, the projected image becomes clear even if the edge of the blood vessel part is blurred.

また、画像処理手段403は、上記した投影画像情報414を投影手段404に送るとともに、照明手段401に対して近赤外光421の強度と照射タイミングを指示する指示411を送る。近赤外光421の強度は、生体撮像画像情報413である近赤外画像情報に基づいて求める。   In addition, the image processing unit 403 sends the projection image information 414 to the projection unit 404 and sends an instruction 411 for instructing the intensity and irradiation timing of the near infrared light 421 to the illumination unit 401. The intensity of the near-infrared light 421 is obtained based on near-infrared image information that is the living body captured image information 413.

入出力手段405は、画像処理手段403からの出力データ416を所定通信プロトコルにしたがってフォーマット化して通信情報415として外部に送信するとともに、外部からの通信情報415を前記同様の所定通信プロトコルにしたがってデフォーマットして入力データ416として画像処理手段403へ転送するものである。外部からの入力データ416は、血管像を画像強調した投影画像情報414に合成される。入出力データ416の利用については後述する。   The input / output unit 405 formats the output data 416 from the image processing unit 403 in accordance with a predetermined communication protocol and transmits the data as communication information 415 to the outside. The input / output unit 405 outputs the communication information 415 from the outside in accordance with the same predetermined communication protocol. The data is formatted and transferred as input data 416 to the image processing means 403. Input data 416 from the outside is combined with projection image information 414 in which a blood vessel image is enhanced. Use of the input / output data 416 will be described later.

図1に示される各要素は所定の筐体に収納され、血管位置を検出しようとする生体と所定の位置関係に設置されて使用される。図2は、本発明の第1の実施の形態の血管位置提示装置の配置を示す図である。   Each element shown in FIG. 1 is housed in a predetermined housing, and is used in a predetermined positional relationship with a living body whose blood vessel position is to be detected. FIG. 2 is a diagram illustrating an arrangement of the blood vessel position presentation device according to the first embodiment of this invention.

図1に示される各要素は筐体101に収納され、筐体101は支持手段100によって、生体と所定の位置関係に保たれる。支持手段100は、支持棒102、高さ固定部103、高さ調整支持棒104、電源部105、コンセントケーブル106、クリップ108を含んで構成され、クリップ108によって注射用の台座107に固定される。台座107は、一般医療現場で使用されている注射専用の台座であり、医師や看護師が静脈注射を行う際に、台座107に腕109がのせられる。   Each element shown in FIG. 1 is housed in a housing 101, and the housing 101 is maintained in a predetermined positional relationship with the living body by the support means 100. The support means 100 includes a support rod 102, a height fixing portion 103, a height adjustment support rod 104, a power supply portion 105, an outlet cable 106, and a clip 108, and is fixed to the injection base 107 by the clip 108. . The pedestal 107 is a pedestal dedicated to injection used in general medical practice, and an arm 109 is placed on the pedestal 107 when a doctor or nurse performs intravenous injection.

筐体101と支持手段100は支持棒102で接続され、高さ固定部103は、高さ調節支持棒104に沿って上下し、腕109と筐体101との間が所定距離になる高さで、高さ固定部103を高さ調節支持棒104に固定化するものである。これによって、操作者は筐体101と腕109との距離を調整することができる。   The housing 101 and the support means 100 are connected by a support rod 102, and the height fixing portion 103 moves up and down along the height adjustment support rod 104, and the height between the arm 109 and the housing 101 is a predetermined distance. Thus, the height fixing portion 103 is fixed to the height adjustment support rod 104. As a result, the operator can adjust the distance between the casing 101 and the arm 109.

高さ調節支持棒104は電源部105に固定されており、コンセントケーブル106にて外部から供給される電力は、前記支持手段を介して筐体101に供給される。なお、角度変更部131は、支持棒102と高さ固定部103との角度を変更させるためのものであり、操作者は筐体101を腕109に対し角度調整をすることができる。   The height adjustment support rod 104 is fixed to the power supply unit 105, and the electric power supplied from the outside by the outlet cable 106 is supplied to the housing 101 through the support means. The angle changing unit 131 is used to change the angle between the support rod 102 and the height fixing unit 103, and the operator can adjust the angle of the casing 101 with respect to the arm 109.

筐体101には、撮像レンズユニット110、回転型光学フィルタ111、CCD型撮像素子(以下、CCD)112、情報処理手段113、可視光源114、液晶ユニット115、投影レンズユニット116、近赤外LED121、122、123が収容される。   The housing 101 includes an imaging lens unit 110, a rotary optical filter 111, a CCD type imaging device (hereinafter referred to as CCD) 112, an information processing unit 113, a visible light source 114, a liquid crystal unit 115, a projection lens unit 116, and a near infrared LED 121. , 122, 123 are accommodated.

照明手段401は、近赤外LED121、122、123からなり、腕109に対し、近赤外光を照射するものである。近赤外LED121、122、123の発光期間は、撮像手段402を構成する回転型光学フィルタ111の近赤外透過フィルタ303(図3参照)が撮像光軸を通過する期間と一致するように、画像処理手段403から指示される。   The illumination means 401 is composed of near-infrared LEDs 121, 122, and 123, and irradiates the arm 109 with near-infrared light. The emission periods of the near-infrared LEDs 121, 122, and 123 coincide with the period during which the near-infrared transmission filter 303 (see FIG. 3) of the rotary optical filter 111 constituting the imaging unit 402 passes through the imaging optical axis. Instructed by the image processing means 403.

情報処理手段113は、画像処理手段403及び入出力手段405から構成されるものである。   The information processing unit 113 includes an image processing unit 403 and an input / output unit 405.

可視光源114、液晶ユニット115、投影レンズユニット116は、投影手段404を構成するもので、一般的に使用されている3LCD方式のプロジェクタである。画像処理手段403からの投影画像情報414は液晶ユニット115に転送され、バックライトとなる可視光源114からの光は液晶ユニット115に照射される。したがって、液晶ユニット115に表示された血管位置を強調した画像は、投影レンズユニット116を介して腕109に投影され、投影血管像118として腕109に現れる。   The visible light source 114, the liquid crystal unit 115, and the projection lens unit 116 constitute the projection unit 404, and are commonly used 3LCD projectors. Projection image information 414 from the image processing means 403 is transferred to the liquid crystal unit 115, and light from the visible light source 114 serving as a backlight is irradiated to the liquid crystal unit 115. Therefore, an image in which the blood vessel position displayed on the liquid crystal unit 115 is emphasized is projected onto the arm 109 via the projection lens unit 116 and appears on the arm 109 as a projected blood vessel image 118.

撮像レンズユニット110、回転型光学フィルタ111、CCD112は、撮像手段402を構成するもので、腕109からの反射光を取り込んで回転型光学フィルタ111にて分別される2種類の波長光の画像をCCD112にて取得するものである。ここで、CCD112は、可視光から近赤外光の波長領域に対して分光感度が高いものを使用する。また、回転型光学フィルタ111が分別する2種類の波長光は、近赤外波長光と可視波長光である。   The imaging lens unit 110, the rotary optical filter 111, and the CCD 112 constitute the imaging means 402. The imaging lens unit 110, the rotary optical filter 111, and the two types of wavelength light that are separated by the rotary optical filter 111 after taking in the reflected light from the arm 109. Obtained by the CCD 112. Here, the CCD 112 having a high spectral sensitivity with respect to the wavelength region from visible light to near infrared light is used. The two types of wavelength light that the rotary optical filter 111 separates are near-infrared wavelength light and visible wavelength light.

図3に、本発明の第1の実施の形態の血管位置提示装置における回転型光学フィルタの構成図を示す。図3の回転型光学フィルタ111は、撮像レンズユニット110とCCD112間に配置され、回転軸301を中心に角速度一定で回転するものである。空洞部302は、何も存在しない空洞状態であり、近赤外透過フィルタ303は、近赤外波長の光だけを透過するフィルタである。   FIG. 3 is a configuration diagram of a rotary optical filter in the blood vessel position presentation device according to the first embodiment of the present invention. 3 is arranged between the imaging lens unit 110 and the CCD 112, and rotates around the rotation axis 301 at a constant angular velocity. The hollow portion 302 is a hollow state where nothing exists, and the near-infrared transmission filter 303 is a filter that transmits only light having a near-infrared wavelength.

撮像レンズユニット110からCCD112へ向かう光軸は、空洞部302を9フレーム時間、近赤外透過フィルタ303を3フレーム時間通過する。なお、ここにフレーム時間とは、CCD112が1枚の画像を撮像するための時間であり、例えば、CCD112が1秒間に30フレーム撮像可能ならば、1フレーム時間は約33ミリ秒となる。照明部を構成する近赤外LED121、122、123は、撮像レンズユニット110からCCD112へ向かう光軸が近赤外透過フィルタ303を通過する時間駆動され、近赤外光421を腕109に照射される。よって、CCD112は、前記3フレーム時間には腕109からの反射光のうち、近赤外波長の光に基づく画像を取得する。また、前記9フレーム時間には、可視波長と近赤外波長の光に基づく画像を取得する。   The optical axis from the imaging lens unit 110 to the CCD 112 passes through the cavity 302 for 9 frame times and through the near-infrared transmission filter 303 for 3 frame times. Here, the frame time is a time for the CCD 112 to capture one image. For example, if the CCD 112 can capture 30 frames per second, one frame time is about 33 milliseconds. The near-infrared LEDs 121, 122, and 123 constituting the illumination unit are driven for a time when the optical axis from the imaging lens unit 110 to the CCD 112 passes through the near-infrared transmission filter 303, and the near-infrared light 421 is irradiated to the arm 109. The Therefore, the CCD 112 acquires an image based on light of near-infrared wavelength among the reflected light from the arm 109 during the three frame times. In the 9 frame time, an image based on light having a visible wavelength and a near infrared wavelength is acquired.

画像処理手段403は、近赤外波長の光に基づく3フレームの画像のうちの2フレーム目の画像を近赤外画像情報として利用し、可視波長と近赤外波長の光に基づく9フレームの画像うちの2、5、8フレーム目の3フレームの画像を可視画像情報として利用する。   The image processing means 403 uses the image of the second frame among the three frames based on the near-infrared wavelength light as near-infrared image information, and uses nine frames based on the visible and near-infrared light. Of the images, the third, third, and eighth frames are used as visible image information.

なお、図3において空洞部302を何も存在しない空洞状態としたが、可視波長だけを透過する可視光透過フィルタ、もしくは近赤外光をカットする近赤外カットフィルタを備え付けてもよい。このようなフィルタを備えると、近赤外光421非照射時の画像情報として近赤外波長の光の影響がない可視画像情報を取得することができる。   In FIG. 3, the hollow portion 302 is in a hollow state where nothing exists, but a visible light transmitting filter that transmits only a visible wavelength or a near infrared cut filter that cuts near infrared light may be provided. When such a filter is provided, visible image information that is not affected by near-infrared wavelength light can be acquired as image information when the near-infrared light 421 is not irradiated.

図4は、本発明の第1の実施の形態の血管位置提示装置における画像処理手段403の内部ブロック図を示したものである。図4の画像処理手段は、制御手段800、特徴抽出手段801、強調画像生成手段802、血管強調画像記憶手段803、セレクタ手段804、近赤外特徴情報第1記憶手段805、近赤外特徴情報第2記憶手段810、可視特徴情報記憶手段806、セレクタ手段807、位置ずれ検出手段808、画像補正手段809、画像合成手段811を含んで構成される。   FIG. 4 is an internal block diagram of the image processing unit 403 in the blood vessel position presentation device according to the first embodiment of this invention. 4 includes a control unit 800, a feature extraction unit 801, an enhanced image generation unit 802, a blood vessel enhanced image storage unit 803, a selector unit 804, a near infrared feature information first storage unit 805, and a near infrared feature information. A second storage unit 810, a visible feature information storage unit 806, a selector unit 807, a displacement detection unit 808, an image correction unit 809, and an image composition unit 811 are configured.

制御手段800は、フラグ情報412を基に、生体撮像画像情報413が近赤外画像情報か可視画像情報かを認識することで、各手段の動作を制御するものである。ここでは、特に、データの流れに関わる制御信号として、セレクタ手段804が、血管強調画像記憶手段803が記憶する血管強調画像情報と画像合成手段811にて生成される合成画像情報とのどちらを選択するかを示す選択信号821、及び、セレクタ手段807が、可視特徴情報記憶手段806に記憶される可視特徴情報と近赤外特徴情報第1記憶手段に記憶される近赤外特徴情報とのどちらを選択するかを示す選択信号822、の2種類の制御信号を図4に示している。   The control unit 800 controls the operation of each unit by recognizing whether the biometric captured image information 413 is near-infrared image information or visible image information based on the flag information 412. Here, in particular, as the control signal related to the data flow, the selector unit 804 selects either the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803 or the composite image information generated by the image composition unit 811. The selection signal 821 indicating whether or not and the selector means 807 is either the visible feature information stored in the visible feature information storage means 806 or the near infrared feature information stored in the near infrared feature information first storage means. FIG. 4 shows two types of control signals, that is, a selection signal 822 indicating whether or not to be selected.

特徴抽出手段801は、撮像手段から入力される生体撮像画像情報413の特徴を抽出して特徴情報を生成するものである。後に詳細説明するが、特徴情報としては、血管の経路や血管分岐点に関わる血管パターン情報、前記血管パターン情報の中で直線性が高くて太い領域を意味する最適穿刺領域情報、腕に貼付した特殊シール位置情報が挙げられる。   The feature extraction unit 801 generates feature information by extracting features of the biometric image information 413 input from the imaging unit. As will be described in detail later, as feature information, blood vessel pattern information related to a blood vessel route and a blood vessel branch point, optimal puncture region information that means a high linearity and thick region in the blood vessel pattern information, and affixed to the arm Special seal position information is included.

強調画像生成手段802は、特徴抽出手段801が生成する特徴情報である血管パターン情報を基に血管の存在を強調した血管強調画像情報を生成するものである。   The emphasized image generation unit 802 generates blood vessel emphasized image information that emphasizes the presence of a blood vessel based on blood vessel pattern information that is feature information generated by the feature extraction unit 801.

血管強調画像記憶手段803は、強調画像生成手段802が生成する血管強調画像情報を記憶し、記憶した血管強調画像情報を画像補正手段809にて補正された画像情報を再度血管強調画像情報として更新記憶するものである。   The blood vessel emphasized image storage unit 803 stores the blood vessel emphasized image information generated by the emphasized image generation unit 802, and updates the stored blood vessel emphasized image information as the blood vessel emphasized image information again by the image correcting unit 809. It is something to remember.

近赤外特徴情報第1記憶手段805は、特徴抽出手段801が生体撮像画像情報413である近赤外画像情報から生成した特徴情報を記憶するものであり、可視特徴情報記憶手段806は、特徴抽出手段801が生体撮像画像情報413である可視画像情報から生成した特徴情報を記憶するものである。近赤外特徴情報第2記憶手段810は、腕の動きを検出する際に、近赤外特徴情報第1記憶手段に記憶されている腕が動く前の特徴情報を一時的に記憶するためのものである。   The near-infrared feature information first storage unit 805 stores feature information generated from the near-infrared image information that is the biometric captured image information 413 by the feature extraction unit 801, and the visible feature information storage unit 806 is a feature. The extraction unit 801 stores the feature information generated from the visible image information that is the biological imaged image information 413. The near-infrared feature information second storage unit 810 temporarily stores the feature information before the arm movement stored in the near-infrared feature information first storage unit when detecting the movement of the arm. Is.

セレクタ手段807は、選択信号822に従って、可視特徴情報記憶手段806に記憶される可視特徴情報と近赤外特徴情報第1記憶手段に記憶される近赤外特徴情報とのどちらかを選択するためのものである。   The selector unit 807 selects either the visible feature information stored in the visible feature information storage unit 806 or the near infrared feature information stored in the near infrared feature information first storage unit in accordance with the selection signal 822. belongs to.

位置ずれ検出手段808は、セレクタ手段807からの特徴情報と近赤外特徴情報第1記憶手段805からの特徴情報を比較し、特徴情報に含まれる位置情報のずれを検出し該ずれ方向とずれ量をベクトルとして生成するものである。   The positional deviation detection means 808 compares the feature information from the selector means 807 with the feature information from the near-infrared feature information first storage means 805, detects the deviation of the positional information included in the feature information, and detects the deviation direction and deviation. A quantity is generated as a vector.

画像補正手段809は、血管強調画像記憶手段803に記憶される血管強調画像情報を位置ずれ検出手段808が生成するベクトル分だけずらした画像情報を生成するものである。   The image correction unit 809 generates image information obtained by shifting the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803 by a vector generated by the position deviation detection unit 808.

画像合成手段811は、血管強調画像記憶手段803に記憶される血管強調画像情報と入出力手段405を介して外部から入力される画像情報、文字列情報等の入力データとを重ね合わせて合成した合成画像情報を生成するものである。   The image synthesizing unit 811 synthesizes the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803 and the input data such as image information and character string information input from the outside via the input / output unit 405. This generates synthetic image information.

セレクタ804は、選択信号821に従って、血管強調画像記憶手段803が記憶する血管強調画像情報と画像合成手段811にて生成される合成画像情報とのどちらを選択して、投影画像情報414して出力するためのものである。   The selector 804 selects either the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803 or the synthesized image information generated by the image synthesizing unit 811 in accordance with the selection signal 821, and outputs the projection image information 414 as output. Is to do.

次に、本発明の第1の実施の形態の血管位置提示装置の概略動作を説明する。画像処理手段403は、近赤外光421を間欠的に照射した状態で、まず、生体撮像画像情報413として近赤外画像情報を受信し、特徴抽出手段801にて近赤外画像情報から血管の特徴を抽出して血管パターン情報を生成し、前記血管パターン情報を近赤外特徴情報第1記憶手段805に記憶すると同時に、強調画像生成手段802にて前記血管パターン情報から血管強調画像情報を生成し、前記血管強調画像情報を血管強調画像記憶手段803に記憶しておく。血管強調画像記憶手段803に記憶された血管強調画像情報は、セレクタ手段804にて選択されて、投影画像情報414として投影手段404へ転送される。   Next, the schematic operation of the blood vessel position presentation device according to the first embodiment of the present invention will be described. The image processing unit 403 first receives near-infrared image information as the living body captured image information 413 in a state in which the near-infrared light 421 is intermittently irradiated, and the feature extraction unit 801 uses the near-infrared image information as a blood vessel. The blood vessel pattern information is generated by extracting the features of the blood vessel, and the blood vessel pattern information is stored in the near-infrared feature information first storage unit 805. At the same time, the enhanced image generation unit 802 extracts the blood vessel emphasized image information from the blood vessel pattern information. The blood vessel enhanced image information is generated and stored in the blood vessel enhanced image storage means 803. The blood vessel enhanced image information stored in the blood vessel enhanced image storage unit 803 is selected by the selector unit 804 and transferred to the projection unit 404 as projection image information 414.

投影画像情報414に基づいて、投影手段404は、血管を示す投影血管像118を腕109へ投影する。投影血管像118は近赤外光421が腕に照射されていない期間に撮像手段402にて撮像され、該撮像された可視画像情報は生体撮像画像情報413として画像処理手段403へ転送される。特徴抽出手段801は、該可視画像情報から腕に投影された血管像の特徴を抽出して血管パターン情報を生成し、該血管パターン情報を可視特徴情報記憶手段806に記憶する。位置ずれ検出手段808は、可視特徴情報記憶手段806に記憶された可視特徴情報に対し、近赤外特徴情報第1記憶手段805に記憶された近赤外特徴情報がどの方向にどれだけずれているかを検出し、該ずれ方向とずれ量を第1のベクトルとして生成する。画像補正手段809は、血管強調画像記憶手段803に記憶されている前記近赤外画像情報に基づく血管強調画像情報を前記第1のベクトルの方向へ該ベクトル量だけずらした補正画像情報を生成し、該補正画像情報を新たな血管強調画像情報として血管強調画像記憶手段803に更新記憶し、該記憶された血管強調画像情報は、セレクタ手段804にて選択されて、投影画像情報414として投影手段404へ転送され、投影手段404にて腕109へ投影される。この一連の処理は、腕に映る投影血管像118と腕の血管117とが一致するように機能する。   Based on the projection image information 414, the projection unit 404 projects a projected blood vessel image 118 indicating a blood vessel onto the arm 109. The projected blood vessel image 118 is picked up by the image pickup means 402 during a period when the near-infrared light 421 is not irradiated on the arm, and the picked-up visible image information is transferred to the image processing means 403 as biological image pickup image information 413. The feature extraction unit 801 extracts the features of the blood vessel image projected on the arm from the visible image information to generate blood vessel pattern information, and stores the blood vessel pattern information in the visible feature information storage unit 806. The misregistration detection unit 808 shifts the near-infrared feature information stored in the near-infrared feature information first storage unit 805 by how much the visible feature information stored in the visible feature information storage unit 806 is shifted in what direction. And the shift direction and shift amount are generated as a first vector. The image correcting unit 809 generates corrected image information obtained by shifting the blood vessel emphasized image information based on the near-infrared image information stored in the blood vessel emphasized image storage unit 803 by the vector amount in the direction of the first vector. The corrected image information is updated and stored in the blood vessel emphasized image storage unit 803 as new blood vessel emphasized image information, and the stored blood vessel emphasized image information is selected by the selector unit 804 and projected as projection image information 414. 404 is projected to the arm 109 by the projection means 404. This series of processing functions so that the projected blood vessel image 118 reflected on the arm and the blood vessel 117 of the arm coincide.

前記一連の処理を数回繰り返し、位置ずれ検出手段808が生成する位置ずれ量がゼロとみなされると、腕に映る投影血管像118と腕の血管117とが一致したと判断して、前記一連の処理を終了する。ここまでの処理を以降、キャリブレーションと表現する。前記キャリブレーション終了以降は、腕109が動かない限り、腕に映る投影血管像118と腕の血管117とは一致していることになる。   The series of processing is repeated several times, and when the amount of displacement generated by the displacement detection means 808 is considered to be zero, it is determined that the projected blood vessel image 118 reflected on the arm and the blood vessel 117 of the arm coincide with each other, and Terminate the process. The processing so far is hereinafter referred to as calibration. After the calibration is completed, unless the arm 109 moves, the projected blood vessel image 118 reflected on the arm and the blood vessel 117 of the arm coincide with each other.

前記キャリブレーション終了後は、腕109が動くことによって腕に映る投影血管像118と腕の血管117とが一致しなくなるので、腕109の動きに合わせて投影画像情報414を補正する必要がある。該処理を以後、動き補正処理と表現する。以下、該動き補正処理について説明する。近赤外光421を間欠的に照射した状態で、生体撮像画像情報413として近赤外画像情報を受信した特徴抽出手段801は、前記近赤外画像情報から血管の特徴を抽出して血管パターン情報を生成し、前記血管パターン情報を近赤外特徴情報第1記憶手段805に記憶する。次に同じく、生体撮像画像情報413として近赤外画像情報を受信すると、近赤外特徴情報第1記憶手段805に記憶された特徴情報を近赤外特徴情報第2記憶手段810に記憶してから、特徴抽出手段801は、前記近赤外画像情報から血管の特徴を抽出して血管パターン情報を生成し、該血管パターン情報を近赤外特徴情報第1記憶手段805に記憶する。位置ずれ検出手段808は、近赤外特徴情報第2記憶手段810に記憶された近赤外特徴情報(腕が動く前の特徴情報)に対し、近赤外特徴情報第1記憶手段805に記憶された近赤外特徴情報(腕が動いた後の特徴情報)がどの方向にどれだけずれているかを検出し、該ずれ方向とずれ量を第2のベクトルとして生成する。画像補正手段809は、前記キャリブレーション終了時点で血管強調画像記憶手段803に記憶されている血管強調画像情報を前記第2のベクトルの方向へ該ベクトル量だけずらした補正画像情報を生成し、該補正画像情報を新たな血管強調画像情報として血管強調画像記憶手段803に更新記憶し、該記憶された血管強調画像情報は、セレクタ手段804にて選択されて、投影画像情報414として投影手段404へ転送され、投影手段404にて腕109に投影される。この一連の処理により、腕に映る投影血管像118は、腕の動きによって動く腕の血管117と常に一致するように機能する。   After the calibration is finished, the projected blood vessel image 118 reflected on the arm and the blood vessel 117 of the arm do not coincide with the movement of the arm 109, so it is necessary to correct the projection image information 414 in accordance with the movement of the arm 109. This processing is hereinafter referred to as motion correction processing. Hereinafter, the motion correction process will be described. The feature extraction unit 801 that has received near-infrared image information as the living body captured image information 413 in a state in which the near-infrared light 421 is intermittently irradiated extracts a blood vessel feature from the near-infrared image information to obtain a blood vessel pattern. Information is generated, and the blood vessel pattern information is stored in the near-infrared feature information first storage means 805. Next, similarly, when near-infrared image information is received as the living body captured image information 413, the feature information stored in the near-infrared feature information first storage unit 805 is stored in the near-infrared feature information second storage unit 810. The feature extraction unit 801 extracts blood vessel features from the near-infrared image information to generate blood vessel pattern information, and stores the blood vessel pattern information in the near-infrared feature information first storage unit 805. The misregistration detection unit 808 stores the near-infrared feature information first storage unit 805 with respect to the near-infrared feature information (feature information before the arm moves) stored in the near-infrared feature information second storage unit 810. It is detected in which direction and how much the obtained near-infrared feature information (feature information after the arm has moved) is displaced, and the displacement direction and the displacement amount are generated as a second vector. The image correcting unit 809 generates corrected image information obtained by shifting the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803 at the time of the end of the calibration by the vector amount in the direction of the second vector, The corrected image information is updated and stored in the blood vessel emphasized image storage unit 803 as new blood vessel emphasized image information, and the stored blood vessel emphasized image information is selected by the selector unit 804 to the projection unit 404 as projection image information 414. The image is transferred and projected onto the arm 109 by the projection unit 404. Through this series of processing, the projected blood vessel image 118 reflected on the arm functions so as to always coincide with the blood vessel 117 of the arm that moves according to the movement of the arm.

したがって、図1に示すように、血管117の部分に投影血管像118を投影することができ、医師や看護師は投影血管像118の部分に血管が存在するものと認識することができる。   Therefore, as shown in FIG. 1, the projected blood vessel image 118 can be projected onto the portion of the blood vessel 117, and the doctor or nurse can recognize that the blood vessel exists in the portion of the projected blood vessel image 118.

なお、前記キャリブレーション処理は、前記動き補正処理の最中に一時的に行ってもよい。また、前記特徴情報として、例えば、血管分岐点を用い、位置ずれ検出手段808において、血管分岐点の位置のずれを検出するものであってもよい。または、例えば、腕に貼付した特殊シールを特徴抽出手段801にて検出して、前記特徴情報として、該特殊シールの位置を用い、位置ずれ検出手段808において、該特殊シールの位置のずれを検出するものであってもよい。または、例えば、特徴抽出手段801にて、抽出した血管パターン情報から直線性が高くて太い領域である最適穿刺領域の中心点を前記特徴情報とし、位置ずれ検出手段808において、該最適穿刺領域の中心点の位置ずれを検出するものであってもよい。   The calibration process may be temporarily performed during the motion correction process. Further, as the feature information, for example, a blood vessel branch point may be used, and the position deviation detection unit 808 may detect a position deviation of the blood vessel branch point. Alternatively, for example, a special sticker affixed to the arm is detected by the feature extraction unit 801, and the position of the special seal is used as the feature information, and the positional deviation detection unit 808 detects the deviation of the position of the special seal. You may do. Alternatively, for example, the center point of the optimum puncture area that is a thick and highly linear area from the blood vessel pattern information extracted by the feature extraction unit 801 is used as the feature information, and the positional deviation detection unit 808 uses the center point of the optimum puncture area. You may detect the position shift of a center point.

入出力手段405は、外部から、例えば患者の点滴薬情報や点滴日時情報を受信する。受信した情報は、画像情報又は文字列情報等のサブ画像情報に加工して入力データ416として画像処理手段403へ送られ、サブ画像情報は、画像処理手段403内の画像合成手段811にて、血管強調画像記憶手段803に記憶されている血管強調画像情報と合成され、投影画像情報414として投影手段404に転送され、投影手段404にて腕109に投影される。したがって、患者の点滴薬情報や点滴日時情報の情報が腕に表示されることで、医療過誤を未然に防ぐ効果を得られる。   The input / output unit 405 receives, for example, patient infusion information and infusion date information from the outside. The received information is processed into sub-image information such as image information or character string information and sent to the image processing means 403 as input data 416. The sub-image information is received by the image composition means 811 in the image processing means 403. It is combined with the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803, transferred as projection image information 414 to the projection unit 404, and projected onto the arm 109 by the projection unit 404. Therefore, the patient's infusion information and infusion date / time information are displayed on the arm, so that an effect of preventing medical errors can be obtained.

また、入出力手段405は、画像処理手段403が保持する血管強調画像情報を出力データ416として入出力手段405を介して通信情報415として外部へ転送することができる。血管位置提示装置外部の端末等が該通信情報415を受信して、元の血管強調画像情報を復元し、復元した血管強調画像を医師が見てその所見情報や指示情報を血管位置提示装置側に送ることにより、より適切な処置を行うことができる。また、所見情報や指示情報の送信は、電話線等の通信手段にて、通信情報415として入出力手段405へ送信してもよい。その場合、同様に、入出力手段405にて所見情報や指示情報を画像情報又は文字列情報等のサブ画像に加工して入力データ416として画像処理手段403へ送り、画像処理手段403内の画像合成手段811にて血管強調画像情報と合成し、投影画像情報414として投影手段404へ転送され、投影手段404にて腕109に投影される。これにより、遠隔地からの所見情報や指示情報を、簡単に取得・開示することができる。   Further, the input / output unit 405 can transfer the blood vessel emphasized image information held by the image processing unit 403 as output data 416 to the outside as communication information 415 via the input / output unit 405. A terminal or the like outside the blood vessel position presentation device receives the communication information 415, restores the original blood vessel emphasized image information, and the doctor sees the restored blood vessel emphasized image, and the observation information and instruction information are displayed on the blood vessel position presentation device side. By sending to, more appropriate treatment can be performed. In addition, the observation information and the instruction information may be transmitted to the input / output unit 405 as communication information 415 by a communication unit such as a telephone line. In that case, similarly, the finding information and the instruction information are processed into sub-images such as image information or character string information by the input / output unit 405 and sent to the image processing unit 403 as input data 416, and the image in the image processing unit 403 is processed. The image is combined with the blood vessel emphasized image information by the combining unit 811, transferred to the projection unit 404 as projection image information 414, and projected onto the arm 109 by the projection unit 404. Thereby, finding information and instruction information from a remote place can be easily obtained and disclosed.

図5は、本発明の第1の実施の形態の血管位置提示装置における特徴抽出手段801の血管位置検出処理と、強調画像生成手段802の処理を説明する図である。   FIG. 5 is a diagram for explaining the blood vessel position detection processing of the feature extraction unit 801 and the processing of the emphasized image generation unit 802 in the blood vessel position presentation device according to the first embodiment of this invention.

図5(A)に示す画像E(501)は、生体撮像画像情報413に対応する近赤外画像もしくは可視画像であり、血管502が映っている。ここでは、画像E(501)が近赤外画像の場合で説明する。特徴抽出手段801は、画像E(501)の各水平ライン504を走査して、横軸を水平1ライン、縦軸を輝度とした水平ラインの各画素の輝度グラフを生成する。例えば、水平ライン504が血管502と交差すると、図5(B)に示す輝度グラフ507のようになる。ここに、画素輝度505、506はそれぞれ、水平ライン走査上で血管近傍503内の最初の画素輝度、最後の画素輝度である。輝度グラフ507は所定の輝度閾値TH1と比較され、輝度グラフ507と輝度閾値TH1とが交差する位置に最も近い画素位置A3、A4を血管502の境界位置とみなし、画素位置A3とA4との間の画素数、及び画素位置A3とA4の中点に最も近い画素位置Pを記憶しておく。全ての水平ラインを走査終了した時点で、各ラインの画素位置A3とA4との間の画素数、及び画素位置A3とA4の中点画素位置Pを、血管パターン情報として保持しておく。   An image E (501) shown in FIG. 5A is a near-infrared image or a visible image corresponding to the biometric image information 413, and a blood vessel 502 is shown. Here, the case where the image E (501) is a near-infrared image will be described. The feature extraction unit 801 scans each horizontal line 504 of the image E (501), and generates a luminance graph of each pixel of the horizontal line with the horizontal axis representing one horizontal line and the vertical axis representing luminance. For example, when the horizontal line 504 intersects the blood vessel 502, a luminance graph 507 shown in FIG. Here, the pixel luminances 505 and 506 are respectively the first pixel luminance and the last pixel luminance in the blood vessel vicinity 503 on the horizontal line scanning. The luminance graph 507 is compared with a predetermined luminance threshold value TH1, and the pixel positions A3 and A4 closest to the position where the luminance graph 507 and the luminance threshold value TH1 intersect are regarded as the boundary position of the blood vessel 502, and between the pixel positions A3 and A4. And the pixel position P closest to the midpoint of the pixel positions A3 and A4 are stored. When all the horizontal lines are scanned, the number of pixels between the pixel positions A3 and A4 of each line and the midpoint pixel position P of the pixel positions A3 and A4 are held as blood vessel pattern information.

強調画像生成手段802は、前記近赤外画像情報の血管パターン情報を用いて血管強調画像情報を生成する場合、血管502の境界位置として検出された画素位置A3、A4の間の画素の輝度を一様に高輝度化させ、それ以外の画素輝度を0とした血管強調画像情報を生成する。投影手段404がカラー表示能力のある場合なら、例えば、画素位置A3、A4の間の画素色を一様に明るい赤色とし、それ以外の画素色を黒色としてもよい。   When generating the blood vessel emphasized image information using the blood vessel pattern information of the near-infrared image information, the emphasized image generating unit 802 calculates the luminance of the pixel between the pixel positions A3 and A4 detected as the boundary position of the blood vessel 502. Blood vessel emphasized image information is generated in which the luminance is uniformly increased and the other pixel luminances are set to zero. If the projection unit 404 has color display capability, for example, the pixel color between the pixel positions A3 and A4 may be uniformly bright red, and the other pixel colors may be black.

図6は、本発明の第1の実施の形態の血管位置提示装置における穿刺領域探索を説明する図である。穿刺領域探索は、前記血管パターン情報を基に、特徴抽出手段801によって行われる。   FIG. 6 is a diagram illustrating a puncture region search in the blood vessel position presentation device according to the first embodiment of this invention. The puncture area search is performed by the feature extraction unit 801 based on the blood vessel pattern information.

図6(A)に示す画像601は、生体撮像画像情報413に対応する近赤外画像もしくは可視画像であり、血管603、604、605が映っている。この情報に基づいて、図5で説明した方法で血管境界を検出し、血管パターン情報を生成する。具体的には、まず、画像601の左上から1ラインずつ、順番602のとおり、一番上のラインから一番下のラインまで全ラインを走査し、各ラインが血管と交わる画素位置、血管領域の画素数、血管領域の中点画素位置を求める。例えば、水平走査ライン606においては、該ラインが血管境界と交わるK1とK2との間の画素数LK、K1とK2の中点画素位置PK、S1とS2との間の画素数LS、S1とS2との中点画素位置PS、T1とT2との間の画素数LT、T1とT2との中点画素位置PTを検出し、水平走査ライン606の血管パターン情報として記憶しておく。同様にして、全ラインに対しこの処理を行うと、血管パターン情報として、全ての血管の太さと中心位置が生成されることになる。   An image 601 shown in FIG. 6A is a near-infrared image or a visible image corresponding to the biometric image information 413, and blood vessels 603, 604, and 605 are shown. Based on this information, the blood vessel boundary is detected by the method described in FIG. 5, and blood vessel pattern information is generated. Specifically, first, every line from the upper left of the image 601 is scanned in order 602 from the top line to the bottom line, and the pixel position and blood vessel region where each line intersects the blood vessel And the midpoint pixel position of the blood vessel region are obtained. For example, in the horizontal scanning line 606, the number of pixels LK between K1 and K2 where the line intersects the blood vessel boundary, the number of pixels LS, S1 between the midpoint pixel positions PK of K1 and K2, and S1 and S2. The midpoint pixel position PS from S2, the number of pixels LT between T1 and T2, and the midpoint pixel position PT between T1 and T2 are detected and stored as blood vessel pattern information of the horizontal scanning line 606. Similarly, when this process is performed on all lines, the thickness and center position of all blood vessels are generated as blood vessel pattern information.

血管パターン情報は、分岐点で分割された血管単位で管理される。図6の例では、図6(B)に示すように、中心位置PK0からPK399にいたる点線経路で示される血管リスト1、中心位置PS0からPS300にいたる点線経路で示される血管リスト2、中心位置PT170からPT300にいたる点線経路で示される血管リスト3、中心位置PU300からPU399にいたる点線経路で示される血管リスト4によって管理される。図6(B)において、PK0、PS0は0ライン目の血管の中心位置を意味し、PK0位置、PS0位置の血管の太さがそれぞれLK0、LS0である。また、PS300、PT300、PU300は、300ライン目の血管分岐点である。なお、この例では、画像601は、横640画素、縦400画素で表される。   Blood vessel pattern information is managed in units of blood vessels divided at branch points. In the example of FIG. 6, as shown in FIG. 6B, a blood vessel list 1 indicated by a dotted line route from the center position PK0 to PK399, a blood vessel list 2 indicated by a dotted line route from the center position PS0 to PS300, and the center position It is managed by a blood vessel list 3 indicated by a dotted line route from PT 170 to PT 300 and a blood vessel list 4 indicated by a dotted line route from central position PU 300 to PU 399. In FIG. 6B, PK0 and PS0 mean the center position of the blood vessel on the 0th line, and the thicknesses of the blood vessels at the PK0 position and the PS0 position are LK0 and LS0, respectively. PS300, PT300, and PU300 are blood vessel branch points on the 300th line. In this example, the image 601 is represented by horizontal 640 pixels and vertical 400 pixels.

次に、穿刺に適した領域を抽出するため、各血管リストから、中心位置を結んだ点線部分の直線性が高い箇所をサブリストとして複数個抽出し、各サブリストにおける血管の太さの平均値が大きいものから順にN個(Nは自然数)のサブリストを選択する。このようにして選択されたサブリストによって特定される領域を、穿刺に適した領域とする。この例では、2個のサブリストが最適穿刺領域611、612として選択されている。   Next, in order to extract a region suitable for puncture, a plurality of points with high linearity of the dotted line connecting the center positions are extracted as sublists from each blood vessel list, and the average of the thickness of the blood vessels in each sublist N sub-lists (N is a natural number) are selected in order from the largest value. The area specified by the sublist selected in this way is set as an area suitable for puncture. In this example, two sublists are selected as the optimum puncture areas 611 and 612.

このように抽出された最適穿刺領域は、例えば、血管強調画像記憶手段803が記憶する血管強調画像情報に重畳されて腕109に投影してもよい。   The optimal puncture region extracted in this manner may be superimposed on the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803 and projected onto the arm 109, for example.

図7は、本発明の第1の実施の形態の血管位置提示装置における位置ずれ量の検出動作を説明する図である。位置ずれ量の検出は、位置ずれ検出手段808によって前記キャリブレーション時、前記動き補正処理時ともに行われる。以下、位置ずれ情報はベクトルで表現する。   FIG. 7 is a diagram for explaining the operation of detecting the amount of displacement in the blood vessel position presentation device according to the first embodiment of this invention. The position shift amount is detected by the position shift detection unit 808 during the calibration and the motion correction process. Hereinafter, the positional deviation information is expressed by a vector.

まず、前記動き補正処理の場合を例に説明する。図7(A)に示すように、生体のあらかじめ穿刺したい箇所近辺の表面上に特殊シールが貼られ、特殊シール像704が映っている。この特殊シールは、近赤外光が当たると近赤外光を極端に蛍光もしくは吸収する材質のものである。   First, the case of the motion correction process will be described as an example. As shown in FIG. 7A, a special sticker is pasted on the surface of the living body in the vicinity of a place to be punctured in advance, and a special sticker image 704 is shown. This special seal is made of a material that extremely fluoresces or absorbs near-infrared light when exposed to near-infrared light.

照明手段401が近赤外光を照射時に撮像した近赤外画像が、撮像画像領域700にあるとする。この時、特徴抽出手段801は、特殊シール像704もしくは血管分岐点703の撮像画像領域700内での画素位置を検出すると、該画素位置を近赤外特徴情報第1記憶手段805に記憶させる。なお、この特殊シールの像の位置検出は、前記図5で示した血管部分の輝度変化を検出する方法と同様の方法で行うものとする。   It is assumed that a near-infrared image captured by the illumination unit 401 when irradiating near-infrared light is in the captured image region 700. At this time, when the feature extraction unit 801 detects the pixel position of the special seal image 704 or the blood vessel branch point 703 in the captured image region 700, the feature extraction unit 801 stores the pixel position in the near-infrared feature information first storage unit 805. The position detection of the special seal image is performed by the same method as the method of detecting the luminance change of the blood vessel portion shown in FIG.

生体が動いたり揺れたりすると、次の時刻に撮像した近赤外画像では、血管701、702はそれぞれ血管711、712へ位置が動いており、同様に、血管分岐点703は血管分岐点713へ、特殊シール像自体も特殊シール像704から特殊シール像714へ動く。特徴抽出手段801は、同様に、特殊シール像714や血管分岐点713の撮像画像領域700内での画素位置を検出すると、近赤外特徴情報第1記憶手段805に記憶しておいた前記特殊シール像704もしくは血管分岐点703の画素位置を近赤外特徴情報第2記憶手段810に記憶させてから、前記特殊シール像714もしくは血管分岐点713の画素位置を近赤外特徴情報第1記憶手段805に記憶させる。次に、位置ずれ検出手段808が、近赤外特徴情報第1記憶手段805、近赤外特徴情報第2記憶手段810に記憶された各情報を基に、特殊シール像704の位置から特殊シール像714の位置へのベクトル、もしくは血管分岐点703の位置から血管分岐点713の位置へのベクトルを算出する。例えば、血管分岐点713の位置が血管分岐点703の位置に対して水平左方向に50画素、垂直下方向に20画素ずれていたとすると、位置ずれベクトルは(−50、+20)となる。   When the living body moves or shakes, in the near-infrared image captured at the next time, the positions of the blood vessels 701 and 702 move to the blood vessels 711 and 712, respectively, and similarly, the blood vessel branch point 703 moves to the blood vessel branch point 713. The special seal image itself also moves from the special seal image 704 to the special seal image 714. Similarly, when the feature extraction unit 801 detects the pixel position of the special seal image 714 or the blood vessel branch point 713 in the captured image region 700, the feature extraction unit 801 stores the special seal image 714 stored in the near infrared feature information first storage unit 805. After the pixel position of the seal image 704 or the blood vessel branch point 703 is stored in the near infrared feature information second storage unit 810, the pixel position of the special seal image 714 or the blood vessel branch point 713 is stored in the near infrared feature information first memory. The data is stored in the means 805. Next, the misalignment detection unit 808 detects the special seal from the position of the special seal image 704 based on the information stored in the near infrared feature information first storage unit 805 and the near infrared feature information second storage unit 810. A vector to the position of the image 714 or a vector from the position of the blood vessel branch point 703 to the position of the blood vessel branch point 713 is calculated. For example, if the position of the blood vessel branch point 713 is shifted by 50 pixels in the horizontal left direction and 20 pixels in the vertical downward direction with respect to the position of the blood vessel branch point 703, the positional shift vector is (−50, +20).

このように検出された位置ずれベクトルは、血管強調画像記憶手段803に記憶された血管強調画像情報の補正に利用される。すなわち、画像補正手段809が、血管強調画像記憶手段803に記憶された血管強調画像情報を、前記位置ずれベクトル分だけずらした血管強調画像情報を、動き補正後の血管強調画像情報として、血管強調画像記憶手段803に更新記憶され、投影画像情報414として投影手段404へ転送される。   The position shift vector detected in this way is used for correcting the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803. That is, the image correction unit 809 uses the blood vessel enhancement image information obtained by shifting the blood vessel enhancement image information stored in the blood vessel enhancement image storage unit 803 by the position shift vector as the blood vessel enhancement image information after motion correction. It is updated and stored in the image storage means 803 and transferred to the projection means 404 as projection image information 414.

キャリブレーション時の位置ずれベクトルは、次のように検出する。この場合、図7(A)における血管701、702はキャリブレーション開始時に撮像した近赤外画像に映った血管であり、血管711、712は腕に投影した血管像を撮像した可視画像に映った血管であるものとする。装置の初期状態として、腕109の血管117と腕109への投影血管像118は一致している必要があるので、前記近赤外画像に映った血管から前記可視画像に映った血管への位置ずれベクトルを、前記動き補正処理時と同様の方法で検出し、画像補正手段809が、血管強調画像記憶手段803に記憶されている前記近赤外画像に基づく血管強調画像情報を、前記位置ずれベクトルと反対方向に、前記位置ずれベクトル量だけずらした画像情報を、再び血管強調画像記憶手段803に更新記憶するとともに、血管強調画像記憶手段803に記憶された血管強調画像情報を投影画像情報414として投影手段404へ転送する。   The positional deviation vector at the time of calibration is detected as follows. In this case, blood vessels 701 and 702 in FIG. 7A are blood vessels reflected in a near-infrared image captured at the start of calibration, and blood vessels 711 and 712 are visible in a visible image obtained by capturing a blood vessel image projected on the arm. It shall be a blood vessel. As an initial state of the apparatus, the blood vessel 117 of the arm 109 and the projected blood vessel image 118 on the arm 109 need to coincide with each other. Therefore, the position from the blood vessel shown in the near-infrared image to the blood vessel shown in the visible image A shift vector is detected by the same method as in the motion correction process, and the image correction unit 809 detects the blood vessel emphasized image information based on the near-infrared image stored in the blood vessel emphasized image storage unit 803. The image information shifted by the amount of the displacement vector in the direction opposite to the vector is updated and stored again in the blood vessel emphasized image storage unit 803, and the blood vessel emphasized image information stored in the blood vessel emphasized image storage unit 803 is also used as the projection image information 414. To the projection means 404.

なお、特殊シールとしては、近赤外光によく蛍光するもしくは近赤外光をよく吸収するものを利用したが、可視光によく蛍光するもしくは可視光をよく吸収する性質のものを利用してもよい。この場合は、照明手段401が近赤外光を照射していない時に撮像した可視画像情報に基づいて、特殊シールの位置のずれをベクトル化する。また、この場合、照明手段401として別途可視光源を設け、近赤外光源が発光していない期間、この可視光源による可視光を生体に照射するようにしてもよい。   Special seals that fluoresce well or absorb near-infrared light are used, but those that have a property of fluorescing or absorbing visible light well. Also good. In this case, the position shift of the special seal is vectorized based on the visible image information captured when the illumination unit 401 is not irradiating near infrared light. In this case, a separate visible light source may be provided as the illuminating means 401, and the living body may be irradiated with visible light from the visible light source during a period when the near infrared light source is not emitting light.

以上の説明では、位置ずれの検出に際して、生体に貼付した特殊シールの位置又は血管分岐点の位置を利用したが、図6で説明した穿刺領域を用いて行ってもよい。この場合、図7(B)に示すように、画像処理手段403は、生体が動く前と動いた後の血管パターン情報から生成した穿刺領域のずれを検出することで、位置ずれベクトルを生成する。図7(B)の例では、生体が動く前の最適穿刺領域611の中心点705が、生体が動いた後では最適穿刺領域717の中心点715に移動しているので、中心点705から中心点715へのベクトルを算出する。なお、図7(B)における動き探索領域716は、中心点705の近傍にある穿刺領域の中心点715を探索する範囲を意味する。   In the above description, the position of the special seal or the position of the blood vessel branch point attached to the living body is used for detecting the position shift, but it may be performed using the puncture region described with reference to FIG. In this case, as illustrated in FIG. 7B, the image processing unit 403 generates a displacement vector by detecting a displacement of the puncture region generated from blood vessel pattern information before and after the living body moves. . In the example of FIG. 7B, the center point 705 of the optimum puncture area 611 before the living body moves moves to the center point 715 of the optimum puncture area 717 after the living body moves. The vector to point 715 is calculated. Note that the motion search area 716 in FIG. 7B means a range in which the center point 715 of the puncture area in the vicinity of the center point 705 is searched.

(第2の実施の形態)
図8は、本発明の第2の実施の形態の血管位置提示装置の配置を示す図である。第2の実施の形態の血管位置提示装置は、投影手段404の構成を除いて第1の実施の形態の血管位置提示装置と同様であるので、機能ブロック図の記載及び説明、支持手段100及び台座107の記載及び説明を省略する。
(Second Embodiment)
FIG. 8 is a diagram showing the arrangement of the blood vessel position presentation device according to the second embodiment of this invention. The blood vessel position presentation apparatus according to the second embodiment is the same as the blood vessel position presentation apparatus according to the first embodiment except for the configuration of the projection unit 404. Description and description of the pedestal 107 are omitted.

図8における筐体101には、撮像レンズユニット110、回転型光学フィルタ111、CCD112、情報処理手段113、可視光源114、カラーホイール光学部202、DMD(Digital Micromirror Device)201、投影レンズユニット116、近赤外LED121、122、123が収容される。このうち、照明手段401を構成する近赤外LED121、122、123、画像処理手段403及び入出力手段405を構成する情報処理手段113、撮像手段402を構成する撮像レンズユニット110、回転型光学フィルタ111、CCD112は、図2に示すものと同様であるので、説明を省略する。   8 includes an imaging lens unit 110, a rotary optical filter 111, a CCD 112, an information processing unit 113, a visible light source 114, a color wheel optical unit 202, a DMD (Digital Micromirror Device) 201, a projection lens unit 116, Near-infrared LEDs 121, 122, 123 are accommodated. Among these, near-infrared LEDs 121, 122, and 123 that constitute the illumination means 401, information processing means 113 that constitute the image processing means 403 and input / output means 405, an imaging lens unit 110 that constitutes the imaging means 402, and a rotary optical filter 111 and CCD 112 are the same as those shown in FIG.

この例の投影手段404は、可視光源114、カラーホイール光学部202、DMD201、投影レンズユニット116を含むものであり、DLP(Digital Light Processing)方式のプロジェクタで一般的に使用されている構成である。バックライトとなる可視光源114からの光は、カラーホイール光学部202にてR(赤)、G(緑)、B(青)の3原色の光に分解され、各原色の光がDMD201に照射される。なお、近赤外光421を照射せず生体撮像画像情報413を可視画像情報として取得する際に、生体上に投影される血管像以外の特徴情報を高精度に取得可能にするために、カラーホイール光学部202に、R、G、Bに分光するためのカラーフィルタ以外に可視光源114からの可視光をそのまま通過させるための空洞部を備える構成にしてもよい。   The projection unit 404 in this example includes a visible light source 114, a color wheel optical unit 202, a DMD 201, and a projection lens unit 116, and is a configuration generally used in a DLP (Digital Light Processing) type projector. . The light from the visible light source 114 serving as a backlight is decomposed into light of three primary colors R (red), G (green), and B (blue) by the color wheel optical unit 202, and the light of each primary color is irradiated to the DMD 201. Is done. In addition, when acquiring living body captured image information 413 as visible image information without irradiating near-infrared light 421, color information other than a blood vessel image projected on the living body can be acquired with high accuracy. The wheel optical unit 202 may include a hollow part for allowing visible light from the visible light source 114 to pass as it is in addition to the color filter for splitting the light into R, G, and B.

画像処理手段403からの投影画像情報414はDMD201に転送され、各画素の明るさを元にDMD201が画素単位に制御して各画素に対応する反射光を生成し、この反射光を投影レンズユニット116を介して腕109に投影する。したがって、この投影された光は血管投影像118として腕109に現れる。   Projected image information 414 from the image processing means 403 is transferred to the DMD 201, and the DMD 201 controls the pixel unit based on the brightness of each pixel to generate reflected light corresponding to each pixel, and the reflected light is projected to the projection lens unit. Projected onto the arm 109 via 116. Therefore, the projected light appears on the arm 109 as a blood vessel projection image 118.

(第3の実施の形態)
図9は、本発明の第3の実施の形態の血管位置提示装置の配置を示す図である。第3の実施の形態の血管位置提示装置は、撮像手段402及び投影手段404の構成を除いて第1の実施の形態の血管位置提示装置と同様であるので、機能ブロック図の記載及び説明、支持手段100及び台座107の記載及び説明を省略する。
(Third embodiment)
FIG. 9 is a diagram showing the arrangement of the blood vessel position presentation device according to the third embodiment of this invention. Since the blood vessel position presentation apparatus of the third embodiment is the same as the blood vessel position presentation apparatus of the first embodiment except for the configuration of the imaging unit 402 and the projection unit 404, description and explanation of a functional block diagram; Description and description of the support means 100 and the base 107 are omitted.

図9における筐体101には、撮像レンズユニット110と投影レンズユニット116を共通にした撮像投影共用レンズユニット901、回転型光学フィルタ111、CCD112、情報処理手段113、可視光源114、液晶表示ユニット115、近赤外LED121、122、123、撮像すべき光と投影すべき光を分離するプリズム902が収容される。このうち、照明手段401を構成する近赤外LED121、122、123、画像処理手段403及び入出力手段405を構成する情報処理手段113は、図2に示すものと同様であるので、説明を省略する。   The housing 101 in FIG. 9 includes an imaging / projection shared lens unit 901 having a common imaging lens unit 110 and projection lens unit 116, a rotary optical filter 111, a CCD 112, an information processing unit 113, a visible light source 114, and a liquid crystal display unit 115. , Near-infrared LEDs 121, 122, 123, and a prism 902 for separating light to be imaged and light to be projected are housed. Among these, the near-infrared LEDs 121, 122, 123 constituting the illumination means 401, the image processing means 403, and the information processing means 113 constituting the input / output means 405 are the same as those shown in FIG. To do.

この例の撮像手段402は、撮像投影共用レンズユニット901、プリズム902、回転型光学フィルタ111、CCD112によって構成される。また、投影手段404は、可視光源114、液晶ユニット115、プリズム902、撮像投影共用レンズユニット901によって構成される3LCD方式のプロジェクタである。   The imaging unit 402 in this example includes an imaging / projection shared lens unit 901, a prism 902, a rotary optical filter 111, and a CCD 112. The projection unit 404 is a 3LCD projector that includes the visible light source 114, the liquid crystal unit 115, the prism 902, and the imaging / projection shared lens unit 901.

近赤外LED121、122、123による近赤外光の照射により腕109からの近赤外の反射光が撮像投影共用レンズユニット901により取り込まれる。入射光の光軸上には入射光の光軸と90度の方向にあるCCD112に向かって入射光を反射させる反射層を備えたプリズム902配置されており、これによって腕109からの反射光は回転型光学フィルタ111を介してCCD112にて撮像される。   Near-infrared reflected light from the arm 109 is captured by the imaging / projection shared lens unit 901 by irradiation of near-infrared light from the near-infrared LEDs 121, 122, and 123. On the optical axis of the incident light, a prism 902 having a reflection layer that reflects the incident light toward the CCD 112 in a direction 90 degrees with respect to the optical axis of the incident light is arranged, whereby the reflected light from the arm 109 is reflected. The image is picked up by the CCD 112 through the rotary optical filter 111.

情報処理手段113を構成する画像処理手段403で生成された血管を画像強調した投影画像情報414は、液晶ユニット115に転送され、バックライトとなる可視光源114からの光を液晶ユニット115に照射する。液晶ユニット115からの血管強調画像光は、プリズム902、撮像投影共用レンズユニット901を介して腕109に投影され、腕109上に血管を示す血管投影像118が映る。なお、投影の光軸上に配置されているプリズム902は、反射層がハーフミラーとなっており、液晶ユニット115からの光はそのまま通過する構成になっている。   Projection image information 414 obtained by image enhancement of the blood vessel generated by the image processing unit 403 constituting the information processing unit 113 is transferred to the liquid crystal unit 115, and the liquid crystal unit 115 is irradiated with light from the visible light source 114 serving as a backlight. . The blood vessel emphasized image light from the liquid crystal unit 115 is projected onto the arm 109 via the prism 902 and the imaging / projection shared lens unit 901, and a blood vessel projection image 118 showing a blood vessel appears on the arm 109. Note that the prism 902 arranged on the optical axis of projection has a reflecting layer that is a half mirror, and the light from the liquid crystal unit 115 passes through as it is.

このように、撮像光学系と投影光学系が共通であるので、液晶ユニット115とプリズム902、及び、CCD112とプリズム902との各距離が等しくなるように調整することにより、腕109の血管117と投影血管像118を正確に重ねることができる。   As described above, since the imaging optical system and the projection optical system are common, the blood vessels 117 of the arm 109 are adjusted by adjusting the distances between the liquid crystal unit 115 and the prism 902 and between the CCD 112 and the prism 902 to be equal. The projected blood vessel image 118 can be accurately superimposed.

すなわち、第1の実施の形態及び第2の実施の形態の血管位置提示装置では、基本的に撮像手段402の撮像レンズユニット110と投影手段404の投影レンズユニット116が異なることから注射を穿刺する部分を撮影する光軸と投影する光軸には角度が生じるため、腕109に投影される投影血管像118が微妙にゆがむが、第3の実施の形態の血管位置提示装置では、投影される投影血管像118と実際の血管117とはほぼ一致して重なる。   That is, in the blood vessel position presentation device according to the first embodiment and the second embodiment, since the imaging lens unit 110 of the imaging unit 402 and the projection lens unit 116 of the projection unit 404 are basically different, the injection is punctured. Since an angle is generated between the optical axis for photographing the portion and the optical axis for projection, the projected blood vessel image 118 projected on the arm 109 is slightly distorted, but is projected in the blood vessel position presentation device of the third embodiment. The projected blood vessel image 118 and the actual blood vessel 117 almost coincide and overlap.

以上のように、本発明の血管位置提示装置においては近赤外光の反射光を画像としてとして取り込み、患者の注射を穿刺する部分に可視像として見えにくい血管の形状を投影することにより、医師や看護師は、目視で見えにくい血管であっても、注射を穿刺する部分の血管を可視的に確認し、両手操作で注射をすることができる。   As described above, in the blood vessel position presentation device of the present invention, the reflected light of the near infrared light is captured as an image, and the shape of the blood vessel that is difficult to be seen as a visible image is projected on the portion where the patient's injection is punctured. Doctors and nurses can visually check a blood vessel at a portion to puncture an injection even if it is a blood vessel that is difficult to see visually, and can perform an injection by a two-handed operation.

なお、以上の説明では、生体の特徴情報として血管位置を提示する場合を例にしたが、例えばシンチレーションに使われるように特定のがん細胞にラジオアイソトープをつけた抗体を反応させることで、がん細胞という生体情報を認識して、それを投影する装置に適用することもできる。このようにがん細胞の位置を投影表示することで切除手術を容易に行うことができる。   In the above explanation, the case where the blood vessel position is presented as biological feature information is taken as an example, but for example, by reacting an antibody with a radioisotope to a specific cancer cell so as to be used for scintillation, It can also be applied to a device that recognizes biological information of cancer cells and projects it. In this way, the surgical operation can be easily performed by projecting and displaying the position of the cancer cell.

本発明の生体情報提示装置は、所定波長の照明光で照明した生体の撮影画像を取り込み、目視で見えにくい生体の特徴情報を検出して強調画像を生成し、生体上に可視像として投影するものであり、生体の特徴情報を簡単な操作で正確かつ迅速に確認できる生体情報提示装置等として有用である。   The biological information presentation device of the present invention captures a captured image of a living body illuminated with illumination light of a predetermined wavelength, detects feature information of the living body that is difficult to see visually, generates an emphasized image, and projects it as a visible image on the living body Therefore, it is useful as a biological information presentation apparatus that can accurately and quickly confirm biological feature information with a simple operation.

本発明の第1の実施の形態の血管位置提示装置の概略機能ブロック図Schematic functional block diagram of the blood vessel position presentation device according to the first embodiment of the present invention 本発明の第1の実施の形態の血管位置提示装置の生体との位置関係を示す図The figure which shows the positional relationship with the biological body of the blood vessel position presentation apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態の血管位置提示装置における回転型光学フィルタの構成図The block diagram of the rotation type optical filter in the blood vessel position presentation apparatus of the 1st Embodiment of this invention 本発明の第1の実施の形態の血管位置提示装置における画像処理手段の内部ブロック図The internal block diagram of the image-processing means in the blood vessel position presentation apparatus of the 1st Embodiment of this invention 本発明の第1の実施の形態の血管位置提示装置における特徴抽出手段の血管位置検出処理と強調画像生成手段の処理を説明する図The figure explaining the blood vessel position detection process of the feature extraction means in the blood vessel position presentation apparatus of the 1st Embodiment of this invention, and the process of an emphasis image generation means 本発明の第1の実施の形態の血管位置提示装置における穿刺領域探索を説明する図The figure explaining the puncture area search in the blood vessel position presentation apparatus of the 1st Embodiment of this invention 本発明の第1の実施の形態の血管位置提示装置における位置ずれ量の検出動作を説明する図The figure explaining the detection operation | movement of the positional offset amount in the blood vessel position presentation apparatus of the 1st Embodiment of this invention. 本発明の第2の実施の形態の血管位置提示装置の配置を示す図The figure which shows arrangement | positioning of the blood vessel position presentation apparatus of the 2nd Embodiment of this invention. 本発明の第3の実施の形態の血管位置提示装置の配置を示す図The figure which shows arrangement | positioning of the blood vessel position presentation apparatus of the 3rd Embodiment of this invention. 従来の静脈探査装置の構成図Configuration diagram of a conventional vein exploration device

符号の説明Explanation of symbols

1 筐体
2 発光素子
3 受光素子
4 電池
5 電源操作スイッチ
6 表示素子
7 矢印
8 クリップ
100 支持手段
101 筐体
102 支持棒
103 高さ固定部
104 高さ調節支持棒
105 電源部
106 コンセントケーブル
107 台座
108 クリップ
109 腕
110 撮像レンズユニット
111 回転型光学フィルタ
112 CCD型撮像素子(CCD)
113 情報処理手段
114 可視光源
115 液晶ユニット
116 投影レンズユニット
117 血管
118 投影血管像
121 近赤外LED
122 近赤外LED
123 近赤外LED
131 角度変更部
201 DMD
202 カラーホイール光学部
301 回転軸
302 空洞部
303 近赤外透過フィルタ
401 照明手段
402 撮像手段
403 画像処理手段
404 投影手段
405 入出力手段
411 指示
412 フラグ情報
413 生体撮像画像情報
414 投影画像情報
415 通信情報
416 入出力データ
421 近赤外光
422 生体からの反射光
423 投影光
501 画像E
502 血管
503 血管近傍
504 水平ライン
505 画素輝度
506 画素輝度
507 輝度グラフ
601 画像
602 順番
603 血管
604 血管
605 血管
606 水平走査ライン
611 最適穿刺領域
612 最適穿刺領域
700 撮像画像領域
701 血管
702 血管
703 血管分岐点
704 特殊シール像
705 中心点
711 血管
712 血管
713 血管分岐点
714 特殊シール像
715 中心点
716 動き探索領域
717 最適穿刺領域
800 制御手段
801 特徴抽出手段
802 強調画像生成手段
803 血管強調画像記憶手段
804 セレクタ手段
805 近赤外特徴情報第1記憶手段
806 可視特徴情報記憶手段
807 セレクタ手段
808 位置ずれ検出手段
809 画像補正手段
810 近赤外特徴情報第2記憶手段
811 画像合成手段
821 選択信号
822 選択信号
901 撮像投影共用レンズユニット
902 プリズム
DESCRIPTION OF SYMBOLS 1 Case 2 Light emitting element 3 Light receiving element 4 Battery 5 Power supply operation switch 6 Display element 7 Arrow 8 Clip 100 Support means 101 Case 102 Support rod 103 Height fixing part 104 Height adjustment support bar 105 Power supply part 106 Outlet cable 107 Base 108 Clip 109 Arm 110 Imaging Lens Unit 111 Rotating Optical Filter 112 CCD Image Sensor (CCD)
113 Information processing means 114 Visible light source 115 Liquid crystal unit 116 Projection lens unit 117 Blood vessel 118 Projected blood vessel image 121 Near infrared LED
122 near infrared LED
123 Near-infrared LED
131 Angle changing part 201 DMD
202 Color Wheel Optical Unit 301 Rotating Shaft 302 Cavity 303 Near Infrared Transmission Filter 401 Illuminating Means 402 Imaging Means 403 Image Processing Means 404 Projecting Means 405 Input / Output Means 411 Instruction 412 Flag Information 413 Biological Imaging Image Information 414 Projected Image Information 415 Communication Information 416 Input / output data 421 Near-infrared light 422 Reflected light from living body 423 Projected light 501 Image E
502 Blood vessel 503 Near blood vessel 504 Horizontal line 505 Pixel luminance 506 Pixel luminance
507 Luminance graph 601 Image 602 Order 603 Blood vessel 604 Blood vessel 605 Blood vessel 606 Horizontal scanning line 611 Optimal puncture region 612 Optimal puncture region 700 Captured image region 701 Blood vessel 702 Blood vessel 703 Blood vessel branch point 704 Special seal image 705 Center point
711 Blood vessel 712 Blood vessel 713 Blood vessel branch point 714 Special seal image 715 Center point 716 Motion search area 717 Optimal puncture area 800 Control means 801 Feature extraction means 802 Enhanced image generation means 803 Blood vessel enhancement image storage means 804 Selector means 805 Near infrared feature information First storage means 806 Visible feature information storage means 807 Selector means 808 Misalignment detection means 809 Image correction means 810 Near infrared feature information second storage means 811 Image composition means 821 Selection signal 822 Selection signal 901 Imaging and projection shared lens unit 902 Prism

Claims (12)

生体の特徴情報を画像として提示する生体情報提示装置であって、
前記特徴情報を撮影するための所定波長の照明光を前記生体へ照射する照明手段と、
前記生体を撮影し、生体撮像画像情報を取得する撮像手段と、
前記生体撮像画像情報に基づいて前記特徴情報を検出し、検出した前記特徴情報を画像化した投影画像情報に変換する画像処理手段と、
前記投影画像情報に基づく投影画像を前記生体表面に投影する投影手段と、を備える生体情報提示装置。
A biometric information presentation device that presents biometric feature information as an image,
Illuminating means for irradiating the living body with illumination light of a predetermined wavelength for photographing the feature information;
Imaging means for photographing the living body and acquiring living body captured image information;
Image processing means for detecting the feature information based on the biometric imaged image information and converting the detected feature information into an imaged projection image information;
A biological information presentation apparatus comprising: a projection unit that projects a projection image based on the projection image information onto the biological surface.
請求項1記載の生体情報提示装置であって、
前記撮像手段は、前記投影手段が前記生体上に投影した前記投影画像を撮影して可視画像情報を取得し、
前記画像処理手段は、前記生体撮像画像情報に基づいて検出した前記特徴情報と、前記可視画像情報に基づいて検出した前記特徴情報との位置ずれを検出し、前記位置ずれに基づいて、前記投影手段が生体表面に投影した投影画像の前記特徴情報の位置が前記生体の特徴情報の位置と一致するように前記投影画像情報を補正する生体情報提示装置。
The biological information presentation device according to claim 1,
The imaging unit acquires visible image information by capturing the projection image projected on the living body by the projection unit;
The image processing means detects a positional shift between the feature information detected based on the biometric captured image information and the feature information detected based on the visible image information, and based on the positional shift, the projection A biological information presentation apparatus that corrects the projection image information so that a position of the feature information of the projection image projected on the surface of the biological body matches a position of the feature information of the biological body.
請求項2記載の生体情報提示装置であって、
前記照明手段は、前記照明光を前記生体へ間欠的に照射し、
前記撮像手段は、前記照明光照射時の前記生体撮像画像情報に基づいて前記特徴情報を検出する生体情報提示装置。
The biological information presentation device according to claim 2,
The illumination means intermittently irradiates the living body with the illumination light,
The said imaging means is a biological information presentation apparatus which detects the said feature information based on the said biometric image image information at the time of the said illumination light irradiation.
請求項2又は3記載の生体情報提示装置であって、
前記画像処理手段は、連続して取得した前記生体撮像画像情報に基づく前記特徴情報間の位置ずれを、前記生体の移動情報として検出し、前記移動情報に基づいて前記投影画像情報を補正する生体情報提示装置。
The biological information presentation device according to claim 2 or 3,
The image processing means detects a positional shift between the feature information based on the biometric image information acquired continuously as movement information of the living body, and corrects the projection image information based on the movement information. Information presentation device.
請求項1ないし4のいずれか1項記載の生体情報提示装置であって、
前記撮像手段と前記投影手段は、同一のレンズを使用する生体情報提示装置。
The biological information presentation device according to any one of claims 1 to 4,
The imaging means and the projection means are biological information presentation devices that use the same lens.
請求項1ないし5のいずれか1項記載の生体情報提示装置であって、
前記特徴情報は、血管位置であり、
前記照明手段は、近赤外波長の照明光を照射し、
前記撮像手段は、近赤外波長の分光感度が高いものであって、前記照明光照射時の前記生体撮像画像情報である近赤外画像情報、及び、前記照明光非照射時の前記生体撮像画像情報である可視画像情報を取得し、
前記画像処理手段は、前記近赤外画像情報に基づいて血管像を画像強調した投影画像情報を生成し、
前記投影手段は、前記投影画像情報に基づく可視画像を前記生体表面に投影する生体情報提示装置。
The biological information presentation device according to any one of claims 1 to 5,
The characteristic information is a blood vessel position;
The illumination means irradiates near infrared wavelength illumination light,
The imaging means has a high near-infrared wavelength spectral sensitivity, and the near-infrared image information that is the in-vivo captured image information at the time of illumination light irradiation, and the in-vivo imaging at the time of non-irradiation of the illumination light Get visible image information that is image information,
The image processing means generates projection image information in which a blood vessel image is image-enhanced based on the near-infrared image information,
The biological information presenting apparatus that projects the visible image on the biological surface based on the projected image information.
請求項6記載の生体情報提示装置であって、
前記画像処理手段が、
前記生体撮像画像情報から前記特徴情報を生成する特徴抽出手段と、
前記特徴情報のうち、血管の位置形状情報から血管強調画像情報を生成する強調画像生成手段と、
前記血管強調画像情報を記憶し、該記憶した血管強調画像情報を前記投影画像情報として前記投影手段へ出力する血管強調画像記憶手段と、
前記生体撮像画像情報が生体からの近赤外光を撮像した近赤外画像情報の場合に、前記特徴抽出手段が生成する前記特徴情報を記憶する近赤外特徴情報第1記憶手段と、
前記生体撮像画像情報が生体からの可視光を撮像した可視画像情報の場合に、前記特徴抽出手段が生成する前記特徴情報を記憶する可視特徴情報記憶手段と、
前記生体撮像画像情報が生体からの近赤外光を撮像した近赤外画像情報の場合に、前記特徴抽出手段が生成する前記特徴情報を近赤外特徴情報第1記憶手段に記憶するに先立ち、前記近赤外特徴情報第1記憶手段に記憶されている前記特徴情報を記憶する近赤外特徴情報第2記憶手段と、
前記可視特徴情報記憶手段が記憶する前記特徴情報と前記近赤外特徴情報第1記憶手段が記憶する前記特徴情報から、前記特徴情報の位置ずれを検出し、該位置ずれの方向と位置ずれ量を第1のベクトルとして生成し、前記近赤外特徴情報第2記憶手段が記憶する前記特徴情報と前記近赤外特徴情報第1記憶手段が記憶する前記特徴情報から、前記特徴情報の位置ずれを検出し、該位置ずれの方向と位置ずれ量を第2のベクトルとして生成する位置ずれ検出手段と、
前記血管強調画像記憶手段が記憶する前記血管強調画像情報を前記第1のベクトル、または、前記第2のベクトルの方向へ該ベクトル量だけ移動させた補正画像情報を生成し、該補正画像情報を新たな血管強調画像情報として前記血管強調画像記憶手段に更新記憶させる画像補正手段と、を備える生体情報提示装置。
The biological information presentation device according to claim 6,
The image processing means
Feature extraction means for generating the feature information from the biometric image information;
Among the feature information, enhanced image generation means for generating blood vessel emphasized image information from blood vessel position shape information,
Blood vessel enhanced image storage means for storing the blood vessel enhanced image information and outputting the stored blood vessel enhanced image information as the projection image information to the projection means;
A near-infrared feature information first storage unit that stores the feature information generated by the feature extraction unit when the biometric image information is near-infrared image information obtained by imaging near-infrared light from a living body;
Visible feature information storage means for storing the feature information generated by the feature extraction means when the biometric image information is visible image information obtained by imaging visible light from a living body;
Prior to storing the feature information generated by the feature extraction means in the near-infrared feature information first storage means when the biological image information is near-infrared image information obtained by imaging near-infrared light from a living body. , Near infrared feature information second storage means for storing the feature information stored in the near infrared feature information first storage means,
From the feature information stored in the visible feature information storage means and the feature information stored in the near-infrared feature information first storage means, a position shift of the feature information is detected, and the direction and amount of the position shift From the feature information stored in the near-infrared feature information second storage means and the feature information stored in the near-infrared feature information first storage means. And a misregistration detecting means for generating a misregistration direction and a misregistration amount as a second vector;
Generating corrected image information obtained by moving the blood vessel emphasized image information stored in the blood vessel emphasized image storage means in the direction of the first vector or the second vector by the amount of the vector; A biometric information presentation device comprising: an image correction unit that updates and stores the blood vessel emphasized image storage unit as new blood vessel emphasized image information.
請求項7記載の生体情報提示装置であって、
前記特徴抽出手段が生成する前記特徴情報が、血管の位置形状、もしくは、血管分岐点、もしくは、生体に貼付した特殊シールの像の位置、もしくは、最適穿刺領域の中心点であり、
前記位置ずれ検出手段が前記特徴情報の位置の変化を検出することを特徴とする生体情報提示装置。
The biological information presentation device according to claim 7,
The feature information generated by the feature extraction means is a position shape of a blood vessel, a blood vessel branch point, a position of an image of a special sticker attached to a living body, or a center point of an optimum puncture region,
The biological information presenting apparatus, wherein the positional deviation detection means detects a change in the position of the feature information.
請求項1ないし8のいずれか1項記載の生体情報提示装置であって、
前記照明手段と、前記撮像手段と、前記画像処理手段と、前記投影手段を収容する筐体と、
前記筐体を前記生体に対して所定の位置に支持するための支持手段を備える生体情報提示装置。
The biological information presentation device according to any one of claims 1 to 8,
The illuminating means, the imaging means, the image processing means, and a housing for housing the projection means;
A biological information presentation apparatus comprising support means for supporting the housing at a predetermined position with respect to the living body.
請求項9記載の生体情報提示装置であって、
前記生体をのせる台座手段を備え、
前記支持手段は、前記台座手段に固定化される生体情報提示装置。
The biological information presentation device according to claim 9,
Pedestal means for placing the living body,
The biological information presentation apparatus, wherein the support means is fixed to the pedestal means.
請求項9又は10記載の生体情報提示装置であって、
前記支持手段は、前記筐体の前記生体に対する角度又は高さが調整可能である生体情報提示装置。
The biological information presentation device according to claim 9 or 10,
The biological information presentation device in which the support means is capable of adjusting an angle or a height of the housing with respect to the living body.
請求項1ないし11のいずれか1項記載の生体情報提示装置であって、
前記画像処理手段が保持している情報を外部に出力するとともに外部からの情報を受信する入出力手段を備え、
前記画像処理手段は、前記投影画像情報と前記外部からの情報とを合成した合成画像情報を生成し、
前記投影手段は、前記合成画像情報に基づく投影画像を前記生体表面に投影する生体情報提示装置。
The biological information presentation device according to any one of claims 1 to 11,
An input / output means for outputting information held by the image processing means to the outside and receiving information from the outside;
The image processing means generates composite image information obtained by combining the projection image information and information from the outside,
The biological information presenting apparatus that projects the projection image based on the composite image information onto the biological surface.
JP2004296152A 2004-10-08 2004-10-08 Living body information presentation device Withdrawn JP2006102360A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004296152A JP2006102360A (en) 2004-10-08 2004-10-08 Living body information presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004296152A JP2006102360A (en) 2004-10-08 2004-10-08 Living body information presentation device

Publications (1)

Publication Number Publication Date
JP2006102360A true JP2006102360A (en) 2006-04-20

Family

ID=36372718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004296152A Withdrawn JP2006102360A (en) 2004-10-08 2004-10-08 Living body information presentation device

Country Status (1)

Country Link
JP (1) JP2006102360A (en)

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007151686A (en) * 2005-12-01 2007-06-21 Advanced Telecommunication Research Institute International Inside-human body information projection system
JP2007325656A (en) * 2006-06-06 2007-12-20 Matsushita Electric Ind Co Ltd Image processing method and image processing device
JP2007330701A (en) * 2006-06-19 2007-12-27 Yoshida Dental Mfg Co Ltd Medical display and medical display method
CN101201896A (en) * 2006-12-13 2008-06-18 日立麦克赛尔株式会社 Imaging module for biometrics authentication, biometrics authentication apparatus and prism
JP2008264185A (en) * 2007-04-19 2008-11-06 Hitachi Maxell Ltd Imaging module for biometric authentication and biometric authentication apparatus
JP2008264186A (en) * 2007-04-19 2008-11-06 Hitachi Maxell Ltd Imaging module for biometric authentication, enclosure, camera module and biometric authentication apparatus
JP2008302114A (en) * 2007-06-11 2008-12-18 Fujitsu Ltd Blood vessel image picking-up apparatus
JP2009045427A (en) * 2007-07-26 2009-03-05 Fujita Gakuen Blood vessel photographing apparatus and puncture guide device using it
JP2009095516A (en) * 2007-10-18 2009-05-07 Terumo Corp Vein display apparatus
JP2009136436A (en) * 2007-12-05 2009-06-25 Terumo Corp Internal hemorrhage detecting apparatus and blood component collecting apparatus
JP2010000218A (en) * 2008-06-20 2010-01-07 Terumo Corp Vein displaying apparatus
JP2010517733A (en) * 2007-02-14 2010-05-27 ルミネトクス コーポレイション Apparatus and method for projecting subcutaneous structure onto object surface
JP2011502673A (en) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Robot, medical workstation and method for projecting an image on the surface of an object
JP2011516151A (en) * 2008-03-31 2011-05-26 イマージョン コーポレーション Identification of blood vessel position
JP2011139731A (en) * 2010-01-05 2011-07-21 Techno Medica Co Ltd Auxiliary device for blood sampling
WO2011122484A1 (en) * 2010-03-27 2011-10-06 ニプロ株式会社 Blood sampling device
JP2012194145A (en) * 2011-03-18 2012-10-11 Pfu Ltd Information display device, information display method and program
KR101245190B1 (en) * 2011-01-14 2013-03-20 한국표준과학연구원 Enhancement of retina imaging quality and microsurgery resolution by using optically filtered LED light having maximum absorption by blood in retina vessels
JP5237394B2 (en) * 2009-01-30 2013-07-17 富士通フロンテック株式会社 Authentication device, imaging device, authentication method, and authentication program
JP2013531999A (en) * 2010-05-05 2013-08-15 シー・アール・バード・インコーポレーテッド System and method for identifying and locating an implanted device
JP2013164310A (en) * 2012-02-10 2013-08-22 Nec Corp Imaging system and imaging method
JP2014081294A (en) * 2012-10-17 2014-05-08 Nikon Corp Coating support system of skin external preparation, coating support method and program
JP2014131731A (en) * 2012-12-27 2014-07-17 Christie Digital Systems Inc Spectral imaging using color wheel
JP2015083160A (en) * 2006-01-10 2015-04-30 アキュベイン エルエルシー Miniature vein enhancer and apparatus for imaging subcutaneous blood vessel in target area
WO2015198529A1 (en) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 Projection system
JP2016027367A (en) * 2014-06-25 2016-02-18 パナソニックIpマネジメント株式会社 Adjustment method and adjustment device for projection system
EP3018901A4 (en) * 2013-07-05 2016-07-13 Panasonic Ip Man Co Ltd Projection system
CN106999131A (en) * 2014-11-27 2017-08-01 皇家飞利浦有限公司 Imaging device and method for the image that generates patient
US20180279945A1 (en) * 2015-09-30 2018-10-04 Kohken Medical Co., Ltd. Vein visualization device
CN108938054A (en) * 2018-06-06 2018-12-07 王燕青 A kind of blood vessel deviation-rectifying system and blood vessel are rectified a deviation method of adjustment
US10156518B2 (en) 2014-06-24 2018-12-18 Nikon Corporation Image analysis apparatus, imaging system, surgery support system, image analysis method, and storage medium
JP2019022811A (en) * 2018-11-20 2019-02-14 エイディシーテクノロジー株式会社 Automatic injection needle insertion device
US10408749B2 (en) 2015-09-18 2019-09-10 Japan Organization Of Occupational Health And Safety Imaging method, imaging apparatus, imaging system, surgery support system, and a storage medium
US10467747B2 (en) 2014-07-11 2019-11-05 Nikon Corporation Image analysis apparatus, imaging system, surgery support system, image analysis method, storage medium, and detection system
JP2019217244A (en) * 2018-06-22 2019-12-26 林 世民Lin, Shih−Min Vein detection device
US10524666B2 (en) 2018-05-09 2020-01-07 Inner Ray, Inc. White excitation light generating device and white excitation light generating method
US10551300B2 (en) 2016-03-31 2020-02-04 National Institute Of Advanced Industrial Science And Technology Observation apparatus, observation system, data processing apparatus, and program
JP2020510812A (en) * 2016-12-21 2020-04-09 エッセンリックス コーポレーション Device and method for authenticating a sample and use thereof
JP2020123800A (en) * 2019-01-30 2020-08-13 セイコーエプソン株式会社 Projection position detection device, image projection system, and projection position detection method
US10813588B2 (en) 2006-01-10 2020-10-27 Accuvein, Inc. Micro vein enhancer
WO2020230407A1 (en) * 2019-05-15 2020-11-19 株式会社日本マイクロニクス Blood vessel position display device and blood vessel position display method
US11051755B2 (en) 2006-06-29 2021-07-06 Accuvein, Inc. Scanned laser vein contrast enhancer using a retro collective mirror
US11051697B2 (en) 2006-06-29 2021-07-06 Accuvein, Inc. Multispectral detection and presentation of an object's characteristics
JP2021130014A (en) * 2017-04-04 2021-09-09 カシオ計算機株式会社 Imaging device, imaging method, and program
US11132774B2 (en) 2007-06-28 2021-09-28 Accuvein, Inc. Automatic alignment of a contrast enhancement system
US11191482B2 (en) 2006-01-10 2021-12-07 Accuvein, Inc. Scanned laser vein contrast enhancer imaging in an alternating frame mode
US11253198B2 (en) 2006-01-10 2022-02-22 Accuvein, Inc. Stand-mounted scanned laser vein contrast enhancer
US11357449B2 (en) 2006-01-10 2022-06-14 Accuvein, Inc. Micro vein enhancer for hands-free imaging for a venipuncture procedure
US11399768B2 (en) 2006-01-10 2022-08-02 Accuvein, Inc. Scanned laser vein contrast enhancer utilizing surface topology
US11442254B2 (en) 2019-04-05 2022-09-13 Inner Ray, Inc. Augmented reality projection device
US11510617B2 (en) 2012-08-02 2022-11-29 Accuvein, Inc. Device for detecting and illuminating the vasculature using an FPGA
US11642080B2 (en) 2006-01-10 2023-05-09 Accuvein, Inc. Portable hand-held vein-image-enhancing device
USD999380S1 (en) 2009-07-22 2023-09-19 Accuvein, Inc. Vein imager and cradle in combination
USD999379S1 (en) 2010-07-22 2023-09-19 Accuvein, Inc. Vein imager and cradle in combination
US11890442B2 (en) 2018-01-26 2024-02-06 Bard Peripheral Vascular, Inc. Systems and methods for locating and identifying an implanted medical device
WO2024063073A1 (en) * 2022-09-22 2024-03-28 テルモ株式会社 Blood vessel visualization device and blood vessel visualization method
US11980740B2 (en) 2014-03-07 2024-05-14 C. R. Bard, Inc. Stabilization and guide apparatus for access to an implanted access port and related methods

Cited By (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4736040B2 (en) * 2005-12-01 2011-07-27 株式会社国際電気通信基礎技術研究所 Human body internal information projection system
JP2007151686A (en) * 2005-12-01 2007-06-21 Advanced Telecommunication Research Institute International Inside-human body information projection system
US11357449B2 (en) 2006-01-10 2022-06-14 Accuvein, Inc. Micro vein enhancer for hands-free imaging for a venipuncture procedure
US11109806B2 (en) 2006-01-10 2021-09-07 Accuvein, Inc. Three dimensional imaging of veins
US11642080B2 (en) 2006-01-10 2023-05-09 Accuvein, Inc. Portable hand-held vein-image-enhancing device
JP2015083160A (en) * 2006-01-10 2015-04-30 アキュベイン エルエルシー Miniature vein enhancer and apparatus for imaging subcutaneous blood vessel in target area
US11484260B2 (en) 2006-01-10 2022-11-01 Accuvein, Inc. Patient-mounted micro vein enhancer
US11399768B2 (en) 2006-01-10 2022-08-02 Accuvein, Inc. Scanned laser vein contrast enhancer utilizing surface topology
US11253198B2 (en) 2006-01-10 2022-02-22 Accuvein, Inc. Stand-mounted scanned laser vein contrast enhancer
US10813588B2 (en) 2006-01-10 2020-10-27 Accuvein, Inc. Micro vein enhancer
US11191482B2 (en) 2006-01-10 2021-12-07 Accuvein, Inc. Scanned laser vein contrast enhancer imaging in an alternating frame mode
US11172880B2 (en) 2006-01-10 2021-11-16 Accuvein, Inc. Vein imager with a dual buffer mode of operation
JP2007325656A (en) * 2006-06-06 2007-12-20 Matsushita Electric Ind Co Ltd Image processing method and image processing device
JP2007330701A (en) * 2006-06-19 2007-12-27 Yoshida Dental Mfg Co Ltd Medical display and medical display method
JP4699295B2 (en) * 2006-06-19 2011-06-08 株式会社吉田製作所 Dental display device
US11523739B2 (en) 2006-06-29 2022-12-13 Accuvein, Inc. Multispectral detection and presentation of an object's characteristics
US11051755B2 (en) 2006-06-29 2021-07-06 Accuvein, Inc. Scanned laser vein contrast enhancer using a retro collective mirror
US11051697B2 (en) 2006-06-29 2021-07-06 Accuvein, Inc. Multispectral detection and presentation of an object's characteristics
CN101201896A (en) * 2006-12-13 2008-06-18 日立麦克赛尔株式会社 Imaging module for biometrics authentication, biometrics authentication apparatus and prism
JP2010517733A (en) * 2007-02-14 2010-05-27 ルミネトクス コーポレイション Apparatus and method for projecting subcutaneous structure onto object surface
JP2008264186A (en) * 2007-04-19 2008-11-06 Hitachi Maxell Ltd Imaging module for biometric authentication, enclosure, camera module and biometric authentication apparatus
JP2008264185A (en) * 2007-04-19 2008-11-06 Hitachi Maxell Ltd Imaging module for biometric authentication and biometric authentication apparatus
JP2008302114A (en) * 2007-06-11 2008-12-18 Fujitsu Ltd Blood vessel image picking-up apparatus
US11132774B2 (en) 2007-06-28 2021-09-28 Accuvein, Inc. Automatic alignment of a contrast enhancement system
JP2009045427A (en) * 2007-07-26 2009-03-05 Fujita Gakuen Blood vessel photographing apparatus and puncture guide device using it
JP2009095516A (en) * 2007-10-18 2009-05-07 Terumo Corp Vein display apparatus
JP2011502673A (en) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Robot, medical workstation and method for projecting an image on the surface of an object
JP2009136436A (en) * 2007-12-05 2009-06-25 Terumo Corp Internal hemorrhage detecting apparatus and blood component collecting apparatus
JP2011516151A (en) * 2008-03-31 2011-05-26 イマージョン コーポレーション Identification of blood vessel position
JP2010000218A (en) * 2008-06-20 2010-01-07 Terumo Corp Vein displaying apparatus
JP5237394B2 (en) * 2009-01-30 2013-07-17 富士通フロンテック株式会社 Authentication device, imaging device, authentication method, and authentication program
US8649569B2 (en) 2009-01-30 2014-02-11 Fujitsu Frontech Limited Authentication apparatus, image capture apparatus, authentication method, and authentication program
USD999380S1 (en) 2009-07-22 2023-09-19 Accuvein, Inc. Vein imager and cradle in combination
JP2011139731A (en) * 2010-01-05 2011-07-21 Techno Medica Co Ltd Auxiliary device for blood sampling
JP2011206088A (en) * 2010-03-27 2011-10-20 Kyokko Denki Kk Blood sampling device
WO2011122484A1 (en) * 2010-03-27 2011-10-06 ニプロ株式会社 Blood sampling device
US9713426B2 (en) 2010-03-27 2017-07-25 Nipro Corporation Blood sampling device
US9884150B2 (en) 2010-05-05 2018-02-06 C. R. Bard, Inc. Systems and methods for identifying and locating an implanted device
JP2013531999A (en) * 2010-05-05 2013-08-15 シー・アール・バード・インコーポレーテッド System and method for identifying and locating an implanted device
US10471205B2 (en) 2010-05-05 2019-11-12 C. R. Bard, Inc. Systems and methods for identifying and locating an implanted device
CN111248912A (en) * 2010-05-05 2020-06-09 C·R·巴德股份有限公司 System and method for identifying and locating an implanted device
USD999379S1 (en) 2010-07-22 2023-09-19 Accuvein, Inc. Vein imager and cradle in combination
KR101245190B1 (en) * 2011-01-14 2013-03-20 한국표준과학연구원 Enhancement of retina imaging quality and microsurgery resolution by using optically filtered LED light having maximum absorption by blood in retina vessels
JP2012194145A (en) * 2011-03-18 2012-10-11 Pfu Ltd Information display device, information display method and program
JP2013164310A (en) * 2012-02-10 2013-08-22 Nec Corp Imaging system and imaging method
US11510617B2 (en) 2012-08-02 2022-11-29 Accuvein, Inc. Device for detecting and illuminating the vasculature using an FPGA
JP2014081294A (en) * 2012-10-17 2014-05-08 Nikon Corp Coating support system of skin external preparation, coating support method and program
JP2014131731A (en) * 2012-12-27 2014-07-17 Christie Digital Systems Inc Spectral imaging using color wheel
JP2018057873A (en) * 2012-12-27 2018-04-12 クリスティー デジタル システムズ ユーエスエー インコーポレイティッドChristie Digital Systems USA,Inc. Spectral imaging with a color wheel
EP3018901A4 (en) * 2013-07-05 2016-07-13 Panasonic Ip Man Co Ltd Projection system
US11980740B2 (en) 2014-03-07 2024-05-14 C. R. Bard, Inc. Stabilization and guide apparatus for access to an implanted access port and related methods
US10156518B2 (en) 2014-06-24 2018-12-18 Nikon Corporation Image analysis apparatus, imaging system, surgery support system, image analysis method, and storage medium
JP2016027687A (en) * 2014-06-25 2016-02-18 パナソニックIpマネジメント株式会社 Projection system
JP2016027367A (en) * 2014-06-25 2016-02-18 パナソニックIpマネジメント株式会社 Adjustment method and adjustment device for projection system
WO2015198529A1 (en) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 Projection system
US10467747B2 (en) 2014-07-11 2019-11-05 Nikon Corporation Image analysis apparatus, imaging system, surgery support system, image analysis method, storage medium, and detection system
US11033188B2 (en) 2014-11-27 2021-06-15 Koninklijke Philips N.V. Imaging device and method for generating an image of a patient
JP2018501839A (en) * 2014-11-27 2018-01-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Imaging device and method for generating an image of a patient
CN106999131A (en) * 2014-11-27 2017-08-01 皇家飞利浦有限公司 Imaging device and method for the image that generates patient
US10408749B2 (en) 2015-09-18 2019-09-10 Japan Organization Of Occupational Health And Safety Imaging method, imaging apparatus, imaging system, surgery support system, and a storage medium
US20180279945A1 (en) * 2015-09-30 2018-10-04 Kohken Medical Co., Ltd. Vein visualization device
US10551300B2 (en) 2016-03-31 2020-02-04 National Institute Of Advanced Industrial Science And Technology Observation apparatus, observation system, data processing apparatus, and program
JP2020510812A (en) * 2016-12-21 2020-04-09 エッセンリックス コーポレーション Device and method for authenticating a sample and use thereof
JP2021130014A (en) * 2017-04-04 2021-09-09 カシオ計算機株式会社 Imaging device, imaging method, and program
JP7264188B2 (en) 2017-04-04 2023-04-25 カシオ計算機株式会社 MEDICAL IMAGING DEVICE, IMAGING METHOD AND PROGRAM
US11890442B2 (en) 2018-01-26 2024-02-06 Bard Peripheral Vascular, Inc. Systems and methods for locating and identifying an implanted medical device
US10524666B2 (en) 2018-05-09 2020-01-07 Inner Ray, Inc. White excitation light generating device and white excitation light generating method
CN108938054A (en) * 2018-06-06 2018-12-07 王燕青 A kind of blood vessel deviation-rectifying system and blood vessel are rectified a deviation method of adjustment
JP2019217244A (en) * 2018-06-22 2019-12-26 林 世民Lin, Shih−Min Vein detection device
JP2019022811A (en) * 2018-11-20 2019-02-14 エイディシーテクノロジー株式会社 Automatic injection needle insertion device
JP7318215B2 (en) 2019-01-30 2023-08-01 セイコーエプソン株式会社 Image projection system and projection position detection method
JP2020123800A (en) * 2019-01-30 2020-08-13 セイコーエプソン株式会社 Projection position detection device, image projection system, and projection position detection method
US11442254B2 (en) 2019-04-05 2022-09-13 Inner Ray, Inc. Augmented reality projection device
JP2020185198A (en) * 2019-05-15 2020-11-19 株式会社日本マイクロニクス Blood vessel position display device and blood vessel position display method
JP7295527B2 (en) 2019-05-15 2023-06-21 株式会社日本マイクロニクス Blood vessel position display device and blood vessel position display method
TWI777142B (en) * 2019-05-15 2022-09-11 日商日本麥克隆尼股份有限公司 Blood vessel position display device and blood vessel position display method
CN113825452A (en) * 2019-05-15 2021-12-21 日本麦可罗尼克斯股份有限公司 Blood vessel position display device and blood vessel position display method
WO2020230407A1 (en) * 2019-05-15 2020-11-19 株式会社日本マイクロニクス Blood vessel position display device and blood vessel position display method
WO2024063073A1 (en) * 2022-09-22 2024-03-28 テルモ株式会社 Blood vessel visualization device and blood vessel visualization method

Similar Documents

Publication Publication Date Title
JP2006102360A (en) Living body information presentation device
JP2006102110A (en) Blood vessel position presenting apparatus
US11026763B2 (en) Projection mapping apparatus
EP2587988B1 (en) Method and system for fluorescent imaging with background surgical image composed of selective illumination spectra
KR100757620B1 (en) Encapsulated endoscope and encapsulated endoscope system
EP3040021A1 (en) Organ imaging apparatus
JP4561320B2 (en) Blood vessel and injection needle position presentation device
US20170079741A1 (en) Scanning projection apparatus, projection method, surgery support system, and scanning apparatus
KR101998595B1 (en) Method and Apparatus for jaundice diagnosis based on an image
EP1862109A2 (en) Capsule endoscopic system and image processing apparatus
US20170161892A1 (en) A method for acquiring and processing images of an ocular fundus by means of a portable electronic device
US20170251911A1 (en) Imaging system
CN113727636A (en) Scanner device with replaceable scanning tip
US20230329830A1 (en) Methods and Systems for Alternate Image Display
US20180098684A1 (en) Image processing device for endoscope, endoscope device, image processing method of image processing device for endoscope, and image processing program
CN106999045A (en) Organic image filming apparatus and program
JP2009056160A (en) System for acquiring image inside subject, method for processing image inside subject and apparatus for introducing into subject
TWI664950B (en) Vein detection device
JP2021530320A (en) Medical imaging system
JP5355220B2 (en) Fundus photographing device
WO2015037316A1 (en) Organ-imaging device and organ-imaging method
US20230233162A1 (en) Two-way mirror display for dental treatment system
CN112423654A (en) Oral scanner and three-dimensional overlay image display method using same
JP7109047B2 (en) INFORMATION DISPLAY DEVICE, INFORMATION DISPLAY SYSTEM, INFORMATION DISPLAY METHOD, AND INFORMATION DISPLAY PROGRAM
JPWO2020045014A1 (en) Medical system, information processing device and information processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108