JP2009172003A - Needle point position estimating device and needle point position estimating method - Google Patents

Needle point position estimating device and needle point position estimating method Download PDF

Info

Publication number
JP2009172003A
JP2009172003A JP2008010757A JP2008010757A JP2009172003A JP 2009172003 A JP2009172003 A JP 2009172003A JP 2008010757 A JP2008010757 A JP 2008010757A JP 2008010757 A JP2008010757 A JP 2008010757A JP 2009172003 A JP2009172003 A JP 2009172003A
Authority
JP
Japan
Prior art keywords
needle
image
tip position
needle tip
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008010757A
Other languages
Japanese (ja)
Inventor
Takao Inoue
貴生 井上
Kazuki Maruoka
和貴 丸岡
Yoko Kimura
容子 木村
Takayuki Uematsu
貴之 植松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008010757A priority Critical patent/JP2009172003A/en
Publication of JP2009172003A publication Critical patent/JP2009172003A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a needle point position estimating device and a needle point position estimating method, capable of accurately estimating the position of the point of a needle of a puncture device pierced into an object for puncture regardless of the structure of the puncture device. <P>SOLUTION: The needle point position estimating device comprises an illumination part, an image acquisition part, and a needle point position estimating part. The illumination part irradiates the needle with light. The image acquisition part acquires the image including the needle, the object for puncture to be punctured with the needle, and the needle projection image projected on the object for puncture illuminated by the illumination part. The needle point position estimating part determines an estimated position of the needle point when the object for puncture is punctured based on the image acquired by the image acquisition part and needle information. The needle information includes the needle image length representing the length of the needle on the image when the position of the needle point in the image acquired by the image acquisition part matches the position of the projected needle point. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、針を穿刺する作業を支援する装置に関するものであり、特に被穿刺物内における針の先端位置を推定する装置および方法に関する。   The present invention relates to an apparatus for supporting a needle puncturing operation, and more particularly to an apparatus and method for estimating the tip position of a needle in a puncture object.

医師または看護師が、患者の腕等に対して静脈注射や点滴を行うためには、まず、注射針やカテーテルを穿刺および挿入すべき患者の静脈の正確な位置を確認し、注射針を刺して血管確保を行う。この作業を支援する装置として以下のような装置がある。それは、まず、カメラで撮像した血管と注射針との各映像フレームから、血管および注射針の画像とを画像処理を用いて抽出する。次に、抽出された血管像から血管強調画像を生成する。そして、抽出された注射針の情報から、穿刺中の皮下に隠れて見えない針の先端位置(針先端予測位置)を推定する。最後に、推定された針先端予測位置を模式的に表した針先端マーク画像と、血管強調画像と、を合成して液晶ディスプレイ等に表示する(例えば、特許文献1参照)。   In order for a doctor or nurse to perform intravenous injection or infusion on the patient's arm, etc., first check the exact position of the patient's vein to puncture and insert the injection needle or catheter, and insert the injection needle. To secure blood vessels. There are the following devices as devices for supporting this work. First, images of blood vessels and injection needles are extracted from image frames of blood vessels and injection needles imaged by a camera using image processing. Next, a blood vessel enhancement image is generated from the extracted blood vessel image. Then, from the extracted information on the injection needle, the tip position (needle tip predicted position) of the needle that is hidden under the puncture and cannot be seen is estimated. Finally, the needle tip mark image schematically representing the estimated needle tip predicted position and the blood vessel emphasized image are combined and displayed on a liquid crystal display or the like (see, for example, Patent Document 1).

図13に、従来の針先端位置提示装置1000のブロック図を示す。画像取得手段1102から発光の指示を受けた照明手段1101は、可視光と近赤外光とをそれぞれ交互に発光する。これらの光は被穿刺物である腕に照射さる。画像取得手段1102は、可視光照射時の腕からの反射光を撮像して可視光画像を取得する。また、近赤外光照射時の腕からの反射光を撮像して近赤外画像を取得する。針先端位置推定手段1103は、可視光画像から腕の皮下に存在する針の先端位置を推定して針先端マーク画像を生成する。血管位置検出手段1104は、近赤外画像から血管部分を抽出して強調した血管強調画像を生成する。表示手段1105は、生成された血管強調画像に針先端マーク画像を合成した合成画像を生成して表示する。   FIG. 13 shows a block diagram of a conventional needle tip position presentation device 1000. The illumination unit 1101 that has received a light emission instruction from the image acquisition unit 1102 alternately emits visible light and near-infrared light. These lights are applied to the arm that is the puncture object. The image acquisition unit 1102 acquires a visible light image by imaging the reflected light from the arm during visible light irradiation. Moreover, the near-infrared image is acquired by imaging the reflected light from the arm during near-infrared light irradiation. Needle tip position estimating means 1103 estimates the tip position of the needle existing under the arm from the visible light image and generates a needle tip mark image. The blood vessel position detecting means 1104 generates a blood vessel emphasized image in which a blood vessel portion is extracted from the near infrared image and emphasized. The display unit 1105 generates and displays a composite image obtained by combining the needle tip mark image with the generated blood vessel emphasized image.

以下に、図14、図15(a)および図15(b)を用いて従来の針先端位置推定手段1103が行う処理の概要を説明する。まず、注射器を腕に刺す前にキャリブレーション動作として、図15(a)に示すように画素長PとQとを抽出する。次に、図14において、注射器画像抽出手段1201が注射器を撮影した可視光画像から注射器の輪郭と目盛とを抽出する。そして、これらを元に注射針先端位置検出手段1202にて針先端位置を検出して画素長PとQとを抽出し記憶する。次に、看護師が患者の腕に注射針を穿刺した状態においては、図15(b)に示すように、針の先端は皮下にあるが、撮影した可視光画像から検出できる画素長Y、及び、記憶していた画素長P、Qから、XはP/QにYを乗算した画素長として算出され、皮下に隠れて見えない針先端位置を予測する。これは、図14において、注射器画像抽出手段1201が可視光画像から注射器の輪郭と目盛とを抽出し、注射針先端位置算出手段1203がこれらの情報と前記記憶していたP、Qの情報から画素長Xを算出して皮下の針先端位置を算出する。注射針先端位置画像生成手段1204は、算出された皮下の針先端予測位置を元に、この針先端位予測置を強調した画像を生成し、針先端マーク画像として出力する。
特開2006−130201号公報(平成18年5月25日公開)
The outline of processing performed by the conventional needle tip position estimating means 1103 will be described below with reference to FIGS. 14, 15 (a), and 15 (b). First, as shown in FIG. 15A, pixel lengths P and Q are extracted as a calibration operation before inserting the syringe into the arm. Next, in FIG. 14, the syringe image extraction means 1201 extracts the outline and scale of the syringe from the visible light image obtained by photographing the syringe. Based on these, the needle tip position is detected by the needle tip position detection means 1202, and the pixel lengths P and Q are extracted and stored. Next, in the state where the nurse has pierced the patient's arm, as shown in FIG. 15 (b), the tip of the needle is subcutaneous, but the pixel length Y that can be detected from the captured visible light image, Then, from the stored pixel lengths P and Q, X is calculated as a pixel length obtained by multiplying P / Q by Y, and predicts a needle tip position that is hidden under the skin and cannot be seen. In FIG. 14, the syringe image extraction means 1201 extracts the outline and scale of the syringe from the visible light image, and the injection needle tip position calculation means 1203 uses these information and the stored information on P and Q. The pixel length X is calculated to calculate the subcutaneous needle tip position. Based on the calculated hypodermic needle tip predicted position, the injection needle tip position image generating unit 1204 generates an image in which this needle tip position predicted position is emphasized and outputs it as a needle tip mark image.
JP 2006-130201 A (published May 25, 2006)

上述のように、従来の技術では、画像取得手段によって取得した画像に基づいて、針を備えた注射器の輪郭やその表面に記された目盛を解析し、針の先端位置を推定していた。
しかしながら、上記従来技術では、注射器の目盛が正確に取得されていない場合や、目盛のない注射器などを使用する場合は、穿刺中の針の先端位置を正確に推定することができない。すなわち、針を備える機器(器具)の構成によっては、被穿刺物内に存在する針の先端位置を推定することができない場合がある。
As described above, in the conventional technique, the tip end position of the needle is estimated by analyzing the outline of the syringe provided with the needle and the scale marked on the surface thereof based on the image acquired by the image acquisition means.
However, in the above prior art, when the scale of the syringe is not accurately acquired or when a syringe without a scale is used, the tip position of the needle during puncture cannot be accurately estimated. That is, depending on the configuration of a device (instrument) including a needle, the tip position of the needle present in the puncture object may not be estimated.

本発明は、穿刺器具の構成にかかわらず、被穿刺物の内部に穿刺された針の先端位置を、正確に推定することを目的とする。   An object of the present invention is to accurately estimate the tip position of a needle punctured inside a puncture object regardless of the configuration of the puncture device.

第1の発明に係る針先端位置推定装置は、照明部と、画像取得部と、針先端位置推定部と、を備えている。照明部は、針に対して光を照射する。画像取得部は、針と、この針が穿刺される被穿刺物と、照明部によって照明された針の被穿刺物に投影される針影と、を含む画像を取得する。針先端位置推定部は、画像取得部が取得した画像と、針情報と、に基づいて、被穿刺物内に穿刺されているときの針先端予測位置を決定する。針情報は、画像取得部が取得した画像における針先端位置と針影先端位置とが一致した時の画像上の針の長さを示す針画像長を含む。   The needle tip position estimation device according to the first invention includes an illumination unit, an image acquisition unit, and a needle tip position estimation unit. The illumination unit irradiates the needle with light. The image acquisition unit acquires an image including a needle, a puncture object into which the needle is punctured, and a needle shadow projected onto the puncture object of the needle illuminated by the illumination unit. The needle tip position estimation unit determines a predicted needle tip position when the needle is punctured into the puncture object based on the image acquired by the image acquisition unit and the needle information. The needle information includes a needle image length indicating the length of the needle on the image when the needle tip position and the needle shadow tip position in the image acquired by the image acquisition unit match.

ここでは、被穿刺物内に穿刺された針の先端位置(針先端予測位置)を推定する針先端位置推定装置が、針を備える機器(器具)の形態に関わらず、針先端予測位置を決定することを可能にする構成を採用している。   Here, the needle tip position estimation device that estimates the tip position (needle tip predicted position) of the needle punctured in the puncture target determines the predicted needle tip position regardless of the form of the device (instrument) including the needle. It adopts a configuration that makes it possible to do this.

ここで、針とは、例えば、医療用の注射器に備えられている注射針などである。また、被穿刺物とは、例えば、人間や動物の腕や足などである。したがって、針の影とは、例えば、人間の皮膚に映る注射針の影などである。   Here, the needle is, for example, an injection needle provided in a medical syringe. The puncture object is, for example, a human or animal arm or leg. Therefore, the shadow of the needle is, for example, the shadow of the injection needle reflected on the human skin.

照明部とは、光源を有するものが好ましいが、光源を備えずに採光窓を有することによって外部の光を限定的に採り入れる構成を用いたものであってもよい。また、照明部の位置(角度)は、画像取得部が針と針影との識別が可能な画像を取得できるような位置であればよい。   The illumination unit preferably has a light source, but may have a configuration in which external light is limitedly taken by having a daylighting window without providing a light source. In addition, the position (angle) of the illumination unit may be a position where the image acquisition unit can acquire an image that can identify a needle and a needle shadow.

また、画像取得部とは、例えば、可視光及び近赤外光を撮像可能で分光感度が高いカメラであることが好ましい。具体的には、各画素の輝度を8ビットで表わす白黒CCDカメラを用いることが好適である。また、このような撮像可能なカメラを備えず、外部機器から得たデータから画像を取得するものであってもよい。   The image acquisition unit is preferably a camera that can capture visible light and near infrared light and has high spectral sensitivity, for example. Specifically, it is preferable to use a monochrome CCD camera that represents the luminance of each pixel by 8 bits. In addition, an image may be acquired from data obtained from an external device without including such a camera capable of imaging.

そして、針先端位置推定部は、画像取得部が取得した針と針影との画像情報を解析し、被穿刺物の内部に入っている状態の針の先端位置(針先端予測位置)を決定する。例えば、針先端位置と針影先端位置とが一致した時の画像上の針の長さ(針画像長)を解析および記憶し、この記憶した画像上の針の長さを用いて穿刺中の針の先端位置(針先端予測位置)を決定する。針画像長とは、画像取得部が取得した画像に映る針の長さであって、例えば、1画素を単位長さとして表したものとすることができる。   Then, the needle tip position estimation unit analyzes the image information of the needle and the needle shadow acquired by the image acquisition unit, and determines the tip position (needle tip predicted position) of the needle that is in the puncture object. To do. For example, the needle length (needle image length) on the image when the needle tip position matches the needle shadow tip position is analyzed and stored, and the needle length on the stored image is used for puncturing. Determine the needle tip position (predicted needle tip position). The needle image length is the length of the needle shown in the image acquired by the image acquisition unit, and can be represented by, for example, one pixel as a unit length.

なお、針先端位置とは、針が被穿刺物に穿刺されていない状態では、針の先端位置を意味し、針が被穿刺物に刺さっている状態では、針の非穿刺部分の先端位置、すなわち被穿刺物の表面と針との交点、を意味する。また、針先端予測位置とは、針が被穿刺物に穿刺されている状態における、針の先端位置を意味する。したがって、針先端予測位置とは、被穿刺物内における針の先端位置である。   The needle tip position means the tip position of the needle when the needle is not punctured into the puncture object, and the tip position of the non-puncture portion of the needle when the needle is pierced with the puncture object, That is, it means the intersection of the surface of the puncture object and the needle. The predicted needle tip position means the tip position of the needle in a state where the needle is punctured into the puncture target. Therefore, the predicted needle tip position is the needle tip position within the puncture object.

このような構成により、針の先端部分と針影の先端部分が一致した時は、針を穿刺する直前であり、その後、針を被穿刺物内に穿刺しても針の空間的角度は変化しないため、画像上の針の長さ(穿刺部分の長さと非穿刺部分との長さの和)も変化しない。このため、従来技術のように、穿刺機器(器具)における非穿刺部分を、針の長さや先端位置を推定するための画像上の基準とする必要がない。   With this configuration, when the tip of the needle coincides with the tip of the needle shadow, it is just before the needle is punctured, and thereafter the spatial angle of the needle changes even if the needle is punctured into the puncture object. Therefore, the length of the needle on the image (the sum of the length of the puncture portion and the length of the non-puncture portion) does not change. For this reason, unlike the prior art, it is not necessary to use the non-puncture portion in the puncture device (instrument) as a reference on the image for estimating the needle length and the tip position.

したがって、針先端予測位置を決定するために必要な他の基準物(例えば、上記目盛)を穿刺機器自身が備えている必要がなく、針を備えるどのような機器(器具)を使用した場合においても、針先端予測位置を推定することが可能になる。   Therefore, it is not necessary for the puncture device itself to have another reference (for example, the scale) necessary for determining the predicted needle tip position, and any device (instrument) having a needle is used. In addition, it is possible to estimate the predicted needle tip position.

この結果、例えば、注射器のように、人体に針を刺す場合において、この注射器の使用者が、常に針先端予測位置を把握することが可能になる。したがって、針を穿刺するときの正確性の向上や時間の短縮が図られ、被穿刺者(被穿刺物)側の負担を軽減することが可能になる。   As a result, for example, when a needle is inserted into a human body like a syringe, the user of this syringe can always grasp the predicted needle tip position. Accordingly, the accuracy and time required for puncturing the needle can be improved, and the burden on the puncture target (puncture target) can be reduced.

第2の発明に係る針先端位置推定装置は、第1の発明に係る針先端位置推定装置であって、画像取得部が取得した画像と針先端位置推定部が決定した針先端予測位置とを提示する提示部をさらに備える。   A needle tip position estimation device according to a second invention is the needle tip position estimation device according to the first invention, wherein an image acquired by the image acquisition unit and a predicted needle tip position determined by the needle tip position estimation unit are obtained. A presentation unit for presenting is further provided.

ここでは、使用者に針先端予測位置を提示するための提示部をさらに備える。
ここで、提示部は、液晶や有機ELなどの薄型のディスプレイであることが好ましい。あるいは、所定の用紙にプリントするプリント装置であってもよい。
Here, a presentation unit for presenting the predicted needle tip position to the user is further provided.
Here, the presenting unit is preferably a thin display such as a liquid crystal or an organic EL. Alternatively, a printing apparatus that prints on a predetermined sheet may be used.

これにより、使用者は、被穿刺物内に針を穿刺している間も、針の先端がどこに位置するかを、常時確認しながら針を穿刺することが可能になる。この結果、使用者の熟練度や技術力によらず、容易にかつ安定した穿刺作業を行うことが可能になる。   Thus, the user can puncture the needle while constantly checking where the tip of the needle is located while puncturing the needle into the puncture object. As a result, it is possible to easily and stably perform puncturing work regardless of the skill level and technical skill of the user.

第3の発明に係る針先端位置推定装置は、第1または第2の発明に係る針先端位置推定装置であって、針情報抽出部と、針先端予測位置算出部と、を備える。針情報抽出部は、上記画像取得部が取得した画像から、針方向、針先端位置および針後端位置を含む針情報を抽出する。針先端予測位置算出部は、針情報抽出部が抽出した針情報に基づいて、針先端予測位置を算出する。   A needle tip position estimation device according to a third invention is the needle tip position estimation device according to the first or second invention, and includes a needle information extraction unit and a needle tip predicted position calculation unit. The needle information extraction unit extracts needle information including the needle direction, the needle tip position, and the needle rear end position from the image acquired by the image acquisition unit. The predicted needle tip position calculation unit calculates the predicted needle tip position based on the needle information extracted by the needle information extraction unit.

ここでは、針情報抽出部が画像から抽出した針情報に基づいて、針先端予測位置算出部が、針先端予測位置を算出する。
ここで、針方向とは、針の後端から先端に向けての方向である。針先端位置とは、上述した針先端位置と同一であるが、画像上では、穿刺する側の端部が映っている画素であってもよく、または、針の先端部分が映っている画素とその周辺の画素を含むものであってもよい。針後端位置とは、針の後端部分、すなわち針とこの針を備える機器(器具)との接点部分であり、画像上ではこの接点部分が映る画素であってもよく、または、その画素とその周辺の画素を含むものであってもよい。
Here, the predicted needle tip position is calculated by the predicted needle tip position based on the needle information extracted from the image by the needle information extraction unit.
Here, the needle direction is a direction from the rear end to the front end of the needle. The needle tip position is the same as the above-described needle tip position, but may be a pixel in which an end on the puncture side is shown on the image, or a pixel in which the tip of the needle is shown. The surrounding pixels may be included. The needle rear end position is a rear end portion of the needle, that is, a contact portion between the needle and a device (instrument) including the needle, and may be a pixel in which the contact portion is reflected on the image, or the pixel. And surrounding pixels may be included.

これにより、針を穿刺する前に、画像取得部が少なくとも針全体を取得可能な位置から画像を取得することによって、針の位置が変化しても常に自動的に針先端位置および針先端予測位置を推定することが可能になる。
この結果、針を穿刺するときの正確性がさらに向上するため、微細な被穿刺物に対しても容易かつ安心して穿刺することが可能になる。
Thus, before the needle is punctured, the image acquisition unit acquires an image from a position at which at least the entire needle can be acquired, so that even if the position of the needle changes, the needle tip position and the predicted needle tip position are always automatically obtained. Can be estimated.
As a result, the accuracy when puncturing the needle is further improved, and it becomes possible to puncture even a fine puncture object easily and safely.

第4の発明に係る針先端位置推定装置は、第3の発明に係る針先端位置推定装置であって、針先端位置推定部が、針影情報抽出部と、一致検出部と、フラグ記憶部と、針画像長記憶部と、を備える。そして、針先端予測位置算出部は、針画像長記憶部に記憶された針画像長に基づいて、フラグがON状態のときに、上記針先端予測位置を算出する。針影情報抽出部は、画像取得部が取得した画像から、針影の先端位置を含む針影情報を抽出する。一致検出部は、針先端位置と針影先端位置とが一致しているときに、一致信号を出力する。フラグ記憶部は、一致信号が出力されている場合はON状態になり、一致信号が出力されていない場合はOFF状態になるフラグ、を記憶する。針画像長記憶部は、フラグがOFF状態からON状態に切り替わる時の針画像長を記憶する。   A needle tip position estimation device according to a fourth invention is the needle tip position estimation device according to the third invention, wherein the needle tip position estimation unit includes a needle shadow information extraction unit, a coincidence detection unit, and a flag storage unit. And a needle image length storage unit. The predicted needle tip position calculation unit calculates the predicted needle tip position based on the needle image length stored in the needle image length storage unit when the flag is ON. The needle shadow information extraction unit extracts needle shadow information including the tip position of the needle shadow from the image acquired by the image acquisition unit. The coincidence detection unit outputs a coincidence signal when the needle tip position matches the needle shadow tip position. The flag storage unit stores a flag that is turned on when the coincidence signal is output and that is turned off when the coincidence signal is not output. The needle image length storage unit stores the needle image length when the flag is switched from the OFF state to the ON state.

ここでは、針影先端位置を抽出し、この針影先端位置と針先端位置とが一致した時の針画像長に基づいて、フラグがON状態のときすなわち針が被穿刺物内に存在するとき、針先端予測位置を算出する。   Here, the needle shadow tip position is extracted, and when the flag is ON based on the needle image length when the needle shadow tip position and the needle tip position coincide, that is, when the needle is present in the puncture object. The predicted needle tip position is calculated.

これにより、針を被穿刺物に穿刺する直前の状態において取得された画像の針画像長が記憶される。ここで、針の3次元的な角度は、穿刺する直前と穿刺した後とではほとんど変化しない。しかし、針の先端を穿刺する箇所まで針を移動させている間は、針の角度が多様に変化する。そして、画像取得部が取得した画像は、2次元画像となるため、針の3次元的角度によって、画像中の針の長さ(針画像長)が変化する恐れがある。このため、針の長さを正確に把握することが困難である。これらのことから、針の先端と針影の先端とが一致する時の針画像長を記憶および利用することによって、穿刺後の針先端予測位置を正確に決定することが可能になる。
したがって、針が被穿刺物に穿刺され、針の先端が目視することができない状態であっても、針先端予測位置を決定することが可能になる。
Thereby, the needle image length of the image acquired immediately before puncturing the puncture object is stored. Here, the three-dimensional angle of the needle hardly changes between immediately before puncturing and after puncturing. However, while the needle is moved to the point where the tip of the needle is punctured, the angle of the needle changes variously. Since the image acquired by the image acquisition unit is a two-dimensional image, the length of the needle in the image (needle image length) may change depending on the three-dimensional angle of the needle. For this reason, it is difficult to accurately grasp the length of the needle. For these reasons, it is possible to accurately determine the predicted needle tip position after puncturing by storing and using the needle image length when the tip of the needle and the tip of the needle shadow coincide.
Therefore, the predicted needle tip position can be determined even when the needle is punctured into the puncture target and the tip of the needle cannot be seen.

第5の発明に係る針先端位置推定装置は、第1から第4の発明のいずれか1つに係る針先端位置推定装置であって、針先端位置推定部が、針先端予測位置提示画像を形成する画像形成部をさらに備える。   A needle tip position estimation device according to a fifth invention is the needle tip position estimation device according to any one of the first to fourth inventions, wherein the needle tip position estimation unit displays a predicted needle tip position presentation image. An image forming unit to be formed is further provided.

ここでは、針先端位置推定部が決定した針先端予測位置を画像上で提示するために、針先端予測位置提示画像を形成する画像形成部を備える。
ここで、針先端予測位置提示画像における針の先端位置を示すマークは、例えば、矢印であってもよい。また、形成された針先端予測位置提示画像は、画像取得部によって取得された画像と合成して出力されることが好ましい。この出力先は、ディスプレイであってもよく、または、所定の用紙にプリントするためのプリント装置であってもよい。そして、ディスプレイや用紙上に提示されたときは、針方向と矢印が示す方向とが一致するように出力することが好ましい。
Here, in order to present on the image the predicted needle tip position determined by the needle tip position estimation unit, an image forming unit that forms a predicted needle tip position presentation image is provided.
Here, the mark indicating the needle tip position in the needle tip predicted position presentation image may be an arrow, for example. In addition, it is preferable that the formed needle tip predicted position presentation image is combined with the image acquired by the image acquisition unit and output. The output destination may be a display or a printing apparatus for printing on a predetermined sheet. And when it is presented on a display or paper, it is preferable to output so that the direction of the needle coincides with the direction indicated by the arrow.

これにより、画像形成部が、針先端位置推定部によって決定された針先端予測位置を使用者に分かり易く提示するための画像を形成するため、針先端予測位置を明確に提示することが可能になる。
この結果、使用者は、容易かつ正確に針の先端が位置する場所や針の方向を確認することができる。
Thereby, since the image forming unit forms an image for easily presenting the predicted needle tip position determined by the needle tip position estimating unit to the user, it is possible to clearly present the predicted needle tip position. Become.
As a result, the user can easily and accurately confirm the location of the needle tip and the direction of the needle.

第6の発明に係る針先端位置推定装置は、第3から第5の発明のいずれか1つに係る針先端位置推定装置であって、針先端予測位置算出部が、針後端位置から針方向に向かって針画像長記憶部に記憶された針画像長の長さ分離れた位置を、針先端予測位置と決定する。   A needle tip position estimation device according to a sixth invention is the needle tip position estimation device according to any one of the third to fifth inventions, wherein the predicted needle tip position calculation unit calculates the needle from the needle rear end position. The position separated by the length of the needle image length stored in the needle image length storage unit in the direction is determined as the predicted needle tip position.

ここでは、針先端予測位置算出部が、針後端位置から針方向に向かって針画像長分離れた位置を、針先端予測位置として算出する。
これにより、針を穿刺する直前に取得された針の画像長と針方向とを用いて、針先端予測位置を決定することが可能になる。
したがって、自動的に、正確な針先端予測位置を算出することができる。
Here, the predicted needle tip position calculation unit calculates a position separated from the needle rear end position in the needle direction by the needle image length as the predicted needle tip position.
This makes it possible to determine the predicted needle tip position using the needle image length and needle direction acquired immediately before the needle is punctured.
Accordingly, an accurate predicted needle tip position can be automatically calculated.

第7の発明に係る針先端位置推定装置は、第1から第6の発明のいずれか1つに係る針先端位置推定装置であって、画像取得部が、取得した画像を白黒輝度画像として出力する。   A needle tip position estimation device according to a seventh invention is the needle tip position estimation device according to any one of the first to sixth inventions, wherein the image acquisition unit outputs the acquired image as a monochrome luminance image. To do.

これにより、画像取得部が取得した画像に含まれるそれぞれの画素の画素値が、例えば、8ビットの画像であれば、0から255の256段階に段階化される。このため、例えば、画像処理を施すための閾値やフィルタの係数などが単純化され、簡易な処理および/または構成によって針先端予測位置を決定することが可能になる。
この結果、当該針先端位置推定装置の処理速度が向上し、また、コストダウンを図ることが可能になる。
Thereby, if the pixel value of each pixel included in the image acquired by the image acquisition unit is, for example, an 8-bit image, it is graded in 256 steps from 0 to 255. For this reason, for example, the threshold value for performing image processing, the coefficient of the filter, and the like are simplified, and the predicted needle tip position can be determined by simple processing and / or configuration.
As a result, the processing speed of the needle tip position estimation device is improved, and the cost can be reduced.

第8の発明に係る針先端位置推定装置は、第3から7の発明のいずれか1つに係る針先端位置推定装置であって、針情報抽出部は、画像取得部が取得した画像に対し第1フィルタを走査して針抽出画像を形成し、針抽出画像を第1閾値で二値化した第1二値化画像を生成する。さらに、針情報抽出部は、第1二値化画像における針を示す画素に対して、最小二乗法を用いて線分化し、この線分から、針画像長、針方向、針先端位置および針後端位置を取得する。   A needle tip position estimation device according to an eighth invention is the needle tip position estimation device according to any one of the third to seventh inventions, wherein the needle information extraction unit applies the image acquired by the image acquisition unit. The first filter is scanned to form a needle extraction image, and a first binarized image obtained by binarizing the needle extraction image with a first threshold value is generated. Further, the needle information extraction unit performs line differentiation on the pixel indicating the needle in the first binarized image using the least square method, and from this line segment, the needle image length, the needle direction, the needle tip position, and the needle back Get end position.

ここでは、画像取得部が取得した画像に対して、第1フィルタの走査、二値化および最小二乗法を行うことによって形成された線分から、針画像長、針方向、針先端位置および針後端位置を取得する。   Here, the needle image length, the needle direction, the needle tip position, and the needle back are obtained from the line segment formed by performing the first filter scan, binarization, and least square method on the image acquired by the image acquisition unit. Get end position.

ここで、第1フィルタとは、例えば、所定の係数を順に並べたものであって、その係数は、−2、−1、0、1、2であってもよい。そして、この第1フィルタを走査するとは、第1フィルタによってフィルタリングすることであり、例えば、第1フィルタに含まれる係数を各画素に対して所定の演算を行うことなどを意味する。また、ここでの所定の演算とは、例えば、積和演算であってもよい。また、第1閾値とは、輝度に対する閾値であって、例えば、8ビットすなわち0から255の輝度を示す画像において、閾値は、150であってもよい。二値化画像とは、各画素が上記閾値によって「0」または「1」に置換された画像であって、例えば、「0」に対応する色を白とし、「1」に対応する色を黒として画像化したものであってもよい。   Here, the first filter is, for example, a sequence of predetermined coefficients, and the coefficients may be −2, −1, 0, 1, and 2. And scanning this 1st filter means filtering by a 1st filter, for example, performing the predetermined calculation with respect to the coefficient contained in a 1st filter with respect to each pixel. Further, the predetermined calculation here may be, for example, a product-sum calculation. The first threshold value is a threshold value for luminance. For example, in an image indicating luminance of 8 bits, that is, 0 to 255, the threshold value may be 150. The binarized image is an image in which each pixel is replaced with “0” or “1” by the threshold value. For example, a color corresponding to “0” is white and a color corresponding to “1” is set. It may be imaged as black.

これにより、取得した画像を構成する複数の画素に対して、それぞれの画素値を用いて数値化されたパラメータを演算することによって画像処理を行うことができる。このため、取得した画像から、自動的かつ一義的に針情報を抽出することが可能になる。したがって、使用時毎にキャリブレーションを行ったり、使用者が各パラメータの書き換えを自ら行ったりする手間を省くことが可能になる。   Thereby, it is possible to perform image processing by calculating a numerical parameter using each pixel value for a plurality of pixels constituting the acquired image. For this reason, it becomes possible to extract needle information automatically and uniquely from the acquired image. Therefore, it is possible to save the labor of performing calibration every time of use or rewriting each parameter by the user.

第9の発明に係る針先端位置推定装置は、第8の発明に係る針先端位置推定装置であって、針情報抽出部は、前記画像において、上記線分に基づいて、針を含まない針の周辺を示す第1領域を決定し、針影情報抽出部は、第1領域において、所定の長さを有しかつ第2閾値を閾値とする第2フィルタを走査して第2二値化画像を生成し、第2二値化画像の画素行列において、各行方向または各列方向に沿って、画像の両端部からそれぞれ走査して、画素値が変化したそれぞれの最初の画素を境界部画素とし、各行または各列において、それぞれの境界部画素の中心画素を抽出した第3二値化画像を形成し、第3二値化画像における前記中心画素に対応する画素に対して、最小二乗法を用いて線分化し、この線分から、針影先端位置を取得する。   A needle tip position estimation device according to a ninth invention is the needle tip position estimation device according to the eighth invention, wherein the needle information extraction unit includes a needle that does not include a needle based on the line segment in the image. The needle shadow information extraction unit scans a second filter having a predetermined length and having the second threshold value as a threshold value in the first region, and second binarization is determined. An image is generated, and in the pixel matrix of the second binarized image, scanning is performed from both ends of the image along each row direction or each column direction. In each row or each column, a third binarized image is formed by extracting the center pixel of each boundary pixel, and the least square method is applied to the pixel corresponding to the center pixel in the third binarized image. Using the, the line is differentiated, and the needle shadow tip position is obtained from this line segment.

ここでは、針情報抽出部が決定した第1領域において、針影情報抽出部が、第2二値化、境界部画素の特定、第3二値化、最小二乗法を順に行うことによって形成された線分から、針影先端位置を決定する。   Here, in the first region determined by the needle information extraction unit, the needle shadow information extraction unit is formed by sequentially performing the second binarization, the boundary pixel specification, the third binarization, and the least squares method. Determine the needle shadow tip position from the line segment.

ここで、第1領域とは、第8の発明に係る針先端位置推定装置において生成された線分に基づいて生成され、例えば、その線分を一辺に含む矩形の領域であってもよい。また、その領域は、針を中心に照明部側とは反対側の領域であることが好ましい。境界部画素の中心位置とは、例えば、同一行の2つの境界部画素の間の画素が奇数である場合は、二つの境界部画素の中心となる画素であり、偶数の場合は、中心位置に隣接する二つの画素のうちのいずれか一方の画素である。したがって、第3二値化画像とは、例えば、同一行における2つの境界部画素の中心画素に対応した画素を1とし、同一行におけるそれ以外の画素を0とする二値化処理を各行に行った画像であってもよい。   Here, the first region is generated based on the line segment generated in the needle tip position estimation device according to the eighth invention, and may be, for example, a rectangular region including the line segment on one side. Moreover, it is preferable that the area | region is an area | region on the opposite side to the illumination part side centering on a needle | hook. The center position of the boundary pixel is, for example, a pixel that is the center of two boundary pixels when the number of pixels between two boundary pixels in the same row is an odd number. Is one of the two pixels adjacent to the pixel. Therefore, the third binarized image is, for example, a binarization process in which a pixel corresponding to the center pixel of two boundary pixels in the same row is set to 1 and other pixels in the same row are set to 0 in each row. It may be a performed image.

これにより、取得した画像を構成する複数の画素に対して、それぞれの画素値を用いて数値化されたパラメータを演算することによって画像処理を行うことができる。このため、取得した画像から、自動的かつ一義的に針影情報を抽出することが可能になる。
したがって、使用時毎にキャリブレーションを行ったり、使用者が各パラメータの書き換えを自ら行ったりする手間を省くことが可能になる。
Thereby, it is possible to perform image processing by calculating a numerical parameter using each pixel value for a plurality of pixels constituting the acquired image. For this reason, it becomes possible to extract needle shadow information automatically and uniquely from the acquired image.
Therefore, it is possible to save the labor of performing calibration every time of use or rewriting each parameter by the user.

第10の発明に係る針先端位置推定装置は、第3から第9の発明のいずれか1つに係る針先端位置推定装置であって、一致検出部は、針先端位置を中心として第2領域を決定し、この第2領域に針影先端位置が存在するとき、針先端位置と針影先端位置とが一致したと判断する。   A needle tip position estimation device according to a tenth invention is the needle tip position estimation device according to any one of the third to ninth inventions, wherein the coincidence detection unit is a second region centered on the needle tip position. When the needle shadow tip position is present in the second region, it is determined that the needle tip position matches the needle shadow tip position.

ここでは、一致検出部が、第2領域を決定し、この第2領域内に針影先端位置が存在するとき、針先端位置と針影先端位置とが一致したと判断する。
ここで、第2領域とは、所定の縦横幅を有した画像上の領域であり、例えば、10画素四方の領域であってもよい。
Here, the coincidence detection unit determines the second region, and when the needle shadow tip position exists in the second region, it is determined that the needle tip position matches the needle shadow tip position.
Here, the second area is an area on the image having a predetermined vertical and horizontal width, and may be, for example, an area of 10 pixels square.

これにより、針の先端部分である穿刺部が極細であるために、穿刺部の影が画像によって認識することが困難な場合であっても、針が穿刺される前に、一致検出部は、針先端位置と針影先端位置とが一致したと判断することができる。   Thereby, even if it is difficult to recognize the shadow of the puncture part by the image because the puncture part that is the tip part of the needle is extremely thin, before the needle is punctured, the coincidence detection unit is It can be determined that the needle tip position matches the needle shadow tip position.

したがって、一致検出部が出力する一致信号のタイミングが遅れることを防ぐことができる。すなわち、針画像長記憶部に記憶される針画像長を実際の針画像長より短い針画像長として記憶することを防ぐことができる。これは、針を穿刺したときに、針先端予測位置が実際の位置より針後端部側に提示されると、実際は穿刺してはいけない領域(深さ)まで誤って穿刺してしまうおそれがある。しかしながら、当該針先端位置推定装置の構成によると、このようなおそれがないため、針の誤穿刺を防ぐことが可能になる。   Therefore, it is possible to prevent the timing of the coincidence signal output from the coincidence detection unit from being delayed. That is, it is possible to prevent the needle image length stored in the needle image length storage unit from being stored as a needle image length shorter than the actual needle image length. This is because when the needle tip predicted position is presented closer to the needle rear end side than the actual position when the needle is punctured, there is a risk that the puncture will erroneously occur to the area (depth) that should not be punctured. is there. However, according to the configuration of the needle tip position estimating device, there is no such a possibility, and thus it becomes possible to prevent erroneous needle puncture.

第11の発明に係る針先端位置推定装置は、第4から第10の発明のいずれか1つに係る針先端位置推定装置であって、フラグがOFF状態の場合、上記針先端位置に基づいて、針の先端位置を決定する。   A needle tip position estimating device according to an eleventh invention is the needle tip position estimating device according to any one of the fourth to tenth inventions, and when the flag is OFF, based on the needle tip position. Determine the needle tip position.

ここでは、針が被穿刺物に穿刺される前の状態において、取得した画像から針情報抽出部が抽出した針先端位置に基づいて、針の先端位置を決定する。
これにより、針の先端を提示するための処理が、針が穿刺される前と穿刺中とで明確に切り換えられる。このため、針の穿刺前は針先端位置に基づいて、針の穿刺中は針先端予測位置に基づいて、それぞれ針の先端位置を提示することができる。
Here, the needle tip position is determined based on the needle tip position extracted by the needle information extraction unit from the acquired image in a state before the needle is punctured into the puncture target.
Thereby, the process for presenting the tip of the needle is clearly switched between before and during the puncture of the needle. Therefore, the tip position of the needle can be presented based on the position of the tip of the needle before puncturing the needle and based on the predicted position of the tip of the needle during puncturing of the needle.

したがって、使用者が、穿刺前の針の先端位置も確認することが容易になり、例えば、照明光が当たる角度によって針の先端が確認しにくくなるといった不具合を防止することが可能になる。   Therefore, it becomes easy for the user to check the position of the tip of the needle before puncturing, and for example, it is possible to prevent a problem that it is difficult to check the tip of the needle depending on the angle of illumination light.

第12の発明に係る針先端位置推定方法は、第1から第3ステップを備える。第1ステップは、針に対して光を照射する。第2ステップは、針と、この針が穿刺される被穿刺物と、第1ステップによって光が照射された針の被穿刺物に投影される針影と、を含む画像を取得する。第3ステップは、第2ステップで取得した画像と、この画像における、針先端位置と針影先端位置とが一致したときの画像上の針の長さを示す針画像長、を含む針情報と、に基づいて、針が被穿刺物内に穿刺されているときの針先端予測位置を決定する。   A needle tip position estimating method according to a twelfth invention includes first to third steps. In the first step, the needle is irradiated with light. In the second step, an image including a needle, a puncture object to be punctured by the needle, and a needle shadow projected on the puncture object of the needle irradiated with light in the first step is acquired. The third step includes needle information including the image acquired in the second step, and a needle image length indicating the length of the needle on the image when the needle tip position matches the needle shadow tip position in the image. Based on the above, the predicted needle tip position when the needle is punctured into the puncture object is determined.

ここでは、被穿刺物内に穿刺された針の先端位置(針先端予測位置)を推定する針先端位置推定方法が、針を備える機器(器具)の形態に関わらず、針先端予測位置を決定することを可能にする方法を採用している。   Here, the needle tip position estimation method for estimating the tip position (needle tip predicted position) of the needle punctured in the puncture object determines the predicted needle tip position regardless of the form of the device (instrument) provided with the needle. Adopting a method that makes it possible to do.

ここで、針とは、例えば、医療用の注射器に備えられている注射針などである。また、被穿刺物とは、例えば、人間や動物の腕や足などである。したがって、針の影とは、例えば、人間の皮膚に映る注射針の影などである。   Here, the needle is, for example, an injection needle provided in a medical syringe. The puncture object is, for example, a human or animal arm or leg. Therefore, the shadow of the needle is, for example, the shadow of the injection needle reflected on the human skin.

第3ステップは、第2ステップで取得した針と針影との画像から針と針影との情報を抽出および解析し、被穿刺物の内部に入っている状態の針の先端位置(針先端予測位置)を決定する。例えば、針先端位置と針影先端位置とが一致した時の画像上の針の長さ(針画像長)を解析および記憶し、この記憶した画像上の針の長さを用いて穿刺中の針の先端位置(針先端予測位置)を決定する。針画像長とは、第2ステップで取得した画像に映る針の長さであって、例えば、1画素を単位長さとして表したものとすることができる。   In the third step, information on the needle and the needle shadow is extracted and analyzed from the needle and needle shadow image acquired in the second step, and the tip position (needle tip) of the needle that is in the puncture object is extracted. (Predicted position) is determined. For example, the needle length (needle image length) on the image when the needle tip position matches the needle shadow tip position is analyzed and stored, and the needle length on the stored image is used for puncturing. Determine the needle tip position (predicted needle tip position). The needle image length is the length of the needle shown in the image acquired in the second step, and can be expressed, for example, as a unit length of one pixel.

なお、針先端位置とは、針が被穿刺物に穿刺されていない状態では、針の先端位置を意味し、針が被穿刺物に刺さっている状態では、針の非穿刺部分の先端位置、すなわち被穿刺物の表面と針との交点を意味する。また、針先端予測位置とは、針が被穿刺物に穿刺されている状態における、針の先端位置を意味する。したがって、針先端予測位置とは、被穿刺物内における針の先端位置である。   The needle tip position means the tip position of the needle when the needle is not punctured into the puncture object, and the tip position of the non-puncture portion of the needle when the needle is pierced with the puncture object, That is, it means the intersection of the surface of the puncture object and the needle. The predicted needle tip position means the tip position of the needle in a state where the needle is punctured into the puncture target. Therefore, the predicted needle tip position is the needle tip position within the puncture object.

このような方法により、針の先端部分と針影の先端部分が一致した時は、針を穿刺する直前であり、その後、針を被穿刺物内に穿刺しても針の空間的角度は変化しないため、画像上の針の長さ(穿刺部分の長さと非穿刺部分との長さの和)も変化しない。このため、従来技術のように、穿刺機器(器具)における穿刺されない部分を、針の長さや先端位置を推定するための画像上の基準とする必要がない。   By such a method, when the tip of the needle coincides with the tip of the needle shadow, it is immediately before puncturing the needle, and the spatial angle of the needle changes even after the needle is punctured into the puncture object. Therefore, the length of the needle on the image (the sum of the length of the puncture portion and the length of the non-puncture portion) does not change. Therefore, unlike the prior art, it is not necessary to use a non-punctured portion of the puncture device (instrument) as a reference on the image for estimating the needle length and the tip position.

したがって、針先端予測位置を決定するために必要な他の基準物(例えば、上記目盛)を穿刺機器自身が備えている必要がなく、針を備えるどのような機器(器具)を使用した場合においても、針先端予測位置を推定することが可能になる。   Therefore, it is not necessary for the puncture device itself to have another reference (for example, the scale) necessary for determining the predicted needle tip position, and any device (instrument) having a needle is used. In addition, it is possible to estimate the predicted needle tip position.

この結果、例えば、注射器のように、人体に針を刺す場合において、この注射器の使用者が、常に針先端予測位置を把握することが可能になる。したがって、針を穿刺するときの正確性の向上や時間の短縮が図られ、被穿刺者(被穿刺物)側の負担を軽減することが可能になる。   As a result, for example, when a needle is inserted into a human body like a syringe, the user of this syringe can always grasp the predicted needle tip position. Accordingly, the accuracy and time required for puncturing the needle can be improved, and the burden on the puncture target (puncture target) can be reduced.

第13の発明に係る針先端位置推定方法は、第12の発明に係る針先端位置推定方法であって、上記第3ステップが、さらに、第5から第9ステップを有する。第5ステップは、第1ステップが取得した画像から、針影先端位置を含む針影情報を抽出する。第6ステップは、針先端位置と針影先端位置とが一致しているか否かを判断する。第7ステップは、第6ステップにおいて針先端位置と針影先端位置とが一致していると判断された場合、予めOFF状態で記憶されているフラグをON状態に更新する。第8ステップは、フラグがOFF状態からON状態に切り替わる時の針画像長を記憶する。第9ステップは、第8ステップにおいて記憶された針画像長に基づいて、フラグがON状態のときに前記針先端予測位置を算出する。   A needle tip position estimating method according to a thirteenth invention is the needle tip position estimating method according to the twelfth invention, wherein the third step further includes fifth to ninth steps. In the fifth step, needle shadow information including the needle shadow tip position is extracted from the image acquired in the first step. In the sixth step, it is determined whether or not the needle tip position matches the needle shadow tip position. In the seventh step, when it is determined in the sixth step that the needle tip position and the needle shadow tip position match, the flag stored in the OFF state in advance is updated to the ON state. The eighth step stores the needle image length when the flag is switched from the OFF state to the ON state. In the ninth step, the predicted needle tip position is calculated when the flag is ON based on the needle image length stored in the eighth step.

ここでは、針影先端位置を抽出し、この針影先端位置と針先端位置とが一致した時の針画像長に基づいて、フラグがON状態のときすなわち針が被穿刺物内に存在するとき、針先端予測位置を算出する。   Here, the needle shadow tip position is extracted, and when the flag is ON based on the needle image length when the needle shadow tip position and the needle tip position coincide, that is, when the needle is present in the puncture object. The predicted needle tip position is calculated.

これにより、針を被穿刺物に穿刺する直前の状態において取得された画像の針画像長が記憶される。ここで、針の3次元的な角度は、穿刺する直前と穿刺した後とではほとんど変化しない。しかし、針の先端を穿刺する箇所まで針を移動させている間は、針の角度が多様に変化する。そして、画像取得部が取得した画像は、2次元画像となるため、針の3次元的角度によって、画像中の針の長さ(針画像長)が変化すおそれがある。このため、針の長さを正確に把握することが困難である。これらのことから、針の先端と針影の先端とが一致する時の針画像長を記憶および利用することによって、穿刺後の針先端予測位置を正確に決定することが可能になる。
したがって、針が被穿刺物に穿刺され、針の先端が目視することができない状態であっても、針先端予測位置を決定することが可能になる。
Thereby, the needle image length of the image acquired immediately before puncturing the puncture object is stored. Here, the three-dimensional angle of the needle hardly changes between immediately before puncturing and after puncturing. However, while the needle is moved to the point where the tip of the needle is punctured, the angle of the needle changes variously. Since the image acquired by the image acquisition unit is a two-dimensional image, the length of the needle in the image (needle image length) may change depending on the three-dimensional angle of the needle. For this reason, it is difficult to accurately grasp the length of the needle. For these reasons, it is possible to accurately determine the predicted needle tip position after puncturing by storing and using the needle image length when the tip of the needle and the tip of the needle shadow coincide.
Therefore, the predicted needle tip position can be determined even when the needle is punctured into the puncture target and the tip of the needle cannot be seen.

第14の発明に係る針先端位置推定方法は、第12または第13の発明に係る針先端位置推定方法であって、第3ステップで決定した針先端予測位置を提示する第4ステップをさらに備える。   A needle tip position estimation method according to a fourteenth invention is the needle tip position estimation method according to the twelfth or thirteenth invention, further comprising a fourth step of presenting the predicted needle tip position determined in the third step. .

ここでは、針先端予測位置を含む情報を提示する。
ここで、第4ステップにおける提示とは、ディスプレイに表示することで提示するものであってもよく、また、用紙にプリントすることによって提示するものであってもよい。また、針先端予測位置に対し、別に取得した画像(例えば、近赤外光画像)などとを合成し、これらを同時に提示してもよい。
Here, information including the predicted needle tip position is presented.
Here, the presentation in the fourth step may be presented by being displayed on a display, or may be presented by printing on paper. Further, separately acquired images (for example, near-infrared light images) and the like may be combined with the predicted needle tip position and presented simultaneously.

これにより、使用者は、被穿刺物内に針を穿刺している間も、提示された情報に基づいて針の先端がどこに位置するかを確認しながら、針を穿刺することが可能になる。この結果、使用者の熟練度や技術力によらず、容易にかつ安定した穿刺作業を行うことが可能になる。   Accordingly, the user can puncture the needle while confirming where the tip of the needle is located based on the presented information while the needle is being punctured into the puncture object. . As a result, it is possible to easily and stably perform puncturing work regardless of the skill level and technical skill of the user.

第15の発明に係る針先端位置推定方法は、第14の発明に係る針先端位置推定方法であって、上記第3ステップで決定した針先端予測位置を表示装置によって表示する。
ここでは、針先端予測位置の提示を、表示装置を用いて行う。
A needle tip position estimation method according to a fifteenth aspect of the invention is the needle tip position estimation method according to the fourteenth aspect of the invention, and displays the predicted needle tip position determined in the third step on the display device.
Here, the predicted needle tip position is presented using a display device.

ここで、表示装置とは、上述のようにディスプレイであってもよく、液晶ディスプレイや有機ELディスプレイのような軽量薄型の表示装置であることが好ましい。また、上述したように、別に取得した画像(例えば、近赤外光画像)と針先端予測位置とを合成して表示することが望ましい。   Here, the display device may be a display as described above, and is preferably a lightweight and thin display device such as a liquid crystal display or an organic EL display. Further, as described above, it is desirable to synthesize and display a separately acquired image (for example, a near-infrared light image) and the predicted needle tip position.

これにより、表示装置を見ることで、常時、針先端予測位置を確認しながら、針を穿刺することが可能になる。
また、上述のように、軽量薄型のディスプレイであれば、携帯や設置(取り付け)も容易に行うことが可能になり、実施場所や用途を広げることができる。
As a result, by observing the display device, it is possible to puncture the needle while constantly checking the predicted needle tip position.
In addition, as described above, a lightweight and thin display can be easily carried and installed (attached), and the implementation place and applications can be expanded.

本発明の針先端位置推定装置および針先端位置推定方法によれば、どのような注射器であっても、生体内に位置して見えない針先端の位置を予測して血管などの生体情報とともに表示することが可能となる。   According to the needle tip position estimation device and the needle tip position estimation method of the present invention, the position of the needle tip that is invisible and visible in any living body is predicted and displayed together with biological information such as blood vessels. It becomes possible to do.

以下に、本発明の針先端位置推定装置、及び針先端位置推定方法の実施の形態を図面とともに詳細に説明する。なお、本実施形態においては、被穿刺物は、人間の腕(皮膚)とし、針は、一般的に用いられる注射針とし、当該針先端位置推定装置の使用者は、針を腕の中にある静脈に穿刺することを目的としているものとして説明する。   Hereinafter, embodiments of a needle tip position estimating apparatus and a needle tip position estimating method of the present invention will be described in detail with reference to the drawings. In the present embodiment, the puncture object is a human arm (skin), the needle is a commonly used injection needle, and the user of the needle tip position estimation device places the needle in the arm. It is assumed that the purpose is to puncture a certain vein.

(実施の形態)
本発明の一実施形態に係る針先端位置推定装置1について、図1から図11を用いて説明すれば以下の通りである。
[針先端位置推定装置1の構成]
本実施形態に係る針先端位置推定装置1は、図1に示すように、主として、装置固定部2、アーム部3、ヘッド部4、可視光LED(照明部)6、および、液晶ディスプレイ(表示部)9を備えている。
(Embodiment)
The needle tip position estimation device 1 according to an embodiment of the present invention will be described below with reference to FIGS.
[Configuration of Needle Tip Position Estimation Device 1]
As shown in FIG. 1, the needle tip position estimation device 1 according to the present embodiment mainly includes a device fixing unit 2, an arm unit 3, a head unit 4, a visible light LED (illumination unit) 6, and a liquid crystal display (display). Part) 9.

装置固定部2は、当該針先端位置推定装置1を、被穿刺物である患者の腕11に固定するために設けられたものであり、患者の腕11周りに巻き付けることが可能なベルト(図示しない)などを備えている。   The device fixing unit 2 is provided to fix the needle tip position estimating device 1 to the patient's arm 11 which is a puncture object, and is a belt (illustrated) that can be wound around the patient's arm 11. Not).

アーム部3は、装置固定部2とヘッド部4とを互いに固定し、また、ヘッド部4と腕11との距離を所定の距離に保つために設けられている。
可視光LED6は、アーム部3の一方の側面3aに備え付けられており、その照明方向は、後述する画像取得部5が有するCCDカメラが撮影する領域を照らす方向である。つまり、可視光LED6は、針12aが穿刺される領域に光を照射し、被穿刺物上に針11の影(針影)21を投影させる。
The arm part 3 is provided to fix the apparatus fixing part 2 and the head part 4 to each other and to keep the distance between the head part 4 and the arm 11 at a predetermined distance.
The visible light LED 6 is provided on one side surface 3 a of the arm unit 3, and the illumination direction thereof is a direction that illuminates an area captured by a CCD camera included in the image acquisition unit 5 described later. That is, the visible light LED 6 irradiates light to a region where the needle 12a is punctured, and projects the shadow (needle shadow) 21 of the needle 11 on the puncture target.

ヘッド部4は、図2に示すように、画像取得部5、血管位置検出部7および針先端位置推定部101を有している。
画像取得部5は、可視光及び近赤外光を撮像することが可能な、各画素の輝度を8ビットで表わす白黒輝度画像CCDカメラ(以下、CCDカメラ)(図示しない)を有する。このCCDカメラによって撮影された画像は、図3に示すように、近赤外画像701と可視光画像702として取得される。そして、近赤外画像701は、血管位置検出部7に送信され、可視光画像702は、針先端位置推定部101に送信される。また、このCCDカメラは、皮膚11aと、注射器12の針12aと、針影21と、を含む領域を撮影する。なお、可視光画像702には、針12aと針影21とを含む各像が映っており、可視光が照射されている一方の側面は比較的白く映り、他の一方の側面は比較的黒く映る。さらに、針影21は、皮膚11a上における針12aの可視光が照射される側とは反対側の領域に黒く映る。また、近赤外光画像701は、静脈11b部分が他の部分と比較して黒く映り、針12aなどの他の領域が比較的白く映る。
As shown in FIG. 2, the head unit 4 includes an image acquisition unit 5, a blood vessel position detection unit 7, and a needle tip position estimation unit 101.
The image acquisition unit 5 includes a black and white luminance image CCD camera (hereinafter, not shown) that can capture visible light and near infrared light and represents the luminance of each pixel in 8 bits. Images taken by this CCD camera are acquired as a near-infrared image 701 and a visible light image 702 as shown in FIG. The near-infrared image 701 is transmitted to the blood vessel position detection unit 7, and the visible light image 702 is transmitted to the needle tip position estimation unit 101. In addition, this CCD camera captures an area including the skin 11a, the needle 12a of the syringe 12, and the needle shadow 21. Note that each image including the needle 12a and the needle shadow 21 is shown in the visible light image 702, and one side surface irradiated with visible light appears relatively white and the other side surface is relatively black. Reflect. Furthermore, the needle shadow 21 appears black in a region on the skin 11a opposite to the side irradiated with the visible light of the needle 12a. In the near-infrared light image 701, the vein 11b portion appears black compared to other portions, and other regions such as the needle 12a appear relatively white.

血管位置検出部7は、画像取得部5が取得した近赤外画像701を受信し、この近赤外画像701から血管強調画像703を生成する(図3参照)。この血管強調画像703は、近赤外画像701から所定輝度よりも低い輝度領域を血管領域として検出し、この検出した領域をコントラスト強調して画像化したものである。これは、上述したような、画像取得部5が生成する近赤外画像701の特徴を利用したものである。   The blood vessel position detection unit 7 receives the near infrared image 701 acquired by the image acquisition unit 5, and generates a blood vessel emphasized image 703 from the near infrared image 701 (see FIG. 3). This blood vessel enhanced image 703 is obtained by detecting a luminance region lower than a predetermined luminance as a blood vessel region from the near-infrared image 701 and imaging the detected region with contrast enhancement. This utilizes the characteristics of the near-infrared image 701 generated by the image acquisition unit 5 as described above.

針先端位置推定部101は、図2に示すように、可視光画像702から皮下に位置する針12aの先端位置(針先端予測位置15)を推定し、この位置に生成矢印画像602のみが存在する針先端予測位置提示画像704(図3参照)を形成する。   As shown in FIG. 2, the needle tip position estimation unit 101 estimates the tip position (needle tip predicted position 15) of the needle 12a located subcutaneously from the visible light image 702, and only the generated arrow image 602 exists at this position. A predicted needle tip predicted position presentation image 704 (see FIG. 3) is formed.

液晶ディスプレイ9は、ヘッド部4の上側に設置されており、その一辺を回動軸として、所定角度まで回動可能に設置されている。そして、図3に示すように、液晶ディスプレイ9は、血管位置検出部7および針先端位置推定部101によって生成された画像を合成した合成画像705を表示する。   The liquid crystal display 9 is installed on the upper side of the head unit 4 and is installed so as to be rotatable to a predetermined angle with one side as a rotation axis. As shown in FIG. 3, the liquid crystal display 9 displays a composite image 705 obtained by combining the images generated by the blood vessel position detection unit 7 and the needle tip position estimation unit 101.

[針先端位置推定部101の構成]
次に、針先端位置推定部101の構成について、図4、図5および図6を用いて説明する。
[Configuration of Needle Tip Position Estimation Unit 101]
Next, the configuration of the needle tip position estimation unit 101 will be described with reference to FIGS. 4, 5, and 6.

針先端位置推定部101は、針情報抽出部102と、針影情報抽出部103と、針先端予測位置算出部107と、針画像長記憶部105と、一致検出部104と、フラグ記憶部106と、針の先端位置を提示する画像を形成する画像形成部108と、を有している。   The needle tip position estimation unit 101 includes a needle information extraction unit 102, a needle shadow information extraction unit 103, a needle tip predicted position calculation unit 107, a needle image length storage unit 105, a coincidence detection unit 104, and a flag storage unit 106. And an image forming unit 108 that forms an image presenting the tip position of the needle.

針情報抽出部102は、可視光画像702における針の形状を検出して、針12aの目視可能な部分の先端である針先端位置13、針12aの根元、すなわち針12aと注射器12との接点位置である針後端位置14、針12aの長さを示す針画像長Z、針12aの進行方向(針方向)を抽出する。なお、抽出されたこれらの情報は、画像上におけるものであって、例えば、針画像長Zは、実際の針12aの長さとは異なっている。また、針情報抽出部102は、針影21を探すための針12a周辺を示す第1領域31を決定する。   The needle information extraction unit 102 detects the shape of the needle in the visible light image 702, and the needle tip position 13, which is the tip of the visible portion of the needle 12a, the root of the needle 12a, that is, the contact point between the needle 12a and the syringe 12. The needle rear end position 14, which is the position, the needle image length Z indicating the length of the needle 12a, and the traveling direction (needle direction) of the needle 12a are extracted. The extracted information is on the image. For example, the needle image length Z is different from the actual length of the needle 12a. In addition, the needle information extraction unit 102 determines a first region 31 that indicates the vicinity of the needle 12 a for searching for the needle shadow 21.

針影情報抽出部103は、可視光画像702aにおける針12a周辺を示す第1領域31から針影21を検出し、針影21の先端位置である針影先端位置22を抽出する。
一致検出部104は、針先端位置13と針影先端位置22とが一致するか否かを常に判定しており、一致した場合は、針12aが腕11の皮膚11aに接触したと判断して一致信号を発信する。
The needle shadow information extraction unit 103 detects the needle shadow 21 from the first region 31 that indicates the vicinity of the needle 12a in the visible light image 702a, and extracts the needle shadow tip position 22 that is the tip position of the needle shadow 21.
The coincidence detection unit 104 always determines whether or not the needle tip position 13 and the needle shadow tip position 22 match. If they match, it is determined that the needle 12a is in contact with the skin 11a of the arm 11. Send a match signal.

フラグ記憶部106は、一致信号が発信されているか否かによってON/OFFが切り替わるフラグを記憶している。このフラグは、一致信号が発信されている場合は、ON状態になり、一致信号が発信されていない場合はOFF状態になる。したがって、初期状態において、このフラグはOFF状態になっている。   The flag storage unit 106 stores a flag for switching ON / OFF depending on whether or not a coincidence signal is transmitted. This flag is turned on when the coincidence signal is transmitted, and is turned off when the coincidence signal is not transmitted. Therefore, in the initial state, this flag is OFF.

針画像長記憶部105は、フラグがOFF状態からON状態に切り替わる時の針画像長Zを記憶する。
針先端予測位置算出部107は、針12aが腕11の皮下に刺さった状態において、すなわち一致信号が発信されフラグがON状態のときに、針画像長記憶部105に記憶された針画像長Z、針情報抽出部102が抽出する針後端位置14および針方向を元に、皮下に隠れて見えなくなっている針先端予測位置15を算出する。
The needle image length storage unit 105 stores the needle image length Z when the flag is switched from the OFF state to the ON state.
The predicted needle tip position calculation unit 107 has the needle image length Z stored in the needle image length storage unit 105 when the needle 12a is stuck under the arm 11, that is, when the coincidence signal is transmitted and the flag is ON. Based on the needle rear end position 14 and the needle direction extracted by the needle information extraction unit 102, the predicted needle tip position 15 that is hidden under the skin and is not visible is calculated.

画像形成部108は、フラグがOFF状態のとき、すなわち針12aがまだ腕11の皮膚11aに接触していない状態において、針情報抽出部102が抽出する針先端位置13と針方向とを元に針先端予測位置提示画像704を生成する。また、画像形成部108は、フラグがON状態のとき、針先端位置算出部107が算出する針先端予測位置15と針方向とを元に針先端予測位置提示画像704を生成する。   When the flag is OFF, that is, when the needle 12a is not yet in contact with the skin 11a of the arm 11, the image forming unit 108 is based on the needle tip position 13 and the needle direction extracted by the needle information extracting unit 102. A needle tip predicted position presentation image 704 is generated. Further, when the flag is ON, the image forming unit 108 generates a predicted needle tip position presentation image 704 based on the predicted needle tip position 15 and the needle direction calculated by the needle tip position calculator 107.

ここで、上記構成を有する針先端位置推定部101が行う処理の概要を、図5(a)から図5(d)を用いて説明すると以下の通りである。まず、図5(a)および図5(c)に示すように、針12aが皮膚11aに接触した瞬間に、針12aの先端位置と針影21との先端位置は一致する。この時、フラグはOFF状態からON状態に変化し、この時の針画像長Zが針画像長記憶部105に記憶される。その後、図5(b)および図5(d)に示すように、針12aは、皮下の静脈11bに向かって進む。このとき、針12aと皮膚11aのなす角度はほぼ変化せず、この時の皮下の針12a部分の画像長Xと見えている針12a部分の画像長Yとの和は、針画像長Zとほぼ等しい。このため、針12aの根元位置である針後端位置14から針12aの進行方向に向かって針画像長Zだけ先の位置を算出することで、皮下に隠れて見えていない針先端予測位置15を推定することが可能となる。   Here, the outline of the processing performed by the needle tip position estimation unit 101 having the above-described configuration will be described with reference to FIGS. 5A to 5D. First, as shown in FIGS. 5A and 5C, at the moment when the needle 12a contacts the skin 11a, the tip position of the needle 12a and the tip position of the needle shadow 21 coincide. At this time, the flag changes from the OFF state to the ON state, and the needle image length Z at this time is stored in the needle image length storage unit 105. Thereafter, as shown in FIGS. 5B and 5D, the needle 12a advances toward the subcutaneous vein 11b. At this time, the angle formed by the needle 12a and the skin 11a does not substantially change. At this time, the sum of the image length X of the subcutaneous needle 12a portion and the image length Y of the visible needle 12a portion is the needle image length Z. Almost equal. For this reason, by calculating the position ahead by the needle image length Z from the needle rear end position 14 which is the root position of the needle 12a toward the traveling direction of the needle 12a, the needle tip predicted position 15 which is hidden under the skin and is not visible. Can be estimated.

つまり、針先端位置推定部101は、フラグ記憶部106が記憶するフラグがOFF状態の場合には針12aが皮下に刺さっていない状態なので、可視光画像702aに映る針12aの先端である針先端位置13に基づいて針先端予測位置提示画像704を出力する。これに対し、フラグがON状態の場合には針12aが皮下に刺さっている状態なので、針後端位置14から針方向が示す方向に向かって針画像長記憶部105が記憶している針12a全体の長さを示す針画像長分だけ先の位置に針12aの先端が存在していることを利用して針先端予測位置15を算出し、この針先端予測位置15に基づいて針先端予測位置提示画像704を出力する。これにより、当該針先端位置推定装置1は、針先端予測位置提示画像704と血管強調画像703とを合成して、常に針12aの先端位置を血管強調画像703上に表示することができる。   That is, since the needle tip position estimation unit 101 is in a state where the needle 12a is not stabbed subcutaneously when the flag stored in the flag storage unit 106 is OFF, the needle tip which is the tip of the needle 12a reflected in the visible light image 702a. Based on the position 13, a needle tip predicted position presentation image 704 is output. On the other hand, when the flag is ON, the needle 12a is stuck under the skin, so the needle 12a stored in the needle image length storage unit 105 from the needle rear end position 14 toward the direction indicated by the needle direction. A predicted needle tip position 15 is calculated using the presence of the tip of the needle 12a at a position ahead by the needle image length indicating the entire length, and the predicted needle tip is calculated based on the predicted needle tip position 15. A position presentation image 704 is output. Accordingly, the needle tip position estimation apparatus 1 can always display the tip position of the needle 12a on the blood vessel emphasized image 703 by combining the needle tip predicted position presentation image 704 and the blood vessel emphasized image 703.

[針先端位置推定部101における各部の具体的処理]
以下に、針先端位置推定部101における各部の具体的処理について、図1から図11を用いて説明する。なお、ここでは、注射器12と腕11と当該針先端位置推定装置1との位置関係が図1に示した状態であるものとして、各部の処理を具体的に説明する。
[Specific Processing of Each Part in Needle Tip Position Estimation Unit 101]
Hereinafter, specific processing of each part in the needle tip position estimation unit 101 will be described with reference to FIGS. 1 to 11. Here, the processing of each unit will be specifically described on the assumption that the positional relationship among the syringe 12, the arm 11, and the needle tip position estimation device 1 is in the state shown in FIG.

(針情報抽出部102)
針情報抽出部102が行う具体的処理内容について、図6(a)、図6(b)、図7(a)、図7(b)を用いて説明する。なお、図6(a)および図6(b)に示す可視光画像702aにおける画素座標系は、紙面における左上を原点とし、左右方向に沿う方向をX軸、また、上下方向に沿う方向をY軸とする。また、X軸においては右方向、Y軸においては下方向を、それぞれ正方向とする。図1に示したように、腕11と当該針先端位置推定装置1の位置関係から、針12aは、およそY軸に平行に映り、また採血や点滴の際、注射針12aは、可視光画像702aの下側から上側に向かって挿入される。
(Needle information extraction unit 102)
Specific processing contents performed by the needle information extraction unit 102 will be described with reference to FIGS. 6A, 6B, 7A, and 7B. Note that the pixel coordinate system in the visible light image 702a shown in FIGS. 6A and 6B has an origin at the upper left in the drawing, the X direction in the horizontal direction, and the Y direction in the vertical direction. Axis. Further, the right direction on the X-axis and the downward direction on the Y-axis are the positive directions. As shown in FIG. 1, due to the positional relationship between the arm 11 and the needle tip position estimation device 1, the needle 12a appears to be approximately parallel to the Y-axis, and the syringe needle 12a is visible imaged during blood collection or infusion. It is inserted from the lower side to the upper side of 702a.

図6(a)は注射器12の針12aと針影21とが映った可視光画像702aであり、図6(b)は線分E1−E2を含むX軸に平行な直線上における輝度値を示したものである。この可視光画像は、横640画素、縦480画素で、各画素の画素値は8ビット表現であり、画素値が0は黒、255は白を表現する。図9に示すように、針12aを照明する可視光LED6は、針12aの側面から針12aに光を照射している。このため、可視光画像702aでは、針12aの可視光LED6側の側面は、皮膚11aよりも明るい白となり、針12aの可視光LED6と反対側の側面は、皮膚11aよりも暗い黒になっている。また同時に、可視光画像702aに映る針影21は皮膚11aに対して黒い線分として映っている。なお、図3に示すように、可視光画像は、可視光を腕11に照射して撮影された画像であるため、血管の像は映っていない。   6A is a visible light image 702a in which the needle 12a and the needle shadow 21 of the syringe 12 are reflected, and FIG. 6B shows the luminance value on a straight line parallel to the X axis including the line segment E1-E2. It is shown. This visible light image is 640 pixels wide and 480 pixels high, the pixel value of each pixel is 8-bit representation, the pixel value 0 represents black, and 255 represents white. As shown in FIG. 9, the visible light LED 6 that illuminates the needle 12a irradiates the needle 12a with light from the side surface of the needle 12a. Therefore, in the visible light image 702a, the side surface of the needle 12a on the visible light LED 6 side is brighter white than the skin 11a, and the side surface of the needle 12a opposite to the visible light LED 6 is darker than the skin 11a. Yes. At the same time, the needle shadow 21 shown in the visible light image 702a is shown as a black line segment on the skin 11a. As shown in FIG. 3, the visible light image is an image captured by irradiating the arm 11 with visible light, and thus does not show a blood vessel image.

針情報抽出部102は、図3の可視光画像702において、針12aの像の陰影(明暗)の度合いを抽出するための針抽出フィルタ32を、画像の左上の画素位置から順に走査する。すなわち、1画素ずつX軸方向に左から右へフィルタリングし、右端まできたら、Y軸正方向の次の画素ラインを左端から右へ1画素ずつフィルタリングする。そして、最終的に画像の右下端の画素までフィルタリングする。ここで、針抽出フィルタ32の走査すなわちフィルタリングとは、針抽出フィルタ32が持つ複数の係数とこれらの係数にそれぞれ対応する画素値との積和演算を行い、その積和値を新たな画素値とする画像処理である。このように、針抽出フィルタ32によってフィルタリングされた画像が針情報抽出画像となる。ただし、フィルタリングによって255以上の値が算出された場合はその値を強制的に255に変更し、0以下の値が算出された場合はその値を強制的に0に変更する。   The needle information extraction unit 102 sequentially scans the needle extraction filter 32 for extracting the degree of shading (brightness) of the image of the needle 12a from the upper left pixel position in the visible light image 702 of FIG. That is, pixel by pixel is filtered from left to right in the X-axis direction, and when the pixel reaches the right end, the next pixel line in the positive Y-axis direction is filtered pixel by pixel from the left end to the right. Finally, filtering is performed up to the pixel at the lower right corner of the image. Here, the scanning of the needle extraction filter 32, that is, filtering, performs a product-sum operation on a plurality of coefficients of the needle extraction filter 32 and pixel values corresponding to these coefficients, and the product-sum value is converted into a new pixel value. Image processing. Thus, the image filtered by the needle extraction filter 32 becomes a needle information extraction image. However, when a value of 255 or more is calculated by filtering, the value is forcibly changed to 255, and when a value of 0 or less is calculated, the value is forcibly changed to 0.

ここでは、図7(a)に示すように、針12aの右側から照射される光によって、腕11表面の輝度値が30〜40程度のとき、針12aの右側面は輝度値が80程度と明るく、針12aの左側面は輝度値が0近辺で暗い。ここで、針影21の像の幅に比べて針12aの像は狭くなり、本実施形態においては5画素程度である。このため、本実施形態における針情報を抽出するために好適な針抽出フィルタ32は、図7(b)に示すように、係数が「−1、−2、0、2、1」で構成されている。   Here, as shown in FIG. 7A, when the luminance value of the surface of the arm 11 is about 30 to 40 by the light irradiated from the right side of the needle 12a, the luminance value of the right side surface of the needle 12a is about 80. It is bright and the left side surface of the needle 12a is dark when the luminance value is near zero. Here, the image of the needle 12a is narrower than the width of the image of the needle shadow 21, which is about 5 pixels in this embodiment. For this reason, the needle extraction filter 32 suitable for extracting needle information in the present embodiment is configured with coefficients of “−1, −2, 0, 2, 1” as shown in FIG. ing.

上記フィルタによって生成した針情報抽出画像は、背景は輝度値0近辺で暗く、針12aの部分が輝度値200程度の明るい白となり、針影21の境界や注射器12の側面の一部が輝度値80〜90程度と薄白くなる。この針情報抽出画像に対して第1閾値(ここでは、輝度値150)で二値化した第1二値化画像を生成する。この第1二値化画像は、針情報抽出画像において、第1閾値未満の画素値を0とし、第1閾値以上の画素値を1とする画像処理を施した画像である。   In the needle information extraction image generated by the filter, the background is dark around the brightness value of 0, the needle 12a is bright white with a brightness value of about 200, and the boundary of the needle shadow 21 and a part of the side surface of the syringe 12 are brightness values. It becomes as pale as 80-90. A first binarized image is generated by binarizing the needle information extracted image with a first threshold (here, luminance value 150). The first binarized image is an image that has been subjected to image processing in which a pixel value less than the first threshold is set to 0 and a pixel value greater than or equal to the first threshold is set to 1 in the needle information extraction image.

なお、本実施形態では、第1閾値は、針情報抽出画像において、最大輝度値の画素から低い輝度値の画素に向かって総画素数の10%の画素数だけ数えた画素の輝度値を採用する。ここで、総画素数の10%は、可視光画像702に占める針12aの面積率に相当し、画像取得部5の撮影時の倍率に依存して予め決まっているものである。   In the present embodiment, the first threshold value is a luminance value of pixels counted by 10% of the total number of pixels from the pixel with the highest luminance value toward the pixel with the lower luminance value in the needle information extraction image. To do. Here, 10% of the total number of pixels corresponds to the area ratio of the needle 12a in the visible light image 702, and is determined in advance depending on the magnification at the time of photographing by the image acquisition unit 5.

そして、針情報抽出部102は、第1二値化画像において、最小二乗法を用いて、画素値が1の画素を線分化し、生成された線分に含まれる画素が針12aを示す画素とする。そして、この画素の画素値を1、その他の画素の画素値を0として二値化された画像を針細線画像として生成する。   Then, the needle information extraction unit 102 linearizes the pixel having the pixel value of 1 in the first binarized image using the least square method, and the pixel included in the generated line segment indicates the needle 12a. And Then, a binarized image is generated as a needle thin line image with the pixel value of this pixel being 1 and the pixel values of other pixels being 0.

そして、この針細線画像を左上画素から右下画素まで走査して、最初に「1」の値を有する画素が、針12a先端を示す画素と判断し、この画素位置を針先端位置13とする。また、この針細線画像を右下画素から左上画素まで(すなわち、上記走査とは反対方向に)走査して最初に「1」の値を持つ画素を針12aの根元(針後端)を示す画素と判断し、この画素位置を針後端位置14とする。   Then, the needle thin line image is scanned from the upper left pixel to the lower right pixel, and a pixel having a value of “1” is first determined to be a pixel indicating the tip of the needle 12a, and this pixel position is set as the needle tip position 13. . Further, this needle thin line image is scanned from the lower right pixel to the upper left pixel (that is, in the direction opposite to the above scanning), and the pixel having the value of “1” first indicates the root of the needle 12a (the needle rear end). The pixel position is determined, and this pixel position is set as the needle rear end position 14.

続いて、針情報抽出部102は、図9に示すように、抽出した針先端位置13を画素座標(HSX,HSY)、針後端位置を画素座標(HKX,HKY)とする。そして、針画像長Zは、(HKX−HSX)の二乗と(HKY−HSY)の二乗との和の平方根となる。また、針方向として、針進行方向のX成分VX=HSX−HKXと、Y成分VY=HSY−HKYとを求める。また、針12a周辺を示す第1領域31として、図6(A1)において点線で示すように、針先端位置13と針後端位置14とのそれぞれ1画素左側の画素を含んで、針12aをはさんで可視光源とは反対側の領域に所定サイズの矩形領域(第1領域31)を準備する。   Subsequently, as illustrated in FIG. 9, the needle information extraction unit 102 sets the extracted needle tip position 13 as pixel coordinates (HSX, HSY) and the needle rear end position as pixel coordinates (HKX, HKY). The needle image length Z is the square root of the sum of the square of (HKX−HSX) and the square of (HKY−HSY). Further, as the needle direction, an X component VX = HSX−HKX and a Y component VY = HSY−HKY in the needle traveling direction are obtained. Further, as shown in FIG. 6 (A1) as a first area 31 that indicates the periphery of the needle 12a, the needle 12a includes the pixels on the left side of the needle tip position 13 and the needle rear end position 14, respectively. A rectangular region (first region 31) of a predetermined size is prepared in a region opposite to the visible light source.

このように、上記第1領域31に針12aの像を含まないようにすると、後述の針影情報抽出部103の処理において、針12aの像を針影21として誤検出することを防ぐことが可能になる。例えば、針12aの像の画素幅が予め5画素であるとわかっている場合は、図6(a)における第1領域31の右辺は、針細線画像における画素値が1の画素から3画素左の画素で構成する。   As described above, if the first region 31 does not include the image of the needle 12a, it is possible to prevent erroneous detection of the image of the needle 12a as the needle shadow 21 in the processing of the needle shadow information extraction unit 103 described later. It becomes possible. For example, when it is known that the pixel width of the image of the needle 12a is 5 pixels in advance, the right side of the first region 31 in FIG. 6A is 3 pixels left from the pixel having the pixel value 1 in the needle thin line image. It consists of the pixel of.

(針影情報抽出部103)
針影情報抽出部103が行う具体的処理内容について、図6(c)および図6(d)を用いて、以下で説明する。なお、図6(d)は線分E3−E1を含む直線上における輝度値を示したものである。
(Needle shadow information extraction unit 103)
Specific processing contents performed by the needle shadow information extraction unit 103 will be described below with reference to FIGS. 6C and 6D. FIG. 6D shows luminance values on a straight line including the line segment E3-E1.

針影情報抽出部103は、可視光画像の針12a周辺を示す第1領域31において、線分E3−E1領域内の画素に対して第2閾値(TH1)で二値化した第2二値化画像を生成する(図6(c)参照)。具体的には、まず、針影情報抽出部103は、線分E3−E1領域に重なる画素(画素群)を特定する。そして、この画素群の平均輝度値を求め、この平均輝度値を第2閾値とする。したがって、第2閾値は、線分E3−E1領域に重なる画素の輝度値に基づくため、線分E3−E1を走査することによって変化する値である。次に、この針影情報抽出部103は、これらの画素の画素値の中に、第2閾値より低い画素値を有する画素が存在するか否かを判断する。そして針影情報抽出部103は、第2閾値より低い画素値を有する画素が存在する場合は、線分E3−E1領域内に針影21が存在すると判断し、線分E3−E1に重なる画素の中心に位置する画素の画素値を1とする。一方、針影情報抽出部103は、線分E3−E1領域内の画素に第2閾値より低い画素値を有する画素が存在しない場合は、画素値を0とする。この処理を、左上画素から順に走査する(1画素ずつ水平方向に左から右へずらし、右端まできたら次のラインの左端から同様に右へ1画素ずつずらし、最終的に画像の右下端までずらしていく)ことによって、第2二値化画像が生成される。なお、線分E3−E1の長さは、予め撮像して既知である可視光画像における針影21の幅の2倍の画素数程度とする。   The needle shadow information extraction unit 103 uses the second threshold value (TH1) binarized with respect to the pixels in the line segment E3-E1 area in the first area 31 indicating the periphery of the needle 12a of the visible light image. A converted image is generated (see FIG. 6C). Specifically, the needle shadow information extraction unit 103 first identifies pixels (pixel groups) that overlap the line segment E3-E1 region. Then, an average luminance value of this pixel group is obtained, and this average luminance value is set as the second threshold value. Therefore, since the second threshold value is based on the luminance value of the pixel overlapping the line segment E3-E1 region, the second threshold value is a value that changes by scanning the line segment E3-E1. Next, the needle shadow information extraction unit 103 determines whether or not there is a pixel having a pixel value lower than the second threshold among the pixel values of these pixels. Then, when there is a pixel having a pixel value lower than the second threshold, the needle shadow information extraction unit 103 determines that the needle shadow 21 exists in the line segment E3-E1 region, and the pixel overlaps the line segment E3-E1. Let the pixel value of the pixel located at the center of 1 be 1. On the other hand, the needle shadow information extraction unit 103 sets the pixel value to 0 when there is no pixel having a pixel value lower than the second threshold among the pixels in the line segment E3-E1 region. This process is performed in order from the upper left pixel (shift one pixel at a time horizontally from left to right, and once it reaches the right end, it is similarly shifted one pixel from the left end of the next line to the right, and finally to the lower right end of the image. The second binarized image is generated. Note that the length of the line segment E3-E1 is about twice the number of pixels as the width of the needle shadow 21 in a known visible light image obtained by imaging in advance.

続いて、針影情報抽出部103は、第3二値化画像を生成する。具体的には、針影情報抽出部103は、第2二値化画像のX軸方向に沿った各画素ラインにおいて左から走査した場合に、最初に検知する画素値が1の画素を左端画素とし、同時に、右から走査して最初に検知する画素値が1の画素を右端画素とする。そして、左端画素と右端画素とが両方検知された画素ラインにおいて、左端画素と右端画素との中心に位置する画素を針影幅の中心画素と判断し、この画素の画素値を1とし、その他の画素の画素値を0とする。このようにして針影情報抽出部103は、画素値が1と0とで構成される第3二値化画像を生成する。   Subsequently, the needle shadow information extraction unit 103 generates a third binarized image. Specifically, the needle shadow information extraction unit 103 detects a pixel whose pixel value is first detected as a leftmost pixel when scanning from the left in each pixel line along the X-axis direction of the second binarized image. At the same time, a pixel having a pixel value of 1 detected first by scanning from the right is set as a right end pixel. Then, in the pixel line in which both the left end pixel and the right end pixel are detected, the pixel located at the center of the left end pixel and the right end pixel is determined as the center pixel of the needle shadow width, and the pixel value of this pixel is set to 1. The pixel value of this pixel is set to 0. In this manner, the needle shadow information extraction unit 103 generates a third binarized image having pixel values of 1 and 0.

続いて、針影情報抽出部103は、最小二乗法を用いて第3二値化画像における画素値1の画素を線分化する。針影情報抽出部103は、この線分を、針影21を示す線分とし、この線分を構成する画素を1、それ以外の画素を0として二値化された針影細線画像を生成する。そして、針影情報抽出部103は、この針影細線画像における針12a周辺を示す第1領域31において、左上画素から右下画素までX軸方向に沿って走査し、最初に「1」の値を持つ画素を針影21の先端と判断し、針影先端位置22とする。   Subsequently, the needle shadow information extraction unit 103 line-divides the pixel having the pixel value 1 in the third binarized image using the least square method. The needle shadow information extraction unit 103 generates a binarized needle shadow thin line image by setting this line segment as a line segment indicating the needle shadow 21 and setting the pixels constituting this line segment to 1 and the other pixels to 0. To do. Then, the needle shadow information extraction unit 103 scans along the X-axis direction from the upper left pixel to the lower right pixel in the first region 31 that indicates the periphery of the needle 12a in the needle shadow thin line image, and first has a value of “1”. Is determined as the tip of the needle shadow 21 and is defined as the needle shadow tip position 22.

(一致検出部104)
次に、一致検出部104の具体的処理内容について、図8を用いて以下で説明する。
一致検出部104は、針先端位置13と針影先端位置22との一致範囲として針先端位置13を中心とした第2領域33を生成し、この第2領域33に針影先端位置22が存在する場合、針先端位置13と針影先端位置22とが一致したと判断して一致信号を発信する。具体的には、図5に示すように、第2領域33として針先端位置13(図8内の黒丸)を中心とする5×5の画素領域を上記一致範囲とする。ここでは、一致検出部104は、針影21の先端画素(図8内の白丸)が5×5の画素領域に含まれているので針先端位置13と針影先端位置22とが一致したと判断し、つまり針12a先が皮膚11aに接触したと判断して一致信号を発信する。ここで、一致範囲である第2領域33を5×5画素と大きめにしているのは、針先端位置13及び針影先端位置22に対し、数画素程度の誤差を許容しているためである。
(Coincidence detection unit 104)
Next, specific processing contents of the coincidence detection unit 104 will be described below with reference to FIG.
The coincidence detection unit 104 generates a second region 33 centered on the needle tip position 13 as a coincidence range between the needle tip position 13 and the needle shadow tip position 22, and the needle shadow tip position 22 exists in the second region 33. When it does, it judges that needle tip position 13 and needle shadow tip position 22 matched, and transmits a coincidence signal. Specifically, as shown in FIG. 5, a 5 × 5 pixel region centered on the needle tip position 13 (black circle in FIG. 8) is set as the second region 33 as the matching range. Here, the coincidence detection unit 104 determines that the needle tip position 13 and the needle shadow tip position 22 match because the tip pixel (white circle in FIG. 8) of the needle shadow 21 is included in the 5 × 5 pixel region. Determination is made, that is, it is determined that the tip of the needle 12a has contacted the skin 11a, and a coincidence signal is transmitted. Here, the reason why the second region 33 that is the coincidence range is made as large as 5 × 5 pixels is that an error of about several pixels is allowed with respect to the needle tip position 13 and the needle shadow tip position 22. .

(針先端予測位置算出部107)
次に、針先端予測位置算出部107の具体的処理内容について、図9を用いて以下で説明する。なお、ここでの座標系は、紙面に向かって上方向がY軸の正方向、右方向がX軸の正方向とする。また、X軸正方向から反時計回り方向の角度をθとする。
(Needle tip predicted position calculation unit 107)
Next, specific processing contents of the predicted needle tip position calculation unit 107 will be described below with reference to FIG. In the coordinate system here, the upward direction toward the paper surface is the positive direction of the Y axis, and the right direction is the positive direction of the X axis. In addition, an angle in the counterclockwise direction from the positive X-axis direction is θ.

点Eは、可視光画像から抽出した針後端位置14(HKX,HKY)である。点Fは、可視光画像から抽出した針先端位置13(HSX,HSY)である。点Pは、針先端予測位置算出部107が算出する針先端予測位置15(LPX,LPY)である。針先端予測位置算出部107は、上記針方向のX成分VXおよびY成分VYから、sinθ=VY/FE、cosθ=VX/FEを求める。そして、線分EPの画像長Zであることを用いて、LPX=HKX+Z・cosθ、LPY=HKY+Z・sinθとして、針先端予測位置15Pを算出する。ただし、図6(a)および図6(c)における座標系では、Y軸の正負が反対であるため、図9と同様に角度θをX軸正方向から反時計回りの角度とすると、LPY=HKY−Z・sinθとなる。   Point E is the needle rear end position 14 (HKX, HKY) extracted from the visible light image. Point F is the needle tip position 13 (HSX, HSY) extracted from the visible light image. Point P is the predicted needle tip position 15 (LPX, LPY) calculated by the predicted needle tip position calculation unit 107. The predicted needle tip position calculation unit 107 calculates sin θ = VY / FE and cos θ = VX / FE from the X component VX and the Y component VY in the needle direction. Then, using the image length Z of the line segment EP, the predicted needle tip position 15P is calculated as LPX = HKX + Z · cos θ and LPY = HKY + Z · sin θ. However, in the coordinate systems in FIGS. 6A and 6C, since the positive and negative of the Y axis are opposite, if the angle θ is counterclockwise from the X axis positive direction as in FIG. = HKY-Z · sin θ.

(画像形成部108)
次に、画像形成部108の具体的処理について、図10(a)および図10(b)を用いて、以下で説明する。
(Image forming unit 108)
Next, specific processing of the image forming unit 108 will be described below with reference to FIGS. 10 (a) and 10 (b).

画像形成部108は、初期矢印画像601として、図10(a)に示すように、横7画素、縦9画素で構成されるカーソルをあらかじめ記憶保持している。このカーソルは、黒い画素が「1」、白い画素が「0」の2値ビットマップによって矢印模様を構成したものである。   As shown in FIG. 10A, the image forming unit 108 stores and holds in advance a cursor composed of 7 pixels horizontally and 9 pixels vertically as an initial arrow image 601. This cursor has an arrow pattern formed by a binary bitmap in which black pixels are “1” and white pixels are “0”.

画像形成部108は、フラグがOFFの時は、初期矢印画像601の矢印先端の画素位置を可視光画像上の針先端位置13に一致させる。そして、Y軸に対し角度φだけ回転させて、針方向と矢印が指す方向とを一致させた生成矢印画像602を生成する。また、画像形成部108は、フラグがONの時は、初期矢印画像601の矢印先端の画素位置を可視光画像上の針先端予測位置15に一致させる。そして、Y軸に対し角度φだけ回転させて、針方向と矢印が指す方向とを一致させた生成矢印画像602を生成する。なお、角度φは、Y軸の正方向を角度ゼロとし、反時計回り方向に角度が増加するものとする。このため、図9に示した角度θとの関係は、φ=θ−90°となる。   When the flag is OFF, the image forming unit 108 matches the pixel position of the arrow tip of the initial arrow image 601 with the needle tip position 13 on the visible light image. Then, the generated arrow image 602 in which the needle direction and the direction indicated by the arrow coincide is generated by rotating the Y axis by an angle φ. Further, when the flag is ON, the image forming unit 108 matches the pixel position of the arrow tip of the initial arrow image 601 with the predicted needle tip position 15 on the visible light image. Then, the generated arrow image 602 in which the needle direction and the direction indicated by the arrow coincide is generated by rotating the Y axis by an angle φ. The angle φ is assumed to be zero in the positive direction of the Y axis and increase in the counterclockwise direction. Therefore, the relationship with the angle θ shown in FIG. 9 is φ = θ−90 °.

ここで、初期矢印画像601の回転処理は、一般的に用いられている2次元のアフィン変換を用いて行う。回転の中心はカーソル内の矢印先端位置である。本実施形態におけるアフィン変換は、変換前の座標を(x,y)、変換後の座標を(x’,y’)、反時計回りの回転角度をφとした場合、x’=x・cosφ+y・sinφ、y’=−x・sinφ+y・cosφとなる。つまり、初期矢印画像601における矢印先端位置を(LPX,LPY)とすると、座標系のY軸が逆なので、最終的な画素座標(x”,y”)は、x”=LPX+x’、y”=LPY−y’となる。   Here, the rotation process of the initial arrow image 601 is performed using a generally used two-dimensional affine transformation. The center of rotation is the position of the arrow tip in the cursor. In the affine transformation in the present embodiment, x ′ = x · cos φ + y, where (x, y) is a coordinate before transformation, (x ′, y ′) is a coordinate after transformation, and φ is a counterclockwise rotation angle. Sinφ, y ′ = − x · sinφ + y · cosφ. That is, if the arrow tip position in the initial arrow image 601 is (LPX, LPY), the Y axis of the coordinate system is reversed, so the final pixel coordinates (x ″, y ″) are x ″ = LPX + x ′, y ″. = LPY−y ′.

[針先端位置推定装置1における処理]
次に、当該針先端位置推定装置1が行う処理を、図11に示すフローチャートを用いて、以下で説明する。
[Processing in Needle Tip Position Estimation Device 1]
Next, the processing performed by the needle tip position estimation apparatus 1 will be described below using the flowchart shown in FIG.

ステップS1(第1ステップ)では、可視光LED6が、針12aに対し可視光を照射する。なお、可視光は、画像取得部5が可視光画像を取得し終わるまで照射される。
ステップS2(第2ステップ)では、画像取得部5が、針12aと、針影21と、皮膚11aとを含む可視光画像を取得する。
In step S1 (first step), the visible light LED 6 irradiates the needle 12a with visible light. In addition, visible light is irradiated until the image acquisition part 5 finishes acquiring a visible light image.
In step S2 (second step), the image acquisition unit 5 acquires a visible light image including the needle 12a, the needle shadow 21, and the skin 11a.

ステップS3では、ステップS2において取得した画像から、針情報抽出部102が、針情報を抽出する。
ステップS4(第5ステップ)では、ステップS2において取得した画像から、針影情報抽出部103が、針影情報を抽出する。
In step S3, the needle information extraction unit 102 extracts needle information from the image acquired in step S2.
In step S4 (fifth step), the needle shadow information extraction unit 103 extracts the needle shadow information from the image acquired in step S2.

ステップS5では、液晶ディスプレイ9で針先端位置13を表示する。
ステップS6(第6ステップ)では、一致検出部104が、針先端位置13と針影先端位置22とが一致しているか否かを判断する。ここで、一致していないと判断した場合は、ステップS1に戻る。すなわち、針12aの先端が皮膚11aに触れるまでは、ステップS1〜ステップS6までの処理を繰り返し行い、その間、液晶ディスプレイ9には、可視光画像が常に表示されることになる。一方、一致していると判断した場合は、ステップS7に移行する。
In step S5, the needle tip position 13 is displayed on the liquid crystal display 9.
In step S6 (sixth step), the coincidence detection unit 104 determines whether or not the needle tip position 13 and the needle shadow tip position 22 match. If it is determined that they do not match, the process returns to step S1. That is, until the tip of the needle 12a touches the skin 11a, the processes from step S1 to step S6 are repeated, and a visible light image is always displayed on the liquid crystal display 9 during that time. On the other hand, if it is determined that they match, the process proceeds to step S7.

ステップS7では、一致検出部104が、針先端位置13と針影先端位置22とが一致していると判断し、一致信号を発信する。
ステップS8(第7ステップ)では、発信された一致信号を受信して、フラグ記憶部106が、フラグをOFF状態からON状態に更新する。
In step S7, the coincidence detection unit 104 determines that the needle tip position 13 and the needle shadow tip position 22 coincide with each other, and transmits a coincidence signal.
In step S8 (seventh step), the transmitted coincidence signal is received, and the flag storage unit 106 updates the flag from the OFF state to the ON state.

ステップS9(第8ステップ)では、針画像長記憶部105が、ステップS8においてフラグがOFF状態からON状態に更新された時の針画像長を記憶する。
ステップS10(第9ステップ)では、針先端予測位置算出部107が、ステップS9で記憶した針画像長Zと、ステップS3で抽出した針情報(針後端位置14および針方向)と、を用いて、針先端予測位置15を算出する。
In step S9 (eighth step), the needle image length storage unit 105 stores the needle image length when the flag is updated from the OFF state to the ON state in step S8.
In step S10 (9th step), the predicted needle tip position calculation unit 107 uses the needle image length Z stored in step S9 and the needle information (needle rear end position 14 and needle direction) extracted in step S3. Thus, the predicted needle tip position 15 is calculated.

ステップS11では、画像形成部108が、矢印を針先端予測位置15に提示した針先端予測位置提示画像704を形成する。
すなわち、ステップS4からステップS10までの処理において、針先端位置推定装置1は、ステップS2において取得した画像と、この画像における針先端位置13と針影先端位置22とが一致したときの上記画像上の針の長さを示す針画像長Zを含む針情報と、に基づいて、針12aが皮膚11aに穿刺されているときの針先端予測位置15を算出する(第3ステップ)。
In step S <b> 11, the image forming unit 108 forms a predicted needle tip position presentation image 704 in which an arrow is presented at the predicted needle tip position 15.
That is, in the processing from step S4 to step S10, the needle tip position estimation device 1 displays the image acquired in step S2 on the above image when the needle tip position 13 and the needle shadow tip position 22 in this image match. Based on the needle information including the needle image length Z indicating the length of the needle, the predicted needle tip position 15 when the needle 12a is punctured into the skin 11a is calculated (third step).

ステップS12(第4ステップ)では、血管位置検出部7がこの時に取得した血管強調画像703と、針先端予測位置提示画像704と、を合成して表示する。
ステップS17では、一致検出部104が、針先端位置13と針影先端位置22とが一致しているか否かを判断する。ここで、一致していると判断した場合は、ステップS10に戻る。すなわち、針12aが皮膚11aに穿刺されている状態では、ステップS10〜ステップS17までの処理を繰り返し行い、その間、液晶ディスプレイ9には、針先端予測位置15が表示されることになる。一方、一致していないと判断した場合は、ステップS18に移行する。
In step S12 (fourth step), the blood vessel position detection unit 7 synthesizes and displays the blood vessel emphasized image 703 acquired at this time and the needle tip predicted position presentation image 704.
In step S <b> 17, the coincidence detection unit 104 determines whether or not the needle tip position 13 and the needle shadow tip position 22 match. Here, if it is determined that they match, the process returns to step S10. That is, in the state where the needle 12a is punctured into the skin 11a, the processing from step S10 to step S17 is repeated, and during that time, the predicted needle tip position 15 is displayed on the liquid crystal display 9. On the other hand, if it is determined that they do not match, the process proceeds to step S18.

ステップS18では、一致検出部104が、一致信号の発信を停止する。すなわち、この状態では、針12aが皮膚11aから離れた(抜かれた)状態である。
ステップS19では、フラグ記憶部106が、フラグをON状態からOFF状態に更新する。
なお、本実施形態の針先端位置推定装置1におけるステップS1〜S19は、電源がOFF状態になるまで繰り返され、およそ1秒間に20回繰り返すことが可能である。
In step S18, the coincidence detection unit 104 stops sending the coincidence signal. That is, in this state, the needle 12a is in a state of being separated (removed) from the skin 11a.
In step S19, the flag storage unit 106 updates the flag from the ON state to the OFF state.
Note that steps S1 to S19 in the needle tip position estimation apparatus 1 of the present embodiment are repeated until the power is turned off, and can be repeated approximately 20 times per second.

[針先端位置推定装置1の特徴]
(1)
本実施形態における針先端位置推定装置1は、図1および図4に示すように、可視光LED6と、画像取得部5と、針先端位置推定部101と、を備えている。可視光LED6は、針12aに対して光を照射する。画像取得部5は、針12aと、この針12aが穿刺される腕11の皮膚11a(被穿刺物)と、可視光LED6によって照明された針12aの皮膚11aに投影される針影21と、を含む画像を撮影および取得する。針先端位置推定部101は、画像取得部5が取得した画像と、針情報と、に基づいて、腕11に穿刺されているときの針先端予測位置15を算出する。針情報は、画像取得部5が取得した画像における針先端位置13と針影先端位置22とが一致した時の画像上の針12aの長さを示す針画像長Zを含む。
[Features of Needle Tip Position Estimation Device 1]
(1)
As shown in FIGS. 1 and 4, the needle tip position estimation device 1 according to the present embodiment includes a visible light LED 6, an image acquisition unit 5, and a needle tip position estimation unit 101. The visible light LED 6 irradiates light to the needle 12a. The image acquisition unit 5 includes a needle 12a, a skin 11a (an object to be punctured) of an arm 11 into which the needle 12a is punctured, a needle shadow 21 projected onto the skin 11a of the needle 12a illuminated by the visible light LED 6, Take and acquire images containing The needle tip position estimation unit 101 calculates the predicted needle tip position 15 when the arm 11 is punctured based on the image acquired by the image acquisition unit 5 and the needle information. The needle information includes a needle image length Z indicating the length of the needle 12a on the image when the needle tip position 13 and the needle shadow tip position 22 in the image acquired by the image acquisition unit 5 coincide.

これにより、針12aの先端部分と針影21の先端部分が一致した時は、針12aを穿刺する直前であり、その後、針12aを腕11に穿刺しても針12aの空間的角度は変化しないため、画像上の針12aの長さ(穿刺部分の長さXと非穿刺部分との長さYの和)が変化することがない。このため、従来技術のように、穿刺機器(器具)における非穿刺部分を、針12aの長さや先端位置を推定するための画像上の基準とする必要がない。   As a result, when the distal end portion of the needle 12a and the distal end portion of the needle shadow 21 coincide with each other, immediately before the needle 12a is punctured, the spatial angle of the needle 12a changes even if the needle 12a is punctured into the arm 11 thereafter. Therefore, the length of the needle 12a on the image (the sum of the length X of the puncture portion and the length Y of the non-puncture portion) does not change. For this reason, unlike the prior art, it is not necessary to use the non-puncture portion in the puncture device (instrument) as an image reference for estimating the length and tip position of the needle 12a.

したがって、針先端予測位置15を決定するために必要な他の基準物(例えば、注射器の表面に記されている目盛)を穿刺機器自身が備えている必要がなく、針12aを備えるどのような機器(器具)を使用した場合においても、針先端予測位置15を推定することが可能になる。   Therefore, the puncture device itself does not need to be provided with another reference material (for example, a scale marked on the surface of the syringe) necessary for determining the predicted needle tip position 15, and what is provided with the needle 12 a Even when a device (instrument) is used, the predicted needle tip position 15 can be estimated.

この結果、例えば、注射器12のような、人体に針12aを刺す場合において、この注射器12の使用者が、常に針先端予測位置15を把握することが可能になる。したがって、針12aを穿刺するときの正確性の向上や時間の短縮が図られ、被穿刺者(被穿刺物)側の負担を軽減することが可能になる。   As a result, for example, when the needle 12a is inserted into the human body such as the syringe 12, the user of the syringe 12 can always grasp the predicted needle tip position 15. Therefore, the accuracy and time required for puncturing the needle 12a can be improved, and the burden on the puncture target (puncture target) can be reduced.

(2)
本実施形態における針先端位置推定装置1は、図1に示すように、使用者に針先端予測位置15を提示するための液晶ディスプレイ9をさらに備える。
(2)
As shown in FIG. 1, the needle tip position estimation device 1 in the present embodiment further includes a liquid crystal display 9 for presenting a predicted needle tip position 15 to the user.

これにより、使用者は、皮膚11aに針12aを穿刺している間も、針12aの先端がどこに位置するかを、常時確認しながら針12aを穿刺することが可能になる。この結果、使用者の熟練度や技術力によらず、容易にかつ安定した穿刺作業を行うことが可能になる。   Thus, the user can puncture the needle 12a while constantly checking where the tip of the needle 12a is located while puncturing the needle 12a in the skin 11a. As a result, it is possible to easily and stably perform puncturing work regardless of the skill level and technical skill of the user.

(3)
本実施形態における針先端位置推定装置1は、図4に示すように、針情報抽出部102が可視光画像702aから抽出した針情報に基づいて、針先端予測位置算出部107が、針先端予測位置15を算出する。
(3)
As shown in FIG. 4, in the needle tip position estimation apparatus 1 according to the present embodiment, the needle tip predicted position calculation unit 107 has a needle tip prediction based on the needle information extracted from the visible light image 702a by the needle information extraction unit 102. The position 15 is calculated.

これにより、針12aを穿刺する前に、画像取得部5が、少なくとも針12a全体を取得可能な位置から画像を取得することによって、針12aの位置が変化しても、常に自動的に針先端位置13および針先端予測位置15を推定することが可能になる。
この結果、針12aを穿刺するときの正確性がさらに向上するため、微細な被穿刺物に対しても容易かつ安心して穿刺することが可能になる。
Thus, before the needle 12a is punctured, the image acquisition unit 5 acquires an image from a position where at least the entire needle 12a can be acquired, so that even if the position of the needle 12a changes, the needle tip always automatically. The position 13 and the predicted needle tip position 15 can be estimated.
As a result, since the accuracy when puncturing the needle 12a is further improved, it becomes possible to puncture even a fine puncture object easily and safely.

(4)
本実施形態における針先端位置推定装置1は、図4および図11に示すように、針影先端位置22を抽出し、この針影先端位置22と針先端位置13とが一致した時の針画像長Zに基づいて、フラグがON状態のときすなわち針12aが腕11の皮膚11a内に存在するとき、針先端予測位置15を算出する。
(4)
As shown in FIGS. 4 and 11, the needle tip position estimation apparatus 1 in the present embodiment extracts a needle shadow tip position 22, and a needle image when the needle shadow tip position 22 and the needle tip position 13 coincide with each other. Based on the length Z, when the flag is ON, that is, when the needle 12a is present in the skin 11a of the arm 11, the predicted needle tip position 15 is calculated.

これにより、針12aを腕11に穿刺する直前の状態において取得された画像の針画像長Zが記憶される。ここで、針12aの3次元的な角度は、穿刺する直前と穿刺した後とではほとんど変化しない。しかし、針12aの先端を穿刺する箇所まで針12aを移動させている間は、針12aの角度が多様に変化する。そして、画像取得部5が取得した画像は、2次元画像となるため、針12aの3次元的角度によって、画像中の針12aの長さ(針画像長)が変化する恐れがある。このため、針12aの長さを正確に把握することが困難である。これらのことから、針12aの先端と針影21の先端とが一致する時の針画像長を記憶および利用することによって、穿刺後の針先端予測位置15を正確に決定することが可能になる。
したがって、針12aが腕11に穿刺され、針12aの先端が目視することができない状態であっても、針先端予測位置15を決定することが可能になる。
Thereby, the needle image length Z of the image acquired immediately before puncturing the arm 12 with the needle 12a is stored. Here, the three-dimensional angle of the needle 12a hardly changes between immediately before puncturing and after puncturing. However, while the needle 12a is moved to the point where the tip of the needle 12a is punctured, the angle of the needle 12a changes variously. Since the image acquired by the image acquisition unit 5 is a two-dimensional image, the length of the needle 12a (needle image length) in the image may change depending on the three-dimensional angle of the needle 12a. For this reason, it is difficult to accurately grasp the length of the needle 12a. From these facts, it becomes possible to accurately determine the predicted needle tip position 15 after puncturing by storing and using the needle image length when the tip of the needle 12a and the tip of the needle shadow 21 coincide. .
Therefore, even if the needle 12a is punctured into the arm 11 and the tip of the needle 12a cannot be seen, the predicted needle tip position 15 can be determined.

(5)
本実施形態における針先端位置推定装置1は、図4および図10に示すように、針先端位置推定部101が決定した針先端予測位置15を画像上で提示するために、矢印マークの先端を針先端位置13に配置し、かつ、矢印マークが指す方向を針方向に一致させた針先端予測位置提示画像704を形成する画像形成部108を備える。
(5)
As shown in FIGS. 4 and 10, the needle tip position estimation device 1 according to the present embodiment displays the tip of the arrow mark in order to present the predicted needle tip position 15 determined by the needle tip position estimation unit 101 on the image. An image forming unit 108 is provided that forms a needle tip predicted position presentation image 704 arranged at the needle tip position 13 and in which the direction indicated by the arrow mark coincides with the needle direction.

これにより、針先端予測位置15を明確に提示することが可能になる。
この結果、使用者は、容易かつ正確に針12aの先端が位置する場所や針12aの方向を確認することができる。
This makes it possible to clearly present the predicted needle tip position 15.
As a result, the user can easily and accurately confirm the location of the tip of the needle 12a and the direction of the needle 12a.

(6)
本実施形態における針先端位置推定装置1は、図9に示すように、針先端予測位置算出部107が、針後端位置14から針方向に向かって針画像長Z分離れた位置を針先端予測位置15として、算出する。
(6)
As shown in FIG. 9, the needle tip position estimation apparatus 1 according to the present embodiment has a position where the needle tip predicted position calculation unit 107 separates the needle image length Z from the needle rear end position 14 toward the needle direction. The predicted position 15 is calculated.

これにより、針12aを穿刺する直前に取得された針12aの画像長(針画像長Z)と針方向とを用いて針先端予測位置15を決定することが可能になる。
したがって、自動的に、正確な針先端予測位置15が算出される。
This makes it possible to determine the predicted needle tip position 15 using the image length (needle image length Z) and needle direction of the needle 12a acquired immediately before puncturing the needle 12a.
Therefore, the accurate predicted needle tip position 15 is automatically calculated.

(7)
本実施形態における針先端位置推定装置1は、図2に示すように、画像取得部5が、取得した画像を8ビットの白黒輝度画像として出力する。
(7)
In the needle tip position estimation apparatus 1 according to the present embodiment, as illustrated in FIG. 2, the image acquisition unit 5 outputs the acquired image as an 8-bit monochrome luminance image.

これにより、画像取得部5が取得した画像に含まれるそれぞれの画素の画素値が、0から255の256段階に段階化される。このため、画像処理を施すための閾値やフィルタの係数などが単純化され、簡易な処理、および/または、構成によって針先端予測位置15を決定することが可能になる。
この結果、当該針先端位置推定装置1の処理速度が向上し、また、コストダウンを図ることが可能になる。
As a result, the pixel value of each pixel included in the image acquired by the image acquisition unit 5 is stepped in 256 levels from 0 to 255. For this reason, the threshold value for performing image processing, the coefficient of the filter, and the like are simplified, and the predicted needle tip position 15 can be determined by simple processing and / or configuration.
As a result, the processing speed of the needle tip position estimation apparatus 1 is improved, and the cost can be reduced.

(8)
本実施形態における針先端位置推定装置1は、図2、図4、図7および図9に示すように、画像取得部5が取得した画像に対して、針抽出フィルタ32の走査、二値化および最小二乗法を行うことによって形成された線分から、針画像長、針方向、針先端位置13および針後端位置14を取得する。
(8)
As shown in FIGS. 2, 4, 7, and 9, the needle tip position estimation apparatus 1 according to the present embodiment scans and binarizes the needle extraction filter 32 on the image acquired by the image acquisition unit 5. The needle image length, the needle direction, the needle tip position 13 and the needle rear end position 14 are acquired from the line segment formed by performing the least square method.

ここで、針抽出フィルタ32とは、係数が、「−2、−1、0、1、2」である。また、第1閾値は、0から255の輝度を示す画素に対して、輝度値150である。
これにより、取得した画像から、自動的かつ一義的に針情報を抽出することが可能になる。したがって、使用時毎にキャリブレーション行ったり、使用者が各パラメータの書き換えを自ら行ったりする手間を省くことが可能になる。
Here, the needle extraction filter 32 has a coefficient of “−2, −1, 0, 1, 2”. The first threshold value is a luminance value of 150 for pixels showing luminance from 0 to 255.
Thereby, it becomes possible to extract needle information automatically and uniquely from the acquired image. Therefore, it is possible to save the labor of performing calibration every time of use or rewriting each parameter by the user.

(9)
本実施形態における針先端位置推定装置1は、図6に示すように、針情報抽出部102が決定した第1領域31において、針影情報抽出部103が、第2二値化、境界部画素の特定、第3二値化、最小二乗法を順に行うことによって形成された線分から、針影先端位置22を決定する。
(9)
As shown in FIG. 6, the needle tip position estimation apparatus 1 according to the present embodiment includes a second binarization and boundary pixel in the first region 31 determined by the needle information extraction unit 102. The needle shadow tip position 22 is determined from a line segment formed by sequentially performing identification, third binarization, and least square method.

これにより、取得した画像から、自動的かつ一義的に針影情報を抽出することが可能になる。したがって、使用時毎にキャリブレーション行ったり、使用者が各パラメータの書き換えを自ら行ったりする手間を省くことが可能になる。   Thereby, it becomes possible to extract needle shadow information automatically and uniquely from the acquired image. Therefore, it is possible to save the labor of performing calibration every time of use or rewriting each parameter by the user.

(10)
本実施形態における針先端位置推定装置1は、図8に示すように、一致検出部104が、第2領域33を決定し、この第2領域33内に針影先端位置22が存在するとき、針先端位置13と針影先端位置22とが一致したと判断する。なお、第2領域33は、5×5画素の領域である。
(10)
In the needle tip position estimation device 1 according to the present embodiment, as shown in FIG. 8, when the coincidence detection unit 104 determines the second region 33 and the needle shadow tip position 22 exists in the second region 33, It is determined that the needle tip position 13 and the needle shadow tip position 22 match. The second area 33 is a 5 × 5 pixel area.

これにより、針12aの先端部分である穿刺部が極細であるために、穿刺部の影が画像によって認識することが困難な場合であっても、針12aが穿刺される前に、一致検出部104は、針先端位置13と針影先端位置22とが一致したと判断することができる。   Accordingly, even if it is difficult to recognize the shadow of the puncture portion by an image because the puncture portion that is the tip portion of the needle 12a is extremely thin, the coincidence detection unit is inserted before the needle 12a is punctured. 104, it can be determined that the needle tip position 13 and the needle shadow tip position 22 coincide.

したがって、一致検出部104が出力する一致信号のタイミングが遅れることを防ぐことができる。すなわち、針画像長記憶部105に記憶される針画像長Zを実際の針画像長より短い針画像長として記憶することを防ぐことができる。これは、針12aを穿刺したときに、針先端予測位置15が実際の位置より針後端部側に提示されると、実際は穿刺してはいけない領域(深さ)まで誤って穿刺してしまうおそれがある。しかしながら、当該針先端位置推定装置1の構成によると、このようなおそれがないため、針12aの誤穿刺を防ぐことが可能になる。   Therefore, it is possible to prevent the timing of the coincidence signal output from the coincidence detection unit 104 from being delayed. That is, it is possible to prevent the needle image length Z stored in the needle image length storage unit 105 from being stored as a needle image length shorter than the actual needle image length. This is because, when the needle 12a is punctured, if the predicted needle tip position 15 is presented on the needle rear end side from the actual position, the needle is erroneously punctured to a region (depth) that should not be punctured. There is a fear. However, according to the configuration of the needle tip position estimating apparatus 1, since there is no such fear, it is possible to prevent erroneous puncture of the needle 12a.

(11)
本実施形態における針先端位置推定装置1は、図4に示すように、針12aが腕11に穿刺される前の状態において、画像取得部5が取得した可視光画像702aから針情報抽出部102が抽出した針先端位置13に基づいて、針12aの先端位置を決定する。
(11)
As shown in FIG. 4, the needle tip position estimation device 1 according to the present embodiment has a needle information extraction unit 102 from a visible light image 702 a acquired by the image acquisition unit 5 in a state before the needle 12 a is punctured into the arm 11. Based on the extracted needle tip position 13, the tip position of the needle 12a is determined.

これにより、針12aの穿刺前から針12aの先端位置を決定し、使用者に提示することが可能になる。したがって、使用者が、穿刺前の針12aの先端位置を確認することが容易になり、例えば、可視光LED6の光や部屋の照明の光などが当たる角度によって針12aの先端が確認しにくくなるといった不具合を防止することが可能になる。   As a result, the tip position of the needle 12a can be determined before the needle 12a is punctured and presented to the user. Therefore, it becomes easy for the user to confirm the tip position of the needle 12a before puncturing. For example, it becomes difficult to confirm the tip of the needle 12a depending on the angle at which the light of the visible light LED 6 or the illumination light of the room hits. Such a problem can be prevented.

[他の実施形態]
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更が可能である。
[Other Embodiments]
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible in the range which does not deviate from the main point of invention.

(A)
上記実施形態では、図1に示すように、照明部として単一の可視光LED6を用いた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
(A)
In the said embodiment, as shown in FIG. 1, the example which used single visible light LED6 as an illumination part was given and demonstrated. However, the present invention is not limited to this.

例えば、図12に示すように、2つの可視光LED6a、6bを備えている構成であってもよい。
図12に針先端位置推定装置1aの第2の構造例を示す。これは、図1に示した第1の構造例と可視光源の配置・数が異なる実施形態であり、特に外光の影響で針12aや針影21が正しく抽出できないケースを想定している。
For example, as shown in FIG. 12, the structure provided with two visible light LED6a, 6b may be sufficient.
FIG. 12 shows a second structure example of the needle tip position estimating apparatus 1a. This is an embodiment in which the arrangement and number of visible light sources are different from those of the first structural example shown in FIG. 1, and in particular, a case is assumed in which the needle 12a and the needle shadow 21 cannot be correctly extracted due to the influence of external light.

図12において、可視光源は可視光LED6aと可視光LED6bとの2つが、針12aの各側面ないし各側上面に光を照射するように配置され、可視光LED6aと可視光LED6bとは、近赤外光が発光する期間以外において交互に発光して、可視光LED6bの発光による針12aおよび針影21bが映った可視光画像と、可視光LED6aの発光による針12aおよび針影21aが映った可視光画像と、が画像取得部5によって生成され、針先端位置推定部101に入力されることになる。   In FIG. 12, the visible light source 6 is a visible light LED 6a and a visible light LED 6b are arranged so as to irradiate light on each side surface or each upper surface of the needle 12a, and the visible light LED 6a and the visible light LED 6b are near red. A visible light image in which the needle 12a and the needle shadow 21b are emitted by the light emission of the visible light LED 6b and a visible light image in which the needle 12a and the needle shadow 21a are emitted by the light emission of the visible light LED 6a are alternately emitted except during the period in which the external light is emitted. An optical image is generated by the image acquisition unit 5 and input to the needle tip position estimation unit 101.

上記実施形態とは異なり(図1参照)、針先端位置推定部101の針情報抽出部102が生成する針12a周辺を示す第1領域31が、可視光LED6b発光時の可視光画像においては針12aの右側に生成され、可視光LED6a発光時の可視光画像においては針12aの左側に生成される。   Unlike the above-described embodiment (see FIG. 1), the first region 31 indicating the periphery of the needle 12a generated by the needle information extraction unit 102 of the needle tip position estimation unit 101 is a needle in the visible light image when the visible light LED 6b emits light. It is generated on the right side of 12a, and is generated on the left side of the needle 12a in the visible light image when the visible light LED 6a emits light.

この場合は、上記の各可視光LED1、2によって生成される2種類の可視光画像系列を針先端位置推定部101が系列毎に処理し、どちらか一方の可視光画像系列にて外光による影響で針12aや針影の像にノイズが混入して一致検出部104が一致を検出できなくても、もう一方の可視光画像系列にて一致検出部104が一致を検出できる可能性が残される。外光は一般的に装置を装着した腕11に対して偏った方向から光が照射されるケースが多いため、上記のように2種類の可視光画像系列を生成できるように、針12aに対して光を照射する光源を2箇所配置することで、外光による影響を回避できる可能性が高まる。
なお、ここでは、針12aに対して光を照射する光源の配置を2箇所にしたが、3箇所以上配置することで、さらに外光による影響を避けられる構成にしてもよい。
In this case, the two types of visible light image sequences generated by the visible light LEDs 1 and 2 are processed for each sequence by the needle tip position estimation unit 101, and either one of the visible light image sequences is caused by external light. Even if noise is mixed into the image of the needle 12a or the needle shadow due to the influence and the coincidence detection unit 104 cannot detect coincidence, there is a possibility that the coincidence detection unit 104 can detect coincidence in the other visible light image series. It is. In general, external light is often irradiated from a biased direction with respect to the arm 11 on which the apparatus is mounted. Therefore, the two types of visible light image sequences can be generated as described above with respect to the needle 12a. By arranging two light sources for irradiating light, the possibility of avoiding the influence of external light increases.
Here, the light sources for irradiating the needle 12a with two light sources are arranged, but a configuration in which the influence of external light can be avoided by arranging three or more light sources may be adopted.

(B)
上記実施形態では、提示部として液晶ディスプレイ9を用いた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
(B)
In the said embodiment, the example which used the liquid crystal display 9 as the presentation part was given and demonstrated. However, the present invention is not limited to this.

例えば、針先端位置推定部101から出力されたデータをプリントするプリント装置であってもよい。また、これらの提示部を備えていない構成であってもよい。すなわち、針先端位置推定装置によって推定された針先端予測位置15を含むデータを、他の出力機器を用いて出力することによって使用者に通知する構成であってもよい。   For example, a printing apparatus that prints data output from the needle tip position estimation unit 101 may be used. Moreover, the structure which is not provided with these presentation parts may be sufficient. That is, the configuration may be such that data including the predicted needle tip position 15 estimated by the needle tip position estimating device is notified to the user by outputting the data using another output device.

(C)
上記実施形態では、針抽出フィルタ32として、係数が「−1、−2、0、2、1」であるものを用いた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
(C)
In the above-described embodiment, the needle extraction filter 32 has been described using an example in which the coefficient is “−1, −2, 0, 2, 1”. However, the present invention is not limited to this.

例えば、針12aの像と、針影21や注射器12の像と、を区別することが可能なフィルタであればよい。
(D)
上記実施形態では、フラグがOFF状態のとき、つまり針12aが腕に刺さる前の状態では、生成矢印画像602は表示される例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
For example, any filter that can distinguish the image of the needle 12a from the image of the needle shadow 21 and the syringe 12 may be used.
(D)
In the above embodiment, the generation arrow image 602 has been described as an example when the flag is in the OFF state, that is, before the needle 12a is stuck in the arm. However, the present invention is not limited to this.

例えば、針12aが被穿刺物に穿刺されていないときは、可視光画像のみを表示する構成であってもよい。
(E)
上記実施形態では、照明部として、可視光LED6を用いた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
For example, when the needle 12a is not punctured into the puncture target, only a visible light image may be displayed.
(E)
In the said embodiment, the example using visible light LED6 was given and demonstrated as an illumination part. However, the present invention is not limited to this.

例えば、無電極放電ランプなどの高輝度かつ長寿命である光源を用いた構成であってもよい。
これにより、針影21を確実かつ明確に被穿刺物に投影することが可能になる。
For example, a configuration using a light source with high brightness and long life such as an electrodeless discharge lamp may be used.
As a result, the needle shadow 21 can be reliably and clearly projected onto the puncture target.

(F)
上記実施形態では、一致検出部104とフラグ記憶部106とによって、針12aが穿刺されているか否かを自動的に判断し、針12aの穿刺前から針12aの穿刺中までの処理を自動的に行う構成を例に挙げて説明した。しかし、本発明はこれに限定されるものではない。
(F)
In the above embodiment, the coincidence detection unit 104 and the flag storage unit 106 automatically determine whether or not the needle 12a has been punctured, and automatically perform processing from before the needle 12a is punctured to during the puncture of the needle 12a. The configuration described in (1) has been described as an example. However, the present invention is not limited to this.

例えば、針12aを被穿刺物に穿刺する直前すなわち針先端位置13が被穿刺物に接触した状態において、使用者が所定の操作を行うことによって、針画像長記憶部105が針画像長を取得する。そして、ここで取得した針画像長を用いて、穿刺中の針先端予測位置15を推定する構成であってもよい。
これにより、画像処理における情報の誤認識などを防ぐことが可能になるため、確実性という観点から本構成は好適である。
For example, the needle image length storage unit 105 acquires the needle image length when the user performs a predetermined operation immediately before the needle 12a is punctured into the puncture object, that is, when the needle tip position 13 is in contact with the puncture object. To do. The needle tip predicted position 15 during puncture may be estimated using the needle image length acquired here.
This makes it possible to prevent misrecognition of information in image processing, and therefore this configuration is suitable from the viewpoint of certainty.

(G)
上記実施形態では、照明部として、可視光LED6を用いた例を挙げて説明した。しかし、本発明はこれに限定されるものではない。
(G)
In the said embodiment, the example using visible light LED6 was given and demonstrated as an illumination part. However, the present invention is not limited to this.

例えば、光源は針先端位置推定装置を使用する部屋の照明であってもよく、その光を限定的に取り入れるように設けられた採光窓を有する照明部であってもよい。   For example, the light source may be illumination of a room using the needle tip position estimation device, or may be an illumination unit having a daylighting window provided so as to take in the light limitedly.

本発明にかかる針先端位置推定装置及び針先端位置推定方法は、針を被穿刺物に刺す作業において、被穿刺物の内部に刺さって見えない針先端部が、被穿刺物のどこに位置するかを知ることができるという効果を奏する。このため、特に、これまで穿刺器具を用いた場合に高い熟練度が必要であった医療行為に対して、この医療行為を支援する装置および方法として、広く適用可能である。   The needle tip position estimation device and the needle tip position estimation method according to the present invention are used to determine where in the puncture object the needle tip portion that cannot be seen by piercing the puncture object is located in the puncture object. There is an effect that can be known. For this reason, it can be widely applied as a device and method for supporting a medical practice, particularly for a medical practice that has so far required a high level of skill when using a puncture device.

本発明の一実施形態に係る針先端位置推定装置の構造を示す斜視図。The perspective view which shows the structure of the needle tip position estimation apparatus which concerns on one Embodiment of this invention. 図1に示す針先端位置推定装置の機能的構成を示すブロック図。The block diagram which shows the functional structure of the needle | hook tip position estimation apparatus shown in FIG. 図1に示す針先端位置推定装置が行う処理の概要を示す図。The figure which shows the outline | summary of the process which the needle | hook tip position estimation apparatus shown in FIG. 1 performs. 図1に示す針先端位置推定装置の針先端位置推定部における機能的構成を示すブロック図。The block diagram which shows the functional structure in the needle tip position estimation part of the needle tip position estimation apparatus shown in FIG. (a)は、針穿刺直前における、注射器と皮膚と静脈との上面視透過図。(b)は、針穿刺後における、注射器と皮膚と静脈との上面視透過図。(c)は、針穿刺直前における、注射器と皮膚との側面視透過図。(d)は、針穿刺後における、注射器と皮膚との側面視透過図。(A) is a top view transmission diagram of the syringe, skin, and vein immediately before needle puncture. (B) is a top view transmission diagram of the syringe, skin, and vein after needle puncture. (C) is a transparent side view of the syringe and the skin immediately before needle puncture. (D) is a side view transmission diagram of the syringe and the skin after needle puncture. (a)は、針情報抽出部、針影情報抽出部が行う処理を説明するイメージ図。(b)は、図6(a)に示す線分E1−E2を含む直線上の輝度値を示す図。(c)は、針情報抽出部、針影情報抽出部が行う処理を説明するイメージ図。(d)は、図6(c)に示す線分E3−E1を含む直線上の輝度値を示す図。(A) is an image figure explaining the process which a needle information extraction part and a needle shadow information extraction part perform. (B) is a figure which shows the luminance value on the straight line containing the line segment E1-E2 shown to Fig.6 (a). (C) is an image figure explaining the process which a needle information extraction part and a needle shadow information extraction part perform. (D) is a figure which shows the luminance value on the straight line containing line segment E3-E1 shown in FIG.6 (c). (a)は、画像上における針を構成する画素を示す模式図。(b)は、図7(a)に示す画素に対してフィルタリングを行うフィルタの係数を示す図。(A) is a schematic diagram which shows the pixel which comprises the needle | hook on an image. (B) is a figure which shows the coefficient of the filter which filters with respect to the pixel shown to Fig.7 (a). 図4に示す針先端位置推定部における一致検出部が行う処理において、第2領域と針先端位置と針影先端位置との位置関係を示すイメージ図。The image figure which shows the positional relationship of a 2nd area | region, a needle tip position, and a needle shadow tip position in the process which the coincidence detection part in the needle tip position estimation part shown in FIG. 4 performs. 図4に示す針先端位置推定部における針先端予測位置算出部が行う処理を説明するイメージ図。The image figure explaining the process which the needle tip estimated position calculation part in the needle tip position estimation part shown in FIG. 4 performs. 画像形成部が行う処理を説明するイメージ図。The image figure explaining the process which an image formation part performs. 図1に示す針先端位置推定装置が行う処理のフローチャート図。The flowchart figure of the process which the needle | hook tip position estimation apparatus shown in FIG. 1 performs. 本発明の他の実施形態に係る針先端位置推定装置の構造を示す斜視図。The perspective view which shows the structure of the needle tip position estimation apparatus which concerns on other embodiment of this invention. 従来の針先端位置推定装置の機能的構成を示すブロック図。The block diagram which shows the functional structure of the conventional needle tip position estimation apparatus. 従来の針先端位置提示装置における針先端位置推定手段の機能的構成を示すブロック図。The block diagram which shows the functional structure of the needle tip position estimation means in the conventional needle tip position presentation apparatus. 従来の針先端位置推定手段が行う処理を説明するためのイメージ図。The image figure for demonstrating the process which the conventional needle | hook tip position estimation means performs.

符号の説明Explanation of symbols

1 針先端位置推定装置
2 装置固定部
3 アーム部
3a 側面
4 ヘッド部
5 画像取得部
6 可視光LED(照明部)
6a 可視光LED(照明部)
6b 可視光LED(照明部)
7 血管位置検出部
9 液晶ディスプレイ(表示部、提示部)
11 腕(被穿刺物)
11a 皮膚
11b 静脈
12 注射器(穿刺機器(器具))
12a 針
13 針先端位置
14 針後端位置
15 針先端予測位置
21 針影
22 針影先端位置
31 第1領域
32 針抽出フィルタ
33 第2領域
101 針先端位置推定部
102 針情報抽出部
103 針影情報抽出部
104 一致検出部
105 針画像長記憶部
106 フラグ記憶部
107 針先端予測位置算出部
108 画像形成部
601 初期矢印画像
602 生成矢印画像
701 近赤外画像
702 可視光画像
703 血管強調画像
704 針先端予測位置提示画像
705 合成画像
1000 従来の針先端位置提示装置
1101 照明手段
1102 画像取得手段
1103 針先端位置推定手段
1104 血管位置検出手段
1105 表示手段
1201 注射器画像抽出手段
1202 注射針先端位置検出手段
1203 注射針先端位置算出手段
1204 注射針先端位置画像生成手段
DESCRIPTION OF SYMBOLS 1 Needle tip position estimation apparatus 2 Apparatus fixing | fixed part 3 Arm part 3a Side surface 4 Head part 5 Image acquisition part 6 Visible light LED (illumination part)
6a Visible LED (lighting unit)
6b Visible LED (lighting unit)
7 Blood vessel position detection unit 9 Liquid crystal display (display unit, presentation unit)
11 Arm (puncture object)
11a skin 11b vein 12 syringe (puncture device (instrument))
12a Needle 13 Needle tip position 14 Needle rear end position 15 Needle tip predicted position 21 Needle shadow 22 Needle shadow tip position 31 First region 32 Needle extraction filter 33 Second region 101 Needle tip position estimation unit 102 Needle information extraction unit 103 Needle shadow Information extraction unit 104 Match detection unit 105 Needle image length storage unit 106 Flag storage unit 107 Needle tip predicted position calculation unit 108 Image formation unit 601 Initial arrow image 602 Generation arrow image 701 Near-infrared image 702 Visible light image 703 Blood vessel enhancement image 704 Needle tip predicted position presentation image 705 Composite image 1000 Conventional needle tip position presentation device 1101 Illumination means 1102 Image acquisition means 1103 Needle tip position estimation means 1104 Blood vessel position detection means 1105 Display means 1201 Syringe image extraction means 1202 Injection needle tip position detection means 1203 Injection needle tip position calculation means 1204 Injection needle tip position Image generation means

Claims (15)

針に対して光を照射する照明部と、
前記針と、この針が穿刺される被穿刺物と、前記照明部によって照明された前記針の被穿刺物に投影される針影と、を含む画像を取得する画像取得部と、
前記画像取得部が取得した前記画像と、この画像における針先端位置と針影先端位置とが一致したときの前記画像上の前記針の長さを示す針画像長を含む針情報と、に基づいて、前記針が前記被穿刺物内に穿刺されているときの針先端予測位置を決定する針先端位置推定部と、
を備える、針先端位置推定装置。
An illumination unit that emits light to the needle;
An image acquisition unit for acquiring an image including the needle, a puncture object into which the needle is punctured, and a needle shadow projected onto the puncture object of the needle illuminated by the illumination unit;
Based on the image acquired by the image acquisition unit, and needle information including a needle image length indicating the length of the needle on the image when the needle tip position and the needle shadow tip position in the image coincide with each other. A needle tip position estimation unit for determining a needle tip predicted position when the needle is punctured into the puncture object;
A needle tip position estimation device comprising:
前記画像取得部が取得した画像と前記針先端位置推定部が決定した前記針先端予測位置とを提示する提示部をさらに備える、
請求項1に記載の針先端位置推定装置。
A presentation unit for presenting the image acquired by the image acquisition unit and the predicted needle tip position determined by the needle tip position estimation unit;
The needle tip position estimating apparatus according to claim 1.
前記針先端位置推定部は、
前記針情報を抽出する針情報抽出部を有し、
前記針情報は、前記画像取得部が取得した前記画像における、針方向、前記針先端位置および針後端位置をさらに含み、
前記針情報抽出部が抽出した前記針情報に基づいて、前記針先端予測位置を算出する針先端予測位置算出部と、
を有する、
請求項1または2に記載の針先端位置推定装置。
The needle tip position estimation unit is
A needle information extraction unit for extracting the needle information;
The needle information further includes a needle direction, the needle tip position, and a needle rear end position in the image acquired by the image acquisition unit,
Based on the needle information extracted by the needle information extraction unit, a predicted needle tip position calculating unit that calculates the predicted needle tip position;
Having
The needle tip position estimation device according to claim 1 or 2.
前記針先端位置推定部は、
前記画像取得部が取得した前記画像から、前記針影先端位置を含む針影情報を抽出する針影情報抽出部と、
前記針先端位置と前記針影先端位置とが一致しているときに、一致信号を出力する一致検出部と、
前記一致信号が出力されているときはON状態になり、前記一致信号が出力されていないときはOFF状態になるフラグ、を記憶するフラグ記憶部と、
前記フラグがOFF状態からON状態に切り替わる時の前記針画像長を記憶する、針画像長記憶部と、
を有し、
前記針先端予測位置算出部は、前記針画像長記憶部に記憶された前記針画像長に基づいて、前記フラグがON状態のときに前記針先端予測位置を算出する、
請求項3に記載の針先端位置推定装置。
The needle tip position estimation unit is
A needle shadow information extraction unit for extracting needle shadow information including the needle shadow tip position from the image acquired by the image acquisition unit;
A coincidence detection unit that outputs a coincidence signal when the needle tip position is coincident with the needle shadow tip position;
A flag storage unit that stores a flag that is ON when the coincidence signal is output and that is OFF when the coincidence signal is not output;
A needle image length storage unit for storing the needle image length when the flag is switched from the OFF state to the ON state;
Have
The predicted needle tip position calculation unit calculates the predicted needle tip position when the flag is in an ON state based on the needle image length stored in the needle image length storage unit.
The needle tip position estimation device according to claim 3.
前記針先端位置推定部は、針先端予測位置提示画像を形成する画像形成部をさらに備える、
請求項1から4のいずれか1項に記載の針先端位置推定装置。
The needle tip position estimation unit further includes an image forming unit that forms a needle tip predicted position presentation image.
The needle tip position estimation device according to any one of claims 1 to 4.
前記針先端予測位置算出部は、前記針後端位置から前記針方向に向かって前記針画像長記憶部に記憶された前記針画像長の長さ分離れた位置を、前記針先端予測位置と決定する、
請求項3から5のいずれか1項に記載の針先端位置推定装置。
The predicted needle tip position calculating unit calculates a position separated by the length of the needle image length stored in the needle image length storage unit from the needle rear end position toward the needle direction as the needle tip predicted position. decide,
The needle tip position estimation device according to any one of claims 3 to 5.
前記画像取得部は、取得した画像を白黒輝度画像として出力する、
請求項1から6のいずれか1項に記載の針先端位置推定装置。
The image acquisition unit outputs the acquired image as a monochrome luminance image.
The needle tip position estimation device according to any one of claims 1 to 6.
前記針情報抽出部は、
前記画像取得部が取得した前記画像に対し第1フィルタを走査して針抽出画像を形成し、
前記針抽出画像を第1閾値で二値化した第1二値化画像を生成し、
前記第1二値化画像における前記針を示す画素に対して、最小二乗法を用いて線分化し、
この線分から、前記針画像長、前記針方向、前記針先端位置および前記針後端位置を取得する、
請求項3から7のいずれか1項に記載の針先端位置推定装置。
The needle information extraction unit
Scanning the first filter for the image acquired by the image acquisition unit to form a needle extraction image;
Generating a first binarized image obtained by binarizing the needle extraction image with a first threshold;
The pixel indicating the needle in the first binarized image is subjected to line differentiation using a least square method,
From this line segment, the needle image length, the needle direction, the needle tip position and the needle rear end position are obtained.
The needle tip position estimation device according to any one of claims 3 to 7.
前記針情報抽出部は、前記画像において、前記線分に基づいて、前記針を含まない前記針の周辺を示す第1領域を決定し、
前記針影情報抽出部は、前記第1領域において、所定の長さを有しかつ第2閾値を閾値とする第2フィルタを走査して第2二値化画像を生成し、前記第2二値化画像の画素行列において、各行方向または各列方向に沿って、前記画像の両端部からそれぞれ走査して、画素値が変化したそれぞれの最初の画素を境界部画素とし、各行または各列において、それぞれの前記境界部画素の中心位置を抽出した第3二値化画像を形成し、前記第3二値化画像における前記中心位置に対応する画素に対して、最小二乗法を用いて線分化し、この線分から、針影先端位置を決定する、
請求項8に記載の針先端位置推定装置。
The needle information extraction unit determines a first region indicating the periphery of the needle not including the needle based on the line segment in the image,
The needle shadow information extraction unit generates a second binarized image by scanning a second filter having a predetermined length and having a second threshold as a threshold in the first region, and generating the second second image. In the pixel matrix of the binarized image, scanning is performed from both ends of the image along each row direction or each column direction, and the first pixel whose pixel value has changed is set as a boundary pixel, and in each row or each column Forming a third binarized image obtained by extracting the center position of each of the boundary pixels, and performing line segmentation using a least-squares method on pixels corresponding to the center position in the third binarized image. And determine the needle shadow tip position from this line segment,
The needle tip position estimation device according to claim 8.
前記一致検出部は、
前記針先端位置を中心として第2領域を決定し、
前記第2領域に前記針影先端位置が存在するとき、前記針先端位置と前記針影先端位置とが一致したと判断する、
請求項4から9のいずれか1項に記載の針先端位置推定装置。
The coincidence detection unit
Determining a second region centered on the needle tip position;
When the needle shadow tip position is present in the second region, it is determined that the needle tip position matches the needle shadow tip position;
The needle tip position estimation device according to any one of claims 4 to 9.
前記フラグがOFF状態の場合、前記針先端位置に基づいて、前記針の先端位置を決定する、
請求項4から10のいずれか1項に記載の針先端位置推定装置。
When the flag is in an OFF state, the tip position of the needle is determined based on the needle tip position.
The needle tip position estimation device according to any one of claims 4 to 10.
針に対して光を照射する第1ステップと、
前記針と、この針が穿刺される被穿刺物と、前記第1ステップによって光が照射された前記針の被穿刺物に投影される針影と、を含む画像を取得する第2ステップと、
前記第2ステップで取得した前記画像と、この画像における針先端位置と針影先端位置とが一致したときの前記画像上の前記針の長さを示す針画像長を含む針情報と、に基づいて、前記針が前記被穿刺物内に穿刺されているときの針先端予測位置を決定する第3ステップと、
を備える、針先端位置推定方法。
A first step of irradiating the needle with light;
A second step of obtaining an image including the needle, a puncture object to which the needle is punctured, and a needle shadow projected onto the puncture object of the needle irradiated with light in the first step;
Based on the image acquired in the second step, and needle information including a needle image length indicating a length of the needle on the image when a needle tip position and a needle shadow tip position in the image coincide with each other. A third step of determining a predicted needle tip position when the needle is punctured into the puncture object;
A needle tip position estimation method comprising:
前記第3ステップは、
前記第2ステップで取得した前記画像から、前記針影先端位置を含む針影情報を抽出する第5ステップと、
前記針先端位置と前記針影先端位置とが一致しているか否かを判断する第6ステップと、
前記第6ステップにおいて前記針先端位置と前記針影先端位置とが一致していると判断された場合、予めOFF状態で記憶されているフラグをON状態に更新する第7ステップと、
前記フラグがOFF状態からON状態に切り替わる時の前記針画像長を記憶する第8ステップと、
前記第8ステップにおいて記憶された前記針画像長に基づいて、前記フラグがON状態のときに前記針先端予測位置を算出する第9ステップと、
をさらに有する、
請求項12に記載の針先端位置推定方法。
The third step includes
A fifth step of extracting needle shadow information including the needle shadow tip position from the image acquired in the second step;
A sixth step of determining whether or not the needle tip position matches the needle shadow tip position;
A seventh step of updating the flag stored in the OFF state in advance to the ON state when it is determined in the sixth step that the needle tip position is coincident with the needle shadow tip position;
An eighth step of storing the needle image length when the flag is switched from the OFF state to the ON state;
A ninth step of calculating the predicted needle tip position when the flag is in an ON state based on the needle image length stored in the eighth step;
Further having
The needle tip position estimation method according to claim 12.
前記第3ステップで決定した前記針先端予測位置を提示する第4ステップをさらに備える、
請求項12または13に記載の針先端位置推定方法。
A fourth step of presenting the predicted needle tip position determined in the third step;
The needle tip position estimation method according to claim 12 or 13.
前記第4ステップは、前記第3ステップで決定した前記針先端予測位置を表示装置によって表示する、
請求項14に記載の針先端位置推定方法。

In the fourth step, the predicted needle tip position determined in the third step is displayed by a display device.
The needle tip position estimation method according to claim 14.

JP2008010757A 2008-01-21 2008-01-21 Needle point position estimating device and needle point position estimating method Pending JP2009172003A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008010757A JP2009172003A (en) 2008-01-21 2008-01-21 Needle point position estimating device and needle point position estimating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008010757A JP2009172003A (en) 2008-01-21 2008-01-21 Needle point position estimating device and needle point position estimating method

Publications (1)

Publication Number Publication Date
JP2009172003A true JP2009172003A (en) 2009-08-06

Family

ID=41027826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008010757A Pending JP2009172003A (en) 2008-01-21 2008-01-21 Needle point position estimating device and needle point position estimating method

Country Status (1)

Country Link
JP (1) JP2009172003A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140100550A1 (en) * 2012-10-10 2014-04-10 Christie Digital Systems Canada Inc. Catheter discrimination and guidance system
US20140100524A1 (en) * 2012-10-10 2014-04-10 Christie Digital Systems Usa, Inc. Catheter discrimination and guidance system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140100550A1 (en) * 2012-10-10 2014-04-10 Christie Digital Systems Canada Inc. Catheter discrimination and guidance system
US20140100524A1 (en) * 2012-10-10 2014-04-10 Christie Digital Systems Usa, Inc. Catheter discrimination and guidance system

Similar Documents

Publication Publication Date Title
KR101031905B1 (en) How needle guide device works
JP6356773B2 (en) System and method for measuring the amount of blood components in a fluid canister
JP6348078B2 (en) Branch structure determination apparatus, operation method of branch structure determination apparatus, and branch structure determination program
JP2017501802A (en) Instrument tracking using markers
US10194783B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium for determining abnormal region based on extension information indicating state of blood vessel region extending in neighborhood of candidate region
JP2005293141A (en) Method and device for detecting marker, and method for estimating position and attitude
JP2006130201A (en) Device and method for presenting positions of blood vessel and syringe needle
JP2006102110A (en) Blood vessel position presenting apparatus
CN114298980A (en) Image processing method, device and equipment
EP2719328A1 (en) Catheter discrimination and guidance system
CN110582782B (en) Method and device for determining information about a medicament-containing container
JP2013022098A (en) Blood vessel visualization device
US9754404B2 (en) Method for generating display image data
US20170112355A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2009172003A (en) Needle point position estimating device and needle point position estimating method
US20110295121A1 (en) 3d ultrasound system and method for operating 3d ultrasound system
US9386908B2 (en) Navigation using a pre-acquired image
TWI777142B (en) Blood vessel position display device and blood vessel position display method
CN109171905B (en) Puncture guiding device based on infrared imaging
JP2009172064A (en) Blood vessel position indicator and its method
JP4711612B2 (en) Stereotaxic surgery support system
KR20150080254A (en) Image monitoring system and method for removing needle
JP2015012984A (en) Blood vessel visualization device, blood vessel visualization method, and program
JP6875774B1 (en) Marking system and marking support device for medical images
CN114830638A (en) System and method for telestration with spatial memory