JP2009136327A - Position identifying system, position identifying method, and program - Google Patents

Position identifying system, position identifying method, and program Download PDF

Info

Publication number
JP2009136327A
JP2009136327A JP2007312399A JP2007312399A JP2009136327A JP 2009136327 A JP2009136327 A JP 2009136327A JP 2007312399 A JP2007312399 A JP 2007312399A JP 2007312399 A JP2007312399 A JP 2007312399A JP 2009136327 A JP2009136327 A JP 2009136327A
Authority
JP
Japan
Prior art keywords
object
image
unit
position
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007312399A
Other languages
Japanese (ja)
Inventor
Hideyasu Ishibashi
磴  秀康
Original Assignee
Fujifilm Corp
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp, 富士フイルム株式会社 filed Critical Fujifilm Corp
Priority to JP2007312399A priority Critical patent/JP2009136327A/en
Priority claimed from US12/327,360 external-priority patent/US20090143671A1/en
Publication of JP2009136327A publication Critical patent/JP2009136327A/en
Application status is Abandoned legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position identifying system with a simple configuration that can identify the position of an object inside a body. <P>SOLUTION: The position identifying system identifies a position of an object existing inside a body. The position identifying system includes: a vibrating section that vibrates each of a plurality of different positions inside the body at different timing; an image capturing section that captures the image of the object at each of the different timings; and a position identifying section that identifies the position of the object on the basis of the blur amount of the image of the object in each image captured by the image capturing section. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、位置特定システム、位置特定方法、およびプログラムに関する。 The present invention, position location system, location method, and a program. 本発明は、特に、物体の内部に存在するオブジェクトの位置を特定する位置特定システムおよび位置特定方法、ならびに位置特定システム用のプログラムに関する。 The present invention is particularly, position location system and location method for identifying the position of an object existing inside the object, and a program for positioning system.

生体内の光伝播が光の波長により異なる性質を利用して、生体の代謝に伴う生体情報を詳細に計測する生体情報計測装置が知られている(例えば、特許文献1参照。)。 Using different properties of light propagation by the wavelength of light in the living body, the biological information measuring device that measures biological information associated with the metabolism of a living body in detail is known (e.g., see Patent Document 1.). また、異なる入・出射点の間の距離で吸光度を計測することによって被検体の深さ方向の吸収係数分布を得る光学的測定装置が知られている(例えば、特許文献2参照。)。 Further, the optical measuring apparatus for obtaining an absorption coefficient distribution in the depth direction of the subject by measuring the absorbance by the distance between the different input and output point is known (e.g., see Patent Document 2.).
特開2006―218013号公報 JP 2006-218013 JP 特開平8―322821号公報 JP-8-322821 discloses

特許文献1および特許文献2の技術では、異なる照射点または検出点で計測しなければならない。 In the technique of Patent Document 1 and Patent Document 2, it must be measured at different irradiation points or detection points. このため、観察系の構成が複雑になってしまう。 Therefore, arrangement of the observation system becomes complicated.

上記課題を解決するために、本発明の第1の形態によると、物体の内部に存在するオブジェクトの位置を特定する位置特定システムであって、物体の内部における異なる複数の位置をそれぞれ異なるタイミングで振動させる振動部と、異なるタイミングのそれぞれにおいてオブジェクトの画像を撮像する撮像部と、撮像部が撮像したそれぞれの画像におけるオブジェクトの像のぼけ量に基づいて、オブジェクトの位置を特定する位置特定部とを備える。 In order to solve the above problems, according to a first embodiment of the present invention, there is provided a locating system for locating objects that exist inside the object, a plurality of different positions inside the object at different timings a vibration unit for vibrating an imaging unit for capturing an image of an object in each of the different timings, on the basis of the blur amount of the image of the object in each image by the imaging unit has imaging, a position specifying unit for specifying a position of the object equipped with a.

位置特定部は、ぼけ量が予め定められた値より大きいオブジェクトの像を含む画像が撮像されたタイミングにおいて振動部が物体を振動させた位置の近傍に、オブジェクトの位置を特定してよい。 Position specifying section, near a position where the vibration portion is vibrated objects at the timing of imaging the image containing the image of the larger object than the value amount of blur predetermined may identify the location of the object. 振動部は、異なる複数の位置でそれぞれ集束する波をそれぞれ異なるタイミングで発生することにより、物体における異なる複数の位置をそれぞれ異なるタイミングで振動させてよい。 Vibrating unit varies by generating a wave focusing respectively at different timings in the plurality of locations may be vibrated at different timings plurality of positions different in the object. 振動部は、複数の位置でそれぞれ集束する振動波を異なる方向から発生する振動発生部を有してよい。 Vibrating portion may have a vibration generator for generating a vibration wave to be focused by a plurality of position from different directions.

振動部は、撮像部による撮像方向に直交する方向の振動成分を有する振動を、異なる複数の位置に与えてよい。 Vibrating portion, the vibration having a vibration component in a direction orthogonal to the capturing direction of the imaging unit may be provided to different locations. 撮像部は、オブジェクトの内部のルミネッセンス物質が発した光によりオブジェクトの画像を撮像してよい。 The imaging unit may be an image of the object by light emitted by the internal luminescent material object. また、撮像部は、オブジェクトから反射した光によりオブジェクトの画像を撮像してもよい。 The imaging unit may capture an image of an object by the light reflected from the object. 他にも、撮像部は、オブジェクトを透過した光によりオブジェクトの画像を撮像してもよい。 Additional imaging unit may capture an image of an object by light transmitted through the object.

位置特定部は、物体の表面からオブジェクトまでの深さを特定してよい。 Position specifying unit may identify the depth from the surface of the object to the object. そして、位置特定システムは、位置特定部が特定した深さに基づいて、オブジェクトを撮像した画像におけるオブジェクトの像の広がりを補正する画像補正部をさらに備えてよい。 The location system is based on the depth specified position specifying unit may further comprise an image correction section that corrects the spread of the image of the object in the image of the captured object.

オブジェクトまでの深さに対応づけて、オブジェクトの像の広がりを補正する補正値を格納する補正テーブルをさらに備えてよい。 In association with the depth to the object, it may further comprise a correction table for storing correction values ​​for correcting the spread of the image of the object. そして、画像補正部は、オブジェクトまでの深さおよび補正テーブルが格納している補正値に基づいて、オブジェクトを撮像した画像におけるオブジェクトの像の広がりを補正してよい。 Then, the image correcting unit on the basis of the correction value depth and the correction table to the object is stored, it may correct the spread of the image of the object in the image of the captured object.

深さ特定部は、複数のオブジェクトのそれぞれまでの物体の表面からの深さを特定し、画像補正部は、複数のオブジェクトのそれぞれまでの深さに基づいて、画像における複数のオブジェクトのそれぞれの像の広がりを補正し、位置特定システムは、複数のオブジェクトのそれぞれまでの深さに応じて、画像補正部により補正された画像の表示を制御する表示制御部をさらに備えてよい。 The depth identifying section identifies a depth from the surface of the object to each of a plurality of objects, the image correcting unit on the basis of the depth to each of a plurality of objects, the plurality of objects in an image of each correcting the spread of the image, location system, depending on the depth to each of the plurality of objects, it may further comprise a display control unit for controlling the display of the corrected image by the image correcting unit. 表示制御部は、画像補正部により補正された画像における複数のオブジェクトのそれぞれの明るさまたは色を、複数のオブジェクトのそれぞれまでの深さに応じて変化させてよい。 The display control unit, each of the brightness or color of the plurality of objects in the corrected image by the image correction unit may vary depending on the depth to each of the plurality of objects.

本発明の第2の形態によると、物体の内部に存在するオブジェクトの位置を特定する位置特定方法であって、物体の内部における異なる複数の位置をそれぞれ異なるタイミングで振動させる振動段階と、異なるタイミングのそれぞれにおいてオブジェクトの画像を撮像する撮像段階と、撮像段階において撮像されたそれぞれの画像におけるオブジェクトの像のぼけ量に基づいて、オブジェクトの位置を特定する位置特定段階とを備える。 According to a second aspect of the present invention, there is provided a location method for locating objects that exist inside the object, a vibration stage vibrating at different timings different positions inside the object, different timings of comprising an imaging step of capturing an image of an object in each, on the basis of the blur amount of the image of the object in each image captured by the image capturing step, and a position specifying step of specifying the position of the object.

本発明の第3の形態によると、物体の内部に存在するオブジェクトの位置を特定する位置特定システム用のプログラムであって、位置特定システムを、物体の内部における異なる複数の位置をそれぞれ異なるタイミングで振動させる振動部、異なるタイミングのそれぞれにおいてオブジェクトの画像を撮像する撮像部、撮像部が撮像したそれぞれの画像におけるオブジェクトの像のぼけ量に基づいて、オブジェクトの位置を特定する位置特定部として機能させる。 According to a third aspect of the present invention, there is provided a program for a positioning system for identifying the position of the object existing inside a body, a locating system, a plurality of different positions inside the object at different timings vibrating section to vibrate, the imaging unit for capturing an image of an object in each of the different timings, the imaging unit based on the blurring amount of the image of the object in each image captured, to function as a position specifying unit for specifying a position of the object .

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。 The summary of the invention does not enumerate all the necessary features of the present invention. また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The sub-combinations of the features may become the invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。 The present invention will be described below through an embodiment of the invention, the following embodiments are not intended to limit the invention according to the claims. また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Further, all combinations of features described in the embodiments are not necessarily essential to the invention.

図1は、一実施形態における位置特定システム10の一例を検体20とともに示す。 Figure 1 shows with the analyte 20 an example of location system 10 in one embodiment. 位置特定システム10は、物体の内部に存在するオブジェクトの位置を特定する。 Position location system 10 identifies the position of an object existing inside the object. 位置特定システム10は、内視鏡100、画像処理部140、出力部180、光照射部150、制御部105、およびICG注入部190を備える。 Position location system 10 includes an endoscope 100, an image processing unit 140, output unit 180, the light irradiating section 150, the control unit 105 and the ICG injecting section 190,. なお、図1において、A部は、内視鏡100の先端部102を拡大して示す。 Incidentally, in FIG. 1, A part, an enlarged view of a tip 102 of the endoscope 100. 制御部105は、撮像制御部160および発光制御部170を有する。 Control unit 105 includes an imaging control unit 160 and the emission control unit 170.

ICG注入部190は、ルミネッセンス物質であるインドシアニングリーン(ICG)を、この発明における物体の一例である検体20に注入する。 ICG injecting section 190, indocyanine green (ICG) is luminescent substance is injected into the specimen 20 which is an example of an object in the present invention. なお、本実施形態においてルミネッセンス物質としてICGを例示するが、ルミネッセンス物質として、ICG以外の蛍光物質を用いてもよい。 Although illustrate the ICG as luminescent material in the present embodiment, as the luminescent material may be used a fluorescent substance other than ICG. ICGは、たとえば波長750nmの赤外線に励起されて、810nmを中心とするブロードなスペクトルの蛍光を発する。 ICG, for example by being excited in the infrared wavelength 750 nm, emits fluorescence of a broad spectrum centered at 810 nm.

検体20が生体である場合、ICG注入部190は、静脈注射によって、生体の血管内にICGを注入する。 If the subject 20 is a living organism, ICG injecting section 190, by intravenous injection, to inject ICG into the blood vessels of the living body. 位置特定システム10は、ICGからのルミネッセンス光により、生体内の血管を撮像する。 Position location system 10, the luminescent light from the ICG, imaging the blood vessels in vivo. なお、ルミネッセンス光は、蛍光および燐光を含む。 Note that the luminescence light includes fluorescence and phosphorescence. また、物体からの光の一例であるルミネッセンス光は、励起光等の光による光ルミネッセンスの他に、化学ルミネッセンス、摩擦ルミネッセンス、熱ルミネッセンスによるルミネッセンス光を含む。 Further, the luminescence light is one example of the light from the object, including in addition to the photoluminescence due to light such as excitation light, chemiluminescence, friction luminescence, luminescence light by thermoluminescence. なお、血管は、この発明におけるオブジェクトの一例であってよい。 Incidentally, the blood vessel may be an example of an object in the present invention.

なお、ICG注入部190は、例えば制御部105による制御によって、生体内のICG濃度が略一定に維持されるよう、ICGを検体20に注入する。 Incidentally, ICG injecting section 190, for example by control of the control unit 105, so that the ICG concentration within the living body is maintained substantially constant, injects ICG to the analyte 20. なお、検体20は、たとえば人体等の生体であってよい。 Note that the analyte 20 may be, for example, biological such as a human body. なお、検体20の内部には血管等のオブジェクトが存在する。 Note that the inside of the specimen 20 there are objects such as a blood vessel. 本実施形態の位置特定システム10は、検体20の表面(器官等の内表面を含む)より深部に存在するオブジェクトの位置(深さ)を検出する。 Position location system 10 of the present embodiment detects the surface of the specimen 20 position of an object present in the deeper than (inner surface including such organs) (depth). また、位置特定システム10は、検出した位置に応じて、オブジェクトの画像におけるぼけを補正する。 Also, position location system 10 in accordance with the detected position, corrects the blur in the image of the object. なお、この発明における物体とは、胃、腸等の臓器等の生体の他にも、遺構等の自然物、工業製品等のような生体以外の物を含む概念であってよい。 Incidentally, the object A in the present invention, the stomach, in addition to the living body such as an organ such as the intestine, natural substances such as remains, may be a concept including those other than such biological as such industrial products.

内視鏡100は、撮像部110、ライトガイド120、振動部133、および鉗子口130を有する。 The endoscope 100 includes an imaging unit 110, light guide 120, vibrating unit 133 and the clamp port 130,. 内視鏡100の先端部102には、撮像部110の一部としてのレンズ112を有する。 The tip 102 of the endoscope 100, a lens 112 as part of the imaging section 110. また先端部102には、ライトガイド120の一部としての出射口124を有する。 Also at the distal end 102 has an exit port 124 as part of the light guide 120. また、内視鏡100の先端部102は、後に説明する振動部133の一部としてのノズル138を有する。 The tip 102 of the endoscope 100 includes a nozzle 138 as part of the vibration unit 133 to be described later.

鉗子口130には鉗子135が挿入され、鉗子口130は鉗子135を先端部102にガイドする。 Forceps 135 is inserted into the clamp port 130, the clamp port 130 guides the clamp 135 to the tip 102. なお、鉗子135は、各種の先端形状を備えてよい。 Incidentally, the forceps 135 may comprise a variety of tip shapes. なお、鉗子口130には、鉗子の他に、生体を処置する種々の処置具が挿入されてよい。 Note that the clamp port 130, in addition to forceps, various treatment instruments for treating a living body may be inserted. ノズル138は、水あるいは空気を送出する。 The nozzle 138 sends out water or air.

光照射部150は、内視鏡100の先端部102から照射される光を発生する。 Light irradiating unit 150 generates light to be irradiated from the tip 102 of the endoscope 100. 光照射部150で発生する光は、検体20の内部に含むルミネッセンス物質を励起してルミネッセンス光を発光させる励起光の一例としての赤外線、および検体20に照射する照射光を含む。 Light generated by the light irradiation section 150, the infrared as an example of the excitation light to excite the luminescent material containing inside the subject 20 to emit luminescent light, and an illumination light irradiated to the specimen 20. 照射光には、たとえばR成分、G成分、およびB成分の成分光を含む。 The irradiation light includes for example the R component, G component, and the component light of the B component.

撮像部110は、ルミネッセンス物質が発するルミネッセンス光および照射光がオブジェクトで反射する反射光により画像を撮像する。 Imaging unit 110, the luminescence light and the irradiation light emitted by the luminescent material capturing an image by reflected light reflected by the object. 撮像部110は、たとえばCCD等の2次元撮像デバイスと光学系とを含んでよく、光学系にはレンズ112を含む。 Imaging unit 110 includes, for example may comprise a two-dimensional imaging device and an optical system such as a CCD, a lens 112 in the optical system. ルミネッセンス物質が発する光が赤外線である場合、撮像部110は、赤外線画像を撮像できる。 If the light luminescent substance emits is infrared, the image capturing section 110 can capture an infrared image. オブジェクトへの照射光がRGBの各成分を含むたとえば白色光である場合、撮像部110は、可視光画像を撮像できる。 When the irradiation light to the object, for example, white light including components of RGB, the image capturing section 110 can capture a visible light image.

なお、オブジェクトからの光としては、オブジェクト内に存在するルミネッセンス物質が発する蛍光または燐光等のルミネッセンス光、あるいはオブジェクトに照射された光が反射した反射光またはオブジェクトを透過した透過光を例示できる。 As the light from the object, it can be exemplified transmitted light fluorescence or luminescence light of phosphorescence, etc., or a light irradiated to the object has passed through the reflected light or object reflected emitted luminescent material present in an object. すなわち、撮像部110は、オブジェクトの内部のルミネッセンス物質が発した光、オブジェクトから反射した光、またはオブジェクトを透過した光により、オブジェクトの画像を撮像する。 That is, the imaging unit 110, light emitted by the internal luminescent material of an object, the light transmitted through the light or object, reflected from an object, capturing an image of an object.

なお、撮像部110は、オブジェクトからの光に限らず、種々の方法でオブジェクトを撮像することができる。 The imaging unit 110 is not limited to the light from the object, it is possible to image the object in a variety of ways. 例えば、撮像部110は、X線、γ線等の電磁放射線、或いはアルファ線等の粒子線を含む放射線を利用してオブジェクトを撮像してよい。 For example, the imaging unit 110, X-rays, electromagnetic radiation of γ-rays, or by imaging the object using a radiation including particle beams alpha rays. また、撮像部110は、種々の波長の電磁波、電波、音波を利用してオブジェクトを撮像してよい。 The imaging unit 110, the electromagnetic waves of various wavelengths, radio waves, may be imaged object by using sound waves.

ライトガイド120は、たとえば光ファイバで構成できる。 The light guide 120 may be configured, for example, an optical fiber. ライトガイド120は、光照射部150で発生した光を内視鏡100の先端部102にガイドする。 The light guide 120 guides the light generated by the light irradiating section 150 to the tip 102 of the endoscope 100. ライトガイド120は、先端部102に設けられた出射口124を含むことができる。 The light guide 120 may include an exit opening 124 provided at the distal end portion 102. 光照射部150で発生した光は、出射口124から検体20に照射される。 The light generated by the light irradiation unit 150 is irradiated from the exit 124 to the specimen 20.

画像処理部140は、撮像部110から取得した画像データを処理する。 The image processing unit 140 processes the image data obtained from the imaging unit 110. 出力部180は、画像処理部140が処理した画像データを出力する。 The output unit 180 outputs the image data to the image processing unit 140 has processed. 撮像制御部160は、撮像部110による撮像を制御する。 Imaging control unit 160 controls the imaging by the imaging section 110. 発光制御部170は、撮像制御部160からの制御を受けて、光照射部150を制御する。 Light emission control unit 170, under the control of the imaging control unit 160 controls the light irradiating section 150. たとえば撮像部110が、赤外線および照射光を時分割で撮像する場合に、赤外線および照射光の照射タイミングと撮像部110の撮像タイミングとを同期させるよう制御する。 For example imaging unit 110, when the imaging in a time division infrared and illumination light is controlled so as to synchronize the imaging timing of the irradiation timing and the imaging unit 110 of the infrared and the irradiation light.

振動部133は、物体を振動させる。 Vibration unit 133 vibrates the object. 例えば、振動部133は、ノズル138の先端から空気を送ることによって、検体20の表面を振動させる。 For example, the vibration unit 133, by sending air from the tip of the nozzle 138 to vibrate the surface of the specimen 20. 他にも、振動部133は、超音波または音波等によって、検体20の表面を振動させてもよい。 Additional vibration unit 133, by ultrasonic or sonic like, may be vibrated surface of the specimen 20. このとき、画像処理部140は、撮像部110によって撮像された画像のぼけ量に基づいて、検体20の表面から血管までの深さを特定する。 In this case, the image processing unit 140, based on the blur amount of an image captured by the imaging unit 110, specifies the depth from the surface of the specimen 20 to the vessel. なお、振動部133は、撮像部110による撮像方向に直交する方向の振動成分を有する振動を、物体の表面に加えることが望ましい。 Incidentally, the vibration unit 133, a vibration having a vibration component in a direction orthogonal to the capturing direction of the imaging unit 110, it is desirable to add to the surface of an object.

図2は、画像処理部140の構成例を示す。 Figure 2 shows the arrangement of an image processing unit 140. 画像処理部140は、オブジェクト画像取得部210、表面画像取得部214、画像補正部220、補正テーブル222、表示制御部226、および位置特定部230を有する。 The image processing unit 140 includes an object image acquiring unit 210, the surface image obtaining unit 214, image correction unit 220, a correction table 222, the display control unit 226, and the position specifying unit 230. 位置特定部230は、ぼけ量算出部232、伝達時間算出部234、および距離算出部236を含む。 Position specifying unit 230, the blur amount calculation unit 232, transmission time calculator 234, and a distance calculating unit 236.

オブジェクト画像取得部210は、検体20の内部に存在する血管等のオブジェクトからの光の画像であるオブジェクト画像を取得する。 Object image acquiring unit 210 acquires the object image is an optical image from an object such as a blood vessel existing in the interior of the specimen 20. 具体的には、オブジェクトからの光によって撮像部110が撮像した画像を、オブジェクト画像として取得する。 Specifically, the image capturing section 110 is imaged by the light from the object as the object image. なお、撮像部110は、物体を振動させた後に、オブジェクトの画像を撮像する。 The imaging unit 110, after vibrating the object, capturing an image of an object. そして、オブジェクト画像取得部210は、撮像部110が撮像した画像をオブジェクト画像として取得する。 Then, the object image acquiring unit 210 acquires the image capturing section 110 has captured as the object image.

オブジェクトからの光としてルミネッセンス物質が発するルミネッセンス光を利用する場合、オブジェクト画像取得部210が取得するオブジェクト画像には、物質の表面からルミネッセンス物質を励起する励起光が進入できる深さまでの範囲に存在するオブジェクトの像が含まれる。 When utilizing luminescence light luminescent substance emits a light from the object, the object image object image acquiring unit 210 acquires, present in a range of depth that can enter the excitation light for exciting the luminescent material from the surface of the material It includes an image of the object. 例えば、内視鏡100の先端部102から照射されるルミネッセンス物質の励起光は、一例として750nmの波長を有するから、検体20の比較的深部(たとえば数cm程度)にまで到達する。 For example, the excitation light of luminescent materials to be irradiated from the tip 102 of the endoscope 100, because a wavelength of 750nm as an example, to reach a relatively deep (e.g. about several cm) of the specimen 20. よって、オブジェクト画像取得部210が取得するオブジェクト画像には、検体20の比較的深部に存在する血管像を含む。 Therefore, the object image object image acquiring unit 210 acquires, including blood vessel image that exists in a relatively deep portion of the specimen 20. なお、血管像は、この発明におけるオブジェクトの像の一例であってよい。 Incidentally, the blood vessel image may be an example of an image of the object in the present invention.

なお、励起光が到達することができる深さの範囲に存在するルミネッセンス物質は、当該励起光によって励起されるから、オブジェクト画像取得部210が取得するオブジェクト画像には、励起光が到達できる深さの範囲に存在する血管像を含む。 Note that the luminescent material excitation light is present in the range of depth that can be reached, since excited by the excitation light, the object image object image acquiring unit 210 acquires the depth excitation light can reach is including blood vessel image that exists in the range of. なお、血管が深い位置に存在するほど、血管からの蛍光が検体20で散乱されるから、深い位置の血管像ほどボケを多く含むことになる。 Incidentally, as present in the blood vessels deep position, since the fluorescence from the vessel is scattered by the specimen 20, thereby containing more blurred as blood vessel images of a deep position.

表面画像取得部214は、物体の表面の画像である表面画像を取得する。 Surface image acquiring unit 214 acquires a surface image is an image of the surface of the object. すなわち表面画像取得部214は、視認すると同等の画像を取得する。 That surface image acquiring unit 214 acquires the image equivalent to the viewing. 例えば、表面画像取得部214は、照射光が物体表面で反射された反射光により撮像部110が撮像した画像を、表面画像として取得する。 For example, the surface image obtaining unit 214, the irradiation light is an image capturing section 110 is captured by the reflected light reflected by the object surface is acquired as a surface image.

位置特定部230は、オブジェクト画像取得部210が取得したオブジェクト画像におけるオブジェクトの像のぼけ量に基づいて、物体の内部におけるオブジェクトの位置を特定する。 Position specifying unit 230, based on the blur amount of the image of the object in the object image object image acquiring unit 210 has acquired, to identify the position of the object inside the object. 具体的には、ぼけ量算出部232は、オブジェクトの像のぼけ量を算出する。 Specifically, out-of-focus-amount calculating unit 232 calculates the blur amount of the image of the object.

伝達時間算出部234は、ぼけ量算出部232が算出したオブジェクトの像のぼけ量に基づいて、物体を振動させてからオブジェクトに振動が伝わるまでの時間長さを示す伝達時間を算出する。 Transmission time calculating unit 234, based on the blur amount of the image of the object-of-focus-amount calculating unit 232 is calculated, to calculate a transmission time indicating the time length from the by vibrating the object to vibrate the object is transmitted. 例えば、伝達時間算出部234は、物体を振動させた時刻とぶれ量が予め定められた値より大きくなった時刻との間の時間長さを、伝達時間として算出する。 For example, transmission time calculating section 234, the length of time between the time at which time the shake amount obtained by vibrating the object becomes larger than a predetermined value is calculated as the transmission time.

距離算出部236は、伝達時間算出部234が算出した伝達時間に基づいて、振動部133が物体を振動させた位置からオブジェクトまでの距離を算出する。 Distance calculating unit 236, based on the transmission time of the transmission time calculating section 234 calculated, the vibration unit 133 calculates the distance from the position of oscillating the object to object. 例えば、距離算出部236は、伝達時間算出部234が算出した伝達時間が長いほど、当該距離をより長く算出することができる。 For example, the distance calculating section 236, the longer the transmission time of the transmission time calculating section 234 calculated, it is possible to calculate longer the distance. 距離算出部236は、単位時間あたりに振動が物体を伝わる距離を示す伝達速度と当該伝達時間に基づいて、振動部133が物体を振動された位置からの距離を算出することができる。 Distance calculating unit 236 can vibrate in per unit time based on the transmission speed and the transmission time indicating the distance transmitted to the object, the vibration unit 133 calculates the distance from the position that is vibrating object.

振動部133が物体の表面から振動させた場合には、伝達時間算出部234は、振動部133が表面を振動させた時刻とぶれ量が予め定められた値より大きくなった時刻との間の時間長さを、伝達時間として算出してよい。 When the vibrating section 133 is vibrated from the surface of the object, transmission time calculating unit 234, between the time when the time and the amount of shake vibration unit 133 vibrates the surface is greater than a predetermined value the time length may be calculated as the transmission time. この場合、距離算出部236は、伝達時間算出部234が算出した伝達時間に基づいて、オブジェクトまでの表面からの深さを算出することができる。 In this case, the distance calculating unit 236 may be transmission time calculating unit 234 based on the transmission time calculated, to calculate the depth from the surface to the object.

画像補正部220は、位置特定部230が特定した深さに基づいて、オブジェクトを撮像した画像におけるオブジェクトの像の広がりを補正する。 Image correcting section 220, based on the depth specified position specifying section 230 corrects the spread of the image of the object in the image of the captured object. 前述したように、オブジェクトの像には、オブジェクトから表面までの物体による散乱によるぼけを含む。 As described above, the image of the object includes a blur due to scattering by the object from the object to the surface. 画像補正部220は、位置特定部230が特定した表面からの深さに応じて、ぼけを補正する。 Image correcting unit 220, according to the depth from the surface of the position identifying section 230 identifies, corrects the blur.

具体的には、補正テーブル222は、オブジェクトまでの深さに対応づけて、オブジェクトの画像におけるオブジェクトの像の広がりを補正する補正値を格納している。 Specifically, the correction table 222 in association with the depth to the object stores a correction value for correcting the spread of the image of the object in the image of the object. そして、画像補正部220は、位置特定部230が特定したオブジェクトまでの深さおよび補正テーブル222が格納している補正値に基づいて、オブジェクトを撮像した画像におけるオブジェクトの像の広がりを補正する。 Then, the image correction unit 220, based on the correction value depth to objects position specifying section 230 has identified and the correction table 222 is stored, to correct the broadening of the image of the object in the image of the captured object.

そして、表示制御部226は、オブジェクトまでの深さに応じて、画像補正部220により補正された画像の表示を制御する。 Then, the display control unit 226, according to the depth to the object, and controls the display of the corrected image by the image correcting unit 220. 例えば、表示制御部226は、画像補正部220により補正された画像におけるオブジェクトの明るさまたは色を、オブジェクトまでの深さに応じて変化させる。 For example, the display control unit 226, the brightness or color of the object in the corrected image by the image correction unit 220, is changed according to the depth to the object.

なお、位置特定部230は、複数のオブジェクトのそれぞれまでの表面からの深さを特定してよい。 The position specifying unit 230 may identify the depth from the surface to each of the plurality of objects. 具体的には、伝達時間算出部234は、複数のオブジェクトのそれぞれについて、伝達時間を算出してよい。 Specifically, transmission time calculating unit 234, for each of the plurality of objects, may calculate the transmission time. そして、距離算出部236は、伝達時間算出部234が算出した伝達時間に基づいて、複数のオブジェクトのそれぞれまでの表面からの深さを算出してよい。 Then, the distance calculation unit 236, based on the transmission time of the transmission time calculating section 234 is calculated, it may calculate the depth from the surface to each of the plurality of objects. そして、画像補正部220は、複数のオブジェクトのそれぞれまでの深さに基づいて、画像における複数のオブジェクトのそれぞれの像の広がりを補正してよい。 Then, the image correction unit 220, based on the depth to each of the plurality of objects may be corrected spread of each of the images of the plurality of objects in an image.

画像補正部220によって補正された画像は出力部180に供給されて表示される。 Corrected image by the image correcting unit 220 is displayed is supplied to the output unit 180. 表示制御部226は、複数のオブジェクトのそれぞれまでの深さに応じて、画像補正部220により補正された画像の表示を制御する。 The display control unit 226, depending on the depth to each of a plurality of objects, and controls the display of the corrected image by the image correcting unit 220. 例えば、表示制御部226は、画像補正部220により補正された画像における複数のオブジェクトのそれぞれの明るさまたは色を、複数のオブジェクトのそれぞれまでの深さに応じて変化させる。 For example, the display control unit 226, the respective brightness or color of the plurality of objects in the corrected image by the image correction unit 220, is changed according to the depth of up to each of the plurality of objects. その他にも、表示制御部226は、補正された画像に対応づけて、オブジェクトまでの深さを示す文字等を表示させてもよい。 Besides, the display control unit 226, in association with the corrected image may be displayed characters or the like that indicates the depth to the object.

図3は、振動部133の構成の一例を示す。 Figure 3 shows an example of the configuration of the vibrating section 133. 振動部133は、振動発生部300を含む。 Vibrating unit 133 includes a vibration generating portion 300. 振動発生部300は、焦点310に集束する振動波を発生することができる。 Vibration generating unit 300 can generate a vibration wave to be focused at the focal point 310. なお、振動発生部300の位置を変えることによって、振動発生部300は、異なる複数の位置でそれぞれ集束する振動波を異なる方向から発生することができる。 Note that by changing the position of the vibration generating portion 300, the vibration generator unit 300 can generate a vibration wave to be focused respectively different position from the different directions. 振動発生部300は、例えば超音波振動子であり、焦点310に集束する超音波を発生することができる。 Vibration generating unit 300 is, for example, an ultrasonic transducer, capable of generating ultrasonic waves focused to the focal point 310.

図4は、位置特定部230が深さを検出する検出方法の一例を示す。 Figure 4 shows an example of the detection method of the position specifying section 230 detects the depth. 振動部133は、時刻t0において検体20の表面を振動させる。 Vibration unit 133 vibrates the surface of the specimen 20 at time t0. 撮像部110は、時刻t0+Δtから2Δtおきに、オブジェクトの画像を連続的を撮像する。 Imaging unit 110, the 2Δt every from time t0 + Delta] t, captures a continuous image of an object. 本図において、撮像部110は、時刻t0+Δt、時刻t0+3Δt、および時刻t0+5Δtにおいて、それぞれ画像401、画像403、および画像405を撮像したとする。 In the figure, the imaging unit 110, the time t0 + Delta] t, the time t0 + 3? T, and at time t0 + 5Δt, respectively image 401, the captured image 403, and image 405.

また、撮像部110が上記の画像401、403、および405を撮像する撮像期間の他の期間に含まれる時刻t1において、検体20の表面を振動させる。 At time t1 when the imaging unit 110 is included in the other periods of the imaging period for capturing the image 401, 403, and 405 described above, to vibrate the surface of the specimen 20. そして、撮像部110は、時刻t1+2Δから、2Δtおきに連続的にオブジェクトの画像を連続的に撮像する。 The imaging unit 110 includes, from the time t1 + 2.DELTA., Continuously capturing images continuously object to 2Δt intervals. 本図において、撮像部110は、時刻t1+2Δtおよび時刻t1+4Δtにおいて、それぞれ画像402および画像404を撮像したとする。 In the figure, the imaging unit 110 at time t1 + 2? T and the time t1 + 4Δt, the captured image 402 and image 404, respectively.

上記の複数回の連続撮影により、撮像部110は、振動部133が振動させてからΔtおきのオブジェクトの画像を撮像することができる。 The plurality of continuous shooting of the imaging unit 110 may vibrate 133 captures an image of an object Δt intervals were allowed to vibrate. オブジェクト画像取得部210は、撮像部110が撮像したオブジェクトの画像401−405を取得する。 Object image acquiring unit 210, the imaging unit 110 acquires an image 401-405 the objects captured.

なお、画像401は、血管像411および血管像421を含み、画像403は、血管像413および血管像423を含み、画像405は、血管像415および血管像425を含む。 Note that the image 401 includes a blood vessel image 411 and the blood vessel image 421, image 403 includes a blood vessel image 413 and the blood vessel image 423, image 405 includes a blood vessel image 415 and the blood vessel image 425. また、画像402は、血管像412および血管像422を含み、画像404は、血管像414および血管像424を含む。 The image 402 includes a blood vessel image 412 and the blood vessel image 422, image 404 includes a blood vessel image 414 and the blood vessel image 424. なお、本図の例では、血管像421−425が示す血管は、血管像411−415が示す血管より深い位置に存在する。 In the example of this figure, the blood vessel indicated by blood vessel image 421-425 is present at a position deeper than the blood vessel indicated by the blood vessel image 411-415. したがって、図示されるように、振動が伝わっていない時刻t0+Δtにおいては、血管像421は血管像411より大きなぼけ量を有する。 Thus, as illustrated, at time t0 + Delta] t that is not vibration is transmitted, the blood vessel image 421 having a larger blur amount from the blood vessel image 411.

ぼけ量算出部232は、画像401−405に含まれる血管像411−415および血管像421−425のそれぞれのぼけ量を算出する。 Out-of-focus-amount calculating unit 232 calculates the respective amount of blur vessel image 411-415 and blood vessel image 421-425 included in the image 401-405. 具体的には、ぼけ量算出部232は、オブジェクトと他の領域との境界領域におけるぼけ量を算出する。 Specifically, out-of-focus-amount calculating unit 232 calculates the blurring amount in the boundary region between the object and the other regions. ここで、ぼけ量としては、当該境界領域におけるオブジェクトの像の広がり等を例示できる。 Here, the blur amount can be exemplified by spreading or the like of an image of the object in the boundary region. オブジェクトの像の広がりは、オブジェクトが含む特定の色の輝度値の空間的な変化量で評価することができる。 Spread of the image of the object can be evaluated in a spatial variation of luminance values ​​of a specific color that the object contains. 輝度値の空間的な変化量としては、空間分布における半値幅または空間微分値等を例示できる。 The spatial variation of luminance values ​​can be exemplified by the half-width or spatial differential value or the like in the spatial distribution.

伝達時間算出部234は、ぼけ量算出部232が算出したぼけ量に基づいて、血管像411−415の中で最大のぼけ量を有しており、かつ予め定められた値より大きなぼけ量を有する血管像412を特定する。 Transmission time calculating unit 234, based on the blur amount-of-focus-amount calculating unit 232 is calculated, it has a maximum blur amount in the blood vessel image 411-415, and larger blur amount than a predetermined value identifying a blood vessel image 412 having. そして、伝達時間算出部234は、血管像412を含む画像402が撮像された時刻t+2Δtを特定する。 The transmission time calculation section 234, an image 402 including a blood vessel image 412 to identify the time t + 2? T imaged. そして、伝達時間算出部234は、振動部133が検体20の表面を振動させた時刻t1との間の時間差2Δtを、血管像411−415が示す血管までの表面からの伝達時間として検出する。 The transmission time calculation section 234, the vibration unit 133 a time difference 2Δt between times t1 surface was allowed to vibrations of the specimen 20 is detected as transmission time from the surface to the blood vessel indicated by blood vessel image 411-415.

なお、血管像421−425の中では、血管像423のぼけ量が最も大きい。 Incidentally, in the blood vessel image 421-425, the largest amount of blur blood vessel image 423. したがって、伝達時間算出部234は、血管像411−415の場合の同様にして、ぼけ量算出部232によって算出された血管像421−425のぼけ量に基づいて、血管像421−425が示す血管までの表面からの伝達時間として3Δtを検出する。 Therefore, transmission time calculating unit 234, in the same case of the blood vessel image 411-415, based on the blur amount of the blood vessel image 421-425 calculated by out-of-focus-amount calculating unit 232, the blood vessel indicated by blood vessel image 421-425 3Δt detected as transmission time from the surface to.

なお、上記の説明では、撮像部110の撮像レート、検体20を振動が伝達する速度、および要求される深さ分解能に基づいて、2回の連続撮影に分けてオブジェクトの画像を撮像する場合の各構成要素の動作を例に挙げた。 In the above description, the imaging rate of the imaging unit 110, based on the depth resolution vibrating the sample 20 is speed transmission, and requests, in the case of an image of the object in two consecutive shooting the operation of each component listed as an example. 振動が検体20を伝達する速度および撮像部110の撮像レートによって定められる深さ分解能が、要求される深さ分解能以上であれば、撮像部110は連続撮像を一回行えばよい。 The depth resolution is determined by the imaging rate of the speed and the imaging unit 110 vibration transmitting specimen 20, if the required depth resolution above, the imaging unit 110 may be performed once continuous imaging.

図5は、距離算出部236が記憶している情報をテーブル形式で示す。 Figure 5 shows the information that the distance calculation unit 236 is stored in a table format. 距離算出部236は、図示する距離算出テーブルに、時間差およびぼけ量差に対応づけて距離を記憶している。 Distance calculating unit 236, a distance calculation table shown, and stores the distance in association with the time difference and the blur amount difference. 時間差は、図4に関連して説明したように、振動部133が表面を振動させてからの時刻と、最大のぼけ量を有する血管像を含む画像が撮像された時刻との間の時間差を示す。 The time difference, as described in relation to FIG. 4, the time from by vibrating the surface vibration unit 133, the time difference between the time the image was captured, including a blood vessel image having the maximum blur amount show. ぼけ量差は、振動が伝達していない時刻(または、振動させていない場合)における血管像のぼけ量と、最大のぼけ量との間のぼけ量の差を示す。 Blur amount difference indicates a blur amount of the blood vessel image at the time when the vibration is not transmitted (or, if not vibrated), the difference in the blur amount between the maximum blur amount. なお、本図の例では、血管と他の領域の境界における血管像の半値幅をぼけ量の指標としており、当該ぼけ量の差Δwをぼけ量差の指標としている。 In the illustrated example, it has an index of weight blur the half width of the blood vessel image at the boundary of the blood vessels and other areas, and an index of amount difference blur difference Δw of the blur amount.

距離算出部236は、伝達時間算出部234が算出した伝達時間、および、距離算出テーブルとして記憶している情報に基づいて、表面から血管までの距離を算出する。 Distance calculating section 236, transmission time that transmission time calculating section 234 calculated, and the distance on the basis of the information stored as calculation table, and calculates the distance from the surface to the vessel. 具体的には、距離算出部236は、伝達時間算出部234が算出した伝達時間に対応づけて記憶している距離を、表面から血管までの距離として算出する。 Specifically, the distance calculation unit 236, the distance that the transmission time calculation section 234 stores in association with the transmission time calculated is calculated as the distance from the surface to the vessel.

なお、距離算出部236は、伝達時間に加えて、振動が伝達していない時刻における血管像のぼけ量と、最大のぼけ量との間のぼけ量の差にさらに基づいて、表面から血管までの距離を算出してもよい。 The distance calculating unit 236, in addition to the transmission time further based on a difference of the amount of blur between the blur amount of the blood vessel image at the time that the vibration is not transmitted, the maximum blur amount, from the surface to the vessel the distance may be calculated. 血管像411−415が示す血管を例に挙げると、距離算出部236は、血管像412のぼけ量と血管像411のぼけ量との間のぼけ量の差と、時間差Δtに対応づけて記憶している距離を、表面から血管までの距離として算出してよい。 Taking the blood vessels vessel image 411-415 is shown as an example, the distance calculation unit 236, a difference in the blur amount between the blur amount and the blur amount of the blood vessel image 411 of a blood vessel image 412, in association with the time difference Δt storage the distance you are, may be calculated as the distance from the surface to the vessel. 距離算出部236が、ぼけ量の差および時間差に基づいて距離を算出することによって、深さ分解能をより高めることができる。 Distance calculating unit 236, by calculating the distance based on the difference and the time difference of the blur amount, it is possible to increase the depth resolution.

なお、撮像部110が、物体を振動させた場合および物体を振動させていない場合のそれぞれにおけるオブジェクトの画像を撮像している場合には、位置特定部230は、撮像部110が撮像したそれぞれの画像におけるオブジェクトの像のぼけ量に基づいて、物体の内部におけるオブジェクトの位置を特定することができる。 The imaging unit 110, if you are an image of the object in each case not to vibrate the case and the object is vibrated the object, the position specifying unit 230, respectively to the imaging unit 110 has captured based on the blur amount of the image of an object in an image, it is possible to specify the position of the object inside the object. 具体的には、位置特定部230は、物体を振動させた場合におけるオブジェクトの像のぼけ量と物体を振動させない場合におけるオブジェクトの像のぼけ量との差に基づいて、物体の内部におけるオブジェクトの位置を特定する。 Specifically, the position specifying unit 230, based on the difference between the blurring amount of the image of the object in the case of not vibrate blur amount and the object of the image of the object in a case of oscillating an object, the object inside the object position to identify. 位置特定部230は、上述した距離算出テーブルに記憶している情報と当該ぼけ量の差とに基づいて、物体の内部におけるオブジェクトの位置を特定することができる。 Position specifying section 230 based on the difference information and the blur amount stored in the distance calculation table described above, it is possible to specify the position of the object inside the object. また、位置特定部230は、当該ぼけ量の差がより小さい場合に、振動部133が物体を振動させた位置のより遠くに、オブジェクトの位置を特定することができる。 The position specifying unit 230, when the difference of the blur amount is smaller than the vibration portion 133 is farther position of oscillating an object, it is possible to specify the position of the object.

図6は、画像補正部220による補正後の画像600の一例を示す。 Figure 6 shows an example of an image 600 after the correction by the image correcting unit 220. 画像補正部220は、オブジェクト画像取得部210が取得した画像が含むそれぞれの血管像に対して、位置特定部230が検出した血管までの深さに応じて、それぞれの血管像の広がりを縮小する補正を施す。 Image correcting unit 220, for each of the blood vessel image containing an image object image acquiring unit 210 acquires, according to the depth of up vessel position specifying section 230 has detected, to reduce the spread of each blood vessel image the correction is performed.

一例として、画像補正部220は、血管像421の広がりを補正する画像変換を血管像421に対して施して血管像620を得る。 As an example, the image correction unit 220 obtains the blood vessel image 620 image conversion for correcting the spread of the blood vessel image 421 is subjected relative to the blood vessel image 421. 具体的には、画像補正部220は、血管までの深さをパラメータとして持つ点拡がり関数を記憶している。 Specifically, the image correction unit 220 stores a point spread function with a depth of up to the vessel as a parameter. 当該点拡がり関数は、点光源からの光が表面までの間において散乱されることによる点拡がりを示す。 The point spread function shows a point spread by the light from the point light source is scattered in until surface. 画像補正部220は、血管までの深さに応じて定まる点拡がり関数の逆フィルタによるフィルタリング処理を血管像421に対して施すことによって、血管の広がりが補正された血管像620を得る。 Image correcting unit 220, by performing a filtering process by the inverse filter of the point spread function determined in accordance with the depth to the blood vessel against the blood vessel image 421 to obtain the blood vessel image 620 spreading of blood vessels has been corrected. なお、補正テーブル222は、補正値の一例としての当該逆フィルタを、オブジェクトまでの深さに対応づけて記憶してよい。 The correction table 222, the inverse filter as an example of the correction values, may be stored in correspondence to the depth to the object.

このように、撮像部110により撮像された画像における血管像は、本実施形態の位置特定システム10によって補正されるので、鮮明な血管像610および620を得ることができる。 Thus, the blood vessel image in the image captured by the imaging unit 110, since it is corrected by the localization system 10 of the present embodiment, it is possible to obtain a clear blood vessel image 610 and 620. なお、表示制御部226は、画像600に含まれる血管像610および血管像620を、深さに応じて濃淡を変えることによって、あるいは色を変えることによって、表面からの深さを出力部180に表示させる。 The display control unit 226, a blood vessel image 610 and the blood vessel image 620 included in the image 600, by varying the density according to the depth, or by changing the color, the output unit 180 the depth from the surface to be displayed. なお、表示制御部226は、画像補正部220によって補正された画像と表面画像取得部214が取得した表面画像とを合成して出力部180に表示させてよい。 The display control unit 226 may be displayed on the synthesized and output unit 180 and a surface image image and surface image obtaining unit 214 which has been corrected is obtained by the image correction unit 220. 具体的には、表示制御部226は、画像補正部220によって補正された画像と表面画像とを重ね合わせて出力部180に表示させてよい。 Specifically, the display control unit 226, the image correction unit 220 by superimposing the corrected image and the surface image may be displayed on the output unit 180.

本実施形態の位置特定システム10によれば、たとえば医師が出力部180による表示内容を見つつ手術等を実施するときに、表面観察によっては視認できない内部の血管610および620を鮮明に認識できる場合がある。 According to a position location system 10 of the present embodiment, for example when the physician performing the surgery or the like while looking at the display content by the output unit 180, if it can clearly recognize the inside of the vessel 610 and 620 can not be visually recognized by surface observation there is. また、医師は内部の血管610および血管620の深さ情報を参照しつつ手術等を実施できる利点が得られる場合がある。 Also, doctors sometimes advantage of performing the surgery or the like with reference to the depth information of the interior of the vessel 610 and vessel 620 can be obtained.

図7は、位置特定部230が深さを検出する検出方法の他の一例を示す。 Figure 7 shows another example of a method for detecting a depth position specifying section 230. 振動部133は、振動発生部300の焦点を、物体700の表面730からの深さが異なる位置751、752、753、および754に順次合わせて、振動発生部300から振動波を発生させる。 Vibrating unit 133, the focal point of the vibration generating portion 300, the depth positions different from the surface 730 of the object 700 751,752,753, and sequentially suit 754, to generate a vibration wave from the vibration generating portion 300. このように、振動部133は、異なる複数の位置でそれぞれ収束する波をそれぞれ異なるタイミングで発生することにより、物体における異なる複数の位置をそれぞれ異なるタイミングで振動させる。 Thus, the vibration unit 133, by generating at different timings waves converge respectively different positions, to vibrate at different timings plurality of positions different in the object.

撮像部110は、異なるタイミングのそれぞれにおいてオブジェクトの画像を撮像する。 Imaging unit 110 captures an image of an object in each of the different timings. そして、位置特定部230は、ぼけ量が予め定められた値より大きいオブジェクトの像を含む画像が撮像されたタイミングにおいて振動部133が物体を振動させた位置の近傍に、オブジェクトの位置を特定する。 The position specifying section 230, near a position where the vibration portion 133 vibrates the object at the timing of imaging the image containing the image of the larger object than the value amount of blur predetermined to locate the object .

例えば、ぼけ量算出部232は、振動部133が位置751、752、753、および754のそれぞれを局所的に振動させている間に撮像部110が撮像した画像にそれぞれに含まれる血管710を示す血管像から、前述のぼけ量を算出する。 For example, out-of-focus-amount calculating unit 232, shows a vessel 710 in which the imaging unit 110 are included in each of the images captured while the vibrating unit 133 are locally vibrate the respective positions 751,752,753, and 754 from the blood vessel image, and it calculates the blur amount of the foregoing. そして、距離算出部236は、ぼけ量算出部232が最大のぼけ量を算出した血管像を含む画像を特定する。 Then, the distance calculation unit 236, the blur amount calculating section 232 identifies an image including a blood vessel image obtained by calculating the maximum blur amount. そして、距離算出部236は、特定した画像を撮像したときに、振動部133が振動させていた位置の近傍に、血管が存在すると判断する。 Then, the distance calculation unit 236, when capturing a specified image, the vibration unit 133 is in the vicinity of the position that has vibrated, it is determined that the blood vessel is present.

本図の例では、血管710を示す血管像は、位置752を振動させているときに撮像された画像において、他の位置を振動させているときに撮像された画像より大きなぼけ量を持つことが期待される。 In the illustrated example, a blood vessel image showing the blood vessels 710, in an image captured when it is vibrating the position 752, having a larger blur amount from the captured image when it is vibrating the other position There is expected. このため、距離算出部236は、位置752の近傍に血管710の位置を特定する。 Therefore, the distance calculation unit 236 identifies the position of the blood vessel 710 near a position 752. そして、距離算出部236は、表面730から位置752までの距離を、表面730から血管までの深さとして算出する。 Then, the distance calculation unit 236, the distance from the surface 730 to the position 752, is calculated as a depth from the surface 730 to the vessel.

なお、距離算出部236は、算出した血管710の深さとともに、算出した深さについての確からしさを算出してもよい。 The distance calculation unit 236, together with the depth of the calculated blood vessel 710, may calculate the likelihood of the calculated depth. 例えば、距離算出部236は、位置751と位置752の中点から位置752と位置753の中点までの間に血管710が存在すると判断する。 For example, the distance calculation unit 236 determines that the blood vessel 710 is present between the middle point position 751 and position 752 to the midpoint position 752 and position 753. そして、距離算出部236は、当該二つの中点の間に、位置752の近傍において最大の確からしさを有する、距離に関する確からしさの分布を持たせる。 Then, the distance calculation unit 236, between the two midpoints, with the largest likelihood in the vicinity of the position 752, to have a likelihood distribution on the distance. そして、画像補正部220は、距離算出部236が算出した確からしさの分布を用いて、血管像の広がりを補正してよい。 Then, the image correction unit 220 uses the probability distribution of the distance calculating section 236 is calculated, may correct the spread of blood vessel image.

なお、画像処理部140は、撮像部110が撮像した画像を解析することによって、画像に含まれる血管の数を検出する。 The image processing unit 140, by the imaging unit 110 analyzes the image captured, detects the number of vessels contained in the image. そして、振動部133は、撮像部110による撮像対象面上におけるそれぞれの血管の位置を特定する。 The vibration unit 133 specifies the position of each of the vessels on the imaging target plane by the imaging unit 110. そして、振動部133は、特定したそれぞれの血管の位置において、表面730からの深さが異なる複数の位置を振動させる。 The vibration unit 133, the position of each of the vessels identified vibrates the plurality of positions different depths from the surface 730. これにより、位置特定部230は、複数の血管のそれぞれの深さを算出することができる。 Thus, the position specifying unit 230 is able to calculate the respective depths of the plurality of vessels.

以上説明したように、振動部133は、物体の内部における異なる複数の位置をそれぞれ異なるタイミングで振動させる。 As described above, the vibration unit 133 vibrates at respective different timings different positions inside the object. そして、位置特定部230は、撮像部110が撮像したそれぞれの画像におけるオブジェクトの像のぼけ量に基づいて、オブジェクトの位置を特定する。 The position specifying unit 230, based on the blur amount of the image of the object in each image by the imaging unit 110 has captured, to locate the object.

図8は、位置特定部230が深さを検出する検出方法のさらなる他の一例を示す。 Figure 8 shows a further another example of a method for detecting position specifying section 230 detects the depth. 振動部133は、振動発生部300の焦点を第1位置861および第2位置862に順次合わせてから振動させる。 Vibration unit 133 vibrates the sequentially focus the vibration generating portion 300 to the first position 861 and second position 862. このように、振動部133は、物体800の表面830における第1位置816および物体800の表面830における第2位置を振動させる。 Thus, the vibration unit 133 vibrates the second position on the surface 830 of the first position 816 and the object 800 at the surface 830 of the object 800.

撮像部110は、第2位置862を振動させずに第1位置861を振動させた場合および第1位置861を振動させずに第2位置862を振動させた場合のそれぞれにおけるオブジェクトの画像を撮像する。 Imaging unit 110 captures an image of the object in each case of oscillating the second position 862 when the first position 861 to vibrate the second position 862 without vibration and the first position 861 without vibration to. そして、位置特定部230は、第2位置862を振動させずに第1位置861を振動させた場合におけるオブジェクトの像のぼけ量と、第1位置861を振動させずに第2位置862を振動させた場合におけるオブジェクトの像のぼけ量との差に基づいて、物体の内部におけるオブジェクトの位置を特定する。 The position specifying section 230, vibration and blurring of the image of the object in the case where the first position 861 to vibrate the second position 862 without vibration, the second position 862 without vibrating the first position 861 based on a difference between the blurring amount of the image of the object in the case of is, to identify the position of the object inside the object.

図9は、振動部133が異なる位置を振動させた場合に撮像された画像901および画像902の一例を示す。 Figure 9 shows an example of an image 901 and image 902 captured when the vibration unit 133 vibrates the different positions. 画像901は、振動部133が位置861を振動させた場合に撮像部110が撮像した画像の一例であり、画像902は、振動部133が位置862を振動させた場合に撮像部110が撮像した画像の一例である。 Image 901 is an example of an image capturing section 110 has captured when the vibrating section 133 vibrates the position 861, the image 902, the imaging unit 110 captured when the vibrating section 133 vibrates the position 862 it is an example of an image. 画像901が含む血管像911および画像902が含む血管像921は、血管810を示しており、画像901が含む血管像912および画像902が含む血管像922は、血管820を示す。 Blood vessel image 921 vessel image 911 and image 902 image 901 contains includes shows a vessel 810, vessel image 922 vessel image 912 and image 902 image 901 contains includes shows vessel 820.

血管像911においては、位置861に近い部分のぼけ量は、位置861から遠い部分に比べて大きい。 In blood vessel image 911, the blur amount of the portion near the position 861 is larger than the portion far from the position 861. 一方、血管像921においては、位置862に近い部分のぼけ量は、位置862から遠い部分のぼけ量に比べて大きい。 On the other hand, in blood vessel image 921, the blur amount of the portion near the position 862 is larger than the amount of blur portion far from the position 862.

一方、血管像912および血管像922においては、位置861に近い部分と位置862に近い部分とでぼけ量の違いは、血管像921または血管像911に比べて小さい。 On the other hand, in the blood vessel image 912 and the blood vessel image 922, difference in blur amount between the portion close to the portion between the position 862 close to the position 861 is smaller than the blood vessel image 921 or vessel image 911. このような場合、距離算出部236は、血管像における異なる位置おけるぼけ量の違いが大きいほど、より深い位置に血管を特定する。 In this case, the distance calculation unit 236, as the different positions definitive blur amount in blood vessel image difference is greater, to identify the vascular deeper position. このように、位置特定部230は、ぼけ量の差が小さい場合に、第1位置861および第2位置862のより遠くにオブジェクトの位置を特定する。 Thus, the position specifying unit 230, when the difference between the blurring amount is small, to locate the object more distant first position 861 and second position 862. そして、画像補正部220は、位置特定部230がより深い深さを算出した血管820の血管像を、位置特定部230がより浅い深さを算出した血管810の血管像より大きく補正する。 Then, the image correction unit 220, the position of the blood vessel image of the blood vessel 820 calculated specific portion 230 is deeper depths, larger correction than the blood vessel image of the blood vessel 810 position specifying section 230 calculates a shallower depth.

図10は、本実施形態に係る位置特定システム10のハードウェア構成の一例を示す。 Figure 10 shows an example of a hardware configuration of a positioning system 10 according to this embodiment. 本実施形態に係る位置特定システム10は、CPU周辺部、入出力部、およびレガシー入出力部を備える。 Position location system 10 of the present embodiment includes a CPU peripheral unit, input-output unit, and a legacy input-output section. CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示デバイス1580を有する。 CPU peripheral section, CPU1505 are interconnected by a host controller 1582, RAM 1520, a graphic controller 1575 and a display device 1580,. 入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する。 Output unit includes a communication interface 1530 connected by input-output controller 1584 to the host controller 1582, a hard disk drive 1540, and CD-ROM drive 1560,. レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有する。 Legacy input-output section, ROM1510 is connected to the input-output controller 1584, a flexible disk drive 1550 and an input-output chip 1570,.

ホスト・コントローラ1582は、RAM1520と、高転送レートでRAM1520をアクセスするCPU1505およびグラフィック・コントローラ1575とを接続する。 The host controller 1582 connects the RAM 1520, CPU 1505 and graphic controller 1575 accessing the RAM 1520 at a high transfer rate. CPU1505は、ROM1510およびRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。 CPU1505 operates based on programs stored in ROM1510 and RAM 1520, to control each unit. グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。 The graphic controller 1575 acquires image data or the like CPU1505 is generated on a frame buffer provided in the RAM 1520, and displays it on the display device 1580. これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。 Alternatively, the graphic controller 1575 may include therein a frame buffer for storing image data generated by the CPU 1505, may be included therein.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。 Output controller 1584 connects the host controller 1582, the communication interface 1530 that are a comparatively fast input-output apparatus, the hard disk drive 1540, CD-ROM drive 1560. 通信インターフェイス1530は、ネットワークを介して他の装置と通信する。 The communication interface 1530 communicates with other devices via a network. ハードディスクドライブ1540は、位置特定システム10内のCPU1505が使用するプログラムおよびデータを格納する。 The hard disk drive 1540 stores the programs and data CPU1505 uses a location system 10. CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。 CD-ROM drive 1560 reads a program or data from the CD-ROM 1595, and provides it to the hard disk drive 1540 via the RAM 1520.

また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。 Further, the input-output controller 1584, a ROM 1510, flexible disk drive 1550, and a relatively low rate input and output devices of the input and output chip 1570 are connected. ROM1510は、位置特定システム10が起動時に実行するブート・プログラム、位置特定システム10のハードウェアに依存するプログラム等を格納する。 ROM1510 a boot program position location system 10 is run at startup, and stores a program depending on hardware of the location system 10. フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。 The flexible disk drive 1550 reads a program or data from a flexible disk 1590 and provides it to the hard disk drive 1540 via the RAM 1520. 入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。 Output chip 1570 connects the flexible disk drive 1550, a parallel port, a serial port, a keyboard port, various input and output devices via a mouse port, or the like.

RAM1520を介してハードディスクドライブ1540に提供される通信プログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。 Communication program provided to the hard disk drive 1540 via the RAM1520 is provided by a user is stored in a recording medium such as the flexible disk 1590, CD-ROM 1595, or IC card, or the like. 通信プログラムは、記録媒体から読み出され、RAM1520を介して位置特定システム10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。 The communication program is read from the recording medium, installed in the hard disk drive 1540 of the location system 10 via the RAM 1520, executed in CPU 1505. 位置特定システム10にインストールされて実行される通信プログラムは、CPU1505等に働きかけて、位置特定システム10を、図1から図9にかけて説明した位置特定システム10が備える各構成要素として機能させる。 Communication program installed and executed in the position location system 10 works on the CPU1505 like, position location system 10, to function as the components included in the position location system 10 described subjected FIGS. 1-9. 例えば、当該プログラムは、位置特定システム10を、図1から図9にかけて説明した撮像部110、振動部133、画像処理部140、出力部180、光照射部150、制御部105、および画像処理部140等として機能させる。 For example, the program position location system 10, the imaging unit 110 described subjected FIGS. 1-9, the vibration unit 133, the image processing unit 140, output unit 180, the light irradiating section 150, the control unit 105, and an image processing unit to function as the 140 or the like.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。 Although the present invention has been described with the embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. 上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。 To the embodiments described above, it is apparent to those skilled in the art can be added to various modifications and improvements. その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 It is apparent from the appended claims that embodiments with such modifications also belong to the technical scope of the present invention.

本実施形態の位置特定システム10の一例を検体20とともに示す図である。 An example of a location system 10 of the present embodiment illustrates with analyte 20. 画像処理部140の構成例を示す図である。 It is a diagram illustrating a configuration example of an image processing unit 140. 振動部133の構成の一例を示す図である。 Is a diagram illustrating an example of a configuration of the vibration unit 133. 位置特定部230が深さを検出する検出方法の一例を示す図である。 It is a diagram illustrating an example of a method for detecting position specifying section 230 detects the depth. 距離算出部236が記憶している距離算出テーブルを示す図である。 Distance calculating unit 236 is a diagram showing the distance calculation table stored. 画像補正部220による補正後の画像600の一例を示す図である。 Is a diagram showing an example of an image 600 after the correction by the image correcting unit 220. 位置特定部230が深さを検出する検出方法の他の一例を示す図である。 It is a diagram showing another example of a method for detecting position specifying section 230 detects the depth. 位置特定部230が深さを検出する検出方法のさらなる他の一例を示す図である。 It is a diagram showing still another an example of the detection method of the position specifying section 230 detects the depth. 振動部133が異なる位置を振動させた場合に撮像された画像901および画像902の一例を示す図である。 Vibrating section 133 is a diagram showing an example of an image 901 and image 902 captured when vibrating the different positions. 本実施形態に係る位置特定システム10のハードウェア構成の一例を示す図である。 Is a diagram illustrating an example of a hardware configuration of a positioning system 10 according to this embodiment.

符号の説明 DESCRIPTION OF SYMBOLS

10 位置特定システム20 検体100 内視鏡102 先端部105 制御部110 撮像部112 レンズ120 ライトガイド124 出射口130 鉗子口133 振動部135 鉗子138 ノズル140 画像処理部150 光照射部160 撮像制御部170 発光制御部180 出力部190 ICG注入部210 オブジェクト画像取得部214 表面画像取得部220 画像補正部222 補正テーブル226 表示制御部230 位置特定部232 ぼけ量算出部234 伝達時間算出部236 距離算出部300 振動発生部1505 CPU 10 position location system 20 specimens 100 endoscope 102 tip 105 controller 110 imaging unit 112 lens 120 the light guide 124 exit port 130 the forceps port 133 vibrating portion 135 Forceps 138 nozzle 140 image processing unit 150 light irradiating unit 160 an imaging control unit 170 light emission control unit 180 output unit 190 ICG injection section 210 object image acquiring unit 214 surface image acquiring unit 220 the image correction unit 222 corrects the table 226 the display control unit 230 position specifying part 232 out-of-focus-amount calculating unit 234 transmission time calculating section 236 distance calculating section 300 vibration generating unit 1505 CPU
1510 ROM 1510 ROM
1520 RAM 1520 RAM
1530 通信インターフェイス1540 ハードディスクドライブ1550 フレキシブルディスク・ドライブ1560 CD−ROMドライブ1570 入出力チップ1575 グラフィック・コントローラ1580 表示デバイス1582 ホスト・コントローラ1584 入出力コントローラ1590 フレキシブルディスク1595 CD−ROM 1530 communication interface 1540 Hard drive 1550 The flexible disk drive 1560 CD-ROM drive 1570 output chip 1575 graphic controller 1580 display device 1582 host controller 1584 output controller 1590 a flexible disk 1595 CD-ROM

Claims (14)

  1. 物体の内部に存在するオブジェクトの位置を特定する位置特定システムであって、 A locating system for locating objects that exist inside the object,
    前記物体の内部における異なる複数の位置をそれぞれ異なるタイミングで振動させる振動部と、 A vibration unit for vibrating at different timings plurality of positions different in the interior of the object,
    異なるタイミングのそれぞれにおいて前記オブジェクトの画像を撮像する撮像部と、 An imaging unit for capturing an image of said object at each of different timings,
    前記撮像部が撮像したそれぞれの画像における前記オブジェクトの像のぼけ量に基づいて、前記オブジェクトの位置を特定する位置特定部とを備える位置特定システム。 Location system and a said imaging unit based on the blurring amount of the image of the object in each image captured, the position specifying unit for specifying a position of the object.
  2. 前記位置特定部は、前記ぼけ量が予め定められた値より大きい前記オブジェクトの像を含む画像が撮像されたタイミングにおいて前記振動部が前記物体を振動させた位置の近傍に、前記オブジェクトの位置を特定する請求項1に記載の位置特定システム。 Wherein the position specifying unit in the vicinity of a position where the vibrating portion in the image where the blur amount includes an image of the predetermined value greater than the object is captured timing was vibrated the object, the position of the object the position location system of claim 1 to identify.
  3. 前記振動部は、前記異なる複数の位置でそれぞれ集束する波をそれぞれ異なるタイミングで発生することにより、前記物体における異なる複数の位置をそれぞれ異なるタイミングで振動させる請求項2に記載の位置特定システム。 The vibrating portion, the plurality of different wave focusing respectively positions by generating at different timings, position location system of claim 2 for vibrating the plurality of different positions in the object at different timings.
  4. 前記振動部は、前記複数の位置でそれぞれ集束する振動波を異なる方向から発生する振動発生部を有する請求項3に記載の位置特定システム。 The vibrating portion, the position location system of claim 3 having a vibration generator for generating a vibration wave to be focused respectively by the plurality of position from different directions.
  5. 前記振動部は、前記撮像部による撮像方向に直交する方向の振動成分を有する振動を、前記異なる複数の位置に与える請求項4に記載の位置特定システム。 The vibrating portion, the position location system of claim 4 for vibrating, the plurality of different locations with vibration component in a direction orthogonal to the capturing direction of the imaging unit.
  6. 前記撮像部は、前記オブジェクトの内部のルミネッセンス物質が発した光により前記オブジェクトの画像を撮像する請求項5に記載の位置特定システム。 The imaging unit position location system of claim 5 for capturing an image of said object by light luminescent substance inside the object emitted.
  7. 前記撮像部は、前記オブジェクトから反射した光により前記オブジェクトの画像を撮像する請求項5に記載の位置特定システム。 The imaging unit position location system of claim 5 for capturing an image of said object by light reflected from the object.
  8. 前記撮像部は、前記オブジェクトを透過した光により前記オブジェクトの画像を撮像する請求項5に記載の位置特定システム。 The imaging unit position location system of claim 5 for capturing an image of said object by light transmitted through the object.
  9. 前記位置特定部は、前記物体の表面から前記オブジェクトまでの深さを特定し、 The position specifying unit specifies the depth to the object from the surface of the object,
    前記位置特定システムは、 The localization system,
    前記位置特定部が特定した深さに基づいて、前記オブジェクトを撮像した画像における前記オブジェクトの像の広がりを補正する画像補正部をさらに備える請求項6に記載の位置特定システム。 The position location system of claim 6, wherein the position specifying unit, based on the depth identified, further comprising an image correcting unit for correcting the spread of the image of the object in the image obtained by imaging the object.
  10. 前記オブジェクトまでの深さに対応づけて、前記オブジェクトの像の広がりを補正する補正値を格納する補正テーブル をさらに備え、 In association with the depth to the object, further comprising a correction table for storing correction values ​​for correcting the spread of the image of said object,
    前記画像補正部は、前記オブジェクトまでの深さおよび前記補正テーブルが格納している補正値に基づいて、前記オブジェクトを撮像した画像における前記オブジェクトの像の広がりを補正する請求項9に記載の位置特定システム。 The image correction unit, the position of the claim 9, the depth and the correction table to the object based on the correction value storing, correcting the spread of the image of the object in the image obtained by imaging the object specific system.
  11. 前記深さ特定部は、複数の前記オブジェクトのそれぞれまでの前記物体の表面からの深さを特定し、 The depth identifying section identifies the depth from the surface of the object to each of a plurality of said objects,
    前記画像補正部は、複数の前記オブジェクトのそれぞれまでの深さに基づいて、画像における複数の前記オブジェクトのそれぞれの像の広がりを補正し、 The image correcting unit on the basis of the depth to each of a plurality of said object, and correcting the spread of each of the images of the plurality of the objects in the image,
    前記位置特定システムは、 The localization system,
    複数の前記オブジェクトのそれぞれまでの深さに応じて、前記画像補正部により補正された画像の表示を制御する表示制御部をさらに備える請求項10に記載の位置特定システム。 Depending on the depth to each of a plurality of said object, position location system of claim 10, further comprising a display control unit for controlling the display of the corrected image by the image correcting unit.
  12. 前記表示制御部は、前記画像補正部により補正された画像における複数の前記オブジェクトのそれぞれの明るさまたは色を、複数の前記オブジェクトのそれぞれまでの深さに応じて変化させる請求項11に記載の位置特定システム。 The display controller, according the respective brightness or color of the plurality of objects in the corrected image by the image correcting unit, to claim 11 that is changed according to depth to each of the plurality of objects location system.
  13. 物体の内部に存在するオブジェクトの位置を特定する位置特定方法であって、 A position specifying method for specifying the position of an object existing inside the object,
    前記物体の内部における異なる複数の位置をそれぞれ異なるタイミングで振動させる振動段階と、 A vibrating step of vibrating at different timings plurality of positions different in the interior of the object,
    異なるタイミングのそれぞれにおいて前記オブジェクトの画像を撮像する撮像段階と、 An imaging step of capturing an image of said object at each of different timings,
    前記撮像段階において撮像されたそれぞれの画像における前記オブジェクトの像のぼけ量に基づいて、前記オブジェクトの位置を特定する位置特定段階とを備える位置特定方法。 Based on the blur amount of the image of the object in each image captured in the imaging step, the position specifying method and a localization step of identifying the location of said object.
  14. 物体の内部に存在するオブジェクトの位置を特定する位置特定システム用のプログラムであって、前記位置特定システムを、 A location program for a specific system for identifying the position of an object existing inside the object, the localization system,
    前記物体の内部における異なる複数の位置をそれぞれ異なるタイミングで振動させる振動部、 Vibration unit for vibrating at different timings multiple different positions inside of the object,
    異なるタイミングのそれぞれにおいて前記オブジェクトの画像を撮像する撮像部、 Imaging unit for capturing an image of said object at each of different timings,
    前記撮像部が撮像したそれぞれの画像における前記オブジェクトの像のぼけ量に基づいて、前記オブジェクトの位置を特定する位置特定部として機能させるプログラム。 Based on the blur amount of the image of the object in each image the imaging unit has captured, a program to function as a position specifying unit for specifying a position of the object.
JP2007312399A 2007-12-03 2007-12-03 Position identifying system, position identifying method, and program Abandoned JP2009136327A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007312399A JP2009136327A (en) 2007-12-03 2007-12-03 Position identifying system, position identifying method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007312399A JP2009136327A (en) 2007-12-03 2007-12-03 Position identifying system, position identifying method, and program
US12/327,360 US20090143671A1 (en) 2007-12-03 2008-12-03 Position identifying system, position identifying method, and computer readable medium

Publications (1)

Publication Number Publication Date
JP2009136327A true JP2009136327A (en) 2009-06-25

Family

ID=40867629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007312399A Abandoned JP2009136327A (en) 2007-12-03 2007-12-03 Position identifying system, position identifying method, and program

Country Status (1)

Country Link
JP (1) JP2009136327A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03254738A (en) * 1990-03-02 1991-11-13 Nkk Corp Blood vessel position-measuring device
JPH0595912A (en) * 1991-10-09 1993-04-20 Olympus Optical Co Ltd Measuring apparatus for hardness of organic tissue
JPH08168477A (en) * 1994-12-16 1996-07-02 Nikon Corp Blood sampler
JPH08317933A (en) * 1994-04-05 1996-12-03 Univ California Method and apparatus for laser treatment of living body tissue, and laser treatment for flame-like mother wart
WO1997024066A1 (en) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Noninvasive blood examination apparatus
JP2003290125A (en) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd Detecting apparatus and detecting method for sentinel lymph node

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03254738A (en) * 1990-03-02 1991-11-13 Nkk Corp Blood vessel position-measuring device
JPH0595912A (en) * 1991-10-09 1993-04-20 Olympus Optical Co Ltd Measuring apparatus for hardness of organic tissue
JPH08317933A (en) * 1994-04-05 1996-12-03 Univ California Method and apparatus for laser treatment of living body tissue, and laser treatment for flame-like mother wart
JPH08168477A (en) * 1994-12-16 1996-07-02 Nikon Corp Blood sampler
WO1997024066A1 (en) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Noninvasive blood examination apparatus
JP2003290125A (en) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd Detecting apparatus and detecting method for sentinel lymph node

Similar Documents

Publication Publication Date Title
US9226662B2 (en) Photoacoustic apparatus
JP3842101B2 (en) Endoscope apparatus
JP5025877B2 (en) Medical imaging using a scanning single optical fiber systems, diagnostic and therapeutic
US8078265B2 (en) Systems and methods for generating fluorescent light images
US8681208B2 (en) Image processing device and program
EP2108300B1 (en) Fluorescence observation device
US7798955B2 (en) Image generating device for generating a fluorescence image
JP5219440B2 (en) measuring device
US8259167B2 (en) Scattering medium internal observation apparatus, image pickup system, image pickup method and endoscope apparatus
JP5675142B2 (en) Object information acquiring apparatus, subject information obtaining method, and a program for executing the method for obtaining subject information
EP1149555A3 (en) Fluorescent endoscope apparatus
KR20070004821A (en) Method and system for tomographic imaging using fluorescent proteins
JP5267143B2 (en) The imaging device and program
CN101583304B (en) Fluorescence observing device and fluorescence observing method
US20140128718A1 (en) Photoacoustic imaging apparatus and photoacoustic imaging method
JP2012217554A (en) Photoacoustic apparatus and control method thereof
JP2006014868A (en) Lymph node detecting apparatus
US8977337B2 (en) Photoacoustic diagnostic apparatus
JP2008049063A (en) Probe for optical tomography equipment
EP2727537A3 (en) Method and apparatus using infrared photothermal radiometry (PTR) and modulated laser luminescence (LUM) for diagnostics of defects in teeth
EP2070469A1 (en) Image processing system, image processing method, and program
US20140046131A1 (en) Endoscope system and method for operating endoscope system
WO2011070778A1 (en) Image generating apparatus, image generating method, and program
JP2010131161A (en) Optical scanning endoscope processor, image processing apparatus, and optical scanning endoscope system
JP5396121B2 (en) The image processing apparatus, an imaging device, method of operating an image processing program and an image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20120718