JP2013244343A - Biological information presentation device and biological information presentation method - Google Patents

Biological information presentation device and biological information presentation method Download PDF

Info

Publication number
JP2013244343A
JP2013244343A JP2012122073A JP2012122073A JP2013244343A JP 2013244343 A JP2013244343 A JP 2013244343A JP 2012122073 A JP2012122073 A JP 2012122073A JP 2012122073 A JP2012122073 A JP 2012122073A JP 2013244343 A JP2013244343 A JP 2013244343A
Authority
JP
Japan
Prior art keywords
image information
blood vessel
information
light
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012122073A
Other languages
Japanese (ja)
Inventor
Kihei Ido
喜平 井戸
Katsuki Shibahara
克樹 柴原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Priority to JP2012122073A priority Critical patent/JP2013244343A/en
Publication of JP2013244343A publication Critical patent/JP2013244343A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a biological information presentation device and a biological information presentation method capable of easily and accurately visualizing information of a living body such as the position, thickness and direction of a blood vessel that can not be accurately identified before.SOLUTION: Combining processing of two-dimensional blood vessel information obtained by irradiating a part desired to be visualized of a living body with near infrared light from a first inspection light source with two or more pieces of tomographic image information obtained by irradiating the part with the near infrared light from a second inspection light source is performed. Then, three-dimensional composite image information and two-dimensional composite image information obtained by the combining processing are image-displayed.

Description

本発明は、生体表面に近い血管だけでなく、生体深層部の血管に対しても、簡単かつ正確に画像化し、提示するための生体情報提示装置および生体情報提示方法に関するものである。   The present invention relates to a biological information presentation apparatus and a biological information presentation method for easily and accurately imaging and presenting not only blood vessels close to the surface of a living body but also blood vessels in a deep part of a living body.

人に対して、静脈注射や点滴を行うためには、まず注射針やカテーテルを穿刺する静脈の正確な位置を確認する必要がある。また、腎臓で血液を浄化することができない腎不全の病人に対して、自宅で血液透析を行う際には、病人自身または介護者などが針を腕の血管に刺す処置を行うため、血管の正確な位置を確認する必要がある。   In order to perform intravenous injection or drip on a person, it is necessary to first confirm the exact position of the vein for puncturing the injection needle or catheter. In addition, for patients with renal insufficiency who cannot purify blood with the kidneys, when hemodialysis is performed at home, the patient himself or a caregiver performs a procedure of inserting a needle into the blood vessel of the arm. It is necessary to confirm the exact position.

これらの要求を満たすため、従来では、近赤外線を可視化させたい部位に照射し、近赤外線用のCCDカメラ等を用いて、反射光で撮影することにより、皮膚から3〜7mmの深さの静脈を画像化し、可視化するための装置がある(例えば、特許文献1参照)。   In order to satisfy these requirements, conventionally, a vein with a depth of 3 to 7 mm from the skin is irradiated by irradiating a site where the near infrared ray is desired to be visualized and photographing with reflected light using a CCD camera or the like for the near infrared ray. There is a device for imaging and visualizing the image (for example, see Patent Document 1).

また、相対的検出器を使用した散乱媒体の画像化装置において、拡散光トモグラフィーの原理を応用することにより、生体の断層情報を得ることができる(例えば、特許文献2参照)。   In addition, in a scattering medium imaging device using a relative detector, tomographic information of a living body can be obtained by applying the principle of diffuse light tomography (see, for example, Patent Document 2).

特開2011−160891号公報JP 2011-160891 A 特表2003−528191号公報Special table 2003-528191 gazette

しかしながら、従来技術には以下のような課題がある。
特許文献1に示されたような従来装置では、生体表面に近い血管を可視化することは可能であるが、深層部の血管を可視化することは非常に困難である。
However, the prior art has the following problems.
With a conventional device as disclosed in Patent Document 1, it is possible to visualize blood vessels close to the surface of a living body, but it is very difficult to visualize deep blood vessels.

また、生体表面からの反射光の強さを検出することにより可視化するため、太い血管であっても、それが深層部にあれば、生体組織の影響を受けて反射光が弱まるため、細く見えてしまう。   In addition, since it is visualized by detecting the intensity of the reflected light from the surface of the living body, even if it is a thick blood vessel, if it is in the deep layer, the reflected light will be weakened due to the influence of the living tissue, so it will appear thin. End up.

その結果、可視化されている血管の太さと実際の血管の太さとは合致しない。さらに、血管が生体表面からどの程度の深さにあるかといった推定さえもできない。   As a result, the thickness of the visualized blood vessel does not match the actual thickness of the blood vessel. Furthermore, it cannot even be estimated how deep the blood vessel is from the surface of the living body.

特許文献2に示されたような従来装置では、生体深層部の情報を得るために、生体部位の散乱係数および吸収係数などの光学特性パラメータを仮定し、光伝播モデルを用いて解析する。そして、計算結果が生体に照射した近赤外線の受光結果に収束するように、逆算しながら断層像を得る。   In the conventional apparatus as shown in Patent Document 2, in order to obtain information on the deep part of the living body, optical characteristic parameters such as a scattering coefficient and an absorption coefficient of the living body part are assumed and analyzed using a light propagation model. Then, a tomographic image is obtained while performing back calculation so that the calculation result converges to the near-infrared light reception result irradiated on the living body.

しかしながら、現状では、この計算結果を収束させるまでに必要な解析時間が非常に長いという問題がある。また、特許文献2に示されたような装置では、断層画像を得ることはできるが、生体の血管を可視化することに対する関連性が確保されていない。   However, at present, there is a problem that the analysis time required to converge the calculation result is very long. In addition, although a tomographic image can be obtained with an apparatus such as that disclosed in Patent Document 2, the relevance to visualizing blood vessels in a living body is not ensured.

本発明は、前記のような課題を解決するためになされたものであり、従来では、精度よく識別できなかった血管の位置、太さ、方向といった生体の情報を簡単かつ正確に可視化することのできる生体情報提示装置および生体情報提示方法を得ることを目的とする。   The present invention has been made in order to solve the above-described problems, and can easily and accurately visualize biological information such as the position, thickness, and direction of a blood vessel that could not be accurately identified in the past. An object of the present invention is to obtain a biometric information presentation device and a biometric information presentation method.

本発明における生体情報提示装置は、生体の表面から内部を可視化するために、生体の表面に近赤外光を照射する第一の検査用光源および第二の検査用光源と、第一の検査用光源から生体において可視化する範囲に近赤外光を照射し、照射した近赤外光の反射光を用いて可視化する範囲を撮影し、撮影した範囲の画像情報を取得する第一の可視化情報取得部と、第一の可視化情報取得部が取得した画像情報により可視化される領域の複数ラインのそれぞれに対して二次元血管情報を生成する二次元血管情報生成部と、第二の検査用光源から複数ラインの1ライン上に近赤外光を照射し、照射した近赤外光が再び生体表面に出てきた光を複数の地点で検出する第二の光源発光/受光アレー部と、第二の光源発光/受光アレー部が検出した光の時間変化計測を行い、検出した光の時間変化計測の測定値を算出する時間分解計測部と、生体中の光学特性パラメータの初期分布を仮定し、仮定した光学特性パラメータの初期分布に基づいて光の時間変化の計算値を算出し、算出した計算値と時間分解計測部が算出した測定値との比較処理を行い、測定値と計算値との誤差があらかじめ規定する許容値内に入るまで、光学特性パラメータの初期分布を調整して比較処理を繰り返すことにより、誤差が許容値内に入る光学特性パラメータを決定し、決定した光学特性パラメータに基づき、再構成画像情報を生成する逆問題解析部と、逆問題解析部が生成した再構成画像情報に基づき、1ライン上に対応する断層画像情報を生成する断層画像情報生成部と、二次元血管情報生成部が二次元血管情報を生成した複数ラインの任意のライン位置に対応させて、第二の光源発光/受光アレー部、時間分解計測部、逆問題解析部、および断層画像情報生成部による一連処理を行うことで生成される任意のライン位置に対応する断層画像情報と、二次元血管情報生成部が生成した複数ラインのそれぞれの二次元血管情報とに基づく合成処理を行うことで、三次元合成画像情報および二次元合成画像情報を生成する合成画像情報生成部と、合成画像情報生成部が生成した三次元合成画像情報および二次元合成画像情報を画像表示する生体情報表示部とを備え、合成画像情報生成部は、二次元血管情報生成部が複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位と、断層画像情報生成部が任意のライン位置に対応して生成した断層画像情報の内、特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分とがそれぞれ重なるように合成処理することで、二次元血管情報における血管に関する三次元合成画像情報を生成し、二次元血管情報生成部が複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位に対して、断層画像情報生成部が任意のライン位置に対応して生成した断層画像情報の内、特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分の輝度および色相を参照しながら色相処理を行うことで、二次元血管情報における血管に関する二次元合成画像情報を生成することを特徴とするものである。   The biological information presentation apparatus according to the present invention includes a first inspection light source and a second inspection light source that irradiate near-infrared light on the surface of the living body, and a first inspection to visualize the inside from the surface of the living body. First visualization information that irradiates near-infrared light to the range to be visualized in the living body from the light source for the subject, captures the range to be visualized using the reflected light of the irradiated near-infrared light, and acquires image information of the photographed range An acquisition unit, a two-dimensional blood vessel information generation unit that generates two-dimensional blood vessel information for each of a plurality of lines in the region visualized by the image information acquired by the first visualization information acquisition unit, and a second examination light source A second light source light emitting / receiving array unit that irradiates near-infrared light on one line from a plurality of lines and detects light emitted from the irradiated near-infrared light again at a plurality of points; When light is detected by the second light source emission / reception array Assuming an initial distribution of optical characteristic parameters in the living body and a time-resolved measurement unit that performs change measurement and calculates a measurement value of the time-change measurement of the detected light, and based on the assumed initial distribution of optical characteristic parameters Calculates the calculated value of time change, compares the calculated value with the measured value calculated by the time-resolved measurement unit, and keeps the optical until the error between the measured value and the calculated value falls within the predetermined tolerance. By adjusting the initial distribution of the characteristic parameters and repeating the comparison process, an inverse problem analysis unit that determines an optical characteristic parameter whose error falls within an allowable value and generates reconstructed image information based on the determined optical characteristic parameter; Based on the reconstructed image information generated by the inverse problem analysis unit, a tomographic image information generation unit that generates corresponding tomographic image information on one line, and a two-dimensional blood vessel information generation unit It is generated by performing a series of processes by the second light source emission / light reception array unit, the time-resolved measurement unit, the inverse problem analysis unit, and the tomographic image information generation unit in correspondence with arbitrary line positions of the generated multiple lines. Three-dimensional synthetic image information and two-dimensional synthetic image are obtained by performing synthesis processing based on tomographic image information corresponding to an arbitrary line position and two-dimensional blood vessel information of each of a plurality of lines generated by the two-dimensional blood vessel information generation unit. A composite image information generation unit that generates information, and a biological information display unit that displays the three-dimensional composite image information and the two-dimensional composite image information generated by the composite image information generation unit. The two-dimensional blood vessel information generated by the two-dimensional blood vessel information generation unit for each of the plurality of lines, and the tomographic image information generation unit corresponding to an arbitrary line position 3D composite image information related to blood vessels in 2D blood vessel information is generated by combining the tomographic image information so that the blood vessel portions included in the respective tomographic image information corresponding to a specific part overlap each other. Among the tomographic image information generated by the tomographic image information generation unit corresponding to an arbitrary line position with respect to a specific part of the blood vessel in the two-dimensional blood vessel information generated for each of the plurality of lines by the two-dimensional blood vessel information generation unit Generating two-dimensional composite image information about a blood vessel in two-dimensional blood vessel information by performing hue processing while referring to the luminance and hue of the blood vessel portion included in each tomographic image information corresponding to a specific part It is what.

また、本発明における生体情報提示方法は、生体の表面から内部を可視化するために、生体の表面に近赤外光を照射する第一の検査用光源および第二の検査用光源を備える生体情報提示装置で実行される生体情報提示方法であって、第一の検査用光源から生体において可視化する範囲に近赤外光を照射し、照射した近赤外光の反射光を用いて可視化する範囲を撮影し、撮影した範囲の画像情報を取得する第一の可視化情報取得ステップと、第一の可視化情報取得ステップで取得した画像情報により可視化される領域の複数ラインのそれぞれに対して二次元血管情報を生成する二次元血管情報生成ステップと、第二の検査用光源から複数ラインの1ライン上に近赤外光を照射し、照射した近赤外光が再び生体表面に出てきた光を複数の地点で検出する第二の光源発光/受光アレー検出ステップと、第二の光源発光/受光アレー検出ステップで検出した光の時間変化計測を行い、検出した光の時間変化計測の測定値を算出する時間分解計測ステップと、生体中の光学特性パラメータの初期分布を仮定し、仮定した光学特性パラメータの初期分布に基づいて光の時間変化の計算値を算出し、算出した計算値と時間分解計測ステップで算出した測定値との比較処理を行い、測定値と計算値との誤差があらかじめ規定する許容値内に入るまで、光学特性パラメータの初期分布を調整して比較処理を繰り返すことにより、誤差が許容値内に入る光学特性パラメータを決定し、決定した光学特性パラメータに基づき、再構成画像情報を生成する逆問題解析ステップと、逆問題解析ステップで生成した再構成画像情報に基づき、1ライン上に対応する断層画像情報を生成する断層画像情報生成ステップと、二次元血管情報生成ステップにより二次元血管情報を生成した際の複数ラインの任意のライン位置に対応させて、第二の光源発光/受光アレー検出ステップ、時間分解計測ステップ、逆問題解析ステップ、および断層画像情報生成ステップによる一連処理を行うことで生成した任意のライン位置に対応する断層画像情報と、二次元血管情報生成ステップで生成した複数ラインのそれぞれの二次元血管情報とに基づく合成処理を行うことで、三次元合成画像情報および二次元合成画像情報を生成する合成画像情報生成ステップと、合成画像情報生成ステップで生成した三次元合成画像情報および二次元合成画像情報を画像表示する生体情報表示ステップとを備え、合成画像情報生成ステップは、二次元血管情報生成ステップで複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位と、断層画像情報生成ステップで任意のライン位置に対応して生成した断層画像情報の内、特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分とがそれぞれ重なるように合成処理することで、二次元血管情報における血管に関する三次元合成画像情報を生成するステップと、二次元血管情報生成ステップで複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位に対して、断層画像情報生成ステップで任意のライン位置に対応して生成した断層画像情報の内、特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分の輝度および色相を参照しながら色相処理を行うことで、二次元血管情報における血管に関する二次元合成画像情報を生成するステップとを有することを特徴とするものである。   In addition, the biological information presentation method according to the present invention includes biological information including a first inspection light source and a second inspection light source that irradiates near-infrared light on the surface of the living body in order to visualize the inside from the surface of the living body. A biological information presentation method executed by a presentation device, wherein a range to be visualized using a reflected light of the irradiated near-infrared light by irradiating near-infrared light to a range to be visualized in a living body from a first examination light source A two-dimensional blood vessel for each of a plurality of lines in a region visualized by the first visualization information acquisition step and the image information acquired in the first visualization information acquisition step. Two-dimensional blood vessel information generating step for generating information, and irradiating near-infrared light on one line of a plurality of lines from the second examination light source, and the irradiated near-infrared light again comes out on the surface of the living body Inspection at multiple points Time-resolved measurement to measure the time change of the light detected in the second light source emission / light reception array detection step and the second light source emission / light reception array detection step, and to calculate the measurement value of the time change measurement of the detected light Assuming the initial distribution of optical characteristic parameters in the living body and the step, the calculated value of the time change of light is calculated based on the assumed initial distribution of the optical characteristic parameter, and calculated in the calculated calculation value and the time-resolved measurement step Perform the comparison process with the measured value and repeat the comparison process by adjusting the initial distribution of the optical characteristic parameters until the error between the measured value and the calculated value falls within the predefined tolerance value. Inverse problem analysis step for generating reconstructed image information based on the determined optical property parameter and the inverse problem analysis step. Based on the reconstructed image information, a tomographic image information generation step for generating corresponding tomographic image information on one line and an arbitrary line position of a plurality of lines when the two-dimensional blood vessel information is generated by the two-dimensional blood vessel information generation step Correspondingly, tomographic image information corresponding to an arbitrary line position generated by performing a series of processes by the second light source emission / light receiving array detection step, the time-resolved measurement step, the inverse problem analysis step, and the tomographic image information generation step And a composite image information generation step for generating three-dimensional composite image information and two-dimensional composite image information by performing a synthesis process based on the two-dimensional blood vessel information of each of the plurality of lines generated in the two-dimensional blood vessel information generation step, , Biometric information for displaying 3D composite image information and 2D composite image information generated in the composite image information generation step A composite image information generation step, wherein the composite image information generation step is arranged at a specific part of the blood vessel in the two-dimensional blood vessel information generated for each of the plurality of lines in the two-dimensional blood vessel information generation step, and at any line position in the tomographic image information generation step By combining the tomographic image information generated so as to overlap with the blood vessel portion included in each tomographic image information corresponding to a specific part, the three-dimensional composite image related to the blood vessel in the two-dimensional blood vessel information Generate a specific portion of the blood vessel in the two-dimensional blood vessel information generated for each of a plurality of lines in the information generation step and the two-dimensional blood vessel information generation step, corresponding to an arbitrary line position in the tomographic image information generation step Of the tomographic image information included in each tomographic image information corresponding to a specific site. And the hue by performing a reference while the hue processing, is characterized in that a step of generating a two-dimensional composite image information on a blood vessel in the two-dimensional blood vessel information.

本発明における生体情報提示装置および生体情報提示方法によれば、生体の可視化させたい部位の二次元血管情報とその部位に対応する複数の断層画像情報との合成処理を行い、合成処理によって得られた二次元あるいは三次元の画像情報を表示することにより、従来では、精度よく識別できなかった血管の位置、太さ、方向といった生体情報を簡単かつ正確に可視化することのできる生体情報提示装置および生体情報提示方法を得ることができる。   According to the biological information presentation device and the biological information presentation method of the present invention, the two-dimensional blood vessel information of the part to be visualized of the living body and the plurality of pieces of tomographic image information corresponding to the part are synthesized and obtained by the synthesis process. By displaying two-dimensional or three-dimensional image information, a biological information presentation device that can easily and accurately visualize biological information such as the position, thickness, and direction of blood vessels that could not be accurately identified in the past, and A biometric information presentation method can be obtained.

本発明の実施形態1における生体情報提示装置の機能構成を示したブロック図である。It is the block diagram which showed the function structure of the biometric information presentation apparatus in Embodiment 1 of this invention. 本発明の実施形態1における生体情報提示装置および測定対象である生体の関係を示す説明図である。It is explanatory drawing which shows the relationship between the biometric information presentation apparatus in Embodiment 1 of this invention, and the biological body which is a measuring object. 本発明の実施の形態1において、腕を撮影した場合における近赤外画像、可視画像、およびこれらの画像を合成した近赤外・可視合成画像を示した模式図である。In Embodiment 1 of this invention, it is the schematic diagram which showed the near-infrared image and visible synthetic | combination image which synthesize | combined these images, and the near-infrared image at the time of image | photographing an arm. 本発明の実施形態1における二次元血管情報生成部が二次元血管情報の生成を行う説明図である。It is explanatory drawing in which the two-dimensional blood vessel information generation part in Embodiment 1 of this invention produces | generates two-dimensional blood vessel information. 本発明の実施の形態1における逆問題解析部が従来の処理方法および本発明の処理方法によって、再構成画像情報を生成する場合を説明するフローチャートである。It is a flowchart explaining the case where the inverse problem analysis part in Embodiment 1 of this invention produces | generates reconstruction image information with the conventional processing method and the processing method of this invention. 本発明の実施の形態1において、画像表示された三次元合成画像情報および二次元合成画像情報を示した模式図である。In Embodiment 1 of this invention, it is the schematic diagram which showed the three-dimensional synthetic | combination image information displayed as an image, and two-dimensional synthetic | combination image information.

以下、本発明の生体情報提示装置および生体情報提示方法の好適な実施の形態につき、図面を用いて説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of the biological information presentation device and the biological information presentation method of the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

実施の形態1.
<1.生体情報提示装置の構成>
図1は、本発明の実施形態1における生体情報提示装置の機能構成を示したブロック図である。
Embodiment 1 FIG.
<1. Configuration of biological information presentation device>
FIG. 1 is a block diagram showing a functional configuration of the biological information presentation apparatus in Embodiment 1 of the present invention.

この図1における生体情報提示装置は、第一の可視化情報取得部10、二次元血管情報生成部20、二次元血管情報保管部30、第二の光源発光/受光アレー部40、ピコパルス光制御部50、時間分解計測部60、逆問題解析部70、断層画像情報生成部80、発光/受光アレー可動支持部90、断層画像情報蓄積部100、合成画像情報生成部110、生体情報表示部120、生体参照情報生成部130、および生体情報提示装置制御部140を備える。   1 includes a first visualization information acquisition unit 10, a two-dimensional blood vessel information generation unit 20, a two-dimensional blood vessel information storage unit 30, a second light source emission / light reception array unit 40, and a pico pulse light control unit. 50, time-resolved measurement unit 60, inverse problem analysis unit 70, tomographic image information generation unit 80, light emitting / receiving array movable support unit 90, tomographic image information storage unit 100, composite image information generation unit 110, biological information display unit 120, A biological reference information generation unit 130 and a biological information presentation device control unit 140 are provided.

第一の可視化情報取得部10は、生体の血管を可視化するために必要な生体情報を得る。二次元血管情報生成部20は、第一の可視化情報取得部10が得た生体情報を基に、血管の二次元的な位置情報を生成する。   The first visualization information acquisition unit 10 obtains biological information necessary for visualizing the blood vessels of the living body. The two-dimensional blood vessel information generation unit 20 generates two-dimensional position information of the blood vessel based on the biological information obtained by the first visualization information acquisition unit 10.

二次元血管情報保管部30は、二次元血管情報生成部20が生成した二次元血管情報を断層画像が生成される位置に関連付けて保存する。第二の光源発光/受光アレー部40は、第二の光源および光検知器のそれぞれが対となるように設置された発光/受光ブロックを備える。   The two-dimensional blood vessel information storage unit 30 stores the two-dimensional blood vessel information generated by the two-dimensional blood vessel information generation unit 20 in association with the position where the tomographic image is generated. The second light source emission / reception array section 40 includes a light emission / reception block installed so that each of the second light source and the photodetector is paired.

ピコパルス光制御部50は、第二の光源発光/受光アレー部40内の第二の光源の発光を制御する。時間分解計測部60は、第二の光源によって測定すべき生体部位に照射された光が、生体内で散乱・吸収を繰り返しながら再び生体表面に出てきた時、出てきた光の時間変化計測を行う。   The pico pulse light control unit 50 controls the light emission of the second light source in the second light source emission / light reception array unit 40. The time-resolved measurement unit 60 measures the time change of the emitted light when the light irradiated to the body part to be measured by the second light source comes out again on the surface of the living body while repeating scattering and absorption in the living body. I do.

逆問題解析部70は、時間分解計測部60が生成した時間分解計測値と生体部位の散乱係数および吸収係数などの光学特性パラメータを仮定した光伝播モデルとを用いて、各計測値に収束するように逆算を行い、再構成画像情報を生成する。   The inverse problem analysis unit 70 converges to each measurement value using the time-resolved measurement value generated by the time-resolved measurement unit 60 and the light propagation model assuming the optical characteristic parameters such as the scattering coefficient and the absorption coefficient of the living body part. Thus, reverse calculation is performed to generate reconstructed image information.

断層画像情報生成部80は、逆問題解析部70が生成した再構成画像情報に基づき、生体組織内の血液量や酸素濃度などを輝度および色相で提示する生体部位の断層画像情報を生成する。発光/受光アレー可動支持部90は、異なる生体部位の断層画像情報を得るために、第二の光源発光/受光アレー部40を所定の方向に移動させる。   Based on the reconstructed image information generated by the inverse problem analysis unit 70, the tomographic image information generation unit 80 generates tomographic image information of a biological part that presents the blood volume, oxygen concentration, and the like in the biological tissue with luminance and hue. The light emission / light reception array movable support section 90 moves the second light source light emission / light reception array section 40 in a predetermined direction in order to obtain tomographic image information of different living body parts.

断層画像情報蓄積部100は、第二の光源発光/受光アレー部40が移動することにより得られた各生体部位の断層画像情報を生体部位の測定位置に関連付けて保存する。   The tomographic image information storage unit 100 stores the tomographic image information of each biological part obtained by the movement of the second light source emission / light receiving array unit 40 in association with the measurement position of the biological part.

合成画像情報生成部110は、二次元血管情報保管部30が保存した二次元血管情報および断層画像情報蓄積部100が保存した断層画像情報に基づき、二次元血管情報の補正処理、および二次元血管情報の所定の部位とその所定の部位に対応する断層画像情報とを関連付けた情報化処理を行う。   The composite image information generation unit 110 performs two-dimensional blood vessel information correction processing and two-dimensional blood vessel information based on the two-dimensional blood vessel information stored by the two-dimensional blood vessel information storage unit 30 and the tomographic image information stored by the tomographic image information storage unit 100. Information processing is performed in which a predetermined part of information is associated with tomographic image information corresponding to the predetermined part.

生体情報表示部120は、合成画像情報生成部110が処理を行った生体情報を可視化するために画像表示する。生体参照情報生成部130は、逆問題解析部70に対して、二次元血管情報および断層画像情報といった既知の生体参照情報を与える。   The biometric information display unit 120 displays an image to visualize the biometric information processed by the composite image information generation unit 110. The biological reference information generation unit 130 gives known biological reference information such as two-dimensional blood vessel information and tomographic image information to the inverse problem analysis unit 70.

生体情報提示装置制御部140は、装置を動作させるために、生体情報提示装置に具備される各機能部に対して必要な操作を指示する。   The biological information presentation device control unit 140 instructs a necessary operation to each functional unit included in the biological information presentation device in order to operate the device.

次に、本実施の形態1における生体情報提示装置を用いて、測定対象である生体を測定する場合について、図2を参照して説明する。図2は、本発明の実施形態1における生体情報提示装置および測定対象である生体の関係を示す説明図である。   Next, a case where a living body that is a measurement target is measured using the biological information presentation apparatus according to the first embodiment will be described with reference to FIG. FIG. 2 is an explanatory diagram illustrating a relationship between the biological information presentation device and the living body to be measured according to the first embodiment of the present invention.

なお、具体的に説明するために、以降では、測定対象である生体を腕150とする。もちろん、本願発明における生体表示装置においては、腕に限らず、腕以外の別の生体も測定することができる。   For the sake of specific explanation, hereinafter, the living body to be measured is referred to as the arm 150. Of course, in the living body display device according to the present invention, not only the arm but also another living body other than the arm can be measured.

第一の可視化情報取得部10は、図示するように、近赤外線レーザ11、レンズ12、光学フィルタ13、および撮像素子14を備える。   The 1st visualization information acquisition part 10 is provided with the near-infrared laser 11, the lens 12, the optical filter 13, and the image pick-up element 14 so that it may show in figure.

近赤外線レーザ11は、第一の検査用光源として、腕から数cm程度離れた上部に位置し、波長が700nm〜1200nmである光を腕150の可視化させたい部位(図2においては、点線で囲まれた箇所に相当)に照射する。   The near-infrared laser 11 is a first inspection light source located at an upper part several cm away from the arm, and a portion of the arm 150 where light having a wavelength of 700 nm to 1200 nm is desired to be visualized (in FIG. 2, a dotted line) (Equivalent to the enclosed area).

レンズ12は、第一の検査用光源が腕150の可視化させたい部位に照射した光の反射光を集光する。光学フィルタ13は、可視画像撮影の場合と近赤外画像撮影の場合とに応じて、フィルタを通過する波長を切り替える。   The lens 12 condenses the reflected light of the light irradiated by the first inspection light source onto the portion of the arm 150 that is desired to be visualized. The optical filter 13 switches the wavelength that passes through the filter according to the case of capturing a visible image and the case of capturing a near-infrared image.

撮像素子14は、可視波長から1200nm程度の近赤外波長に対して分光感度が高く、水平方向に640画素、垂直方向に480ラインの面構成であり、各画素を8ビットで量子化出力する。なお、画素数、ライン数、およびビット数は、解像度に影響するがこれに限定されるものでない。   The imaging device 14 has high spectral sensitivity for visible wavelengths to near infrared wavelengths of about 1200 nm, has a surface configuration of 640 pixels in the horizontal direction and 480 lines in the vertical direction, and each pixel is quantized and output in 8 bits. . Note that the number of pixels, the number of lines, and the number of bits affect the resolution, but are not limited thereto.

第二の光源発光/受光アレー部40は、生体情報提示装置制御部140の制御信号に基づき、発光/受光アレー可動支持部90の範囲内を腕150に沿って移動することにより、測定部位を変更することができる。そして、第二の光源発光/受光アレー部40は、図示するように、腕150に密着する。   The second light source light emitting / light receiving array unit 40 moves along the arm 150 within the range of the light emitting / light receiving array movable support unit 90 based on the control signal of the biological information presentation device control unit 140 to thereby change the measurement site. Can be changed. The second light source emission / light reception array unit 40 is in close contact with the arm 150 as shown in the figure.

そして、断層画像情報生成部80は、それぞれの測定部位の位置(凡そ1ライン分)に対応した断層画像情報を生成することにより、結果として、腕150の可視化させたい部位(図2においては、点線で囲まれた箇所)の範囲全体に対応した断層画像情報を得ることができる。   Then, the tomographic image information generation unit 80 generates tomographic image information corresponding to the position of each measurement region (approximately one line), and as a result, the region (in FIG. It is possible to obtain tomographic image information corresponding to the entire range of a portion surrounded by a dotted line.

また、第二の光源発光/受光アレー部40に具備される1つの発光/受光ブロックに設置される第二の検査用光源および光検知器は、以下のようなものである。   The second light source for inspection and the light detector installed in one light emitting / receiving block provided in the second light source emitting / receiving array unit 40 are as follows.

すなわち、第二の検査用光源としては、例えば、第一波長と第二波長といった2種類の波長の光を出力する近赤外線レーザが用いられる。光検知器としては、例えば、Si系またはInGaAsなどの化合物系の光検知器が用いられる。   That is, as the second inspection light source, for example, a near-infrared laser that outputs light of two types of wavelengths such as a first wavelength and a second wavelength is used. As the photodetector, for example, a compound-based photodetector such as Si or InGaAs is used.

なお、近赤外線レーザが出力する波長の種類について、第一波長および第二波長といった2種類の波長としたが、これに限定されない。すなわち、波長の種類は、断層画像の分解能に影響を与えるパラメータであり、必要に応じて、1種類または3種類以上の波長であってもよい。   In addition, although it was set as two types of wavelengths, a 1st wavelength and a 2nd wavelength, about the kind of wavelength which a near-infrared laser outputs, it is not limited to this. That is, the type of wavelength is a parameter that affects the resolution of the tomographic image, and may be one type or three or more types of wavelengths as necessary.

そして、第二の光源発光/受光アレー部40に設置されるN個(Nは、1以上の整数)の発光/受光ブロック41(1)〜41(N)は、図示するように、腕150の測定部位のまわりを巻き込むような形になっている。   The N light emitting / receiving blocks 41 (1) to 41 (N) installed in the second light source emitting / receiving array unit 40 have arms 150 as shown in the drawing. It is shaped to wrap around the measurement site.

なお、発光/受光ブロックの個数は、多いほど高分解能な断層像を得ることができる。必要な分解能に応じて、発光/受光ブロックの個数を変更すればよい。   Note that a higher-resolution tomographic image can be obtained as the number of light emitting / receiving blocks increases. The number of light emitting / receiving blocks may be changed according to the required resolution.

<2.生体情報提示装置の動作>
次に、本発明の実施の形態1における生体情報提示装置の動作手順について、各機能部の動作内容を詳細に述べながら説明する。
<2. Operation of biological information presentation device>
Next, the operation procedure of the biometric information presentation apparatus according to Embodiment 1 of the present invention will be described while describing the operation contents of each functional unit in detail.

はじめに、第一の可視化情報取得部10の動作について、先の図1、図2、および図3を参照して説明する。図3は、本発明の実施の形態1において、腕150を撮影した場合における近赤外画像、可視画像、およびこれらの画像を合成した近赤外・可視合成画像を示した模式図である。   First, the operation of the first visualization information acquisition unit 10 will be described with reference to FIG. 1, FIG. 2, and FIG. FIG. 3 is a schematic diagram showing a near-infrared image, a visible image, and a near-infrared / visible combined image obtained by combining these images when the arm 150 is photographed in the first embodiment of the present invention.

第一の可視化情報取得部10は、生体情報提示装置制御部140の制御信号に基づき、先の図2に図示するように、発光/受光アレー可動支持部90エリアに位置する腕150の表皮を近赤外画像および可視画像として、時分割で間欠的に撮影する。   Based on the control signal of the biological information presentation device control unit 140, the first visualization information acquisition unit 10 determines the epidermis of the arm 150 located in the light emitting / receiving array movable support unit 90 area as shown in FIG. As a near-infrared image and a visible image, images are taken intermittently in time division.

なお、撮影される範囲は、先の図2で図示するように、腕150の表皮上の点線で囲まれた箇所である。この場合には、腕150だけでなく、第二の光源発光/受光アレー部40の一部も画像に写り込む。   Note that, as illustrated in FIG. 2, the imaged range is a portion surrounded by a dotted line on the skin of the arm 150. In this case, not only the arm 150 but also a part of the second light source light emitting / receiving array section 40 is reflected in the image.

近赤外画像撮影時の場合には、光学フィルタ13は、可視波長を遮断して、近赤外波長を通過させるように、フィルタを設定する。そして、レンズ12は、近赤外線レーザ11が腕150の表皮に照射した光の反射光を集光し、撮像素子14は、反射光により画像情報に変換する。   In the case of taking a near-infrared image, the optical filter 13 sets the filter so as to block the visible wavelength and allow the near-infrared wavelength to pass. And the lens 12 condenses the reflected light of the light which the near-infrared laser 11 irradiated to the skin of the arm 150, and the image pick-up element 14 converts into image information with reflected light.

なお、生体の表皮に照射した近赤外光は、皮膚を透過し、血管内の血液によって吸光され、一方で、血管以外の部位では、脂肪層等の人体組織によって反射される性質を有す。その結果、撮像素子14が変換した画像情報において、血管部分は、相対的に低輝度となり、血管以外のその他の部分は、相対的に高輝度になる。   Near-infrared light irradiated on the epidermis of a living body transmits the skin and is absorbed by blood in the blood vessel, while it is reflected by a human tissue such as a fat layer in a portion other than the blood vessel. . As a result, in the image information converted by the image sensor 14, the blood vessel portion has a relatively low luminance, and other portions other than the blood vessel have a relatively high luminance.

一方、可視画像撮影時の場合には、近赤外線レーザ11は、照射を停止するとともに、光学フィルタ13は、可視波長を通過して近赤外波長を遮断させるように、フィルタを設定する。そして、レンズ12は、腕150の表皮を照らす自然光の反射光を集光し、撮像素子14は、反射光により画像情報に変換する。   On the other hand, in the case of capturing a visible image, the near-infrared laser 11 stops irradiation, and the optical filter 13 sets a filter so as to pass the visible wavelength and block the near-infrared wavelength. The lens 12 collects the reflected light of natural light that illuminates the skin of the arm 150, and the image sensor 14 converts the image information into image information by the reflected light.

なお、近赤外画像から可視画像へ撮影変更する場合には、光学フィルタ13の設定において、2種類のフィルタをスライドまたは回転させるように設定する。   In the case of changing the shooting from a near-infrared image to a visible image, the optical filter 13 is set so that two types of filters are slid or rotated.

このように、腕150を撮影した近赤外画像、可視画像、およびそれらの画像を合成した近赤外・可視合成画像を示した模式図が図3である。この図3における近赤外画像は、黒白で輝度が異なるモノクロ画像である。また、図示するように、撮影された腕150の輪郭の中において、血管151、152の画像は、その他の部位より低輝度となるため、黒目の筋として確認される。   FIG. 3 is a schematic diagram showing a near-infrared image, a visible image, and a near-infrared / visible combined image obtained by synthesizing these images obtained by photographing the arm 150 as described above. The near-infrared image in FIG. 3 is a monochrome image with black and white and different luminance. Further, as shown in the figure, in the contour of the photographed arm 150, the images of the blood vessels 151 and 152 have lower luminance than the other parts, so that they are confirmed as black streaks.

なお、近赤外画像において、第二の光源発光/受光アレー部40の一部も写る。しかしながら、その写る様子は、第二の光源発光/受光アレー部40の外観素材により大きく変動するため、ここでは記載を省略する。   In the near-infrared image, a part of the second light source emission / light reception array unit 40 is also shown. However, since the appearance of the image varies greatly depending on the appearance material of the second light source light emitting / receiving array unit 40, the description is omitted here.

一方、図3における可視画像は、カラー画像であり、人間の目で直視しているものがそのまま画像として撮影される。また、図示するように、第二の光源発光/受光アレー部40の一部が画面上部に写っているが、一方で血管は、殆ど写らない。なお、可視画像において、血管が写る場合もあるが、近赤外画像の場合と比較して、明らかに見辛くなっている。   On the other hand, the visible image in FIG. 3 is a color image, and what is directly viewed by human eyes is taken as an image as it is. Further, as shown in the drawing, a part of the second light source light emitting / receiving array section 40 is shown in the upper part of the screen, but blood vessels are hardly shown. In the visible image, blood vessels may appear, but it is clearly difficult to see compared to the near-infrared image.

そして、第一の可視化情報取得部10は、このように時分割で間欠的に撮影した近赤外画像と可視画像とを合成することにより、図3に図示するような近赤外・可視合成画像を生成する。   And the 1st visualization information acquisition part 10 synthesize | combines the near-infrared image and the visible image which were image | photographed intermittently by time division in this way, and a near-infrared / visible composition as shown in FIG. Generate an image.

なお、近赤外画像と可視画像を時分割で間欠的に撮影する時間間隔や撮影回数は、必要に応じて、撮影パラメータを設定することにより変更することができる。   It should be noted that the time interval and the number of times of capturing the near-infrared image and the visible image intermittently in a time-sharing manner can be changed by setting shooting parameters as necessary.

次に、二次元血管情報生成部20の動作について、先の図3および図4を参照して説明する。図4は、本発明の実施形態1における二次元血管情報生成部20が二次元血管情報の生成を行う説明図である。   Next, the operation of the two-dimensional blood vessel information generation unit 20 will be described with reference to FIG. 3 and FIG. FIG. 4 is an explanatory diagram in which the two-dimensional blood vessel information generation unit 20 according to the first embodiment of the present invention generates two-dimensional blood vessel information.

二次元血管情報生成部20は、周辺画素加算平均などを行うローパスフィルタ処理によって、第一の可視化情報取得部10が撮影した近赤外画像の輝度情報を抜き出し、あらかじめ規定した閾値より低輝度の部位を血管部位として情報生成する。   The two-dimensional blood vessel information generation unit 20 extracts the luminance information of the near-infrared image captured by the first visualization information acquisition unit 10 by a low-pass filter process that performs peripheral pixel addition averaging, and the luminance is lower than a predetermined threshold. Information is generated using a part as a blood vessel part.

具体的には、二次元血管情報生成部20は、図3における近赤外・可視合成画像に図示するP(1≦P≦480)ライン目の各画素値(図4に図示するドットに相当)に対して、ローパスフィルタ処理を行う。   Specifically, the two-dimensional blood vessel information generation unit 20 corresponds to each pixel value (corresponding to the dot illustrated in FIG. 4) on the P (1 ≦ P ≦ 480) line illustrated in the near-infrared / visible composite image in FIG. ) Is subjected to low-pass filter processing.

なお、図4に図示するように、ドットに対応する実線が示す輝度画素の内、閾値以下の輝度画素が、血管部位として可視化される画素情報である。   Note that, as illustrated in FIG. 4, among the luminance pixels indicated by the solid line corresponding to the dots, the luminance pixels equal to or lower than the threshold are pixel information visualized as blood vessel sites.

そして、二次元血管情報生成部20は、1ライン目(P=1)から順次最終(P=480)ラインに至るまで、同様の処理を繰り返すことにより、複数ラインのそれぞれに対して二次元血管情報を生成する。さらに、二次元血管情報保管部30は、二次元血管情報生成部20が生成した二次元血管情報を一時的に保存する。   Then, the two-dimensional blood vessel information generation unit 20 repeats the same processing from the first line (P = 1) to the last (P = 480) line in order, thereby performing the two-dimensional blood vessel for each of the plurality of lines. Generate information. Furthermore, the two-dimensional blood vessel information storage unit 30 temporarily stores the two-dimensional blood vessel information generated by the two-dimensional blood vessel information generation unit 20.

この一時的に保存される二次元血管情報は、二次元血管情報の各ラインと断層画像情報を生成する位置とで関連付けられた形で保存されている。なお、断層画像情報については、後述する。   The temporarily stored two-dimensional blood vessel information is stored in a form associated with each line of the two-dimensional blood vessel information and a position where tomographic image information is generated. The tomographic image information will be described later.

次に、第二の光源発光/受光アレー部40に具備されるN個の発光/受光ブロック41(1)〜41(N)の内、一つの発光/受光ブロック(ここでは、41(1)を用いて説明する)は、以下のような動作を行う。   Next, out of the N light emitting / receiving blocks 41 (1) to 41 (N) provided in the second light source emitting / receiving array section 40, one light emitting / receiving block (here, 41 (1)). The following operation is performed.

すなわち、発光/受光ブロック41(1)内の近赤外線レーザは、波長が第一波長(ここでは、2種類の波長の内、第一波長を用いて説明する)、周期が例えば、100ピコ秒以下であるパルス光を二次元血管情報が生成された複数ラインの1ライン上に照射する。   That is, the near-infrared laser in the light emitting / receiving block 41 (1) has a wavelength of the first wavelength (here, description is made using the first wavelength of two types of wavelengths), and the period is, for example, 100 picoseconds. The following pulsed light is irradiated onto one line of a plurality of lines where the two-dimensional blood vessel information is generated.

なお、近赤外線レーザによるこの照射は、生体情報提示装置制御部140の制御信号を受けたピコパルス光制御部50の制御信号に基づいて行われる。   In addition, this irradiation by a near-infrared laser is performed based on the control signal of the pico pulse light control part 50 which received the control signal of the biometric information presentation apparatus control part 140. FIG.

そして、発光/受光ブロック41(1)内の近赤外線レーザによって、腕150に照射された光は、腕150の内部で吸収・散乱を繰り返し、照射を行った発光/受光ブロック41(1)以外のN−1個の発光/受光ブロック41(2)〜41(N)内の各光検知器によって検出される。   The light irradiated to the arm 150 by the near-infrared laser in the light emitting / receiving block 41 (1) is repeatedly absorbed and scattered inside the arm 150, and the light other than the light emitting / receiving block 41 (1) irradiated. The N-1 light emitting / receiving blocks 41 (2) to 41 (N) are detected by the photodetectors.

さらに、発光/受光ブロック41(2)〜41(N)内の各光検知器で検出された光は、電気信号に変換される。そして、この各信号が送られた時間分解計測部60は、送られた各信号に基づき、検出光の時間変化情報を生成する。   Furthermore, the light detected by each photodetector in the light emitting / receiving blocks 41 (2) to 41 (N) is converted into an electrical signal. Then, the time-resolved measurement unit 60 to which each signal is sent generates time change information of the detection light based on each sent signal.

また、近赤外線レーザの波長が第一波長だけでなく、第二波長の場合においても同様の動作が行われる。さらに、発光/受光ブロック41(2)〜41(N)についても、発光/受光ブロック41(1)と同様の動作が行われる。   The same operation is performed when the near-infrared laser wavelength is not only the first wavelength but also the second wavelength. Further, the same operation as that of the light emission / light reception block 41 (1) is performed for the light emission / light reception blocks 41 (2) to 41 (N).

すなわち、生体情報提示装置制御部140は、それぞれの発光/受光ブロック内における赤外線レーザを順次切り替えることにより、すべての発光/受光ブロックにおいて、同様の動作が行われる。   That is, the biological information presentation device control unit 140 sequentially switches the infrared lasers in the respective light emitting / receiving blocks so that the same operation is performed in all the light emitting / receiving blocks.

したがって、時間分解計測部60は、各波長において、N−1ブロック分の光検知器数×Nブロック分のレーザ照射回数×時間変化計測スパンを計測周期で割ったサンプリング分を乗算した膨大なデータを生成する。   Therefore, the time-resolved measurement unit 60 has a huge amount of data obtained by multiplying the number of light detectors for N-1 blocks × the number of laser irradiations for N blocks × the time change measurement span divided by the measurement period at each wavelength. Is generated.

次に、逆問題解析部70は、時間分解計測部60が生成したデータに基づいて拡散光トモグラフィーの原理にしたがい、断層画像情報を得るために必要な再構成画像情報の生成処理を行う。   Next, the inverse problem analysis unit 70 performs generation processing of reconstructed image information necessary for obtaining tomographic image information according to the principle of diffuse light tomography based on the data generated by the time-resolved measurement unit 60.

次に、逆問題解析部70が行う拡散光トモグラフィーの原理にしたがった再構成画像情報の生成処理について、従来の処理方法と比較しながら図5のフローチャートを参照して説明する。図5は、本発明の実施の形態1における逆問題解析部70が従来の処理方法および本発明の処理方法によって、再構成画像情報を生成する場合を説明するフローチャートである。   Next, reconstructed image information generation processing according to the principle of diffuse light tomography performed by the inverse problem analysis unit 70 will be described with reference to the flowchart of FIG. 5 in comparison with a conventional processing method. FIG. 5 is a flowchart illustrating a case where the inverse problem analysis unit 70 according to Embodiment 1 of the present invention generates reconstructed image information by the conventional processing method and the processing method of the present invention.

これまで、図5(a)における従来の処理方法では、計算結果と測定結果との誤差が許容値内になるまで、収束処理のループを繰り返すため、大量のデータ処理が必要となり、数分の所要時間が必要であった。   Up to now, the conventional processing method in FIG. 5A repeats the convergence processing loop until the error between the calculation result and the measurement result falls within the allowable value. The time required was necessary.

これに対し、図5(b)における本発明の処理方法では、従来の処理方法に対して、処理が簡略化され、処理回路規模の軽減および処理時間の短縮が可能であるという技術的特徴を有す。   On the other hand, the processing method of the present invention in FIG. 5B has the technical feature that the processing is simplified and the processing circuit scale can be reduced and the processing time can be shortened as compared with the conventional processing method. Yes.

はじめに、逆問題解析部70が従来の処理方法によって再構成画像情報を生成する手順について、図5(a)を参照して説明する。   First, a procedure in which the inverse problem analysis unit 70 generates reconstructed image information by a conventional processing method will be described with reference to FIG.

まず、逆問題解析部70は、ステップS501にて、測定対象である生体組織中の光学特性パラメータである吸収係数μa(r)および換算拡散係数μs’(r)の初期分布の仮定を行う。次に、逆問題解析部70は、ステップS502にて、ステップS501で仮定した初期分布を基に、光伝播モデルを用いて、順問題計算を行う。   First, in step S501, the inverse problem analysis unit 70 assumes an initial distribution of the absorption coefficient μa (r) and the converted diffusion coefficient μs ′ (r), which are optical characteristic parameters in the biological tissue to be measured. Next, in step S502, the inverse problem analysis unit 70 performs forward problem calculation using the light propagation model based on the initial distribution assumed in step S501.

次に、逆問題解析部70は、ステップS503にて、各検出点における光強度の計算を行う。次に、逆問題解析部70は、ステップS504にて、ステップS503で計算した計算結果と各検知器が検出した実際の測定結果とを比較し、計算結果と測定結果との誤差が許容値内か許容値外であるか判断する。なお、誤差の許容値については、あらかじめ規定しておけばよい。   Next, the inverse problem analysis unit 70 calculates the light intensity at each detection point in step S503. Next, in step S504, the inverse problem analysis unit 70 compares the calculation result calculated in step S503 with the actual measurement result detected by each detector, and the error between the calculation result and the measurement result is within the allowable value. It is judged whether it is outside the allowable value. In addition, what is necessary is just to prescribe | regulate the tolerance of an error.

逆問題解析部70は、ステップS504にて、誤差が許容値内と判断した場合には、仮定していた光学特性パラメータの分布が解として、一連の処理を終了する。   If the inverse problem analysis unit 70 determines in step S504 that the error is within the allowable value, the assumed distribution of the optical characteristic parameters is taken as a solution, and the series of processing ends.

一方で、逆問題解析部70は、ステップS504にて、誤差が許容値外と判断した場合には、ステップS501の処理を再び実行する。すなわち、逆問題解析部70は、再びステップS501にて、誤差に基づき、吸収係数μa(r)および換算拡散係数μs’(r)の分布を仮定しなおし、ステップS502以降の処理を実行する。   On the other hand, if it is determined in step S504 that the error is outside the allowable value, the inverse problem analysis unit 70 executes the process of step S501 again. That is, the inverse problem analysis unit 70 again assumes the distribution of the absorption coefficient μa (r) and the converted diffusion coefficient μs ′ (r) based on the error in step S501, and executes the processing from step S502.

そして、この一連の処理は、計算結果と測定結果との誤差が許容値内になるまで繰り返し実行される。   This series of processing is repeatedly executed until the error between the calculation result and the measurement result falls within the allowable value.

逆問題解析部70は、以上の処理で得られた光学特性パラメータであるμa(r)、μs’(r)に基づき、再構成画像情報を生成し、その情報を断層画像情報生成部80に送る。   The inverse problem analysis unit 70 generates reconstructed image information based on the optical characteristic parameters μa (r) and μs ′ (r) obtained by the above processing, and sends the information to the tomographic image information generation unit 80. send.

なお、この処理は、発光/受光ブロックの近赤外線レーザの波長が第一波長、第二波長のそれぞれの場合において実行される。したがって、逆問題解析部70は、第一波長、第二波長のそれぞれに対応する光学特性値μa(r)、μs’(r)に基づく再構成画像情報を断層画像情報生成部80に送ることとなる。   This process is executed when the near-infrared laser wavelength of the light emitting / receiving block is the first wavelength and the second wavelength, respectively. Therefore, the inverse problem analysis unit 70 sends the reconstructed image information based on the optical characteristic values μa (r) and μs ′ (r) corresponding to the first wavelength and the second wavelength to the tomographic image information generation unit 80. It becomes.

そして、断層画像情報生成部80は、第一波長、第二波長に対応するそれぞれの再構成画像情報に基づき、生体組織内の血液量や酸素濃度などを輝度および色相で提示する断層画像情報を生成する。   Then, the tomographic image information generation unit 80 generates tomographic image information that presents the blood volume, oxygen concentration, and the like in the living tissue with luminance and hue based on the reconstructed image information corresponding to the first wavelength and the second wavelength. Generate.

なお、ここでは、断層画像情報生成部80は、第一波長、第二波長に対応するそれぞれの再構成画像情報に基づき、断層画像情報を生成すると述べたが、これに限定されない。   Here, it is described that the tomographic image information generation unit 80 generates the tomographic image information based on the reconstructed image information corresponding to the first wavelength and the second wavelength, but the present invention is not limited to this.

すなわち、近赤外線レーザが出力する波長の種類に応じて、それぞれの波長における再構成画像情報に基づき、断層画像情報を生成することができる。   That is, tomographic image information can be generated based on the reconstructed image information at each wavelength according to the type of wavelength output by the near-infrared laser.

次に、逆問題解析部70が本発明の処理方法によって再構成画像情報を生成する手順について、図5(b)を参照して説明する。この図5(b)におけるフローチャートは、図5(a)におけるフローチャートで実行されたステップS501〜S504に加え、さらに、ステップS505〜S509を備える。   Next, the procedure in which the inverse problem analysis unit 70 generates reconstructed image information by the processing method of the present invention will be described with reference to FIG. The flowchart in FIG. 5B includes steps S505 to S509 in addition to steps S501 to S504 executed in the flowchart in FIG.

まず、逆問題解析部70は、ステップS505にて、生体参照情報生成部130が生成した生体参照情報を取得する。なお、生体参照情報生成部130は、以下のように、生体参照情報を生成する。   First, the inverse problem analysis unit 70 acquires the biometric reference information generated by the biometric reference information generation unit 130 in step S505. Note that the biometric reference information generation unit 130 generates biometric reference information as follows.

すなわち、前述したように、第一の可視化情報取得部10が生成した二次元血管情報は、二次元血管情報保管部30により、二次元血管情報の各ラインと断層画像情報を生成する位置とで関連付けられた形で保存されている。   That is, as described above, the two-dimensional blood vessel information generated by the first visualization information acquisition unit 10 is determined by the two-dimensional blood vessel information storage unit 30 at each line of the two-dimensional blood vessel information and the position where the tomographic image information is generated. Stored in an associated form.

また、断層画像を生成する位置は、第二の光源発光/受光アレー部40の位置によって決められ、これらの位置関係は、先の図3に図示した近赤外・可視合成画像から判別される。   The position for generating the tomographic image is determined by the position of the second light source light emitting / receiving array unit 40, and the positional relationship is determined from the near-infrared / visible composite image shown in FIG. .

そして、生体参照情報生成部130は、二次元血管情報保管部30からこれらの情報を取得し、腕150において、断層画像情報を生成する位置に対応する血管の位置および太さなどといった生体参照情報を生成する。   The biological reference information generation unit 130 acquires these pieces of information from the two-dimensional blood vessel information storage unit 30, and in the arm 150, the biological reference information such as the position and thickness of the blood vessel corresponding to the position where the tomographic image information is generated. Is generated.

次に、逆問題解析部70は、ステップS506にて、一連の装置動作中において、既に腕150における再構成画像情報を生成しているか否かを判断する。逆問題解析部70は、まだ再構成画像情報を生成していないと判断した場合には、ステップS501に進む。   Next, in step S506, the inverse problem analysis unit 70 determines whether reconstructed image information for the arm 150 has already been generated during a series of apparatus operations. If the inverse problem analysis unit 70 determines that the reconstructed image information has not yet been generated, the process proceeds to step S501.

一方、逆問題解析部70は、既に再構成画像情報を生成していると判断した場合には、ステップS507にて、既に生成した各波長に対応する再構成画像情報に基づいて、ステップS505で取得した生体参照情報を修正する。   On the other hand, if the inverse problem analysis unit 70 determines that the reconstructed image information has already been generated, in step S507, based on the reconstructed image information corresponding to each wavelength already generated in step S507. The acquired biometric reference information is corrected.

次に、逆問題解析部70は、ステップS501にて、生体参照情報に基づいて、光学特性パラメータである吸収係数μa(r)および換算拡散係数μs’(r)の分布を仮定する。   Next, in step S501, the inverse problem analysis unit 70 assumes the distribution of the absorption coefficient μa (r) and the converted diffusion coefficient μs ′ (r), which are optical characteristic parameters, based on the biometric reference information.

なお、生体参照情報は、前述したように、断層画像情報を生成する位置に対応する血管の位置および太さなどといった情報を有している。そのため、これらの生体参照情報に基づいて仮定される光学特性パラメータは、従来の処理方法と比較して、精度が高い。   The biometric reference information includes information such as the position and thickness of the blood vessel corresponding to the position where the tomographic image information is generated, as described above. Therefore, the optical characteristic parameters assumed based on these biological reference information have higher accuracy than the conventional processing method.

また、既に再構成画像情報を生成している場合には、断層画像情報を生成する位置に対応する血管の位置および太さなどといった情報に加え、実際に生成した再構成画像情報も考慮するという修正を行った生体参照情報に基づいて、光学特性パラメータが仮定される。そのため、この光学特性パラメータは、修正前の生体参照情報に基づいて仮定した場合と比較して、精度が高い。   If reconstructed image information has already been generated, in addition to information such as the position and thickness of the blood vessel corresponding to the position at which tomographic image information is generated, the actually generated reconstructed image information is also considered. Based on the corrected biometric reference information, an optical characteristic parameter is assumed. For this reason, the optical characteristic parameter has higher accuracy than that assumed based on the biological reference information before correction.

そして、逆問題解析部70は、図5(a)と同様のステップS502〜S504の処理を順次実行する。   And the inverse problem analysis part 70 performs sequentially the process of step S502-S504 similar to Fig.5 (a).

次に、逆問題解析部70は、ステップS504にて、誤差が許容値外と判断した場合には、ステップS501の処理を再び実行する。一方、逆問題解析部70は、ステップS504にて、誤差が許容値内と判断した場合には、ステップS508に進む。   Next, when it is determined in step S504 that the error is outside the allowable value, the inverse problem analysis unit 70 executes the process of step S501 again. On the other hand, if the inverse problem analysis unit 70 determines that the error is within the allowable value in step S504, the process proceeds to step S508.

以上のように、逆問題解析部70は、ステップS501にて、従来の処理方法とは異なり、生体参照情報に基づいて、吸収係数μa(r)および換算拡散係数μs’(r)の分布を仮定している。そのため、仮定したこれらの分布は、従来の処理方法によって仮定された分布と比べて、非常に精度が高い。   As described above, the inverse problem analysis unit 70 determines the distribution of the absorption coefficient μa (r) and the reduced diffusion coefficient μs ′ (r) based on the biological reference information in step S501, unlike the conventional processing method. Assumes. Therefore, these assumed distributions are very accurate compared to the distribution assumed by the conventional processing method.

したがって、計算結果と測定結果との誤差が許容値内になるまでの収束処理のループの繰り返し回数を大幅に削減できるため、従来の処理方法と比較して、処理回路規模の軽減および処理時間の短縮が可能である。   Therefore, the number of iterations of the convergence processing loop until the error between the calculation result and the measurement result falls within the allowable value can be greatly reduced. Therefore, compared with the conventional processing method, the processing circuit scale can be reduced and the processing time can be reduced. Shortening is possible.

次に、逆問題解析部70は、ステップS508にて、前述したように、以上の処理で得られた各波長に対応する光学特性値μa(r)、μs’(r)に基づく再構成画像情報を断層画像情報生成部80に送る。   Next, in step S508, the inverse problem analysis unit 70, as described above, reconstructed images based on the optical characteristic values μa (r) and μs ′ (r) corresponding to the respective wavelengths obtained by the above processing. Information is sent to the tomographic image information generation unit 80.

そして、断層画像情報生成部80は、前述したように、それぞれの波長に対応する再構成画像情報に基づき、生体組織内の血液量や酸素濃度などを輝度および色相で提示する断層画像情報を生成する。   Then, as described above, the tomographic image information generation unit 80 generates tomographic image information that presents the blood volume, oxygen concentration, and the like in the living tissue with luminance and hue based on the reconstructed image information corresponding to each wavelength. To do.

次に、逆問題解析部70は、ステップS509にて、断層画像情報生成部80が次の断層画像情報を生成するために、第二の光源発光/受光アレー部40が移動したか否かを判断する。   Next, in step S509, the inverse problem analysis unit 70 determines whether the second light source emission / light reception array unit 40 has moved in order for the tomographic image information generation unit 80 to generate the next tomographic image information. to decide.

なお、第二の光源発光/受光アレー部40が移動することにより、前述したように、測定部位が変更される。そして、断層画像情報生成部80は、測定部位の変更によって、複数ラインのそれぞれに対応した複数の断層画像情報を生成する。これにより、断層画像情報生成部80は、結果として、先の図2で図示した腕150の表皮上の点線で囲まれた箇所の範囲全体に対応した断層画像情報を生成することができる。   As described above, the measurement site is changed by moving the second light source emission / light reception array unit 40. The tomographic image information generation unit 80 generates a plurality of tomographic image information corresponding to each of the plurality of lines by changing the measurement site. As a result, the tomographic image information generation unit 80 can generate tomographic image information corresponding to the entire range of the portion surrounded by the dotted line on the skin of the arm 150 illustrated in FIG.

そして、逆問題解析部70は、ステップS509にて、第二の光源発光/受光アレー部40が移動したと判断した場合には、ステップS505に戻り、再び一連の処理を実行する。そして、断層画像情報生成部80は、同様に、次の新しい断層画像情報を生成する。   If the inverse problem analysis unit 70 determines in step S509 that the second light source emission / light reception array unit 40 has moved, the process returns to step S505 and executes a series of processes again. Then, the tomographic image information generation unit 80 similarly generates the next new tomographic image information.

一方、逆問題解析部70は、ステップS509にて、第二の光源発光/受光アレー部40が移動しなかったと判断した場合には、必要な断層画像情報の生成が終了したとみなし、一連の処理を終了する。   On the other hand, if the inverse problem analysis unit 70 determines in step S509 that the second light source emission / light reception array unit 40 has not moved, the inverse problem analysis unit 70 regards that generation of necessary tomographic image information has ended, The process ends.

次に、断層画像情報蓄積部100は、以上のように得られた複数の断層画像情報を断層画像情報ごとに区分し、保存する。   Next, the tomographic image information accumulation unit 100 classifies and stores the plurality of tomographic image information obtained as described above for each tomographic image information.

次に、合成画像情報生成部110が行う二次元血管情報の所定の部位とその所定の部位に対応する断層画像情報とを関連付けた情報化処理、および二次元血管情報の補正処理について、図6を参照して説明する。図6は、情報化処理により得られた三次元画像情報および補正処理によって得られた二次元血管情報を画像表示した模式図である。   Next, with respect to the information processing that associates a predetermined part of the two-dimensional blood vessel information with the tomographic image information corresponding to the predetermined part and the correction process of the two-dimensional blood vessel information performed by the composite image information generation unit 110, FIG. Will be described with reference to FIG. FIG. 6 is a schematic diagram in which the 3D image information obtained by the information processing and the 2D blood vessel information obtained by the correction process are displayed as images.

はじめに、合成画像情報生成部110が行う情報化処理について説明する。合成画像情報生成部110は、二次元血管情報保管部30が保存する二次元血管情報と、断層画像情報蓄積部100が保存する断層画像情報を取得する。   First, the information processing performed by the composite image information generation unit 110 will be described. The composite image information generation unit 110 acquires the two-dimensional blood vessel information stored by the two-dimensional blood vessel information storage unit 30 and the tomographic image information stored by the tomographic image information storage unit 100.

そして、合成画像情報生成部110は、二次元血管情報における血管の特定の部位と、複数の断層画像情報の内、その特定の部位に対応する断層画像情報に含まれる血管部分とがそれぞれ重なるように合成し、この合成を血管のそれぞれの部位に対して行う。   The composite image information generation unit 110 then overlaps a specific portion of the blood vessel in the two-dimensional blood vessel information with a blood vessel portion included in the tomographic image information corresponding to the specific portion of the plurality of tomographic image information. And this synthesis is performed on each part of the blood vessel.

合成画像情報生成部110は、このような情報化処理を行うことにより、三次元血管情報を生成する。そして、図6(a)に図示するように、この三次元血管情報は、生体情報表示部120によって、三次元合成画像として画像表示される。   The composite image information generation unit 110 generates three-dimensional blood vessel information by performing such information processing. Then, as illustrated in FIG. 6A, the three-dimensional blood vessel information is displayed as an image as a three-dimensional composite image by the biological information display unit 120.

次に、合成画像情報生成部110が行う二次元血管情報の補正処理について説明する。合成画像情報生成部110は、前述した情報化処理による三次元血管情報の生成に加え、補正処理を行う。なお、情報化処理および補正処理は、それぞれ独立して行われる。   Next, two-dimensional blood vessel information correction processing performed by the composite image information generation unit 110 will be described. The composite image information generation unit 110 performs correction processing in addition to the generation of three-dimensional blood vessel information by the above-described information processing. The information process and the correction process are performed independently.

合成画像情報生成部110は、二次元血管情報における血管の特定の部位に対して、複数の断層画像情報の内、その特定の部位に対応する断層画像情報に含まれる血管部分の輝度および色相を参照しながら、色相処理を行う。そして、この色相処理を血管のそれぞれの部位に対して行う。   The composite image information generation unit 110 calculates the luminance and hue of the blood vessel part included in the tomographic image information corresponding to the specific part of the plurality of tomographic image information for the specific part of the blood vessel in the two-dimensional blood vessel information. Hue processing is performed with reference. And this hue process is performed with respect to each site | part of the blood vessel.

合成画像情報生成部110は、このような補正処理を行うことにより、補正した二次元合成画像情報を生成する。そして、図6(b)に図示するように、この補正した二次元合成画像情報は、生体情報表示部120によって、二次元合成画像として画像表示される。   The composite image information generation unit 110 generates corrected two-dimensional composite image information by performing such correction processing. Then, as illustrated in FIG. 6B, the corrected two-dimensional composite image information is displayed as a two-dimensional composite image by the biological information display unit 120.

以上のようにして得られた図6(a)における画像表示された三次元合成画像情報は、従来と異なり、二次元血管情報と断層画像情報との情報化処理を行うことにより、血管が立体的に表示された三次元合成画像情報を得ることができ、さらに、輝度および色相の違いから明確に生体の血管を判別することができる。   The three-dimensional composite image information displayed in FIG. 6A obtained as described above is different from the conventional one, and the information processing of the two-dimensional blood vessel information and the tomographic image information is performed, so that the blood vessel becomes three-dimensional. Displayed three-dimensional composite image information can be obtained, and furthermore, a blood vessel of a living body can be clearly discriminated from the difference in luminance and hue.

また、図6(b)における画像表示された二次元合成画像情報は、従来と異なり、断層画像情報を利用して、二次元血管情報の補正処理を行うことにより、血管に色相処理が加えられたため、同様に、輝度および色相の違いから明確に生体の血管を判別することができる。   In addition, unlike the conventional case, the two-dimensional composite image information displayed as an image in FIG. 6B is tomographically added to the blood vessel by performing correction processing of the two-dimensional blood vessel information using the tomographic image information. Therefore, similarly, a blood vessel of a living body can be clearly discriminated from the difference in luminance and hue.

したがって、二次元血管情報と断層画像情報とに基づいて三次元合成画像情報および二次元合成画像情報を生成することで、血管の位置、太さ、方向といった生体情報を簡単かつ正確に可視化することができる。さらに、二次元血管情報のみではこれまで判別できなかったような交差する血管に対しても、正確にそれぞれの血管を識別することができる。   Therefore, by generating 3D composite image information and 2D composite image information based on 2D blood vessel information and tomographic image information, it is possible to easily and accurately visualize biological information such as the position, thickness, and direction of blood vessels. Can do. Furthermore, each blood vessel can be accurately identified even with respect to intersecting blood vessels that could not be discriminated so far only with the two-dimensional blood vessel information.

なお、血管を可視化するために、生体情報表示部120に表示させる画像情報においては、二次元合成画像情報と三次元合成画像情報のどちらであってもよい。   In addition, in order to visualize the blood vessel, the image information displayed on the biological information display unit 120 may be either two-dimensional synthetic image information or three-dimensional synthetic image information.

また、以上の説明においては、二次元血管情報が生成された複数のラインのすべてについて断層画像情報を生成した場合における情報化処理および補正処理について説明したが、本発明は、これに限定されるものではない。   In the above description, the information processing and the correction processing in the case where the tomographic image information is generated for all of the plurality of lines in which the two-dimensional blood vessel information is generated have been described. However, the present invention is limited to this. It is not a thing.

すなわち、複数ラインの任意のライン位置に対応した断層画像情報を生成し、結果として、先の図2で図示した腕150の表皮上の点線で囲まれた箇所の一部の範囲に対応した複数の断層画像情報を生成し、同様の情報化処理および補正処理を行ってもよい。   That is, tomographic image information corresponding to arbitrary line positions of a plurality of lines is generated, and as a result, a plurality of areas corresponding to a part of a range surrounded by a dotted line on the skin of the arm 150 illustrated in FIG. The tomographic image information may be generated, and the same information processing and correction processing may be performed.

そして、これらの処理を行うことによって得られた二次元合成画像情報および三次元合成画像情報を画像表示することにより、断層画像に関する情報量が減るものの、上述したような効果が得られる。   Then, by displaying the two-dimensional composite image information and the three-dimensional composite image information obtained by performing these processes, the information as described above can be obtained, but the above-described effects can be obtained.

以上のように、本発明の実施の形態1によれば、生体情報提示装置は、生体の可視化させたい部位の二次元血管情報とその部位に対応する断層画像情報とに基づいて生成された三次元合成画像情報および二次元合成画像情報を表示することができる。これにより、従来では、精度よく識別できなかった血管の位置、太さ、方向といった生体情報を簡単かつ正確に可視化することのできる生体情報提示装置および生体情報提示方法を得ることができる。   As described above, according to the first embodiment of the present invention, the biological information presentation device is a tertiary generated based on the two-dimensional blood vessel information of a part to be visualized of the living body and the tomographic image information corresponding to the part. Original composite image information and two-dimensional composite image information can be displayed. As a result, it is possible to obtain a biological information presentation apparatus and a biological information presentation method that can easily and accurately visualize biological information such as the position, thickness, and direction of blood vessels that could not be identified with high accuracy.

10 可視化情報取得部、11 近赤外線レーザ、12 レンズ、13 光学フィルタ、14 撮像素子、20 二次元血管情報生成部、30 二次元血管情報保管部、40 第二の光源発光/受光アレー部、41 発光/受光ブロック、50 ピコパルス光制御部、60 時間分解計測部、70 逆問題解析部、80 断層画像情報生成部、90 発光/受光アレー可動支持部、100 断層画像情報蓄積部、110 合成画像情報生成部、120 生体情報表示部、130 生体参照情報生成部、140 生体情報提示装置制御部、150 腕、151、152 血管。   DESCRIPTION OF SYMBOLS 10 Visualization information acquisition part, 11 Near-infrared laser, 12 Lens, 13 Optical filter, 14 Image sensor, 20 Two-dimensional blood vessel information generation part, 30 Two-dimensional blood vessel information storage part, 40 2nd light source light emission / light-receiving array part, 41 Light emission / light reception block, 50 pico-pulse light control unit, 60 time-resolved measurement unit, 70 inverse problem analysis unit, 80 tomographic image information generation unit, 90 light emission / light reception array movable support unit, 100 tomographic image information storage unit, 110 composite image information Generation unit, 120 biological information display unit, 130 biological reference information generation unit, 140 biological information presentation device control unit, 150 arm, 151, 152 blood vessel.

Claims (4)

生体の表面から内部を可視化するために、前記生体の表面に近赤外光を照射する第一の検査用光源および第二の検査用光源と、
前記第一の検査用光源から前記生体において可視化する範囲に近赤外光を照射し、照射した前記近赤外光の反射光を用いて前記可視化する範囲を撮影し、撮影した範囲の画像情報を取得する第一の可視化情報取得部と、
前記第一の可視化情報取得部が取得した前記画像情報により可視化される領域の複数ラインのそれぞれに対して二次元血管情報を生成する二次元血管情報生成部と、
前記第二の検査用光源から前記複数ラインの1ライン上に近赤外光を照射し、照射した近赤外光が再び生体表面に出てきた光を複数の地点で検出する第二の光源発光/受光アレー部と、
前記第二の光源発光/受光アレー部が検出した前記光の時間変化計測を行い、検出した前記光の時間変化計測の測定値を算出する時間分解計測部と、
前記生体中の光学特性パラメータの初期分布を仮定し、仮定した前記光学特性パラメータの初期分布に基づいて光の時間変化の計算値を算出し、算出した前記計算値と前記時間分解計測部が算出した測定値との比較処理を行い、前記測定値と前記計算値との誤差があらかじめ規定する許容値内に入るまで、前記光学特性パラメータの初期分布を調整して前記比較処理を繰り返すことにより、前記誤差が許容値内に入る光学特性パラメータを決定し、決定した前記光学特性パラメータに基づき、再構成画像情報を生成する逆問題解析部と、
前記逆問題解析部が生成した再構成画像情報に基づき、前記1ライン上に対応する断層画像情報を生成する断層画像情報生成部と、
前記二次元血管情報生成部が前記二次元血管情報を生成した前記複数ラインの任意のライン位置に対応させて、前記第二の光源発光/受光アレー部、前記時間分解計測部、前記逆問題解析部、および前記断層画像情報生成部による一連処理を行うことで生成される前記任意のライン位置に対応する断層画像情報と、前記二次元血管情報生成部が生成した前記複数ラインのそれぞれの前記二次元血管情報とに基づく合成処理を行うことで、三次元合成画像情報および二次元合成画像情報を生成する合成画像情報生成部と、
前記合成画像情報生成部が生成した前記三次元合成画像情報および前記二次元合成画像情報を画像表示する生体情報表示部と
を備え、
前記合成画像情報生成部は、
前記二次元血管情報生成部が前記複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位と、前記断層画像情報生成部が前記任意のライン位置に対応して生成した断層画像情報の内、前記特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分とがそれぞれ重なるように合成処理することで、前記二次元血管情報における血管に関する三次元合成画像情報を生成し、
前記二次元血管情報生成部が前記複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位に対して、前記断層画像情報生成部が前記任意のライン位置に対応して生成した断層画像情報の内、前記特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分の輝度および色相を参照しながら色相処理を行うことで、前記二次元血管情報における血管に関する二次元合成画像情報を生成する
ことを特徴とする生体情報提示装置。
In order to visualize the inside from the surface of the living body, a first inspection light source and a second inspection light source that irradiate the surface of the living body with near-infrared light, and
The near-infrared light is irradiated from the first inspection light source to the range to be visualized in the living body, the visualized range is photographed using the reflected light of the illuminated near-infrared light, and image information of the photographed range A first visualization information acquisition unit for acquiring
A two-dimensional blood vessel information generation unit that generates two-dimensional blood vessel information for each of a plurality of lines in the region visualized by the image information acquired by the first visualization information acquisition unit;
A second light source that irradiates near-infrared light on one of the plurality of lines from the second inspection light source, and detects the light emitted from the irradiated near-infrared light again on the surface of the living body at a plurality of points. A light emitting / receiving array section;
A time-resolved measurement unit that performs time change measurement of the light detected by the second light source emission / light reception array unit, and calculates a measurement value of the time change measurement of the detected light;
Assuming an initial distribution of optical characteristic parameters in the living body, a calculated value of time change of light is calculated based on the assumed initial distribution of the optical characteristic parameter, and the calculated value and the time-resolved measurement unit calculate By performing a comparison process with the measured value, until the error between the measured value and the calculated value falls within a predetermined allowable value, by adjusting the initial distribution of the optical characteristic parameter and repeating the comparison process, Determining an optical characteristic parameter in which the error falls within an allowable value, and generating an inverse problem analysis unit based on the determined optical characteristic parameter; and
Based on the reconstructed image information generated by the inverse problem analysis unit, a tomographic image information generation unit that generates corresponding tomographic image information on the one line;
The second light source light emitting / receiving array unit, the time-resolved measuring unit, and the inverse problem analysis corresponding to the arbitrary line positions of the plurality of lines where the two-dimensional blood vessel information generating unit has generated the two-dimensional blood vessel information. And the tomographic image information corresponding to the arbitrary line position generated by performing a series of processes by the tomographic image information generation unit, and the two lines of the plurality of lines generated by the two-dimensional blood vessel information generation unit. A composite image information generating unit that generates three-dimensional composite image information and two-dimensional composite image information by performing a composite process based on the three-dimensional blood vessel information;
A biometric information display unit that displays the 3D composite image information and the 2D composite image information generated by the composite image information generation unit;
The composite image information generation unit
A specific portion of the blood vessel in the two-dimensional blood vessel information generated for each of the plurality of lines by the two-dimensional blood vessel information generation unit, and the tomographic image information generated by the tomographic image information generation unit corresponding to the arbitrary line position Among them, by performing synthesis processing so as to overlap each blood vessel portion included in each tomographic image information corresponding to the specific site, to generate three-dimensional composite image information about blood vessels in the two-dimensional blood vessel information,
The tomographic image generated by the tomographic image information generation unit corresponding to the arbitrary line position with respect to a specific portion of the blood vessel in the two-dimensional blood vessel information generated by the two-dimensional blood vessel information generation unit for each of the plurality of lines. By performing hue processing while referring to the luminance and hue of the blood vessel portion included in each tomographic image information corresponding to the specific part of the information, the two-dimensional composite image information about the blood vessel in the two-dimensional blood vessel information is obtained. A biometric information presentation device characterized by generating.
請求項1に記載の生体情報提示装置において、
前記逆問題解析部は、前記二次元血管情報生成部が生成した二次元血管情報または自身が生成した前記再構成画像情報に基づいて、前記生体中の光学特性パラメータの初期分布を仮定する
ことを特徴とする生体情報提示装置。
The biological information presentation apparatus according to claim 1,
The inverse problem analysis unit assumes an initial distribution of optical characteristic parameters in the living body based on the two-dimensional blood vessel information generated by the two-dimensional blood vessel information generation unit or the reconstructed image information generated by itself. A biometric information presentation device as a feature.
請求項1または2に記載の生体情報提示装置において、
前記第二の光源発光/受光アレー部は、
前記第二の検査用光源と、前記第二の検査用光源が照射した近赤外光が再び生体表面に出てきた光を検出する光検知器とのそれぞれが対となるように設置された発光/受光ブロックを1つ以上備え、
1つ以上ある前記発光/受光ブロックの内、第一の発光/受光ブロックに具備される前記第二の検査用光源が照射した近赤外光が再び生体表面に出てきた光を前記1つ以上ある前記発光/受光ブロックのそれぞれの検知器により検出する
ことを特徴とする生体情報提示装置。
The biological information presentation apparatus according to claim 1 or 2,
The second light source light emitting / receiving array section is
Each of the second inspection light source and the photodetector that detects the light emitted from the near-infrared light irradiated by the second inspection light source again on the surface of the living body is installed in pairs. With one or more light emitting / receiving blocks,
Among the one or more light emitting / receiving blocks, the one of the light emitted from the near-infrared light irradiated by the second light source for inspection provided in the first light emitting / receiving block again on the surface of the living body. The biometric information presentation apparatus characterized by detecting with each detector of the said light emission / light reception block.
生体の表面から内部を可視化するために、前記生体の表面に近赤外光を照射する第一の検査用光源および第二の検査用光源を備える生体情報提示装置で実行される生体情報提示方法であって、
前記第一の検査用光源から前記生体において可視化する範囲に近赤外光を照射し、照射した前記近赤外光の反射光を用いて前記可視化する範囲を撮影し、撮影した範囲の画像情報を取得する第一の可視化情報取得ステップと、
前記第一の可視化情報取得ステップで取得した前記画像情報により可視化される領域の複数ラインのそれぞれに対して二次元血管情報を生成する二次元血管情報生成ステップと、
前記第二の検査用光源から前記複数ラインの1ライン上に近赤外光を照射し、照射した近赤外光が再び生体表面に出てきた光を複数の地点で検出する第二の光源発光/受光アレー検出ステップと、
前記第二の光源発光/受光アレー検出ステップで検出した前記光の時間変化計測を行い、検出した前記光の時間変化計測の測定値を算出する時間分解計測ステップと、
前記生体中の光学特性パラメータの初期分布を仮定し、仮定した前記光学特性パラメータの初期分布に基づいて光の時間変化の計算値を算出し、算出した前記計算値と前記時間分解計測ステップで算出した測定値との比較処理を行い、前記測定値と前記計算値との誤差があらかじめ規定する許容値内に入るまで、前記光学特性パラメータの初期分布を調整して前記比較処理を繰り返すことにより、前記誤差が許容値内に入る光学特性パラメータを決定し、決定した前記光学特性パラメータに基づき、再構成画像情報を生成する逆問題解析ステップと、
前記逆問題解析ステップで生成した再構成画像情報に基づき、前記1ライン上に対応する断層画像情報を生成する断層画像情報生成ステップと、
前記二次元血管情報生成ステップにより前記二次元血管情報を生成した際の前記複数ラインの任意のライン位置に対応させて、前記第二の光源発光/受光アレー検出ステップ、前記時間分解計測ステップ、前記逆問題解析ステップ、および前記断層画像情報生成ステップによる一連処理を行うことで生成した前記任意のライン位置に対応する断層画像情報と、前記二次元血管情報生成ステップで生成した前記複数ラインのそれぞれの前記二次元血管情報とに基づく合成処理を行うことで、三次元合成画像情報および二次元合成画像情報を生成する合成画像情報生成ステップと、
前記合成画像情報生成ステップで生成した前記三次元合成画像情報および前記二次元合成画像情報を画像表示する生体情報表示ステップと
を備え、
前記合成画像情報生成ステップは、
前記二次元血管情報生成ステップで前記複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位と、前記断層画像情報生成ステップで前記任意のライン位置に対応して生成した断層画像情報の内、前記特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分とがそれぞれ重なるように合成処理することで、前記二次元血管情報における血管に関する三次元合成画像情報を生成するステップと、
前記二次元血管情報生成ステップで前記複数ラインのそれぞれについて生成した二次元血管情報における血管の特定の部位に対して、前記断層画像情報生成ステップで前記任意のライン位置に対応して生成した断層画像情報の内、前記特定の部位に対応するそれぞれの断層画像情報に含まれる血管部分の輝度および色相を参照しながら色相処理を行うことで、前記二次元血管情報における血管に関する二次元合成画像情報を生成するステップと
を有することを特徴とする生体情報提示方法。
A biological information presentation method executed by a biological information presentation apparatus including a first inspection light source and a second inspection light source that irradiates near-infrared light on the surface of the biological body in order to visualize the inside from the surface of the biological body Because
The near-infrared light is irradiated from the first inspection light source to the range to be visualized in the living body, the visualized range is photographed using the reflected light of the illuminated near-infrared light, and image information of the photographed range A first visualization information acquisition step of acquiring
A two-dimensional blood vessel information generation step for generating two-dimensional blood vessel information for each of a plurality of lines in the region visualized by the image information acquired in the first visualization information acquisition step;
A second light source that irradiates near-infrared light on one of the plurality of lines from the second inspection light source, and detects the light emitted from the irradiated near-infrared light again on the surface of the living body at a plurality of points. A light emitting / receiving array detection step;
A time-resolved measurement step of performing a time change measurement of the light detected in the second light source emission / light reception array detection step, and calculating a measurement value of the detected time change measurement of the light;
Assuming an initial distribution of optical characteristic parameters in the living body, a calculated value of time change of light is calculated based on the assumed initial distribution of the optical characteristic parameter, and calculated in the calculated value and the time-resolved measurement step By performing a comparison process with the measured value, until the error between the measured value and the calculated value falls within a predetermined allowable value, by adjusting the initial distribution of the optical characteristic parameter and repeating the comparison process, An inverse problem analysis step of determining an optical characteristic parameter in which the error falls within an allowable value, and generating reconstructed image information based on the determined optical characteristic parameter;
Based on the reconstructed image information generated in the inverse problem analysis step, tomographic image information generating step for generating corresponding tomographic image information on the one line;
Corresponding to the arbitrary line positions of the plurality of lines when the two-dimensional blood vessel information is generated by the two-dimensional blood vessel information generation step, the second light source emission / light reception array detection step, the time-resolved measurement step, Each of the tomographic image information corresponding to the arbitrary line position generated by performing a series of processes in the inverse problem analysis step and the tomographic image information generation step, and the plurality of lines generated in the two-dimensional blood vessel information generation step A composite image information generating step for generating three-dimensional composite image information and two-dimensional composite image information by performing a composite process based on the two-dimensional blood vessel information;
A biometric information display step for displaying the three-dimensional composite image information and the two-dimensional composite image information generated in the composite image information generation step;
The composite image information generation step includes
A specific portion of the blood vessel in the two-dimensional blood vessel information generated for each of the plurality of lines in the two-dimensional blood vessel information generation step, and the tomographic image information generated corresponding to the arbitrary line position in the tomographic image information generation step. Generating three-dimensional composite image information related to blood vessels in the two-dimensional blood vessel information by performing synthesis processing so that the blood vessel portions included in the respective tomographic image information corresponding to the specific part overlap each other,
A tomographic image generated in correspondence with the arbitrary line position in the tomographic image information generation step with respect to a specific portion of the blood vessel in the two-dimensional blood vessel information generated for each of the plurality of lines in the two-dimensional blood vessel information generation step. By performing hue processing while referring to the luminance and hue of the blood vessel portion included in each tomographic image information corresponding to the specific part of the information, the two-dimensional composite image information about the blood vessel in the two-dimensional blood vessel information is obtained. A biometric information presentation method comprising the steps of:
JP2012122073A 2012-05-29 2012-05-29 Biological information presentation device and biological information presentation method Pending JP2013244343A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012122073A JP2013244343A (en) 2012-05-29 2012-05-29 Biological information presentation device and biological information presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012122073A JP2013244343A (en) 2012-05-29 2012-05-29 Biological information presentation device and biological information presentation method

Publications (1)

Publication Number Publication Date
JP2013244343A true JP2013244343A (en) 2013-12-09

Family

ID=49844576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012122073A Pending JP2013244343A (en) 2012-05-29 2012-05-29 Biological information presentation device and biological information presentation method

Country Status (1)

Country Link
JP (1) JP2013244343A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522718A (en) * 2013-05-13 2016-08-04 執鼎医療科技江蘇有限公司 Blood vessel image positioning system
JP2017015694A (en) * 2015-07-02 2017-01-19 パナソニックIpマネジメント株式会社 Imaging device
CN106999131A (en) * 2014-11-27 2017-08-01 皇家飞利浦有限公司 Imaging device and method for the image that generates patient
JP2021006250A (en) * 2019-06-27 2021-01-21 国立大学法人岩手大学 Three-dimensional blood vessel recognition method and three-dimensional blood vessel recognition apparatus
US11965778B2 (en) 2015-07-02 2024-04-23 Panasonic Intellectual Property Management Co., Ltd. Imaging device provided with light source that emits pulsed light and image sensor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522718A (en) * 2013-05-13 2016-08-04 執鼎医療科技江蘇有限公司 Blood vessel image positioning system
CN106999131A (en) * 2014-11-27 2017-08-01 皇家飞利浦有限公司 Imaging device and method for the image that generates patient
JP2018501839A (en) * 2014-11-27 2018-01-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Imaging device and method for generating an image of a patient
US11033188B2 (en) 2014-11-27 2021-06-15 Koninklijke Philips N.V. Imaging device and method for generating an image of a patient
JP2017015694A (en) * 2015-07-02 2017-01-19 パナソニックIpマネジメント株式会社 Imaging device
US11079276B2 (en) 2015-07-02 2021-08-03 Panasonic Intellectual Property Management Co., Ltd. Imaging device provided with light source that emits pulsed light and image sensor
US11965778B2 (en) 2015-07-02 2024-04-23 Panasonic Intellectual Property Management Co., Ltd. Imaging device provided with light source that emits pulsed light and image sensor
JP2021006250A (en) * 2019-06-27 2021-01-21 国立大学法人岩手大学 Three-dimensional blood vessel recognition method and three-dimensional blood vessel recognition apparatus
JP7164890B2 (en) 2019-06-27 2022-11-02 国立大学法人岩手大学 3D blood vessel recognition method and 3D blood vessel recognition device

Similar Documents

Publication Publication Date Title
US20190133451A1 (en) Apparatus for acquiring biofunctional information, method for acquiring biofunctional information, and program therefor
EP2420181B1 (en) Eyeground observation device
EP2692274B1 (en) Control device, control method and control program for optical coherence tomographic image-generating apparatuses
JP6062793B2 (en) Blood flow diagnostic equipment
JP6584126B2 (en) Image generating apparatus, image generating method, and program
JP2007125144A (en) Laser blood flow imaging apparatus
JP2005114473A (en) Light detection method and biological light-measuring instrument
EP2857793B1 (en) Image capture device and image capture method
JPWO2007066465A1 (en) Optical image measuring device
JP4327738B2 (en) Biological light measurement device and biological light measurement method
Huang et al. Noncontact 3-D speckle contrast diffuse correlation tomography of tissue blood flow distribution
JP5984541B2 (en) Subject information acquisition apparatus, subject information acquisition system, display control method, display method, and program
JP5935498B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP2012010960A5 (en) Optical tomographic imaging apparatus, control method therefor, and program
CN102970919A (en) Optical coherence tomography and method thereof
CA2528824A1 (en) Three-dimensional shape-measuring device
CN103654719B (en) Picture pick-up device and image capture method and image processing equipment and image processing method
US20070064867A1 (en) Apparatus and method to acquire data for reconstruction of images pertaining to functional and anatomical structure of the breast
US10806419B2 (en) X-ray CT apparatus, X-ray CT system, and injector
JP6025888B2 (en) Photoacoustic apparatus, apparatus and method
KR20190057280A (en) Optical coherence tomography imaging system
JP2013052226A (en) Subject information acquisition apparatus, subject information acquisition system, display control method, display method, and program
JP6741025B2 (en) OCT signal processing device and OCT signal processing program
JP2017104381A (en) Information acquisition device, imaging device and information acquisition method
JP2013244343A (en) Biological information presentation device and biological information presentation method