JP2020110362A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2020110362A
JP2020110362A JP2019003583A JP2019003583A JP2020110362A JP 2020110362 A JP2020110362 A JP 2020110362A JP 2019003583 A JP2019003583 A JP 2019003583A JP 2019003583 A JP2019003583 A JP 2019003583A JP 2020110362 A JP2020110362 A JP 2020110362A
Authority
JP
Japan
Prior art keywords
image data
image
value
light irradiation
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019003583A
Other languages
Japanese (ja)
Inventor
慶貴 馬場
Keiki Baba
慶貴 馬場
長永 兼一
Kenichi Osanaga
兼一 長永
福谷 和彦
Kazuhiko Fukutani
和彦 福谷
古川 幸生
Yukio Furukawa
幸生 古川
福島 聡
Satoshi Fukushima
聡 福島
加藤 耕一
Koichi Kato
耕一 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019003583A priority Critical patent/JP2020110362A/en
Publication of JP2020110362A publication Critical patent/JP2020110362A/en
Pending legal-status Critical Current

Links

Abstract

To provide an information processing device capable of making it easy to discriminate whether the possibility of a target (observation object) being present at a certain position in an image is high or low.SOLUTION: An information processing device acquires a plurality of pieces of first image data corresponding to light irradiation performed a plurality of times derived from a photoacoustic wave generated from a subject by light irradiation performed a plurality of times onto the subject, and a plurality of pieces of second image data corresponding to the light irradiation performed a plurality of times; acquires a plurality of pieces of template data corresponding to the light irradiation performed a plurality of times; acquires correlation information indicating correlations between an image value string of the plurality of pieces of first image data in an attention position and an image value string of the plurality of pieces of template data in the attention position; generates composite image data by compositing the plurality of pieces of second image data; and causes display means to display an image based on the correlation information and the composite image data. An imaging range of each of the plurality of pieces of first image data and an imaging range of each of the plurality of pieces of second image data are different from each other.SELECTED DRAWING: Figure 9

Description

本発明は、光照射により発生する光音響波に由来する画像データを生成する情報処理装置に関する。 The present invention relates to an information processing device that generates image data derived from a photoacoustic wave generated by light irradiation.

音響波を受信することにより得られた受信信号に基づいて画像データを生成する装置として、光音響装置が知られている。光音響装置は、光源から発生したパルス光を被検体に照射し、被検体内で伝搬・拡散したパルス光のエネルギーを吸収した被検体組織から発生した音響波(典型的には超音波であり、光音響波とも呼ぶ)を受信する。そして、光音響装置は、受信信号に基づき被検体情報を画像化する。 A photoacoustic device is known as a device that generates image data based on a received signal obtained by receiving an acoustic wave. A photoacoustic apparatus irradiates a subject with pulsed light generated from a light source, and absorbs the energy of pulsed light propagated and diffused in the subject to generate acoustic waves (typically ultrasonic waves). , Also called photoacoustic wave). Then, the photoacoustic apparatus images the subject information based on the received signal.

非特許文献1は、光音響波の受信信号から初期音圧分布を画像化する方法として、逆投影法の一つであるユニバーサルバックプロジェクション(UBP:Universal Back−Projection)を開示する。 Non-Patent Document 1 discloses Universal Back Projection (UBP), which is one of the back projection methods, as a method of imaging an initial sound pressure distribution from a received signal of a photoacoustic wave.

”Universal back−projection algorithm for photoacou“stic computed tomography”, Minghua Xu and Lihong V.Wang,PHYSICAL REVIEW E 71, 016706(2005)"Universal back-projection algorithm for photocou" "stic computed tomography", Minghua Xu and Lihong V. Wang, PHYSICAL REVIEW 70 6,200.

ところで、非特許文献1に記載の方法で音響波の受信信号を逆投影して画像データを生成する場合、音響波の発生位置以外にも受信信号が逆投影され、アーチファクトとして画像に現れる。これにより、画像中の像がターゲット(観察対象)の像であるのか否かを判別することが困難な場合がある。 By the way, when the received signal of the acoustic wave is back-projected by the method described in Non-Patent Document 1 to generate the image data, the received signal is back-projected at a position other than the generation position of the acoustic wave and appears in the image as an artifact. As a result, it may be difficult to determine whether or not the image in the image is the image of the target (observation target).

そこで、本発明は、画像中の注目位置にターゲット(観察対象)が存在する可能性が高いか低いかを判別しやすくすることのできる情報処理装置を提供することを目的とする。 Therefore, it is an object of the present invention to provide an information processing device that can easily determine whether a target (observation target) is highly likely or unlikely to exist at a position of interest in an image.

本発明に係る情報処理装置は、被検体への複数回の光照射により被検体から発生する光音響波に由来する複数回の光照射に対応する複数の第1画像データ、および、複数回の光照射に対応する複数の第2画像データを取得し、複数回の光照射に対応する複数のテンプレートデータを取得し、注目位置における複数の第1画像データの画像値列と、注目位置における複数のテンプレートデータの画像値列との相関を示す相関情報を取得し、複数の第2画像データを合成することにより合成画像データを生成し、相関情報と合成画像データとに基づいた画像を表示手段に表示させ、複数の第1画像データのそれぞれの画像化範囲と、複数の第2画像データのそれぞれの画像化範囲とが異なる。 The information processing apparatus according to the present invention includes a plurality of first image data corresponding to a plurality of times of light irradiation derived from a photoacoustic wave generated from the subject by a plurality of times of light irradiation to the subject, and a plurality of times. A plurality of second image data corresponding to light irradiation is acquired, a plurality of template data corresponding to a plurality of light irradiations is acquired, and image value strings of a plurality of first image data at a target position and a plurality of image values at the target position are acquired. Correlation information indicating the correlation with the image value sequence of the template data is acquired, composite image data is generated by combining a plurality of second image data, and an image based on the correlation information and the composite image data is displayed on the display unit. , And the respective imaging ranges of the plurality of first image data are different from the respective imaging ranges of the plurality of second image data.

本発明に係る情報処理装置によれば、画像中の注目位置にターゲット(観察対象)が存在する可能性が高いか低いかを判別しやすくすることができる。 According to the information processing apparatus of the present invention, it is possible to easily determine whether a target (observation target) is highly likely or unlikely to exist at a position of interest in an image.

時間微分処理及び正負反転処理を説明するための図Diagram for explaining the time differentiation processing and the positive/negative inversion processing 逆投影処理を説明するための図Figure for explaining the back projection process 光照射毎の画像値および感度の変動を示す図The figure which shows the fluctuation of image value and sensitivity for every light irradiation 本実施形態に係る処理を適用した画像を示す図The figure which shows the image which applied the process which relates to this execution form 本実施形態に係る情報処理装置を示すブロック図Block diagram showing an information processing apparatus according to the present embodiment 本実施形態に係るプローブを示す模式図Schematic diagram showing a probe according to the present embodiment 本実施形態に係るコンピュータとその周辺の構成を示すブロック図Block diagram showing the configuration of the computer and its peripherals according to the present embodiment 本実施形態に係る光音響装置の制御フローを示す図The figure which shows the control flow of the photoacoustic apparatus which concerns on this embodiment. 本実施形態に係る情報処理方法のフロー図Flow chart of the information processing method according to the present embodiment 合成画像データの算出過程を示す図Diagram showing the process of calculating composite image data 乗算画像データの算出過程を示す図Diagram showing the calculation process of the multiplied image data 第1変動特性のL2ノルムの算出過程を示す図The figure which shows the calculation process of L2 norm of a 1st fluctuation characteristic. 第2変動特性のL2ノルムの算出過程を示す図The figure which shows the calculation process of L2 norm of a 2nd fluctuation characteristic. 撮像位置を変化させたときの光音響画像データを示す図The figure which shows the photoacoustic image data when changing the imaging position. 感度分布と画素との相対位置関係を示す図Diagram showing relative positional relationship between sensitivity distribution and pixels 平面に保持された被検体の合成画像データを3断面でMIP表示した図Figure showing MIP display of composite image data of the subject held on a plane in three sections 平面に保持された被検体の合成画像データを3断面で断面表示した図Cross-sectional view of the composite image data of the subject held on a plane in three cross sections 各画素に対する基準値の適用領域を示す表Table showing the application area of the reference value for each pixel 曲面に保持された被検体の合成画像データを3断面でMIP表示した図Figure showing MIP display of the composite image data of the subject held on the curved surface in three sections 曲面に保持された被検体の合成画像データを3断面で断面表示した図Cross-sectional view of the composite image data of the subject held on the curved surface in three sections 各画素に対する基準値の適用領域を示す別の表Another table showing the application area of the reference value for each pixel 深さ方向における第1相関値と第2相関値のプロファイルを示す図The figure which shows the profile of a 1st correlation value and a 2nd correlation value in a depth direction.

以下に図面を参照しつつ、本発明の実施形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状及びそれらの相対配置などは、発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、この発明の範囲を以下の記載に限定する趣旨のものではない。 Embodiments of the present invention will be described below with reference to the drawings. However, the dimensions, materials, shapes, and their relative arrangements of the components described below should be appropriately changed according to the configuration of the device to which the invention is applied and various conditions, and the scope of the present invention is not limited. It is not intended to be limited to the following description.

本発明は、光照射により発生した光音響波に由来する、2次元または3次元の空間分布を表す画像データの生成に関する発明である。光音響画像データは、光音響波の発生音圧(初期音圧)、光吸収エネルギー密度、及び光吸収係数、被検体を構成する物質の濃度(酸素飽和度など)などの少なくとも1つの被検体情報の空間分布を表す画像データである。 The present invention relates to generation of image data representing a two-dimensional or three-dimensional spatial distribution derived from a photoacoustic wave generated by light irradiation. The photoacoustic image data is at least one object such as generated sound pressure (initial sound pressure) of photoacoustic wave, light absorption energy density, and light absorption coefficient, concentration of substances constituting the object (such as oxygen saturation). It is image data representing the spatial distribution of information.

ところで、光音響イメージングの主な被検体である生体は、光を散乱及び吸収する特性を備える。そのため、光が生体の深部に進むにつれて、光強度が指数的に減衰する。その結果、典型的に、被検体表面付近では振幅の大きい光音響波が生じ、被検体深部では振幅の小さい光音響波が生じる傾向がある。特に被検体の表面付近に存在する血管から振幅の大きい光音響波が生じやすい。 By the way, a living body, which is a main subject of photoacoustic imaging, has a property of scattering and absorbing light. Therefore, the light intensity exponentially attenuates as the light travels deep into the living body. As a result, typically, a photoacoustic wave with a large amplitude tends to occur near the surface of the subject, and a photoacoustic wave with a small amplitude tends to occur in the deep part of the subject. Particularly, a photoacoustic wave having a large amplitude is likely to be generated from a blood vessel existing near the surface of the subject.

非特許文献1に記載のUBP(Universal Back−Projection)と呼ばれる再構成法では、トランスデューサを中心とする円弧上に受信信号を逆投影する。その際、被検体の表面付近の振幅が大きい光音響波の受信信号が被検体深部に逆投影され、その結果被検体深部でのアーチファクトとなる。このため、被検体深部に存在する生体組織を画像化する際に、被検体表面から発生した光音響波に起因するアーチファクトにより画質(コントラスト等)が低下するおそれがある。 In the reconstruction method called UBP (Universal Back-Projection) described in Non-Patent Document 1, a received signal is back projected onto an arc centered on a transducer. At this time, the received signal of the photoacoustic wave having a large amplitude near the surface of the subject is back-projected to the deep portion of the subject, resulting in an artifact in the deep portion of the subject. Therefore, when the living tissue existing in the deep part of the subject is imaged, the image quality (contrast or the like) may be deteriorated due to the artifact caused by the photoacoustic wave generated from the surface of the subject.

本発明は、アーチファクトとターゲットを判別するための画像データ処理に係る発明である。すなわち、本発明は、画像中の注目位置にターゲットが存在する可能性が高いか低いかを判別しやすくすることのできる発明である。本明細書において、ターゲットが存在するか否かを判定することは、ターゲットが存在する可能性が高いか低いかを判定することに相当する。以下、本発明の実施形態に係る処理について説明する。 The present invention is an invention relating to image data processing for distinguishing an artifact from a target. That is, the present invention is an invention capable of facilitating determination as to whether or not there is a high possibility that a target exists at a position of interest in an image. In this specification, determining whether or not a target is present corresponds to determining whether or not a target is highly likely to be present. The processing according to the embodiment of the present invention will be described below.

光音響波の受信信号は、一般的に図1(a)に示すようなN−Shapeとよばれる波形を持つことが知られている。UBPでは図1(a)に示すN−Shape信号に対して時間微分処理を行い、図1(b)に示す時間微分信号を生成する。続いて、時間微分信号の信号レベルの正負を反転する正負反転処理を行い、図1(c)に示す正負反転信号を生成する。なお、N−Shape信号に時間微分処理及び正負反転処理を施して生成された信号(投影信号とも呼ぶ)には、図1(c)の矢印A,Cで示すような負の値を持つ部分と、図1(c)の矢印Bに示すような正の値を持つ部分が現れる。 It is known that the received signal of the photoacoustic wave generally has a waveform called N-Shape as shown in FIG. In UBP, time differential processing is performed on the N-Shape signal shown in FIG. 1(a) to generate the time differential signal shown in FIG. 1(b). Then, the positive/negative inversion processing which inverts the positive/negative of the signal level of a time differential signal is performed, and the positive/negative inversion signal shown in FIG.1(c) is produced|generated. A signal (also referred to as a projection signal) generated by performing time differentiation processing and positive/negative inversion processing on the N-Shape signal has a portion having a negative value as shown by arrows A and C in FIG. Then, a portion having a positive value appears as shown by an arrow B in FIG.

図2は、被検体内部の微小球形状の光吸収体であるターゲット10から発生した光音響波をトランスデューサ21及びトランスデューサ22で受信する場合にUBPを適用する例を示す。ターゲット10に光を照射すると、光音響波が発生し、光音響波はトランスデューサ21及びトランスデューサ22にてN−Shape信号としてサンプリングされる。図2(a)は、トランスデューサ21によりサンプリングされたN−Shape状の受信信号をターゲット10に重畳して示した図である。なお、便宜上、トランスデューサ21から出力された受信信号のみを示すが、トランスデューサ22からも同様に受信信号が出力される。 FIG. 2 shows an example in which UBP is applied when the photoacoustic wave generated from the target 10 which is a microsphere-shaped light absorber inside the subject is received by the transducer 21 and the transducer 22. When the target 10 is irradiated with light, a photoacoustic wave is generated, and the photoacoustic wave is sampled by the transducer 21 and the transducer 22 as an N-Shape signal. FIG. 2A is a diagram in which an N-Shape-shaped reception signal sampled by the transducer 21 is superimposed on the target 10. Although only the reception signal output from the transducer 21 is shown for convenience, the reception signal is also output from the transducer 22 in the same manner.

図2(b)は、図2(a)に示すN−Shape状の受信信号に時間微分処理及び正負反転処理を施した投影信号をターゲット10に重畳して示した図である。 FIG. 2B is a diagram in which a projection signal obtained by performing time differentiation processing and positive/negative inversion processing on the N-Shape-shaped reception signal shown in FIG.

図2(c)は、トランスデューサ21を用いて得られた投影信号をUBPで逆投影する様子を示す。UBPではトランスデューサ21を中心とした円弧上に投影信号を投影する。この場合、トランスデューサ21の指向角(例えば60°)の範囲に投影信号を逆投影している。その結果、あたかも領域31、32、及び33にわたってターゲット10が存在するかのような画像となる。ここで、領域31及び33は負の値を持つ領域であり、領域32は正の値を持つ領域である。図2(c)において、負の値を持つ領域31及び33を斜線で塗りつぶした。 FIG. 2C shows a state where the projection signal obtained by using the transducer 21 is back projected by UBP. In UBP, a projection signal is projected on an arc centered on the transducer 21. In this case, the projection signal is back projected onto the range of the directional angle (for example, 60°) of the transducer 21. As a result, the image becomes as if the target 10 exists over the regions 31, 32, and 33. Here, the regions 31 and 33 are regions having a negative value, and the region 32 is a region having a positive value. In FIG. 2C, areas 31 and 33 having negative values are shaded.

図2(d)は、トランスデューサ22を用いて得られた投影信号をUBPで逆投影する場合を示す。その結果、あたかも領域41、42、及び43にわたってターゲット10が存在するかのような画像となる。ここで、領域41、43は負の値を持つ領域であり、領域42は正の値を持つ領域である。図2(d)において、負の値を持つ領域41及び43を斜線で塗りつぶした。 FIG. 2D shows a case where the projection signal obtained by using the transducer 22 is back projected by UBP. As a result, the image becomes as if the target 10 exists over the regions 41, 42, and 43. Here, the regions 41 and 43 are regions having a negative value, and the region 42 is a region having a positive value. In FIG. 2D, areas 41 and 43 having negative values are shaded.

図2(e)は、複数のトランスデューサ21及び22のそれぞれに対応する投影信号をUBPで逆投影する場合の図を示す。このようにして逆投影された複数の投影信号を合成することにより、光音響画像データが生成される。 FIG. 2E shows a case where the projection signals corresponding to each of the plurality of transducers 21 and 22 are back-projected by UBP. Photoacoustic image data is generated by combining a plurality of backprojected projection signals in this manner.

図2(e)に示すように、ターゲット10の内部の位置51においては、トランスデューサ21に対応する投影信号の正値の領域32と、トランスデューサ22に対応する投影信号の正値の領域42が重なる。すなわち、典型的にターゲット10の存在する領域(ターゲット領域とも呼ぶ)では、正値の領域同士が優位に重なる。そのため、ターゲット10の存在する領域では、典型的に光照射毎の画像データが正値となる傾向がある。 As shown in FIG. 2E, at a position 51 inside the target 10, a positive value region 32 of the projection signal corresponding to the transducer 21 and a positive value region 42 of the projection signal corresponding to the transducer 22 overlap. .. That is, typically, in a region where the target 10 exists (also referred to as a target region), positive value regions are dominantly overlapped with each other. Therefore, in the region where the target 10 exists, typically, the image data for each light irradiation tends to have a positive value.

一方、ターゲット10の外部の位置52においては、トランスデューサ21に対応する投影信号の正値の領域32と、トランスデューサ22に対応する投影信号の負値の領域43とが重なる。また、ターゲット10の外部の位置53においては、トランスデューサ21に対応する投影信号の負値の領域31と、トランスデューサ22に対応する投影信号の正値の領域42とが重なる。このようにターゲット10以外の領域では、正値の領域と負値の領域とが複雑に重なる傾向がある。すなわち、ターゲット10以外の領域では、光照射毎に画像データが正値にも負値にもなる傾向がある。このような傾向となる理由としては、トランスデューサ22とターゲット10との相対位置が光照射毎に変わることなどが考えられる。 On the other hand, at the position 52 outside the target 10, the positive value region 32 of the projection signal corresponding to the transducer 21 and the negative value region 43 of the projection signal corresponding to the transducer 22 overlap. Further, at the position 53 outside the target 10, the negative value region 31 of the projection signal corresponding to the transducer 21 and the positive value region 42 of the projection signal corresponding to the transducer 22 overlap. As described above, in the area other than the target 10, the positive value area and the negative value area tend to be complicatedly overlapped. That is, in the area other than the target 10, the image data tends to have a positive value or a negative value each time the light is irradiated. The reason for this tendency is that the relative position between the transducer 22 and the target 10 changes every time the light is irradiated.

次に、光照射の度に光音響波の受信位置の組み合わせを変えたときの、光照射毎の画像データの値(画像値)の変動について説明する。図3(a)は、ターゲット10の領域を非特許文献1に記載のUBPで再構成したときの画像データの値(画像値)の変動を示す。横軸は光照射の番号を示し、縦軸は画像値を示す。一方、図3(b)は、ターゲット10以外の領域を非特許文献1に記載のUBPで再構成したときの画像データの値(画像値)の変動を示す。横軸は光照射の番号を示し、縦軸は画像値を示す。 Next, the variation of the image data value (image value) for each light irradiation when the combination of the reception positions of the photoacoustic waves is changed for each light irradiation will be described. FIG. 3A shows a variation in image data value (image value) when the region of the target 10 is reconstructed by the UBP described in Non-Patent Document 1. The horizontal axis represents the light irradiation number, and the vertical axis represents the image value. On the other hand, FIG. 3B shows a variation in the image data value (image value) when the region other than the target 10 is reconstructed by the UBP described in Non-Patent Document 1. The horizontal axis represents the light irradiation number, and the vertical axis represents the image value.

図3(a)によれば、ターゲット10の領域の画像値は、光照射毎に変動があるものの、常に正値となっていることが分かる。一方、図3(b)によれば、ターゲット10以外の領域の画像値は、光照射毎に正値にも負値にもなることが理解される。 According to FIG. 3A, it can be seen that the image value in the region of the target 10 is always a positive value, although it varies with each light irradiation. On the other hand, according to FIG. 3B, it is understood that the image value of the area other than the target 10 becomes a positive value or a negative value for each light irradiation.

ここで、全ての光照射に対応する画像データを合成することにより画像データを生成すると、ターゲット10の領域では正値の合成となるので最終的な画像値が大きくなる。一方で、ターゲット10以外の領域では、画像データの正値と負値とが相殺して、最終的な画像値がターゲット10の領域よりも小さくなる。その結果、光音響画像データに基づいた画像上でターゲット10の存在を視認することができる。 Here, if the image data is generated by synthesizing the image data corresponding to all the light irradiations, a positive value is synthesized in the area of the target 10, so that the final image value becomes large. On the other hand, in the area other than the target 10, the positive value and the negative value of the image data cancel each other out, and the final image value becomes smaller than the area of the target 10. As a result, the presence of the target 10 can be visually recognized on the image based on the photoacoustic image data.

ところが、ターゲット10以外の領域では、ターゲットが存在しないにもかかわらず画像値が0とはならず、最終的な画像値が正値をなる場合がある。この場合、ターゲット10以外の位置にアーチファクトが発生し、ターゲットの視認性を低下させることとなる。 However, in the area other than the target 10, the image value may not be 0 even though there is no target, and the final image value may be a positive value. In this case, an artifact is generated at a position other than the target 10, which reduces the visibility of the target.

そこで、ある領域における画像が、ターゲットの画像であるかターゲット以外の画像であるかを判別しやすくすることが望まれている。 Therefore, it is desired to make it easy to determine whether the image in a certain area is the image of the target or the image other than the target.

そこで、本発明者は、上記課題を解決するために、ターゲットの領域とターゲット以外の領域では、典型的に光照射毎の画像データの画像値の変動特性が異なる傾向を持つことに着目した。すなわち、本発明者は、光照射毎の画像データの画像値の変動特性から、ターゲットの領域とターゲット以外の領域とを判定することを着想した。この方法により、ターゲットであるか否かを精度よく判別することができる。 Therefore, in order to solve the above-mentioned problems, the present inventor has noticed that the target region and the region other than the target typically have different characteristics of fluctuation in image value of image data for each light irradiation. That is, the present inventor has conceived to determine the target area and the area other than the target from the variation characteristic of the image value of the image data for each light irradiation. By this method, it is possible to accurately determine whether or not the target.

また本発明者は、ターゲット領域であるか否かの判定結果を表す画像を表示させることを着想した。このような画像を表示させることにより、画像中の注目位置にターゲットが存在するか否かを容易に判別することができる。 The present inventor also conceived to display an image showing the determination result of whether or not it is the target area. By displaying such an image, it is possible to easily determine whether or not the target is present at the position of interest in the image.

また本発明者は、上記の方法でターゲットの領域を決定し、画像データからターゲットの画像を選択的に抽出することを着想した。すなわち、本発明者は、注目位置にターゲットが存在しない場合に、当該位置の画像値に対応する輝度よりも低い輝度で、当該位置における画像データに基づいた画像を表示することを着想した。このような情報処理方法によれば、ターゲットが強調された画像をユーザーに提供することができる。このような画像を表示させることにより、ユーザーは注目位置にターゲットが存在するのか否かを容易に判別することができる。 The present inventor also conceived to determine the target area by the above method and selectively extract the target image from the image data. That is, the present inventor has conceived that, when the target does not exist at the position of interest, the image based on the image data at the position is displayed with the brightness lower than the brightness corresponding to the image value at the position. According to such an information processing method, it is possible to provide the user with an image in which the target is emphasized. By displaying such an image, the user can easily determine whether or not the target exists at the target position.

本発明者は、複数回の光照射に対応する複数の画像データのそれぞれの画像化範囲の設定値が、画像値の変動特性の精度および合成画像データの画質(コントラストや解像度など)に影響を与えることを見出した。また、本発明者は、合成画像データを得る場合と、画像値の変動特性を得る場合とで適した画像化範囲が異なることを見出した。 The present inventor has found that the setting values of the imaging ranges of a plurality of image data corresponding to a plurality of times of light irradiation affect the accuracy of the variation characteristics of the image values and the image quality (contrast, resolution, etc.) of the combined image data. Found to give. Further, the present inventor has found that the suitable imaging range is different when the synthetic image data is obtained and when the variation characteristic of the image value is obtained.

そこで、本発明者は、画像値の変動特性を得るための、複数回の光照射に対応する複数の第1画像データと、合成画像データを得るための、複数回の光照射に対応する複数の第2画像データとにおいて画像化範囲を変更することを着想した。すなわち、本発明者は、複数の第1画像データのそれぞれの画像化範囲と、複数の第2画像データのそれぞれの画像化範囲とが異ならせることを着想した。これにより、画像値の変動特性を得る場合と、合成画像を得る場合とでそれぞれ適した画像化範囲が設定されることとなる。 Therefore, the present inventor has made a plurality of first image data corresponding to a plurality of light irradiations for obtaining a variation characteristic of an image value and a plurality of a plurality of light irradiations corresponding to a plurality of light irradiations for obtaining combined image data. The idea was to change the imaging range for the second image data of. That is, the present inventor has conceived that the imaging ranges of the plurality of first image data are different from the imaging ranges of the second image data. As a result, an appropriate imaging range is set for obtaining the variation characteristic of the image value and for obtaining the composite image.

さらに、本発明者は、画像値の変動特性を精度が最適化される場合の第1画像データの画像化範囲が、合成画像データの画質が最適化される場合の第2画像データの画像化範囲よりも大きいことを見出した。そこで、本発明者は、複数の第1画像データのそれぞれの画像化範囲を、複数の第2画像データのそれぞれの画像化範囲よりも大きくすることを着想した。 Furthermore, the present inventor has made the imaging range of the first image data when the accuracy of the variation characteristic of the image value is optimized, and the imaging range of the second image data when the image quality of the combined image data is optimized. It was found to be larger than the range. Therefore, the present inventor has conceived to make each imaging range of the plurality of first image data larger than each imaging range of the plurality of second image data.

本発明に係る処理の詳細については以下の実施形態で後述する。 Details of the processing according to the present invention will be described later in the following embodiments.

本実施形態は、光音響装置により光音響画像データを生成する例を説明する。以下、本実施形態の光音響装置の構成及び情報処理方法について説明する。 In this embodiment, an example in which photoacoustic image data is generated by a photoacoustic apparatus will be described. Hereinafter, the configuration of the photoacoustic apparatus of this embodiment and the information processing method will be described.

図5を用いて本実施形態に係る光音響装置の構成を説明する。図5は、光音響装置全体の概略ブロック図である。本実施形態に係る光音響装置は、光照射部110及び受信部120を含むプローブ180、駆動部130、信号収集部140、コンピュータ150、表示部160、及び入力部170を有する。 The configuration of the photoacoustic apparatus according to this embodiment will be described with reference to FIG. FIG. 5 is a schematic block diagram of the entire photoacoustic apparatus. The photoacoustic apparatus according to this embodiment includes a probe 180 including a light irradiation unit 110 and a reception unit 120, a driving unit 130, a signal collecting unit 140, a computer 150, a display unit 160, and an input unit 170.

図6は、本実施形態に係るプローブ180の模式図を示す。測定対象は、被検体100である。駆動部130は、光照射部110と受信部120を駆動し、機械的な走査を行う。光照射部110が光を被検体100に照射し、被検体100内で音響波が発生する。光に起因して光音響効果により発生する音響波を光音響波とも呼ぶ。受信部120は、光音響波を受信することによりアナログ信号としての電気信号(光音響信号)を出力する。 FIG. 6 shows a schematic diagram of the probe 180 according to the present embodiment. The measurement target is the subject 100. The driving unit 130 drives the light emitting unit 110 and the receiving unit 120 to perform mechanical scanning. The light irradiation unit 110 irradiates the subject 100 with light, and an acoustic wave is generated in the subject 100. An acoustic wave generated by the photoacoustic effect due to light is also called a photoacoustic wave. The receiving unit 120 outputs an electric signal (photoacoustic signal) as an analog signal by receiving the photoacoustic wave.

信号収集部140は、受信部120から出力されたアナログ信号をデジタル信号に変換し、コンピュータ150に出力する。コンピュータ150は、信号収集部140から出力されたデジタル信号を、超音波、音響波あるいは光音響波に由来する信号データとして記憶する。 The signal collecting unit 140 converts the analog signal output from the receiving unit 120 into a digital signal and outputs the digital signal to the computer 150. The computer 150 stores the digital signal output from the signal collecting unit 140 as signal data derived from an ultrasonic wave, an acoustic wave, or a photoacoustic wave.

コンピュータ150は、記憶されたデジタル信号に対して信号処理を行うことにより、被検体100に関する情報(被検体情報)の2次元または3次元の空間分布を表す光音響画像データを生成する。また、コンピュータ150は、得られた画像データに基づいた画像を表示部160に表示させる。ユーザーとしての医師は、表示部160に表示された画像を確認することにより、診断を行うことができる。表示画像は、ユーザーやコンピュータ150からの保存指示に基づいて、コンピュータ150内のメモリや、モダリティとネットワークで接続されたデータ管理システムなどのメモリに保存される。 The computer 150 performs signal processing on the stored digital signal to generate photoacoustic image data representing a two-dimensional or three-dimensional spatial distribution of information about the subject 100 (subject information). The computer 150 also causes the display unit 160 to display an image based on the obtained image data. The doctor as the user can make a diagnosis by checking the image displayed on the display unit 160. The display image is stored in a memory in the computer 150 or a memory such as a data management system connected to the modality via a network based on a storage instruction from the user or the computer 150.

また、コンピュータ150は、光音響装置に含まれる構成の駆動制御も行う。また、表示部160は、コンピュータ150で生成された画像の他にGUIなどを表示してもよい。入力部170は、ユーザーが情報を入力できるように構成されている。ユーザーは、入力部170を用いて測定開始や終了、作成画像の保存指示などの操作を行うことができる。 The computer 150 also controls the drive of the configuration included in the photoacoustic apparatus. Further, the display unit 160 may display a GUI or the like in addition to the image generated by the computer 150. The input unit 170 is configured so that the user can input information. The user can use the input unit 170 to perform operations such as starting and ending the measurement and giving an instruction to save the created image.

以下、本実施形態に係る光音響装置の各構成の詳細を説明する。 Hereinafter, details of each component of the photoacoustic apparatus according to the present embodiment will be described.

(光照射部110)
光照射部110は、光を発する光源111と、光源111から射出された光を被検体100へ導く光学系112とを含む。なお、光は、いわゆる矩形波、三角波などのパルス光を含む。
(Light irradiation unit 110)
The light irradiation unit 110 includes a light source 111 that emits light, and an optical system 112 that guides the light emitted from the light source 111 to the subject 100. The light includes pulsed light such as so-called rectangular wave and triangular wave.

光源111が発する光のパルス幅としては、1ns以上、100ns以下のパルス幅であってもよい。また、光の波長として400nmから1600nm程度の範囲の波長であってもよい。血管を高解像度でイメージングする場合は、血管での吸収が大きい波長(400nm以上、700nm以下)を用いてもよい。生体の深部をイメージングする場合には、生体の背景組織(水や脂肪など)において典型的に吸収が少ない波長(700nm以上、1100nm以下)の光を用いてもよい。 The pulse width of the light emitted by the light source 111 may be 1 ns or more and 100 ns or less. The wavelength of light may be in the range of 400 nm to 1600 nm. When imaging a blood vessel with high resolution, a wavelength having a large absorption in the blood vessel (400 nm or more and 700 nm or less) may be used. When imaging a deep part of a living body, light having a wavelength (700 nm or more and 1100 nm or less) that is typically less absorbed in the background tissue (water, fat, etc.) of the living body may be used.

光源111としては、レーザーや発光ダイオードを用いることができる。また、複数波長の光を用いて測定する際には、波長の変更が可能な光源であってもよい。なお、複数波長を被検体に照射する場合、互いに異なる波長の光を発生する複数台の光源を用意し、それぞれの光源から交互に照射することも可能である。複数台の光源を用いた場合もそれらをまとめて光源として表現する。レーザーとしては、固体レーザー、ガスレーザー、色素レーザー、半導体レーザーなど様々なレーザーを使用することができる。例えば、Nd:YAGレーザーやアレキサンドライトレーザーなどのパルスレーザーを光源として用いてもよい。また、Nd:YAGレーザー光を励起光とするTi:saレーザーやOPO(Optical Parametric Oscillators)レーザーを光源として用いてもよい。また、光源111としてフラッシュランプや発光ダイオードを用いてもよい。また、光源111としてマイクロウェーブ源を用いてもよい。 A laser or a light emitting diode can be used as the light source 111. Further, when the measurement is performed using light of a plurality of wavelengths, a light source that can change the wavelength may be used. In addition, when irradiating a subject with a plurality of wavelengths, it is possible to prepare a plurality of light sources that generate lights of different wavelengths and irradiate the respective light sources alternately. Even when a plurality of light sources are used, they are collectively expressed as a light source. As the laser, various lasers such as a solid laser, a gas laser, a dye laser, and a semiconductor laser can be used. For example, a pulsed laser such as an Nd:YAG laser or an alexandrite laser may be used as the light source. Further, a Ti:sa laser or an OPO (Optical Parametric Oscillators) laser that uses Nd:YAG laser light as excitation light may be used as a light source. A flash lamp or a light emitting diode may be used as the light source 111. A microwave source may be used as the light source 111.

光学系112には、レンズ、ミラー、プリズム、光ファイバー、拡散板、シャッターなどの等の光学素子を用いることができる。 The optical system 112 can be an optical element such as a lens, a mirror, a prism, an optical fiber, a diffusion plate, or a shutter.

生体組織に照射することが許される光の強度は、以下に示す安全規格によって最大許容露光量(MPE:maximum permissible exposure)が定められている。(IEC 60825−1:Safety of laser products、JIS C 6802:レーザー製品の安全基準、FDA:21CFR Part 1040.10、ANSI Z136.1:Laser Safety Standards、など)。最大許容露光量は、単位面積あたりに照射することができる光の強度を規定している。このため被検体Eの表面を広い面積で一括して光を照射することにより、多くの光を被検体Eに導くことができるので、光音響波を高いSN比で受信することができる。乳房等の生体組織を被検体100とする場合、高エネルギーの光のビーム径を広げて照射するために、光学系112の射出部は光を拡散させる拡散板等で構成されていてもよい。一方、光音響顕微鏡においては、解像度を上げるために、光学系112の光出射部はレンズ等で構成し、ビームをフォーカスして照射してもよい。 The maximum permissible exposure amount (MPE: maximum permissible exposure) of the intensity of light allowed to irradiate a biological tissue is defined by the following safety standards. (IEC 60825-1: Safety of laser products, JIS C 6802: Safety standards for laser products, FDA: 21CFR Part 1040.10, ANSI Z136.1: Laser Safety Standards, etc.). The maximum allowable exposure dose defines the intensity of light that can be irradiated per unit area. Therefore, a large amount of light can be guided to the subject E by collectively irradiating the surface of the subject E with a large area, so that the photoacoustic wave can be received with a high SN ratio. When a living body tissue such as a breast is used as the subject 100, the emission part of the optical system 112 may be configured by a diffusion plate or the like for diffusing light in order to expand the beam diameter of high-energy light for irradiation. On the other hand, in the photoacoustic microscope, in order to increase the resolution, the light emitting portion of the optical system 112 may be configured by a lens or the like, and the beam may be focused and irradiated.

なお、光照射部110が光学系112を備えずに、光源111から直接被検体100に光を照射してもよい。 The light irradiation unit 110 may not include the optical system 112, and the light source 111 may directly irradiate the subject 100 with light.

(受信部120)
受信部120は、音響波を受信することにより電気信号を出力するトランスデューサ121と、トランスデューサ121を支持する支持体122とを含む。また、トランスデューサ121は、超音波、音響波を送信する送信手段としてもよい。受信手段としてのトランスデューサと送信手段としてのトランスデューサとは、単一(共通)のトランスデューサでもよいし、別々の構成であってもよい。
(Reception unit 120)
The reception unit 120 includes a transducer 121 that outputs an electric signal by receiving an acoustic wave, and a support body 122 that supports the transducer 121. Further, the transducer 121 may be a transmission unit that transmits ultrasonic waves and acoustic waves. The transducer as the receiving means and the transducer as the transmitting means may be a single (common) transducer or may have different configurations.

トランスデューサ121を構成する部材としては、PZT(チタン酸ジルコン酸鉛)に代表される圧電セラミック材料や、PVDF(ポリフッ化ビニリデン)に代表される高分子圧電膜材料などを用いることができる。また、圧電素子以外の素子を用いてもよい。例えば、静電容量型トランスデューサ(CMUT:Capacitive Micro−machined Ultrasonic Transducers)、ファブリペロー干渉計を用いたトランスデューサなどを用いることができる。なお、超音波、音響波を受信することにより電気信号を出力できる限り、いかなるトランスデューサを採用してもよい。また、トランスデューサにより得られる信号は時間分解信号である。つまり、トランスデューサにより得られる信号の振幅は、各時刻にトランスデューサで受信される音圧に基づく値(例えば、音圧に比例した値)を表したものである。 A piezoelectric ceramic material typified by PZT (lead zirconate titanate), a polymer piezoelectric film material typified by PVDF (polyvinylidene fluoride), or the like can be used as a member forming the transducer 121. In addition, an element other than the piezoelectric element may be used. For example, a capacitance type transducer (CMUT:Capacitive Micro-machined Ultrasonic Transducers), a transducer using a Fabry-Perot interferometer, or the like can be used. Any transducer may be adopted as long as it can output an electric signal by receiving an ultrasonic wave or an acoustic wave. Also, the signal obtained by the transducer is a time resolved signal. That is, the amplitude of the signal obtained by the transducer represents a value based on the sound pressure received by the transducer at each time (for example, a value proportional to the sound pressure).

光音響波を構成する周波数成分は、典型的には100KHzから100MHzであり、トランスデューサ121として、これらの周波数を検出することのできるものを採用することができる。 The frequency component that constitutes the photoacoustic wave is typically 100 KHz to 100 MHz, and as the transducer 121, one that can detect these frequencies can be adopted.

支持体122は、機械的強度が高い金属材料などから構成されていてもよい。照射光を被検体に多く入射させるために、支持体122の被検体100側の表面に鏡面もしくは光散乱させる加工が行われていてもよい。本実施形態において支持体122は半球殻形状であり、半球殻上に複数のトランスデューサ121を支持できるように構成されている。この場合、支持体122に配置されたトランスデューサ121の指向軸は半球の曲率中心付近に集まる。そして、複数のトランスデューサ121から出力された信号を用いて画像化したときに曲率中心付近の画質が高くなる。なお、支持体122はトランスデューサ121を支持できる限り、いかなる構成であってもよい。支持体122は、1Dアレイ、1.5Dアレイ、1.75Dアレイ、2Dアレイと呼ばれるような平面又は曲面内に、複数のトランスデューサを並べて配置してもよい。複数のトランスデューサ121が複数の受信手段に相当する。 The support 122 may be made of a metal material or the like having high mechanical strength. In order to allow a large amount of irradiation light to enter the subject, the surface of the support 122 on the subject 100 side may be mirror-finished or light-scattered. In the present embodiment, the support body 122 has a hemispherical shell shape, and is configured to support a plurality of transducers 121 on the hemispherical shell. In this case, the directional axes of the transducers 121 arranged on the support 122 gather near the center of curvature of the hemisphere. Then, when an image is formed using the signals output from the plurality of transducers 121, the image quality near the center of curvature becomes high. The support 122 may have any configuration as long as it can support the transducer 121. The support 122 may have a plurality of transducers arranged side by side in a plane or a curved surface such as 1D array, 1.5D array, 1.75D array, and 2D array. The plurality of transducers 121 correspond to a plurality of receiving means.

また、支持体122は音響マッチング材210を貯留する容器として機能してもよい。すなわち、支持体122をトランスデューサ121と被検体100との間に音響マッチング材210を配置するための容器としてもよい。 The support 122 may also function as a container that stores the acoustic matching material 210. That is, the support 122 may be a container for disposing the acoustic matching material 210 between the transducer 121 and the subject 100.

また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を増幅する増幅器を備えてもよい。また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を時系列のデジタル信号に変換するA/D変換器を備えてもよい。すなわち、受信部120が後述する信号収集部140を備えてもよい。 Further, the receiver 120 may include an amplifier that amplifies the time-series analog signal output from the transducer 121. Further, the receiving unit 120 may include an A/D converter that converts a time-series analog signal output from the transducer 121 into a time-series digital signal. That is, the receiving unit 120 may include the signal collecting unit 140 described below.

なお、超音波、音響波、光音響波を様々な角度で検出できるようにするために、理想的には被検体100を全周囲から囲むようにトランスデューサ121を配置してもよい。ただし、被検体100が大きく全周囲を囲むようにトランスデューサを配置できない場合は、半球状の支持体122上にトランスデューサを配置して全周囲を囲む状態に近づけてもよい。 In order to detect the ultrasonic wave, the acoustic wave, and the photoacoustic wave at various angles, ideally, the transducer 121 may be arranged so as to surround the subject 100 from the entire circumference. However, when the object 100 is large and the transducer cannot be arranged so as to enclose the entire circumference, the transducer may be arranged on the hemispherical support 122 so as to approximate the state of enclosing the entire circumference.

なお、トランスデューサの配置や数及び支持体の形状は被検体に応じて最適化すればよく、本発明に関してはあらゆる受信部120を採用することができる。 The arrangement and number of transducers and the shape of the support may be optimized according to the subject, and any receiving unit 120 can be adopted in the present invention.

受信部120と被検体100との間の空間は、超音波、音響波、光音響波が伝播することができる媒質で満たす。この媒質には、超音波、音響波、光音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ超音波、音響波、光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、超音波ジェルなどを採用することができる。 The space between the receiving unit 120 and the subject 100 is filled with a medium in which ultrasonic waves, acoustic waves, and photoacoustic waves can propagate. A material that can propagate ultrasonic waves, acoustic waves, and photoacoustic waves in this medium, has matching acoustic characteristics at the interface with the subject 100 and the transducer 121, and has a high transmittance of ultrasonic waves, acoustic waves, and photoacoustic waves as much as possible. To adopt. For example, water, ultrasonic gel, or the like can be adopted as this medium.

図6(a)は、プローブ180の側面図を示し、図6(b)は、プローブ180の上面図(図6(a)の紙面上方向から見た図)を示す。図6に示された本実施形態に係るプローブ180は、開口を有する半球状の支持体122に複数のトランスデューサ121が3次元に配置された受信部120を有する。また、図6に示されたプローブ180は、支持体122の底部に光学系112の光射出部が配置されている。 FIG. 6A shows a side view of the probe 180, and FIG. 6B shows a top view of the probe 180 (a view seen from above the paper surface of FIG. 6A). The probe 180 according to the present embodiment shown in FIG. 6 has a receiving unit 120 in which a plurality of transducers 121 are three-dimensionally arranged on a hemispherical support 122 having an opening. Further, in the probe 180 shown in FIG. 6, the light emitting portion of the optical system 112 is arranged at the bottom of the support 122.

本実施形態においては、図6に示すように被検体100は、保持部200に接触することにより、その形状が保持される。本実施形態では、被検体100が乳房の場合に、伏臥位の被検者を支持する寝台に乳房を挿入するための開口を設けて、開口から鉛直方向に垂らされた乳房を測定する形態を想定している。 In the present embodiment, as shown in FIG. 6, the subject 100 is held in its shape by contacting the holder 200. In the present embodiment, when the subject 100 is a breast, an opening for inserting the breast is provided in a bed supporting the subject in the prone position, and the breast hung in the vertical direction from the opening is measured. I'm assuming.

受信部120と保持部200の間の空間は、超音波、音響波、光音響波が伝播することができる媒質(音響マッチング材210)で満たされる。この媒質には、超音波、音響波、光音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ超音波、音響波、光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、ひまし油、超音波ジェルなどを採用することができる。 The space between the receiving unit 120 and the holding unit 200 is filled with a medium (acoustic matching material 210) in which ultrasonic waves, acoustic waves, and photoacoustic waves can propagate. A material that can propagate ultrasonic waves, acoustic waves, and photoacoustic waves in this medium, has matching acoustic characteristics at the interface with the subject 100 and the transducer 121, and has a high transmittance of ultrasonic waves, acoustic waves, and photoacoustic waves as much as possible. To adopt. For example, this medium can be water, castor oil, ultrasonic gel, or the like.

保持手段としての保持部200は被検体100の形状を測定中に保持するために使用される。保持部200により被検体100を保持することによって、被検体100の動きの抑制および被検体100の位置を保持部200内に留めることができる。保持部200の材料には、ポリカーボネートやポリエチレン、ポリエチレンテレフタレート等、樹脂材料を用いることができる。 The holding unit 200 as a holding unit is used to hold the shape of the subject 100 during measurement. By holding the subject 100 by the holding unit 200, it is possible to suppress the movement of the subject 100 and to keep the position of the subject 100 in the holding unit 200. A resin material such as polycarbonate, polyethylene, or polyethylene terephthalate can be used as the material of the holding portion 200.

保持部200は、被検体100を保持できる硬度を有する材料であることが好ましい。保持部200は、測定に用いる光を透過する材料であってもよい。保持部200は、インピーダンスが被検体100と同程度の材料で構成されていてもよい。乳房等の曲面を有するものを被検体100とする場合、凹型に成型した保持部200であってもよい。この場合、保持部200の凹部分に被検体100を挿入することができる。 The holder 200 is preferably made of a material having a hardness capable of holding the subject 100. The holder 200 may be made of a material that transmits light used for measurement. The holding unit 200 may be made of a material having an impedance similar to that of the subject 100. When the subject 100 having a curved surface such as a breast is used as the subject 100, the holding unit 200 molded in a concave shape may be used. In this case, the subject 100 can be inserted into the concave portion of the holding unit 200.

保持部200は、取り付け部201に取り付けられている。取り付け部201は、被検体の大きさに合わせて複数種類の保持部200を交換可能に構成されていてもよい。例えば、取り付け部201は、曲率半径や曲率中心などの異なる保持部に交換できるように構成されていてもよい。 The holding unit 200 is attached to the attaching unit 201. The attachment unit 201 may be configured to be capable of exchanging a plurality of types of holding units 200 according to the size of the subject. For example, the mounting portion 201 may be configured to be replaceable with a holding portion having a different radius of curvature or center of curvature.

また、保持部200には保持部200の情報が登録されたタグ202が設置されていてもよい。例えば、タグ202には、保持部200の曲率半径、曲率中心、音速、識別ID等の情報を登録することができる。タグ202に登録された情報は、読み取り部203により読み出され、コンピュータ150に転送される。保持部200が取り付け部201に取り付けられたときに容易にタグ202を読み取るために、読み取り部203は取り付け部201に設置されていてもよい。例えば、タグ202はバーコードであり、読み取り部203はバーコードリーダである。 Further, the holding unit 200 may be provided with a tag 202 in which the information of the holding unit 200 is registered. For example, information such as the radius of curvature of the holding unit 200, the center of curvature, the speed of sound, and the identification ID can be registered in the tag 202. The information registered in the tag 202 is read by the reading unit 203 and transferred to the computer 150. The reading unit 203 may be installed in the mounting unit 201 in order to easily read the tag 202 when the holding unit 200 is mounted in the mounting unit 201. For example, the tag 202 is a bar code and the reading unit 203 is a bar code reader.

(駆動部130)
駆動部130は、被検体100と受信部120との相対位置を変更する部分である。本実施形態では、駆動部130は、支持体122をXY方向に移動させる装置であり、ステッピングモーターを搭載した電動のXYステージある。駆動部130は、駆動力を発生させるステッピングモーターなどのモーターと、駆動力を伝達させる駆動機構と、受信部120の位置情報を検出する位置センサとを含む。駆動機構としては、リードスクリュー機構、リンク機構、ギア機構、油圧機構、などを用いることができる。また、位置センサとしては、エンコーダー、可変抵抗器、リニアスケール、磁気センサ、赤外線センサ、超音波センサなどを用いたポテンショメータなどを用いることができる。
(Drive unit 130)
The drive unit 130 is a unit that changes the relative position between the subject 100 and the receiving unit 120. In the present embodiment, the drive unit 130 is a device that moves the support 122 in the XY directions, and is an electric XY stage equipped with a stepping motor. The driving unit 130 includes a motor such as a stepping motor that generates a driving force, a driving mechanism that transmits the driving force, and a position sensor that detects positional information of the receiving unit 120. A lead screw mechanism, a link mechanism, a gear mechanism, a hydraulic mechanism, or the like can be used as the drive mechanism. Further, as the position sensor, a potentiometer using an encoder, a variable resistor, a linear scale, a magnetic sensor, an infrared sensor, an ultrasonic sensor, or the like can be used.

なお、駆動部130は被検体100と受信部120との相対位置をXY方向(二次元)に変更させるものに限らず、一次元または三次元に変更させてもよい。移動経路は平面的にスパイラル状やライン&スペースで走査してもよいし、さらに三次元的に体表に沿うように傾けてもよい。また、被検体100の表面からの距離を一定に保つようにしてプローブ180を移動させてもよい。このとき駆動部130は、モーターの回転数をモニターするなどしてプローブの移動量を計測してもよい。 The driving unit 130 is not limited to changing the relative position between the subject 100 and the receiving unit 120 in the XY directions (two-dimensional), but may change the relative position to one-dimensional or three-dimensional. The movement path may be planarly scanned in a spiral shape or line and space, or may be inclined three-dimensionally along the body surface. Further, the probe 180 may be moved so that the distance from the surface of the subject 100 is kept constant. At this time, the drive unit 130 may measure the movement amount of the probe by monitoring the rotation speed of the motor.

なお、駆動部130は、被検体100と受信部120との相対的な位置を変更できれば、受信部120を固定し、被検体100を移動させてもよい。被検体100を移動させる場合は、被検体100を保持する保持部を動かすことで被検体100を移動させる構成などが考えられる。また、被検体100と受信部120の両方を移動させてもよい。 The driving unit 130 may fix the receiving unit 120 and move the subject 100 as long as the relative positions of the subject 100 and the receiving unit 120 can be changed. When moving the subject 100, a configuration in which the subject 100 is moved by moving a holding unit that holds the subject 100 may be considered. Further, both the subject 100 and the receiving section 120 may be moved.

駆動部130は、相対位置を連続的に移動させてもよいし、ステップアンドリピートによって移動させてもよい。駆動部130は、プログラムされた軌跡で移動させる電動ステージであってもよいし、手動ステージであってもよい。すなわち、光音響装置は、駆動部130を有さずに、ユーザーがプローブ180を把持して操作するハンドヘルドタイプであってもよい。 The drive unit 130 may move the relative position continuously, or may move the relative position by step and repeat. The driving unit 130 may be an electric stage that moves along a programmed locus or a manual stage. That is, the photoacoustic apparatus may be a handheld type in which the user holds and operates the probe 180 without the drive unit 130.

また、本実施形態では、駆動部130は光照射部110と受信部120を同時に駆動して走査を行っているが、光照射部110だけを駆動したり、受信部120だけを駆動したりしてもよい。 Further, in the present embodiment, the driving unit 130 drives the light emitting unit 110 and the receiving unit 120 at the same time for scanning, but it may drive only the light emitting unit 110 or only the receiving unit 120. May be.

(信号収集部140)
信号収集部140は、トランスデューサ121から出力されたアナログ信号である電気信号を増幅するアンプと、アンプから出力されたアナログ信号をデジタル信号に変換するA/D変換器とを含む。信号収集部140は、FPGA(Field Programmable Gate Array)チップなどで構成されてもよい。信号収集部140から出力されるデジタル信号は、コンピュータ150内の記憶部152に記憶される。信号収集部140は、Data Acquisition System(DAS)とも呼ばれる。本明細書において電気信号は、アナログ信号もデジタル信号も含む概念である。なお、フォトダイオードなどの光検出センサが、光照射部110から光射出を検出し、信号収集部140がこの検出結果をトリガーに同期して上記処理を開始してもよい。また、信号収集部140は、フリーズボタンなどを用いてなされる指示をトリガーに同期して、当該処理を開始してもよい。
(Signal collection unit 140)
The signal collecting unit 140 includes an amplifier that amplifies an electric signal that is an analog signal output from the transducer 121, and an A/D converter that converts the analog signal output from the amplifier into a digital signal. The signal collection unit 140 may be configured by an FPGA (Field Programmable Gate Array) chip or the like. The digital signal output from the signal collection unit 140 is stored in the storage unit 152 in the computer 150. The signal collection unit 140 is also called a Data Acquisition System (DAS). In this specification, an electric signal is a concept including both an analog signal and a digital signal. A light detection sensor such as a photodiode may detect light emission from the light irradiation unit 110, and the signal collection unit 140 may start the above processing in synchronization with the detection result as a trigger. Further, the signal collection unit 140 may start the processing in synchronization with an instruction given using a freeze button or the like as a trigger.

(コンピュータ150)
表示制御装置としてのコンピュータ150は、演算部151、記憶部152、制御部153を含む。各構成の機能については処理フローの説明の際に説明する。
(Computer 150)
The computer 150 as a display control device includes a calculation unit 151, a storage unit 152, and a control unit 153. The function of each component will be described when the processing flow is described.

演算部151としての演算機能を担うユニットは、CPUやGPU(Graphics Processing Unit)等のプロセッサ、FPGA(Field Programmable Gate Array)チップ等の演算回路で構成されることができる。これらのユニットは、単一のプロセッサや演算回路から構成されるだけでなく、複数のプロセッサや演算回路から構成されていてもよい。演算部151は、入力部170から、被検体音速や保持部の構成などの各種パラメータを受けて、受信信号を処理してもよい。 A unit having an arithmetic function as the arithmetic unit 151 can be configured by a processor such as a CPU or a GPU (Graphics Processing Unit), or an arithmetic circuit such as an FPGA (Field Programmable Gate Array) chip. These units may be composed not only of a single processor and arithmetic circuit, but also of a plurality of processors and arithmetic circuits. The calculation unit 151 may receive various parameters such as the sound velocity of the subject and the configuration of the holding unit from the input unit 170 and process the received signal.

記憶部152は、ROM(Read only memory)、磁気ディスクやフラッシュメモリなどの非一時記憶媒体で構成することができる。また、記憶部152は、RAM(Random Access Memory)などの揮発性の媒体であってもよい。なお、プログラムが格納される記憶媒体は、非一時記憶媒体である。なお、記憶部152は、1つの記憶媒体から構成されるだけでなく、複数の記憶媒体から構成されていてもよい。 The storage unit 152 can be configured by a ROM (Read only memory), a non-temporary storage medium such as a magnetic disk or a flash memory. The storage unit 152 may be a volatile medium such as a RAM (Random Access Memory). The storage medium in which the program is stored is a non-temporary storage medium. The storage unit 152 is not limited to one storage medium, and may be a plurality of storage media.

記憶部152は、後述する方法で演算部151により生成される光音響画像を示す画像データを保存することができる。 The storage unit 152 can store image data indicating a photoacoustic image generated by the calculation unit 151 by a method described below.

制御部153は、CPUなどの演算素子で構成される。制御部153は、光音響装置の各構成の動作を制御する。制御部153は、入力部170からの測定開始などの各種操作による指示信号を受けて、光音響装置の各構成を制御してもよい。また、制御部153は、記憶部152に格納されたプログラムコードを読み出し、光音響装置の各構成の作動を制御する。例えば、制御部153が制御線を介して、光源111の発光タイミングを制御してもよい。また、光学系112がシャッターを含む場合、制御部153が制御線を介して、シャッターの開閉を制御してもよい。 The control unit 153 is composed of an arithmetic element such as a CPU. The control unit 153 controls the operation of each component of the photoacoustic apparatus. The control unit 153 may control each component of the photoacoustic apparatus by receiving an instruction signal from the input unit 170 for various operations such as the start of measurement. Further, the control unit 153 reads the program code stored in the storage unit 152 and controls the operation of each component of the photoacoustic apparatus. For example, the control unit 153 may control the light emission timing of the light source 111 via the control line. When the optical system 112 includes a shutter, the control unit 153 may control opening/closing of the shutter via a control line.

コンピュータ150は専用に設計されたワークステーションであってもよい。また、コンピュータ150の各構成は異なるハードウェアによって構成されてもよい。また、コンピュータ150の少なくとも一部の構成は単一のハードウェアで構成されてもよい。 Computer 150 may be a dedicated workstation designed. Further, each configuration of the computer 150 may be configured by different hardware. Further, at least a part of the configuration of the computer 150 may be configured by a single hardware.

図7は、本実施形態に係るコンピュータ150の具体的な構成例を示す。本実施形態に係るコンピュータ150は、CPU154、GPU155、RAM156、ROM157、外部記憶装置158から構成される。また、コンピュータ150には、表示部160としての液晶ディスプレイ161、入力部170としてのマウス171、キーボード172が接続されている。 FIG. 7 shows a specific configuration example of the computer 150 according to this embodiment. The computer 150 according to this embodiment includes a CPU 154, a GPU 155, a RAM 156, a ROM 157, and an external storage device 158. A liquid crystal display 161 as a display unit 160, a mouse 171 as an input unit 170, and a keyboard 172 are connected to the computer 150.

また、コンピュータ150および複数のトランスデューサ121は、共通の筺体に収められた構成で提供されてもよい。ただし、筺体に収められたコンピュータで一部の信号処理を行い、残りの信号処理を筺体の外部に設けられたコンピュータで行ってもよい。この場合、筺体の内部および外部に設けられたコンピュータを総称して、本実施形態に係るコンピュータとすることができる。すなわち、コンピュータを構成するハードウェアが一つの筺体に収められていなくてもよい。 Moreover, the computer 150 and the plurality of transducers 121 may be provided in a configuration housed in a common housing. However, a part of the signal processing may be performed by a computer housed in the housing, and the rest of the signal processing may be performed by a computer provided outside the housing. In this case, the computers provided inside and outside the housing can be collectively referred to as the computer according to the present embodiment. That is, the hardware that constitutes the computer does not have to be housed in one housing.

(表示部160)
表示部160は、液晶ディスプレイや有機EL(Electro Luminescence)FED、メガネ型ディスプレイ、ヘッドマウントディスプレイなどのディスプレイである。コンピュータ150により得られたボリュームデータに基づいた画像や注目位置の数値等を表示する装置である。表示部160は、ボリュームデータに基づいた画像や装置を操作するためのGUIを表示してもよい。なお、被検体情報の表示にあたっては、表示部160またはコンピュータ150において画像処理(輝度値の調整等)を行った上で表示することもできる。表示部160は、光音響装置とは別に提供されていてもよい。コンピュータ150は、光音響画像データを有線または無線で表示部160へ送信することができる。
(Display 160)
The display unit 160 is a display such as a liquid crystal display, an organic EL (Electro Luminescence) FED, a glasses-type display, or a head mounted display. This is a device for displaying an image based on volume data obtained by the computer 150, a numerical value of a position of interest, and the like. The display unit 160 may display an image based on the volume data or a GUI for operating the device. When displaying the subject information, the display unit 160 or the computer 150 may perform image processing (such as adjustment of the brightness value) and then display the subject information. The display unit 160 may be provided separately from the photoacoustic apparatus. The computer 150 can transmit the photoacoustic image data to the display unit 160 by wire or wirelessly.

(入力部170)
入力部170としては、ユーザーが操作可能な、マウスやキーボードなどで構成される操作コンソールを採用することができる。また、表示部160をタッチパネルで構成し、表示部160を入力部170として利用してもよい。
(Input unit 170)
As the input unit 170, an operation console that can be operated by a user and that is configured by a mouse, a keyboard, or the like can be adopted. Alternatively, the display unit 160 may be configured with a touch panel, and the display unit 160 may be used as the input unit 170.

入力部170は、観察したい位置や深さの情報などを入力できるように構成されていてもよい。入力方法としては、数値を入力してもよいし、スライダーバーを操作することにより入力ができてもよい。また、入力された情報に応じて表示部160に表示される画像が更新されていってもよい。これにより、ユーザーは自身の操作によって決定されたパラメータにより生成された画像を確認しながら、適切なパラメータに設定できる。 The input unit 170 may be configured to be able to input information such as a position and depth to be observed. As an input method, a numerical value may be input, or the input may be performed by operating the slider bar. Further, the image displayed on the display unit 160 may be updated according to the input information. Thereby, the user can set the appropriate parameters while checking the image generated by the parameters determined by his/her operation.

また、ユーザーが光音響装置の遠隔に設けられた入力部170を操作し、入力部170を用いて入力された情報を、ネットワークを介して光音響装置に送信してもよい。 In addition, the user may operate the input unit 170 provided at a remote location of the photoacoustic apparatus, and the information input using the input unit 170 may be transmitted to the photoacoustic apparatus via the network.

なお、光音響装置の各構成はそれぞれ別の装置として構成されてもよいし、一体となった1つの装置として構成されてもよい。また、光音響装置の少なくとも一部の構成が一体となった1つの装置として構成されてもよい。 The components of the photoacoustic apparatus may be configured as separate apparatuses or may be configured as one integrated apparatus. Further, at least a part of the configuration of the photoacoustic apparatus may be integrated into one apparatus.

また、光音響装置の各構成間で送受信される情報は、有線または無線でやりとりがなされる。 In addition, information transmitted and received between the respective components of the photoacoustic apparatus is exchanged by wire or wirelessly.

(被検体100)
被検体100は光音響装置を構成するものではないが、以下に説明する。本実施形態に係る光音響装置は、人や動物の悪性腫瘍や血管疾患などの診断や化学治療の経過観察などを目的として使用できる。よって、被検体100としては、生体、具体的には人体や動物の乳房や各臓器、血管網、頭部、頸部、腹部、手指および足指を含む四肢などの診断の対象部位が想定される。例えば、人体が測定対象であれば、オキシヘモグロビンあるいはデオキシヘモグロビンやそれらを含む多く含む血管や腫瘍の近傍に形成される新生血管などを光吸収体の対象としてもよい。また、頸動脈壁のプラークなどを光吸収体の対象としてもよい。また、皮膚等に含まれるメラニン、コラーゲン、脂質などを光吸収体の対象としてもよい。また、メチレンブルー(MB)、インドシニアングリーン(ICG)などの色素、金微粒子、またはそれらを集積あるいは化学的に修飾した外部から導入した物質を光吸収体としてもよい。また、生体を模したファントムを被検体100としてもよい。
(Subject 100)
The subject 100 does not constitute a photoacoustic apparatus, but will be described below. The photoacoustic apparatus according to the present embodiment can be used for the purpose of diagnosing malignant tumors and vascular diseases of humans and animals, and observing the progress of chemotherapy. Therefore, the subject 100 is assumed to be a living body, specifically, breasts of human bodies and animals, various organs, vascular network, head, neck, abdomen, limbs including fingers and toes, etc. It For example, if the human body is the measurement target, oxyhemoglobin or deoxyhemoglobin, blood vessels containing a large amount thereof, new blood vessels formed in the vicinity of a tumor, or the like may be used as the light absorber. Also, the plaque on the carotid artery wall may be the target of the light absorber. Further, melanin, collagen, lipids, etc. contained in the skin or the like may be the target of the light absorber. Further, a dye such as methylene blue (MB) or indocyanine green (ICG), fine gold particles, or an externally introduced substance obtained by integrating or chemically modifying them may be used as the light absorber. Further, a phantom imitating a living body may be used as the subject 100.

本明細書においては、上述した画像化の対象とする光吸収体のことを、ターゲットと呼ぶ。また、画像化の対象としない、すなわち観察の対象としない光吸収体についてはターゲットではない。例えば、乳房を被検体とし、血管をターゲットとしての光吸収体とする場合、乳房を構成する脂肪や乳腺などの組織はターゲットではない。本発明の実施形態の説明においては、典型的には血管をターゲットとする。しかし、ユーザーの関心によって、ターゲットは変わることがあり得、必ずしも血管など特定の生体組織に限定されるものではない。 In the present specification, the light absorber that is the object of imaging described above is called a target. Further, a light absorber that is not a target of imaging, that is, a target of observation is not a target. For example, when the breast is the subject and the blood vessel is the target light absorber, tissues such as fat and mammary glands that constitute the breast are not targets. In describing the embodiments of the present invention, blood vessels are typically targeted. However, the target may change depending on the interest of the user, and is not necessarily limited to a specific living tissue such as a blood vessel.

次に、本実施形態に係る光音響装置の制御フローを、図8を参照して説明する。なお、各工程は、コンピュータ150が光音響装置の構成の動作を制御することにより実行される。 Next, a control flow of the photoacoustic apparatus according to the present embodiment will be described with reference to FIG. Note that each step is executed by the computer 150 controlling the operation of the configuration of the photoacoustic apparatus.

(S100:制御パラメータを設定する工程)
ユーザーが、被検体情報の取得のために必要な光照射部110の照射条件(繰り返し周波数や波長など)やプローブ180の位置などの制御パラメータを、入力部170を用いて指定する。コンピュータ150は、ユーザーの指示に基づいて決定された制御パラメータを設定する。
(S100: Step of setting control parameters)
The user uses the input unit 170 to specify the control parameters such as the irradiation conditions (repetition frequency, wavelength, etc.) of the light irradiation unit 110 and the position of the probe 180, which are necessary for acquiring the object information. The computer 150 sets the control parameter determined based on a user's instruction.

(S200:プローブを指定位置に移動させる工程)
制御部153が、ステップS100で指定された制御パラメータに基づいて、駆動部130にプローブ180を指定の位置へ移動させる。ステップS100において複数位置での撮像が指定された場合には、駆動部130は、まずプローブ180を最初の指定位置へ移動させる。なお、駆動部130は、測定の開始指示がなされたときに、あらかじめプログラムされた位置にプローブ180を移動させてもよい。なお、ハンドヘルド型の場合、ユーザーがプローブ180を把持して所望の位置まで移動させてもよい。
(S200: Step of moving probe to designated position)
The control unit 153 causes the drive unit 130 to move the probe 180 to the designated position based on the control parameter designated in step S100. When imaging at a plurality of positions is designated in step S100, the drive unit 130 first moves the probe 180 to the first designated position. The driving unit 130 may move the probe 180 to a pre-programmed position when a measurement start instruction is given. In the case of the handheld type, the user may grasp the probe 180 and move it to a desired position.

(S300:光を照射する工程)
光照射部110は、S100で指定された制御パラメータに基づいて、被検体100に光を照射する。
(S300: Step of irradiating light)
The light irradiation unit 110 irradiates the subject 100 with light based on the control parameter designated in S100.

光源111から発生した光は、光学系112を介してパルス光として被検体100に照射される。そして、被検体100内部でパルス光が吸収され、光音響効果により光音響波が生じる。光照射部110はパルス光の伝送と併せて信号収集部140へ同期信号を送信する。 The light generated from the light source 111 is applied to the subject 100 as pulsed light via the optical system 112. Then, the pulsed light is absorbed inside the subject 100, and a photoacoustic wave is generated by the photoacoustic effect. The light irradiation unit 110 transmits a synchronization signal to the signal collection unit 140 along with the transmission of pulsed light.

(S400:光音響波を受信する工程)
信号収集部140は、光照射部110から送信された同期信号を受信すると、信号収集の動作を開始する。すなわち、信号収集部140は、受信部120から出力された、音響波に由来するアナログ電気信号を、増幅・AD変換することにより、増幅されたデジタル電気信号を生成し、コンピュータ150へ出力する。コンピュータ150は、信号収集部140から送信された信号を記憶部152に保存する。ステップS100で複数の走査位置での撮像を指定した場合には、指定した走査位置において、S200−S400のステップを繰り返し実行し、パルス光の照射と音響波に由来するデジタル信号の生成を繰り返す。なお、コンピュータ150は、発光をトリガーとして、発光時の受信部120の位置情報を駆動部130の位置センサからの出力に基づいて取得し、記憶してもよい。
(S400: Step of receiving photoacoustic wave)
When the signal collection unit 140 receives the synchronization signal transmitted from the light irradiation unit 110, the signal collection unit 140 starts the signal collection operation. That is, the signal collecting unit 140 generates an amplified digital electric signal by amplifying and AD converting the analog electric signal derived from the acoustic wave, which is output from the receiving unit 120, and outputs the amplified digital electric signal to the computer 150. The computer 150 stores the signal transmitted from the signal collecting unit 140 in the storage unit 152. When the imaging at a plurality of scanning positions is designated in step S100, the steps S200 to S400 are repeatedly executed at the designated scanning positions, and the irradiation of the pulsed light and the generation of the digital signal derived from the acoustic wave are repeated. Note that the computer 150 may use the light emission as a trigger to acquire and store the position information of the receiving unit 120 at the time of light emission based on the output from the position sensor of the driving unit 130.

(S500:光音響画像データを生成する工程)
画像データ生成手段としてのコンピュータ150の演算部151は、記憶部152に記憶された信号データに基づいて、光音響画像データを生成し、記憶部152に保存する。
(S500: Step of generating photoacoustic image data)
The calculation unit 151 of the computer 150 as the image data generation unit generates photoacoustic image data based on the signal data stored in the storage unit 152 and stores the photoacoustic image data in the storage unit 152.

信号データを空間分布としてのボリュームデータに変換する再構成アルゴリズムとしては、タイムドメインでの逆投影法やフーリエドメインでの逆投影法などの解析的な再構成法やモデルベース法(繰り返し演算法)を採用することができる。例えば、タイムドメインでの逆投影法として、Universal back−projection(UBP)、Filtered back−projection(FBP)、または整相加算(Delay−and−Sum)などが挙げられる。 As reconstruction algorithms for converting signal data into volume data as spatial distribution, analytical reconstruction methods such as back projection in the time domain and back projection in the Fourier domain, and model-based methods (iteration operation method) Can be adopted. Examples of the back projection method in the time domain include Universal back-projection (UBP), Filtered back-projection (FBP), and phased addition (Delay-and-Sum).

また、演算部151は、被検体100に照射された光の被検体100の内部での光フルエンス分布を計算し、初期音圧分布を光フルエンス分布で除算することにより、吸収係数分布情報を取得してもよい。この場合、吸収係数分布情報を光音響画像データとして取得してもよい。コンピュータ150は、光を吸収、散乱する媒質における光エネルギーの挙動を示す輸送方程式や拡散方程式を数値的に解く方法により、被検体100の内部における光フルエンスの空間分布を算出することができる。数値的に解く方法としては、有限要素法、差分法、モンテカルロ法等を採用することができる。例えば、コンピュータ150は、式(1)に示す光拡散方程式を解くことにより、被検体100の内部における光フルエンスの空間分布を算出してもよい。 In addition, the calculation unit 151 obtains absorption coefficient distribution information by calculating a light fluence distribution inside the subject 100 of the light emitted to the subject 100 and dividing the initial sound pressure distribution by the light fluence distribution. You may. In this case, the absorption coefficient distribution information may be acquired as photoacoustic image data. The computer 150 can calculate the spatial distribution of the light fluence inside the subject 100 by a method of numerically solving a transport equation and a diffusion equation that show the behavior of light energy in a medium that absorbs and scatters light. As a numerical method, a finite element method, a difference method, a Monte Carlo method, etc. can be adopted. For example, the computer 150 may calculate the spatial distribution of the light fluence inside the subject 100 by solving the light diffusion equation shown in Expression (1).

ここで、Dは拡散係数、μaは吸収係数、Sは照射光の入射強度、φは到達する光フルエンス、rは位置、tは時間を示す。 Here, D is the diffusion coefficient, μa is the absorption coefficient, S is the incident intensity of the irradiation light, φ is the reaching light fluence, r is the position, and t is the time.

また、複数の波長の光を用いて、S300、S400の工程を実行し、演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報を取得してもよい。そして、演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報に基づいて、分光情報として被検体100を構成する物質の濃度の空間分布情報を、光音響画像データとして取得してもよい。すなわち、演算部151は、複数の波長の光に対応する信号データを用いて、分光情報を取得してもよい。 In addition, the calculation unit 151 may acquire the absorption coefficient distribution information corresponding to each of the light of the plurality of wavelengths by performing the processes of S300 and S400 using the light of the plurality of wavelengths. Then, the calculation unit 151 acquires, as the photoacoustic image data, the spatial distribution information of the concentration of the substance forming the subject 100 as the spectral information, based on the absorption coefficient distribution information corresponding to the light of each of the plurality of wavelengths. May be. That is, the calculation unit 151 may acquire the spectral information by using the signal data corresponding to the light having a plurality of wavelengths.

次に、S500における本実施形態に係る情報処理方法を、図9に示すフローチャートを用いて説明する。 Next, the information processing method according to the present embodiment in S500 will be described using the flowchart shown in FIG.

(S510:受信信号に対して時間微分処理及び反転処理を行う工程)
信号処理手段としてのコンピュータ150は、記憶部152に記憶された受信信号に対して、時間微分処理及び信号レベルの正負を反転させる反転処理を含む信号処理を行う。これらの信号処理が行われた受信信号を投影信号とも呼ぶ。本工程では、記憶部152に記憶された各受信信号に対して、これらの信号処理を実行する。その結果、複数回の光照射及び複数のトランスデューサ121のそれぞれに対応する投影信号が生成される。
(S510: Step of performing time differentiation processing and inversion processing on the received signal)
The computer 150 as a signal processing unit performs signal processing on the received signal stored in the storage unit 152, including time differentiation processing and inversion processing for inverting the positive/negative of the signal level. The received signal subjected to these signal processings is also called a projection signal. In this step, these signal processes are performed on each reception signal stored in the storage unit 152. As a result, projection signals corresponding to each of the plurality of times of light irradiation and the plurality of transducers 121 are generated.

例えば、コンピュータ150は、式(2)に示すように、受信信号p(r,t)に対して時間微分処理及び反転処理(時間微分信号にマイナスを付与)を行い、投影信号b(r,t)を生成し、投影信号b(r,t)を記憶部152に記憶する。 For example, the computer 150 performs time differentiation processing and inversion processing (giving negative to the time differentiation signal) on the reception signal p(r,t) as shown in Expression (2), and the projection signal b(r, t) is generated, and the projection signal b(r,t) is stored in the storage unit 152.

ここで、rは受信位置、tは光照射からの経過時間、p(r,t)は受信位置rで経過時間tに受信された音響波の音圧を示す受信信号、b(r,t)は投影信号である。なお、時間微分処理及び反転処理に加えてその他の信号処理を行ってもよい。例えば、その他の信号処理は、周波数フィルタリング(ローパス、ハイパス、バンドパス等)、デコンボリューション、包絡線検波、ウェーブレットフィルタリングの少なくとも一つである。 Here, r is the reception position, t is the elapsed time from the light irradiation, p(r,t) is the reception signal indicating the sound pressure of the acoustic wave received at the reception position r at the elapsed time t, and b(r,t). ) Is the projection signal. Note that other signal processing may be performed in addition to the time differentiation processing and the inversion processing. For example, the other signal processing is at least one of frequency filtering (low pass, high pass, band pass, etc.), deconvolution, envelope detection, and wavelet filtering.

なお、本発明においては、後述する複数の第1画像データ間で画像値が変動する限り、時間微分処理または反転処理については実行しなくてもよい。この場合でも、本実施形態の効果は損なわれない。 In the present invention, the time differentiation process or the inversion process may not be executed as long as the image value varies among a plurality of first image data described below. Even in this case, the effect of this embodiment is not impaired.

(S520:複数の第1画像データを取得する工程)
画像データ取得手段としてのコンピュータ150は、S510で生成された複数回の光照射及び複数のトランスデューサ121のそれぞれに対応する受信信号(投影信号)に基づいて、複数回の光照射に対応する複数の光音響画像データを取得する。本工程で生成された複数の光音響画像データは、後述するステップS540での画像値の変動特性を示す特徴情報の生成に用いられる複数の第1画像データに相当する。
(S520: Step of acquiring a plurality of first image data)
The computer 150 as the image data acquisition means, based on the light irradiations generated in S510 and the reception signals (projection signals) corresponding to the plurality of transducers 121, respectively, performs a plurality of light irradiations. Acquire photoacoustic image data. The plurality of photoacoustic image data generated in this step correspond to the plurality of first image data used for generating the characteristic information indicating the variation characteristic of the image value in step S540 described later.

例えば、コンピュータ150は、式(3)に示すように、投影信号b(r,t)に基づいて、光照射毎の初期音圧pの空間分布を示す画像データを生成する。その結果、複数回の光照射のそれぞれに対応する画像データが生成され、複数の第1画像データを取得することができる。 For example, the computer 150 generates image data indicating the spatial distribution of the initial sound pressure p 0 for each light irradiation, based on the projection signal b(r i , t) as shown in Expression (3). As a result, image data corresponding to each of a plurality of light irradiations is generated, and a plurality of first image data can be acquired.

ここで、rは再構成する位置(再構成位置、注目位置とも呼ぶ)を示す位置ベクトル、p(r)は再構成する位置での初期音圧、cは伝搬経路の音速を示す。また、ΔΩは再構成する位置からi番目のトランスデューサ121を見込む立体角、Nは再構成に用いるトランスデューサ121の個数を示す。式(3)は、投影信号に立体角の加重をかけて整相加算すること(逆投影)を示している。 Here, r 0 is a position vector indicating a position to be reconstructed (also referred to as a reconstructed position or a position of interest), p 0 (r 0 ) is an initial sound pressure at the position to be reconstructed, and c is a sound velocity of the propagation path. .. Further, ΔΩ i is a solid angle that allows the i-th transducer 121 to be seen from the reconstruction position, and N is the number of transducers 121 used for reconstruction. Expression (3) indicates that the projection signal is weighted by the solid angle and the phasing addition is performed (back projection).

本工程において、コンピュータ150は、後述するステップS530で得られる第2画像データの画像化範囲(第2画像化範囲)よりも大きな画像化範囲(第1画像化範囲)を設定し、この画像化範囲の第1画像データを生成する。すなわち、コンピュータ150は、複数回の光照射の夫々に対応する、第1画像化範囲の第1画像データを生成する。このような画像化範囲を設定することにより、後述するステップ550において、画像値の変動特性を示す特徴情報を精度よく生成することができる。 In this step, the computer 150 sets an imaging range (first imaging range) larger than the imaging range (second imaging range) of the second image data obtained in step S530 to be described later, and this imaging is performed. First image data of the range is generated. That is, the computer 150 generates the first image data of the first imaging range corresponding to each of the multiple times of light irradiation. By setting such an imaging range, it is possible to accurately generate the characteristic information indicating the variation characteristic of the image value in step 550 described later.

なお、本実施形態では、前述したように解析的な再構成法やモデルベース再構成法により、画像データを生成することができる。特に、解析的な再構成法を採用する場合に、光照射毎の画像値のばらつきが比較的大きいため、本発明を好適に適用することができる。すなわち、解析的な再構成法においては、Limited Viewの条件で音響波を受信した場合、音源を正確に再現できないため、ターゲット以外の領域が負値で再構成される場合がある。 In this embodiment, the image data can be generated by the analytical reconstruction method or the model-based reconstruction method as described above. In particular, when the analytical reconstruction method is adopted, the variation of the image value for each light irradiation is relatively large, so that the present invention can be preferably applied. That is, in the analytical reconstruction method, when an acoustic wave is received under the conditions of the Limited View, the sound source cannot be accurately reproduced, and thus the region other than the target may be reconstructed with a negative value.

また、コンピュータ150が、PACS(Picture Archiving and Communication Systems)等の画像サーバーから第1画像化範囲の複数の第1画像データを読み出すことにより取得してもよい。 Alternatively, the computer 150 may acquire the plurality of first image data in the first imaging range from an image server such as a PACS (Picture Archiving and Communication Systems) or the like.

また、コンピュータ150が、第1画像化範囲よりも大きな画像化範囲の画像データから第1画像化範囲のデータを抽出することにより、第1画像化範囲の第1画像データを取得してもよい。 Further, the computer 150 may acquire the first image data of the first imaging range by extracting the data of the first imaging range from the image data of the imaging range larger than the first imaging range. ..

(S530:複数の第2画像データを取得する工程)
画像データ取得手段としてのコンピュータ150は、ステップS520の処理と同様に、複数回の光照射に対応する複数の光音響画像データを取得する。本工程で得られる光音響画像データは、第1画像データの第1画像化範囲よりも小さな画像化範囲(第2画像化範囲)に対応する画像データである。本工程で得られる複数の光音響画像データが、第2画像データに相当する。本工程で得られる複数の第2画像データが、後述するS540における合成処理の対象となる。
(S530: Step of acquiring a plurality of second image data)
The computer 150 as the image data acquisition unit acquires a plurality of photoacoustic image data corresponding to a plurality of light irradiations, as in the process of step S520. The photoacoustic image data obtained in this step is image data corresponding to an imaging range (second imaging range) smaller than the first imaging range of the first image data. The plurality of photoacoustic image data obtained in this step correspond to the second image data. The plurality of second image data obtained in this step are the targets of the combining process in S540 described below.

第2画像データの取得方法は、ステップS520における第1画像データの取得方法とは画像化範囲が異なるだけであるため、その説明を省略する。ただし、コンピュータ150が、ステップS520で得られた第1画像化範囲の第1画像データから、第2画像化範囲のデータを抽出することにより、第2画像化範囲の第2画像データを取得してもよい。 The method of acquiring the second image data is different from the method of acquiring the first image data in step S520 only in the imaging range, and thus the description thereof will be omitted. However, the computer 150 acquires the second image data of the second imaging range by extracting the data of the second imaging range from the first image data of the first imaging range obtained in step S520. May be.

(S540:複数の第2画像データを合成する工程)
合成画像データ生成手段としてのコンピュータ150は、ステップS530で得られた複数の第2画像データを合成することにより、合成画像データを生成する。
(S540: Step of combining a plurality of second image data)
The computer 150 as the combined image data generation unit generates combined image data by combining the plurality of second image data obtained in step S530.

図10を用いて、合成画像データを生成する様子を説明する。図10では、簡単のため、9回の光照射を行う場合を示す。図10は、1回目の光照射で得られる光音響画像データ(第2画像データ)1001を示す。1回の光照射で得られる光音響画像データの画像化範囲のサイズは、X方向にX1ボクセル、Y方向にY1ボクセル、Z方向にZAボクセルとする。また図10は、サイズがX方向にXAボクセル、Y方向にYAボクセル、Z方向にZAボクセルのメモリ空間に、1回目の光照射で得られる光音響画像データ1001を保存した場合の模式図を示す。さらに図10は、9回目の光照射で得られる光音響画像データ1009を示す。そして図10は、1回目から9回目の光照射で得られる光音響画像データ1001〜1009で示す。図10に示すように、コンピュータ150は、9回の光照射で得られる第2画像データ1001〜1009を合成することにより、メモリ空間における合成画像データを生成する。 How to generate the composite image data will be described with reference to FIG. For simplicity, FIG. 10 shows a case where light irradiation is performed 9 times. FIG. 10 shows photoacoustic image data (second image data) 1001 obtained by the first light irradiation. The size of the imaging range of the photoacoustic image data obtained by one light irradiation is X1 voxels in the X direction, Y1 voxels in the Y direction, and ZA voxels in the Z direction. Further, FIG. 10 is a schematic diagram in the case where the photoacoustic image data 1001 obtained by the first light irradiation is stored in the memory space of the size of XA voxels in the X direction, YA voxels in the Y direction, and ZA voxels in the Z direction. Show. Further, FIG. 10 shows photoacoustic image data 1009 obtained by the ninth light irradiation. FIG. 10 shows photoacoustic image data 1001 to 1009 obtained by the first to ninth light irradiations. As illustrated in FIG. 10, the computer 150 generates the combined image data in the memory space by combining the second image data 1001 to 1009 obtained by the light irradiation nine times.

メモリ空間における光音響画像データ1001〜1009の位置は、光照射時の受信部120の位置に応じて決定される。また、図10からも明らかなように、光音響画像データ(第2画像データ)と合成画像データのサイズは異なっており、合成画像データのサイズの方が第2画像データのサイズよりも大きい。 The positions of the photoacoustic image data 1001 to 1009 in the memory space are determined according to the position of the receiving unit 120 during light irradiation. Further, as is clear from FIG. 10, the sizes of the photoacoustic image data (second image data) and the composite image data are different, and the size of the composite image data is larger than the size of the second image data.

このように、9回の光照射で得られた9つの光音響画像データ1001〜1009は、合成画像データ保存用のメモリ空間に対し、受信部120の撮像位置に応じた位置に配置され、合成画像データの合成が行われる。 As described above, the nine photoacoustic image data 1001 to 1009 obtained by the nine times of light irradiation are arranged in the memory space for storing the combined image data at a position corresponding to the imaging position of the receiving unit 120, and are combined. Image data is synthesized.

異なる光音響画像データを合成画像データ保存用のメモリ空間に配置した場合に、位置が重なりあう画像データについては、画像値を累積加算してもよい。また、画像値の累積加算値を重なりの回数で除算し、加算平均値にしてもよい。なお、合成画像の視認性が良好になる限り、重なりあいが発生する画像データに対する処理方法は特定のものに限定されない。 When different photoacoustic image data are arranged in the memory space for storing the combined image data, the image values of the image data whose positions overlap may be cumulatively added. Alternatively, the cumulative addition value of the image values may be divided by the number of overlaps to obtain the addition average value. Note that the processing method for image data in which overlap occurs is not limited to a particular one as long as the visibility of the combined image is good.

なお、以降の説明において、画素と表記した場合は、2次元画像のピクセル、3次元画像のボクセルなどの形式を特に限定するものではない。いかなる用途で用いられるいかなる形態の画像要素も、「画素」に含まれる。 In the following description, when the term “pixel” is used, the form of a pixel of a two-dimensional image, a voxel of a three-dimensional image, or the like is not particularly limited. A "pixel" includes any form of image element used for any purpose.

(S550:第1画像データの画像値列とテンプレートデータの画像値列との相関を示す相関情報を取得する工程)
相関情報取得手段としてのコンピュータ150は、S520で得られた第1画像データの画像値列と、複数回の光照射に対応するテンプレートデータの画像値列との相関を示す相関情報を取得する。本実施形態において、コンピュータ150は、注目位置における第1画像データの画像値の変動特性と、注目位置におけるテンプレートデータの変動特性との相関値を算出する。
(S550: Step of Acquiring Correlation Information Showing Correlation between Image Value Sequence of First Image Data and Image Value Sequence of Template Data)
The computer 150 as the correlation information acquisition unit acquires the correlation information indicating the correlation between the image value sequence of the first image data obtained in S520 and the image value sequence of the template data corresponding to a plurality of light irradiations. In the present embodiment, the computer 150 calculates the correlation value between the variation characteristic of the image value of the first image data at the attention position and the variation characteristic of the template data at the attention position.

本実施形態においては、複数の第1画像データを参照した場合に観察される、ある注目位置の画素の画像値の変動特性(以下、第1変動特性または画像値列と呼ぶ)から、ターゲットとアーチファクトの判別を行う。判別に際しては、複数回の光照射のそれぞれにおいて、ある注目位置に光吸収体が存在するときに生成されうる画像データの画像値の変動特性(以下、第2変動特性またはテンプレートデータ列と呼ぶ)も用いる。 In the present embodiment, from the variation characteristic of the image value of the pixel at a certain attention position (hereinafter, referred to as the first variation characteristic or image value sequence), which is observed when referring to the plurality of first image data, Discriminate artifacts. At the time of determination, the variation characteristic of the image value of the image data that can be generated when the light absorber is present at a certain attention position in each of the plurality of light irradiations (hereinafter, referred to as the second variation characteristic or the template data string). Also used.

テンプレートデータは、複数回の光照射及び光音響波の受信を実行する光音響装置の空間感度分布を反映したデータである。テンプレートデータは、複数回の光照射のそれぞれにおいて、各位置に光吸収体が存在するときに生成されうる画像データを示すデータであるともいえる。すなわち、テンプレートデータは、各位置に光吸収体が存在したときの画像値の推定値を示す空間分布であるともいえる。さらに、テンプレートデータは、光音響装置に対応する空間感度分布に加えて、被検体100の特性も反映したテンプレートデータであってもよい。本実施形態においては、光音響画像データを生成する空間(以下、画像データ生成空間と呼ぶ)に対応する空間感度分布を「感度情報」と呼ぶ。 The template data is data that reflects the spatial sensitivity distribution of the photoacoustic apparatus that executes light irradiation and reception of photoacoustic waves a plurality of times. It can be said that the template data is data indicating image data that can be generated when the light absorber exists at each position in each of the plurality of times of light irradiation. That is, it can be said that the template data is a spatial distribution indicating the estimated value of the image value when the light absorber is present at each position. Further, the template data may be template data that reflects the characteristics of the subject 100 in addition to the spatial sensitivity distribution corresponding to the photoacoustic apparatus. In the present embodiment, the spatial sensitivity distribution corresponding to the space in which photoacoustic image data is generated (hereinafter referred to as image data generation space) is called “sensitivity information”.

ここでは、コンピュータ150が、支持体122上に配置された複数のトランスデューサ121が形成する感度分布を、記憶部152としてのRAMもしくはROMから読み出す。この感度分布は部分ボリュームに対応した領域の中に吸収体が存在した場合に、吸収体と複数のトランスデューサ121との相対位置関係と、その位置の吸収体を画像化した時の部分ボリュームの画像値との関係性をデータにしたものである。半球殻状の配置の場合は典型的には球殻の中心に近いほど感度分布が高くなる傾向のテンプレートデータとなる。すなわち、本実施形態において、テンプレートデータは、吸収体(再構成対象であるボクセル)と複数のトランスデューサ121との相対位置関係に基づいて、音響波に対するトランスデューサ121の感度を反映した空間分布データを採用している。 Here, the computer 150 reads the sensitivity distribution formed by the plurality of transducers 121 arranged on the support 122 from the RAM or ROM as the storage unit 152. This sensitivity distribution shows the relative positional relationship between the absorber and the plurality of transducers 121 when the absorber is present in the region corresponding to the partial volume, and the partial volume image when the absorber at that position is imaged. It is the data of the relationship with the value. In the case of a hemispherical shell-shaped arrangement, typically, the sensitivity data tends to be higher as it is closer to the center of the spherical shell. That is, in the present embodiment, the template data adopts the spatial distribution data that reflects the sensitivity of the transducer 121 to the acoustic wave based on the relative positional relationship between the absorber (the voxel to be reconstructed) and the plurality of transducers 121. doing.

テンプレートデータ取得手段としてのコンピュータ150は、各光照射における受信部120と注目位置との相対位置情報に基づいて、所定のテンプレートデータに座標を割り当てることにより、各光照射に対応するテンプレートデータを取得してもよい。例えば、コンピュータ150は、光音響装置の空間感度分布を、光照射時の受信部120の位置に連動させて座標を定義することにより、各光照射に対応するテンプレートデータを生成することができる。 The computer 150 as the template data acquisition unit acquires the template data corresponding to each light irradiation by assigning coordinates to predetermined template data based on the relative position information between the receiving unit 120 and the position of interest in each light irradiation. You may. For example, the computer 150 can generate template data corresponding to each light irradiation by interlocking the spatial sensitivity distribution of the photoacoustic apparatus with the position of the receiving unit 120 at the time of light irradiation to define the coordinates.

また、コンピュータ150は、複数回の光照射について、受信部120と注目位置との相対位置情報を取得してもよい。続いて、コンピュータ150は、相対位置情報に対応するテンプレートデータを記憶部152から読み出すことにより、複数回の光照射に対応するテンプレートデータを取得してもよい。この場合、記憶部152には、複数の相対位置情報に対応する複数のテンプレートデータが格納されていてもよい。なお、記憶部152に、取得した相対位置情報に対応するテンプレートデータが格納されていない場合、取得した相対位置情報の近傍の相対位置情報に対応するテンプレートデータを用いて補間により、新たなテンプレートデータを生成してもよい。 The computer 150 may also acquire relative position information between the receiving unit 120 and the position of interest for a plurality of times of light irradiation. Subsequently, the computer 150 may read the template data corresponding to the relative position information from the storage unit 152 to acquire the template data corresponding to the plurality of times of light irradiation. In this case, the storage unit 152 may store a plurality of template data corresponding to a plurality of relative position information. If the storage unit 152 does not store the template data corresponding to the acquired relative position information, the template data corresponding to the relative position information near the acquired relative position information is used to interpolate new template data. May be generated.

ここではテンプレートデータを読み出す手法を述べたが、コンピュータ150が撮像の度に装置内でテンプレートデータを算出してもよく、その場合であっても本発明の効果を得ることができる。なお、テンプレートデータの算出に際しては、注目位置と複数のトランスデューサ121との相対位置の情報に加え、光音響波の伝播経路における音速や音響波の減衰特性などの情報を考慮してもよい。また、テンプレートデータは、照射光の光強度分布を考慮したテンプレートデータであってもよい。また、被検体内での光伝播による拡散や減衰を考慮したテンプレートデータでもよい。すなわち、各光照射における画像データに与えるあらゆる影響を考慮したテンプレートデータを採用することができる。光照射毎に異なるテンプレートデータを用いてもよいし、光照射間で共通のテンプレートデータを用いてもよい。 Although the method of reading the template data has been described here, the template data may be calculated in the apparatus every time the computer 150 takes an image, and even in that case, the effect of the present invention can be obtained. When calculating the template data, in addition to the information on the relative position between the target position and the plurality of transducers 121, information such as the speed of sound in the propagation path of the photoacoustic wave and the attenuation characteristic of the acoustic wave may be considered. Further, the template data may be template data that takes into consideration the light intensity distribution of the irradiation light. Further, it may be template data in consideration of diffusion and attenuation due to light propagation in the subject. That is, it is possible to employ template data that takes into account all the effects on the image data in each light irradiation. Different template data may be used for each light irradiation, or common template data may be used between light irradiations.

テンプレートデータを求める際は、画像データ生成空間すべてに一様な光量が照射される前提で計算を行ってもよいし、光の照射プロファイルに依存した光量の空間的な分布を考慮して計算を行ってもよい。また、被検体の影響による光量の減衰を考慮に入れて計算を行ってもよい。 When obtaining the template data, the calculation may be performed on the assumption that a uniform light amount is applied to the entire image data generation space, or the calculation is performed in consideration of the spatial distribution of the light amount depending on the light irradiation profile. You can go. Further, the calculation may be performed in consideration of the attenuation of the light amount due to the influence of the subject.

また、注目位置におけるテンプレートデータと実際に光照射を行って得られた光音響画像データにおける注目位置の画像値が近づくようにテンプレートデータの計算を行ってもよい。 Further, the template data may be calculated such that the template data at the target position and the image value at the target position in the photoacoustic image data obtained by actually performing light irradiation are close to each other.

画像データ生成空間に存在する2つ以上の画素をグループ化して、同じグループに存在する画素に対しては、同じテンプレートデータの画像値を割りあててもよい。 Two or more pixels existing in the image data generation space may be grouped, and the image values of the same template data may be assigned to the pixels existing in the same group.

また、コンピュータ150は、観察対象のサイズ、例えば血管径などに応じて、テンプレートデータを変更してもよい。すなわち、コンピュータ150は、受信周波数帯域や処理に用いる周波数帯域に応じてテンプレートデータを変更してもよい。具体的には受信する光音響信号の周波数に応じて受信素子の指向性が変化する影響をテンプレートデータに反映してもよい。また、コンピュータ150は、ターゲットの形状やターゲットの光学特性に応じてテンプレートデータを変更してもよい。例えば、ユーザーがターゲットに関する情報(ターゲットのサイズ、形状等)を指示する場合を考える。この場合、コンピュータ150は、ターゲットに関する情報とテンプレートデータとの関係を示す情報(関係テーブルや関係式)にしたがって、指示されたターゲットに関する情報に対応するテンプレートデータを取得してもよい。 Further, the computer 150 may change the template data according to the size of the observation target, for example, the blood vessel diameter. That is, the computer 150 may change the template data according to the reception frequency band or the frequency band used for processing. Specifically, the influence that the directivity of the receiving element changes according to the frequency of the received photoacoustic signal may be reflected in the template data. Further, the computer 150 may change the template data according to the shape of the target and the optical characteristics of the target. For example, consider a case where the user specifies information about the target (target size, shape, etc.). In this case, the computer 150 may acquire the template data corresponding to the instructed target information according to the information (relation table or relational expression) indicating the relationship between the target information and the template data.

複数回の測定において、空間感度分布が変化するような場合に本発明を好適に適用することができる。例えば、光音響装置においては、複数回の光照射間で、光照射位置の変化、光音響波の受信位置の変化などが生じることによって空間感度分布が変化する場合に本発明を適用することができる。 The present invention can be preferably applied to a case where the spatial sensitivity distribution changes in a plurality of measurements. For example, in the photoacoustic apparatus, the present invention may be applied to a case where the spatial sensitivity distribution changes due to a change in the light irradiation position, a change in the photoacoustic wave receiving position, or the like between a plurality of times of light irradiation. it can.

例えば、図3(a)は、ある画素位置に例えば血管のような光吸収体が存在する場合の第1画像データの画像値列を示す第1変動特性である。また、図3(b)は、ある注目位置に実際に光吸収体が存在しない場合、つまりアーチファクトに該当する位置における画像値列を示す第1変動特性である。一方で、図3(c)は、ある画素位置に光吸収体が存在したときの画像値の推定値列(テンプレートデータの画像値列)を示す第2変動特性である。第1画像データの画像値とテンプレートデータの画像値とは共通の光照射の番号に対応づいている。すなわち、第1画像データの画像値列及びテンプレートデータの画像値列は、共通の光照射の番号を介して対応づいているといえる。 For example, FIG. 3A is a first variation characteristic showing an image value sequence of the first image data when a light absorber such as a blood vessel exists at a certain pixel position. Further, FIG. 3B is a first variation characteristic showing an image value sequence at a position where a light absorber does not actually exist at a certain target position, that is, at a position corresponding to an artifact. On the other hand, FIG. 3C is a second variation characteristic showing an estimated value sequence of image values (image value sequence of template data) when a light absorber is present at a certain pixel position. The image value of the first image data and the image value of the template data correspond to a common light irradiation number. That is, it can be said that the image value sequence of the first image data and the image value sequence of the template data are associated with each other through the common light irradiation number.

この場合、コンピュータ150は、図3(a)または図3(b)に示した第1変動特性と、図3(c)に示した第2変動特性との相関を計算する。そして相関の度合いによって、図3(a)または図3(b)に対応する画素の存在位置に、ターゲットとアーチファクトのいずれが存在するかを判別することができる。すなわち、第1変動特性と第2変動特性との相関は、ターゲットの存在可能性を示す存在情報に相当する。 In this case, the computer 150 calculates the correlation between the first variation characteristic shown in FIG. 3A or 3B and the second variation characteristic shown in FIG. 3C. Then, depending on the degree of correlation, it is possible to determine whether the target or the artifact exists at the position where the pixel corresponding to FIG. 3A or FIG. 3B exists. That is, the correlation between the first variation characteristic and the second variation characteristic corresponds to the presence information indicating the possibility of existence of the target.

相関の算出方法として、式(4)に示した内積より求まる相関値を用いることができる。 As a method of calculating the correlation, the correlation value obtained from the inner product shown in Expression (4) can be used.

fは第1変動特性のベクトルであり、f=(f,f,f,……f)で表すことができる。gは、第2変動特性のベクトルであり、g=(g,g,g,……g)で表すことができる。ベクトルの要素数は各変動特性パターンのデータサンプル数(例えば、nサンプルとする)、すなわち光照射回数に相当する。f*gは、ベクトルfとベクトルgの内積演算を示し、|f|と|g|は、ベクトルfとgのL2ノルムを示す。|f|=√(f +f +……+f )、|g|=√(g +g +……+g )と表すことができる。 f is a vector of the first variation characteristic and can be expressed by f=(f 1 , f 1 , f 2 ,..., F n ). g is a vector of the second variation characteristic and can be expressed by g=(g 1 , g 2 , g 3 ,... G n ). The number of elements of the vector corresponds to the number of data samples (for example, n samples) of each variation characteristic pattern, that is, the number of times of light irradiation. f*g represents an inner product calculation of the vector f and the vector g, and |f| and |g| represent the L2 norm of the vectors f and g. It can be expressed as |f|=√(f 1 2 +f 2 2 +...+f n 2 ) and |g|=√(g 1 2 +g 2 2 +...+g n 2 ).

第1画像データの画像値列は、第1変動特性のベクトルfに相当する。また、テンプレートデータの画像値列は、第2変動特性のベクトルgに相当する。 The image value sequence of the first image data corresponds to the vector f of the first variation characteristic. The image value sequence of the template data corresponds to the vector g of the second variation characteristic.

本実施形態においては、内積演算を1回の光照射ごとに対応する内積演算に分割し、式(4)の処理を実行する。こうすることで、簡易に内積演算を実施することができる。以下、具体的に説明を行う。 In the present embodiment, the inner product calculation is divided into corresponding inner product calculations for each light irradiation, and the processing of Expression (4) is executed. By doing so, it is possible to easily perform the inner product calculation. Hereinafter, a specific description will be given.

本実施形態においては、1回の光照射で得られた光音響画像データのある画素位置の画像値と、感度情報における同じ画素位置のテンプレートデータとを乗算する。この処理により、第1変動特性と第2変動特性の内積処理が1回の光照射で得られた光音響画像データごとに分割して実施されることとなる。 In the present embodiment, the image value at a certain pixel position in the photoacoustic image data obtained by one light irradiation is multiplied by the template data at the same pixel position in the sensitivity information. By this process, the inner product process of the first variation characteristic and the second variation characteristic is divided and carried out for each photoacoustic image data obtained by one light irradiation.

ここで、本実施形態における相関値の算出処理について図11〜図13を用いて説明する。図11は、式(4)のf*gを算出する処理過程を示す。図12は、式(4)の|f|を算出する処理過程を示す。図13は、式(4)の|g|を算出する処理過程を示す。 Here, the calculation processing of the correlation value in the present embodiment will be described with reference to FIGS. 11 to 13. FIG. 11 shows a process of calculating f*g in the equation (4). FIG. 12 shows a process of calculating |f| in equation (4). FIG. 13 shows a process of calculating |g| in equation (4).

図11に示すように、まず1回目の光照射に対応する光音響画像データ(第1画像データ)2001と、光音響装置の感度情報2010を、同じ位置で対応する画像値を乗算したデータ(以下、乗算画像データと呼ぶ)2101を生成する。「.*」は、同じ位置に対応する光音響画像データの画像値と感度情報2010のテンプレートデータの画像値どうしを乗算することを意味する。これは、注目位置の画素において、式(4)に示す第1変動特性ベクトルfの一番目の要素fと、第2変動特性ベクトルgの一番目の要素gを乗算し、f×gを得たのと等価である。これは、第1変動特性ベクトルfと第2変動特性ベクトルgの内積演算を1回目の光照射で得られた光音響画像データに対応する部分を分割して実施したことに相当する。こうして得られた、乗算画像データ2101は、撮像位置に応じてメモリ空間に配置される。 As shown in FIG. 11, first, photoacoustic image data (first image data) 2001 corresponding to the first light irradiation and sensitivity information 2010 of the photoacoustic apparatus are multiplied by corresponding image values at the same position ( Hereafter, referred to as multiplication image data) 2101 is generated. “.*” means to multiply the image value of the photoacoustic image data corresponding to the same position by the image value of the template data of the sensitivity information 2010. This is because in the pixel at the position of interest, the first element f 1 of the first variation characteristic vector f shown in equation (4) is multiplied by the first element g 1 of the second variation characteristic vector g to obtain f 1 × It is equivalent to obtaining g 1 . This corresponds to performing the inner product calculation of the first variation characteristic vector f and the second variation characteristic vector g by dividing the portion corresponding to the photoacoustic image data obtained by the first light irradiation. The multiplication image data 2101 thus obtained is arranged in the memory space according to the image pickup position.

図11では、9回目の光照射に対応する光音響画像データ2009についても同様に感度情報と乗算し、乗算画像データ2109を生成する。そして、9回分の光照射で得られた光音響画像データから乗算画像データ2101〜2109を生成し、乗算画像データを撮像位置の情報に基づいてメモリ空間に配置し、合成乗算画像データを生成する。 In FIG. 11, photoacoustic image data 2009 corresponding to the ninth light irradiation is similarly multiplied by the sensitivity information to generate multiplied image data 2109. Then, the multiplication image data 2101 to 2109 is generated from the photoacoustic image data obtained by the light irradiation of 9 times, the multiplication image data is arranged in the memory space based on the information of the imaging position, and the synthetic multiplication image data is generated. ..

このとき、相関値の算出に用いる画像データ2001〜2009、感度情報2010の画像サイズは、X方向にX2ボクセル、Y方向にY2ボクセル、Z方向にZAボクセルである。一方で、図10に示した合成画像データを生成するために用いた画像データ1001〜1009の画像サイズはX方向にX1ボクセル、Y方向にY1ボクセル、Z方向にZAボクセルである。このとき、第1画像データの画像化範囲は第2画像データの画像化範囲よりも大きいことから、X1>X2、Y1>Y2とすることが好ましい。また、Z方向についても第1画像データの画像化範囲を第2画像データの画像化範囲よりも大きくしてもよい。このように画像化範囲を設定することにより、合成画像データの画質の向上と、相関値の算出精度の向上とを両立させることができる。 At this time, the image sizes of the image data 2001 to 2009 and the sensitivity information 2010 used for calculating the correlation value are X2 voxels in the X direction, Y2 voxels in the Y direction, and ZA voxels in the Z direction. On the other hand, the image sizes of the image data 1001 to 1009 used to generate the composite image data shown in FIG. 10 are X1 voxels in the X direction, Y1 voxels in the Y direction, and ZA voxels in the Z direction. At this time, since the imaging range of the first image data is larger than the imaging range of the second image data, it is preferable to set X1>X2 and Y1>Y2. Further, also in the Z direction, the imaging range of the first image data may be larger than the imaging range of the second image data. By setting the imaging range in this way, it is possible to improve the image quality of the combined image data and the accuracy of calculating the correlation value at the same time.

本実施形態においては、合成画像データのコントラスト等の画質が最適となるX1とY1の値、相関値の算出に最適なX2とY2の値を用いて処理を行う。X1とX2、Y1とY2は異なる値を取り得るものである。ここで「相関値の算出に最適な」とは、血管が存在する部分と、血管が存在しない部分の相関値の差が可能な限り大きくなる状態を指す。 In the present embodiment, the processing is performed using the values of X1 and Y1 at which the image quality such as the contrast of the combined image data is optimal, and the values of X2 and Y2 at which the correlation value is optimally calculated. X1 and X2 and Y1 and Y2 can take different values. Here, "optimal for calculating a correlation value" refers to a state in which the difference between the correlation values of a portion where blood vessels are present and a portion where blood vessels are not present is as large as possible.

図11に示す処理においては、異なる撮像位置においても、光音響画像データが重なって生成される画素については、乗算画素データが累積加算される。例えば、ある画素jにおいて9回の重なりが生じる場合、乗算画素データは式(5)のように累積加算で表現される。
(j,1)*g(j,1)+f(j,2)*g(j,2)+f(j,3)*g(j,3)+…+f(j,9)*g(j,9)・・・式(5)
In the process shown in FIG. 11, the multiplication pixel data is cumulatively added to the pixels generated by overlapping the photoacoustic image data even at different imaging positions. For example, when an overlap occurs 9 times at a certain pixel j, the multiplied pixel data is represented by cumulative addition as in Expression (5).
f (j,1) *g (j,1) +f (j,2) *g (j,2) +f (j,3) *g (j,3) +... +f (j,9) *g ( j, 9) ... Formula (5)

ここで、f(j,1)〜f(j,9)は、ある画素jにおける光照射1回目から9回目の第1画像データの画像値を示す。そして、g(j,1)〜g(j,9)は、ある画素jにおける、光照射1回目から9回目での感度情報(テンプレートデータ)を示す。図11では、メモリ空間は50[voxel]×40[voxel]×10[voxel]=20000[voxel]から構成されるため、j=1〜20000の値をとる。 Here, f (j,1) to f (j,9) represent image values of the first image data of the first to ninth light irradiations in a certain pixel j. Then, g (j,1) to g (j, 9) indicate sensitivity information (template data) from a first light irradiation to a ninth light irradiation in a certain pixel j. In FIG. 11, the memory space is composed of 50 [voxel]×40 [voxel]×10 [voxel]=20000 [voxel], and therefore takes a value of j=1 to 20000.

すなわち、ある画素jの光照射1回目から9回目の第1画像データの画像値変動パターンは、ベクトルf={f(j,1),f(j,2),f(j,3),…,f(j,9)}で表され、これは第1変動特性のベクトル表現となる。また、画素jにおけるテンプレートデータの画像値変動パターンは、ベクトルg={g(j,1),g(j,2),g(j,3),…,g(j,9)}で表され、これは第2変動特性のベクトル表現となる。このとき、式(5)はベクトルfとベクトルgの内積演算そのものである。 That is, the image value variation pattern of the first image data from the first to the ninth light irradiation of a certain pixel j has vectors f j ={f (j,1) , f (j,2) , f (j,3) ,..., F (j, 9) }, which is a vector representation of the first variation characteristic. Further, the image value variation pattern of the template data at the pixel j is expressed by the vector g j ={g (j,1) , g (j,2) , g (j,3) ,..., G (j,9) }. Which is a vector representation of the second variation characteristic. At this time, the equation (5) is the inner product operation itself of the vector f j and the vector g j .

複数の光照射において、それぞれ撮像位置が異なると、同じ画素であっても、受信部120の異なる位置で撮像されることとなるため、乗算されるテンプレート画像値の値が異なり得る。 In a plurality of light irradiations, if the image pickup positions are different, even the same pixel will be imaged at different positions of the receiving unit 120, so the values of the template image values to be multiplied may be different.

図11に示す処理を行うことで、対象とするすべての画素において、第1画像データの画像値とテンプレートデータの画像値の内積値、すなわち第1変動特性と第2変動特性の内積値を演算することができる(処理1)。 By performing the processing shown in FIG. 11, the inner product value of the image values of the first image data and the image value of the template data, that is, the inner product value of the first variation characteristic and the second variation characteristic is calculated for all the target pixels. It is possible (Process 1).

同様に、図12、図13に示すように、注目位置における第1画像データの画像値の二乗値、注目位置におけるテンプレートデータの画像値の二乗値を計算し、撮像位置に応じて累積加算した値を得る。その後、累積加算値の平方根をとると、対象とする全ての画素j(j=1〜20000)に対応する第1変動特性のL2ノルムと、第2変動特性のL2ノルムを算出することができる。 Similarly, as shown in FIGS. 12 and 13, the square value of the image value of the first image data at the target position and the square value of the image value of the template data at the target position are calculated, and cumulatively added according to the imaging position. Get the value. After that, by taking the square root of the cumulative addition value, the L2 norm of the first variation characteristic and the L2 norm of the second variation characteristic corresponding to all the target pixels j (j=1 to 20000) can be calculated. ..

図12を用いて、第1変動特性のL2ノルム算出過程を説明する。コンピュータ150は、ある画素jにおいて、1回目の光照射に対応する光音響画像データ(第1画像データ)2001の画像値f(j,1)を二乗し、1回目の光照射に対応する二乗された第1画像データ1101を生成する。そして、コンピュータ150は、第1変動特性のL2ノルムデータ保存用のメモリ空間にf(j,1) を保存する。次に、2回目の光照射に対応する光音響画像データの画像値f(j,2)を二乗し、第1変動特性のL2ノルムデータ保存用のメモリ空間に累積加算した値{f(j,1) +f(j,2) }を保存する。同様の処理を9回目の光音響画像データ2009を得るまで繰り返し、メモリ空間に{f(j,1) +f(j,2) +・・+f(j,9) }を保存する。最後に、コンピュータ150は、{f(j,1) +f(j,2) +・・+f(j,9) }の平方根を計算してメモリ空間に保存すると、画素jの第1変動特性のL2ノルムデータ演算が完了する(処理2)。なお、メモリ空間のサイズは、少なくとも合成画像データのサイズと同程度であることが必要である。 The process of calculating the L2 norm of the first variation characteristic will be described with reference to FIG. The computer 150 squares the image value f (j, 1) of the photoacoustic image data (first image data) 2001 corresponding to the first light irradiation at a certain pixel j and squares the image value f (j, 1) corresponding to the first light irradiation. The generated first image data 1101 is generated. Then, the computer 150 stores f (j,1) 2 in the memory space for storing the L2 norm data of the first variation characteristic. Next, the image value f (j, 2) of the photoacoustic image data corresponding to the second light irradiation is squared, and the value {f (j (j ) is cumulatively added to the memory space for storing the L2 norm data of the first variation characteristic. , 1) 2 +f (j, 2) 2 } is stored. The same process is repeated until the ninth photoacoustic image data 2009 is obtained, and {f (j,1) 2 +f (j,2) 2 +... +f (j,9) 2 } is stored in the memory space. Finally, the computer 150 calculates the square root of {f (j,1) 2 +f (j,2) 2 +... +f (j,9) 2 } and stores it in the memory space. The L2 norm data calculation of the variation characteristic is completed (process 2). The size of the memory space needs to be at least as large as the size of the composite image data.

次に、図13を用いて、第2変動特性のL2ノルム算出過程を説明する。コンピュータ150は、ある画素jにおいて、1回目の光照射に対応する感度情報(テンプレートデータ)2010の画像値g(j,1)を二乗し、1回目の光照射に対応する二乗された感度情報1201を生成する。コンピュータ150は、第2変動特性のL2ノルムデータ保存用のメモリ空間にg(j,1) を保存する。次に、2回目の光照射に対応する感度情報の画像値g(j,2)を二乗し、第2変動特性のL2ノルムデータ保存用のメモリ空間に累積加算した値{g(j,1) +g(j,2) }を保存する。同様の処理を9回目の光照射に対応する二乗された感度情報1209を得るまで繰り返し、メモリ空間に{g(j,1) +g(j,2) +・・+g(j,9) }を保存する。最後に、コンピュータ150が{g(j,1) +g(j,2) +・・+g(j,9) }の平方根を計算してメモリ空間に保存すると、画素jの第2変動特性のL2ノルムデータ演算が完了する(処理3)。なお、メモリ空間のサイズは、少なくとも合成画像データのサイズと同程度であることが必要である。 Next, the process of calculating the L2 norm of the second variation characteristic will be described with reference to FIG. The computer 150 squares the image value g (j, 1) of the sensitivity information (template data) 2010 corresponding to the first light irradiation at a pixel j, and squares the sensitivity information corresponding to the first light irradiation. 1201 is generated. The computer 150 stores g (j,1) 2 in the memory space for storing the L2 norm data of the second variation characteristic. Next, a value {g (j,1 ) obtained by squaring the image value g (j,2) of the sensitivity information corresponding to the second light irradiation and cumulatively adding it to the memory space for storing the L2 norm data of the second variation characteristic. ) 2 +g (j,2) 2 }. The same process is repeated until the squared sensitivity information 1209 corresponding to the ninth light irradiation is obtained, and {g (j,1) 2 +g (j,2) 2 +... +g (j,9) is stored in the memory space. 2 } is saved. Finally, when the computer 150 calculates the square root of {g (j,1) 2 +g (j,2) 2 +... +g (j,9) 2 } and stores it in the memory space, the second variation of the pixel j is obtained. The L2 norm data calculation of the characteristic is completed (process 3). The size of the memory space needs to be at least as large as the size of the composite image data.

コンピュータ150は、図11〜図13に示した処理1〜3の結果を式(4)に代入することで、対象とする全ての画素における第1変動特性と第2変動特性との内積に基づく相関値(−1〜1の値をとる)を演算することができる。ここでは、対象とする全ての画素j(j=1〜20000)に対応する、相関値の集合体であるデータを相関値画像データ(相関情報)と呼ぶこととする。また、相関値画像データを画像表示したものを相関値画像と呼ぶこととする。 The computer 150 substitutes the results of the processes 1 to 3 shown in FIGS. 11 to 13 into the equation (4) to determine the inner product of the first variation characteristic and the second variation characteristic in all the target pixels. The correlation value (takes a value of -1 to 1) can be calculated. Here, data that is a set of correlation values corresponding to all target pixels j (j=1 to 20000) is referred to as correlation value image data (correlation information). Moreover, what displayed the correlation value image data as an image is called a correlation value image.

この処理の特徴としては、第1変動特性ベクトルと第2変動特性ベクトルの要素数がどれだけ増えても、必要なのは光照射ごとの光音響画像データと感度情報との乗算画像データを保存しておくメモリ空間だけなので、膨大なメモリを必要としないことである。また、演算も光音響画像データと感度情報の乗算のみなので、処理が簡易でリアルタイム処理にも適用しやすいという利点がある。 A feature of this processing is that no matter how the number of elements of the first variation characteristic vector and the second variation characteristic vector increases, it is necessary to save the multiplied image data of the photoacoustic image data and the sensitivity information for each light irradiation. It does not require a huge amount of memory because it has only memory space. Further, since the calculation is only multiplication of the photoacoustic image data and the sensitivity information, there is an advantage that the processing is simple and can be easily applied to real-time processing.

例えば、血管のような光吸収体が存在する、ターゲットに該当する画素であれば相関値が0.8となり、アーチファクトの存在する画素については相関値が0.2となる。こうして、相関値の大きさから画素ごとにターゲットとアーチファクトの判別を行うことができる。 For example, a pixel having a light absorber such as a blood vessel and corresponding to a target has a correlation value of 0.8, and a pixel having an artifact has a correlation value of 0.2. In this way, the target and the artifact can be discriminated for each pixel from the magnitude of the correlation value.

第1変動特性と第2変動特性の内積演算動作について、合成画像データにおける特定の画素に着目して、さらに詳細な説明を行う。前述したように、本実施形態においては、合成画像データのコントラスト等の画質が最適となるX1とY1の値、相関値の算出に最適なX2とY2の値を用いて処理を行う。X1とX2、Y1とY2は異なる値を取り得るものである。ここから、X1とY1の値、X2とY2の値を決定する際に考慮すべき事項について説明する。すなわち、第1画像データの画像化範囲と第2画像データの画像化範囲を決定する際に考慮すべき事項を説明する。 The inner product calculation operation of the first variation characteristic and the second variation characteristic will be described in more detail, focusing on a specific pixel in the combined image data. As described above, in the present embodiment, the processing is performed using the values of X1 and Y1 at which the image quality such as the contrast of the combined image data is optimal, and the values of X2 and Y2 at which the correlation value is optimally calculated. X1 and X2 and Y1 and Y2 can take different values. From here, the matters to be considered when determining the values of X1 and Y1 and the values of X2 and Y2 will be described. That is, items to be considered when determining the imaging range of the first image data and the imaging range of the second image data will be described.

まず、合成画像データを生成する場合には、被検体内部で光が十分に強く分布する領域に第2画像データ1001〜1009が含まれるようにX1とY1の値を設定することが望ましい。被検体内部で光が拡散している領域であっても、光の強度が弱い部分においては第2画像データ1001〜1009の輝度値が極端に小さくなってしまう。この場合、極端に小さな輝度値成分を用いて合成画像データを生成するために加算平均処理を行うと、合成画像データのコントラストの低下といった悪影響が生じるためである。 First, when generating composite image data, it is desirable to set the values of X1 and Y1 so that the second image data 1001 to 1009 are included in a region where light is sufficiently strongly distributed inside the subject. Even in the region where the light is diffused inside the subject, the luminance values of the second image data 1001 to 1009 become extremely small in the portion where the light intensity is weak. This is because, in this case, if the averaging process is performed to generate the composite image data using the extremely small luminance value component, an adverse effect such as a decrease in the contrast of the composite image data occurs.

よって、合成画像データを生成する場合には、被検体内部で光が拡散する領域のうち、光の強度がある程度高い領域に画像データ1001〜1009の画像化範囲を合わせるようにする方がよい。典型的には、X1とY1によって定義される画像データ1001〜1009の画像化範囲は、被検体内部で光が拡散する領域よりも小さくなる。 Therefore, when generating the synthetic image data, it is better to match the imaging range of the image data 1001 to 1009 to the region where the light intensity is somewhat high among the regions where the light diffuses inside the subject. Typically, the imaging range of the image data 1001 to 1009 defined by X1 and Y1 is smaller than the area where light diffuses inside the subject.

一方で、相関値を算出する場合、被検体内部で光が拡散する領域と第1画像データ2001〜2009の領域がなるべく同じになるようにX2とY2の値を設定することが好ましい。すなわち、第2画像データの画像化範囲よりも第1画像データの画像化範囲を大きくすることが好ましい。X2とY2の値をできる限り大きくする方が、注目位置に着目したときに、第1画像データ2001〜2009が注目位置を含む確率が高くなるからである。言い換えると、X2とY2の値をできる限り大きくする方が、注目位置に着目したときに、第1画像データ2001〜2009の重なり合う回数が増える可能性が高くなるということである。 On the other hand, when calculating the correlation value, it is preferable to set the values of X2 and Y2 so that the region where the light diffuses inside the subject and the region of the first image data 2001 to 2009 are as similar as possible. That is, it is preferable to make the imaging range of the first image data larger than the imaging range of the second image data. This is because if the values of X2 and Y2 are made as large as possible, the probability that the first image data 2001 to 2009 include the target position becomes higher when the target position is focused. In other words, increasing the values of X2 and Y2 as much as possible increases the possibility of increasing the number of times the first image data 2001 to 2009 overlap each other when focusing on the position of interest.

第1画像データ2001〜2009の重なり合う回数が増えると、相関値算出に用いることのできるサンプル情報が増えるため、血管構造の判別精度が向上することが期待される。したがって、X2とY2の値は、大きくすればするほど良いように思える。しかしながら、被検体内部で光が拡散する領域よりも大きくX2とY2をとっても、有効な光音響画像データの存在しない部分を用いて判別を行うことになり、判別精度の向上は見込めない。すなわち、第1画像データの画像化範囲は、第2画像データの画像化範囲よりも大きく、照射光の拡散領域以下の範囲とすることが好ましい。 When the number of times the first image data 2001 to 2009 overlaps increases, the sample information that can be used for calculating the correlation value increases, and therefore it is expected that the accuracy of identifying the blood vessel structure will improve. Therefore, it seems that the larger the values of X2 and Y2, the better. However, even if X2 and Y2 are set to be larger than a region where light is diffused inside the subject, the determination is performed using a portion where effective photoacoustic image data does not exist, and improvement of the determination accuracy cannot be expected. That is, it is preferable that the imaging range of the first image data is larger than the imaging range of the second image data and is less than or equal to the diffusion area of the irradiation light.

ここで式(4)を参照して説明を行う。X2とY2を大きくすることは第1画像データ2001〜2009の重なり合う回数が増えるため、nの値の増加につながる。しかし、有効な光音響画像データの存在しない部分を第1画像データ2001〜2009の画像化範囲が含んでいる場合、ある画素の第1変動特性ベクトルfの要素として、ほぼ0に近い値が増えるだけであるため、f*gの値は増加しない。同様の理由により、第1変動特性ベクトルfのL2ノルム|f|の値も増加しない。 Here, description will be given with reference to the equation (4). Increasing X2 and Y2 leads to an increase in the value of n because the number of times the first image data 2001 to 2009 overlap each other increases. However, when the imaging range of the first image data 2001 to 2009 includes a portion where effective photoacoustic image data does not exist, a value close to 0 increases as an element of the first variation characteristic vector f of a certain pixel. The value of f*g does not increase, since For the same reason, the value of the L2 norm |f| of the first variation characteristic vector f also does not increase.

他方、感度情報2010が、第1画像データ2001〜2009において有効な光音響画像データの存在しない部分で有効な感度を持っている場合には、第2変動特性ベクトルgのL2ノルム|g|の値は増加しうる。そのため、X2とY2を冗長に大きくすると、結果として式(4)によって導出される相関値は小さく算出される可能性がある。血管構造の相関値を可能な限り高くしようとすれば、X2とY2を大きくすればするほど良いというものではなく、最適な値があることがわかる。 On the other hand, when the sensitivity information 2010 has effective sensitivity in a portion where effective photoacoustic image data does not exist in the first image data 2001 to 2009, the L2 norm |g| of the second variation characteristic vector g Values can increase. Therefore, if X2 and Y2 are redundantly increased, as a result, the correlation value derived by the equation (4) may be calculated small. It can be seen that if the correlation value of the blood vessel structure is to be made as high as possible, it is not so good that X2 and Y2 are increased, and there is an optimum value.

ここで、図4を用いて、光照射ごとに生成する画像データの画像化範囲が合成画像データと相関値の算出精度にどのように影響するかを説明する。 Here, how the imaging range of the image data generated for each light irradiation affects the calculation accuracy of the combined image data and the correlation value will be described with reference to FIG.

まず、図4(a)は、合成画像データを適切に生成できる第2画像データの画像化範囲を設定した場合の1本のワイヤファントムの合成画像である。一方、図4(b)は、第2画像データの画像化範囲を図4(a)の場合よりも大きくした場合の1本のワイヤファントムの合成画像である。図4(b)では、図4(a)に比べてワイヤの輝度値が低下していることがわかる。つまり、合成画像の算出においては、画像化範囲の小さな図4(a)の方が、図4(b)よりも好ましいことが分かる。 First, FIG. 4A is a composite image of one wire phantom when the imaging range of the second image data that can appropriately generate the composite image data is set. On the other hand, FIG. 4B is a composite image of one wire phantom when the imaging range of the second image data is larger than that in FIG. 4A. In FIG. 4B, it can be seen that the brightness value of the wire is lower than that in FIG. That is, it is understood that FIG. 4A having a smaller imaging range is more preferable than FIG. 4B in the calculation of the composite image.

次に、図4(c)は、図4(a)の場合と同じ画像化範囲を設定した場合の1本のワイヤファントムの相関値の空間分布を示す画像である。一方で、図4(d)は、図4(b)の場合と同じ画像化範囲、すなわち図4(c)の場合よりも大きな画像化範囲を設定した場合の1本のワイヤファントムの相関値の空間分布を示す画像である。図4(d)では、図4(c)に比べて画像のコントラストが向上していることがわかる。つまり、相関値を示す画像としては、画像化範囲の大きな図4(d)の方が、図4(c)よりも好ましいことが分かる。この例からも明らかなように、合成画像データを算出する場合と相関情報を算出する場合とで適切な画像化範囲が異なることがわかる。さらに、合成画像データを算出する場合の画像化範囲よりも、相関情報を算出する場合の画像化範囲を大きくすることが好ましいことがわかる。このような画像化範囲を設定することにより、合成画像データの画質向上と、相関情報の精度向上とを両立させることができる。 Next, FIG. 4C is an image showing the spatial distribution of the correlation values of one wire phantom when the same imaging range as in FIG. 4A is set. On the other hand, FIG. 4D shows the correlation value of one wire phantom when the same imaging range as that of FIG. 4B, that is, the imaging range larger than that of FIG. 4C is set. It is an image showing the spatial distribution of. In FIG. 4D, it can be seen that the contrast of the image is improved as compared with FIG. 4C. That is, as the image showing the correlation value, FIG. 4D having a large imaging range is preferable to FIG. 4C. As is clear from this example, it can be seen that the appropriate imaging range is different between the case where the composite image data is calculated and the case where the correlation information is calculated. Further, it can be seen that it is preferable to make the imaging range for calculating the correlation information larger than the imaging range for calculating the composite image data. By setting such an imaging range, it is possible to improve both the image quality of the composite image data and the accuracy of the correlation information.

図14(a)は、光照射部110、受信部120が互いに異なる撮像位置で撮像したときに得られた第1画像データ3001〜3004が、メモリ空間に配置された場合にどのような位置関係となるかを、XY平面に投影した様子を示す。第1画像データ3001〜3004は、それぞれ互いに異なる撮像位置A〜Dで撮像し、光拡散領域を画像化範囲とした画像データである。撮像位置A〜Dは互いに異なっているため、撮像位置A〜Dに対応する第1画像データ3001〜3004は、メモリ空間においては異なる位置に配置される。メモリ空間には画素1〜4が定義されている。 FIG. 14A shows a positional relationship when the first image data 3001 to 3004 obtained when the light irradiation unit 110 and the reception unit 120 capture images at different imaging positions are arranged in the memory space. It shows a state of being projected on the XY plane. The first image data 3001 to 3004 are image data captured at mutually different image capturing positions A to D and having a light diffusion region as an imaging range. Since the imaging positions A to D are different from each other, the first image data 3001 to 3004 corresponding to the imaging positions A to D are arranged at different positions in the memory space. Pixels 1 to 4 are defined in the memory space.

図14(b)に示すように、画素1は撮像位置Aに対応する画像データ3001にのみ含まれる。画素2は撮像位置Aと撮像位置Bに対応する2つの画像データ3001、3002に含まれる。また、画素3では撮像位置Aと撮像位置Bと撮像位置Cに対応する3つの画像データ3001、3002、3003に含まれる。画素4は撮像位置A、撮像位置B、撮像位置C、そして撮像位置Dの4つの画像データ3001〜3004に含まれる。 As shown in FIG. 14B, the pixel 1 is included only in the image data 3001 corresponding to the image pickup position A. The pixel 2 is included in the two image data 3001 and 3002 corresponding to the imaging position A and the imaging position B. Further, the pixel 3 is included in the three image data 3001, 3002, and 3003 corresponding to the image pickup position A, the image pickup position B, and the image pickup position C. The pixel 4 is included in the four image data 3001 to 3004 of the imaging position A, the imaging position B, the imaging position C, and the imaging position D.

このように、ある画素の位置において、異なる撮像位置に対応する画像データが重なり合う場合がある。この場合、ある画素の画像値としては、重なり合う全ての画像値を累積加算した累積加算値を用いる、もしくは累積加算値を累積加算回数で除算した加算平均値を用いる、といった処理がなされる。どのような演算を行うかは、ユーザーの目的に応じてどのような演算であってもよく、特定のものに限定されない。また、図14(a)から明らかなように、すべての画素に対して必ずしも同じ回数の画素データの重なり合いが発生するわけではなく、重なり合いの回数は画素の位置によって異なり得る。 In this way, image data corresponding to different image pickup positions may overlap at a certain pixel position. In this case, as the image value of a certain pixel, a process of using a cumulative addition value obtained by cumulatively adding all overlapping image values, or using an addition average value obtained by dividing the cumulative addition value by the number of times of cumulative addition is performed. What kind of calculation is performed may be any calculation according to the purpose of the user, and is not limited to a specific calculation. Further, as is clear from FIG. 14A, the same number of times of overlapping of pixel data does not necessarily occur for all pixels, and the number of times of overlapping may differ depending on the position of the pixel.

図14(b)においては、撮像位置A〜Dに対応する画像データ3001〜3004の画素4の画像値はそれぞれf(4,1)、f(4,2)、f(4,3)、f(4,4)であるとする。 In FIG. 14B, the image values of the pixels 4 of the image data 3001 to 3004 corresponding to the imaging positions A to D are f (4,1) , f (4,2) , f (4,3) , Let f (4,4) .

次に、各光照射で受信部120の位置は固定であり、感度情報が固定である場合を仮定する。画素4の位置に画素と同じサイズの光吸収体があると仮定する。また、受信部120の画像データ生成空間における感度が一様ではなく、半球の曲率中心の感度が高く、中心から離れると感度が低くなると仮定する。つまり、画像データ生成空間において感度が空間的な分布を持つと仮定する。この場合、注目位置に存在する光吸収体を異なる位置で撮像すると、受信部120と光吸収体の存在する画素との相対位置関係が変化する影響で、撮像された光吸収体の画像値は撮像位置ごとに異なる値を取り得る。 Next, it is assumed that the position of the receiving unit 120 is fixed for each light irradiation and the sensitivity information is fixed. It is assumed that there is a light absorber of the same size as the pixel at the position of pixel 4. Further, it is assumed that the sensitivity of the receiving unit 120 in the image data generation space is not uniform, the sensitivity of the center of curvature of the hemisphere is high, and the sensitivity decreases as the distance from the center decreases. That is, it is assumed that the sensitivity has a spatial distribution in the image data generation space. In this case, when the light absorber existing at the target position is imaged at different positions, the image value of the imaged light absorber is changed due to the change in the relative positional relationship between the receiving unit 120 and the pixel where the light absorber exists. Different values can be taken for each imaging position.

この様子を、図15を用いて示す。図15(a)は、受信部120の感度分布125と各光照射における画素4との相対位置関係を示す。撮像位置A〜Dに対応するテンプレートデータの画素4における画像値はそれぞれg(4,1)、g(4,2)、g(4,3)、g(4,4)とする。図15(b)にグラフで示したように、同じ画素4であるにもかかわらず、テンプレートデータの画像値は、光照射毎に異なり得る。図15(b)に示したテンプレートデータの画像値の変動がテンプレートデータの画像値列に相当する。これは、図15(a)に示したX方向の線分1310にそったテンプレートデータの画像値のプロットデータを参照するとわかるように、受信部120の感度分布125が一様でなく、位置依存性を持つことの影響である。このように、注目位置に画素と同じサイズの光吸収体が存在すると仮定した場合のテンプレート画像値は、受信部120の感度分布125の影響により、撮像位置に応じて変動し得るという特性がある。また、光吸収体の存在位置が異なれば、光音響画像データにおける光吸収体の画像値は、やはり受信部120の感度分布125の影響により異なり得る。 This state is shown using FIG. FIG. 15A shows the relative positional relationship between the sensitivity distribution 125 of the receiver 120 and the pixel 4 in each light irradiation. The image values at the pixel 4 of the template data corresponding to the imaging positions A to D are g (4,1) , g (4,2) , g (4,3) , and g (4,4) , respectively. As shown in the graph of FIG. 15B, the image value of the template data may be different for each light irradiation even though the pixel 4 is the same. The variation of the image value of the template data shown in FIG. 15B corresponds to the image value sequence of the template data. This can be seen by referring to the plot data of the image values of the template data along the line segment 1310 in the X direction shown in FIG. It is the effect of having sex. As described above, the template image value when it is assumed that the light absorber having the same size as the pixel exists at the target position has a characteristic that it can vary depending on the image capturing position due to the influence of the sensitivity distribution 125 of the receiving unit 120. .. Further, if the position where the light absorber is present is different, the image value of the light absorber in the photoacoustic image data may also be different due to the influence of the sensitivity distribution 125 of the receiver 120.

このことから、光音響画像データにおける画像値は、光吸収体の存在位置と光音響装置の感度という2つのパラメータによって決定されることがわかる。まず、画素位置に依存して、光音響画像データにおける光吸収体の画像値は異なり得る。さらに、駆動部130が、光照射部110と受信部120を駆動し、機械的な走査を行うことにともなって生じる、光照射部110と受信部120と画素との相対位置関係の変化によっても、光音響画像データにおける光吸収体の画像値は変化する。 From this, it is understood that the image value in the photoacoustic image data is determined by two parameters, that is, the existing position of the light absorber and the sensitivity of the photoacoustic apparatus. First, depending on the pixel position, the image value of the light absorber in the photoacoustic image data can be different. Further, due to the change in the relative positional relationship between the light irradiation unit 110, the receiving unit 120, and the pixels, which is caused by the driving unit 130 driving the light irradiation unit 110 and the receiving unit 120 and performing mechanical scanning. The image value of the light absorber in the photoacoustic image data changes.

なお、テンプレートデータを求める際に、想定される光吸収体のサイズを画素と同じサイズとして説明を行ってきたが、テンプレートデータが適切に生成し得る限り、必ずしもこれに限定されない。また、光吸収体の形状も立方体、正方形、球、円などの他、テンプレート画像値が適切に生成し得る限り、必ずしも特定の形状に限定されない。 Although the size of the assumed light absorber has been described as the same size as the pixel when the template data is obtained, the present invention is not limited to this as long as the template data can be appropriately generated. The shape of the light absorber is not limited to a cube, a square, a sphere, a circle, or the like, and is not limited to a specific shape as long as the template image value can be appropriately generated.

(S560:合成画像データおよび相関情報に基づいた画像を表示する工程)
表示制御手段としてのコンピュータ150は、S540で得られた合成画像データおよびS550で得られた相関情報に基づいて画像を生成し、表示部160に表示させる。
(S560: Step of displaying image based on combined image data and correlation information)
The computer 150 as a display control unit generates an image based on the combined image data obtained in S540 and the correlation information obtained in S550, and causes the display unit 160 to display the image.

コンピュータ150は、合成画像データの画像値を表示画像の輝度値に割り当てた合成画像と、相関情報の示す値を表示画像の輝度値に割り当てた相関画像とを表示させてもよい。例えば、画像値または相関情報の示す値が正値の場合は輝度に割り当てとし、画像値または相関情報を示す値が負値の場合は輝度を0とする表示画像を生成してもよい。それぞれの表示画像の表示態様は、重畳表示、並列表示、切り替え表示などいかなる表示態様であってもよい。 The computer 150 may display the composite image in which the image value of the composite image data is assigned to the brightness value of the display image and the correlation image in which the value indicated by the correlation information is assigned to the brightness value of the display image. For example, when the image value or the value indicated by the correlation information is a positive value, it is assigned to the brightness, and when the image value or the value indicating the correlation information is a negative value, the display image in which the brightness is 0 may be generated. The display mode of each display image may be any display mode such as superimposed display, side-by-side display, and switching display.

また、コンピュータ150は、合成画像データと相関情報とを合成した画像を生成し、表示部に表示させてもよい。例えば、合成画像データの画像値と相関情報の示す値のそれぞれを色相、明度、彩度のいずれかに割り当ててもよい。合成画像データの画像値を明度に割り当て、相関情報の示す値を色相及び彩度に割り当ててもよい。すなわち、合成画像データの画像値に輝度を割り当て、相関情報の示す値をカラーマップに割り当ててもよい。例えば、注目位置の相関値がターゲットである可能性の高い0.3以上である場合に合成画像データを赤色で表示し、0.3未満である場合に青色で表示するなどの表示制御を行うことができる。 Further, the computer 150 may generate an image in which the combined image data and the correlation information are combined and display the image on the display unit. For example, each of the image value of the composite image data and the value indicated by the correlation information may be assigned to any one of hue, lightness, and saturation. The image value of the composite image data may be assigned to the lightness, and the value indicated by the correlation information may be assigned to the hue and the saturation. That is, luminance may be assigned to the image value of the composite image data, and the value indicated by the correlation information may be assigned to the color map. For example, display control is performed such that the composite image data is displayed in red when the correlation value at the position of interest is 0.3 or higher, which is highly likely to be the target, and is displayed in blue when the correlation value is less than 0.3. be able to.

また、コンピュータ150は、相関情報に基づいて、注目位置がターゲットに対応するものかアーチファクト等のターゲット以外のものであるのかを判定し、その判定結果によって合成画像データの表示態様を決定してもよい。 Further, the computer 150 determines whether the attention position corresponds to the target or is something other than the target such as an artifact based on the correlation information, and determines the display mode of the composite image data based on the determination result. Good.

例えば、注目位置における相関情報の示す値と基準値とを比較し、相関情報の示す値が基準値よりも相関が高いことを示す場合は、注目位置がターゲットであると判定する。一方、注目位置における相関情報の示す値が基準値よりも相関が低いことを示す場合は、注目位置がターゲット以外であると判定する。この判定結果は、注目位置にターゲットが存在する可能性を表す存在情報であるともいえる。なお、この基準値の設定方法については後述する。 For example, the value indicated by the correlation information at the position of interest is compared with the reference value, and if the value indicated by the correlation information indicates that the correlation is higher than the reference value, then the position of interest is determined to be the target. On the other hand, when the value indicated by the correlation information at the target position indicates that the correlation is lower than the reference value, it is determined that the target position is other than the target. It can be said that this determination result is presence information indicating the possibility that the target exists at the attention position. The method of setting the reference value will be described later.

例えば、注目位置がターゲットであると判定された場合は、注目位置における合成画像データを有効化する処理を行ってもよい。また、注目位置がターゲット以外であると判定された場合は、注目位置における合成画像データを無効化する処理を行ってもよい。なお、有効化、無効化の片方のみを行ってもよいし、両方を行ってもよい。 For example, when it is determined that the attention position is the target, the process of validating the combined image data at the attention position may be performed. Further, when it is determined that the attention position is other than the target, a process of invalidating the combined image data at the attention position may be performed. It should be noted that only one of the validation and the invalidation may be performed, or both may be performed.

有効化の処理方法の例としては、該当する画素の画像値を1以上の係数を乗じて増幅処理する、もしくは視認性の良い色で色分け表示する、もしくは増幅と色分け表示の組み合わせが挙げられる。 As an example of the activation processing method, the image value of the corresponding pixel is multiplied by a coefficient of 1 or more to perform amplification processing, or color-coded display is performed in a color having good visibility, or a combination of amplification and color-coded display is used.

無効化の処理方法の例としては、該当する画素の画像値を1未満の係数を乗じて減衰処理する、もしくは視認性の悪い色で色分け表示する、もしくは減衰と色分け表示の組み合わせが挙げられる。減衰処理としては、たとえば無効化する画素の画像値に0を乗じて、実質的にターゲット領域以外の部分を0にした表示画像を生成してもよい。また、無効化する画素の画像値に1未満の数値を乗じて、有効領域と無効化領域の境目がなめらかにつながるような処理を行ってもよい。 Examples of the invalidation processing method include attenuating the image value of the corresponding pixel by multiplying it by a coefficient less than 1, or performing color-coded display in a color with poor visibility, or a combination of attenuation and color-coded display. As the attenuation processing, for example, an image value of a pixel to be invalidated may be multiplied by 0 to generate a display image in which a portion other than the target region is substantially set to 0. Alternatively, the image value of the pixel to be invalidated may be multiplied by a numerical value less than 1 to perform processing so that the boundary between the valid area and the invalidated area is smoothly connected.

また、有効化および無効化の少なくとも一方の処理を行った画像と、有効化および無効化のいずれの処理も行っていない画像とを表示部160に並列表示、重畳表示、もしくは交互表示するようにしてもよい。 In addition, an image that has been subjected to at least one of the validating and invalidating processes and an image that has not undergone the validating and invalidating processes are displayed in parallel on the display unit 160, in a superimposed display, or alternately displayed. May be.

なお、有効化または無効化の処理方法については、ターゲット領域とその他の領域との識別能が高くなる限り、いかなる方法を採用してもよい。 It should be noted that any valid or invalid processing method may be adopted as long as the ability to discriminate between the target area and other areas is high.

ターゲットとアーチファクトの判別基準となる基準値については、経験的に照らしてユーザーが判断してもよい。また、ターゲットが存在しないことが明らかである領域、例えば被検体100の存在しない音響マッチング材210等に対応する画素の相関値を解析し、アーチファクトのとる相関値の範囲を事前に把握してもよい。そして、事前に把握した相関値範囲よりも高い相関値に対応する領域をターゲットとして判定してもよい。その際、ユーザーがターゲットが存在しない領域を指定し、コンピュータ150がその領域の相関値範囲からアーチファクトの判別基準とする相関値を割り出してもよい。また、コンピュータ150が表示部160にターゲットが存在しない領域における相関値を表示させ、ユーザーが判別基準とする相関値を決定してもよい。ターゲットが存在しないことが明らかな領域の相関値の最大値、平均値、中間値、分散値、もしくはこれらのパラメータを組み合わせた値を判別基準にしてもよい。なお、ターゲットとアーチファクトを判定できる相関値を決定できる限り、基準とする相関値の算出方法は特定の計算手法に限定されない。 The user may judge empirically with respect to the reference value which is the criterion for distinguishing the target from the artifact. Further, even if the correlation value of the pixel corresponding to the region where the target is clearly not present, for example, the acoustic matching material 210 where the subject 100 does not exist is analyzed and the range of the correlation value taken by the artifact is grasped in advance. Good. Then, an area corresponding to a correlation value higher than the correlation value range grasped in advance may be determined as a target. At that time, the user may specify a region where the target does not exist, and the computer 150 may calculate a correlation value as a criterion for determining an artifact from the correlation value range of the region. Further, the computer 150 may display the correlation value in the area where the target does not exist on the display unit 160, and the user may determine the correlation value as the determination criterion. The maximum value, the average value, the intermediate value, the variance value of the correlation values in the region where it is clear that the target does not exist, or a value obtained by combining these parameters may be used as the determination criterion. The method of calculating the reference correlation value is not limited to a specific calculation method as long as the correlation value that can determine the target and the artifact can be determined.

また、ユーザーが有効化または無効化する相関値の表示範囲を調整してもよい。すなわち、基準値をユーザーが自由に変化できるようにしてもよい。その際に、入力部170、またはタッチパネルで構成された表示部160から、ユーザーが基準値を指定できるようにしてもよい。数値指定方法としては、数値入力欄にユーザーが数値を入力する方法、スライダーバーやダイヤルによる指定方法などが挙げられるが、特定のものに限定されない。 Also, the display range of the correlation value that the user enables or disables may be adjusted. That is, the user may freely change the reference value. At that time, the user may be allowed to specify the reference value from the input unit 170 or the display unit 160 composed of a touch panel. Numerical value specifying methods include, but are not limited to, a method in which a user inputs numerical values in a numerical value input field, a specifying method using a slider bar or a dial, and the like.

また、ユーザーが任意の相関値範囲を指定して表示するようにしてもよい。その際、複数の相関値範囲を指定して表示させるようにしてもよい。例えば、相関値0.2〜0.3、0.5〜0.7、0.85〜0.9のボクセルを表示する、といった具合である。相関値を指定して表示する方法については、画像の視認性が向上する限り、特定の方法に限定されない。 Further, the user may specify and display an arbitrary correlation value range. At that time, a plurality of correlation value ranges may be designated and displayed. For example, voxels having correlation values of 0.2 to 0.3, 0.5 to 0.7, and 0.85 to 0.9 are displayed. The method of designating and displaying the correlation value is not limited to a specific method as long as the visibility of the image is improved.

以下、合成画像データを参照して相関値に対する基準値を決定する方法を説明する。図16は、被検体100の合成画像データを3断面でMIP(maximum intensity projection)表示した様子を示す。図16は、被検体100の表面が保持部200によってXY平面に対して平行に保たれている状態を示している。ここで、ターゲットが存在しないことが明らかである領域とは、XZ断面画像4001における領域4010、4011、4012、4013のように、被検体100の外の音響マッチング材210が存在する領域を指す。あるいは、YZ断面画像4002における領域4020、4021、4022、4023のように、被検体100の外の音響マッチング材210が存在する領域を指す。本手法においては、ターゲットが存在しない領域の相関値を参照し、ターゲットとアーチファクトの判別の基準値とする。例えば、ターゲットが存在しない領域の全ての画素、もしくはある一定領域における相関値の最大値や平均値をターゲットとアーチファクトの判別の基準値とすることができる。また、ターゲットが存在しない領域の相関値の標準偏差σを求めて、(平均値+n*σ)をターゲットとアーチファクトの判別の基準値としてもよい。この場合、nは任意の値をとることができる。なお、ターゲットとアーチファクトを精度よく判別できるように、ターゲットが存在しない領域内の複数の画素の相関値から判別の基準値を導出する限り、相関値に対して施す演算の種類は特定のものに限定されない。 Hereinafter, a method of determining the reference value for the correlation value with reference to the synthetic image data will be described. FIG. 16 shows a state in which the composite image data of the subject 100 is displayed by MIP (maximum intensity projection) in three cross sections. FIG. 16 shows a state in which the surface of the subject 100 is kept parallel to the XY plane by the holding unit 200. Here, the region in which it is clear that the target does not exist refers to a region where the acoustic matching material 210 exists outside the subject 100, such as regions 4010, 4011, 4012, and 4013 in the XZ sectional image 4001. Alternatively, it indicates a region where the acoustic matching material 210 exists outside the subject 100, such as regions 4020, 4021, 4022, and 4023 in the YZ cross-sectional image 4002. In this method, the correlation value in the region where the target does not exist is referred to and used as the reference value for the discrimination between the target and the artifact. For example, all the pixels in the area where the target does not exist, or the maximum value or the average value of the correlation values in a certain fixed area can be used as the reference value for discriminating the target from the artifact. Further, the standard deviation σ of the correlation value in the region where the target does not exist may be obtained, and (average value+n*σ) may be used as the reference value for the discrimination between the target and the artifact. In this case, n can take any value. As long as the reference value for discrimination is derived from the correlation values of a plurality of pixels in the region where the target does not exist, the type of calculation to be performed on the correlation value is specific so that the target and the artifact can be accurately discriminated. Not limited.

判別の基準値として、ターゲットが存在しない領域のパラメータの値そのものではなく、パラメータの値になんらかの処理を加えた値、たとえば最大値、平均値、中間値、分散値、もしくはこれらのパラメータを組み合わせた値を用いてもよい。しかし、ターゲットとアーチファクトとを判別できる限り、パラメータから基準値を導出する場合の演算の種類は、特定のものに限定されない。 As a reference value for discrimination, not the parameter value itself in the region where the target does not exist, but a value obtained by adding some processing to the parameter value, for example, maximum value, average value, intermediate value, variance value, or a combination of these parameters. A value may be used. However, the type of calculation for deriving the reference value from the parameter is not limited to a specific one as long as the target and the artifact can be distinguished.

ターゲットとアーチファクトの判別基準とするパラメータの基準値については、必ずしも撮像したすべての領域について同一の基準値を適用せねばならないというものではなく、撮像した領域を分割し、領域ごとに異なる基準値を適用してもよい。 Regarding the reference value of the parameter that is used as the discrimination criterion between the target and the artifact, it is not always necessary to apply the same reference value to all the imaged areas, but the imaged area is divided and different reference values are set for each area. You may apply.

次に、図17は、被検体100の合成画像データの3断面画像を示す。図17においては、図16と同様に、被検体100の表面が平面に保持されている状態を示している。断面画像4001と断面画像4002はMIP表示ではなく、それぞれ合成画像データの線4030における断面画像(断面1)、合成画像データの線4031における断面画像(断面2)となっている。図17に示すように、XY断面画像4000を例えば複数の領域に分割し、それぞれの領域に存在する、ターゲットが存在しないことが明らかな領域から基準値を算出してもよい。この例では、最大で16種類の基準値を算出し、被検体100の領域1〜16において、それぞれ個別の基準値を用いてターゲットとアーチファクトの判別を行うことができる。 Next, FIG. 17 shows a three-sectional image of the synthetic image data of the subject 100. Similar to FIG. 16, FIG. 17 shows a state in which the surface of the subject 100 is held flat. The cross-sectional image 4001 and the cross-sectional image 4002 are not MIP displays, but are a cross-sectional image at the line 4030 of the composite image data (cross-section 1) and a cross-sectional image at the line 4031 of the composite image data (cross-section 2), respectively. As shown in FIG. 17, the XY cross-sectional image 4000 may be divided into, for example, a plurality of regions, and the reference value may be calculated from the regions that are present in the respective regions and in which it is clear that the target does not exist. In this example, 16 types of reference values can be calculated at the maximum, and the targets and the artifacts can be discriminated using the individual reference values in the regions 1 to 16 of the subject 100.

さらには、図17に示すように、ターゲットが存在しないことが明らかな領域をZ方向にA〜Fのように複数に分割し、基準値をそれぞれのZ方向の領域に対して個別に算出することもできる。この場合、被検体100のZ方向に異なる基準値を適用して、ターゲットとアーチファクトの判別基準とするパラメータの基準値とすることができる。 Furthermore, as shown in FIG. 17, a region in which it is clear that no target is present is divided into a plurality of regions in the Z direction, such as A to F, and the reference value is calculated individually for each region in the Z direction. You can also In this case, different reference values can be applied in the Z direction of the subject 100, and can be used as the reference value of the parameter serving as the reference for discriminating between the target and the artifact.

本発明者の検討の結果、ターゲットが存在しないことが明らかな領域においても、被検体100の表面近傍では相関値が高く、被検体100の表面から離れるほど相関値が低くなる傾向があることを見出した。つまり、被検体100の表面に近い領域においてターゲットとアーチファクトの判別を行う場合には、被検体100の表面近傍におけるターゲットが存在しない領域の相関値を参照した基準値を用いることが好ましい。一方で、被検体100の表面から遠い領域では、被検体100の表面から遠い領域におけるターゲットが存在しない領域の相関値を参照した基準値を用いるのが好ましい。 As a result of examination by the present inventor, even in a region where it is clear that no target exists, the correlation value tends to be high near the surface of the subject 100, and the correlation value tends to decrease as the distance from the surface of the subject 100 increases. I found it. That is, when the target and the artifact are discriminated from each other in the region close to the surface of the subject 100, it is preferable to use the reference value that refers to the correlation value of the region near the surface of the subject 100 in which the target does not exist. On the other hand, in a region far from the surface of the subject 100, it is preferable to use a reference value that refers to a correlation value of a region in the region far from the surface of the subject 100 where no target exists.

被検体100の表面から遠い領域において、被検体100の表面近傍の相関値を参照した基準値を用いてターゲットの判別を行うと、被検体100の表面から遠い領域におけるアーチファクトの実際の相関値よりも高い相関値でアーチファクトを判別してしまう。 In the area far from the surface of the object 100, when the target is discriminated using the reference value that refers to the correlation value near the surface of the object 100, the actual correlation value of the artifact in the area far from the surface of the object 100 is determined. Also discriminates artifacts with a high correlation value.

この場合、被検体100の表面から遠い領域においては、アーチファクトひいてはターゲットの判別精度が落ちてしまう可能性がある。それに対して、注目位置における相関値と、被検体100の表面から注目位置までの距離に基づいて、基準値を設定することにより、アーチファクトひいてはターゲットの判別精度を向上できる。すなわち、例えば、被検体100の表面近傍の相関値を用いる場合、被検体100の表面からの距離が遠い領域ほど、相関値に小さな値を重みづけした基準値を用いることが好ましい。 In this case, in a region far from the surface of the subject 100, there is a possibility that the artifact and eventually the accuracy of target discrimination may deteriorate. On the other hand, by setting the reference value based on the correlation value at the position of interest and the distance from the surface of the subject 100 to the position of interest, it is possible to improve the accuracy of artifact discrimination and thus the accuracy of target discrimination. That is, for example, when using the correlation value in the vicinity of the surface of the subject 100, it is preferable to use a reference value obtained by weighting the correlation value with a smaller value in a region farther from the surface of the subject 100.

図18は、画素4040、4041、4042のそれぞれに適用する基準値として、どの領域に対応する基準値を採用するのかを示した表である。例えば、図18は、画素4040については、XY平面における領域6、かつ、Z方向における領域Cに対応する基準値を採用することが好ましいことを示している。コンピュータ150は、図18に示すような各画素と基準値の適用領域との関係を示すテーブルにしたがって、各画素に適用する基準値を決定することができる。 FIG. 18 is a table showing which region corresponds to the reference value to be adopted as the reference value applied to each of the pixels 4040, 4041, and 4042. For example, FIG. 18 shows that for the pixel 4040, it is preferable to adopt the reference value corresponding to the region 6 in the XY plane and the region C in the Z direction. The computer 150 can determine the reference value to be applied to each pixel according to a table showing the relationship between each pixel and the application region of the reference value as shown in FIG.

次に、図19は、被検体100の合成画像データを3断面でMIP表示したものである。図19においては、図16とは異なり、被検体100の表面が曲面に保持されている状態を示している。 Next, FIG. 19 shows MIP display of composite image data of the subject 100 in three sections. Unlike FIG. 16, FIG. 19 shows a state in which the surface of the subject 100 is held on a curved surface.

図20は、図19に示した被検体100の合成画像データの3断面画像である。図20において、断面画像4101と断面画像4102はMIP表示ではなく、それぞれ合成画像データの線4130における断面画像(断面1)、合成画像データの線4131における断面画像(断面2)となっている。 FIG. 20 is a three-section image of the synthetic image data of the subject 100 shown in FIG. In FIG. 20, the cross-sectional image 4101 and the cross-sectional image 4102 are not MIP display, but are a cross-sectional image (cross-section 1) on the line 4130 of the composite image data and a cross-sectional image (cross-section 2) on the line 4131 of the composite image data, respectively.

このような場合であっても、図20に示すように、断面画像における被検体表面の形状に倣って、被検体表面の各画素からのZ方向の距離が同じになるようにZ方向の分割態様を決定することができる。同じ処理を被検体100の合成画像データのすべての断面に対して行うと、立体的な被検体100の表面形状に対して、Z方向に同じ厚みをもつ領域を複数形成することができる。さらに、Z方向に領域を分割するのに加え、図20に示すように、XY断面画像4000の領域も分割して、それぞれの領域で基準値を設定し、被検体100の内部におけるターゲット判別を行ってもよい。 Even in such a case, as shown in FIG. 20, according to the shape of the subject surface in the cross-sectional image, division in the Z direction is performed so that the distance in the Z direction from each pixel on the subject surface is the same. Aspects can be determined. When the same processing is performed on all the cross sections of the synthetic image data of the subject 100, it is possible to form a plurality of regions having the same thickness in the Z direction with respect to the three-dimensional surface shape of the subject 100. Further, in addition to dividing the region in the Z direction, as shown in FIG. 20, the region of the XY cross-sectional image 4000 is also divided, and the reference value is set in each region to determine the target inside the subject 100. You can go.

図20に示すようにターゲットが存在しない領域をXY断面の領域、Z方向に領域を分割し、領域ごとに基準値を計算する。そして、ターゲットとアーチファクトを判別したい被検体100の内部の画素位置と被検体100の表面と距離に応じて、被検体100の表面から同程度の距離にあるターゲットが存在しない領域の基準値を参照する。 As shown in FIG. 20, a region where no target is present is divided into regions on the XY cross section and regions in the Z direction, and a reference value is calculated for each region. Then, according to the pixel position inside the subject 100 for which it is desired to discriminate the target and the artifact and the distance between the surface of the subject 100 and the distance between the surface of the subject 100 and the target, refer to a reference value of a region where there is no target. To do.

図20に示すように、画素4200は、被検体100表面からの距離がターゲットが存在しない領域の領域Bと同じ距離にある。そこで、ターゲット判別の基準値としては、ターゲットが存在しない領域の領域Bの相関値等のパラメータに基づいた値を用いる。画素4201、4202、4203、4210、4211についても、同様の考え方でターゲット判別の基準値を設定する。 As shown in FIG. 20, the pixel 4200 has the same distance from the surface of the subject 100 as the area B of the area where the target does not exist. Therefore, as a reference value for target discrimination, a value based on a parameter such as a correlation value of a region B in a region where no target exists is used. With respect to the pixels 4201, 4202, 4203, 4210, and 4211, the reference determination target value is set in the same way.

図21は、図20に示した画素4200、4201、4202、4203、4210、4220のそれぞれに適用する基準値として、どの領域に対応する基準値を採用するのかを示した表である。例えば、図21は、画素4200については、XY平面における領域10、かつ、Z方向における領域Bに対応する基準値を採用することが好ましいことを示している。コンピュータ150は、図21に示すような各画素と基準値の適用領域との関係を示すテーブルにしたがって、各画素に適用する基準値を決定することができる。 FIG. 21 is a table showing which region the reference value corresponds to as the reference value applied to each of the pixels 4200, 4201, 4202, 4203, 4210, and 4220 shown in FIG. For example, FIG. 21 shows that for the pixel 4200, it is preferable to adopt the reference value corresponding to the region 10 in the XY plane and the region B in the Z direction. The computer 150 can determine the reference value to be applied to each pixel according to the table showing the relationship between each pixel and the application region of the reference value as shown in FIG.

このように、ターゲットが存在しない領域を平面的、立体的に複数に分割し、それぞれの分割領域における相関値等のパラメータからターゲットを判別する基準値を導出することで、精度良くターゲットを判別することができる。 In this way, by dividing the area where the target does not exist into a plurality of two-dimensionally and three-dimensionally and deriving a reference value for discriminating the target from the parameters such as the correlation value in each divided area, the target is accurately discriminated. be able to.

ただし、ターゲットが存在しない領域の分割手法は、これまで説明したものに限定されない。良好にターゲット判別を実施できる限り、特定の手法に限定されない。 However, the method of dividing the area where the target does not exist is not limited to the method described above. The method is not limited to a particular method as long as the target discrimination can be performed well.

また、ターゲットとアーチファクトの判別を行う際、相関値だけでなく、合成画像の画像値といった、判別の対象となる画像の画像値も併せて考慮して、判別を行っても良い。 Further, when the target and the artifact are discriminated, not only the correlation value but also the image value of the image to be discriminated such as the image value of the composite image may be taken into consideration for the discrimination.

被検体表面付記の血管を除去して、被検体の表面から遠い血管構造を残した画像を生成してもよい。また、被検体表面付近の血管と、被検体表面から遠い領域に存在する血管を色分けするなどして、血管構造の視認性を向上させることもできる。 The blood vessels on the surface of the subject may be removed to generate an image in which blood vessel structures far from the surface of the subject remain. Further, the visibility of the blood vessel structure can be improved by, for example, color-coding the blood vessels near the surface of the subject and the blood vessels existing in the region far from the surface of the subject.

相関値の算出に用いる画像データの画像化範囲については、コンピュータ150がユーザーの指示に基づいて決定してもよい。また、コンピュータ150が複数の画像化範囲に対応する候補画像データを生成し、候補画像データを用いた相関値算出テストを実施し、最適な画像データの画像化範囲を導出するようにしてもよい。 The computer 150 may determine the imaging range of the image data used to calculate the correlation value based on a user's instruction. Further, the computer 150 may generate candidate image data corresponding to a plurality of imaging ranges, perform a correlation value calculation test using the candidate image data, and derive an optimal imaging range of the image data. ..

必ずしも合成画像データと相関値の両方を生成しなければならないというものではない。合成画像データのみを生成してもよいし、相関値のみを生成してもよい。片方のみを生成するか、両方を生成するかを選択できるようにしてもよい。 It is not always necessary to generate both the synthetic image data and the correlation value. Only the composite image data may be generated, or only the correlation value may be generated. It may be possible to select whether to generate only one or both.

なお、本実施形態において、ターゲットとアーチファクトの判別基準となる相関値の値を設定する場合には、撮像領域において、ターゲットが存在しないことが明らかである領域を解析することも有効であると述べた。 It should be noted that, in the present embodiment, when setting the value of the correlation value serving as the discrimination criterion between the target and the artifact, it is also effective to analyze a region in which the target is clearly absent in the imaging region. It was

ここまでは、相関値をパラメータとして、ターゲットとアーチファクトを判別することについて述べたが、パラメータは相関値に限定されない。現実的に演算が可能であり、ターゲットとアーチファクトとを判別できるパラメータであれば、相関値に限定されない。すなわち、特徴情報取得手段としてのコンピュータ150は、注目位置における複数の第1画像データの画像値群の特徴を表す特徴情報を取得してもよい。そして、存在情報取得手段としてのコンピュータ150は、この特徴情報に基づいて、注目位置にターゲットが存在する可能性を表す存在情報を取得してもよい。例えば、ターゲットの存在可能性を求めることのできる特徴情報としては、分散値、期待値、尖度、エントロピー値などを採用することができる。 Up to this point, it has been described that the target and the artifact are discriminated using the correlation value as a parameter, but the parameter is not limited to the correlation value. The parameter is not limited to the correlation value as long as the parameter can be calculated realistically and the target and the artifact can be discriminated. That is, the computer 150 as the characteristic information acquisition unit may acquire the characteristic information indicating the characteristic of the image value group of the plurality of first image data at the attention position. Then, the computer 150 as the presence information acquisition unit may acquire the presence information indicating the possibility that the target exists at the position of interest, based on the characteristic information. For example, a variance value, an expected value, a kurtosis, an entropy value, or the like can be adopted as the characteristic information that can determine the possibility of existence of the target.

画像データの表示については2次元、3次元で行ってよく、またボリュームレンダリングやサーフェスレンダリングなどの画像処理を行って表示してもよい。 The image data may be displayed two-dimensionally or three-dimensionally, or may be displayed by performing image processing such as volume rendering or surface rendering.

相関情報に基づいて合成画像に対して画素の有効化または無効化を行う場合を例に説明を行ってきたが、有効化または無効化の対象は合成画像に限定されない。例えば、異なる光の波長を用いて得られた合成画像から得られる酸素飽和度画像や、グルコースやコレステロールなどの濃度分布を示す画像の画素を有効化または無効化してもよい。 Although the case has been described as an example where the pixels are validated or invalidated in the composite image based on the correlation information, the target of validation or invalidation is not limited to the composite image. For example, pixels of an oxygen saturation image obtained from a combined image obtained by using different light wavelengths or an image of an image showing a concentration distribution of glucose, cholesterol, or the like may be enabled or disabled.

また、本実施形態において、光音響装置を例に説明を行ってきたが、本実施形態に係る情報処理は、必ずしも光音響装置への適用に限定されるものではない。複数の画像データを用いて情報処理を行う情報処理装置において、複数の画像データのうち、少なくとも1つの画素が重なりあうような場合にも、本実施形態は適用可能なものである。情報処理装置においては取り扱う画像データの種類は、必ずしも医用診断に係わるものである必要はなく、いかなる種類の画像データであっても良い。 Although the photoacoustic apparatus has been described as an example in the present embodiment, the information processing according to the present embodiment is not necessarily limited to application to the photoacoustic apparatus. In an information processing device that performs information processing using a plurality of image data, the present embodiment is applicable even when at least one pixel of the plurality of image data overlaps. In the information processing apparatus, the type of image data handled need not necessarily be related to medical diagnosis, and may be any type of image data.

本発明の実施形態において、内積の相関値を演算の例として説明を行った。しかし、1回の撮像で得られる画像データを順次用いることで、内積の相関値以外にも複数種類の演算を実施することが可能である。よって、相関値、分散値、期待値、尖度、ヒストグラムの度数データ、エントロピー、平均値、累積加算値、累積加算回数、偏差、共分散、標準偏差、相関係数、累積乗算、累積減算、累積除算、加減乗除などのいかなる組み合わせによって実現される演算結果も、本実施形態におけるターゲットの判別に用いられるパラメータの範囲に含まれるものである。 In the embodiment of the present invention, the correlation value of the inner product has been described as an example of calculation. However, it is possible to perform a plurality of types of calculations other than the correlation value of the inner product by sequentially using the image data obtained by one imaging. Therefore, correlation value, variance value, expected value, kurtosis, histogram frequency data, entropy, average value, cumulative addition value, cumulative addition count, deviation, covariance, standard deviation, correlation coefficient, cumulative multiplication, cumulative subtraction, The calculation result realized by any combination of cumulative division, addition, subtraction, multiplication, division, etc. is included in the range of parameters used for target discrimination in the present embodiment.

さらに、コンピュータ150が基準値を変化させた画像を同時あるいは切り替えて表示するモードを用意し、画像からユーザーもしくはコンピュータ150がターゲット判定状況を確認し、最適な基準値を決定するようにしてもよい。すなわち、コンピュータ150が最適な基準値を自動決定してもよい。なお、基準値を変化させた複数の画像の表示態様は最適な基準値を決定するのに有効である限り、特定のものに限定されない。 Furthermore, a mode may be prepared in which the computer 150 displays images with the reference value changed at the same time or by switching, and the user or the computer 150 confirms the target determination condition from the image and determines the optimum reference value. .. That is, the computer 150 may automatically determine the optimum reference value. Note that the display mode of a plurality of images with different reference values is not limited to a particular one as long as it is effective for determining the optimum reference value.

このようにして判定された基準値は、ユーザーもしくは第三者が確認可能なように表示されるようにしてもよい。また、コンピュータ150は最適な基準値をユーザーが決定中である、もしくはコンピュータ150が最適な基準値を決定するモードに設定されていることを、ユーザーもしくは第三者が確認可能なように表示部160に表示させてもよい。 The reference value thus determined may be displayed so that the user or a third party can confirm it. In addition, the computer 150 is provided with a display section so that the user or a third party can confirm that the user is determining the optimum reference value or that the computer 150 is set in the mode for determining the optimum reference value. It may be displayed on 160.

なお、コンピュータ150は、第1画像データの画像化範囲(第1画像化範囲)よりも小さい画像化範囲(第3画像化範囲)の光音響画像データ(第3画像データ)を取得してもよい。そして、コンピュータ150は、注目位置における第3画像データの画像値列と注目位置におけるテンプレートデータの画像値列との相関値を算出してもよい。第3画像データの取得方法は、第1画像データまたは第2画像データの場合と同様であるため、省略する。なお、コンピュータ150は、第1画像データの一部を抽出することにより第3画像データを生成してよい。また、第2画像データを第3画像データとして用いてもよい。また、この相関値の算出方法は、上述した相関値の算出方法と同様であるため、省略する。 The computer 150 may acquire the photoacoustic image data (third image data) in the imaging range (third imaging range) smaller than the imaging range of the first image data (first imaging range). Good. Then, the computer 150 may calculate a correlation value between the image value sequence of the third image data at the attention position and the image value sequence of the template data at the attention position. The method for acquiring the third image data is the same as that for the first image data or the second image data, and thus the description thereof is omitted. The computer 150 may generate the third image data by extracting a part of the first image data. Also, the second image data may be used as the third image data. Further, the method of calculating the correlation value is the same as the method of calculating the correlation value described above, and therefore will be omitted.

本発明者は、第1画像データから得られた相関値(第1相関値)と第3画像データから得られた相関値(第2相関値)を比較した場合に、ターゲットが存在しない領域においては、第1相関値の相関値が第2相関値よりも低くなる傾向があることを見出した。また、ターゲットの存在する領域においては、第1相関値は第2の相関値と同程度あるいは高くなる傾向があることを見出した。図22(a)は、ターゲットが存在する領域の深さ方向における第1相関値と第2相関値のプロファイルを示す。一方、図22(b)は、ターゲットが存在しない領域、例えばアーチファクト領域の深さ方向における第1相関値と第2相関値のプロファイルを示す。図22からも、ターゲットが存在しない領域を把握する場合には第1相関値が適しており、ターゲットが存在する領域を把握する場合には第2相関値が適している傾向があることがわかる。 When the inventor compares the correlation value (first correlation value) obtained from the first image data and the correlation value (second correlation value) obtained from the third image data, in a region where the target does not exist Found that the correlation value of the first correlation value tends to be lower than the second correlation value. It was also found that in the region where the target exists, the first correlation value tends to be the same as or higher than the second correlation value. FIG. 22A shows a profile of the first correlation value and the second correlation value in the depth direction of the region where the target exists. On the other hand, FIG. 22B shows a profile of the first correlation value and the second correlation value in the depth direction of the area where the target does not exist, for example, the artifact area. From FIG. 22 as well, it can be seen that the first correlation value tends to be suitable for grasping the region where the target does not exist, and the second correlation value tends to be suitable for grasping the region where the target exists. ..

そこで、コンピュータ150は、第1相関値の空間分布を示す画像と第2相関値の空間分布を示す画像とを含む画像を生成し、表示部160に表示させてもよい。 Therefore, the computer 150 may generate an image including an image showing the spatial distribution of the first correlation value and an image showing the spatial distribution of the second correlation value, and display the image on the display unit 160.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. This is the process to be executed.

150 コンピュータ
160 表示部
150 computer 160 display

Claims (15)

被検体への複数回の光照射により前記被検体から発生する光音響波に由来する前記複数回の光照射に対応する複数の第1画像データ、および、前記複数回の光照射に対応する複数の第2画像データを取得する画像データ取得手段と、
前記複数回の光照射に対応する複数のテンプレートデータを取得するテンプレートデータ取得手段と、
注目位置における前記複数の第1画像データの画像値列と、前記注目位置における前記複数のテンプレートデータの画像値列との相関を示す相関情報を取得する相関情報取得手段と、
前記複数の第2画像データを合成することにより合成画像データを生成する合成画像データ生成手段と、
前記相関情報と前記合成画像データとに基づいた画像を表示手段に表示させる表示制御手段と、
を有し、
前記複数の第1画像データのそれぞれの画像化範囲と、前記複数の第2画像データのそれぞれの画像化範囲とが異なる
ことを特徴とする情報処理装置。
A plurality of first image data corresponding to the plurality of times of light irradiation derived from a photoacoustic wave generated from the subject by a plurality of times of light irradiation to the subject, and a plurality of corresponding to the plurality of times of light irradiation. Image data acquisition means for acquiring the second image data of
Template data acquisition means for acquiring a plurality of template data corresponding to the plurality of times of light irradiation,
Correlation information acquisition means for acquiring correlation information indicating the correlation between the image value sequence of the plurality of first image data at the attention position and the image value sequence of the plurality of template data at the attention position,
Synthetic image data generation means for generating synthetic image data by synthesizing the plurality of second image data,
Display control means for displaying on the display means an image based on the correlation information and the composite image data;
Have
An information processing apparatus, wherein an imaging range of each of the plurality of first image data is different from an imaging range of each of the plurality of second image data.
前記複数の第1画像データのそれぞれの画像化範囲は、前記複数の第2画像データのそれぞれの画像化範囲よりも大きい
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein an imaging range of each of the plurality of first image data is larger than an imaging range of each of the plurality of second image data.
前記画像データ取得手段は、前記複数の第1画像データのそれぞれの一部を切り出すことにより、前記複数の第2画像データを生成する
ことを特徴とする請求項1または2に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the image data acquisition unit generates the plurality of second image data by cutting out a part of each of the plurality of first image data. ..
前記画像データ取得手段は、前記被検体への前記複数回の光照射により前記被検体から発生する光音響波を受信することにより得られる複数の受信信号のそれぞれに対して再構成を行うことにより、前記複数の第1画像データを生成する
ことを特徴とする請求項3に記載の情報処理装置。
The image data acquisition means, by performing reconstruction for each of a plurality of reception signals obtained by receiving the photoacoustic wave generated from the subject by the plurality of times of light irradiation to the subject The information processing apparatus according to claim 3, wherein the plurality of first image data are generated.
前記複数のテンプレートデータのそれぞれは、前記複数回の光照射及び前記光音響波の受信を実行する光音響装置の空間感度分布を反映したテンプレートデータである
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
5. Each of the plurality of template data is template data that reflects a spatial sensitivity distribution of a photoacoustic device that executes the light irradiation and the reception of the photoacoustic wave a plurality of times. The information processing apparatus according to any one of items.
前記複数のテンプレートデータのそれぞれは、前記複数回の光照射のそれぞれにおいて、前記注目位置に光吸収体が存在するときに生成されうる画像データの画像値の推定値である
ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
Each of the plurality of template data is an estimated value of an image value of image data that can be generated when a light absorber is present at the attention position in each of the plurality of light irradiations. Item 6. The information processing device according to any one of items 1 to 5.
前記テンプレートデータ取得手段は、前記複数回の光照射について、光音響波を受信する受信手段と前記注目位置との相対位置情報に基づいて、所定のテンプレートデータに座標を割り当てることにより、前記複数のテンプレートデータを取得する
ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
The template data acquisition means, for the plurality of times of light irradiation, based on the relative position information of the receiving means for receiving the photoacoustic wave and the position of interest, by assigning coordinates to predetermined template data, the plurality of The information processing apparatus according to claim 1, wherein template data is acquired.
前記テンプレートデータ取得手段は、
前記複数回の光照射について、光音響波を受信する受信手段と前記注目位置との相対位置情報を取得し、前記相対位置情報に対応するテンプレートデータを記憶手段から読み出すことにより、前記複数のテンプレートデータを取得する
ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
The template data acquisition means is
Regarding the plurality of times of light irradiation, the relative position information between the receiving unit that receives a photoacoustic wave and the position of interest is acquired, and the template data corresponding to the relative position information is read from the storage unit to obtain the plurality of templates. The information processing apparatus according to claim 1, wherein the information processing apparatus acquires data.
前記画像値列に含まれる画像値と、前記テンプレートデータの画像値とは、共通の光照射に対応づけられている
ことを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
9. The information processing according to claim 1, wherein the image value included in the image value sequence and the image value of the template data are associated with a common light irradiation. apparatus.
前記相関を示す情報に基づいた画像を表示手段に表示させる表示制御手段を更に有することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising display control means for displaying an image based on the information indicating the correlation on a display means. 前記複数の画像データは、前記複数回の光照射のそれぞれで光照射位置または光音響波の受信位置が異なるようにして生成された画像データである
ことを特徴とする請求項1に記載の情報処理装置。
The information according to claim 1, wherein the plurality of image data are image data generated such that a light irradiation position or a photoacoustic wave reception position is different for each of the plurality of light irradiations. Processing equipment.
被検体への複数回の光照射により前記被検体から発生する光音響波に由来する前記複数回の光照射に対応する複数の第1画像データ、および、前記複数回の光照射に対応する複数の第2画像データを生成し、
ある位置における前記複数の第1画像データの画像値群の特徴を表す特徴情報を取得し、
前記特徴情報に基づいて、前記ある位置にターゲットが存在する可能性を表す存在情報を取得し、
前記複数の第2画像データを合成することにより合成画像データを生成し、
前記複数の第1画像データのそれぞれの画像化範囲と、前記複数の第2画像データのそれぞれの画像化範囲とが異なる
ことを特徴とする情報処理方法。
A plurality of first image data corresponding to the plurality of times of light irradiation derived from a photoacoustic wave generated from the subject by a plurality of times of light irradiation to the subject, and a plurality of corresponding to the plurality of times of light irradiation. Generate the second image data of
Acquiring the characteristic information representing the characteristic of the image value group of the plurality of first image data at a certain position,
Based on the characteristic information, obtain the presence information indicating the possibility that the target exists at the certain position,
Generating composite image data by combining the plurality of second image data,
An information processing method, wherein the respective imaging ranges of the plurality of first image data are different from the respective imaging ranges of the plurality of second image data.
前記複数の第1画像データのそれぞれの画像化範囲は、前記複数の第2画像データのそれぞれの画像化範囲よりも大きい
ことを特徴とする請求項12に記載の情報処理方法。
The information processing method according to claim 12, wherein an imaging range of each of the plurality of first image data is larger than an imaging range of each of the plurality of second image data.
前記複数の第1画像データのそれぞれの一部を切り出すことにより、前記複数の第2画像データを生成する
ことを特徴とする請求項12または13に記載の情報処理方法。
The information processing method according to claim 12 or 13, wherein the plurality of second image data is generated by cutting out a part of each of the plurality of first image data.
請求項12から14のいずれか1項に記載の情報処理方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the information processing method according to any one of claims 12 to 14.
JP2019003583A 2019-01-11 2019-01-11 Information processing device, information processing method, and program Pending JP2020110362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019003583A JP2020110362A (en) 2019-01-11 2019-01-11 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019003583A JP2020110362A (en) 2019-01-11 2019-01-11 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2020110362A true JP2020110362A (en) 2020-07-27

Family

ID=71666025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019003583A Pending JP2020110362A (en) 2019-01-11 2019-01-11 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2020110362A (en)

Similar Documents

Publication Publication Date Title
JP6576424B2 (en) Display control apparatus, image display method, and program
US10945678B2 (en) Image processing apparatus, image processing method, and non-transitory storage medium
JP6742745B2 (en) Information acquisition device and display method
US20190029526A1 (en) Image processing apparatus, image processing method, and storage medium
EP3329843B1 (en) Display control apparatus, display control method, and program
JP6921782B2 (en) Display control device, image display method, and program
JP2018061716A (en) Information processing device, information processing method, and program
US20200275840A1 (en) Information-processing apparatus, method of processing information, and medium
WO2018230409A1 (en) Information processing device, information processing method, and program
JP2019118686A (en) Information processor, information processing method and program
JP2020110362A (en) Information processing device, information processing method, and program
JP6882108B2 (en) Image generator, image generation method, and program
JP2018143764A (en) Image generation device, image generation method and program
JP7277212B2 (en) Image processing device, image processing method and program
JP6929048B2 (en) Display control device, display method, and program
JP6929204B2 (en) Information processing equipment, information processing methods, and programs
JP2018126389A (en) Information processing apparatus, information processing method, and program
JP2017042603A (en) Subject information acquisition apparatus
JP2019097804A (en) Information processing device, information processing method, and program
JP2020162746A (en) Image processing device, image processing method, and program
WO2020040174A1 (en) Image processing device, image processing method, and program