JP7000139B2 - Image information processing device and display method - Google Patents

Image information processing device and display method Download PDF

Info

Publication number
JP7000139B2
JP7000139B2 JP2017231656A JP2017231656A JP7000139B2 JP 7000139 B2 JP7000139 B2 JP 7000139B2 JP 2017231656 A JP2017231656 A JP 2017231656A JP 2017231656 A JP2017231656 A JP 2017231656A JP 7000139 B2 JP7000139 B2 JP 7000139B2
Authority
JP
Japan
Prior art keywords
image
marker
photoacoustic
subject
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017231656A
Other languages
Japanese (ja)
Other versions
JP2019097861A (en
Inventor
吉洋 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017231656A priority Critical patent/JP7000139B2/en
Priority to PCT/JP2018/043721 priority patent/WO2019107391A1/en
Publication of JP2019097861A publication Critical patent/JP2019097861A/en
Priority to US16/885,840 priority patent/US11398061B2/en
Application granted granted Critical
Publication of JP7000139B2 publication Critical patent/JP7000139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、画像情報処理装置および表示方法に関する。 The present invention relates to an image information processing apparatus and a display method.

光源から発生したパルス光が被検体に照射されることによって音響波(光音響波)が発生する、光音響効果という現象がある。光音響イメージングは、光音響波を用いて被検体内部を画像化し、被検体の光学特性を反映した光音響画像(例えば血管像)を取得する技術である。 There is a phenomenon called photoacoustic effect, in which acoustic waves (photoacoustic waves) are generated when a subject is irradiated with pulsed light generated from a light source. Photoacoustic imaging is a technique for imaging the inside of a subject using photoacoustic waves and acquiring a photoacoustic image (for example, a blood vessel image) that reflects the optical characteristics of the subject.

特許文献1に記載の被検体検査装置は、被検体内で発生した音響波を受信して電気信号に変換する複数の変換素子が設けられた、半球状の支持体を備えている。被検体は薄いカップ状の保持部材により保持され、保持部材と変換素子との間には水などの音響マッチング媒体が配置される。光が支持体の下方から照射されると、音響マッチング媒体と保持部材を介して被検体に到達し、光音響波が発生する。支持体に備わる変換素子は、保持部材及び音響マッチング媒体を介して光音響波を受信する。 The subject inspection apparatus described in Patent Document 1 includes a hemispherical support provided with a plurality of conversion elements that receive acoustic waves generated in the subject and convert them into electrical signals. The subject is held by a thin cup-shaped holding member, and an acoustic matching medium such as water is arranged between the holding member and the conversion element. When light is emitted from below the support, it reaches the subject via the acoustic matching medium and the holding member, and a photoacoustic wave is generated. The conversion element provided on the support receives the photoacoustic wave via the holding member and the acoustic matching medium.

国際公開第2010/030817号International Publication No. 2010/030817

ここで、ユーザが光音響画像と被検体を見比べるときに、光音響画像と実際の被検体との位置関係を把握しにくい場合がある。例えば大腿部と掌を比べると、前者は後者に比べて広く、体表の特徴が少ない。そのため、光音響画像が実際の大腿部のどこに対応するのかの把握が比較的難しい。 Here, when the user compares the photoacoustic image with the subject, it may be difficult to grasp the positional relationship between the photoacoustic image and the actual subject. For example, when comparing the thigh and palm, the former is wider than the latter and has less features on the body surface. Therefore, it is relatively difficult to grasp where the photoacoustic image corresponds to the actual thigh.

本発明は上記課題に鑑みてなされたものであり、その目的は、光音響画像と被検体の対応の把握を容易にする技術を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for facilitating grasping the correspondence between a photoacoustic image and a subject.

本発明は、以下の構成を採用する。すなわち、
被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得部と、
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得部と、
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理部と、
を備
前記画像処理部は、前記重畳画像または前記光音響画像から、前記マーカーに由来する成分を低減する
ことを特徴とする画像情報処理装置である。
本発明は、また、以下の構成を採用する。すなわち、
被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得部と、
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得部と、
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理部と、
を備え、
前記画像処理部は、前記重畳画像または前記光音響画像から、前記マーカーを含む前記被検体の表面に由来する成分を低減する
ことを特徴とする画像情報処理装置である。

The present invention adopts the following configuration. That is,
A photoacoustic image acquisition unit that acquires a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light, and a photoacoustic image acquisition unit.
An optical image acquisition unit that acquires an optical image generated by optically imaging the subject and the marker, and an optical image acquisition unit.
An image in which a superposed image of the photoacoustic image and the optical image is generated and displayed on the display unit based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image. Processing unit and
Equipped with
The image processing unit is an image information processing apparatus characterized by reducing components derived from the marker from the superimposed image or the photoacoustic image.
The present invention also adopts the following configuration. That is,
A photoacoustic image acquisition unit that acquires a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light, and a photoacoustic image acquisition unit.
An optical image acquisition unit that acquires an optical image generated by optically imaging the subject and the marker, and an optical image acquisition unit.
An image in which a superposed image of the photoacoustic image and the optical image is generated and displayed on the display unit based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image. Processing unit and
Equipped with
The image processing unit reduces components derived from the surface of the subject, including the marker, from the superimposed image or the photoacoustic image.
It is an image information processing device characterized by this.

本発明は、また、以下の構成を採用する。すなわち、
被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得ステップと、
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得ステップと、
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理ステップと、
を有
前記画像処理ステップでは、前記重畳画像または前記光音響画像から、前記マーカーに由来する成分を低減する
ことを特徴とする表示方法である。
本発明は、また、以下の構成を採用する。すなわち、
被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得ステップと、
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得ステップと、
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理ステップと、
を有し、
前記画像処理ステップでは、前記重畳画像または前記光音響画像から、前記マーカーを含む前記被検体の表面に由来する成分を低減する
ことを特徴とする表示方法である。
The present invention also adopts the following configuration. That is,
A photoacoustic image acquisition step of acquiring a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light,
An optical image acquisition step of acquiring an optical image generated by optically imaging the subject and the marker, and
An image in which a superposed image of the photoacoustic image and the optical image is generated and displayed on the display unit based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image. Processing steps and
Have ,
The image processing step is a display method characterized by reducing components derived from the marker from the superimposed image or the photoacoustic image.
The present invention also adopts the following configuration. That is,
A photoacoustic image acquisition step of acquiring a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light,
An optical image acquisition step of acquiring an optical image generated by optically imaging the subject and the marker, and
An image in which a superimposed image in which the photoacoustic image and the optical image are superimposed is generated based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image and displayed on the display unit. Processing steps and
Have,
In the image processing step, components derived from the surface of the subject including the marker are reduced from the superimposed image or the photoacoustic image.
It is a display method characterized by that.

本発明によれば、光音響画像と被検体の対応の把握を容易にする技術を提供できる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a technique for facilitating grasping the correspondence between a photoacoustic image and a subject.

実施例1の被検体情報取得装置の概念図Conceptual diagram of the subject information acquisition device of Example 1 実施例1の処理のフロー図Flow diagram of processing of Example 1 被検体の対象領域にマーカーを配置した様子を示す図The figure which shows the appearance that the marker was arranged in the target area of a subject 光学像の一例を示す図The figure which shows an example of an optical image 光音響画像の一例を示す図Diagram showing an example of a photoacoustic image 重畳画像の一例を示す図Diagram showing an example of a superimposed image 実施例2の保持部材にマーカーを配置した様子を示す図The figure which shows the appearance which the marker was arranged on the holding member of Example 2. 実施例3の重畳画像の一例を示す図The figure which shows an example of the superimposed image of Example 3. 実施例4の被検体情報取得装置の概念図Conceptual diagram of the subject information acquisition device of Example 4 実施例4の合成画像生成の概念図Conceptual diagram of composite image generation of Example 4 実施例4のマーカーの別の例を示す図The figure which shows another example of the marker of Example 4.

以下に図面を参照しつつ、本発明の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状およびそれらの相対配置などは、発明が適用される装置の構成や各種条件により適宜変更されるべきものである。よって、この発明の範囲を以下の記載に限定する趣旨のものではない。 A preferred embodiment of the present invention will be described below with reference to the drawings. However, the dimensions, materials, shapes and relative arrangements of the components described below should be appropriately changed depending on the configuration of the apparatus to which the invention is applied and various conditions. Therefore, the scope of the present invention is not intended to be limited to the following description.

本発明は、被検体から伝播する音響波を検出し、被検体内部の特性情報(被検体情報)を生成し、取得する技術に関する。よって本発明は、音響波装置またはその制御方法、被検体情報取得装置またはその制御方法として捉えられる。本発明はまた、画像情報処理装置またはその制御方法、または画像処理方法として捉えられる。本発明はまた、被検体情報取得方法や信号処理方法として捉えられる。本発明はまた、これらの方法をCPUやメモリ等のハードウェア資源を備える情報処理装置に実行させるプログラムや、そのプログラムを格納した、コンピュータにより読み取り可能な非一時的な記憶媒体としても捉えられる。 The present invention relates to a technique for detecting an acoustic wave propagating from a subject and generating and acquiring characteristic information (subject information) inside the subject. Therefore, the present invention can be regarded as an acoustic wave device or a control method thereof, a subject information acquisition device or a control method thereof. The present invention is also regarded as an image information processing apparatus or a control method thereof, or an image processing method. The present invention is also regarded as a subject information acquisition method and a signal processing method. The present invention can also be regarded as a program for executing these methods in an information processing apparatus having hardware resources such as a CPU and a memory, and a non-temporary storage medium that stores the program and can be read by a computer.

本発明の被検体情報取得装置には、被検体に光(電磁波)を照射することにより被検体内で発生した音響波を受信して、被検体の特性情報を画像データとして取得する光音響効果を利用した光音響装置が含まれる。この場合、特性情報とは、受信された光音響波に由来する信号を用いて生成される、被検体内の複数位置のそれぞれに対応する特性値の情報である。例えば特性情報は、光照射によって生じた音響波の発生源分布、被検体内の初期音圧分布、あるいは初期音圧分布から導かれる光エネルギー吸収密度分布や吸収係数分布、組織を構成する物質の濃度分布を示す。物質の濃度分布とは、酸素飽和度分布、トータルヘモグロビン濃度分布、酸化・脱酸化ヘモグロビン濃度分布などである。 The subject information acquisition device of the present invention has a photoacoustic effect of receiving acoustic waves generated in a subject by irradiating the subject with light (electromagnetic waves) and acquiring characteristic information of the subject as image data. Includes photoacoustic devices that utilize. In this case, the characteristic information is information on characteristic values corresponding to each of a plurality of positions in the subject, which is generated by using a signal derived from the received photoacoustic wave. For example, the characteristic information includes the source distribution of acoustic waves generated by light irradiation, the initial sound pressure distribution in the subject, the light energy absorption density distribution and absorption coefficient distribution derived from the initial sound pressure distribution, and the substances that make up the tissue. Shows the concentration distribution. The substance concentration distribution includes an oxygen saturation distribution, a total hemoglobin concentration distribution, an oxidized / deoxidized hemoglobin concentration distribution, and the like.

また、複数位置の被検体情報である特性情報を、2次元または3次元の特性分布として取得してもよい。特性分布は被検体内の特性情報を示す画像データとして生成され得る。
画像データは例えば、画像再構成による3次元ボリュームデータとして生成される。
Further, the characteristic information which is the subject information at a plurality of positions may be acquired as a two-dimensional or three-dimensional characteristic distribution. The characteristic distribution can be generated as image data showing characteristic information in the subject.
The image data is generated as, for example, three-dimensional volume data by image reconstruction.

また、血液に特徴的な吸収係数を示す部分を強調することにより、被検体内部での血管構造を画像化することもできる。そのとき、酸素飽和度に基づいて動脈と静脈それぞれの分布を画像化することもできる。 It is also possible to image the vascular structure inside the subject by emphasizing the portion showing the absorption coefficient characteristic of blood. At that time, the distribution of each of the arteries and veins can be imaged based on the oxygen saturation.

本発明でいう音響波とは、典型的には超音波であり、音波、音響波と呼ばれる弾性波を含む。トランスデューサ等により音響波から変換された信号(例えば電気信号)を音響信号または受信信号とも呼ぶ。ただし、明細書中の超音波または音響波という記載は、弾性波の波長を限定する意図ではない。光音響効果により発生した音響波は、光音響波または光超音波と呼ばれる。光音響波に由来する信号(例えば電気信号)を光音響信号とも呼ぶ。光音響信号から画像再構成等により生成された画像を、光音響画像とも呼ぶ。 The acoustic wave referred to in the present invention is typically an ultrasonic wave, and includes a sound wave and an elastic wave called an acoustic wave. A signal converted from an acoustic wave by a transducer or the like (for example, an electric signal) is also referred to as an acoustic signal or a received signal. However, the description of ultrasonic waves or acoustic waves in the specification is not intended to limit the wavelength of elastic waves. The acoustic wave generated by the photoacoustic effect is called a photoacoustic wave or an optical ultrasonic wave. A signal derived from a photoacoustic wave (for example, an electric signal) is also called a photoacoustic signal. An image generated from a photoacoustic signal by image reconstruction or the like is also called a photoacoustic image.

ところで、皮弁の採取手術の際に、皮弁採取部位の光音響測定を行って光音響画像(血管像)を取得し、この血管像から血管の位置や走行状態を把握することにより、採取する皮弁の位置と範囲の決定に役立てることが検討されている。このとき術者は、血管像が被検体のどの部分に対応するかを把握する必要がある。しかし通常、皮弁採取には、大腿部などの、比較的広く体表形状に特徴が少ない領域が用いられる。そのため、血管像と実際の被検体との位置関係の特定が難しくなるおそれがある。 By the way, at the time of flap collection surgery, photoacoustic measurement of the flap collection site is performed to obtain a photoacoustic image (blood vessel image), and the position and running state of the blood vessel are grasped from this blood vessel image. It is being considered to be useful in determining the position and range of flaps to be operated. At this time, the operator needs to know which part of the subject the blood vessel image corresponds to. However, for flap collection, a relatively wide area with few features on the body surface shape, such as the thigh, is usually used. Therefore, it may be difficult to identify the positional relationship between the blood vessel image and the actual subject.

そこで以下の各実施例では、光音響画像と被検体の対応関係の把握を容易にするために、光音響画像が被検体のどの場所に位置するのかを術者に分かりやすく提示する。これにより術者は、血管像に基づいて血管(たとえば穿通枝)の実際の被検体における位置を把握し、良好に皮弁を採取できるようになる。 Therefore, in each of the following examples, in order to facilitate understanding of the correspondence between the photoacoustic image and the subject, the operator is presented with an easy-to-understand location of the photoacoustic image in the subject. This enables the operator to grasp the position of the blood vessel (for example, the penetrating branch) in the actual subject based on the blood vessel image, and to collect the flap well.

<実施例1>
ここでは、基本的な実施の形態について説明する。本実施例では、マーカーが被検体に直接配置される。図1は、本実施例の被検体情報取得装置1の概念図である。
<Example 1>
Here, a basic embodiment will be described. In this example, the marker is placed directly on the subject. FIG. 1 is a conceptual diagram of the subject information acquisition device 1 of this embodiment.

(装置の構成)
被検体2は、保持部200により保持される。被検体2と保持部材200の間には、音響波が伝達しやすいように音響マッチング媒体(不図示)を充填してもよい。音響マッチング媒体としては水、ゲル、ジェル等が挙げられる。保持部材としては、音響インピーダンスが人体に近く、光と音響波の透過性が高い材質が好ましい。例えばポリメチルペンテン、ポリエチレンテレフタレート、アクリルなどが好適である。また、音響波の多重反射によるS/N比の低下を防ぐために、メッシュ状の部材を利用してもよい。メッシュ部材の材質として、金属、繊維や樹脂などを利用できる。
(Device configuration)
The subject 2 is held by the holding unit 200. An acoustic matching medium (not shown) may be filled between the subject 2 and the holding member 200 so that acoustic waves can be easily transmitted. Examples of the acoustic matching medium include water, gel, gel and the like. As the holding member, a material having an acoustic impedance close to that of the human body and having high transparency of light and acoustic waves is preferable. For example, polymethylpentene, polyethylene terephthalate, acrylic and the like are suitable. Further, in order to prevent a decrease in the S / N ratio due to multiple reflections of acoustic waves, a mesh-shaped member may be used. As the material of the mesh member, metal, fiber, resin, etc. can be used.

また、メッシュ部材と、フィルム部材またはシート部材とを組み合わせた保持部材200も利用できる。その場合、メッシュ部材の上部(被検体側)または下部(変換素子側)に、樹脂等により形成されたフィルムまたはシート状の部材を配置する。これにより、フィルム部材の厚さを薄くしても被検体を保持できるので、音響波と光の透過性が高まる。また、フィルム部材により被検体側と変換素子側の音響マッチング媒体を分離できるので、清潔さや、音響マッチング媒体の交換容易性が向上する。なお、フィルムを支える骨格部材はメッシュには限定されず、例えば傘の骨のような形状でも良い。 Further, a holding member 200 in which a mesh member and a film member or a sheet member are combined can also be used. In that case, a film or sheet-like member formed of resin or the like is arranged on the upper part (subject side) or lower part (conversion element side) of the mesh member. As a result, the subject can be held even if the thickness of the film member is reduced, so that the transmission of acoustic waves and light is enhanced. Further, since the acoustic matching medium on the subject side and the acoustic matching medium on the conversion element side can be separated by the film member, cleanliness and ease of replacement of the acoustic matching medium are improved. The skeleton member that supports the film is not limited to the mesh, and may be shaped like the bone of an umbrella, for example.

光源100から照射された光は、光伝送路120を経て、支持体下方の照射端140から照射される。光伝送路120は、光ファイバ、ミラー、プリズム、レンズなどの光学部材で構成される。照射光が、被検体内部や被検体表面上や、保持部材200上の光吸収体に吸収されると、光音響波が発生する。支持体300に支持された複数の変換素子320
は、光音響波を受信して電気信号(光音響信号)に変換する。
The light emitted from the light source 100 is emitted from the irradiation end 140 below the support via the optical transmission path 120. The optical transmission line 120 is composed of optical members such as optical fibers, mirrors, prisms, and lenses. When the irradiation light is absorbed inside the subject, on the surface of the subject, or by the light absorber on the holding member 200, a photoacoustic wave is generated. A plurality of conversion elements 320 supported by the support 300
Receives photoacoustic waves and converts them into electrical signals (photoacoustic signals).

光源100は、効率的に光音響波を発生させるため、1~100ナノ秒程度のパルス幅の光を照射する。被検体が生体の場合、光の波長としては600nmから1100nm程度が好ましい。光源100の種類としては、Nd:YAGレーザ、アレクサンドライトレーザ、Ti-saレーザ、OPOレーザが利用できる。また、LEDや半導体レーザなども利用できる。また、波長可変レーザなどの、複数の波長の光を照射可能な光源100を用いることで、酸素飽和度など被検体内の物質濃度を取得できる。 The light source 100 irradiates light having a pulse width of about 1 to 100 nanoseconds in order to efficiently generate photoacoustic waves. When the subject is a living body, the wavelength of light is preferably about 600 nm to 1100 nm. As the type of the light source 100, an Nd: YAG laser, an alexandrite laser, a Ti-sa laser, and an OPO laser can be used. Further, LEDs, semiconductor lasers, and the like can also be used. Further, by using a light source 100 capable of irradiating light having a plurality of wavelengths such as a tunable laser, it is possible to obtain a substance concentration in the subject such as oxygen saturation.

支持体300は金属や樹脂などで作られた半球状の部材である。複数の変換素子320は、指向軸が集まる高感度領域が形成されるように支持体300に配置される。なお、保持部材や支持体の構造は上記に限定されない。例えば、被検体を圧迫保持する板状の保持部材を用いてもよい。また、変換素子は単素子でもよいし、リニア状または平面状に配列されていても良い。保持部材と変換素子との間には、音響波が伝搬可能な音響マッチング媒体(不図示)が設けられる。音響マッチング媒体として水、ゲル、ジェル等が挙げられる。 The support 300 is a hemispherical member made of metal, resin, or the like. The plurality of conversion elements 320 are arranged on the support 300 so as to form a high-sensitivity region in which the directional axes are gathered. The structure of the holding member and the support is not limited to the above. For example, a plate-shaped holding member that presses and holds the subject may be used. Further, the conversion element may be a single element, or may be arranged linearly or planarly. An acoustic matching medium (not shown) capable of propagating an acoustic wave is provided between the holding member and the conversion element. Examples of the acoustic matching medium include water, gel, and gel.

カメラ500は、被検体に対して変換素子側に配置された光学撮像装置である。カメラ500は可視光や赤外光などを用いて光音響測定の対象領域を光学的に撮影し、得られた光学像を画像データとして情報処理装置に送る。 The camera 500 is an optical image pickup device arranged on the conversion element side with respect to the subject. The camera 500 optically captures a target area for photoacoustic measurement using visible light, infrared light, or the like, and sends the obtained optical image as image data to an information processing apparatus.

駆動部600は、支持体を被検体に対して相対的に移動させるための、駆動ステージなどで構成された移動機構(不図示)を制御する。駆動部600が支持体を移動させた複数の位置で光音響測定を行うことで、被検体の広い領域の光音響画像が取得できる。駆動部600は、被検体の下方の移動面において、支持体300を、スパイラルスキャンやラスタースキャンなどの方法で移動させる。そして、一定の周期で光照射および光音響波の受信を繰り返す。駆動部はパルス光の、照射位置を再構成部に送信する。 The drive unit 600 controls a movement mechanism (not shown) composed of a drive stage or the like for moving the support relative to the subject. By performing photoacoustic measurement at a plurality of positions where the drive unit 600 has moved the support, a photoacoustic image of a wide area of the subject can be acquired. The drive unit 600 moves the support 300 on the moving surface below the subject by a method such as a spiral scan or a raster scan. Then, light irradiation and reception of photoacoustic waves are repeated at regular intervals. The drive unit transmits the irradiation position of the pulsed light to the reconstruction unit.

信号取得部400は、光音響波を受信した変換素子から順次出力される光音響信号を増幅し、デジタル信号に変換して、再構成部840に送信する。信号取得部400は増幅器やADコンバータ等により構成される。 The signal acquisition unit 400 amplifies the photoacoustic signal sequentially output from the conversion element that has received the photoacoustic wave, converts it into a digital signal, and transmits it to the reconstruction unit 840. The signal acquisition unit 400 is composed of an amplifier, an AD converter, and the like.

情報処理装置800は機能ブロックとして、制御部810、光学像取得部820、再構成部840、画像処理部850、記憶部870を備える。情報処理装置800としては、プロセッサやメモリ等の演算資源を備え、プログラムの指示に従って動作するコンピュータやワークステーションを利用できる。情報処理装置800は、必ずしも各機能ブロックに対応する具体的な構成(処理回路など)を備えていなくても良い。各機能ブロックは、それぞれの処理を行うプログラムモジュールとして仮想的に実現されても良い。必ずしも全ての機能ブロックが1つのコンピュータに含まれる必要はなく、情報送受信可能に接続された複数のコンピュータが協働して情報処理装置800を構成しても良い。 The information processing apparatus 800 includes a control unit 810, an optical image acquisition unit 820, a reconstruction unit 840, an image processing unit 850, and a storage unit 870 as functional blocks. As the information processing apparatus 800, a computer or workstation equipped with computational resources such as a processor and a memory and operating according to a program instruction can be used. The information processing apparatus 800 does not necessarily have to have a specific configuration (processing circuit or the like) corresponding to each functional block. Each functional block may be virtually realized as a program module that performs each process. It is not always necessary that all the functional blocks are included in one computer, and a plurality of computers connected so as to be able to transmit and receive information may cooperate to form the information processing apparatus 800.

制御部810は、被検体情報取得装置1の各構成の動作や、光源100の光照射タイミング、変換素子320による信号取得タイミング、駆動部600による支持体300の移動位置や移動速度、カメラ500による光学撮像のタイミングや撮像方法などを制御する。光学像取得部820は、カメラ500から画像データを受信して、必要に応じて補正等の処理を施した上で記憶部に保存する。 The control unit 810 depends on the operation of each configuration of the subject information acquisition device 1, the light irradiation timing of the light source 100, the signal acquisition timing by the conversion element 320, the moving position and moving speed of the support 300 by the driving unit 600, and the camera 500. It controls the timing of optical imaging and the imaging method. The optical image acquisition unit 820 receives image data from the camera 500, performs processing such as correction as necessary, and stores the image data in the storage unit.

再構成部840は、信号取得部400からの光音響信号と、駆動部600からの光音響信号取得位置情報を元に画像再構成を行い、被検体の対象領域の特性情報分布を取得する。画像再構成には、整相加算法やフーリエ変換法など任意の手法を利用できる。取得され
た特性情報分布は、画像処理部850に送信される。再構成部840は、本発明の光音響画像取得部に相当する。画像処理部850は、後述する重ね合わせ処理によって表示画像を生成する。
The reconstruction unit 840 performs image reconstruction based on the photoacoustic signal from the signal acquisition unit 400 and the photoacoustic signal acquisition position information from the drive unit 600, and acquires the characteristic information distribution of the target region of the subject. Any method such as phasing addition method or Fourier transform method can be used for image reconstruction. The acquired characteristic information distribution is transmitted to the image processing unit 850. The reconstruction unit 840 corresponds to the photoacoustic image acquisition unit of the present invention. The image processing unit 850 generates a display image by a superposition process described later.

記憶部870は、制御部810による制御情報、光音響信号、光学像の画像データ、再構成した特性情報分布データ、後述する画像処理部850によって処理された画像データなど、被検体情報取得装置1の動作に伴って発生するデータを一時的または恒久的に保存し、必要に応じて出力する。 The storage unit 870 is a subject information acquisition device 1 such as control information by the control unit 810, photoacoustic signals, image data of an optical image, reconstructed characteristic information distribution data, and image data processed by the image processing unit 850 described later. Temporarily or permanently saves the data generated by the operation of, and outputs it as needed.

入力部880は、ユーザ(術者など)が指示情報を入力するための手段であり、例えば情報処理装置800のユーザインタフェース(マウス、キーボード、タッチパネルなど)を利用できる。表示部900としては、液晶ディスプレイや有機ELディスプレイなどの表示装置を利用できる。 The input unit 880 is a means for a user (operator or the like) to input instruction information, and for example, a user interface (mouse, keyboard, touch panel, etc.) of the information processing apparatus 800 can be used. As the display unit 900, a display device such as a liquid crystal display or an organic EL display can be used.

(処理フロー)
図2を用いて、本実施例の処理の流れの概要を説明する。ステップS101において、ユーザが、所定の場所にマーカー250を配置する。マーカー250は、光を吸収して音響波を発生する光吸収体である。マーカーの配置場所、種類、材質については後述する。そしてユーザは、装置の動作に関するパラメータを設定する。パラメータには、被検体における画像化の対象領域、駆動部600による走査の経路や速度、光音響測定時の光照射の強度や間隔、光音響画像や光学像の画質など、重畳画像作成に関する諸元が含まれる。そしてユーザは、被検体を保持部材200に設置する。
(Processing flow)
The outline of the processing flow of this Example will be described with reference to FIG. In step S101, the user places the marker 250 at a predetermined location. The marker 250 is a light absorber that absorbs light and generates an acoustic wave. The location, type, and material of the marker will be described later. Then, the user sets parameters related to the operation of the device. Parameters include the target area for imaging in the subject, the path and speed of scanning by the drive unit 600, the intensity and interval of light irradiation during photoacoustic measurement, and the image quality of photoacoustic images and optical images. The original is included. Then, the user installs the subject on the holding member 200.

ステップS102にて、カメラ500はパラメータに従って光学撮像を行う。続いて、光学像取得部820が光学像を取得する。ステップS103では光音響測定が行われる。具体的には、光源100が光を照射し、変換素子320が光音響波を受信して光音響信号を出力する。光音響信号は記憶部870に保存される。 In step S102, the camera 500 performs optical imaging according to the parameters. Subsequently, the optical image acquisition unit 820 acquires an optical image. Photoacoustic measurement is performed in step S103. Specifically, the light source 100 irradiates light, and the conversion element 320 receives the photoacoustic wave and outputs a photoacoustic signal. The photoacoustic signal is stored in the storage unit 870.

ステップS104にて、制御部810は対象領域の光音響測定が完了したかどうかを判定する。完了の場合(YES)、処理はS106に進む。未完了(NO)の場合、ステップS105に進み、駆動部600によって支持体300が走査され、次の位置で光音響測定が行われる。ステップS106において、再構成部840は対象領域の光音響画像を生成して記憶部870に保存する。ステップS107において、画像処理部850は重畳画像データを生成し、表示部900に表示する。 In step S104, the control unit 810 determines whether or not the photoacoustic measurement of the target region is completed. If completed (YES), the process proceeds to S106. If not completed (NO), the process proceeds to step S105, the support 300 is scanned by the drive unit 600, and the photoacoustic measurement is performed at the next position. In step S106, the reconstruction unit 840 generates a photoacoustic image of the target area and stores it in the storage unit 870. In step S107, the image processing unit 850 generates superimposed image data and displays it on the display unit 900.

(画像の重ね合わせ)
光音響画像と光学像の重畳表示方法について、工程(1)~(4)の順に説明する。なお本実施例では、光吸収体であるマーカー250を、被検体に直接配置する。
(Overlaying images)
The method of superimposing and displaying the photoacoustic image and the optical image will be described in the order of steps (1) to (4). In this embodiment, the marker 250, which is a light absorber, is placed directly on the subject.

(工程1)マーカーを配置
本工程は、ステップS101に対応する。ユーザは、光音響測定および光学撮像を行う撮像部位であり、重畳画像生成の対象となる対象領域210に、図3に示すように複数のマーカーを配置する。
(Step 1) Placing a marker This step corresponds to step S101. The user arranges a plurality of markers as shown in FIG. 3 in a target area 210 which is an imaging site for performing photoacoustic measurement and optical imaging and is a target of superimposed image generation.

マーカー250としては、光音響測定に用いる波長において吸収特性を有する材質を用いる。例えば、黒色のインクが利用できる。その場合ユーザは、黒色インクを用いたペンを使って、被検体に直接マーカーを記載する。ただし、マーカー250はこれに限定されず、光音響画像と光学像の両方に描出されるものであればよい。一例として、カーボン等の光吸収体を含有するシールを利用できる。また、カーボン等を接着剤で被検体に貼付しても良い。マーカーから発生する光音響波の強度が、撮像部位から発生する光音響波の強
度と同程度であるか、一桁程度小さいことが望ましい。被検体内で光を吸収する代表的な物質であるヘモグロビンの吸収係数が0.3/mmから0.9/mmであることを考慮すると、マーカーの吸収係数は例えば0.05/mm以上1.0/mm以下の吸収係数であることが好ましい。
As the marker 250, a material having absorption characteristics at the wavelength used for photoacoustic measurement is used. For example, black ink can be used. In that case, the user writes the marker directly on the subject using a pen using black ink. However, the marker 250 is not limited to this, and may be any one that is drawn in both a photoacoustic image and an optical image. As an example, a seal containing a light absorber such as carbon can be used. Further, carbon or the like may be attached to the subject with an adhesive. It is desirable that the intensity of the photoacoustic wave generated from the marker is the same as or about an order of magnitude smaller than the intensity of the photoacoustic wave generated from the imaging site. Considering that the absorption coefficient of hemoglobin, which is a typical substance that absorbs light in a subject, is from 0.3 / mm to 0.9 / mm, the absorption coefficient of the marker is, for example, 0.05 / mm or more. The absorption coefficient is preferably 0.0 / mm or less.

マーカー250の形状としては、点状の他に、ライン状、マトリックス状、放射状、円状などでも良く、用途や対象領域のサイズに応じて選択できる。 The shape of the marker 250 may be a line shape, a matrix shape, a radial shape, a circular shape, or the like, in addition to the dot shape, and can be selected according to the application and the size of the target area.

また、ユーザが配置するマーカーの代わりに、あるいはユーザが配置するマーカーとともに、被検体に予め備わっている光吸収度の高い部分をマーカーとして用いてもよい。例えば、ホクロなどの色素が集積している箇所である。 Further, instead of the marker arranged by the user, or together with the marker arranged by the user, a portion having a high light absorption degree provided in advance in the subject may be used as a marker. For example, it is a place where pigments such as moles are accumulated.

(工程2)光学像取得
本工程は、ステップS102に対応する。カメラ500は、対象領域210に配置されたマーカー250全てが撮像視野に含まれるように調整して、光学撮像を行う。光学像取得部820は、画像データを受信して、必要であれば補正処理を行った上で記憶部870に保存する。図4は、光学像(対象領域光学像213)の概略図である。光学像には、位置合わせが可能な程度にマーカー(マーカー光学像253)が明確に写っていることが望まれる。また、対象領域が被検体のどの部位であるかをユーザに把握させるために、輪郭線など構造上の特徴が写っている必要がある。図4のように大腿部の画像の場合、左右の輪郭線が写り込んでいれば、方向や太さに基づいて、容易に対象領域を把握できる。
(Step 2) Optical image acquisition This step corresponds to step S102. The camera 500 adjusts so that all the markers 250 arranged in the target area 210 are included in the imaging field of view, and performs optical imaging. The optical image acquisition unit 820 receives the image data, performs correction processing if necessary, and stores the image data in the storage unit 870. FIG. 4 is a schematic view of an optical image (target area optical image 213). It is desirable that the marker (marker optical image 253) is clearly reflected in the optical image to the extent that alignment is possible. Further, in order for the user to understand which part of the subject the target area is, it is necessary to show structural features such as contour lines. In the case of the image of the thigh as shown in FIG. 4, if the left and right contour lines are reflected, the target area can be easily grasped based on the direction and the thickness.

(工程3)光音響画像取得
本工程は、ステップS103、S106に対応する。上述したように、光源100からの光照射によって発生した光音響波には、被検体に由来する成分とともに、マーカー250に由来する成分が含まれる。そのため、再構成部840により生成された光音響画像(図5の対象領域光音響画像215)にも、対象領域の血管に由来する像に加えてマーカーに由来する像(図5のマーカー光音響像255)が含まれる。
(Step 3) Photoacoustic image acquisition This step corresponds to steps S103 and S106. As described above, the photoacoustic wave generated by the light irradiation from the light source 100 includes a component derived from the marker 250 as well as a component derived from the subject. Therefore, in the photoacoustic image (target region photoacoustic image 215 in FIG. 5) generated by the reconstruction unit 840, in addition to the image derived from the blood vessel in the target region, the image derived from the marker (marker photoacoustic image in FIG. 5) is also included. Image 255) is included.

(工程4)重ね合わせ処理
本工程は、ステップS107に対応する。画像処理部850は、光音響画像と光学像のサイズを合わせたうえで、マーカー光学像253とマーカー光音響像255に基づいて位置合わせを行い、図6に示すように重畳画像220を生成する。なお、光音響画像と光学像の重ね合わせ処理に際して、光音響画像と光学像とにおける被検体の向きあるいは位置が異なる場合には、少なくとも一方の画像に対して回転処理あるいは移動処理を施してもよい。なお、これらの処理には既知の種々の手法が利用できる。
(Step 4) Superposition processing This step corresponds to step S107. The image processing unit 850 adjusts the sizes of the photoacoustic image and the optical image, aligns the image based on the marker optical image 253 and the marker photoacoustic image 255, and generates a superposed image 220 as shown in FIG. .. When the photoacoustic image and the optical image are superimposed, if the orientation or position of the subject in the photoacoustic image and the optical image is different, at least one of the images may be rotated or moved. good. Various known methods can be used for these processes.

本実施例によれば、マーカーの位置に基づいて光音響画像と光学像を精度良く重ね合わせることができる。その結果、ユーザは、光音響画像に示された血管像が被検体のどの部分に対応するのかを、被検体の輪郭などに基づいて正確に把握できる。 According to this embodiment, the photoacoustic image and the optical image can be accurately superimposed based on the position of the marker. As a result, the user can accurately grasp which part of the subject the blood vessel image shown in the photoacoustic image corresponds to, based on the contour of the subject and the like.

<実施例2>
本実施例では、マーカー250を被検体ではなく保持部材に配置する。以下、実施例1との相違点を中心に説明を行う。
<Example 2>
In this embodiment, the marker 250 is placed on the holding member instead of the subject. Hereinafter, the differences from the first embodiment will be mainly described.

図7は、本実施例の保持部材200を示す。図示したように、保持部材200にマーカー250が配置されている。保持部材200およびマーカー250としては、実施例1と同様の材質を利用できる。また保持部材200にマーカー250を配置する際にも、実施例1と同様に、ペンによる記載、シールまたは接着剤による貼付などの任意の手法を利用できる。さらに本実施例の場合、保持部材200を製造するときに、予めマーカー250
を埋め込んでおいても良い。マーカーは、光学像および光音響像のどちらでも確認できるようなものであれば、どのような材料を用いて構成されてもよい。一例としては、カーボンブラックが挙げられる。
FIG. 7 shows the holding member 200 of this embodiment. As shown, the marker 250 is arranged on the holding member 200. As the holding member 200 and the marker 250, the same materials as in the first embodiment can be used. Further, when arranging the marker 250 on the holding member 200, any method such as writing with a pen, sticking with a sticker, or sticking with an adhesive can be used as in the first embodiment. Further, in the case of this embodiment, when the holding member 200 is manufactured, the marker 250 is previously manufactured.
May be embedded. The marker may be constructed using any material as long as it can be confirmed by either an optical image or a photoacoustic image. One example is carbon black.

光音響測定、光学撮像、および、重畳画像生成については、実施例1と同様である。すなわち、カメラ500は、マーカー250が配置された保持部材200ごと、被検体を撮像する。また、変換素子320が受信する光音響波には、被検体に由来する成分と、保持部材上のマーカー250に由来する成分とが含まれている。画像処理部850は、光音響画像と光学像を、マーカーを目印として重ね合わせて、重畳画像220を生成する。 Photoacoustic measurement, optical imaging, and superimposed image generation are the same as in Example 1. That is, the camera 500 takes an image of the subject for each holding member 200 in which the marker 250 is arranged. Further, the photoacoustic wave received by the conversion element 320 includes a component derived from the subject and a component derived from the marker 250 on the holding member. The image processing unit 850 superimposes the photoacoustic image and the optical image using a marker as a marker to generate a superposed image 220.

本実施例においては、被検体にはマーカー250は配置されない。そこで、被検体の撮像部位を位置決めするための位置決めマーカーを別途、被検体に設けることが好ましい。位置決め用マーカーとしては、被検体の撮像部位に記載または貼付した目印を用いても良いし、ホクロなどの身体的な特徴を用いても良い。なお、位置決め用マーカーについては光音響波を発生させる必要はない。ユーザは光学撮像前に、位置決め用マーカーを用いて、撮像部位がカメラの視野の所望の位置に来るように調整する。 In this example, the marker 250 is not placed on the subject. Therefore, it is preferable to separately provide a positioning marker for positioning the imaging site of the subject on the subject. As the positioning marker, a mark described or affixed to the imaging site of the subject may be used, or a physical feature such as a mole may be used. It is not necessary to generate a photoacoustic wave for the positioning marker. Prior to optical imaging, the user adjusts the imaging region to a desired position in the field of view of the camera using a positioning marker.

本実施例によっても、光音響画像に示された血管等が被検体のどの部分に対応するのかを、被検体の輪郭などに基づいて精度良くに把握できるようになる。 Also in this embodiment, it becomes possible to accurately grasp which part of the subject the blood vessel or the like shown in the photoacoustic image corresponds to based on the contour of the subject or the like.

<実施例3>
上記各実施例で得られた重畳画像220には、マーカー250が描出されている。かかるマーカーは、位置を把握しやすくなるという利点がある反面、ユーザの視認性が低下するという問題もある。そこで本実施例では、表示画像からマーカーを除外する方法を説明する。以下の各変形例では、再構成部840が光音響画像からマーカーに由来する成分を削除または低減する方法を説明する。
<Example 3>
A marker 250 is drawn on the superimposed image 220 obtained in each of the above embodiments. While such a marker has an advantage that the position can be easily grasped, there is also a problem that the user's visibility is lowered. Therefore, in this embodiment, a method of excluding the marker from the displayed image will be described. Each of the following modifications describes a method in which the reconstruction unit 840 deletes or reduces the component derived from the marker from the photoacoustic image.

一方、光学像処理部820は、光学像からマーカーを除外する。または少なくとも、マーカーに由来する成分を低減する。具体的には、光学像処理部820は、まず、画素値に基づく画像処理や、ユーザによる入力部880を用いた指定により、光学像中のマーカーの範囲を決定する。続いて、決定したマーカー範囲の画素値を周辺からの補間処理によって補正する。なお通常、光学像においては輪郭線などの大まかな構造が把握できれば十分であり、被検体表面の細かな構造物を描出する必要性は低い。そこで、マーカーを含む被検体表面の解像度を下げたり、大腿部全体を一様な色で塗りつぶしたりしても良い。 On the other hand, the optical image processing unit 820 excludes the marker from the optical image. Or at least reduce the components derived from the marker. Specifically, the optical image processing unit 820 first determines the range of markers in the optical image by image processing based on pixel values or designation by the user using the input unit 880. Subsequently, the pixel value in the determined marker range is corrected by interpolation processing from the periphery. Normally, in an optical image, it is sufficient if a rough structure such as a contour line can be grasped, and it is not necessary to depict a fine structure on the surface of the subject. Therefore, the resolution of the surface of the subject including the marker may be lowered, or the entire thigh may be painted with a uniform color.

画像処理部850は、マーカーを削除済みの光音響画像と光学像を重ね合わせる。その場合でも、マーカーが画像中のどの位置に存在していたかは把握済みであるため、問題なく重ね合わせ処理を実行できる。画像処理部850は、また、マーカーを残したまま光音響画像と光学像を重ね合わせた後に、重畳画像からマーカーを削除しても良い。 The image processing unit 850 superimposes the photoacoustic image from which the marker has been deleted and the optical image. Even in that case, since it is already known at which position in the image the marker was present, the superposition process can be executed without any problem. The image processing unit 850 may also remove the marker from the superimposed image after superimposing the photoacoustic image and the optical image while leaving the marker.

(変形例1)表面の情報を削除する
ユーザが被検体内部の血管像を見たい場合、被検体表面部の情報が必要ではないことがありうる。そこで本変形例では、光音響信号や光音響画像から、被検体表面部に対応するデータを削除する。例えば、画像再構成により被検体の対象領域の表面から5cmの深さまでのボリュームデータが得られた場合を考える。この場合、被検体の表面に近い側の2mm分のボリュームデータを表示対象から除外することで、表示画像にマーカーが表示されないようにできる。当該深さ範囲のボリュームデータを削除してもよいし、当該深さ範囲のデータには、画面上には表示されないように識別子を付すなど、いかなる手法を用いてもよい。なお、実施例2のように保持部材にマーカーを配置した場合は、保持部材の厚み分のデータを表示対象から除外すれば良い。なお、ボリュームデータから表示用の二次
元画像を生成する方法は任意である。例えば、被検体の表面を基準にして一定の深さの画像データを抽出してもよい。また、MIP画像を生成しても良い。また、ある深さの断層像を選択してもよい。この場合、必ずしも全てのボリュームデータを生成する必要は無い。
(Modification 1) Deleting surface information When a user wants to see a blood vessel image inside a subject, the information on the surface of the subject may not be necessary. Therefore, in this modification, the data corresponding to the surface of the subject is deleted from the photoacoustic signal and the photoacoustic image. For example, consider the case where volume data up to a depth of 5 cm from the surface of the target area of the subject is obtained by image reconstruction. In this case, the marker can be prevented from being displayed on the display image by excluding the volume data for 2 mm on the side close to the surface of the subject from the display target. The volume data in the depth range may be deleted, or any method may be used such as attaching an identifier to the data in the depth range so that it is not displayed on the screen. When the marker is arranged on the holding member as in the second embodiment, the data corresponding to the thickness of the holding member may be excluded from the display target. The method of generating a two-dimensional image for display from the volume data is arbitrary. For example, image data having a certain depth may be extracted with reference to the surface of the subject. Further, a MIP image may be generated. Further, a tomographic image of a certain depth may be selected. In this case, it is not always necessary to generate all the volume data.

また、ボリュームデータを生成してから表面部分のデータを削除するのではなく、予め、光音響信号からマーカーに由来する成分を削除しておいても良い。記憶部に保存された光音響信号のうちどの部分がマーカーに由来するかは、光の照射タイミング、音響マッチング媒体および被検体の音速に基づいて算出できる。かかる光音響信号を用いて画像再構成を行うことで、マーカーが除外された光音響画像が生成される。 Further, instead of deleting the data of the surface portion after generating the volume data, the component derived from the marker may be deleted from the photoacoustic signal in advance. Which part of the photoacoustic signal stored in the storage unit is derived from the marker can be calculated based on the irradiation timing of light, the acoustic matching medium, and the speed of sound of the subject. By performing image reconstruction using such a photoacoustic signal, a photoacoustic image excluding the marker is generated.

(変形例2)マーカー情報を引き算する
本変形例では、マーカー形状を予め記憶部に記憶させておき、画像処理によって当該マーカーを削除して表示する。また、実施例2のように保持部材にマーカーを配置した場合は、被検体を保持部材に載置しない状態で予めマーカーだけを光音響測定して、マーカーに由来する光音響信号の成分を記憶部に保存しておき、光音響画像から当該保存した成分を減算する。
(Modification 2) Subtracting marker information In this modification, the marker shape is stored in the storage unit in advance, and the marker is deleted and displayed by image processing. Further, when the marker is arranged on the holding member as in Example 2, only the marker is photoacousticly measured in advance without placing the subject on the holding member, and the component of the photoacoustic signal derived from the marker is stored. It is stored in the unit, and the stored component is subtracted from the photoacoustic image.

(変形例3)酸素飽和度の違いを用いる
本変形例では、光音響画像中の酸素飽和度の値から血管像とマーカーとを識別し、マーカーを除外して表示する。本変形例の光源は、第1の波長と第2の波長を含む複数波長の光を照射可能である。再構成部は、各波長の吸収係数分布に基づき、酸化ヘモグロビンと脱酸素化ヘモグロビンの波長ごとの吸収係数の違いを利用して、酸素飽和度分布を示す画像データを生成する。例えば、動脈血の酸素飽和度は通常約95%であり、静脈血の酸素飽和度は約75%である。そこで、マーカーとして、照射光の波長において算出される酸素飽和度が静脈血より更に低い、例えば20%以下となる材料を選定することで、血管像とマーカーを識別できる。
(Modification 3) Using the difference in oxygen saturation In this modification, the blood vessel image and the marker are distinguished from the oxygen saturation value in the photoacoustic image, and the marker is excluded and displayed. The light source of this modification can irradiate light having a plurality of wavelengths including the first wavelength and the second wavelength. Based on the absorption coefficient distribution of each wavelength, the reconstruction unit generates image data showing the oxygen saturation distribution by utilizing the difference in the absorption coefficient of the oxidized hemoglobin and the deoxidized hemoglobin for each wavelength. For example, arterial blood has an oxygen saturation of about 95% and venous blood has an oxygen saturation of about 75%. Therefore, the blood vessel image and the marker can be distinguished by selecting a material having an oxygen saturation calculated at the wavelength of the irradiation light, which is lower than that of venous blood, for example, 20% or less, as a marker.

(変形例4)吸収スペクトルの違いを用いる
また、波長可変光源を用いるにあたり、ヘモグロビンとは吸収スペクトルの異なるマーカーを利用する画像処理も可能である。例えば、ヘモグロビンに吸収されやすい波長(第1の波長)の光と、ヘモグロビンに吸収されにくくマーカーには吸収されやすい波長(第2の波長)の光とを照射可能な光源を用いる。つまり、少なくとも2つの波長について、ヘモグロビンとマーカーとで吸収係数の大小が反対になるような波長およびマーカーの材料を選択することにより実現できる。マーカーによる光学像との位置合わせには第2の波長に由来する光音響画像を利用することで、位置合わせの精度が向上する。また、第1の波長に由来する光音響画像からマーカー情報を除外する際にも、第2の波長に由来する光音響画像を利用できる。本変形例によっても、血管像とマーカーを識別してマーカーを表示画像から除外できる。
(Modification 4) Using a difference in absorption spectrum In addition, when using a variable wavelength light source, image processing using a marker having an absorption spectrum different from that of hemoglobin is also possible. For example, a light source capable of irradiating light having a wavelength (first wavelength) that is easily absorbed by hemoglobin and light having a wavelength (second wavelength) that is difficult to be absorbed by hemoglobin and easily absorbed by the marker is used. That is, it can be realized by selecting a wavelength and a marker material such that the magnitudes of the absorption coefficients of hemoglobin and the marker are opposite to each other for at least two wavelengths. By using the photoacoustic image derived from the second wavelength for the alignment with the optical image by the marker, the accuracy of the alignment is improved. Further, when the marker information is excluded from the photoacoustic image derived from the first wavelength, the photoacoustic image derived from the second wavelength can be used. Also in this modification, the blood vessel image and the marker can be distinguished and the marker can be excluded from the displayed image.

なお、変形例3および4のように複数波長光源を用いる場合は、一つ目の波長での測定を終えてから次の波長で測定するよりも、複数の波長の光を交互に照射するほうが、体動などによる位置ずれを低減できる。 When using a multi-wavelength light source as in Modifications 3 and 4, it is better to alternately irradiate light of a plurality of wavelengths than to measure at the next wavelength after finishing the measurement at the first wavelength. , Positional deviation due to body movement can be reduced.

本実施例によれば、図8のように、マーカー情報が除外されて血管像が見やすくなった重畳画像を提示できるので、ユーザの視認性が向上する。一方で、被検体の輪郭線は残っているため、血管像と被検体の位置関係の把握には問題ない。 According to this embodiment, as shown in FIG. 8, it is possible to present a superposed image in which the marker information is excluded and the blood vessel image is easy to see, so that the user's visibility is improved. On the other hand, since the contour line of the subject remains, there is no problem in grasping the positional relationship between the blood vessel image and the subject.

<実施例4>
本実施例では、光学像の取得に関する変形例を説明する。ここで、図1のような装置構
成の場合、光音響測定中には支持体300がカメラ500と被検体の間に入り込むため、光学撮像ができない。そこで本実施例では、光音響測定中にも光学撮像を可能とするために、図9に示すような装置構成にする。図9では、カメラ500が変換素子320とともに支持体300に配置され、駆動部600によって移動しながら撮影を行う。
<Example 4>
In this embodiment, a modified example relating to the acquisition of an optical image will be described. Here, in the case of the device configuration as shown in FIG. 1, since the support 300 enters between the camera 500 and the subject during the photoacoustic measurement, optical imaging cannot be performed. Therefore, in this embodiment, in order to enable optical imaging even during photoacoustic measurement, the device configuration is as shown in FIG. In FIG. 9, the camera 500 is arranged on the support 300 together with the conversion element 320, and shooting is performed while moving by the drive unit 600.

本実施例では、実施例1の構成と比較して光学撮像時のカメラ500の視野が狭いため、被検体の対象領域全体を一度に撮像できない。そこで本実施例の光学像取得部820は、複数の光学像を合成することで、対象領域全体の光学像を作成する。具体的には、まず、カメラ500が移動しながら複数回の光学撮像を行い、得られた光学像を順次記憶部870に保存する。光学像取得部820は、駆動部600から制御部810を介して受信した支持体300の位置情報と、カメラ500が複数の光学像それぞれを取得したタイミングに基づいて合成処理を行い、一枚の光学像を生成する。 In this embodiment, since the field of view of the camera 500 at the time of optical imaging is narrower than that of the configuration of Example 1, it is not possible to image the entire target area of the subject at one time. Therefore, the optical image acquisition unit 820 of this embodiment creates an optical image of the entire target region by synthesizing a plurality of optical images. Specifically, first, while the camera 500 moves, optical imaging is performed a plurality of times, and the obtained optical images are sequentially stored in the storage unit 870. The optical image acquisition unit 820 performs a synthesis process based on the position information of the support 300 received from the drive unit 600 via the control unit 810 and the timing at which the camera 500 acquires each of the plurality of optical images, and performs a single sheet. Generate an optical image.

なお、図10(a)~図10(d)に示すように、複数個の(2以上の)マーカーがカメラの視野に含まれるような間隔で配置しておけば、図10(e)に示すような合成光学像を容易に生成できる。かかる配置方法は、マーカーを保持部材側に設ける場合にも、被検体側に設ける場合にも適用できる。 As shown in FIGS. 10A to 10D, if a plurality of (two or more) markers are arranged at intervals so as to be included in the field of view of the camera, FIG. 10E can be used. The composite optical image as shown can be easily generated. Such an arrangement method can be applied to both the case where the marker is provided on the holding member side and the case where the marker is provided on the subject side.

図11は、本実施例のマーカーの一例を示す。図11の方法であれば、各マーカーの位置が一意に分かるので、合成光学像の生成が容易になる。なお、マーカーの形状や種類は、図10,図11のものに限られない。 FIG. 11 shows an example of the marker of this embodiment. With the method of FIG. 11, since the position of each marker is uniquely known, it becomes easy to generate a composite optical image. The shape and type of the marker are not limited to those in FIGS. 10 and 11.

<実施例5>
本実施例では、画像処理部850による重畳画像生成の好適な例を説明する。本実施例の画像処理部850は、光学像と光音響画像の一方に他方を重ね合わせるときに、少なくともいずれかの画像の透明度を変更する。
<Example 5>
In this embodiment, a suitable example of superimposing image generation by the image processing unit 850 will be described. The image processing unit 850 of this embodiment changes the transparency of at least one of the images when the other is superimposed on one of the optical image and the photoacoustic image.

ここでは、被検体が大腿部であり、光音響画像として血管像を生成したときに、光学像に光音響画像を重ね合わせる例について説明する。画像処理部850は、両画像のサイズが合うようにサイズ変換したのちに、光音響画像の透明度を50%に変更する。そして、光学像に光音響画像を重ね合わせる。こうすることで、被検体である太腿部における血管走行のイメージを明確に把握可能になる。なお、いずれの画像を上にするか、あるいは各画像の透明度は、用途に応じて任意に設定できる。 Here, an example will be described in which the photoacoustic image is superimposed on the optical image when the subject is the thigh and a blood vessel image is generated as the photoacoustic image. The image processing unit 850 changes the transparency of the photoacoustic image to 50% after resizing so that the sizes of both images match. Then, the photoacoustic image is superimposed on the optical image. By doing so, it becomes possible to clearly grasp the image of blood vessel running in the thigh, which is the subject. It should be noted that which image should be on top or the transparency of each image can be arbitrarily set according to the intended use.

<実施例6>
本発明は、光音響画像と光学像を重畳表示するための、情報処理装置800によって実行される表示方法として捉えることができる。その場合、情報処理装置800は、マーカーに由来する成分と被検体に由来する成分を含む光音響信号(または、光音響信号から生成された光音響画像)を取得し、同じ被検体をカメラで撮影した光学像を取得する。そして、マーカーを基準に両画像を重ね合わせて重畳画像を生成して表示する。
<Example 6>
The present invention can be regarded as a display method executed by the information processing apparatus 800 for superimposing and displaying a photoacoustic image and an optical image. In that case, the information processing apparatus 800 acquires a photoacoustic signal (or a photoacoustic image generated from the photoacoustic signal) including a component derived from the marker and a component derived from the subject, and the same subject is captured by a camera. Acquire the captured optical image. Then, both images are superimposed on the marker as a reference to generate and display a superimposed image.

以上のように、本発明によれば、光音響像と被検体の対応関係に関するユーザの理解を助けることができる。その結果、面積が広かったり特徴的な構造が少なかったりしても、術者が被検体における血管構造を容易に把握できるようになる。 As described above, according to the present invention, it is possible to help the user's understanding of the correspondence between the photoacoustic image and the subject. As a result, the operator can easily grasp the vascular structure in the subject even if the area is large or the characteristic structure is small.

画像情報処理装置:800、光学像取得部:820、再構成部:840 Image information processing device: 800, optical image acquisition unit: 820, reconstruction unit: 840

Claims (23)

被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得部と、
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得部と、
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理部と、
を備
前記画像処理部は、前記重畳画像または前記光音響画像から、前記マーカーに由来する成分を低減する
ことを特徴とする画像情報処理装置。
A photoacoustic image acquisition unit that acquires a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light, and a photoacoustic image acquisition unit.
An optical image acquisition unit that acquires an optical image generated by optically imaging the subject and the marker, and an optical image acquisition unit.
An image in which a superposed image of the photoacoustic image and the optical image is generated and displayed on the display unit based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image. Processing unit and
Equipped with
The image processing unit is an image information processing apparatus characterized by reducing components derived from the marker from the superimposed image or the photoacoustic image.
前記光音響波を受信する変換素子と、前記光学像を撮影するカメラと、を支持する支持体と、
前記支持体を前記被検体に対して相対的に移動させる駆動部と、をさらに備える
ことを特徴とする請求項1に記載の画像情報処理装置。
A support that supports the conversion element that receives the photoacoustic wave, the camera that captures the optical image, and the support.
The image information processing apparatus according to claim 1, further comprising a driving unit for moving the support relative to the subject.
前記光学像取得部は、前記駆動部により前記カメラが移動した複数の位置で撮影された複数の画像を合成して、前記光学像を取得する
ことを特徴とする請求項2に記載の画像情報処理装置。
The image information according to claim 2, wherein the optical image acquisition unit synthesizes a plurality of images taken at a plurality of positions where the camera is moved by the drive unit to acquire the optical image. Processing equipment.
複数の前記マーカーが設けられた場合に、前記カメラの視野に2以上の前記マーカーが含まれるようにする
ことを特徴とする請求項3に記載の画像情報処理装置。
The image information processing apparatus according to claim 3, wherein when a plurality of the markers are provided, the field of view of the camera includes two or more of the markers.
前記マーカーは、前記光の波長において吸収特性を有する物質である
ことを特徴とする請求項1ないし4のいずれか1項に記載の画像情報処理装置。
The image information processing apparatus according to any one of claims 1 to 4, wherein the marker is a substance having absorption characteristics at the wavelength of light.
前記被検体に設けられたマーカーを前記マーカーとして用いる
ことを特徴とする請求項1ないし5のいずれか1項に記載の画像情報処理装置。
The image information processing apparatus according to any one of claims 1 to 5, wherein a marker provided on the subject is used as the marker.
前記マーカーは、前記被検体において色素が集積している箇所である
ことを特徴とする請求項6に記載の画像情報処理装置。
The image information processing apparatus according to claim 6, wherein the marker is a portion where a dye is accumulated in the subject.
前記被検体を保持する保持部材をさらに備え、
前記マーカーは、前記保持部材に設けられる
ことを特徴とする請求項1ないし5のいずれか1項に記載の画像情報処理装置。
Further provided with a holding member for holding the subject,
The image information processing apparatus according to any one of claims 1 to 5, wherein the marker is provided on the holding member.
前記画像処理部は、前記光音響画像と前記光学像のサイズを合わせて前記重畳画像を生成する
ことを特徴とする請求項1ないし8のいずれか1項に記載の画像情報処理装置。
The image information processing apparatus according to any one of claims 1 to 8, wherein the image processing unit generates the superimposed image by matching the sizes of the photoacoustic image and the optical image.
前記画像処理部は、前記光音響画像から、前記マーカーを含む前記被検体の表面に由来する成分を低減する
ことを特徴とする請求項1ないし9のいずれか1項に記載の画像情報処理装置。
The image information processing apparatus according to any one of claims 1 to 9, wherein the image processing unit reduces components derived from the surface of the subject including the marker from the photoacoustic image. ..
前記画像処理部は、前記光音響画像から、前記マーカーの形状に基づく画像処理によって、前記マーカーに由来する成分を低減する
ことを特徴とする請求項1ないし9のいずれか1項に記載の画像情報処理装置。
The image according to any one of claims 1 to 9, wherein the image processing unit reduces components derived from the marker from the photoacoustic image by image processing based on the shape of the marker. Information processing device.
前記光は、複数の波長の光を含んでおり、
前記画像処理部は、前記マーカーと前記被検体の、前記複数の波長の光の照射により得られる酸素飽和度の違いに基づいて、前記マーカーに由来する成分を低減する
ことを特徴とする請求項1ないし9のいずれか1項に記載の画像情報処理装置。
The light contains light having a plurality of wavelengths, and the light includes light having a plurality of wavelengths.
The image processing unit is characterized in that the component derived from the marker is reduced based on the difference in oxygen saturation obtained by irradiation of the marker and the subject with light having a plurality of wavelengths. The image information processing apparatus according to any one of 1 to 9 .
前記光は、複数の波長の光を含んでおり、
前記画像処理部は、前記マーカーと前記被検体の、前記複数の波長の光それぞれに対する吸収スペクトルの違いに基づいて、前記マーカーに由来する成分を低減する
ことを特徴とする請求項1ないし9のいずれか1項に記載の画像情報処理装置。
The light contains light having a plurality of wavelengths, and the light includes light having a plurality of wavelengths.
The image processing unit is characterized in that the component derived from the marker is reduced based on the difference in absorption spectra of the marker and the subject for each of the plurality of wavelengths of light, according to claims 1 to 9. The image information processing apparatus according to any one item .
被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得ステップと、
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得ステップと、
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理ステップと、
を有
前記画像処理ステップでは、前記重畳画像または前記光音響画像から、前記マーカーに由来する成分を低減する
ことを特徴とする表示方法。
A photoacoustic image acquisition step of acquiring a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light,
An optical image acquisition step of acquiring an optical image generated by optically imaging the subject and the marker, and
An image in which a superposed image of the photoacoustic image and the optical image is generated and displayed on the display unit based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image. Processing steps and
Have ,
The image processing step is a display method comprising reducing components derived from the marker from the superimposed image or the photoacoustic image.
前記光音響波を受信する変換素子と前記光学像を撮影するカメラとを支持する支持体を、前記被検体に対して相対的に移動させる駆動ステップをさらに有し、
前記光学像取得ステップでは、前記駆動ステップで前記カメラが移動した複数の位置で撮影された複数の画像を合成して、前記光学像を取得する
ことを特徴とする請求項14に記載の表示方法。
Further having a drive step of moving the support supporting the conversion element that receives the photoacoustic wave and the camera that captures the optical image relative to the subject.
The display method according to claim 14 , wherein in the optical image acquisition step, a plurality of images taken at a plurality of positions where the camera has moved in the drive step are combined to acquire the optical image. ..
前記画像処理ステップでは、前記光音響画像と前記光学像のサイズを合わせて前記重畳
画像を生成する
ことを特徴とする請求項14または15に記載の表示方法。
The display method according to claim 14 , wherein in the image processing step, the size of the photoacoustic image and the size of the optical image are matched to generate the superimposed image.
前記画像処理ステップでは、前記重畳画像から前記マーカーに由来する成分を低減した画像を生成して前記表示部に表示させる
ことを特徴とする請求項14ないし16のいずれか1項に記載の表示方法。
The display method according to any one of claims 14 to 16 , wherein in the image processing step, an image in which a component derived from the marker is reduced is generated from the superimposed image and displayed on the display unit. ..
前記画像処理ステップでは、前記光音響画像から、前記マーカーを含む前記被検体の表面に由来する成分を低減する
ことを特徴とする請求項14ないし17のいずれか1項に記載の表示方法。
The display method according to any one of claims 14 to 17 , wherein in the image processing step, components derived from the surface of the subject including the marker are reduced from the photoacoustic image.
前記画像処理ステップでは、前記光音響画像から、前記マーカーの形状に基づく画像処理によって、前記マーカーに由来する成分を低減する
ことを特徴とする請求項18に記載の表示方法。
The display method according to claim 18 , wherein in the image processing step, components derived from the marker are reduced by image processing based on the shape of the marker from the photoacoustic image.
前記光は、複数の波長の光を含んでおり、
前記画像処理ステップでは、前記マーカーと前記被検体の、前記複数の波長の光の照射により得られる酸素飽和度の違いに基づいて、前記マーカーに由来する成分を低減する
ことを特徴とする請求項18に記載の表示方法。
The light contains light having a plurality of wavelengths, and the light includes light having a plurality of wavelengths.
The image processing step is characterized in that the component derived from the marker is reduced based on the difference in oxygen saturation obtained by irradiation of the marker and the subject with light having a plurality of wavelengths. The display method according to 18 .
前記光は、複数の波長の光を含んでおり、
前記画像処理ステップでは、前記マーカーと前記被検体の、前記複数の波長の光それぞれに対する吸収スペクトルの違いに基づいて、前記マーカーに由来する成分を低減する
ことを特徴とする請求項18に記載の表示方法。
The light contains light having a plurality of wavelengths, and the light includes light having a plurality of wavelengths.
18. The image processing step according to claim 18 , wherein the component derived from the marker is reduced based on the difference in absorption spectra of the marker and the subject for each of the plurality of wavelengths of light. Display method.
被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得部と、 A photoacoustic image acquisition unit that acquires a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light, and a photoacoustic image acquisition unit.
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得部と、 An optical image acquisition unit that acquires an optical image generated by optically imaging the subject and the marker, and an optical image acquisition unit.
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理部と、 An image in which a superposed image of the photoacoustic image and the optical image is generated and displayed on the display unit based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image. Processing unit and
を備え、Equipped with
前記画像処理部は、前記重畳画像または前記光音響画像から、前記マーカーを含む前記被検体の表面に由来する成分を低減する The image processing unit reduces components derived from the surface of the subject, including the marker, from the superimposed image or the photoacoustic image.
ことを特徴とする画像情報処理装置。An image information processing device characterized by this.
被検体およびマーカーに光が照射されて発生した光音響波に基づいて生成された光音響画像を取得する光音響画像取得ステップと、 A photoacoustic image acquisition step of acquiring a photoacoustic image generated based on a photoacoustic wave generated by irradiating a subject and a marker with light,
前記被検体および前記マーカーを光学的に撮像して生成された光学像を取得する光学像取得ステップと、 An optical image acquisition step of acquiring an optical image generated by optically imaging the subject and the marker, and
前記光音響画像における前記マーカーに由来する成分と、前記光学像に示される前記マーカーとに基づいて、前記光音響画像および前記光学像を重ね合わせた重畳画像を生成して表示部に表示させる画像処理ステップと、 An image in which a superposed image of the photoacoustic image and the optical image is generated and displayed on the display unit based on the component derived from the marker in the photoacoustic image and the marker shown in the optical image. Processing steps and
を有し、Have,
前記画像処理ステップでは、前記重畳画像または前記光音響画像から、前記マーカーを含む前記被検体の表面に由来する成分を低減する In the image processing step, components derived from the surface of the subject including the marker are reduced from the superimposed image or the photoacoustic image.
ことを特徴とする表示方法。A display method characterized by that.
JP2017231656A 2017-12-01 2017-12-01 Image information processing device and display method Active JP7000139B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017231656A JP7000139B2 (en) 2017-12-01 2017-12-01 Image information processing device and display method
PCT/JP2018/043721 WO2019107391A1 (en) 2017-12-01 2018-11-28 Device for processing image information and method for displaying same
US16/885,840 US11398061B2 (en) 2017-12-01 2020-05-28 Image information processing apparatus, display method and non-transitory computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017231656A JP7000139B2 (en) 2017-12-01 2017-12-01 Image information processing device and display method

Publications (2)

Publication Number Publication Date
JP2019097861A JP2019097861A (en) 2019-06-24
JP7000139B2 true JP7000139B2 (en) 2022-01-19

Family

ID=66664499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017231656A Active JP7000139B2 (en) 2017-12-01 2017-12-01 Image information processing device and display method

Country Status (3)

Country Link
US (1) US11398061B2 (en)
JP (1) JP7000139B2 (en)
WO (1) WO2019107391A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024050295A (en) 2022-09-29 2024-04-10 富士フイルム株式会社 IMAGE PROCESSING APPARATUS, SYSTEM, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012135368A (en) 2010-12-24 2012-07-19 Canon Inc Photoacoustic imaging apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110306865A1 (en) 2008-09-10 2011-12-15 Endra, Inc. photoacoustic imaging device
US10152529B2 (en) * 2013-08-23 2018-12-11 Elwha Llc Systems and methods for generating a treatment map
JP6223129B2 (en) * 2013-10-31 2017-11-01 キヤノン株式会社 Subject information acquisition apparatus, display method, subject information acquisition method, and program
EP3111221B2 (en) * 2014-02-24 2022-01-19 Ventana Medical Systems, Inc. Methods, kits, and systems for scoring the immune response to cancer by simultaneous detection of cd3, cd8, cd20 and foxp3.
JP2016096914A (en) * 2014-11-19 2016-05-30 キヤノン株式会社 Subject information acquisition device
JP6218908B2 (en) * 2016-10-13 2017-10-25 キヤノン株式会社 Method
JP7034699B2 (en) 2017-12-20 2022-03-14 キヤノン株式会社 Photoacoustic device and subject information acquisition method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012135368A (en) 2010-12-24 2012-07-19 Canon Inc Photoacoustic imaging apparatus

Also Published As

Publication number Publication date
US11398061B2 (en) 2022-07-26
JP2019097861A (en) 2019-06-24
WO2019107391A1 (en) 2019-06-06
US20200294276A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6532351B2 (en) Object information acquisition apparatus and processing method
JP5661451B2 (en) Subject information acquisition apparatus and subject information acquisition method
JP5528083B2 (en) Image generating apparatus, image generating method, and program
JP6335612B2 (en) Photoacoustic apparatus, processing apparatus, processing method, and program
JP5777358B2 (en) Subject information acquisition apparatus and signal processing method
JP6238539B2 (en) Processing apparatus, subject information acquisition apparatus, and processing method
WO2018087984A1 (en) Photoacoustic image evaluation device, method, and program, and photoacoustic image generating device
CN106175666B (en) Subject information acquisition device
JP6656229B2 (en) Photoacoustic device
JP7000139B2 (en) Image information processing device and display method
JP2019165836A (en) Subject information acquisition device, and control method therefor
US20180228377A1 (en) Object information acquiring apparatus and display method
JP7034699B2 (en) Photoacoustic device and subject information acquisition method
JP2017164198A (en) Information processing system and display control method
JP6486056B2 (en) Photoacoustic apparatus and processing method of photoacoustic apparatus
KR20180062393A (en) Display control apparatus, display control method, and storage medium
JP2018126389A (en) Information processing apparatus, information processing method, and program
US20160206246A1 (en) Object information acquiring apparatus and object information acquisition method
JP2017104298A (en) Analyte information acquisition device and analyte information acquisition method
JP2016152879A (en) Subject information acquisition apparatus
JP2017042603A (en) Subject information acquisition apparatus
JP7277212B2 (en) Image processing device, image processing method and program
JP2020162746A (en) Image processing device, image processing method, and program
JP6929048B2 (en) Display control device, display method, and program
JP6381718B2 (en) Apparatus and image generation method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211223

R151 Written notification of patent or utility model registration

Ref document number: 7000139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151