JP2013070847A - Photoacoustic imaging apparatus and photoacoustic imaging method - Google Patents

Photoacoustic imaging apparatus and photoacoustic imaging method Download PDF

Info

Publication number
JP2013070847A
JP2013070847A JP2011212134A JP2011212134A JP2013070847A JP 2013070847 A JP2013070847 A JP 2013070847A JP 2011212134 A JP2011212134 A JP 2011212134A JP 2011212134 A JP2011212134 A JP 2011212134A JP 2013070847 A JP2013070847 A JP 2013070847A
Authority
JP
Japan
Prior art keywords
photoacoustic
image data
photoacoustic image
spatial information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011212134A
Other languages
Japanese (ja)
Other versions
JP5722182B2 (en
Inventor
和宏 ▲辻▼田
Kazuhiro Tsujita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47994657&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2013070847(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2011212134A priority Critical patent/JP5722182B2/en
Priority to PCT/JP2012/005786 priority patent/WO2013046568A1/en
Publication of JP2013070847A publication Critical patent/JP2013070847A/en
Application granted granted Critical
Publication of JP5722182B2 publication Critical patent/JP5722182B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Acoustics & Sound (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to easily comprehend the contents of a photoacoustic image when displaying the three-dimensional photoacoustic image.SOLUTION: In photoacoustic imaging, second space information is associated to photoacoustic image data in a state that positional relation in a real space between at least one direction of an axial direction y of an object region prescribed by the second space information, a scanning direction x and the vertical direction z, and an imaging region related to the photoacoustic image data is held, one direction is selected from the at least one direction about the photoacoustic image data associated with the second space information, a direction to be determined as a viewpoint is set based on the selection result thereof, and the photoacoustic image data are changed such that the photoacoustic image based on the photoacoustic image data is displayed on a display part 15 as an image viewed from the direction to be determined as the viewpoint.

Description

本発明は、光が被検体に照射されることにより被検体内で発生した光音響波を検出して光音響画像を生成する光音響撮像装置および光音響撮像方法に関するものである。   The present invention relates to a photoacoustic imaging apparatus and a photoacoustic imaging method for generating a photoacoustic image by detecting a photoacoustic wave generated in a subject by irradiating the subject with light.

従来、被検体の内部の断層画像を取得する方法としては、超音波が被検体内に照射されることにより被検体内で反射した超音波を検出して超音波画像を生成し、被検体内の形態的な断層画像を得る超音波イメージングが知られている。一方、被検体の検査においては形態的な断層画像だけでなく機能的な断層画像を表示する装置の開発も近年進められている。そして、このような装置の一つに光音響分析法を利用した装置がある。この光音響分析法は、所定の波長を有する光(例えば、可視光、近赤外光又は中間赤外光)を被検体に照射し、被検体内の特定物質がこの光のエネルギーを吸収した結果生じる弾性波である光音響波を検出して、その特定物質の濃度を定量的に計測するものである。被検体内の特定物質とは、例えば血液中に含まれるグルコースやヘモグロビンなどである。このように光音響波を検出しその検出信号に基づいて光音響画像を生成する技術は、光音響イメージング(PAI:Photoacoustic Imaging)或いは光音響トモグラフィー(PAT:Photo Acoustic Tomography)と呼ばれる。   Conventionally, as a method for acquiring a tomographic image inside a subject, an ultrasonic image is generated by detecting ultrasonic waves reflected in the subject by irradiating the subject with ultrasonic waves. Ultrasonic imaging for obtaining a morphological tomographic image is known. On the other hand, in the examination of a subject, development of an apparatus that displays not only a morphological tomographic image but also a functional tomographic image has been advanced in recent years. One of such devices is a device using a photoacoustic analysis method. This photoacoustic analysis method irradiates a subject with light having a predetermined wavelength (for example, visible light, near infrared light, or mid infrared light), and a specific substance in the subject absorbs the energy of this light. A photoacoustic wave, which is the resulting elastic wave, is detected and the concentration of the specific substance is quantitatively measured. The specific substance in the subject is, for example, glucose or hemoglobin contained in blood. Such a technique for detecting a photoacoustic wave and generating a photoacoustic image based on the detection signal is called photoacoustic imaging (PAI) or photoacoustic tomography (PAT).

例えば特許文献1には、バンドルファイバを用いた光学系と超音波検出用の検出素子とが一体的に組み合わされた超音波探触子を使用して、三次元の光音響画像を生成可能な光音響撮像装置が開示されている。   For example, Patent Document 1 can generate a three-dimensional photoacoustic image using an ultrasonic probe in which an optical system using a bundle fiber and a detection element for ultrasonic detection are combined together. A photoacoustic imaging device is disclosed.

特開2010−12295号公報JP 2010-12295 A

ところで、光音響画像を三次元で表示する場合には、従来、超音波探触子の走査開始位置における最初の1ラインの断層画像データを基準にして、取得された順に画像データが表示される。   By the way, when displaying a photoacoustic image in three dimensions, conventionally, image data is displayed in the order of acquisition based on the first one-line tomographic image data at the scanning start position of the ultrasonic probe. .

しかしながら、このような場合、表示された光音響画像の視点が、ユーザと被検体との位置関係、或いは超音波探触子の走査方向と無関係に決定されるため、ユーザにとって光音響画像の内容を把握するのに煩わしいという問題が生じうる。そこで、光音響画像をどの方向から見るかによって見え方が異なるため、ユーザが画像内容を容易に把握できるように、当該画像が最初に表示される段階で一定の方向に揃えるか、またはその画像を見る方向を指定できることが好ましい。   However, in such a case, since the viewpoint of the displayed photoacoustic image is determined regardless of the positional relationship between the user and the subject or the scanning direction of the ultrasonic probe, the content of the photoacoustic image for the user. The problem that it is troublesome to grasp this may arise. Therefore, since the appearance differs depending on from which direction the photoacoustic image is viewed, the image is arranged in a certain direction when the image is first displayed, or the image so that the user can easily grasp the image contents. It is preferable that the direction of viewing can be specified.

本発明は上記問題に鑑みてなされたものであり、三次元の光音響画像を表示する場合において、ユーザにとって光音響画像の内容を容易に把握しやすくすることを可能とする光音響撮像装置および光音響撮像方法を提供することを目的とするものである。   The present invention has been made in view of the above problems, and in displaying a three-dimensional photoacoustic image, a photoacoustic imaging apparatus that enables a user to easily grasp the contents of the photoacoustic image, and An object of the present invention is to provide a photoacoustic imaging method.

上記課題を解決するために、本発明に係る光音響撮像装置は、
被検部位に測定光を照射する光照射部、および、測定光の照射により被検部位内で発生した光音響波を検出する超音波振動子が一次元に配列したアレイ振動子を有する超音波探触子と、
超音波探触子の実空間における位置およびその向きを規定する第1の空間情報を取得し、かつ、被検部位の実空間における軸の向き、超音波探触子の実空間における走査方向、および実空間の鉛直方向のうち少なくとも1つの方向を規定する第2の空間情報を取得する情報取得部と、
超音波探触子の走査によって検出された光音響波、および走査中に取得された第1の空間情報に基づいて、光音響画像データを生成する画像データ生成部と、
上記少なくとも1つの方向と光音響画像データに係る撮像部位との実空間における位置関係が保持された状態で、第2の空間情報を光音響画像データに関連付ける関連付け部と、
第2の空間情報が関連付けられた光音響画像データについて、当該第2の空間情報によって規定される上記少なくとも1つの方向の中から1つの方向を選択して、この選択結果に基づいて視点とするべき方向を設定する視点設定部と、
上記視点とするべき方向から見られた画像として、光音響画像データに基づく光音響画像が表示部に表示されるように、当該光音響画像データを変換するデータ変換部と、
変換された光音響画像データに基づく光音響画像を表示する表示部とを備えることを特徴とするものである。
In order to solve the above-described problems, a photoacoustic imaging device according to the present invention includes:
Ultrasound having an array transducer in which a light irradiating unit for irradiating measurement light to a test site and an ultrasonic transducer for detecting photoacoustic waves generated in the test site by irradiation of measurement light are arranged one-dimensionally With a probe,
Obtaining first spatial information defining the position and direction of the ultrasonic probe in real space, and the direction of the axis of the test site in real space, the scanning direction of the ultrasonic probe in real space, And an information acquisition unit that acquires second spatial information that defines at least one of the vertical directions of the real space;
An image data generation unit that generates photoacoustic image data based on the photoacoustic wave detected by the scanning of the ultrasonic probe and the first spatial information acquired during the scanning;
An associating unit for associating the second spatial information with the photoacoustic image data in a state in which the positional relationship in the real space between the at least one direction and the imaging part related to the photoacoustic image data is maintained;
For the photoacoustic image data associated with the second spatial information, one direction is selected from the at least one direction defined by the second spatial information, and the viewpoint is set based on the selection result. A viewpoint setting unit for setting the power direction;
A data conversion unit that converts the photoacoustic image data so that a photoacoustic image based on the photoacoustic image data is displayed on the display unit as an image viewed from the direction to be the viewpoint;
And a display unit that displays a photoacoustic image based on the converted photoacoustic image data.

そして、本発明に係る光音響撮像装置において、視点設定部は、上記選択された1つの方向について、さらに順方向か逆方向かの選択をし、この選択結果も踏まえるものであることが好ましい。   In the photoacoustic imaging apparatus according to the present invention, it is preferable that the viewpoint setting unit further selects a forward direction or a reverse direction with respect to the selected one direction, and considers the selection result.

また、本発明に係る光音響撮像装置において、視点設定部は、複数生成された光音響画像データについて、複数の光音響画像データのそれぞれに関して上記視点とするべき方向として、同一の要素を選択するものであることが好ましい。   In the photoacoustic imaging apparatus according to the present invention, the viewpoint setting unit selects, for a plurality of generated photoacoustic image data, the same element as a direction to be the viewpoint with respect to each of the plurality of photoacoustic image data. It is preferable.

また、本発明に係る光音響撮像装置において、情報取得部は、1フレーム分の撮像ごとに第1の空間情報を取得するものであることが好ましい。   Moreover, in the photoacoustic imaging apparatus according to the present invention, it is preferable that the information acquisition unit acquires the first spatial information for each imaging for one frame.

或いは、本発明に係る光音響撮像装置は、第1の空間情報によって規定される位置および向きのそれぞれが、予め設定された位置および向きと略一致した場合に、1フレーム分の撮像を実施するものとすることができる。   Alternatively, the photoacoustic imaging apparatus according to the present invention performs imaging for one frame when each of the position and orientation defined by the first spatial information substantially matches the preset position and orientation. Can be.

また、本発明に係る光音響撮像装置において、情報取得部は、磁気センサユニットを含み、この磁気センサユニットを用いて第1の空間情報および第2の空間情報を取得するものであることが好ましい。   Moreover, in the photoacoustic imaging device according to the present invention, the information acquisition unit preferably includes a magnetic sensor unit, and acquires the first spatial information and the second spatial information using the magnetic sensor unit. .

本発明に係る光音響撮像方法は、
光音響撮像用の超音波探触子を備える光音響撮像装置を用いて、
超音波探触子の実空間における位置およびその向きを規定する第1の空間情報を取得し、かつ、被検部位の実空間における軸の向き、超音波探触子の実空間における走査方向、および実空間の鉛直方向のうち少なくとも1つの方向を規定する第2の空間情報を取得し、
超音波探触子の走査によって検出された光音響波、および走査中に取得された第1の空間情報に基づいて、光音響画像データを生成し、
上記少なくとも1つの方向と光音響画像データに係る撮像部位との実空間における位置関係が保持された状態で、第2の空間情報を光音響画像データに関連付け、
第2の空間情報が関連付けられた光音響画像データについて、当該第2の空間情報によって規定される上記少なくとも1つの方向の中から1つの方向を選択して、この選択結果に基づいて視点とするべき方向を設定し、
上記視点とするべき方向から見られた画像として、光音響画像データに基づく光音響画像が表示部に表示されるように、当該光音響画像データを変換し、
変換された光音響画像データに基づく光音響画像を表示することを特徴とするものである。
The photoacoustic imaging method according to the present invention includes:
By using a photoacoustic imaging apparatus equipped with an ultrasonic probe for photoacoustic imaging,
Obtaining first spatial information defining the position and direction of the ultrasonic probe in real space, and the direction of the axis of the test site in real space, the scanning direction of the ultrasonic probe in real space, And acquiring second spatial information that defines at least one of the vertical directions of the real space,
Based on the photoacoustic wave detected by the scanning of the ultrasonic probe and the first spatial information acquired during the scanning, photoacoustic image data is generated,
In a state where the positional relationship in the real space between the at least one direction and the imaging part related to the photoacoustic image data is maintained, the second spatial information is associated with the photoacoustic image data,
For the photoacoustic image data associated with the second spatial information, one direction is selected from the at least one direction defined by the second spatial information, and the viewpoint is set based on the selection result. Set the power direction,
The photoacoustic image data is converted so that the photoacoustic image based on the photoacoustic image data is displayed on the display unit as an image viewed from the direction to be the viewpoint,
A photoacoustic image based on the converted photoacoustic image data is displayed.

そして、本発明に係る光音響撮像方法において、上記選択された1つの方向について、さらに順方向か逆方向かの選択をし、この選択結果も踏まえることが好ましい。   In the photoacoustic imaging method according to the present invention, it is preferable to further select the forward direction or the backward direction for the selected one direction, and take into account the selection result.

また、本発明に係る光音響撮像方法において、複数生成された光音響画像データについて、複数の光音響画像データのそれぞれに関して上記視点とするべき方向として、同一の要素を選択することが好ましい。   In the photoacoustic imaging method according to the present invention, it is preferable to select the same element as a direction to be set as the viewpoint with respect to each of the plurality of photoacoustic image data.

また、本発明に係る光音響撮像方法において、1フレーム分の撮像ごとに第1の空間情報を取得することが好ましい。   Moreover, in the photoacoustic imaging method according to the present invention, it is preferable to acquire the first spatial information every imaging for one frame.

或いは、本発明に係る光音響撮像方法は、第1の空間情報によって規定される位置および向きのそれぞれが、予め設定された位置および向きと略一致した場合に、1フレーム分の撮像を実施するものとすることができる。   Alternatively, the photoacoustic imaging method according to the present invention performs imaging for one frame when each of the position and orientation defined by the first spatial information substantially matches the preset position and orientation. Can be.

また、本発明に係る光音響撮像方法において、磁気センサユニットを用いて第1の空間情報および第2の空間情報を取得することが好ましい。   In the photoacoustic imaging method according to the present invention, it is preferable to acquire the first spatial information and the second spatial information using a magnetic sensor unit.

本発明に係る光音響撮像装置および方法は、第2の空間情報によって規定される少なくとも1つの方向と光音響画像データに係る撮像部位との実空間における位置関係が保持された状態で、第2の空間情報を光音響画像データに関連付け、第2の空間情報が関連付けられた光音響画像データについて、上記少なくとも1つの方向の中から1つの方向を選択して、選択結果に基づいて視点とするべき方向を設定し、上記視点とすべき方向から見られた画像として、光音響画像データに基づく光音響画像が表示部に表示されるように、当該光音響画像データを変換するから、三次元の光音響画像は常に実空間と関連付けられた特定の方向から見た画像として表示される。この結果、三次元の光音響画像を表示する場合において、ユーザにとって光音響画像の内容を容易に把握しやすくすることが可能となる。   In the photoacoustic imaging apparatus and method according to the present invention, the positional relationship in the real space between at least one direction defined by the second spatial information and the imaging part related to the photoacoustic image data is maintained. The spatial information is associated with the photoacoustic image data, and for the photoacoustic image data associated with the second spatial information, one direction is selected from the at least one direction, and the viewpoint is set based on the selection result. Since the photoacoustic image data is converted so that the photoacoustic image based on the photoacoustic image data is displayed on the display unit as the image viewed from the direction to be set as the viewpoint, the power direction is set, the three-dimensional The photoacoustic image is always displayed as an image viewed from a specific direction associated with the real space. As a result, when displaying a three-dimensional photoacoustic image, it becomes possible for the user to easily grasp the contents of the photoacoustic image.

実施形態における光音響撮像装置の構成を示す概略図である。It is the schematic which shows the structure of the photoacoustic imaging device in embodiment. 実施形態における信号処理部の構成を示す概略図である。It is the schematic which shows the structure of the signal processing part in embodiment. 実施形態における超音波探触子の構成を示す概略図である。It is the schematic which shows the structure of the ultrasonic probe in embodiment. 1フレーム分の画像データが順次空間座標上に並べられる様子を示す概略図である。It is the schematic which shows a mode that the image data for 1 frame are arranged on a space coordinate sequentially. 撮像部位ごとの軸の例を示す概略図である。It is the schematic which shows the example of the axis | shaft for every imaging region. モデル化された三次元の光音響画像を示す概略図である。(a)は斜視図、(b)は平面図、(c)は正面図、(d)は右側面図である。It is the schematic which shows the modeled three-dimensional photoacoustic image. (A) is a perspective view, (b) is a plan view, (c) is a front view, and (d) is a right side view. モデル化された三次元の光音響画像を示す概略図である。(e)は左側面図である。It is the schematic which shows the modeled three-dimensional photoacoustic image. (E) is a left side view.

以下、本発明の実施形態について図面を用いて説明するが、本発明はこれに限られるものではない。なお、視認しやすくするため、図面中の各構成要素の縮尺等は実際のものとは適宜異ならせてある。   Hereinafter, although an embodiment of the present invention is described using a drawing, the present invention is not limited to this. In order to facilitate visual recognition, the scale of each component in the drawings is appropriately changed from the actual one.

図1は実施形態における光音響撮像装置の構成を示す概略図であり、図2は実施形態における信号処理部の構成を示す概略図であり、図3は実施形態における超音波探触子の構成を示す概略図である。   FIG. 1 is a schematic diagram illustrating a configuration of a photoacoustic imaging apparatus in the embodiment, FIG. 2 is a schematic diagram illustrating a configuration of a signal processing unit in the embodiment, and FIG. 3 is a configuration of an ultrasonic probe in the embodiment. FIG.

本実施形態の光音響撮像装置10は、図1に示されるように、超音波探触子20、システム制御部11、レーザ光源12、信号受信部13、情報取得部14、表示部15および操作部16(ユーザインタフェース)を備えるものである。   As shown in FIG. 1, the photoacoustic imaging apparatus 10 of the present embodiment includes an ultrasonic probe 20, a system control unit 11, a laser light source 12, a signal reception unit 13, an information acquisition unit 14, a display unit 15, and an operation. The unit 16 (user interface) is provided.

本実施形態において、信号受信部13は、受信回路30、AD変換部31、処理選択部32、遅延加算部33、生データメモリ34、位相整合加算部35、検波・対数変換部36、フレーム構築部37、ボリュームデータ構築部38、関連付け部39、視点設定部40およびデータ変換部41から構成される。   In this embodiment, the signal receiving unit 13 includes a receiving circuit 30, an AD converting unit 31, a processing selecting unit 32, a delay adding unit 33, a raw data memory 34, a phase matching adding unit 35, a detection / logarithmic converting unit 36, a frame construction. A unit 37, a volume data construction unit 38, an association unit 39, a viewpoint setting unit 40, and a data conversion unit 41.

また、受信回路30、AD変換部31、処理選択部32、遅延加算部33、生データメモリ34、位相整合加算部35、検波・対数変換部36、フレーム構築部37およびボリュームデータ構築部38が全体として本発明における画像データ生成部42に相当する。   The receiving circuit 30, AD conversion unit 31, process selection unit 32, delay addition unit 33, raw data memory 34, phase matching addition unit 35, detection / logarithm conversion unit 36, frame construction unit 37, and volume data construction unit 38 The whole corresponds to the image data generation unit 42 in the present invention.

そして、本実施形態の光音響撮像方法は、光音響撮像装置10を使用して、
情報取得部14によって、超音波探触子20の実空間における位置およびその向きを規定する第1の空間情報を取得し、かつ、被検部位Mの実空間における軸の向き、超音波探触子20の実空間における走査方向、および実空間の鉛直方向のうち少なくとも1つの方向を規定する第2の空間情報を取得し、
画像データ生成部42によって、超音波探触子20の走査によって検出された光音響波U、および走査中に取得された第1の空間情報に基づいて、三次元の光音響画像データを生成し、
関連付け部39によって、上記少なくとも1つの方向と光音響画像データに係る撮像部位との実空間における位置関係が保持された状態で、第2の空間情報を光音響画像データに関連付け、
視点設定部40によって、第2の空間情報が関連付けられた光音響画像データについて、当該第2の空間情報によって規定される上記少なくとも1つの方向の中から1つの方向を選択し、かつこの1つの方向について順方向か逆方向かの選択をして、2つの選択結果に基づいて視点とするべき方向を設定し、
データ変換部41によって、選択された上記1つの方向から見られた画像として、光音響画像データに基づく光音響画像が表示部に表示されるように、当該光音響画像データを変換し、
表示部15によって、変換された光音響画像データに基づく光音響画像を表示するものである。
And the photoacoustic imaging method of this embodiment uses the photoacoustic imaging device 10,
The information acquisition unit 14 acquires first spatial information that defines the position and orientation of the ultrasound probe 20 in the real space, and the axis direction in the real space of the test site M, the ultrasound probe Obtaining second spatial information defining at least one direction of the scanning direction in the real space of the child 20 and the vertical direction of the real space;
The image data generation unit 42 generates three-dimensional photoacoustic image data based on the photoacoustic wave U detected by the scanning of the ultrasound probe 20 and the first spatial information acquired during the scanning. ,
The associating unit 39 associates the second spatial information with the photoacoustic image data in a state where the positional relationship in the real space between the at least one direction and the imaging part related to the photoacoustic image data is maintained.
For the photoacoustic image data associated with the second spatial information, the viewpoint setting unit 40 selects one direction from the at least one direction defined by the second spatial information, and this one Select the direction of forward or reverse direction, set the direction to be the viewpoint based on the two selection results,
The photoacoustic image data is converted by the data conversion unit 41 so that a photoacoustic image based on the photoacoustic image data is displayed on the display unit as an image viewed from the selected one direction.
The display unit 15 displays a photoacoustic image based on the converted photoacoustic image data.

超音波探触子20は、光照射部21およびアレイ振動子22から構成され、被検部位からの光音響波を検出するものである。なお、本実施形態では、情報取得部14の一部を構成する磁気センサが超音波探触子20に内蔵されている。   The ultrasonic probe 20 includes a light irradiation unit 21 and an array transducer 22, and detects a photoacoustic wave from a region to be examined. In the present embodiment, a magnetic sensor that constitutes a part of the information acquisition unit 14 is built in the ultrasonic probe 20.

光照射部21は、アレイ振動子22の近傍からレーザ光Lを被検部位に向けて照射する光学要素である。例えば図3に示されるように、光照射部21は、レーザ光源12から出力されたレーザ光Lをアレイ振動子22の近傍に導光する光ファイバ50の先端部に接続された導光板52である。また、光ファイバ50の先端部から出射したレーザ光Lをそのまま被検部位に照射する場合には、光照射部21は光ファイバ50の当該先端部となる。光照射部21は、例えばアレイ振動子22の周囲に沿って配列される。   The light irradiation unit 21 is an optical element that irradiates the laser light L toward the region to be examined from the vicinity of the array transducer 22. For example, as shown in FIG. 3, the light irradiation unit 21 is a light guide plate 52 connected to the tip of an optical fiber 50 that guides the laser light L output from the laser light source 12 to the vicinity of the array transducer 22. is there. In addition, when the laser light L emitted from the distal end portion of the optical fiber 50 is irradiated to the test site as it is, the light irradiation portion 21 becomes the distal end portion of the optical fiber 50. The light irradiation unit 21 is arranged along the periphery of the array transducer 22, for example.

アレイ振動子22は、被検部位内で発生した光音響波Uを検出する検出素子である。アレイ振動子22は、図3に示されるように、1次元状に配列された複数の超音波振動子22aから構成される。超音波振動子22aは、例えば、圧電セラミクス、またはポリフッ化ビニリデン(PVDF)のような高分子フィルムから構成される圧電素子である。超音波振動子22aは、光音響波Uを検出した場合にその音響信号を電気信号に変換する機能を有している。この電気信号は後述する受信回路30に出力される。超音波探触子22aは、セクタ走査タイプ、リニア走査タイプ、コンベックス走査タイプ等の中から診断対象となる被検部位に応じて適宜選択される。   The array transducer 22 is a detection element that detects the photoacoustic wave U generated in the region to be examined. As shown in FIG. 3, the array transducer 22 is composed of a plurality of ultrasonic transducers 22a arranged in a one-dimensional manner. The ultrasonic transducer 22a is a piezoelectric element made of a polymer film such as piezoelectric ceramics or polyvinylidene fluoride (PVDF). The ultrasonic transducer 22a has a function of converting an acoustic signal into an electric signal when the photoacoustic wave U is detected. This electrical signal is output to the receiving circuit 30 described later. The ultrasonic probe 22a is appropriately selected from a sector scanning type, a linear scanning type, a convex scanning type, and the like according to a region to be diagnosed.

レーザ光の照射は、例えば光照射部21全体(図3においてすべての導光板52)によって同時に行われる。この場合、レーザ光の照射は、1ライン分の撮像(光音響画像の生成)ごとに行われる。このような検出方法によって音響信号に基づくデータは後述する遅延加算部33において遅延加算処理がなされる。   Laser light irradiation is simultaneously performed by, for example, the entire light irradiation unit 21 (all the light guide plates 52 in FIG. 3). In this case, the laser beam irradiation is performed every time one line of imaging (photoacoustic image generation). By such a detection method, the data based on the acoustic signal is subjected to a delay addition process in a delay addition unit 33 described later.

或いは、レーザ光の照射は例えば被検部位の部分領域ごとに行うこともできる。このような場合、例えば導光板52は、領域A、領域Bおよび領域Cのそれぞれに対応して複数設けられる(図3)。その場合、領域Aに対応する導光板52aは領域Aの選択時にレーザ光を領域Aに照射する。そして、領域Bに対応する導光板52bは領域Bの選択時にレーザ光を領域Bに照射する。さらに、領域Cに対応する導光板52cは領域Cの選択時にレーザ光を領域Cに照射する。例えばアレイ振動子22が192ch分の超音波振動子22aから構成される場合を考える。アレイ振動子22の配列方向の幅は、光音響画像の生成に関連して例えば3つの部分領域(領域A〜C)に分割されており、各部分領域の幅は64ch分の超音波振動子22aの幅に相当する幅であるとする。光音響撮像装置10は、部分領域への光照射および信号検出をそれぞれの部分領域に対して1回ずつ(計3回)繰り返し行い、全192ch分のデータを取得することにより、1フレーム分の撮像を実施する。このような検出方法によって音響信号に基づくデータは、後述する生データメモリ34に一旦保存された後、位相整合加算部35において位相整合加算処理がなされる。   Alternatively, the laser beam irradiation can be performed for each partial region of the region to be examined, for example. In such a case, for example, a plurality of light guide plates 52 are provided corresponding to each of the regions A, B, and C (FIG. 3). In that case, the light guide plate 52a corresponding to the region A irradiates the region A with laser light when the region A is selected. The light guide plate 52b corresponding to the region B irradiates the region B with laser light when the region B is selected. Further, the light guide plate 52c corresponding to the region C irradiates the region C with laser light when the region C is selected. For example, consider a case where the array transducer 22 is composed of 192 ch ultrasonic transducers 22a. The width of the array transducer 22 in the arrangement direction is divided into, for example, three partial regions (regions A to C) related to the generation of the photoacoustic image, and the width of each partial region is an ultrasonic transducer for 64 channels. It is assumed that the width corresponds to the width of 22a. The photoacoustic imaging apparatus 10 repeats light irradiation and signal detection to the partial areas once (total 3 times) for each partial area, and acquires data for all 192 channels, thereby obtaining one frame worth of data. Perform imaging. Data based on the acoustic signal by such a detection method is temporarily stored in a raw data memory 34 described later, and then subjected to phase matching addition processing in the phase matching addition unit 35.

超音波探触子20は、光音響波を効率よく検出するために音響整合層をアレイ振動子22の表面に備えてもよい。一般に圧電素子材料と生体では音響インピーダンスが大きく異なるため、圧電素子材料と生体が直接接した場合には、界面での反射が大きくなり光音響波を効率よく検出することができない。このため、圧電素子材料と生体の間に中間的な音響インピーダンスを有する音響整合層が配置されることにより、光音響波を効率よく検出することができる。音響整合層を構成する材料の例としては、エポキシ樹脂やシリコーンゴムなどが挙げられる。   The ultrasonic probe 20 may include an acoustic matching layer on the surface of the array transducer 22 in order to efficiently detect photoacoustic waves. In general, the acoustic impedance of the piezoelectric element material and the living body are greatly different. Therefore, when the piezoelectric element material and the living body are in direct contact with each other, reflection at the interface is increased, and the photoacoustic wave cannot be detected efficiently. For this reason, a photoacoustic wave can be detected efficiently by arranging an acoustic matching layer having an intermediate acoustic impedance between the piezoelectric element material and the living body. Examples of the material constituting the acoustic matching layer include epoxy resin and silicone rubber.

システム制御部11は、レーザ光源12、信号受信部13、情報取得部14、表示部15および操作部16を制御するものである。システム制御部11は、例えばこれらが同期をとるためのトリガ信号を出力する。   The system control unit 11 controls the laser light source 12, the signal reception unit 13, the information acquisition unit 14, the display unit 15, and the operation unit 16. For example, the system control unit 11 outputs a trigger signal for synchronizing them.

レーザ光源12は、被検部位に照射すべきレーザ光Lを測定光として出力するものである。レーザ光源12は、例えば、血液の吸収ピークに含まれる波長のレーザ光を発生させる1以上の光源を有する。光源として、特定の波長成分又はその成分を含む単色光を発生する半導体レーザ(LD)、固体レーザ、ガスレーザ等の発光素子を用いることができる。例えば本実施形態においてレーザ光源12は、励起光源であるフラッシュランプとレーザ発振を制御するQスイッチレーザとを含むものとする。レーザ光源12は、システム制御部11がフラッシュランプトリガ信号を出力すると、フラッシュランプを点灯し、Qスイッチレーザを励起する。   The laser light source 12 outputs the laser light L to be irradiated to the test site as measurement light. The laser light source 12 includes, for example, one or more light sources that generate laser light having a wavelength included in a blood absorption peak. As the light source, a light emitting element such as a semiconductor laser (LD), a solid-state laser, or a gas laser that generates a specific wavelength component or monochromatic light including the component can be used. For example, in this embodiment, the laser light source 12 includes a flash lamp that is an excitation light source and a Q-switched laser that controls laser oscillation. When the system controller 11 outputs a flash lamp trigger signal, the laser light source 12 turns on the flash lamp and excites the Q-switched laser.

本発明では、レーザ光の波長は、撮像対象となる被検体内の物質の光吸収特性に合わせて適宜決定される。生体内のヘモグロビンは、その状態(酸素化ヘモグロビン、脱酸素化ヘモグロビン、メトヘモグロビン、炭酸ガスヘモグロビン、等)により光学的な吸収係数が異なる。例えば撮像対象が生体内のヘモグロビンである場合(つまり、生体内部の血管を撮像する場合)には、生体の光透過性が良く、かつ各種ヘモグロビンが光の吸収ピークを持つ600〜1000nm程度とすることが好ましい。   In the present invention, the wavelength of the laser light is appropriately determined according to the light absorption characteristics of the substance in the subject to be imaged. The hemoglobin in a living body has an optical absorption coefficient that varies depending on its state (oxygenated hemoglobin, deoxygenated hemoglobin, methemoglobin, carbon dioxide hemoglobin, etc.). For example, when the imaging target is hemoglobin in the living body (that is, when imaging blood vessels inside the living body), the light transmittance of the living body is good, and various hemoglobins have a light absorption peak of about 600 to 1000 nm. It is preferable.

レーザ光源12は、レーザ光として1〜100nsecのパルス幅を有するパルス光を出力するものであることが好ましい。そして、上記レーザ光の出力は、レーザ光と光音響波の伝搬ロス、光音響変換の効率および現状の検出器の検出感度等の観点から、10μJ/cm〜数10mJ/cmであることが好ましい。さらに、パルス光出力の繰り返しは、画像構築速度の観点から、10Hz以上であることが好ましい。また、レーザ光は上記パルス光が複数並んだパルス列とすることもできる。レーザ光源12から出力されたレーザ光は、例えば光ファイバ、導光板、レンズおよびミラー等の導光手段を用いて超音波探触子20のアレイ振動子22の近傍まで導光され、アレイ振動子22の近傍から被検部位に照射される。 The laser light source 12 preferably outputs pulsed light having a pulse width of 1 to 100 nsec as laser light. The output of the laser beam is 10 μJ / cm 2 to several tens of mJ / cm 2 from the viewpoints of propagation loss of laser beam and photoacoustic wave, efficiency of photoacoustic conversion, detection sensitivity of the current detector, and the like. Is preferred. Further, the repetition of the pulsed light output is preferably 10 Hz or more from the viewpoint of the image construction speed. Further, the laser beam may be a pulse train in which a plurality of the above pulsed beams are arranged. The laser light output from the laser light source 12 is guided to the vicinity of the array transducer 22 of the ultrasonic probe 20 using light guide means such as an optical fiber, a light guide plate, a lens, and a mirror. The region to be examined is irradiated from the vicinity of 22.

信号受信部13は、検出した音響信号から光音響画像を生成するものである。この光音響画像の生成は、受信回路30、AD変換部31、処理選択部32、遅延加算部33、生データメモリ34、位相整合加算部35、検波・対数変換部36、フレーム構築部37、ボリュームデータ構築部38、関連付け部39、視点設定部40およびデータ変換部41によって実現される。   The signal receiving unit 13 generates a photoacoustic image from the detected acoustic signal. The photoacoustic image is generated by receiving circuit 30, AD conversion unit 31, processing selection unit 32, delay addition unit 33, raw data memory 34, phase matching addition unit 35, detection / logarithmic conversion unit 36, frame construction unit 37, This is realized by the volume data construction unit 38, the association unit 39, the viewpoint setting unit 40, and the data conversion unit 41.

受信回路30は、超音波探触子20から出力された光音響波の電気信号を受信するものである。受信された電気信号はAD変換部31に出力される。   The receiving circuit 30 receives the electrical signal of the photoacoustic wave output from the ultrasonic probe 20. The received electrical signal is output to the AD conversion unit 31.

AD変換部31は電気信号をデジタル信号に変換するサンプリング手段である。例えばAD変換部31は、受信回路30が受信した電気信号を、例えばシステム制御部11が出力するクロック周波数40MHzのADクロック信号に同期してデジタル信号に変換する。   The AD conversion unit 31 is sampling means for converting an electrical signal into a digital signal. For example, the AD converter 31 converts the electrical signal received by the receiving circuit 30 into a digital signal in synchronization with, for example, an AD clock signal with a clock frequency of 40 MHz output by the system controller 11.

処理選択部32は、AD変換部31においてサンプリングしたデジタル信号(サンプリングデータ)を再構成するための処理を選択するものである。処理選択部32は、サンプリングデータを再構成する処理として、遅延加算処理または位相整合加算処理を選択し、遅延加算処理を選択した場合にはサンプリングデータを遅延加算部33へ送信し、位相整合加算処理を選択した場合にはサンプリングデータを生データメモリ34へ送信する。   The process selection unit 32 selects a process for reconstructing the digital signal (sampling data) sampled by the AD conversion unit 31. The process selection unit 32 selects a delay addition process or a phase matching addition process as a process for reconstructing the sampling data. If the delay addition process is selected, the process selection unit 32 transmits the sampling data to the delay addition unit 33 to perform the phase matching addition. When the process is selected, the sampling data is transmitted to the raw data memory 34.

遅延加算部33は、例えば超音波振動子22aのそれぞれが検出した信号から得られたそれぞれのサンプリングデータを、超音波振動子22aの位置に応じた遅延時間で加算し、再構成された1ライン分の信号データを生成する(遅延加算法)。遅延加算処理が行われる場合には、レーザ光の照射は超音波探触子20の位置を固定した状態で複数回行われるため、照射ごとに超音波振動子22aのチャンネルをずらしながら1ライン分の信号データが生成される。なお、この遅延加算部33は、遅延加算法に代えて、CBP法(Circular Back Projection)により再構成を行うものでもよい。あるいは遅延加算部33は、ハフ変換法又はフーリエ変換法を用いて再構成を行うものでもよい。   The delay addition unit 33 adds, for example, each sampling data obtained from a signal detected by each of the ultrasonic transducers 22a with a delay time corresponding to the position of the ultrasonic transducer 22a, and reconstructed one line. Minute signal data is generated (delay addition method). When the delay addition process is performed, the laser beam irradiation is performed a plurality of times with the position of the ultrasonic probe 20 fixed, and therefore, for each line, the channel of the ultrasonic transducer 22a is shifted for each irradiation. Signal data is generated. In addition, this delay addition part 33 may replace with the delay addition method, and may perform a reconfiguration | reconstruction by CBP method (Circular Back Projection). Alternatively, the delay addition unit 33 may perform reconstruction using the Hough transform method or the Fourier transform method.

さらに、1ライン分の信号データには、後述する情報取得部14によって取得された超音波探触子20の実空間における位置およびその向きを規定する空間情報であってその1ライン分の信号データの基となった音響信号が検出された時の空間情報(第1の空間情報)が関連付けられる。これにより、その1ライン分の信号データが実空間におけるどのライン部分に位置するものなのかを決定することができる。遅延加算部33は、上記のようにして再構成された信号データを検波・対数変換部36に出力する。   Further, the signal data for one line is the spatial information that defines the position and direction of the ultrasonic probe 20 in the real space acquired by the information acquisition unit 14 described later, and the signal data for the one line. Spatial information (first spatial information) at the time when the acoustic signal that is the basis of is detected is associated. As a result, it is possible to determine in which line portion in the real space the signal data for one line is located. The delay addition unit 33 outputs the signal data reconstructed as described above to the detection / logarithm conversion unit 36.

生データメモリ34は、例えば超音波振動子22aのそれぞれが検出した信号から得られたそれぞれの生のサンプリングデータをすべて一旦記憶するものである。   The raw data memory 34 temporarily stores, for example, all the raw sampling data obtained from the signals detected by the ultrasonic transducers 22a.

位相整合加算部35は、生データメモリ34に記憶された生のサンプリングデータに基づいて、それぞれのサンプリングデータを位相整合加算することにより、超音波振動子22aのチャンネルごとに1ライン分の信号データを生成するものである。位相整合加算部35は、例えばDSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を含むことが好ましい。位相整合加算部35は、上記のようにして再構成された信号データを検波・対数変換部36に出力する。   The phase matching adder 35 performs phase matching addition of the respective sampling data based on the raw sampling data stored in the raw data memory 34, so that signal data for one line is obtained for each channel of the ultrasonic transducer 22a. Is generated. The phase matching adder 35 preferably includes, for example, a DSP (Digital Signal Processor) or an FPGA (Field Programmable Gate Array). The phase matching adder 35 outputs the signal data reconstructed as described above to the detector / logarithm converter 36.

検波・対数変換部36は、遅延加算部33または位相整合加算部35から出力された1ライン分の信号データの包絡線を生成し、次いでその包絡線を対数変換してダイナミックレンジを広げる。そして、検波・対数変換部36は、上記のようにして信号処理した1ライン分の信号データをフレーム構築部37に出力する。   The detection / logarithm conversion unit 36 generates an envelope of signal data for one line output from the delay addition unit 33 or the phase matching addition unit 35, and then logarithmically converts the envelope to widen the dynamic range. Then, the detection / logarithm conversion unit 36 outputs the signal data for one line subjected to the signal processing as described above to the frame construction unit 37.

フレーム構築部37は、複数の1ライン分の信号データを組み合わせて、1フレーム(1断面)分の画像データを生成するものである。フレーム構築部37は、例えば1ライン分のデータの時間軸の位置を、断層画像における深さを表す変位軸の位置に変換して1フレーム分の画像データを構築する。構築された1フレーム分の画像データはボリュームデータ構築部38へ出力される。   The frame construction unit 37 generates image data for one frame (one cross section) by combining a plurality of signal data for one line. For example, the frame construction unit 37 constructs image data for one frame by converting the position of the time axis of the data for one line into the position of the displacement axis representing the depth in the tomographic image. The constructed image data for one frame is output to the volume data construction unit 38.

ボリュームデータ構築部38は、超音波探触子20の走査位置ごとに生成された1フレーム分の画像データに基づいて、1フレーム分の画像データを重畳させて空間座標に並べたり、取得したデータの間を補間しながら三次元の光音響画像用のボリュームデータを構築したりするものである。上記のようにしてボリュームデータ構築部38によって作成された三次元的な視覚効果を有する画像データを光音響画像データと称する。   The volume data construction unit 38 superimposes the image data for one frame on the basis of the image data for one frame generated for each scanning position of the ultrasound probe 20 and arranges the acquired data in spatial coordinates, or acquires the acquired data. Volume data for a three-dimensional photoacoustic image is constructed while interpolating between the two. Image data having a three-dimensional visual effect created by the volume data construction unit 38 as described above is referred to as photoacoustic image data.

関連付け部39は、後述する情報取得部14によって取得された第2の空間情報(被検部位の実空間における軸の向き、超音波探触子の実空間における走査方向、および実空間の鉛直方向のうち少なくとも1つの方向を規定する空間情報)を光音響画像データに関連付けるものである。第2の空間情報の関連付けは、上記少なくとも1つの方向と光音響画像データに係る撮像部位との実空間における位置関係が保持された状態で行う。「光音響画像データに係る撮像部位」とは、光音響画像データに基づく光音響画像に実際に表される被検部位の部分を意味する。   The associating unit 39 obtains second spatial information acquired by the information acquiring unit 14 described later (the direction of the axis in the real space of the test site, the scanning direction of the ultrasonic probe in the real space, and the vertical direction of the real space) (Spatial information defining at least one direction) is associated with the photoacoustic image data. The association of the second spatial information is performed in a state in which the positional relationship in the real space between the at least one direction and the imaging part related to the photoacoustic image data is maintained. The “imaging site related to photoacoustic image data” means a portion of the test site actually represented in the photoacoustic image based on the photoacoustic image data.

視点設定部40は、第2の空間情報が関連付けられた光音響画像データについて、当該第2の空間情報によって規定される上記少なくとも1つの方向の中から1つの方向を選択して、この選択結果に基づいて視点とするべき方向を設定するものである。なお、視点設定部40は、上記選択された1つの方向について、ユーザからの指示を受けて順方向か逆方向かの選択をするように構成してもよい。つまりこの場合には、この選択された1つの方向とその方向に対して順方向か逆方向かの選択結果に基づいて、その光音響画像データに基づく光音響画像を表示する際の視点の方向が決められる。   The viewpoint setting unit 40 selects one direction from among the at least one direction defined by the second spatial information for the photoacoustic image data associated with the second spatial information, and the selection result The direction which should be taken as a viewpoint is set based on this. Note that the viewpoint setting unit 40 may be configured to select a forward direction or a reverse direction in response to an instruction from the user for the selected one direction. That is, in this case, the direction of the viewpoint when displaying the photoacoustic image based on the photoacoustic image data based on the selected one direction and the selection result of the forward direction or the reverse direction with respect to the selected direction. Is decided.

このように視点とするべき方向が設定されると、三次元の光音響画像は常に実空間と関連付けられた特定の方向から見た画像として表示される。視点設定部40において、方向の選択は、初期値として設定された方向またはユーザが操作部16を使用して入力した情報に従って行われる(図2)。これにより、ユーザは、必要に応じて、光音響画像が表示される際の視点を変更することが可能である。なお、光音響画像データを構築した仮想空間の中で、光音響画像データと視点との距離は、光音響画像の縮尺に応じて適宜調整される。つまり、光音響画像データと視点との距離は、画像の表示手段の画面上での縮尺に影響するものであるから、光音響画像が画面の中で適切な大きさで表示されるようにする。   Thus, when the direction which should be made into a viewpoint is set, a three-dimensional photoacoustic image will always be displayed as an image seen from the specific direction linked | related with real space. In the viewpoint setting unit 40, the direction is selected according to the direction set as an initial value or information input by the user using the operation unit 16 (FIG. 2). Thereby, the user can change the viewpoint at the time of displaying a photoacoustic image as needed. In the virtual space in which the photoacoustic image data is constructed, the distance between the photoacoustic image data and the viewpoint is appropriately adjusted according to the scale of the photoacoustic image. That is, since the distance between the photoacoustic image data and the viewpoint affects the scale of the image display means on the screen, the photoacoustic image is displayed in an appropriate size on the screen. .

また、光音響画像を画面に表示する際に、画像のどの方向を画面上での「上方向」に設定するかについては、例えば被検部位と超音波探触子20とが接触している面を画面上での「上方向」とするよう基本設定しておく。このように基本設定しておくことで、ユーザは常に被検部位の表面が画面の中で上として表示された光音響画像を見ることができる。なお、画面上での「上方向」をどのように設定するかは、予め操作部16によって変更することも可能である。   Further, when displaying the photoacoustic image on the screen, as to which direction of the image is set to the “upward direction” on the screen, for example, the region to be examined and the ultrasonic probe 20 are in contact with each other. Basic settings are made so that the surface is “upward” on the screen. By making the basic settings in this way, the user can always see a photoacoustic image in which the surface of the region to be examined is displayed as the top in the screen. Note that how to set the “upward direction” on the screen can be changed in advance by the operation unit 16.

視点設定部40は、三次元の光音響画像データが複数生成された場合には、複数の光音響画像データのそれぞれに関して上記視点とするべき方向として、同一の要素を選択するものであることが好ましい。「要素」とは、第2の空間情報を構成する要素、並びに、順方向か逆方向かの要素を意味する。つまり、視点設定部40は、複数の光音響画像データのそれぞれについての上記視点とするべき方向が同一となるように、上記1つの方向を選択し、順方向か逆方向かの選択を行うことになる。なお、「同一」とは、実空間において物理的に同一であるという意味ではなく、例えば「超音波探触子の実空間における走査方向」のような選択された項目が同一であるという意味である。   When a plurality of three-dimensional photoacoustic image data is generated, the viewpoint setting unit 40 may select the same element as the direction to be the viewpoint for each of the plurality of photoacoustic image data. preferable. The “element” means an element constituting the second spatial information and an element in the forward direction or the reverse direction. That is, the viewpoint setting unit 40 selects the one direction so that the direction to be the viewpoint for each of a plurality of photoacoustic image data is the same, and selects either the forward direction or the reverse direction. become. Note that “same” does not mean that it is physically the same in the real space, but means that the selected items such as “the scanning direction of the ultrasonic probe in the real space” are the same. is there.

データ変換部41は、選択された上記1つの方向から見られた画像として、光音響画像データに基づく光音響画像が表示部に表示されるように、当該光音響画像データを変換するものである。変換方法としては、例えば座標変換等の公知の方法により行うことができる。変換された光音響画像データは表示部15へ出力される。   The data conversion unit 41 converts the photoacoustic image data so that a photoacoustic image based on the photoacoustic image data is displayed on the display unit as an image viewed from the selected one direction. . As a conversion method, it can carry out by well-known methods, such as coordinate conversion, for example. The converted photoacoustic image data is output to the display unit 15.

また、データ変換部41は、光音響画像データとして、三次元のボリュームデータを一括して出力してもよいし、1フレーム分の画像データを順次出力するようにしてもよい。前者の場合には、超音波探触子20の1回の走査が終了した時点で所定の視点となるように画像が表示される。一方、後者の場合には、図4に示されるように、超音波探触子20の走査の進捗に合わせて1フレーム分の画像データが順次表示されるようになる。例えば、視点とするべき方向として超音波探触子20の走査方向の順方向が設定されている場合には、表示手段15の画面上では、1フレーム分の画像データが、仮想空間の中で奥から手前に向かって重畳されながら表示される。一方、視点とするべき方向として超音波探触子20の走査方向の逆方向が設定されている場合には、表示手段15の画面上では、1フレーム分の画像データが、仮想空間の中で手前から奥に向かって重畳されながら表示される。例えば、図4は、手前に行くに従って細くなる血管Vを撮像した場合において、後方にある画像が透けるように画像の中心がずらされながら、1フレーム分の画像データ55が空間座標上で手前に順次並べられる様子を示す。   In addition, the data conversion unit 41 may output three-dimensional volume data as photoacoustic image data in a lump, or may sequentially output image data for one frame. In the former case, an image is displayed so that a predetermined viewpoint is obtained when one scan of the ultrasound probe 20 is completed. On the other hand, in the latter case, as shown in FIG. 4, image data for one frame is sequentially displayed as the scanning of the ultrasonic probe 20 progresses. For example, when the forward direction of the scanning direction of the ultrasound probe 20 is set as the direction to be set as the viewpoint, the image data for one frame is displayed in the virtual space on the screen of the display unit 15. It is displayed while being superimposed from the back toward the front. On the other hand, when the direction opposite to the scanning direction of the ultrasound probe 20 is set as the direction to be set as the viewpoint, the image data for one frame is displayed on the screen of the display unit 15 in the virtual space. It is displayed while being superimposed from the front to the back. For example, in FIG. 4, when a blood vessel V that narrows toward the front is imaged, the image data 55 for one frame is moved forward in spatial coordinates while the center of the image is shifted so that the image behind is transparent. It shows how they are arranged sequentially.

情報取得部14は、超音波探触子20の実空間における位置およびその向きを規定する第1の空間情報を取得し、かつ、被検部位Mの実空間における軸の向き、超音波探触子20の実空間における走査方向、および実空間の鉛直方向のうち少なくとも1つの方向を規定する第2の空間情報を取得するものである。「被検部位Mの実空間における軸の向き」とは、被検部位を包含する頭部、胴体または四肢の中心軸を意味する。例えば、図5に示されるように、胴体Dの中心軸とは胴体の長さ方向に沿って中心を通る軸αであり、上肢Eの中心軸とは上肢の長さ方向に沿って中心を通る軸βであり、下肢Fの中心軸とは下肢の長さ方向に沿って中心を通る軸γである。なお、軸の正負の取り方は任意である。また、上肢および下肢が関節で屈曲している場合には、関節で分離した上腕、前腕、大腿および下腿のそれぞれで同様に中心軸を求めることもできる。「超音波探触子20の実空間における走査方向」とは、図3に示されるように、超音波探触子20を走査する方向を意味し、通常は、超音波振動子22aの配列方向に垂直で、かつ被検部位の表面に沿った方向となる。   The information acquisition unit 14 acquires first spatial information that defines the position and orientation of the ultrasonic probe 20 in the real space, and the axis direction in the real space of the test site M, the ultrasonic probe The second spatial information defining at least one of the scanning direction in the real space of the child 20 and the vertical direction of the real space is acquired. “Direction of the axis of the test site M in the real space” means the central axis of the head, torso, or limb that includes the test site. For example, as shown in FIG. 5, the center axis of the trunk D is an axis α passing through the center along the length direction of the trunk, and the center axis of the upper limb E is centered along the length direction of the upper limb. Is the axis β that passes through, and the central axis of the lower limb F is the axis γ that passes through the center along the length direction of the lower limb. In addition, how to take the positive / negative of an axis | shaft is arbitrary. Further, when the upper limb and the lower limb are bent at the joint, the central axis can be similarly obtained for each of the upper arm, the forearm, the thigh and the lower leg separated by the joint. The “scanning direction of the ultrasonic probe 20 in the real space” means a direction in which the ultrasonic probe 20 is scanned, as shown in FIG. 3, and is usually the arrangement direction of the ultrasonic transducers 22 a. And a direction along the surface of the test site.

情報取得部14は、磁場発生部17および複数の磁気センサ18を有する磁気センサユニットを含み、この磁気センサユニットを使用して空間情報を取得する。磁気センサユニットは、磁場発生部17が形成するパルス磁場上の空間において、磁場発生部17に対する磁気センサ18の相対的位置座標(x、y、z)、および磁気センサ18の姿勢情報(角度(α、β、γ)の情報)を取得することができる。   The information acquisition unit 14 includes a magnetic sensor unit having a magnetic field generation unit 17 and a plurality of magnetic sensors 18, and acquires spatial information using the magnetic sensor unit. The magnetic sensor unit has a relative position coordinate (x, y, z) of the magnetic sensor 18 with respect to the magnetic field generator 17 in the space on the pulse magnetic field formed by the magnetic field generator 17, and posture information (angle ( information on α, β, γ).

したがって、超音波探触子20の実空間における位置は、例えば2つの磁気センサ18が取得した自身が存在する位置に基づいて、その中間位置として求めることができる。また、超音波探触子20の実空間における向きは、2つの磁気センサ18のうち一方磁気センサ(例えば超音波探触子20の裏側のセンサ)から他方の磁気センサ(例えば超音波探触子20の表側のセンサ)へ向かうベクトルを算出することにより求めることができる。また、被検部位Mの実空間における軸の向きは、磁気センサユニットを用いて被検部位を包含する頭部、胴体または四肢の中心軸を規定する2点を決定することにより求めることができる。具体的には、例えば上肢の場合には、肩の位置に超音波探触子20を配置してその位置を情報取得部14に記憶させ、その後手先の位置に超音波探触子20を配置してその位置を情報取得部14に記憶させれば、上肢の中心軸βを規定する2点が得られる。また、超音波探触子20の実空間における走査方向は、超音波探触子20の実空間における位置の時間的な変化に基づいて求めることができる。また、実空間の鉛直方向は、例えば磁場発生部17によって規定される座標系のz軸とすることができる。   Accordingly, the position of the ultrasonic probe 20 in the real space can be obtained as an intermediate position based on the position where the two magnetic sensors 18 have acquired, for example. Further, the orientation of the ultrasonic probe 20 in the real space is such that one of the two magnetic sensors 18 (for example, the sensor on the back side of the ultrasonic probe 20) and the other magnetic sensor (for example, the ultrasonic probe). It can be obtained by calculating a vector directed to 20 front side sensors). Further, the orientation of the axis of the test site M in the real space can be obtained by determining two points that define the central axis of the head, torso, or limbs that include the test site using the magnetic sensor unit. . Specifically, for example, in the case of the upper limb, the ultrasonic probe 20 is arranged at the shoulder position, the position is stored in the information acquisition unit 14, and then the ultrasonic probe 20 is arranged at the hand position. If the information acquisition unit 14 stores the position, two points that define the central axis β of the upper limb can be obtained. Further, the scanning direction of the ultrasonic probe 20 in the real space can be obtained based on the temporal change of the position of the ultrasonic probe 20 in the real space. Further, the vertical direction of the real space can be the z-axis of the coordinate system defined by the magnetic field generator 17, for example.

磁気センサ18は、超音波探触子20の実空間における位置およびその向きを正確に取得するために、超音波振動子22aの配列方向を規定するために2つ、超音波振動子22aの配列方向に垂直で、かつ被検部位の表面と交わる方向を規定するために2つの少なくとも4つ必要である。   In order to accurately acquire the position and orientation of the ultrasonic probe 20 in the real space, two magnetic sensors 18 are provided to define the arrangement direction of the ultrasonic transducers 22a. Two at least four are required to define the direction perpendicular to the direction and intersecting the surface of the test site.

例えば、第1の空間情報は1フレーム分の撮像ごとに取得される。具体的には、情報取得のタイミングをレーザ光源12の出力に同期させることにより、撮像ごとの情報取得が可能である。   For example, the first spatial information is acquired every time one frame is captured. Specifically, by synchronizing the information acquisition timing with the output of the laser light source 12, it is possible to acquire information for each imaging.

表示部15は、データ変換部41によって変換された光音響画像データに基づく光音響画像を表示するものである。図6Aおよび5Bは、モデル化された三次元の光音響画像を示す概略図である。そして、図6Aaは当該光音響画像の斜視図、図6Abは当該光音響画像の平面図、図6Acは当該光音響画像の正面図、図6Adは当該光音響画像の右側面図、図6Beは当該光音響画像の右側面図である。図6Aおよび5Bでは、撮像部位として例えば3つの立方体が表現されている。また、当該光音響画像データには、直交系のx軸、y軸およびz軸が関連付けられており、例えばx軸は超音波探触子の実空間における走査方向、y軸は被検部位の実空間における軸の向き、z軸は実空間の鉛直方向であるとする。なお、上記の例では、光音響画像データに3つの方向が関連付けられているが、関連付けられる方向は1つでもよい。また、上記の例では、3つの方向が直交系を成すように設定されているが、これらの方向は必ずしも直交系である必要はない。   The display unit 15 displays a photoacoustic image based on the photoacoustic image data converted by the data conversion unit 41. 6A and 5B are schematic diagrams illustrating a modeled three-dimensional photoacoustic image. 6Aa is a perspective view of the photoacoustic image, FIG. 6Ab is a plan view of the photoacoustic image, FIG. 6Ac is a front view of the photoacoustic image, FIG. 6Ad is a right side view of the photoacoustic image, and FIG. It is a right view of the said photoacoustic image. In FIGS. 6A and 5B, for example, three cubes are represented as imaging parts. Further, the x-, y-, and z-axes of the orthogonal system are associated with the photoacoustic image data. For example, the x-axis is the scanning direction in the real space of the ultrasonic probe, and the y-axis is the site to be examined. It is assumed that the direction of the axis in the real space and the z axis are the vertical direction of the real space. In the above example, three directions are associated with the photoacoustic image data, but one direction may be associated. In the above example, the three directions are set to form an orthogonal system, but these directions do not necessarily need to be an orthogonal system.

例えば、視点設定部40が3つの方向の中から「実空間の鉛直方向」を選択し、かつ順方向か逆方向かの選択において「順方向」を選択した結果、視点とするべき方向としてz軸正方向を設定した場合には、図6Abに示されるように、立方体の面のうち「Z」と記載された面が見えるように、x−y平面Pxyに投影された当該光音響画像が表示される。また、視点設定部40が3つの方向の中から「被検部位の実空間における軸の向き」を選択し、かつ順方向か逆方向かの選択において「順方向」を選択した結果、視点とするべき方向としてy軸正方向を設定した場合には、図6Acに示されるように、立方体の面のうち「Y」と記載された面が見えるように、z−x平面Pzxに投影された当該光音響画像が表示される。また、視点設定部40が3つの方向の中から「超音波探触子の実空間における走査方向」を選択し、かつ順方向か逆方向かの選択において「順方向」を選択した結果、視点とするべき方向としてx軸正方向を設定した場合には、図6Adに示されるように、立方体の面のうち「X」と記載された面が見えるように、y−z平面Pyzに投影された当該光音響画像が表示される。   For example, as a result of the viewpoint setting unit 40 selecting “vertical direction of real space” from three directions and selecting “forward direction” in the selection of the forward direction or the reverse direction, z When the axial positive direction is set, as shown in FIG. 6Ab, the photoacoustic image projected on the xy plane Pxy is visible so that the surface described as “Z” among the surfaces of the cube can be seen. Is displayed. In addition, as a result of the viewpoint setting unit 40 selecting “the direction of the axis in the real space of the test site” from the three directions and selecting “forward direction” in the selection of the forward direction or the reverse direction, When the y-axis positive direction is set as the direction to be performed, as shown in FIG. 6Ac, projection is performed on the z-x plane Pzx so that the surface described as “Y” among the surfaces of the cube can be seen. The photoacoustic image is displayed. As a result of the viewpoint setting unit 40 selecting the “scanning direction in the real space of the ultrasound probe” from the three directions and selecting “forward direction” in the selection of the forward direction or the reverse direction, the viewpoint When the x-axis positive direction is set as the direction to be set, as shown in FIG. 6Ad, it is projected onto the yz plane Pyz so that the surface described as “X” among the cube surfaces can be seen. The photoacoustic image is displayed.

さらに、視点設定部40が3つの方向の中から「超音波探触子の実空間における走査方向」を選択し、かつ順方向か逆方向かの選択において「逆方向」を選択した結果、視点とするべき方向としてx軸負方向を設定した場合には、図6Beに示されるように、立方体の面のうち「X」と記載された面が裏側から見えるように、y−z平面Pyzに投影された当該光音響画像が表示される。   Further, as a result of the viewpoint setting unit 40 selecting the “scanning direction in the real space of the ultrasound probe” from the three directions and selecting “reverse direction” in the selection of the forward direction or the reverse direction, the viewpoint When the x-axis negative direction is set as the direction to be set, as shown in FIG. 6Be, in the yz plane Pyz, the surface described as “X” among the cube surfaces can be seen from the back side. The projected photoacoustic image is displayed.

このように、三次元の光音響画像が常に実空間と関連付けられた特定の方向から見た画像として表示されるため、ユーザは光音響画像の内容を容易に把握しやすくなる。   Thus, since the three-dimensional photoacoustic image is always displayed as an image viewed from a specific direction associated with the real space, the user can easily grasp the contents of the photoacoustic image.

なお、上記の表示方法は、光音響画像が表示部に表示された初期段階における表示方法であるため、一旦光音響画像が表示された後、ユーザが必要に応じて当該画像を回転させたり移動させたりすることも当然可能である。つまり、視点とするべき方向としてx軸正方向を設定して三次元画像を見た後に、ユーザがy軸正方向からの画像も見たくなった場合には、ユーザが操作部16を介してその旨を入力することにより、その情報が視点設定部40に送信される。この際には、視点設定部40は、視点とするべき方向としてy軸正方向を設定する。そして、データ変換部41は、既に記録された光音響画像データとそれに関連付けられた第2の空間情報を再取得して、視点がy軸正方向にある光音響画像を再計算することになる。例えば、基本設定として被検部位の横断面を遠位側(心臓から遠い側)から見た画像を常に表示するなどの設定が考えられる。   The above display method is an initial display method in which the photoacoustic image is displayed on the display unit. Therefore, after the photoacoustic image is displayed once, the user rotates or moves the image as necessary. Of course, it is also possible to make them. That is, if the user wants to see an image from the positive y-axis direction after setting the positive x-axis direction as the direction to be viewed and viewing the three-dimensional image, the user can use the operation unit 16 to view the image. By inputting that fact, the information is transmitted to the viewpoint setting unit 40. At this time, the viewpoint setting unit 40 sets the positive y-axis direction as the direction to be set as the viewpoint. Then, the data conversion unit 41 re-acquires the already recorded photoacoustic image data and the second spatial information associated therewith, and recalculates the photoacoustic image whose viewpoint is in the positive y-axis direction. . For example, as a basic setting, a setting of always displaying an image obtained by viewing the cross section of the test site from the distal side (the side far from the heart) can be considered.

操作部16は、ユーザが撮像に必要な情報を入力するためのものである。例えば、ユーザは、操作部16を用いて、光音響画像が表示される際の視点方向を指定したり、患者の情報や撮像条件についての情報を入力する。   The operation unit 16 is for a user to input information necessary for imaging. For example, the user uses the operation unit 16 to specify the viewpoint direction when the photoacoustic image is displayed, or to input information about patient information or imaging conditions.

以上のように、本発明に係る光音響撮像装置および方法は、第2の空間情報によって規定される少なくとも1つの方向と光音響画像データに係る撮像部位との実空間における位置関係が保持された状態で、第2の空間情報を光音響画像データに関連付け、第2の空間情報が関連付けられた光音響画像データについて、上記少なくとも1つの方向の中から1つの方向を選択し、選択された上記1つの方向から見られた画像として、光音響画像データに基づく光音響画像が表示部に表示されるように、当該光音響画像データを変換するから、三次元の光音響画像は常に実空間と関連付けられた特定の方向から見た画像として表示される。この結果、三次元の光音響画像を表示する場合において、ユーザにとって光音響画像の内容を容易に把握しやすくすることが可能となる。   As described above, in the photoacoustic imaging apparatus and method according to the present invention, the positional relationship in the real space between at least one direction defined by the second spatial information and the imaging site related to the photoacoustic image data is maintained. In the state, the second spatial information is associated with the photoacoustic image data, and for the photoacoustic image data associated with the second spatial information, one direction is selected from the at least one direction, and the selected Since the photoacoustic image data is converted so that the photoacoustic image based on the photoacoustic image data is displayed on the display unit as an image viewed from one direction, the three-dimensional photoacoustic image is always in real space. It is displayed as an image viewed from the associated specific direction. As a result, when displaying a three-dimensional photoacoustic image, it becomes possible for the user to easily grasp the contents of the photoacoustic image.

(設計変更)
上記の実施形態では、レーザ光源12に同期して情報取得部14が必要な情報を取得する場合(つまり、レーザ光源12が上位である場合)について、説明したが、本発明はこれに限られない。例えば、本発明に係る光音響撮像装置および方法は、第1の空間情報によって規定される位置および向きのそれぞれが、予め設定された位置および向きと略一致した場合に、1フレーム分の撮像を実施するものとすることができる。このように、情報取得部14が取得した第1の空間情報に従ってレーザ光源12からレーザ光を出力させる場合(つまり、情報取得部14が上位である場合)には、超音波探触子20の走査速度によらず、等間隔に光音響画像データを収集することが可能となる。予め設定される位置および向きは、例えばユーザが操作部16を用いて設定する。
(Design changes)
In the above embodiment, the case where the information acquisition unit 14 acquires necessary information in synchronization with the laser light source 12 (that is, the case where the laser light source 12 is higher) has been described, but the present invention is not limited thereto. Absent. For example, the photoacoustic imaging apparatus and method according to the present invention captures an image for one frame when each of the position and orientation defined by the first spatial information substantially matches the preset position and orientation. Can be implemented. As described above, when the laser light is output from the laser light source 12 in accordance with the first spatial information acquired by the information acquisition unit 14 (that is, when the information acquisition unit 14 is higher), the ultrasonic probe 20 Photoacoustic image data can be collected at regular intervals regardless of the scanning speed. The position and orientation set in advance are set by the user using the operation unit 16, for example.

10 光音響撮像装置
11 システム制御部
12 レーザ光源
13 信号受信部
14 情報取得部
15 表示部
16 操作部
17 磁場発生部
18 磁気センサ
20 超音波探触子
21 光照射部
22 アレイ振動子
22a 超音波振動子
30 受信回路
31 変換部
32 処理選択部
33 遅延加算部
34 生データメモリ
35 位相整合加算部
36 検波・対数変換部
37 フレーム構築部
38 ボリュームデータ構築部
39 関連付け部
40 視点設定部
41 データ変換部
42 画像データ生成部
L レーザ光
M 被検部位
U 光音響波
DESCRIPTION OF SYMBOLS 10 Photoacoustic imaging device 11 System control part 12 Laser light source 13 Signal receiving part 14 Information acquisition part 15 Display part 16 Operation part 17 Magnetic field generation part 18 Magnetic sensor 20 Ultrasonic probe 21 Light irradiation part 22 Array transducer 22a Ultrasonic wave Transducer 30 Reception circuit 31 Conversion unit 32 Processing selection unit 33 Delay addition unit 34 Raw data memory 35 Phase matching addition unit 36 Detection / logarithm conversion unit 37 Frame construction unit 38 Volume data construction unit 39 Association unit 40 Viewpoint setting unit 41 Data conversion Unit 42 Image data generation unit L Laser beam M Test site U Photoacoustic wave

Claims (12)

被検部位に測定光を照射する光照射部、および、前記測定光の照射により前記被検部位内で発生した光音響波を検出する超音波振動子が一次元に配列したアレイ振動子を有する超音波探触子と、
前記超音波探触子の実空間における位置およびその向きを規定する第1の空間情報を取得し、かつ、前記被検部位の前記実空間における軸の向き、前記超音波探触子の前記実空間における走査方向、および前記実空間の鉛直方向のうち少なくとも1つの方向を規定する第2の空間情報を取得する情報取得部と、
前記超音波探触子の走査によって検出された前記光音響波、および前記走査中に取得された前記第1の空間情報に基づいて、光音響画像データを生成する画像データ生成部と、
前記少なくとも1つの方向と前記光音響画像データに係る撮像部位との前記実空間における位置関係が保持された状態で、前記第2の空間情報を前記光音響画像データに関連付ける関連付け部と、
第2の空間情報が関連付けられた前記光音響画像データについて、該第2の空間情報によって規定される前記少なくとも1つの方向の中から1つの方向を選択して、選択結果に基づいて視点とするべき方向を設定する視点設定部と、
前記視点とするべき方向から見られた画像として、前記光音響画像データに基づく光音響画像が表示部に表示されるように、前記光音響画像データを変換するデータ変換部と、
変換された前記光音響画像データに基づく前記光音響画像を表示する前記表示部とを備えることを特徴とする光音響撮像装置。
A light irradiating unit for irradiating the test site with measurement light, and an array transducer in which ultrasonic transducers for detecting photoacoustic waves generated in the test site by irradiation of the measurement light are arranged one-dimensionally An ultrasound probe,
First spatial information that defines the position and orientation of the ultrasonic probe in real space is acquired, and the direction of the axis of the test site in the real space, the real of the ultrasonic probe An information acquisition unit for acquiring second spatial information defining at least one direction among a scanning direction in space and a vertical direction of the real space;
An image data generation unit that generates photoacoustic image data based on the photoacoustic wave detected by the scanning of the ultrasonic probe and the first spatial information acquired during the scanning;
An associating unit for associating the second spatial information with the photoacoustic image data in a state in which the positional relationship in the real space between the at least one direction and the imaging part related to the photoacoustic image data is maintained;
For the photoacoustic image data associated with the second spatial information, one direction is selected from the at least one direction defined by the second spatial information, and the viewpoint is set based on the selection result. A viewpoint setting unit for setting the power direction;
A data conversion unit that converts the photoacoustic image data so that a photoacoustic image based on the photoacoustic image data is displayed on the display unit as an image viewed from the direction to be the viewpoint;
A photoacoustic imaging apparatus comprising: the display unit configured to display the photoacoustic image based on the converted photoacoustic image data.
前記視点設定部が、前記選択された1つの方向について、さらに順方向か逆方向かの選択をし、この選択結果も踏まえるものであることを特徴とする請求項1に記載の光音響撮像装置。   2. The photoacoustic imaging apparatus according to claim 1, wherein the viewpoint setting unit further selects a forward direction or a reverse direction with respect to the selected one direction, and based on the selection result. . 前記視点設定部が、複数生成された光音響画像データについて、前記複数の光音響画像データのそれぞれに関して前記視点とするべき方向として、同一の要素を選択するものであることを特徴とする請求項1または2に記載の光音響撮像装置。   The said viewpoint setting part selects the same element as a direction which should be made into the said viewpoint regarding each of these several photoacoustic image data about the produced | generated photoacoustic image data, It is characterized by the above-mentioned. 3. The photoacoustic imaging apparatus according to 1 or 2. 前記情報取得部が、1フレーム分の撮像ごとに前記第1の空間情報を取得するものであることを特徴とする請求項1から3いずれかに記載の光音響撮像装置。   The photoacoustic imaging apparatus according to claim 1, wherein the information acquisition unit acquires the first spatial information every time one frame is captured. 前記第1の空間情報によって規定される前記位置および前記向きのそれぞれが、予め設定された位置および向きと略一致した場合に、1フレーム分の撮像を実施するものであることを特徴とする請求項1から3いずれかに記載の光音響撮像装置。   The imaging for one frame is performed when each of the position and the orientation defined by the first spatial information substantially matches a preset position and orientation. Item 4. The photoacoustic imaging apparatus according to any one of Items 1 to 3. 前記情報取得部が、磁気センサユニットを含み、該磁気センサユニットを用いて前記第1の空間情報および前記第2の空間情報を取得するものであることを特徴とする請求項1から5いずれかに記載の光音響撮像装置。   6. The information acquisition unit includes a magnetic sensor unit, and acquires the first spatial information and the second spatial information using the magnetic sensor unit. The photoacoustic imaging device described in 1. 光音響撮像用の超音波探触子を備える光音響撮像装置を用いて、
前記超音波探触子の実空間における位置およびその向きを規定する第1の空間情報を取得し、かつ、前記被検部位の前記実空間における軸の向き、前記超音波探触子の前記実空間における走査方向、および前記実空間の鉛直方向のうち少なくとも1つの方向を規定する第2の空間情報を取得し、
前記超音波探触子の走査によって検出された前記光音響波、および前記走査中に取得された前記第1の空間情報に基づいて、光音響画像データを生成し、
前記少なくとも1つの方向と前記光音響画像データに係る撮像部位との前記実空間における位置関係が保持された状態で、前記第2の空間情報を前記光音響画像データに関連付け、
第2の空間情報が関連付けられた前記光音響画像データについて、該第2の空間情報によって規定される前記少なくとも1つの方向の中から1つの方向を選択して、選択結果に基づいて視点とするべき方向を設定し、
選択された前記1つの方向から見られた画像として、前記光音響画像データに基づく光音響画像が表示部に表示されるように、前記光音響画像データを変換し、
変換された前記光音響画像データに基づく前記光音響画像を表示することを特徴とする光音響撮像方法。
By using a photoacoustic imaging apparatus equipped with an ultrasonic probe for photoacoustic imaging,
First spatial information that defines the position and orientation of the ultrasonic probe in real space is acquired, and the direction of the axis of the test site in the real space, the real of the ultrasonic probe Obtaining second spatial information defining at least one direction of a scanning direction in space and a vertical direction of the real space;
Based on the photoacoustic wave detected by scanning of the ultrasonic probe and the first spatial information acquired during the scanning, photoacoustic image data is generated,
In a state where the positional relationship in the real space between the at least one direction and the imaging part related to the photoacoustic image data is maintained, the second spatial information is associated with the photoacoustic image data,
For the photoacoustic image data associated with the second spatial information, one direction is selected from the at least one direction defined by the second spatial information, and the viewpoint is set based on the selection result. Set the power direction,
Converting the photoacoustic image data so that a photoacoustic image based on the photoacoustic image data is displayed on the display unit as an image viewed from the selected one direction;
A photoacoustic imaging method comprising displaying the photoacoustic image based on the converted photoacoustic image data.
前記選択された1つの方向について、さらに順方向か逆方向かの選択をし、この選択結果も踏まえることを特徴とする請求項7に記載の光音響撮像方法。   The photoacoustic imaging method according to claim 7, wherein the selected one direction is further selected as a forward direction or a reverse direction, and the selection result is also taken into account. 複数生成された光音響画像データについて、前記複数の光音響画像データのそれぞれに関して前記視点とするべき方向として、同一の要素を選択することを特徴とする請求項7または8に記載の光音響撮像方法。   9. The photoacoustic imaging according to claim 7 or 8, wherein, for a plurality of generated photoacoustic image data, the same element is selected as a direction to be the viewpoint for each of the plurality of photoacoustic image data. Method. 1フレーム分の撮像ごとに前記第1の空間情報を取得することを特徴とする請求項7から9いずれかに記載の光音響撮像方法。   The photoacoustic imaging method according to any one of claims 7 to 9, wherein the first spatial information is acquired every imaging of one frame. 前記第1の空間情報によって規定される前記位置および前記向きのそれぞれが、予め設定された位置および向きと略一致した場合に、1フレーム分の撮像を実施することを特徴とする請求項7から9いずれかに記載の光音響撮像方法。   The imaging for one frame is performed when each of the position and the orientation defined by the first spatial information substantially matches a preset position and orientation. 9. The photoacoustic imaging method according to any one of 9. 磁気センサユニットを用いて前記第1の空間情報および前記第2の空間情報を取得することを特徴とする請求項7から11いずれかに記載の光音響撮像方法。   The photoacoustic imaging method according to claim 7, wherein the first spatial information and the second spatial information are acquired using a magnetic sensor unit.
JP2011212134A 2011-09-28 2011-09-28 Photoacoustic imaging apparatus and photoacoustic imaging method Active JP5722182B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011212134A JP5722182B2 (en) 2011-09-28 2011-09-28 Photoacoustic imaging apparatus and photoacoustic imaging method
PCT/JP2012/005786 WO2013046568A1 (en) 2011-09-28 2012-09-12 Photoacoustic imaging equipment and photoacoustic imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011212134A JP5722182B2 (en) 2011-09-28 2011-09-28 Photoacoustic imaging apparatus and photoacoustic imaging method

Publications (2)

Publication Number Publication Date
JP2013070847A true JP2013070847A (en) 2013-04-22
JP5722182B2 JP5722182B2 (en) 2015-05-20

Family

ID=47994657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011212134A Active JP5722182B2 (en) 2011-09-28 2011-09-28 Photoacoustic imaging apparatus and photoacoustic imaging method

Country Status (2)

Country Link
JP (1) JP5722182B2 (en)
WO (1) WO2013046568A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10662325B2 (en) 2017-07-13 2020-05-26 Exxonmobil Chemical Patents Inc. Polyester compositions, and process for making articles therefrom

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028337B (en) * 2019-12-04 2021-06-25 南京大学 Three-dimensional photoacoustic imaging method for improving problem of limited visual angle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1156845A (en) * 1997-06-04 1999-03-02 Advanced Technol Lab Inc Ultrasonic image processor for diagnosing chest and ultrasonography
JP2001104295A (en) * 1999-10-06 2001-04-17 Hitachi Medical Corp Medical imaging system
JP2003019132A (en) * 2001-07-10 2003-01-21 Aloka Co Ltd Ultrasonograph
JP2003325514A (en) * 2002-05-16 2003-11-18 Aloka Co Ltd Ultrasonic diagnostic apparatus
JP2010259536A (en) * 2009-04-30 2010-11-18 Canon Inc Image processor, and method for controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1156845A (en) * 1997-06-04 1999-03-02 Advanced Technol Lab Inc Ultrasonic image processor for diagnosing chest and ultrasonography
JP2001104295A (en) * 1999-10-06 2001-04-17 Hitachi Medical Corp Medical imaging system
JP2003019132A (en) * 2001-07-10 2003-01-21 Aloka Co Ltd Ultrasonograph
JP2003325514A (en) * 2002-05-16 2003-11-18 Aloka Co Ltd Ultrasonic diagnostic apparatus
JP2010259536A (en) * 2009-04-30 2010-11-18 Canon Inc Image processor, and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10662325B2 (en) 2017-07-13 2020-05-26 Exxonmobil Chemical Patents Inc. Polyester compositions, and process for making articles therefrom

Also Published As

Publication number Publication date
WO2013046568A1 (en) 2013-04-04
JP5722182B2 (en) 2015-05-20

Similar Documents

Publication Publication Date Title
US10143381B2 (en) Object information acquiring apparatus and control method therefor
JP5779169B2 (en) Acoustic image generating apparatus and method for displaying progress when generating image using the same
US20130116536A1 (en) Acoustic wave acquiring apparatus and acoustic wave acquiring method
JP6486068B2 (en) Test site information acquisition device
JP6525565B2 (en) Object information acquisition apparatus and object information acquisition method
US20170095155A1 (en) Object information acquiring apparatus and control method thereof
US9330462B2 (en) Object information acquiring apparatus and control method of object information acquiring apparatus
JP5647583B2 (en) Photoacoustic analyzer and photoacoustic analysis method
JP2013027481A (en) Photoacoustic imaging system and apparatus, and probe unit used therefor
US20170055844A1 (en) Apparatus and method for acquiring object information
JP5683383B2 (en) Photoacoustic imaging apparatus and method of operating the same
JP6289050B2 (en) SUBJECT INFORMATION ACQUISITION DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6177530B2 (en) Doppler measuring device and doppler measuring method
JP2016055162A (en) Test object information-acquiring apparatus
JP5936559B2 (en) Photoacoustic image generation apparatus and photoacoustic image generation method
WO2014050020A1 (en) Photoacoustic image generation device, and photoacoustic image generation method
CN108601536A (en) Information acquisition device and control method
JP5722182B2 (en) Photoacoustic imaging apparatus and photoacoustic imaging method
JP6843632B2 (en) Acoustic wave measuring device and its control method
KR20150021823A (en) Ultrasonic apparatus for diagnosing bladder using multiple frequency
JP2018126454A (en) Subject information acquisition apparatus and display method
JP2013111432A (en) Photoacoustic image generation apparatus and photoacoustic image generation method
JP2019107421A (en) Photoacoustic apparatus and analyte information acquisition method
JP2015213533A (en) Subject information acquisition device
JP2017164222A (en) Processing device and processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150325

R150 Certificate of patent or registration of utility model

Ref document number: 5722182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250