JP2018187234A - Photoacoustic apparatus and photoacoustic image generation method - Google Patents

Photoacoustic apparatus and photoacoustic image generation method Download PDF

Info

Publication number
JP2018187234A
JP2018187234A JP2017094117A JP2017094117A JP2018187234A JP 2018187234 A JP2018187234 A JP 2018187234A JP 2017094117 A JP2017094117 A JP 2017094117A JP 2017094117 A JP2017094117 A JP 2017094117A JP 2018187234 A JP2018187234 A JP 2018187234A
Authority
JP
Japan
Prior art keywords
frame rate
period
photoacoustic
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017094117A
Other languages
Japanese (ja)
Inventor
阿部 直人
Naoto Abe
直人 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017094117A priority Critical patent/JP2018187234A/en
Priority to PCT/JP2018/017571 priority patent/WO2018207713A1/en
Publication of JP2018187234A publication Critical patent/JP2018187234A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • A61B5/349Detecting specific parameters of the electrocardiograph cycle
    • A61B5/352Detecting R peaks, e.g. for synchronising diagnostic apparatus; Estimating R-R interval
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To optimize a measurement condition to obtain a photoacoustic image, which cannot be optimized by a conventional art of generating a reconstitution image with a cycle of a refresh rate of a display device.SOLUTION: A photoacoustic apparatus according to this invention irradiates a subject with light with a first cycle, averages reception signals obtained by the irradiation, generates reconstitution image data by a frame rate of a second cycle on the basis of an averaged signal, and converts a display rate of an image based on the reconstitution image data generated by the frame rate of the second cycle to a frame rate of a third cycle.SELECTED DRAWING: Figure 1

Description

本発明は、光音響装置および光音響効果を利用して得られた被検体情報の処理方法に関する。   The present invention relates to a photoacoustic apparatus and a method for processing subject information obtained using a photoacoustic effect.

光音響効果を利用して被検体の内部を画像化する光音響装置が知られている。   A photoacoustic apparatus that images the inside of a subject using a photoacoustic effect is known.

特許文献1には、超音波診断装置と同様に、ハンドヘルド型プローブを備えた光音響画像化装置が記載されている。特許文献1に記載の光音響画像化装置は、単位時間あたりに画面の書き換えを行う回数であるリフレッシュレートに対して、リフレッシュレートの周期よりも短いサンプリング周期で光放出半導体素子を発光させる。そのと、光が被検体に入射することで被検体から発せられる光音響波を受信して得られた検出信号を加算平均し、表示部に表示される画像を生成する。表示部に表示される画像は、リフレッシュレートの周期と同等の周期で生成される画像である。   Patent Document 1 describes a photoacoustic imaging apparatus provided with a handheld probe, similarly to an ultrasonic diagnostic apparatus. The photoacoustic imaging apparatus described in Patent Document 1 causes the light-emitting semiconductor element to emit light at a sampling period shorter than the refresh rate period with respect to the refresh rate, which is the number of times the screen is rewritten per unit time. At that time, detection signals obtained by receiving photoacoustic waves emitted from the subject when light enters the subject are added and averaged to generate an image displayed on the display unit. The image displayed on the display unit is an image generated at a cycle equivalent to the refresh rate cycle.

特開2016−47102号公報JP-A-2006-47102

しかしながら、特許文献1に記載の装置では、画像を生成する周期がリフレッシュレートに制約を受けるため、光源の発光周期や、画像の生成に利用する信号の選択など、光音響画像を取得するための条件を変更することが困難であると考えられる。適当な条件で光音響信号が得られない場合には、生成した画像のS/N比が不十分であったり、被検体の動き等によって生じるボケが生じたりするおそれがある。   However, in the apparatus described in Patent Document 1, since the cycle of generating an image is limited by the refresh rate, a photoacoustic image such as the light emission cycle of a light source or selection of a signal used for generating an image is acquired. It is considered difficult to change the conditions. If a photoacoustic signal cannot be obtained under appropriate conditions, the S / N ratio of the generated image may be insufficient, or blurring caused by movement of the subject may occur.

そこで、本発明は、光音響画像を取得するための自由度を向上させ、得られる画像の画質を向上させることを目的とする。   Therefore, an object of the present invention is to improve the degree of freedom for acquiring a photoacoustic image and improve the image quality of the obtained image.

本発明の一側面である光音響装置は、光を被検体に照射する光照射部と、前記光が照射されたことによって前記被検体から発生した音響波を受信して受信信号を出力する音響波受信部と、前記受信信号に基づいて前記被検体の内部の画像を生成する画像生成部と、を有する光音響装置であって、前記光照射部は、前記光を前記被検体に第一の周期で繰り返し照射し、前記画像生成部は、複数回の前記光の照射により得られる複数の前記受信信号を合成し、合成された信号を基に第二の周期のフレームレートで画像データを生成し、さらに、前記第二の周期のフレームレートで生成された画像データに基づく画像の表示レートを、第三の周期のフレームレートに変換するフレームレート変換部を有することを特徴とする。   A photoacoustic apparatus according to an aspect of the present invention includes a light irradiation unit that irradiates a subject with light, and an acoustic that receives an acoustic wave generated from the subject and outputs a reception signal when the light is irradiated. A photoacoustic apparatus comprising: a wave receiving unit; and an image generating unit that generates an image inside the subject based on the received signal, wherein the light irradiating unit applies the light to the subject first. The image generation unit synthesizes a plurality of received signals obtained by the plurality of times of light irradiation, and generates image data at a frame rate of a second period based on the synthesized signals. And a frame rate conversion unit that converts an image display rate based on the image data generated at the frame rate of the second period to a frame rate of the third period.

本発明によれば、光音響画像を取得するための自由度を向上させ、得られる画像の画質を向上させることが可能となる。   According to the present invention, it is possible to improve the degree of freedom for acquiring a photoacoustic image and improve the image quality of the obtained image.

第1の実施形態に係る光音響装置のブロック図The block diagram of the photoacoustic apparatus which concerns on 1st Embodiment. 第1の実施形態に係るハンドヘルド型プローブの模式図Schematic diagram of the handheld probe according to the first embodiment 第1の実施形態に係るコンピュータと周辺構成を示すブロック図1 is a block diagram showing a computer and a peripheral configuration according to a first embodiment 第1の実施形態における動作を説明するためのタイミング図Timing chart for explaining the operation in the first embodiment 第2の実施形態における動作を説明するためのタイミング図Timing chart for explaining the operation in the second embodiment 第3の実施形態おける動作を説明するためのタイミング図Timing chart for explaining the operation in the third embodiment 第4の実施形態おける動作を説明するためのタイミング図Timing chart for explaining the operation in the fourth embodiment 第5の実施形態に係るコンピュータと周辺構成を示すブロック図The block diagram which shows the computer and peripheral structure which concern on 5th Embodiment 第5の実施形態おける動作を説明するためのタイミング図Timing chart for explaining the operation in the fifth embodiment 本発明の測定条件を表示する表示画面を示す図The figure which shows the display screen which displays the measurement conditions of this invention

以下に図面を参照しつつ、本発明の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状およびそれらの相対配置などは、発明が適用される装置の構成や各種条件により適宜変更されるべきものである。よって、この発明の範囲を以下の記載に限定する趣旨のものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. However, the dimensions, materials, shapes, and relative arrangements of the components described below should be appropriately changed depending on the configuration of the apparatus to which the invention is applied and various conditions. Therefore, the scope of the present invention is not intended to be limited to the following description.

本発明は、被検体から伝搬する音響波を検出し、被検体内部の特性情報を生成し、取得する技術に関する。よって本発明は、被検体情報取得装置またはその制御方法、あるいは被検体情報取得方法や信号処理方法として捉えられる。本発明はまた、被検体内部の特性情報を示す画像を生成し表示する表示方法として捉えられる。本発明はまた、これらの方法をCPUやメモリ等のハードウェア資源を備える情報処理装置に実行させるプログラムや、そのプログラムを格納した、コンピュータにより読み取り可能な非一時的な記憶媒体としても捉えられる。   The present invention relates to a technique for detecting acoustic waves propagating from a subject, generating characteristic information inside the subject, and acquiring the characteristic information. Therefore, the present invention can be understood as a subject information acquisition apparatus or a control method thereof, a subject information acquisition method, or a signal processing method. The present invention can also be understood as a display method for generating and displaying an image indicating characteristic information inside a subject. The present invention can also be understood as a program that causes an information processing apparatus including hardware resources such as a CPU and a memory to execute these methods, and a non-transitory storage medium that stores the program and is readable by a computer.

本発明の被検体情報取得装置には、被検体に光(電磁波)を照射することにより被検体内で発生した音響波を受信して、被検体の特性情報を画像データとして取得する光音響効果を利用した光音響イメージング装置を含む。この場合、特性情報とは、受信された光音響波に由来する信号を用いて生成される、被検体内の複数位置のそれぞれに対応する特性値の情報である。   The subject information acquisition apparatus of the present invention receives an acoustic wave generated in a subject by irradiating the subject with light (electromagnetic waves), and acquires the subject's characteristic information as image data. Including a photoacoustic imaging apparatus using In this case, the characteristic information is information on characteristic values corresponding to each of a plurality of positions in the subject, generated using a signal derived from the received photoacoustic wave.

本発明に係る光音響画像データは、光照射により発生した光音響波に由来するあらゆる画像データを含む概念である。例えば、光音響画像データは、光音響波の発生音圧(初期音圧)、吸収エネルギー密度、及び吸収係数、被検体を構成する物質の濃度(酸素飽和度など)などの少なくとも1つの被検体情報の空間分布を表す画像データである。なお、互いに異なる複数の波長の光照射により発生する光音響波に基づいて、被検体を構成する物質の濃度などの、分光情報を示す光音響画像データが得られる。分光情報を示す光音響画像データは、酸素飽和度、酸素飽和度に吸収係数等の強度を重み付けした値、トータルヘモグロビン濃度、オキシヘモグロビン濃度、またはデオキシヘモグロビン濃度であってもよい。また、分光情報を示す光音響画像データは、グルコース濃度、コラーゲン濃度、メラニン濃度、または脂肪や水の体積分率であってもよい。   The photoacoustic image data according to the present invention is a concept including all image data derived from photoacoustic waves generated by light irradiation. For example, the photoacoustic image data includes at least one subject such as a sound pressure generated by the photoacoustic wave (initial sound pressure), an absorption energy density, an absorption coefficient, and a concentration of a substance constituting the subject (such as oxygen saturation). It is image data representing the spatial distribution of information. Note that photoacoustic image data indicating spectral information such as the concentration of a substance constituting the subject is obtained based on photoacoustic waves generated by light irradiation with a plurality of different wavelengths. The photoacoustic image data indicating the spectral information may be oxygen saturation, a value obtained by weighting the oxygen saturation with an intensity such as an absorption coefficient, a total hemoglobin concentration, an oxyhemoglobin concentration, or a deoxyhemoglobin concentration. Further, the photoacoustic image data indicating the spectral information may be a glucose concentration, a collagen concentration, a melanin concentration, or a volume fraction of fat or water.

被検体内の各位置の特性情報に基づいて、二次元または三次元の特性情報分布が得られる。分布データは画像データとして生成され得る。特性情報は、数値データとしてではなく、被検体内の各位置の分布情報として求めてもよい。すなわち、初期音圧分布、エネルギー吸収密度分布、吸収係数分布や酸素飽和度分布などの分布情報である。   A two-dimensional or three-dimensional characteristic information distribution is obtained based on the characteristic information of each position in the subject. The distribution data can be generated as image data. The characteristic information may be obtained not as numerical data but as distribution information of each position in the subject. That is, distribution information such as initial sound pressure distribution, energy absorption density distribution, absorption coefficient distribution, and oxygen saturation distribution.

本発明でいう音響波とは、典型的には超音波であり、音波、音響波と呼ばれる弾性波を含む。トランスデューサ等により音響波から変換された電気信号を音響信号とも呼ぶ。ただし、本明細書における超音波または音響波という記載は、それらの弾性波の波長を限定する意図ではない。光音響効果により発生した音響波は、光音響波または光超音波と呼ばれる。光音響波に由来する電気信号を光音響信号とも呼ぶ。分布データは、光音響画像データや再構成画像データとも呼ばれる。   The acoustic wave referred to in the present invention is typically an ultrasonic wave and includes an elastic wave called a sound wave or an acoustic wave. An electric signal converted from an acoustic wave by a transducer or the like is also called an acoustic signal. However, the description of ultrasonic waves or acoustic waves in this specification is not intended to limit the wavelength of those elastic waves. An acoustic wave generated by the photoacoustic effect is called a photoacoustic wave or an optical ultrasonic wave. An electrical signal derived from a photoacoustic wave is also called a photoacoustic signal. The distribution data is also called photoacoustic image data or reconstructed image data.

以下の実施形態では、被検体情報取得装置として、被検体にパルス光を照射し、被検体からの光音響波を受信し、被検体内の血管画像(構造画像)を生成する光音響装置を取り上げる。以下の実施形態では、ハンドヘルド型プローブを有する光音響装置を取り上げているが、本発明は、機械ステージにプローブを設けて機械的にスキャンする光音響装置にも適用できる。   In the following embodiments, a photoacoustic apparatus that irradiates a subject with pulsed light, receives a photoacoustic wave from the subject, and generates a blood vessel image (structure image) in the subject as the subject information acquisition device. take up. In the following embodiment, a photoacoustic apparatus having a handheld probe is taken up, but the present invention can also be applied to a photoacoustic apparatus that mechanically scans by providing a probe on a mechanical stage.

<第1の実施形態>
(装置構成)
以下、図1のブロック図を用いて、本実施形態に係る光音響装置1の構成を説明する。光音響装置1は、プローブ180、信号収集部140、コンピュータ150、表示部160、入力部170を有する。プローブ180には、光源部200、光学系112、光照射部113と音響波受信部120が含まれる。コンピュータ150には、演算部151、記憶部152、制御部153、フレームレート変換部159、が含まれる。
<First Embodiment>
(Device configuration)
Hereinafter, the configuration of the photoacoustic apparatus 1 according to the present embodiment will be described with reference to the block diagram of FIG. 1. The photoacoustic apparatus 1 includes a probe 180, a signal collection unit 140, a computer 150, a display unit 160, and an input unit 170. The probe 180 includes a light source unit 200, an optical system 112, a light irradiation unit 113, and an acoustic wave receiving unit 120. The computer 150 includes a calculation unit 151, a storage unit 152, a control unit 153, and a frame rate conversion unit 159.

光源部200は、第一の周期で光ファイバ(バンドルファイバ)等の光学系112を経由して、光照射部113に光パルスを供給する。光照射部113は、供給された光を被検体100に照射する。これにより、被検体100からは、光音響波が第一の周期で発生する。音響波受信部120は、第一の周期で被検体100から発生した光音響波を受信して、アナログ信号としての電気信号(以下では受信信号、あるいは光音響信号とも称する)を出力する。つまり、音響波受信部120は、第一の周期で規定される間隔で光音響波の受信を行う。信号収集部140は、音響波受信部120から出力されたアナログ信号をデジタル信号に変換し、コンピュータ150に出力する。   The light source unit 200 supplies light pulses to the light irradiation unit 113 via the optical system 112 such as an optical fiber (bundle fiber) in the first period. The light irradiation unit 113 irradiates the subject 100 with the supplied light. Thereby, a photoacoustic wave is generated from the subject 100 in the first period. The acoustic wave receiving unit 120 receives a photoacoustic wave generated from the subject 100 in the first period, and outputs an electrical signal (hereinafter also referred to as a reception signal or a photoacoustic signal) as an analog signal. That is, the acoustic wave receiving unit 120 receives photoacoustic waves at intervals defined by the first period. The signal collecting unit 140 converts the analog signal output from the acoustic wave receiving unit 120 into a digital signal and outputs the digital signal to the computer 150.

コンピュータ150は、演算部151、記憶部152、制御部153を用いて、複数回の光の照射によって第一の周期で信号収集部140から出力されたデジタル信号を、第二の周期(以下では、撮像フレームレートの周期とも称する)に従って合成し、光音響波に由来する電気信号(光音響信号)として記憶部152に記憶する。ここで、合成とは、単純な加算に限らず、重みづけ加算、加算平均、移動平均などを含む。以下では主に加算平均を例にとって説明するが、加算平均以外の合成方法を適用することもできる。コンピュータ150は、記憶部152に記憶されたデジタル信号に対して画像再構成などの処理を行うことにより、第二の周期(撮像フレームレートの周期)で規定される期間内に光音響画像データを生成する。すなわち、コンピュータ150は、受信信号に基づいて被検体内部の画像を生成する画像生成部としての機能を担う。   The computer 150 uses the arithmetic unit 151, the storage unit 152, and the control unit 153 to convert the digital signal output from the signal collection unit 140 in the first cycle by the multiple times of light irradiation into the second cycle (hereinafter, referred to as “second cycle”). And is also stored in the storage unit 152 as an electrical signal (photoacoustic signal) derived from a photoacoustic wave. Here, synthesis is not limited to simple addition, but includes weighted addition, addition average, moving average, and the like. In the following, an explanation will be given mainly using the addition average, but a synthesis method other than the addition average may be applied. The computer 150 performs processing such as image reconstruction on the digital signal stored in the storage unit 152, thereby obtaining photoacoustic image data within a period defined by the second period (the period of the imaging frame rate). Generate. In other words, the computer 150 functions as an image generation unit that generates an image inside the subject based on the received signal.

コンピュータ150は、生成した光音響画像データを、フレームレート変換部159に第二の周期に従って出力する。フレームレート変換器は第二の周期に従って生成された光音響画像データを、表示部160での表示に適した第三の周期(以下では、表示フレームレートの周期とも称する)の光音響画像データに変換する。つまり、コンピュータ150は、第二の周期で生成された画像データに基づく画像の表示レートを、第三の周期のフレームレートに変換すると言い換えることもできる。また、コンピュータ150は、制御部153を用いて、光音響装置1の全体の制御を行う。   The computer 150 outputs the generated photoacoustic image data to the frame rate conversion unit 159 according to the second period. The frame rate converter converts the photoacoustic image data generated according to the second period into photoacoustic image data of a third period (hereinafter also referred to as a display frame rate period) suitable for display on the display unit 160. Convert. That is, the computer 150 can also be rephrased as converting the image display rate based on the image data generated in the second cycle to the frame rate of the third cycle. Further, the computer 150 controls the entire photoacoustic apparatus 1 using the control unit 153.

表示部160は、第三の周期(表示フレームレートの周期)の光音響画像データに基づき、光音響画像を表示する。   The display unit 160 displays a photoacoustic image based on the photoacoustic image data of the third period (display frame rate period).

コンピュータ150は、必要に応じて、得られた光音響画像データに対して表示のための画像処理やGUIのためのグラフィックを合成する処理を行っても良い。この処理は、第二の周期で生成される光音響画像データに対して行ってもよいし、第三の周期で生成される光音響画像データに対して行ってもよい。   The computer 150 may perform image processing for display and graphic processing for GUI on the obtained photoacoustic image data as necessary. This process may be performed on the photoacoustic image data generated in the second cycle, or may be performed on the photoacoustic image data generated in the third cycle.

本発明では、第一の周期、第二の周期(撮像フレームレートの周期)、第三の周期(表示フレームレートの周期)という言葉を用いて、実施形態を説明するが、本発明で用いる「周期」は、「繰り返す時間が完全に一定」である必要はない。すなわち、本発明において、一定でない時間間隔で繰り返す場合であっても、「周期」という言葉を用いる。また、第一の周期においては、後述するように、休止期間がある場合などを含む。休止期間を含まない時間における繰り返し時間を、本発明では周期と呼ぶ。   In the present invention, the embodiments will be described using terms such as a first period, a second period (an imaging frame rate period), and a third period (a display frame rate period). The “cycle” does not have to be “the repetition time is completely constant”. In other words, in the present invention, the term “cycle” is used even when it is repeated at non-constant time intervals. Further, the first cycle includes a case where there is a rest period, as will be described later. In the present invention, a repetition time in a time that does not include a pause period is called a period.

ユーザー(医師や技師等)は、表示部160に表示された光音響画像を確認する。表示部160に表示される画像は、ユーザーやコンピュータ150からの保存指示に基づいて、コンピュータ150内のメモリや、光音響装置と通信ネットワークで接続されたデータ管理システムなどに保存されても良い。入力部170は、ユーザーからの指示などを受け付ける。   A user (such as a doctor or engineer) checks the photoacoustic image displayed on the display unit 160. The image displayed on the display unit 160 may be stored in a memory in the computer 150 or a data management system connected to the photoacoustic apparatus via a communication network based on a storage instruction from the user or the computer 150. The input unit 170 receives an instruction from the user.

(各ブロックの詳細構成)
続いて、各ブロックの好ましい構成について詳細に述べる。
(Detailed configuration of each block)
Subsequently, a preferable configuration of each block will be described in detail.

(プローブ180)
図2(a)は、本実施形態に係るプローブ180の模式図である。プローブ180は、光源部200、光学系112、光照射部113、音響波受信部120、及び、ハウジング181を含む。ハウジング181は、光源部200、光学系112、光照射部113及び音響波受信部120を囲う筺体である。ユーザーは、ハウジング181を把持することにより、プローブ180をハンドヘルド型プローブとして利用できる。光照射部113は、光学系112により伝搬された光パルスを被検体に照射する。なお、図中のXYZ軸は、プローブを静置した場合の座標軸を示すものであり、プローブ使用時の向きを限定するものではない。
(Probe 180)
FIG. 2A is a schematic diagram of the probe 180 according to the present embodiment. The probe 180 includes a light source unit 200, an optical system 112, a light irradiation unit 113, an acoustic wave receiving unit 120, and a housing 181. The housing 181 is a housing that surrounds the light source unit 200, the optical system 112, the light irradiation unit 113, and the acoustic wave receiving unit 120. A user can use the probe 180 as a handheld probe by gripping the housing 181. The light irradiation unit 113 irradiates the subject with the light pulse propagated by the optical system 112. Note that the XYZ axes in the figure indicate coordinate axes when the probe is left stationary, and do not limit the orientation when the probe is used.

図2(a)に示すプローブ180は、ケーブル182を介して、信号収集部140と繋がっている。ケーブル182は、光源部200に電力を供給する配線や、発光制御信号配線や、音響波受信部120から出力されたアナログ信号を信号収集部140に出力する配線(不図示)を含む。ケーブル182にコネクタを設け、プローブ180と光音響装置のその他の構成とを分離できる構成としてもよい。また、図2(b)に示した様に、光源部200として半導体レーザや発光ダイオード等を用い、光学系112を用いず直接、被検体に光パルスを照射しても良い。この場合、半導体レーザやLED等の発光端部分(ハウジング先端)が光照射部113となる。   The probe 180 shown in FIG. 2A is connected to the signal collecting unit 140 via the cable 182. The cable 182 includes wiring for supplying power to the light source unit 200, light emission control signal wiring, and wiring for outputting an analog signal output from the acoustic wave receiving unit 120 to the signal collecting unit 140 (not shown). It is good also as a structure which can provide a connector in the cable 182 and can isolate | separate the probe 180 and the other structure of a photoacoustic apparatus. In addition, as shown in FIG. 2B, a semiconductor laser, a light emitting diode, or the like may be used as the light source unit 200, and the subject may be directly irradiated with light pulses without using the optical system 112. In this case, the light emitting portion 113 is a light emitting end portion (housing front end) of a semiconductor laser, LED, or the like.

(光源部200)
光源部200は、被検体100に照射するための光を発生させる。光源部200としては、パルス光を発生させ、かつ、酸素飽和度などの物質濃度を取得する場合には、複数の波長を出力できる光源が好適である。また、プローブ180のハウジング内に実装する必要から、図2(b)に示したような半導体レーザや発光ダイオード等の半導体発光素子を用いるのが好ましい。複数の波長を出力する場合には、異なる波長の光を発生する複数の種類の半導体レーザや発光ダイオードを用い、切り換え発光することにより実現できる。
(Light source unit 200)
The light source unit 200 generates light for irradiating the subject 100. The light source unit 200 is preferably a light source capable of outputting a plurality of wavelengths when generating pulsed light and acquiring a substance concentration such as oxygen saturation. Further, since it is necessary to mount the probe 180 in the housing, it is preferable to use a semiconductor light emitting element such as a semiconductor laser or a light emitting diode as shown in FIG. The output of a plurality of wavelengths can be realized by switching light emission using a plurality of types of semiconductor lasers or light emitting diodes that generate light of different wavelengths.

光源部200が発する光のパルス幅は、例えば10ns以上、1μs以下である。また、光の波長としては、400nm以上、1600nm以下が好適であるが、画像化したい光吸収体の光吸収特性に応じて波長を決定して良い。血管を高解像度でイメージングする場合は、血管での吸収が大きい波長(400nm以上、800nm以下)を用いてもよい。生体の深部をイメージングする場合には、生体の背景組織(水や脂肪など)において吸収が少ない波長(700nm以上、1100nm以下)の光を用いてもよい。本発明では、光源部200の光源として半導体発光素子を用いるため、光量が不足する。すなわち、一回の照射で得られる光音響信号が所望のS/N比に達しない。そのため、第一の周期で発光し、光音響信号を加算平均し、S/N比を向上し、加算平均した光音響信号を基に、第二の周期(撮像フレームレートの周期)で光音響画像を算出する。   The pulse width of the light emitted from the light source unit 200 is, for example, 10 ns or more and 1 μs or less. Further, the wavelength of light is preferably 400 nm or more and 1600 nm or less, but the wavelength may be determined according to the light absorption characteristics of the light absorber to be imaged. When a blood vessel is imaged with high resolution, a wavelength (400 nm or more and 800 nm or less) having a large absorption in the blood vessel may be used. When imaging a deep part of a living body, light having a wavelength (700 nm or more and 1100 nm or less) with less absorption in a background tissue (water, fat, etc.) of the living body may be used. In the present invention, since a semiconductor light emitting element is used as the light source of the light source unit 200, the amount of light is insufficient. That is, the photoacoustic signal obtained by one irradiation does not reach a desired S / N ratio. Therefore, light is emitted in the first period, the photoacoustic signals are added and averaged, the S / N ratio is improved, and the photoacoustic is generated in the second period (the period of the imaging frame rate) based on the added and averaged photoacoustic signal. Calculate the image.

本実施形態で用いる光源部200の波長の一例として、797nmの波長が好適である。すなわち、被検体の深部まで届く波長であり、オキシヘモグロビンとデオキシヘモグロビンの吸収係数が略等しいため血管構造の検出に適している。また、第2の波長として、756nmの光源を用いれば、オキシヘモグロビンとデオキシヘモグロビンの吸収係数差を用い、酸素飽和度を求めることができる。   As an example of the wavelength of the light source unit 200 used in the present embodiment, a wavelength of 797 nm is preferable. That is, it is a wavelength that reaches the deep part of the subject, and is suitable for detecting a blood vessel structure because the absorption coefficients of oxyhemoglobin and deoxyhemoglobin are substantially equal. If a 756 nm light source is used as the second wavelength, the oxygen saturation can be determined using the difference in absorption coefficient between oxyhemoglobin and deoxyhemoglobin.

(光照射部113)
光照射部113は、光を被検体に照射するための出射端である。光照射部113としては、光学系112としてバンドルファイバを使用した場合は、終端部を利用できる。また、生体の一部(乳房など)を被検体100とする場合、パルス光のビーム径を広げて照射するために、光を拡散させる拡散板等を用いてもよい。また図2(b)に示した光源部200として半導体発光素子を用いる場合は、複数の半導体発光素子の発光端部分(ハウジング先端)を並べ、光照射部113とすることによって、広範囲にわたり被検体を照射することが可能となる。
(Light irradiation unit 113)
The light irradiation unit 113 is an emission end for irradiating the subject with light. As the light irradiation part 113, when a bundle fiber is used as the optical system 112, a terminal part can be used. In addition, when a part of a living body (such as a breast) is used as the subject 100, a diffuser plate that diffuses light may be used in order to irradiate with an expanded beam diameter of pulsed light. When a semiconductor light emitting element is used as the light source unit 200 shown in FIG. 2B, the light emitting end portions (housing front ends) of a plurality of semiconductor light emitting elements are arranged to form the light irradiating unit 113 so that the subject can be measured over a wide range. Can be irradiated.

(音響波受信部120)
音響波受信部120は、第一の周期の発光に伴い発生する光音響波を受信して電気信号を出力するトランスデューサと、トランスデューサを支持する支持体とを含む。トランスデューサを構成する部材として例えば、圧電材料、静電容量型トランスデューサ(CMUT:Capacitive Micro−machined Ultrasonic Transducers)、ファブリペロー干渉計を用いたトランスデューサなどを使用できる。圧電材料として例えば、PZT(チタン酸ジルコン酸鉛)等の圧電セラミック材料や、PVDF(ポリフッ化ビニリデン)等の高分子圧電膜材料がある。
(Acoustic wave receiving unit 120)
The acoustic wave receiving unit 120 includes a transducer that receives a photoacoustic wave generated with light emission of the first period and outputs an electrical signal, and a support that supports the transducer. For example, a piezoelectric material, a capacitive micro-machined ultrasonic transducer (CMUT), a transducer using a Fabry-Perot interferometer, or the like can be used as a member constituting the transducer. Examples of the piezoelectric material include a piezoelectric ceramic material such as PZT (lead zirconate titanate) and a polymer piezoelectric film material such as PVDF (polyvinylidene fluoride).

第一の周期でトランスデューサにより得られる電気信号は時間分解信号である。そのため、電気信号の振幅は、各時刻にトランスデューサで受信される音圧に基づく値(例えば、音圧に比例した値)を表している。   The electrical signal obtained by the transducer in the first period is a time-resolved signal. Therefore, the amplitude of the electric signal represents a value based on the sound pressure received by the transducer at each time (for example, a value proportional to the sound pressure).

なお、トランスデューサとしては、光音響波を構成する周波数成分(典型的には100KHzから10MHz)を検出できるものが好ましい。また、支持体に複数のトランスデューサを並べて配置して、1Dアレイ、1.5Dアレイ、1.75Dアレイ、または2Dアレイと呼ばれるような平面や曲面を形成することも好ましい。   In addition, as a transducer, what can detect the frequency component (typically 100 KHz to 10 MHz) which comprises a photoacoustic wave is preferable. It is also preferable to arrange a plurality of transducers side by side on the support to form a plane or curved surface called a 1D array, 1.5D array, 1.75D array, or 2D array.

音響波受信部120が、トランスデューサから出力される時系列のアナログ信号を増幅する増幅器を備えてもよい。また、音響波受信部120が、トランスデューサから出力される時系列のアナログ信号を時系列のデジタル信号に変換するA/D変換器を備えてもよい。すなわち、音響波受信部120が信号収集部140を備えてもよい。   The acoustic wave receiving unit 120 may include an amplifier that amplifies a time-series analog signal output from the transducer. The acoustic wave receiving unit 120 may include an A / D converter that converts a time-series analog signal output from the transducer into a time-series digital signal. That is, the acoustic wave receiving unit 120 may include the signal collecting unit 140.

なお、音響波を様々な角度から検出して画像精度を向上させるためには、被検体100を全周囲から囲むようなトランスデューサ配置が好ましい。また、全周囲を囲めないほど被検体100が大きい場合は、半球状の支持体上にトランスデューサを配置してもよい。このような形状の音響波受信部120を備えるプローブ180は、ハンドヘルド型ではなく、プローブを被検体100に対して相対移動させる機械走査型の光音響装置に好適である。プローブの移動には、XYステージなどの走査部を用いれば良い。なお、トランスデューサの配置および数、ならびに支持体の形状は、上記に限定されず、被検体100に応じて最適化すればよい。   In order to improve acoustic accuracy by detecting acoustic waves from various angles, a transducer arrangement that surrounds the subject 100 from the entire circumference is preferable. In addition, when the subject 100 is large enough not to surround the entire periphery, the transducer may be arranged on a hemispherical support. The probe 180 including the acoustic wave receiving unit 120 having such a shape is not a handheld type, but is suitable for a mechanical scanning type photoacoustic apparatus that moves the probe relative to the subject 100. A scanning unit such as an XY stage may be used for moving the probe. The arrangement and number of transducers and the shape of the support are not limited to the above, and may be optimized according to the subject 100.

音響波受信部120と被検体100との間の空間には、光音響波を伝搬させる媒質を配置すると良い。これにより、被検体100とトランスデューサの界面における音響インピーダンスが整合する。媒質として例えば、水、油、超音波ジェルなどがある。   In the space between the acoustic wave receiving unit 120 and the subject 100, a medium for propagating photoacoustic waves may be disposed. As a result, the acoustic impedance at the interface between the subject 100 and the transducer is matched. Examples of the medium include water, oil, and ultrasonic gel.

光音響装置1は、被検体100を保持して形状を安定させる保持部材を備えていても良い。保持部材としては光透過性と音響波透過性がともに高いものが好ましい。例えば、ポリメチルペンテンやポリエチレンテレフタレート、アクリルなどを利用できる。   The photoacoustic apparatus 1 may include a holding member that holds the subject 100 and stabilizes the shape. As the holding member, a material having both high light transmittance and acoustic wave transmittance is preferable. For example, polymethylpentene, polyethylene terephthalate, acrylic, or the like can be used.

本実施形態に係る装置が、光音響画像に加えて、音響波の送受信により超音波画像も生成する場合、トランスデューサは、音響波を送信する送信手段として機能してもよい。受信手段としてのトランスデューサと送信手段としてのトランスデューサとは、単一(共通)のトランスデューサでもよいし、別々の構成であってもよい。   When the apparatus according to the present embodiment generates an ultrasonic image by transmitting and receiving an acoustic wave in addition to the photoacoustic image, the transducer may function as a transmission unit that transmits the acoustic wave. The transducer as the reception means and the transducer as the transmission means may be a single (common) transducer or may have different configurations.

(信号収集部140)
信号収集部140は、第一の周期での発光に伴い発生する、音響波受信部120から出力されたアナログ信号である電気信号を増幅するアンプと、アンプから出力されたアナログ信号をデジタル信号に変換するA/D変換器とを含む。信号収集部140は、FPGA(Field Programmable Gate Array)チップなどで構成されてもよい。
(Signal collection unit 140)
The signal collection unit 140 amplifies an electrical signal that is an analog signal output from the acoustic wave reception unit 120 and is generated along with light emission in the first period, and converts the analog signal output from the amplifier into a digital signal. An A / D converter for conversion. The signal collection unit 140 may be configured by an FPGA (Field Programmable Gate Array) chip or the like.

更に詳細に信号処理部140の動作を説明する。音響波受信部120のアレイ状に配置された複数のトランスデューサが出力したアナログ信号は、各々に対応する複数のアンプにより増幅され、各々に対応する複数のA/D変換器でデジタル信号に変換される。A/D変換レートは入力される信号の帯域の少なくとも2倍以上で行う。前述した様に、光音響波を構成する周波数成分が100KHzから10MHzであれば、A/D変換レートは20MHz以上、望ましくは40MHzの周波数で変換を行う。なお、信号収集部140は、発光制御信号を用いることにより、光照射のタイミングと信号収集処理のタイミングを同期化する。すなわち、第一の周期毎に発光時刻を基準にして、上述したA/D変換レートでA/D変換を開始し、アナログ信号をデジタル信号に変換する。その結果、第一の周期毎に発光時刻からA/D変換レート分の1の時間間隔(A/D変換間隔)毎のデジタルデータ列が複数のトランスデューサ毎に取得できる。   The operation of the signal processing unit 140 will be described in more detail. The analog signals output from a plurality of transducers arranged in an array of the acoustic wave receiving unit 120 are amplified by a plurality of amplifiers corresponding to each, and converted into digital signals by a plurality of A / D converters corresponding to each. The The A / D conversion rate is at least twice the bandwidth of the input signal. As described above, if the frequency component constituting the photoacoustic wave is 100 KHz to 10 MHz, the A / D conversion rate is 20 MHz or higher, preferably 40 MHz. The signal collecting unit 140 synchronizes the timing of light irradiation and the timing of signal collection processing by using the light emission control signal. That is, A / D conversion is started at the above-described A / D conversion rate with reference to the light emission time for each first period, and an analog signal is converted into a digital signal. As a result, a digital data string for each time interval (A / D conversion interval) that is 1 / A / D conversion rate from the light emission time can be acquired for each of the plurality of transducers.

信号収集部140は、Data Acquisition System(DAS)とも呼ばれる。本明細書において電気信号は、アナログ信号もデジタル信号も含む概念である。   The signal collection unit 140 is also referred to as a data acquisition system (DAS). In this specification, an electric signal is a concept including both an analog signal and a digital signal.

上述したように、信号収集部140をプローブ180のハウジング181の内部に配置してもよい。このような構成であれば、プローブ180とコンピュータ150との間の情報がデジタル信号で伝搬されるため、耐ノイズ性が向上する。また、アナログ信号を伝送する場合に比べ、高速デジタル信号を用いることによって、配線数を少なくすることが可能となり、プローブ180の操作性が向上する。   As described above, the signal collection unit 140 may be disposed inside the housing 181 of the probe 180. With such a configuration, since the information between the probe 180 and the computer 150 is propagated as a digital signal, noise resistance is improved. Further, by using a high-speed digital signal, the number of wires can be reduced and the operability of the probe 180 is improved as compared with the case of transmitting an analog signal.

また、後述する加算平均も信号収集部140で行っても良い。この場合FPGA等のハードウェアを用いて加算平均を行うと好適である。   In addition, the signal collection unit 140 may perform addition averaging described later. In this case, it is preferable to perform addition averaging using hardware such as FPGA.

(コンピュータ150)
コンピュータ150は、演算部151、記憶部152、制御部153、フレームレート変換部159を含む。演算部151としての演算機能を担うユニットは、CPUやGPU(Graphics Processing Unit)等のプロセッサ、FPGA(Field Programmable Gate Array)チップ等の演算回路で構成できる。これらのユニットは、単一のプロセッサや演算回路から構成されても良いし、複数のプロセッサや演算回路から構成されても良い。
(Computer 150)
The computer 150 includes a calculation unit 151, a storage unit 152, a control unit 153, and a frame rate conversion unit 159. The unit responsible for the calculation function as the calculation unit 151 can be configured by a processor such as a CPU or a GPU (Graphics Processing Unit), or an arithmetic circuit such as an FPGA (Field Programmable Gate Array) chip. These units may be composed of a single processor or arithmetic circuit, or may be composed of a plurality of processors or arithmetic circuits.

コンピュータ150は、第一の周期毎に信号収集部140から出力されるデジタルデータ列のうち、光源200の発光時刻に対して同じ時間差を持つデータ同士を合成する。そして、コンピュータ150は、合成されたデジタルデータ列を、第二の周期(撮像フレームレートの周期)毎に、光音響波に由来する合成された電気信号(光音響信号)として、記憶部152に記憶する。   The computer 150 synthesizes data having the same time difference with respect to the light emission time of the light source 200 in the digital data sequence output from the signal collection unit 140 for each first period. The computer 150 stores the synthesized digital data string in the storage unit 152 as a synthesized electric signal (photoacoustic signal) derived from the photoacoustic wave for each second period (period of the imaging frame rate). Remember.

そして、演算部151は、第二の周期(撮像フレームレートの周期)毎に、記憶部152に記憶された加算平均光音響信号に基づいて、画像再構成による光音響画像データ(構造画像や機能画像)の生成や、その他各種の演算処理を実行する。演算部151は、入力部170から、被検体音速や保持部の構成などの各種パラメータ入力を受け付けて、演算に用いてもよい。   The arithmetic unit 151 then generates photoacoustic image data (structure image and function) by image reconstruction based on the addition average photoacoustic signal stored in the storage unit 152 for each second period (imaging frame rate period). Image) and other various arithmetic processes. The calculation unit 151 may receive input of various parameters such as the sound velocity of the subject and the configuration of the holding unit from the input unit 170 and use them for calculation.

演算部151が電気信号を3次元のボリュームデータに変換するときの再構成アルゴリズムとしては、タイムドメインでの逆投影法、フーリエドメインでの逆投影法、モデルベース法(繰り返し演算法)など、任意の手法を採用できる。タイムドメインでの逆投影法として、Universal back−projection(UBP)、Filtered back−projection(FBP)、または整相加算(Delay−and−Sum)などが挙げられる。   The reconstruction algorithm used when the calculation unit 151 converts the electrical signal into three-dimensional volume data includes arbitrary algorithms such as a back projection method in the time domain, a back projection method in the Fourier domain, and a model base method (repetitive calculation method). Can be used. As a back projection method in the time domain, there is a universal back-projection (UBP), a filtered back-projection (FBP), or a phasing addition (Delay-and-Sum).

光源部200が2波長の光を切り替えて射出できる構成である場合、演算部151は、画像再構成処理によって、第1の波長の光に由来する光音響信号から第1の初期音圧分布を、第2の波長の光に由来する光音響信号から第2の初期音圧分布を生成してもよい。さらに、第1の初期音圧分布を第1の波長の光の光量分布で補正することによって第1の吸収係数分布を、第2の初期音圧分布を第2の波長の光の光量分布で補正することによって第2の吸収係数分布を取得する。さらに、第1および第2の吸収係数分布から、酸素飽和度分布を取得することができる。なお、最終的に酸素飽和度分布が得られれば良いので、演算の内容や順序はこれに限られない。   When the light source unit 200 is configured to be able to switch and emit light of two wavelengths, the calculation unit 151 obtains the first initial sound pressure distribution from the photoacoustic signal derived from the light of the first wavelength by image reconstruction processing. The second initial sound pressure distribution may be generated from the photoacoustic signal derived from the light of the second wavelength. Further, by correcting the first initial sound pressure distribution with the light amount distribution of the light of the first wavelength, the first absorption coefficient distribution is obtained, and the second initial sound pressure distribution is replaced with the light amount distribution of the light of the second wavelength. The second absorption coefficient distribution is obtained by correcting. Furthermore, an oxygen saturation distribution can be obtained from the first and second absorption coefficient distributions. In addition, since it is only necessary to finally obtain the oxygen saturation distribution, the contents and order of the calculations are not limited to this.

記憶部152は、RAM(Random Access Memory)などの揮発性のメモリや、ROM(Read only memory)、磁気ディスクやフラッシュメモリなどの非一時記憶媒体により構成される。なお、プログラムが格納される記憶媒体は、非一時記憶媒体である。また、記憶部152は、複数の記憶媒体から構成される。   The storage unit 152 includes a volatile memory such as a RAM (Random Access Memory), a non-temporary storage medium such as a ROM (Read only memory), a magnetic disk, and a flash memory. Note that the storage medium storing the program is a non-temporary storage medium. The storage unit 152 includes a plurality of storage media.

記憶部152は、第二の周期(撮像フレームレートの周期)で加算平均された光音響信号や、演算部151により生成される光音響画像データや、光音響画像データに基づいた再構成画像データなど、各種のデータを保存できる。   The storage unit 152 is a photoacoustic signal that is added and averaged in the second period (period of the imaging frame rate), photoacoustic image data generated by the arithmetic unit 151, and reconstructed image data based on the photoacoustic image data. Various data can be saved.

制御部153は、CPUなどの演算素子で構成される。制御部153は、光音響装置の各構成の動作を制御する。制御部153は、入力部170からの測定開始などの各種操作による指示信号を受けて、光音響装置の各構成を制御してもよい。また、制御部153は、記憶部152に格納されたプログラムコードを読み出し、光音響装置の各構成の動作を制御する。   The control unit 153 includes an arithmetic element such as a CPU. The control unit 153 controls the operation of each component of the photoacoustic apparatus. The control unit 153 may control each component of the photoacoustic apparatus in response to instruction signals from various operations such as measurement start from the input unit 170. The control unit 153 reads the program code stored in the storage unit 152 and controls the operation of each component of the photoacoustic apparatus.

また、制御部153は表示部160に対する画像の調整などを行う。これにより、プローブの移動と光音響測定に伴い順次、酸素飽和度分布画像が表示される。   In addition, the control unit 153 performs image adjustment on the display unit 160 and the like. Thereby, an oxygen saturation distribution image is sequentially displayed with the movement of the probe and the photoacoustic measurement.

フレームレート変換部159は、第二の周期のフレームレート(撮像フレームレート)で生成された光音響画像データ(構造画像や機能画像)を、第三の周期のフレームレート(表示フレームレート)の画像信号として表示部に出力する。図1では、フレームレート変換部159は独立した構成としたが、記憶部152に第二の周期のフレームレート(撮像フレームレート)で再構成画像データを記憶し、記憶された再構成画像データを第三のフレームレート(表示フレームレート)で読み出すことにより実現しても良い。この場合には、制御部153および記憶部152がフレームレート変換部159の機能を兼ねると考えることができる。本発明では、この様に、他の機能を実現する構成を兼用してフレームレート変換を実現した場合であっても、対応する部分をフレームレート変換部とも呼ぶことにする。   The frame rate conversion unit 159 converts the photoacoustic image data (structure image or functional image) generated at the frame rate (imaging frame rate) of the second cycle into an image of the frame rate (display frame rate) of the third cycle. Output to the display unit as a signal. In FIG. 1, the frame rate conversion unit 159 has an independent configuration, but the reconstructed image data is stored in the storage unit 152 at the frame rate (imaging frame rate) of the second period, and the stored reconstructed image data is stored. You may implement | achieve by reading at a 3rd frame rate (display frame rate). In this case, it can be considered that the control unit 153 and the storage unit 152 also function as the frame rate conversion unit 159. In the present invention, even when the frame rate conversion is realized by using the configuration for realizing other functions as described above, the corresponding part is also referred to as a frame rate conversion unit.

第三の周期のフレームレート(表示フレームレート)は、例えば、汎用のディスプレイが入力できる50Hzや60Hzや72Hzや120Hzのフレームレートを選択すると好適である。このような構成をとることによって、測定に好適な第二の周期のフレームレート(撮像フレームレート)と、画像表示に好適な第三の周期のフレームレート(表示フレームレート)を独立に選ぶことができる。言い方を変えれば、画像表示に好適な第三の周期のフレームレート(表示フレームレート)によらず、測定に好適な第二の周期のフレームレート(撮像フレームレート)を自由に選ぶことができる。また、第二の周期のフレームレート(撮像フレームレート)を、例えばユーザーの指示により変更する構成も容易に実現できる。   As the frame rate (display frame rate) of the third period, for example, it is preferable to select a frame rate of 50 Hz, 60 Hz, 72 Hz, or 120 Hz that can be input by a general-purpose display. By adopting such a configuration, it is possible to independently select the frame rate (imaging frame rate) of the second period suitable for measurement and the frame rate (display frame rate) of the third period suitable for image display. it can. In other words, the frame rate (imaging frame rate) suitable for the second measurement can be freely selected irrespective of the frame rate (display frame rate) suitable for the image display. In addition, a configuration in which the frame rate (imaging frame rate) of the second period is changed by, for example, a user instruction can be easily realized.

表示部160は、表示部160に入力される第三の周期のフレームレート(表示フレームレート)に同期して実画面の書き換えを行う。この場合、第三の周期のフレームレート(表示フレームレート)は実画面の書き換えするレート(リフレッシュレート)と同じになる。近年、液晶ディスプレイは、複数のフレームレート(フレーム周波数)の入力に対応する機能を有したものがある。このような液晶ディスプレイは、入力されるフレームレートを実画面の書き換えするレート(リフレッシュレート)に変換するフレームレート変換器が内蔵されているものもある。このような、表示部160を持つ構成の場合は、表示部160が、第三の周期のフレームレート(表示フレームレート)を、さらに、実画面の書き換えするレート(リフレッシュレート)に変換するフレームレート変換器が表示部160に実装されている構成といえる。   The display unit 160 rewrites the real screen in synchronization with the frame rate (display frame rate) of the third period input to the display unit 160. In this case, the frame rate (display frame rate) of the third period is the same as the rewrite rate (refresh rate) of the real screen. In recent years, some liquid crystal displays have a function corresponding to input of a plurality of frame rates (frame frequencies). Some of such liquid crystal displays have a built-in frame rate converter that converts an input frame rate into a rewrite rate (refresh rate) of a real screen. In the case of such a configuration having the display unit 160, the display unit 160 further converts the frame rate (display frame rate) of the third period into a rate (refresh rate) for rewriting the real screen. It can be said that the converter is mounted on the display unit 160.

また、この様なフレームレート変換器を内蔵した表示部160を使用する場合は、図1で示したフレームレート変換部159がコンピュータ150に有する構成を用いず、フレームレート変換部159が表示部160に有する構成で実現できる。本発明では、フレームレート変換部159はコンピュータ150に有せず、表示部160に有する構成であっても良い。表示部160にフレームレート変換部が有する構成の場合、コンピュータ150の構成を簡略化できる利点がある。   When using the display unit 160 incorporating such a frame rate converter, the frame rate conversion unit 159 shown in FIG. 1 does not use the configuration of the computer 150, and the frame rate conversion unit 159 displays the display unit 160. It is realizable with the structure which has. In the present invention, the frame rate conversion unit 159 may not be included in the computer 150 but may be included in the display unit 160. In the case where the frame rate conversion unit is included in the display unit 160, there is an advantage that the configuration of the computer 150 can be simplified.

コンピュータ150は、専用に設計されたワークステーションであってもよい。コンピュータ150はまた、汎用的なPCやワークステーションを、記憶部152に格納されたプログラムの指示に従って動作させたものであっても良い。また、コンピュータ150の各構成は異なるハードウェアによって構成されてもよい。また、コンピュータ150の少なくとも一部の構成は同一のハードウェアで構成されてもよい。   The computer 150 may be a specially designed workstation. The computer 150 may also be a computer in which a general-purpose PC or workstation is operated according to instructions of a program stored in the storage unit 152. Each configuration of the computer 150 may be configured by different hardware. Further, at least a part of the configuration of the computer 150 may be configured by the same hardware.

図3は、本実施形態に係るコンピュータ150の具体的な構成例を示す。本実施形態に係るコンピュータ150は、CPU154、GPU155、RAM156、ROM157、外部記憶装置158、フレームレート変換部159から構成される。また、コンピュータ150には、表示部160としての液晶ディスプレイ161、入力部170としてのマウス171、キーボード172が接続されている。   FIG. 3 shows a specific configuration example of the computer 150 according to the present embodiment. A computer 150 according to this embodiment includes a CPU 154, a GPU 155, a RAM 156, a ROM 157, an external storage device 158, and a frame rate conversion unit 159. In addition, a liquid crystal display 161 as a display unit 160, a mouse 171 and a keyboard 172 as input units 170 are connected to the computer 150.

また、コンピュータ150および音響波受信部120は、共通の筺体に収められた構成で提供されてもよい。また、筺体に収められたコンピュータで一部の信号処理を行い、残りの信号処理を筺体の外部に設けられたコンピュータで行ってもよい。この場合、筺体の内部および外部に設けられたコンピュータを総称して、本実施形態に係るコンピュータとすることができる。すなわち、コンピュータを構成するハードウェアが一つの筺体に収められていなくてもよい。コンピュータ150として、クラウドコンピューティングサービスなどで提供される、遠隔地に設置された情報処理装置を用いても構わない。   Further, the computer 150 and the acoustic wave receiving unit 120 may be provided in a configuration housed in a common housing. Alternatively, a part of signal processing may be performed by a computer housed in a housing, and the rest of the signal processing may be performed by a computer provided outside the housing. In this case, the computers provided inside and outside the housing can be collectively referred to as the computer according to the present embodiment. That is, the hardware constituting the computer may not be housed in a single housing. As the computer 150, an information processing apparatus provided in a cloud computing service or the like installed in a remote place may be used.

コンピュータ151は、本発明の処理部に相当する。特に、演算部151が中心となって処理部の機能を実現する。   The computer 151 corresponds to the processing unit of the present invention. In particular, the function of the processing unit is realized mainly by the calculation unit 151.

(表示部160)
表示部160は、液晶ディスプレイや有機EL(Electro Luminescence)などのディスプレイである。コンピュータ150により得られた被検体情報等に基づく画像や特定位置の数値等を表示する装置である。表示部160は、前述した第三の周期のフレームレート(表示フレームレート)の再構成画像データを入力して表示する。第三の周期のフレームレート(表示フレームレート)は例えば、50Hzや60Hzや72Hzや120Hzのフレームレートである。表示部160は、画像や装置を操作するためのGUIを表示してもよい。表示部160またはコンピュータ150において画像処理(輝度値の調整等)を行ってもよい。
(Display unit 160)
The display unit 160 is a display such as a liquid crystal display or an organic EL (Electro Luminescence). This is an apparatus for displaying an image based on subject information obtained by the computer 150, a numerical value at a specific position, and the like. The display unit 160 inputs and displays the reconstructed image data having the frame rate (display frame rate) of the third period described above. The frame rate (display frame rate) of the third period is, for example, a frame rate of 50 Hz, 60 Hz, 72 Hz, or 120 Hz. The display unit 160 may display an image or a GUI for operating the device. Image processing (such as adjustment of luminance values) may be performed on the display unit 160 or the computer 150.

(入力部170)
入力部170としては、ユーザーが操作可能な、マウスやキーボードや専用のつまみ等で構成される操作コンソールを採用できる。また、表示部160をタッチパネルで構成し、表示部160を入力部170として利用してもよい。入力部170は、ユーザーからの指示や数値などの入力を受け付け、コンピュータ150に伝達する。
(Input unit 170)
As the input unit 170, an operation console that can be operated by the user and configured with a mouse, a keyboard, a dedicated knob, and the like can be employed. The display unit 160 may be configured with a touch panel, and the display unit 160 may be used as the input unit 170. The input unit 170 receives input from the user such as instructions and numerical values, and transmits them to the computer 150.

なお、光音響装置の各構成はそれぞれ別の装置として構成されてもよいし、一体となった1つの装置として構成されてもよい。また、光音響装置の少なくとも一部の構成が一体となった1つの装置として構成されてもよい。   In addition, each structure of a photoacoustic apparatus may be comprised as a respectively different apparatus, and may be comprised as one apparatus united. Moreover, you may comprise as one apparatus with which at least one part structure of the photoacoustic apparatus was united.

また、コンピュータ150は、制御部153により、光音響装置に含まれる構成の駆動制御も行う。また、表示部160は、コンピュータ150で生成された画像の他にGUIなどを表示してもよい。入力部170は、ユーザーが情報を入力できるように構成されている。ユーザーは、入力部170を用いて測定開始や終了、後述する、第二の周期のフレームレート(撮像フレームレート)の指定や、作成画像の保存指示などの操作を行うことができる。   The computer 150 also performs drive control of the configuration included in the photoacoustic apparatus by the control unit 153. The display unit 160 may display a GUI or the like in addition to the image generated by the computer 150. The input unit 170 is configured so that a user can input information. Using the input unit 170, the user can perform operations such as measurement start and end, designation of a frame rate (imaging frame rate) of a second period, and a creation image saving instruction, which will be described later.

(被検体100)
被検体100は光音響装置を構成するものではないが、以下に説明する。本実施形態に係る光音響装置は、人や動物の悪性腫瘍や血管疾患などの診断や化学治療の経過観察などを目的として使用できる。よって、被検体100としては、生体、具体的には人体や動物の乳房や各臓器、血管網、頭部、頸部、腹部、手指および足指を含む四肢などの診断の対象部位が想定される。例えば、人体が測定対象であれば、オキシヘモグロビンあるいはデオキシヘモグロビンやそれらを含む多く含む血管あるいは腫瘍の近傍に形成される新生血管などを光吸収体の対象としてもよい。また、頸動脈壁のプラークなどを光吸収体の対象としてもよい。また、メチレンブルー(MB)、インドシニアングリーン(ICG)などの色素、金微粒子、またはそれらを集積あるいは化学的に修飾した外部から導入した物質を光吸収体としてもよい。また、穿刺針や穿刺針に付された光吸収体を観察対象としてもよい。被検体は、ファントムや試験対象物などの無生物であっても良い。
(Subject 100)
The subject 100 does not constitute a photoacoustic apparatus, but will be described below. The photoacoustic apparatus according to the present embodiment can be used for the purpose of diagnosing malignant tumors, vascular diseases, etc. of humans and animals, and monitoring the progress of chemical treatment. Therefore, the subject 100 is assumed to be a target site for diagnosis such as a living body, specifically breasts of human bodies or animals, each organ, blood vessel network, head, neck, abdomen, extremities including fingers and toes. The For example, if the human body is a measurement target, oxyhemoglobin or deoxyhemoglobin, a blood vessel containing many of them, or a new blood vessel formed in the vicinity of a tumor may be used as a light absorber. Further, a plaque of the carotid artery wall or the like may be a target of the light absorber. In addition, a dye such as methylene blue (MB) or indocyanine green (ICG), gold fine particles, or a substance introduced from the outside, which is accumulated or chemically modified, may be used as the light absorber. Moreover, it is good also considering the light absorber attached | subjected to the puncture needle and the puncture needle as an observation object. The subject may be an inanimate object such as a phantom or a test object.

(動作の説明)
図4(a)(b)(c)は、本発明の第1の実施形態における動作をわかりやすく説明するためのタイミング図である。図4(a)(b)(c)において横軸は時間軸である。図4(a)(b)(c)を用いて、本発明の第1の実施形態を説明する。これらの制御は、コンピュータ150あるいはFPGAあるいは専用のハードウェアが行う。
(Description of operation)
FIGS. 4A, 4B, and 4C are timing diagrams for easily explaining the operation in the first embodiment of the present invention. 4A, 4B, and 4C, the horizontal axis is the time axis. The first embodiment of the present invention will be described with reference to FIGS. 4 (a), 4 (b), and 4 (c). These controls are performed by the computer 150, the FPGA, or dedicated hardware.

初めに図4(a)を用いて、本発明の光音響装置の光音響信号の取得と、取得された光音響信号に基づく光音響画像を生成する方法について詳細に説明する。図4(a)は説明をわかりやすくするため、第二の周期のフレームレート(撮像フレームレート)と、第三の周期のフレームレート(表示フレームレート)が同じ周波数の場合について図示している。   First, the acquisition of the photoacoustic signal of the photoacoustic apparatus of the present invention and a method for generating a photoacoustic image based on the acquired photoacoustic signal will be described in detail with reference to FIG. FIG. 4A illustrates the case where the frame rate of the second period (imaging frame rate) and the frame rate of the third period (display frame rate) have the same frequency for easy understanding.

図4(a)T1に示すように、光音響装置は、光源部200が第一の周期(第一の周期:tw1)で発光し、発光に伴う光音響信号を第一の周期:tw1で取得する。   As shown in FIG. 4 (a) T1, in the photoacoustic apparatus, the light source unit 200 emits light with a first period (first period: tw1), and a photoacoustic signal associated with light emission has a first period: tw1. get.

なお、第一の周期:tw1の長さは、皮膚に対する最大露光許容量(MPE:Maximum Permissible Exposure)を考慮して、設定することがよい。なぜならば、第一の周期tw1の長さが短くなるほど、MPE値が小さくなるからである。たとえば、測定波長が750nm、パルス光のパルス幅が1μsecであり、第一の周期tw1が0.1msecである場合には、皮膚に対するMPE値は、約14J/mである。一方、光出射部113から照射されるパルス光のピークパワーが2kWで、光出射部113からの照射面積が150mmである場合は、光源部200から人体などの被検体100に照射される光エネルギーは、約13.3J/mになる。この場合は、光出射部113から照射される光エネルギーがMPE値以下になる。このように、第一の周期tw1が0.1msec以上であれば、MPE値以下であることが保証できる。このように、第一の周期tw1とパルス光のピークパワーと照射面積からMPE値を超えない範囲で設定する。 Note that the length of the first cycle: tw1 is preferably set in consideration of the maximum permissible exposure (MPE: Maximum Permissible Exposure) for the skin. This is because the MPE value decreases as the length of the first period tw1 decreases. For example, when the measurement wavelength is 750 nm, the pulse width of the pulsed light is 1 μsec, and the first period tw1 is 0.1 msec, the MPE value for the skin is about 14 J / m 2 . On the other hand, when the peak power of the pulsed light emitted from the light emitting unit 113 is 2 kW and the irradiation area from the light emitting unit 113 is 150 mm 2 , the light emitted from the light source unit 200 to the subject 100 such as a human body. The energy will be about 13.3 J / m 2 . In this case, the light energy irradiated from the light emission part 113 becomes below MPE value. Thus, if the first period tw1 is 0.1 msec or more, it can be guaranteed that it is equal to or less than the MPE value. Thus, it sets in the range which does not exceed MPE value from the 1st period tw1, the peak power of pulsed light, and an irradiation area.

図4(a)T1からT3に示すように、第一の周期:tw1で光照射部から被検体への光の照射を8回行い、各光の照射に伴って被検体から発生する光音響信号をする((1)〜(8))。得られた光音響信号を加算平均し、加算平均された光音響信号A1を撮像フレームレートの周期:tw2毎に得る。なお、先述のとおり、加算平均に代えて単純平均や移動平均や重み付け平均等を行ってもよい。具体的な数値の例を挙げると、第一の周期tw1の時間が0.1msec、撮像フレームレートが60Hzの場合は、撮像フレームレートの周期:tw2が16.7msecとなり、撮像フレームレートの周期内で加算平均回数を167回にすることができる。   As shown in FIG. 4 (a) T1 to T3, the light irradiation from the light irradiation unit to the subject is performed eight times in the first period: tw1, and the photoacoustic generated from the subject with each light irradiation. Make a signal ((1) to (8)). The obtained photoacoustic signals are added and averaged, and the added and averaged photoacoustic signal A1 is obtained for each cycle of the imaging frame rate: tw2. As described above, a simple average, a moving average, a weighted average, or the like may be performed instead of the addition average. As an example of specific numerical values, when the time of the first cycle tw1 is 0.1 msec and the imaging frame rate is 60 Hz, the cycle of the imaging frame rate: tw2 is 16.7 msec, which is within the cycle of the imaging frame rate. The average number of additions can be set to 167 times.

第二の周期tw2で規定される時間間隔の間に、加算平均された光音響信号A1を基に、再構成のための処理を行うことで、再構成画像データR1が得られる。ここでは、再構成画像データは、撮像フレームレートtw2の周期で演算部によって順次算出される。   Reconstructed image data R1 is obtained by performing processing for reconstruction based on the photoacoustic signal A1 that has been averaged during the time interval defined by the second period tw2. Here, the reconstructed image data is sequentially calculated by the calculation unit at a cycle of the imaging frame rate tw2.

その後、演算部が算出した再構成画像データR1は、画像1として第三のフレームレートに従ってフレームレート変換部159から表示部に出力される。先述の通り、図4(a)に示した例では、撮像フレームレートと、表示フレームレートが同じ周波数の場合とした。そのため、フレームレート変換部159は、T3で求めた再構成画像データR1を表示フレームレートの周期:tw3で表示画像データとして出力する。そして、表示部160は表示フレームレートの周期:tw3で入力された表示画像データを表示する。   Thereafter, the reconstructed image data R1 calculated by the calculation unit is output as an image 1 from the frame rate conversion unit 159 to the display unit according to the third frame rate. As described above, in the example shown in FIG. 4A, the imaging frame rate and the display frame rate are the same frequency. Therefore, the frame rate conversion unit 159 outputs the reconstructed image data R1 obtained at T3 as display image data at a display frame rate period: tw3. Then, the display unit 160 displays the display image data input at the display frame rate cycle: tw3.

ここで、第一の周期tw1や撮像フレームレートの周期tw2の設定の仕方の一例を説明する。前述したように、MPE値による制限により、パルス光のピークパワーと被検体上の照射面積から第一の周期tw1が決まる。そして、パルス光1回の照射で得られる光音響信号のS/N比と、ユーザーから要求される画質から決定された光音響信号のS/N比の比から加算平均回数が決まる。例えば、パルス光1回の照射で得られる光音響信号のS/N比が、要求される光音響信号のS/Nの1/10倍であるなら、10倍、S/N比を向上する必要がある。よって、100回、平均を行う必要がある。例えば、第一の周期tw1が0.1msecであれば、撮像フレームレートの周期は10msec以上、すなわち、撮像フレームレートは100Hz以下となる。   Here, an example of how to set the first period tw1 and the period tw2 of the imaging frame rate will be described. As described above, the first period tw1 is determined from the peak power of the pulsed light and the irradiation area on the subject due to the limitation by the MPE value. The average number of times of addition is determined from the S / N ratio of the photoacoustic signal obtained by one irradiation of the pulsed light and the ratio of the S / N ratio of the photoacoustic signal determined from the image quality requested by the user. For example, if the S / N ratio of the photoacoustic signal obtained by one irradiation of the pulsed light is 1/10 times the S / N of the required photoacoustic signal, the S / N ratio is improved by 10 times. There is a need. Therefore, it is necessary to perform averaging 100 times. For example, if the first cycle tw1 is 0.1 msec, the cycle of the imaging frame rate is 10 msec or more, that is, the imaging frame rate is 100 Hz or less.

また、第一の周期tw1は、半導体発光素子の発熱からも制限される。すなわち、プローブの熱抵抗が決まれば、半導体発光素子の消費電力から温度が決まる。半導体発光素子の温度が許容温度を超えない様に第一の周期tw1を長くする必要がある。   The first period tw1 is also limited by the heat generated by the semiconductor light emitting element. That is, if the thermal resistance of the probe is determined, the temperature is determined from the power consumption of the semiconductor light emitting element. It is necessary to lengthen the first period tw1 so that the temperature of the semiconductor light emitting element does not exceed the allowable temperature.

一方、加算平均回数を多くすると、長い時間にわたり光音響信号を加算平均化するので、被検体に体動等ある場合には、動きによるボケが発生する。動きボケを少なくするには、なるべく加算平均回数を少なくした方が有利となる。具体的には要求される解像度の1/2以下に動きボケを抑えるように設計すると好適である。例えば、要求される解像度が0.2mmとし、被検体の体動が5mm/secとすれば、第一の周期tw1が0.1msecの場合、加算平均化回数は200回以下すなわち撮像フレームレートの周期tw2を20msec以下とする。このような複数の条件を考えた上で、第一の周期tw1、撮像フレームレートの周期tw2を決定するとよい。もちろん、すべての条件が満たすことができない場合、優先度を決め、これらのパラメータを決定する。また、入力部を介してユーザーが解像度やS/N比等の所望の条件を入力できるようにし、入力された条件に応じて第一の周期および第2の周期を制御部が決定するように光音響装置を構成してもよい。   On the other hand, if the number of averaging times is increased, the photoacoustic signals are averaged over a long period of time. Therefore, when there is a body motion or the like in the subject, blur due to movement occurs. In order to reduce motion blur, it is advantageous to reduce the average number of additions as much as possible. Specifically, it is preferable to design so that motion blur is suppressed to ½ or less of the required resolution. For example, if the required resolution is 0.2 mm and the body motion of the subject is 5 mm / sec, the number of addition averaging is 200 times or less, that is, the imaging frame rate when the first cycle tw1 is 0.1 msec. The period tw2 is set to 20 msec or less. Considering such a plurality of conditions, the first cycle tw1 and the imaging frame rate cycle tw2 may be determined. Of course, if all conditions cannot be met, priorities are determined and these parameters are determined. Further, the user can input desired conditions such as resolution and S / N ratio via the input unit, and the control unit determines the first period and the second period according to the input conditions. You may comprise a photoacoustic apparatus.

図4(b)および4(c)は、撮像フレームレートと、表示フレームレートが異なる周波数である場合の、本発明の第一の実施形態のタイミング図である。図4(b)を基に、本発明の第1の実施形態である光音響装置の光音響信号の取得と、取得された光音響信号に基づいて光音響画像データの生成する方法の詳細を説明する。   FIGS. 4B and 4C are timing diagrams of the first embodiment of the present invention when the imaging frame rate and the display frame rate are different frequencies. Based on FIG.4 (b), the detail of the acquisition of the photoacoustic signal of the photoacoustic apparatus which is the 1st Embodiment of this invention, and the method of producing | generating photoacoustic image data based on the acquired photoacoustic signal is demonstrated. explain.

図4(b)および4(c)は、図4(a)とT1〜T3に示す各動作は同じである。つまり、光パルスの照射から再構成画像データの取得までは、図4(b)および4(c)に示す動作は、図4(a)に示す動作と同一の取得条件(同一の測定条件)で行うことができる。したがって、表示部の表示フレームレートによらず、同一の測定条件で同じ再構成画像データを得ることができる。   4 (b) and 4 (c), the operations shown in FIG. 4 (a) and T1 to T3 are the same. That is, from the irradiation of light pulses to the acquisition of reconstructed image data, the operations shown in FIGS. 4B and 4C are the same acquisition conditions (the same measurement conditions) as the operations shown in FIG. Can be done. Therefore, the same reconstructed image data can be obtained under the same measurement conditions regardless of the display frame rate of the display unit.

図4(b)T4は、表示フレームレート72Hzの例であり、表示フレームレートの周期tw3は約13.8msecである。つまり、第二の周期である撮像フレームレートの周期の方が、第三の周期である表示フレームレートの周期よりも長い場合の例である。一方、図4(c)T4は、表示フレームレート50Hzの例であり、表示フレームレートの周期tw3は20msecである。つまり、第二の周期である撮像フレームレートの周期の方が、第三の周期である表示フレームレートの周期よりも長い場合の例である。前述したように、同じ測定条件で取得された再構成画像データは、フレームレート変換部159により撮像フレームレート(60Hz)から表示フレームレート(72Hzや50Hz)に変換される。ここでは、第二の周期である撮像フレームレートの周期が20msである場合を例にとって説明したが、本発明はこの条件に限られるものではない。実際には、受信部から観察する対象までの距離、言い換えると光音響波を受信する距離、で決まる時間よりも第一の周期を長くする必要があるため、第一の周期は0.1から数msec程度が現実的である。また、光音響信号のS/N比を向上させるために、数10回以上の光パルスの照射による光音響信号を取得し加算平均するとすれば、撮像フレームレートは240Hz以下に設定することが好ましい。簡便には、フレームレート変換部は、複数フレーム間の画像の合成や、フレーム間引き、フレームの重ね書きにより、フレームレートを変換する。プローブの動きが速い場合、妨害感が目立つようであれば、フレームレート変換部は動きベクトル等を用いたフレーム間補間を行い、内挿フレームを生成する等のフレームレート変換を行うと良いと良い。   FIG. 4B is an example of a display frame rate of 72 Hz, and the display frame rate period tw3 is about 13.8 msec. That is, this is an example in which the cycle of the imaging frame rate that is the second cycle is longer than the cycle of the display frame rate that is the third cycle. On the other hand, FIG. 4 (c) T4 is an example of a display frame rate of 50 Hz, and the display frame rate period tw3 is 20 msec. That is, this is an example in which the cycle of the imaging frame rate that is the second cycle is longer than the cycle of the display frame rate that is the third cycle. As described above, the reconstructed image data acquired under the same measurement conditions is converted from the imaging frame rate (60 Hz) to the display frame rate (72 Hz or 50 Hz) by the frame rate conversion unit 159. Here, the case where the period of the imaging frame rate that is the second period is 20 ms has been described as an example, but the present invention is not limited to this condition. Actually, since the first period needs to be longer than the time determined by the distance from the receiving unit to the object to be observed, in other words, the distance to receive the photoacoustic wave, the first period is from 0.1 A few milliseconds is practical. Further, in order to improve the S / N ratio of the photoacoustic signal, if the photoacoustic signal obtained by irradiation of several tens or more of light pulses is acquired and averaged, the imaging frame rate is preferably set to 240 Hz or less. . Conveniently, the frame rate conversion unit converts the frame rate by synthesizing an image between a plurality of frames, thinning out the frames, or overwriting the frames. If the probe movement is fast and the sense of interference is noticeable, the frame rate conversion unit should perform frame rate conversion such as inter-frame interpolation using a motion vector or the like to generate an interpolated frame. .

簡便なフレームレート変換では、フレーム間引きや、フレームの重ね書き処理をおこなうため、撮像フレームレート周期tw2より表示フレームレートの周期tw3が短い場合、表示を行わない再構成画像データが生じることがある。そのため、再構成画像データの表示のみ行う場合、再構成画像データが無駄になる場合がある。そのため、この様な場合は、再構成画像データの生成に無駄が無いように、
撮像フレームレートの周期tw2≧表示フレームレートの周期tw3
であるタイミングがより望ましい。
In simple frame rate conversion, frame decimation and frame overwriting are performed, so that when the display frame rate cycle tw3 is shorter than the imaging frame rate cycle tw2, reconstructed image data that is not displayed may be generated. Therefore, when only reconstructed image data is displayed, the reconstructed image data may be wasted. Therefore, in such a case, in order to avoid wasteful generation of reconstructed image data,
Imaging frame rate cycle tw2 ≧ display frame rate cycle tw3
Is more desirable.

また、撮像フレームレートの周期が表示フレームレートの周期よりも長い場合には、複数フレーム分の再構成処理を並行して実行することで、実効的に、撮像フレームレートの周期を表示フレームレートの周期よりも短くすることができる。つまり、画像R1に関する再構成処理を行っている期間に、演算部は画像R2に関する再構成処理を開始することで、表示フレームレートの周期内に1フレーム分の再構成画像データを取得できるようになる。   In addition, when the cycle of the imaging frame rate is longer than the cycle of the display frame rate, by executing the reconstruction process for a plurality of frames in parallel, the cycle of the imaging frame rate is effectively set to the display frame rate. It can be shorter than the period. In other words, during the period when the reconstruction process relating to the image R1 is being performed, the arithmetic unit starts the reconstruction process relating to the image R2, so that the reconstruction image data for one frame can be acquired within the cycle of the display frame rate. Become.

一方、取得した再構成画像データを表示すると同時に、記憶部152逐次記憶し、記憶部152に逐次記憶した再構成画像データを別の時間に表示する方法もある。すなわち、記憶部152から再構成画像データを撮像フレームレート周期tw2で読み出しフレームレート変換部159でフレームレート変換を行い、表示フレームレートの周期tw3で表示部200に表示データとして出力することにより、記憶部152に記憶された再構成画像データを表示することができる。一方、記憶部159逐次記憶した再構成画像データを記憶部159から再構成画像データを表示フレームレートの周期tw3で読み出し表示部200に表示データとして出力することも可能である。本発明ではこの様な処理もフレームレート変換と呼ぶ。この場合、表示される時間が延びたり縮んだりする(スローモーション撮影やハイスピード撮影になる)が、画像として表示されない再構成画像データが無くなるため、上述した撮像フレームレート周期tw2と表示フレームレートの周期tw3の条件は必ずしも必要でなくなる。   On the other hand, there is also a method in which the acquired reconstructed image data is displayed and simultaneously stored in the storage unit 152 and the reconstructed image data sequentially stored in the storage unit 152 is displayed at another time. That is, the reconstructed image data is read from the storage unit 152 at the imaging frame rate period tw2, the frame rate conversion unit 159 performs the frame rate conversion, and the display frame data is output as display data to the display unit 200 at the display frame rate period tw3. The reconstructed image data stored in the unit 152 can be displayed. On the other hand, the reconstructed image data stored sequentially in the storage unit 159 can be read from the storage unit 159 at the display frame rate cycle tw3 and output to the display unit 200 as display data. In the present invention, such processing is also called frame rate conversion. In this case, although the displayed time is extended or shortened (slow motion shooting or high-speed shooting is performed), there is no reconstructed image data that is not displayed as an image. The condition of the period tw3 is not always necessary.

上記で説明した図4(a)〜4(c)の動作は、ユーザーの指示により、あるいは、コンピュータ150が行う所定の判断に基づいて、切り替えることができる。つまり、ユーザーは、画像をリフレッシュしたい周波数に応じて、動作モードを切り替えられる。   4A to 4C described above can be switched based on a user instruction or based on a predetermined determination performed by the computer 150. That is, the user can switch the operation mode according to the frequency at which the image is to be refreshed.

特許文献1に記載された装置では、再構成画像データを得るためのタイミング、すなわち測定条件は、ディスプレイのリフレッシュレートにより決まる。これに対して、本実施形態によれば、撮像フレームレートと表示フレームレートが独立した構成とし、撮像フレームレートの再構成画像データを表示フレームレートにフレームレート変換部159によりフレームレートの変換を行う構成である。そのため、どのような表示フレームレートのディスプレイを用いた場合であっても、同一の測定条件で再構成画像データを取得することができる。その結果、使用するディスプレイによらず、同一の測定条件で再構成画像データを得ることができ、複数の再構成画像データの比較が容易となる。また、ディスプレイのリフレッシュレートによらず、表示フレームレートT4以外は同じタイミングで動作するので、光音響装置の装置構成が簡単になる利点もある。また、ディスプレイのみ変更する場合であっても、測定条件の変更を伴うことなく容易に行うことができる利点がある。   In the apparatus described in Patent Document 1, the timing for obtaining reconstructed image data, that is, the measurement condition is determined by the refresh rate of the display. In contrast, according to the present embodiment, the imaging frame rate and the display frame rate are independent, and the frame rate conversion unit 159 converts the reconstructed image data of the imaging frame rate into the display frame rate. It is a configuration. For this reason, reconstructed image data can be acquired under the same measurement conditions regardless of the display frame rate used. As a result, reconstructed image data can be obtained under the same measurement conditions regardless of the display used, and a plurality of reconstructed image data can be easily compared. Further, since the operation is performed at the same timing except for the display frame rate T4 regardless of the display refresh rate, there is also an advantage that the device configuration of the photoacoustic apparatus is simplified. Moreover, even when only the display is changed, there is an advantage that it can be easily performed without changing the measurement conditions.

<第2の実施形態>
次に、本発明の第2の実施形態を説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.

特許文献1に記載の装置では、ディスプレイのリフレッシュレートの周期毎に再構成画像データを生成するため、測定条件を変更することが容易ではなかった。本実施形態では、表示フレームレートが固定のディスプレイに再構成画像を表示する場合であっても、ユーザーの指定あるいは自動で被検体や注目する領域に応じて測定条件を変更できる構成を説明する。   In the apparatus described in Patent Literature 1, since reconstructed image data is generated for each cycle of the display refresh rate, it is not easy to change measurement conditions. In the present embodiment, a configuration will be described in which measurement conditions can be changed according to a subject or a region of interest even when a reconstructed image is displayed on a display with a fixed display frame rate.

図4(a)、図5(a)および5(b)を参照しながら、本発明第2の実施形態に係る光音響装置の動作について詳細に説明する。   The operation of the photoacoustic apparatus according to the second embodiment of the present invention will be described in detail with reference to FIGS. 4 (a), 5 (a) and 5 (b).

図5(a)は本実施形態の動作の一例を示すためのタイミング図である。図5(a)のタイミング図は、図4(a)で示したタイミング図と、とはT1からT3に示したタイミングチャートが異なる。一方で、表示フレームレートT4は図4(a)と同一である。図5(a)のタイミング図で示す動作は、再構成画像のS/N比を向上させるのに有効である。また、注目する領域がより感体内の比較的深い位置にある場合にも有効である。   FIG. 5A is a timing chart for illustrating an example of the operation of the present embodiment. The timing chart shown in FIG. 5A is different from the timing chart shown in FIG. 4A in the timing chart shown in T1 to T3. On the other hand, the display frame rate T4 is the same as that in FIG. The operation shown in the timing chart of FIG. 5A is effective for improving the S / N ratio of the reconstructed image. It is also effective when the region of interest is at a relatively deep position in the sensory body.

図5(a)のT1に示すように、光音響装置は、光源部200が第一の周期:tw1で発光し、発光に伴う光音響信号を第一の周期:tw1で取得する。この第一の周期tw1は、図4(a)T1に示した時間と同一である。前述したように、第一の周期:tw1の長さは、皮膚に対する最大露光許容量(MPE)と関係するので、ここでは、図4(a)T1に示した時間と同一としている。MPEを超えない範囲で、第一の周期:tw1の長さを変更してもかまわない。再構成画像のS/N比をより高くするために、加算平均の回数を、第1の実施形態の8回から10回に増加した。図5(a)に示すように、信号収集部は、第一の周期:tw1で光音響信号を10回取得し((1)〜(10))、演算部は、得られた光音響信号を加算平均し、撮像フレームレートの周期:tw2毎に加算平均された光音響信号A1を得る。そして、撮像フレームレートの周期tw2毎に、演算部は再構成画像データを計算する。その結果、撮像フレームレートの周期:tw2は、図4(a)の場合と比べて長くなるが、フレームレート変換部159は、再構成画像データR1、R2、・・・の出力周期を表示フレームレートの周期:tw3に変換し、表示画像データとして出力する。そして、表示部160は表示フレームレートの周期:tw3で入力された表示画像データを表示する。   As shown at T1 in FIG. 5A, in the photoacoustic apparatus, the light source unit 200 emits light with a first period: tw1, and acquires a photoacoustic signal associated with light emission with a first period: tw1. The first period tw1 is the same as the time shown in FIG. 4 (a) T1. As described above, the length of the first period: tw1 is related to the maximum exposure allowance (MPE) for the skin, and is the same as the time shown in FIG. 4 (a) T1 here. The length of the first cycle: tw1 may be changed within a range not exceeding MPE. In order to further increase the S / N ratio of the reconstructed image, the number of addition averages was increased from 8 times to 10 times in the first embodiment. As shown to Fig.5 (a), a signal collection part acquires a photoacoustic signal 10 times by the 1st period: tw1 ((1)-(10)), and a calculating part obtains the obtained photoacoustic signal. Are added and averaged to obtain a photoacoustic signal A1 that is added and averaged every period tw2. Then, for each period tw2 of the imaging frame rate, the calculation unit calculates reconstructed image data. As a result, the cycle of the imaging frame rate: tw2 is longer than that in the case of FIG. 4A, but the frame rate conversion unit 159 displays the output cycle of the reconstructed image data R1, R2,. Rate cycle: converted to tw3 and output as display image data. Then, the display unit 160 displays the display image data input at the display frame rate cycle: tw3.

一方、図5(b)のタイミング図で示す動作は、被検体の動きや、プローブの動きが速い場合に有効な動作である。図5(b)のT1に示すように、この動作では、加算平均を行う光音響信号の数を、図4(a)の8回から6回に減らしている。加算平均の回数を少なくすることにより、光音響データを平均する時間幅(サンプリング有効時間)が短くなるため、図5(a)に示す動作と比べて動きボケを少なくすることができる。   On the other hand, the operation shown in the timing diagram of FIG. 5B is an operation that is effective when the movement of the subject or the movement of the probe is fast. As indicated by T1 in FIG. 5 (b), in this operation, the number of photoacoustic signals to be subjected to addition averaging is reduced from 8 times to 6 times in FIG. 4 (a). By reducing the number of times of addition averaging, the time width for averaging the photoacoustic data (sampling effective time) is shortened, so that motion blur can be reduced compared to the operation shown in FIG.

図5(b)に示す例では、信号収集部は、第一の周期:tw1で光音響信号を6回取得し((1)〜(6))、演算部は、得られた光音響信号を加算平均し、撮像フレームレートの周期:tw2毎に加算平均された光音響信号A1を得る。そして、撮像フレームレートの周期tw2毎に、演算部は再構成画像データを計算する。その結果、撮像フレームレートの周期:tw2は図4(a)と比べて短くなるが、フレームレート変換部159は、再構成画像データR1、R2、・・・の出力周期を表示フレームレートの周期:tw3に変換し、表示画像データとして出力する。そして、表示部160は表示フレームレートの周期:tw3で入力された表示画像データを表示する。図5(b)に示す動作は、図5(a)と比較して、動きボケの低減に有効である。   In the example shown in FIG. 5B, the signal collection unit acquires the photoacoustic signal six times at the first period: tw1 ((1) to (6)), and the calculation unit obtains the obtained photoacoustic signal. Are added and averaged to obtain a photoacoustic signal A1 that is added and averaged every period tw2. Then, for each period tw2 of the imaging frame rate, the calculation unit calculates reconstructed image data. As a result, the cycle of the imaging frame rate: tw2 is shorter than that in FIG. 4A, but the frame rate conversion unit 159 sets the output cycle of the reconstructed image data R1, R2,. : Convert to tw3 and output as display image data. Then, the display unit 160 displays the display image data input at the display frame rate cycle: tw3. The operation shown in FIG. 5B is more effective in reducing motion blur as compared with FIG.

本実施形態においても、動きボケの低減と光音響画像のS/N比のどちらを優先するかに応じて、ユーザーが動作モードを選択できるようにしてもよい。また、コンピュータ150が自動で動作モードを決定する構成としても良い。   Also in the present embodiment, the user may be able to select an operation mode according to whether priority is given to reduction of motion blur or S / N ratio of a photoacoustic image. Further, the computer 150 may automatically determine the operation mode.

コンピュータ150が自動的に動作モードを設定する場合、例えば制御部がプローブの動きを、プローブ内に設けられた加速度センサ等で検出して、その結果に応じて動作モードを切り替えることができる。プローブの動きが所定の閾値よりも速い場合は、動きボケの低減をするべく、図5(b)のタイミング図で示す動作モードでの測定を実行する(加算平均する光音響信号の数を少なくする)。一方、プローブの動きが所定の閾値よりも遅い場合は、光音響画像のS/N比を向上させるべく、図5(a)のタイミング図で示す動作モードでの測定を実行する。(加算平均する光音響信号の数を多くする)。このように、プローブの動きをセンスすることによって、自動的に決定しても良い。   When the computer 150 automatically sets the operation mode, for example, the control unit can detect the movement of the probe with an acceleration sensor or the like provided in the probe and switch the operation mode according to the result. When the movement of the probe is faster than a predetermined threshold value, measurement in the operation mode shown in the timing diagram of FIG. 5B is performed (reducing the number of photoacoustic signals to be added and averaged) in order to reduce motion blur. To do). On the other hand, when the movement of the probe is slower than a predetermined threshold value, measurement in the operation mode shown in the timing diagram of FIG. 5A is executed in order to improve the S / N ratio of the photoacoustic image. (Increase the number of photoacoustic signals to be averaged). Thus, it may be determined automatically by sensing the movement of the probe.

また、動作モードをコンピュータ150が自動的に切り替える別の方法としては、注目領域の深さを利用することが考えられる。注目領域の深さが所定の閾値よりも深い場合は、光音響画像のS/N比を優先し、図5(a)のタイミング図に示す動作モードでの測定を実行する(加算平均する光音響信号の数を多くする)。一方、注目領域の深さが所定の閾値よりも浅い場合は、動きボケの低減を優先し、図5(b)のタイミング図に示す動作モードでの測定を実行する(加算平均する光音響信号の数を少なくする)。このように、注目領域の深さによって、自動的に決定しても良い。   As another method of automatically switching the operation mode by the computer 150, it is conceivable to use the depth of the attention area. When the depth of the region of interest is deeper than a predetermined threshold, priority is given to the S / N ratio of the photoacoustic image, and the measurement in the operation mode shown in the timing diagram of FIG. Increase the number of acoustic signals). On the other hand, when the depth of the attention area is shallower than the predetermined threshold, priority is given to the reduction of motion blur, and measurement in the operation mode shown in the timing diagram of FIG. Less). Thus, it may be automatically determined according to the depth of the attention area.

また、プローブに圧力センサを付加し、プローブの押しつけ力により、光音響画像のS/N比を優先するか、動きボケの低減を優先するか、を切り換えてもよい。すなわち、プローブの押しつけ力が所定の閾値よりも大きい場合には、注目領域が深く、プローブの移動速度も遅いと考えられるため、光音響画像のS/N比を優先し、加算平均する光音響信号の数を多くする。一方、プローブの押しつけ力が所定の閾値よりも小さい場合には、注目領域が浅く、プローブの移動速度も速いと考えられるため、動きボケの低減を優先し、加算平均する光音響信号の数を少なくする。このように、プローブの押しつけ力をセンスすることによって自動的に決定しても良い。   Further, a pressure sensor may be added to the probe, and switching between giving priority to the S / N ratio of the photoacoustic image or giving priority to reduction of motion blur may be switched by the pressing force of the probe. That is, when the pressing force of the probe is larger than a predetermined threshold, it is considered that the region of interest is deep and the moving speed of the probe is slow. Increase the number of signals. On the other hand, when the pressing force of the probe is smaller than a predetermined threshold value, it is considered that the region of interest is shallow and the moving speed of the probe is fast.Therefore, priority is given to the reduction of motion blur, and the number of photoacoustic signals to be averaged Reduce. Thus, it may be automatically determined by sensing the pressing force of the probe.

本実施形態によれば、フレームレート変換部を備えることにより、ディスプレイの表示フレームレートを変更することなく、ユーザーの指定あるいは自動で再構成画像データを取得する測定条件を変更することが容易に行える。   According to the present embodiment, by providing the frame rate conversion unit, it is possible to easily change the measurement conditions for acquiring the reconstructed image data by user designation or automatically without changing the display frame rate of the display. .

<第3の実施形態>
本発明に係る第3の実施形態は、再構成画像を生成するに際して加算平均する光音響信号の対象が第1の実施形態で示した動作とは異なる。
<Third Embodiment>
The third embodiment according to the present invention is different from the operation shown in the first embodiment in the target of the photoacoustic signal to be added and averaged when generating the reconstructed image.

図6は、図4(a)とT1からT4のタイミングは同一である。図4(a)に示した動作では、撮像フレームレートの周期tw2と等しい時間内に取得される光音響信号を加算平均したが、本実施形態では、撮像フレームレートの周期よりも長い期間にわたって取得された光音響信号((1)〜(10))を加算平均する。このように加算平均を行うことによって、撮像フレームレートの周期tw2よりも長い期間にわたり、光音響信号の加算平均を行うことができ、S/N比を良好とすることができる。なお、撮像フレームレートの周期tw2よりも長い期間にわたって得られた光音響信号を用いるため、再構成画像データR1が生成されるタイミングは、図4(a)に示した動作と比べると遅くなる。つまり、被検体への光照射を行ってから画像が表示されるまでの待ち時間が、図4(a)に示す動作よりも長くなる。   In FIG. 6, the timing from T1 to T4 is the same as FIG. In the operation shown in FIG. 4A, the photoacoustic signals acquired within a time equal to the imaging frame rate period tw2 are averaged. In this embodiment, however, they are acquired over a period longer than the imaging frame rate period. The obtained photoacoustic signals ((1) to (10)) are averaged. By performing the addition averaging in this manner, the addition averaging of the photoacoustic signals can be performed over a period longer than the period tw2 of the imaging frame rate, and the S / N ratio can be improved. In addition, since the photoacoustic signal obtained over a period longer than the cycle tw2 of the imaging frame rate is used, the timing at which the reconstructed image data R1 is generated is delayed as compared with the operation illustrated in FIG. That is, the waiting time from when the subject is irradiated with light until the image is displayed is longer than the operation shown in FIG.

また、図6の動作とは逆に、撮像フレームレートの周期tw2の間に取得された光音響の一部のみを加算平均して、再構成画像データを生成してもよい。たとえば、図6に示す光音響信号のうち、(1)〜(6)は用いずに(7)〜(10)を加算平均しても良い。このようにすることによって、撮像フレームレートの周期より短い時間、光音響信号の加算平均を行うことができ、動きボケを少なくすることができる。   In contrast to the operation of FIG. 6, only a part of the photoacoustic acquired during the imaging frame rate period tw2 may be averaged to generate reconstructed image data. For example, among the photoacoustic signals shown in FIG. 6, (7) to (10) may be averaged without using (1) to (6). By doing so, it is possible to average the photoacoustic signals for a time shorter than the cycle of the imaging frame rate, and to reduce motion blur.

この様な処理をすることで、第2の実施形態で示したような、再構成画像データを取得する測定条件を変更することがより容易に行える、すなわち、装置構成がより簡単化できる利点がある。   By performing such processing, it is possible to easily change the measurement conditions for acquiring the reconstructed image data as shown in the second embodiment, that is, the advantage that the apparatus configuration can be further simplified. is there.

<第4の実施形態>
第4の実施形態は、光音響信号を取得するタイミングを変更した実施形態である。図7に本実施形態に係る動作を説明するためのタイミング図を示す。
<Fourth Embodiment>
The fourth embodiment is an embodiment in which the timing for acquiring the photoacoustic signal is changed. FIG. 7 is a timing chart for explaining the operation according to the present embodiment.

図7は第1の実施形態の図4(a)と同様に、撮像フレームレートと、表示フレームレートが同じ周波数の場合について図示している。もちろん図4(b)(c)に示した、撮像フレームレートと表示フレームレートが異なる周波数の場合にも適応できる。   FIG. 7 illustrates the case where the imaging frame rate and the display frame rate have the same frequency, as in FIG. 4A of the first embodiment. Of course, the present invention can also be applied to the case where the imaging frame rate and the display frame rate are different from each other as shown in FIGS.

図7に示した第4の実施形態は、加算平均する光音響信号のサンプリング時刻すなわち光源200の発光時刻が第1の実施形態と大きく異なる。第1の実施形態では、第一の周期が固定であった。第4の実施形態では、図7のT1に示すように、光音響信号の取得を行う時間を撮像フレームレートの周期のある時間に集中させている、すなわち、撮像フレームレートの周期のうち、被検体への光照射が行われない休止期間がある。この例においても、前述したMPEを満たす条件で、第一の周期等を決定されることが好ましい。   The fourth embodiment shown in FIG. 7 differs greatly from the first embodiment in the sampling time of the photoacoustic signal to be averaged, that is, the light emission time of the light source 200. In the first embodiment, the first period is fixed. In the fourth embodiment, as shown at T1 in FIG. 7, the time for acquiring the photoacoustic signal is concentrated at a time having a period of the imaging frame rate, that is, the period of the imaging frame rate is the target. There is a rest period in which the sample is not irradiated with light. Also in this example, it is preferable that the first period and the like are determined under the condition that satisfies the above-described MPE.

図7に示す動作では、撮像フレームレートの周期の前半で、光音響装置は、光源部200が第一の周期:tw1で発光し、発光に伴う光音響信号を第一の周期:tw1で取得する。次に、本例では、演算部は、8回取得した光音響信号((1)〜(8))を加算平均して加算平均された光音響信号A1取得する。演算部はさらに、加算平均された光音響信号A1を基に、第二の周期で規定される期間に従って再構成画像データR1、R2、・・・を順次算出する。そして、フレームレート変換部159は、再構成画像データR1、R2、・・・を表示フレームレートの周期:tw3に変換して表示画像データとして出力する。そして、表示部160は表示フレームレートの周期:tw3で入力された表示画像データを表示する。   In the operation illustrated in FIG. 7, in the first half of the cycle of the imaging frame rate, the photoacoustic apparatus emits the light source unit 200 in the first cycle: tw1 and acquires the photoacoustic signal accompanying the light emission in the first cycle: tw1. To do. Next, in this example, the calculation unit obtains the photoacoustic signal A1 obtained by averaging the photoacoustic signals ((1) to (8)) obtained eight times. The calculation unit further sequentially calculates the reconstructed image data R1, R2,... According to the period defined by the second period, based on the photoacoustic signal A1 that has been averaged. Then, the frame rate conversion unit 159 converts the reconstructed image data R1, R2,... Into a display frame rate period: tw3, and outputs it as display image data. Then, the display unit 160 displays the display image data input at the display frame rate cycle: tw3.

本実施形態に係る動作によれば、撮像フレームレート内のある時間に集中して光音響信号を取得して加算平均するので、第1の実施形態で示した動作と比べて、光音響画像における動きボケを少なくできる。また、第3の実施形態で生じた無駄な光音響信号が生じることは無い。また図7に示した様に、光照射お行って光音響信号を取得する時間が、撮像フレームレートの周期の一部のみになり、撮像フレームレートの周期の中で光音響信号を取得しない時間が生じる。その結果、撮像フレームレートの周期内で、光音響信号を所得し、加算平均を行い、さらに再構成処理を行うことができる。その結果、光音響信号の取得から再構成画像データの出力までの遅延を少なくすることができる。   According to the operation according to the present embodiment, the photoacoustic signal is acquired at a certain time within the imaging frame rate and the averaging is performed. Therefore, in the photoacoustic image, compared with the operation illustrated in the first embodiment. Reduce motion blur. Moreover, the useless photoacoustic signal generated in the third embodiment does not occur. Further, as shown in FIG. 7, the time for performing photoirradiation to acquire the photoacoustic signal is only a part of the period of the imaging frame rate, and the time for not acquiring the photoacoustic signal in the period of the imaging frame rate. Occurs. As a result, within the period of the imaging frame rate, a photoacoustic signal can be obtained, an addition average can be performed, and a reconstruction process can be performed. As a result, the delay from the acquisition of the photoacoustic signal to the output of the reconstructed image data can be reduced.

第4の実施形態は光音響データを平均する時間幅を短くすることが可能なため、動きボケを少なくすることができる。   In the fourth embodiment, since the time width for averaging the photoacoustic data can be shortened, motion blur can be reduced.

<第5の実施形態>
第5の実施形態では、測定条件を被検体に合わせて決定する構成を説明する。具体的には、フレームレートの周期を生体の周期的な活動、例えば、心臓の鼓動すなわち心電波形と同期して動作する光音響装置を説明する。
<Fifth Embodiment>
In the fifth embodiment, a configuration in which measurement conditions are determined according to the subject will be described. Specifically, a photoacoustic apparatus that operates in synchronization with a periodic activity of a living body, for example, a heartbeat, that is, an electrocardiogram waveform, will be described.

図8に、第5の実施形態に係るコンピュータと周辺構成を示すブロック図を示す。図8は前述した図3の構成と同じコンポーネントには図3と共通の符号を付す。図8において、心電計173は、被検体である患者の心臓を伝わる電気信号を検出し、コンピュータ150に出力する。コンピュータ150は心電計の出力(心電波形)に同期するように撮像フレームレートを決定し、光音響信号を取得し、再構成画像データを算出する。図9を用いてより詳細に説明する。   FIG. 8 is a block diagram showing a computer and a peripheral configuration according to the fifth embodiment. In FIG. 8, the same components as those in FIG. 3 are given the same reference numerals as those in FIG. In FIG. 8, an electrocardiograph 173 detects an electrical signal transmitted through the heart of a patient, who is the subject, and outputs it to the computer 150. The computer 150 determines the imaging frame rate so as to be synchronized with the output of the electrocardiograph (electrocardiogram waveform), acquires a photoacoustic signal, and calculates reconstructed image data. This will be described in more detail with reference to FIG.

図9において、撮像フレームレートの周期tw2と表示フレームレートの周期tw3は異なっている。コンピュータ150は、心電計173で検出した心電波形T5のRR周期:tw4に撮像フレームレートの周期tw2を同期させる。具体的には心電波形T5の最大振幅であるR波を基準に撮像フレームレートの周期tw2を開始する。   In FIG. 9, the imaging frame rate cycle tw2 and the display frame rate cycle tw3 are different. The computer 150 synchronizes the cycle tw2 of the imaging frame rate with the RR cycle: tw4 of the electrocardiogram waveform T5 detected by the electrocardiograph 173. Specifically, the period tw2 of the imaging frame rate is started based on the R wave that is the maximum amplitude of the electrocardiogram waveform T5.

図9に示すように、光音響装置は、光源部200が第一の周期:tw1で発光し、発光に伴う光音響信号を第一の周期:tw1で取得する。ただし、光音響信号を取得する期間はR波を基準に遅延時間DLY経った後、サンプリング有効期間SWの間に取得する。サンプリング有効期間SWは第一の周期tw1に発光回数(この場合8回)を乗じた値となる。第一の周期tw1は前述したようにMPEの制限等に応じて決定されることが好ましい。   As illustrated in FIG. 9, in the photoacoustic apparatus, the light source unit 200 emits light at a first period: tw1 and acquires a photoacoustic signal accompanying light emission at a first period: tw1. However, the period for acquiring the photoacoustic signal is acquired during the sampling effective period SW after the delay time DLY has passed with reference to the R wave. The sampling effective period SW is a value obtained by multiplying the first cycle tw1 by the number of times of light emission (in this case, 8 times). As described above, the first period tw1 is preferably determined according to the MPE restriction or the like.

次に、信号収集部は、第一の周期:tw1で光音響信号を8回取得し((1)〜(8))、得られた光音響信号を、演算部が加算平均して加算平均された光音響信号A1を算出する。演算部はさらに、再構成のための処理を行う。再構成画像データR1は撮像フレームレートの周期tw2に従って順次算出される。フレームレート変換部159は、算出した撮像フレームレートの周期:tw2の再構成画像データR1、R2、・・・を、表示フレームレートの周期:tw3の表示画像データとして出力する。そして、表示部160は、表示フレームレートの周期:tw3で入力された表示画像データを表示する。   Next, the signal collecting unit acquires the photoacoustic signal eight times in the first period: tw1 ((1) to (8)), and the arithmetic unit averages the obtained photoacoustic signal, and the averaging is performed. Calculated photoacoustic signal A1. The arithmetic unit further performs processing for reconstruction. The reconstructed image data R1 is sequentially calculated according to the cycle tw2 of the imaging frame rate. The frame rate conversion unit 159 outputs the reconstructed image data R1, R2,... With the calculated imaging frame rate period: tw2 as display image data with the display frame rate period: tw3. Then, the display unit 160 displays the display image data input at a display frame rate cycle: tw3.

なお、図9に示すタイミングは例示的なものに過ぎず、実際の装置では、第一の周期は0.1から数msec程度、撮像フレームレートの周期は0.4から2sec程度、表示フレームレートは50から240Hz程度となることが考えられる。   Note that the timing shown in FIG. 9 is merely an example, and in an actual apparatus, the first period is about 0.1 to several milliseconds, the imaging frame rate period is about 0.4 to 2 seconds, and the display frame rate Is considered to be about 50 to 240 Hz.

前述したように、遅延時間DLYと、サンプリング有効時間SWは、例えば、ユーザーが入力部170を介して自由に設定できるようにすると好適である。   As described above, it is preferable that the delay time DLY and the sampling effective time SW can be freely set by the user via the input unit 170, for example.

血管は心臓の鼓動により周期的に動く。そのため、心電波形、すなわち心臓の鼓動に同期して光音響信号を受信し、再構成画像を得ることによって、心臓の鼓動による血管の収縮や動きによる動きボケを少なくすることが可能となる。図9心電波形T5において、QRS波において心室が収縮しS波からT波間で血液が駆出される。すなわち、動脈の血圧が高い期間である。このような期間の血管の再構成画像を見る場合は、図9に示した様に、S波からT波までの間に光音響信号を取得するように、遅延時間DLYと、サンプリング有効時間SWを設定する。そして、設定された期間の光音響信号を再構成することにより、動きボケの無い鮮明な再構成画像を取得することができる。   Blood vessels move periodically as the heart beats. Therefore, by receiving a photoacoustic signal in synchronization with an electrocardiogram waveform, that is, heartbeat, and obtaining a reconstructed image, it is possible to reduce motion blur due to blood vessel contraction and movement due to heartbeat. In the electrocardiogram waveform T5 in FIG. 9, the ventricle contracts in the QRS wave, and blood is ejected from the S wave to the T wave. That is, it is a period in which the blood pressure of the artery is high. When viewing a reconstructed image of a blood vessel in such a period, as shown in FIG. 9, the delay time DLY and the sampling effective time SW are set so as to acquire a photoacoustic signal between the S wave and the T wave. Set. Then, by reconstructing the photoacoustic signal for the set period, a clear reconstructed image without motion blur can be acquired.

また、光音響画像を取得する部位によって、心臓からの距離が異なるので、心電波形に対して血圧の変化する時刻(tw4に対する位相)が異なる。また、血圧の変化も異なる(心臓から離れれば血圧変化も少なくなる)。そこで、ユーザーが、遅延時間DLYと、サンプリング有効時間SWを調整できるようにし、再構成画像を見ながら良好な値に設定できるようにすると好適である。また、遅延時間DLYと、サンプリング有効時間SWを調整できるようにすることによって、例えば、心房の膨張のタイミングでの血管像等、タイミングを変えた(測定条件を変えた)再構成画像データを得ることができる。   In addition, since the distance from the heart differs depending on the site from which the photoacoustic image is acquired, the time (the phase with respect to tw4) at which the blood pressure changes with respect to the electrocardiogram waveform. Moreover, the change in blood pressure is also different (the change in blood pressure decreases with distance from the heart). Therefore, it is preferable that the user can adjust the delay time DLY and the sampling effective time SW so that a good value can be set while viewing the reconstructed image. Further, by making it possible to adjust the delay time DLY and the sampling effective time SW, for example, reconstructed image data whose timing is changed (measurement conditions are changed) such as a blood vessel image at the timing of atrial inflation is obtained. be able to.

また、上述した実施形態では、心電波形を基に心臓の鼓動に同期して光音響信号を取得しているが、本発明の第5の実施形態は心電波形以外に心臓の鼓動に同期した生体信号を用いることができる。具体的には、心電波形の代わりとして動脈圧の波形や心臓が発する音波(心音)等を用いても良い。また、心臓の鼓動以外の生体の周期的な活動に対しても、第5の実施形態を適応できる。   In the above-described embodiment, the photoacoustic signal is acquired in synchronization with the heartbeat based on the electrocardiogram waveform, but the fifth embodiment of the present invention is synchronized with the heartbeat in addition to the electrocardiogram waveform. Biosignals can be used. Specifically, an arterial pressure waveform or a sound wave (heart sound) emitted from the heart may be used instead of the electrocardiographic waveform. Further, the fifth embodiment can be applied to a periodic activity of a living body other than the heartbeat.

以上説明した様に、本発明の第5の実施形態によれば、表示フレームレートの周期と異なる心電波形等に同期した撮像フレームレートの周期で再構成画像データを生成し、フレームレート変換部159により表示フレームレートに周期に変換し、表示部160により表示する。このような構成によって、心電波形等の生体に依存する周期的な生理現象による血管の動きボケを少なく良好な再構成画像を取得することができる。とくに、動脈の動きボケを少なくし、動脈の光音響画像を明瞭に取得することが可能となる。   As described above, according to the fifth embodiment of the present invention, the reconstructed image data is generated at the cycle of the imaging frame rate synchronized with the electrocardiogram waveform or the like different from the cycle of the display frame rate, and the frame rate conversion unit The period is converted into a display frame rate by 159 and displayed by the display unit 160. With such a configuration, it is possible to acquire a good reconstructed image with less blood vessel motion blur due to a periodic physiological phenomenon depending on a living body such as an electrocardiogram waveform. In particular, arterial motion blur can be reduced and a photoacoustic image of the artery can be clearly obtained.

<第6の実施形態>
本発明に係る第6の実施形態では、測定条件を表示する表示画面を中心とするユーザーインターフェイス(UI)について具体的に説明する。ユーザーからの入力を受け付ける入力部の一例であるこのユーザーインターフェイスである測定条件を表示する表示画面は、前述した表示部160の液晶ディスプレイ161に、再構成画像とともに表示しても良い。また、液晶ディスプレイ161に複数のウィンドウを表示し、再構成画像と測定条件を表示する表示画面とを別々のウィンドウに表示しても良い。さらに、異なる液晶ディスプレイ等を追加し、追加した液晶ディスプレイ等をユーザーインターフェイス専用の表示用に割り当てて使用しても良い。ユーザーは、ユーザーインターフェイスを介して、第一の周期、第二の周期、第三の周期を含む各種測定パラメータを設定することができる。これらの撮像パラメータをユーザーがすべて入力するような構成でもよいし、一部の撮像パラメータのみをユーザーが設定するようにしてもよい。
<Sixth Embodiment>
In the sixth embodiment according to the present invention, a user interface (UI) centering on a display screen for displaying measurement conditions will be specifically described. A display screen for displaying measurement conditions, which is this user interface, which is an example of an input unit that receives input from the user, may be displayed on the liquid crystal display 161 of the display unit 160 described above together with the reconstructed image. In addition, a plurality of windows may be displayed on the liquid crystal display 161, and a reconstructed image and a display screen for displaying measurement conditions may be displayed in separate windows. Furthermore, a different liquid crystal display or the like may be added, and the added liquid crystal display or the like may be assigned and used for display dedicated to the user interface. The user can set various measurement parameters including the first period, the second period, and the third period via the user interface. The configuration may be such that the user inputs all of these imaging parameters, or only a part of the imaging parameters may be set by the user.

図10(a)、(b)、(c)を用いて、表示画面の例を具体的に説明する。   An example of the display screen will be specifically described with reference to FIGS. 10 (a), 10 (b), and 10 (c).

図10(a)は本実施形態に係る表示画面の一例である。図10(a)において、U1はディスプレイ上に表示する画像を模式的に示した図である。U101は表示フレームレートのタイミングを模式的に示した波形、U102は表示フレームレートの周期DTを示す数字(単位はmsec)である。U103は撮像フレームレートを模式的に示した波形、U104は撮像フレームレートの周期FTを示す数字(単位はmsec)である。U105は遅延時間DLYとサンプリング有効時間SWを示している波形である。U106は撮像フレームレートU103の開始からサンプリング有効時間SWが始まるまでの遅延時間DLYを示す数字(単位はmsec)、U107はサンプリング有効時間SWを示す数字(単位はmsec)である。   FIG. 10A is an example of a display screen according to the present embodiment. In FIG. 10A, U1 is a diagram schematically showing an image displayed on the display. U101 is a waveform schematically showing the timing of the display frame rate, and U102 is a number (unit: msec) indicating the period DT of the display frame rate. U103 is a waveform schematically showing the imaging frame rate, and U104 is a number (unit: msec) indicating the period FT of the imaging frame rate. U105 is a waveform indicating the delay time DLY and the sampling effective time SW. U106 is a number (unit: msec) indicating the delay time DLY from the start of the imaging frame rate U103 to the start of the sampling effective time SW, and U107 is a number (unit: msec) indicating the sampling effective time SW.

ユーザーは、画面に表示されたこのU1に示された画面を見ながら、マウスやキーボードを用いて各々の数値を変更し、測定条件を変更できる。マウスやキーボードの代わりに各々のパラメータを変更する専用のつまみを設け調整できるようにしても良い。このような調整を行う場合、インタラクティブにユーザーの指示に対してU1の画面の波形や数値が変化するようにソフトウエアを設計する。   The user can change the measurement conditions by changing each numerical value using a mouse or a keyboard while viewing the screen shown in U1 displayed on the screen. Instead of a mouse or a keyboard, a dedicated knob for changing each parameter may be provided and adjusted. When such adjustment is performed, the software is designed so that the waveform and the numerical value of the screen of U1 change interactively in response to a user instruction.

図10(b)は、表示画面の別の例である。図10(b)において、U2はディスプレイ上に表示する画像を模式的に示した図である。U201は表示フレームレートのタイミングを模式的に示した波形、U202は表示フレームレートDRを示す数字(単位はHz)である。U203は撮像フレームレートを模式的に示した波形、U204は撮像フレームレートFRを示す数字(単位はHz)である。U205は遅延時間DLYとサンプリング有効時間SWを示す波形である。U206は撮像フレームレートU203の周期に対してフレームレートの開始からサンプリング有効時間が始まるまでの遅延時間DLYの割合を位相PHで示す数字(単位は°、1周期は360°)、U207はサンプリング有効時間SWを撮像フレームレートU203の周期FTの割合で示した数字(単位は%)である。このような、表示画面であれば、撮像フレームレートをユーザーが変換しても、光音響信号の取得を開始する時刻やサンプリング有効時間が直感的にわかる。表示画面はこれらの組み合わせや、他の表現方法であっても良い。   FIG. 10B is another example of the display screen. In FIG. 10B, U2 is a diagram schematically showing an image to be displayed on the display. U201 is a waveform schematically showing the timing of the display frame rate, and U202 is a number (unit: Hz) indicating the display frame rate DR. U203 is a waveform schematically showing the imaging frame rate, and U204 is a number (unit: Hz) indicating the imaging frame rate FR. U205 is a waveform indicating the delay time DLY and the sampling effective time SW. U206 is a number (unit: °, period: 360 °) indicating the ratio of the delay time DLY from the start of the frame rate to the start of the sampling effective time with respect to the period of the imaging frame rate U203, U207 is sampling effective It is a number (unit:%) indicating the time SW as a ratio of the period FT of the imaging frame rate U203. With such a display screen, even when the user converts the imaging frame rate, the time to start acquisition of the photoacoustic signal and the sampling effective time can be intuitively understood. The display screen may be a combination of these or other expression methods.

ユーザーは表示されたこのU2で示した画面を見ながら、インタラクティブに測定条件を変更できる。   The user can interactively change the measurement conditions while viewing the displayed screen indicated by U2.

また、表示フレームレートは、一般に表示部160が決まれば固定となる。そのため、図10(a)(b)で示した表示する画像(U1、U2)に示した、表示フレームレートのタイミングを模式的に示した波形(U101、U201)や、表示フレームレートを示す数字(U102、U202)を表示しなくても良い。このようにすると、表示内容が少なくなり、ユーザーが測定条件をより設定・把握しやすくなる。   The display frame rate is generally fixed once the display unit 160 is determined. Therefore, waveforms (U101, U201) schematically showing the timing of the display frame rate shown in the images (U1, U2) to be displayed shown in FIGS. 10A and 10B, and numbers indicating the display frame rate. (U102, U202) may not be displayed. In this way, the display content is reduced, and the user can more easily set and grasp the measurement conditions.

図10(c)は表示画面のさらに別の例である。図10(c)は、第5の実施形態で示した測定条件(撮像フレームレート)を被検体に合わせて決定する実施形態である。さらに具体的には、フレームレートの周期を生体の周期的な活動、例えば、心臓の鼓動すなわち心電波形と同期した光音響装置に好適な測定条件を表示する場合の表示画面である。   FIG. 10C shows still another example of the display screen. FIG. 10C is an embodiment in which the measurement conditions (imaging frame rate) shown in the fifth embodiment are determined according to the subject. More specifically, this is a display screen for displaying a measurement condition suitable for a photoacoustic apparatus in which the cycle of the frame rate is synchronized with the periodic activity of the living body, for example, the heartbeat, that is, the electrocardiogram waveform.

図10(c)において、U3はディスプレイ上に表示する画像を模式的に示した図である。U301は撮像フレームレートを模式的に示した波形、U302は撮像フレームレートの周期FTを示す数字(単位はSec)である。U303は遅延時間DLYとサンプリング有効時間SWを示す波形である。U304は撮像フレームレートU301の周期に対してフレームレートの開始からサンプリング有効時間SWが始まるまでの時間の割合を位相PHで示した数字(単位は°、1周期は360°)、U305はサンプリング有効時間SWを撮像フレームレートU303の周期FTの割合で示した数字(単位は%)である。U306は心電波形を示す波形である。U307は心電波形U306に対して、設定されたトリガレベルを示す線である。トリガレベルは、ユーザーがマウスやキーボードあるいは専用つまみで設定できる。他の方法として、振幅のピーク値の90%と決めることによって、コンピュータ150が自動で設定することもできる。図10(c)で示した例の場合、設定されたトリガレベルの振幅を超えた心電波形の立ち上がり時刻でトリガがかかる。トリガがかかると、次のトリガまでを1周期とする撮像フレームレートをコンピュータ150が生成する。すなわち、撮像フレームレートの設定はユーザーが行うことはできない。ユーザーは、心電波形を見ながら、測定条件であるサンプリング開始位相とサンプリング有効時間SWを所望の値に調整し、再構成画像を得ることができる。   In FIG. 10C, U3 is a diagram schematically showing an image to be displayed on the display. U301 is a waveform schematically showing the imaging frame rate, and U302 is a number (unit: Sec) indicating the period FT of the imaging frame rate. U303 is a waveform indicating the delay time DLY and the sampling effective time SW. U304 is a number (unit: °, period: 360 °) indicating the ratio of the time from the start of the frame rate to the start of the sampling effective time SW with respect to the period of the imaging frame rate U301, U305 is sampling effective It is a number (unit:%) indicating the time SW as a ratio of the period FT of the imaging frame rate U303. U306 is a waveform indicating an electrocardiogram waveform. U307 is a line indicating the trigger level set for the electrocardiogram waveform U306. The trigger level can be set by the user with the mouse, keyboard, or dedicated knob. As another method, the computer 150 can automatically set 90% of the peak value of the amplitude. In the case of the example shown in FIG. 10C, the trigger is activated at the rising time of the electrocardiographic waveform exceeding the set trigger level amplitude. When a trigger is applied, the computer 150 generates an imaging frame rate with one cycle until the next trigger. That is, the user cannot set the imaging frame rate. While viewing the electrocardiogram waveform, the user can adjust the sampling start phase and the sampling effective time SW, which are measurement conditions, to desired values, and obtain a reconstructed image.

以上で説明した第6の実施形態によれば、ユーザーが測定条件を把握しやすく、かつ設定しやすくなる。そのため、被検体である生体の状況に応じてユーザーは最適な測定条件を容易に設定できる利点がある。   According to the sixth embodiment described above, the user can easily grasp and set the measurement conditions. Therefore, there is an advantage that the user can easily set the optimum measurement conditions according to the state of the living body as the subject.

(その他)
光源部200は、前述したように複数の波長を照射できるように構成しても良い。複数の波長の光を用いた場合、機能情報としての酸素飽和度を算出することができる。例えば、撮像フレームレート毎に2つの波長を交互に被検体に照射することで光音響信号を取得して、波長ごとに再構成画像データを算出した上で、2つの撮像フレームレートで算出した再構成画像データより酸素飽和度を計算することができる。酸素飽和度の算出については、特開2015−142740号公報他、既知の手法を利用できる。
(Other)
The light source unit 200 may be configured to irradiate a plurality of wavelengths as described above. When light of a plurality of wavelengths is used, oxygen saturation as functional information can be calculated. For example, a photoacoustic signal is acquired by alternately irradiating a subject with two wavelengths for each imaging frame rate, and reconstructed image data is calculated for each wavelength. The oxygen saturation can be calculated from the constituent image data. For the calculation of the oxygen saturation, a known method can be used, such as JP-A-2015-142740.

また、上記で説明した複数の実施形態を1つの光音響装置で実現し、切り換えて使用できるようにしても良い。また、光音響装置に、トランスデューサから超音波を送信し反射波による測定を行う機能を追加実現しても良い。その場合には、超音波のエコー像と光音響画像とを並べて表示したり、位置合わせして重畳して表示したりするとよい。   Further, the plurality of embodiments described above may be realized by a single photoacoustic apparatus and used by switching. In addition, the photoacoustic apparatus may be additionally provided with a function of transmitting ultrasonic waves from a transducer and performing measurement using reflected waves. In that case, the ultrasonic echo image and the photoacoustic image may be displayed side by side, or may be superimposed and displayed in alignment.

100 被検体
112 光学系
113 光出射部
120 音響波受信部
140 信号収集部
150 コンピュータ
151 演算部
152 記憶部
153 制御部
159 フレームレート変換部
160 表示部
170 入力部
180 プローブ
181 ハウジング
200 光源部
DESCRIPTION OF SYMBOLS 100 Subject 112 Optical system 113 Light emitting part 120 Acoustic wave receiving part 140 Signal collecting part 150 Computer 151 Calculation part 152 Storage part 153 Control part 159 Frame rate conversion part 160 Display part 170 Input part 180 Probe 181 Housing 200 Light source part

Claims (10)

光を被検体に照射する光照射部と、
前記光が照射されたことによって前記被検体から発生した音響波を受信して受信信号を出力する音響波受信部と、
前記受信信号に基づいて前記被検体の内部の画像を生成する画像生成部と、を有する光音響装置であって、
前記光照射部は、前記光を前記被検体に第一の周期で繰り返し照射し、
前記画像生成部は、複数回の前記光の照射により得られる複数の前記受信信号を合成し、合成された信号を基に第二の周期のフレームレートで画像データを生成し、
さらに、前記第二の周期のフレームレートで生成された画像データに基づく画像の表示レートを、第三の周期のフレームレートに変換するフレームレート変換部を有することを特徴とする光音響装置。
A light irradiation unit for irradiating the subject with light;
An acoustic wave receiving unit that receives an acoustic wave generated from the subject by being irradiated with the light and outputs a reception signal; and
An image generation unit that generates an image inside the subject based on the received signal,
The light irradiation unit repeatedly irradiates the subject with the light in a first cycle,
The image generation unit synthesizes a plurality of the reception signals obtained by irradiating the light a plurality of times, generates image data at a frame rate of a second period based on the synthesized signals,
The photoacoustic apparatus further comprises a frame rate conversion unit that converts an image display rate based on the image data generated at the frame rate of the second period to a frame rate of the third period.
前記第一の周期は、前記第二の周期よりも短いことを特徴とする請求項1に記載の光音響装置。   The photoacoustic apparatus according to claim 1, wherein the first period is shorter than the second period. 前記第二の周期は、前記第三の周期以上の長さであることを特徴とする請求項1または2に記載の光音響装置。   The photoacoustic apparatus according to claim 1, wherein the second period is longer than the third period. 前記第二の周期のフレームレートは、生体の周期的な活動に同期していることを特徴とする請求項1〜3のいずれか1項に記載の光音響装置。   The photoacoustic apparatus according to any one of claims 1 to 3, wherein the frame rate of the second period is synchronized with a periodic activity of a living body. 前記フレームレート変換部は、前記第三の周期で前記画像を表示部に表示させることを特徴とする請求項1〜4のいずれか1項に記載の光音響装置。   The photoacoustic apparatus according to claim 1, wherein the frame rate conversion unit causes the display unit to display the image in the third period. 前記第二の周期のフレームレートで生成された前記画像データを記憶する記憶部をさらに有し、
前記フレームレート変換部は、記憶された再構成画像データを第三の周期のフレームレートで前記表示部に出力することを特徴とする請求項5に記載の光音響装置。
A storage unit that stores the image data generated at the frame rate of the second period;
The photoacoustic apparatus according to claim 5, wherein the frame rate conversion unit outputs the stored reconstructed image data to the display unit at a frame rate of a third period.
前記制御部は、前記第三の周期に関する情報を、表示部に表示させることを特徴とする請求項5または6に記載の光音響装置。   The photoacoustic apparatus according to claim 5, wherein the control unit causes the display unit to display information regarding the third period. 前記第一の周期、前記第二の周期、および前記第三の周期の少なくとも一つの入力を受け付ける入力部をさらに有することを特徴とする請求項1〜7のいずれか1項に記載の光音響装置。   The photoacoustic according to claim 1, further comprising an input unit that receives at least one input of the first period, the second period, and the third period. apparatus. 光を被検体に照射する光照射ステップと、
前記光が照射されたことによって前記被検体から発生した音響波を受信して受信信号を出力する音響波受信ステップと、
前記受信信号に基づいて前記被検体の内部の画像を生成する画像生成ステップと、を有する光音響画像の生成方法であって、
前記光照射ステップは、前記光を前記被検体に第一の周期で繰り返し照射し、
前記画像生成ステップは、複数回の前記光の照射により得られる複数の前記受信信号を合成し、合成された信号を基に第二の周期のフレームレートで画像データを生成し、
さらに、前記第二の周期のフレームレートで生成された画像データに基づく画像を、第三の周期のフレームレートに変換するフレームレート変換ステップを有することを特徴とする光音響画像の生成方法。
A light irradiation step for irradiating the subject with light;
An acoustic wave receiving step of receiving an acoustic wave generated from the subject by being irradiated with the light and outputting a reception signal;
An image generation step of generating an image inside the subject based on the received signal, and a photoacoustic image generation method comprising:
The light irradiation step repeatedly irradiates the subject with the light in a first cycle,
The image generation step combines a plurality of the reception signals obtained by a plurality of times of the light irradiation, generates image data at a frame rate of a second period based on the combined signals,
The photoacoustic image generation method further includes a frame rate conversion step of converting an image based on the image data generated at the frame rate of the second period into a frame rate of the third period.
請求項9に記載の光音響画像の生成方法によって生成された画像を、
前記第三の周期で表示部に表示させることを特徴とする光音響画像の表示方法。
An image generated by the photoacoustic image generation method according to claim 9,
A method for displaying a photoacoustic image, which is displayed on the display unit in the third period.
JP2017094117A 2017-05-10 2017-05-10 Photoacoustic apparatus and photoacoustic image generation method Pending JP2018187234A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017094117A JP2018187234A (en) 2017-05-10 2017-05-10 Photoacoustic apparatus and photoacoustic image generation method
PCT/JP2018/017571 WO2018207713A1 (en) 2017-05-10 2018-05-02 Photoacoustic apparatus and photoacoustic image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094117A JP2018187234A (en) 2017-05-10 2017-05-10 Photoacoustic apparatus and photoacoustic image generation method

Publications (1)

Publication Number Publication Date
JP2018187234A true JP2018187234A (en) 2018-11-29

Family

ID=62495842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094117A Pending JP2018187234A (en) 2017-05-10 2017-05-10 Photoacoustic apparatus and photoacoustic image generation method

Country Status (2)

Country Link
JP (1) JP2018187234A (en)
WO (1) WO2018207713A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114129130B (en) * 2021-10-29 2023-09-22 西安理工大学 Photoacoustic image back projection reconstruction method based on single-address LUT table

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2754388B1 (en) * 2013-01-15 2020-09-09 Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH System and method for quality-enhanced high-rate optoacoustic imaging of an object
US20170245763A1 (en) * 2014-08-27 2017-08-31 Prexion Corporation Photoacoustic Imaging Device
JP2016047102A (en) 2014-08-27 2016-04-07 プレキシオン株式会社 Photoacoustic imaging device
JP6025888B2 (en) 2015-02-26 2016-11-16 キヤノン株式会社 Photoacoustic apparatus, apparatus and method

Also Published As

Publication number Publication date
WO2018207713A1 (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP2016087364A (en) Subject information acquisition device
US20190059739A1 (en) Photoacoustic apparatus
EP3326519A1 (en) Photoacoustic apparatus, control method, and program
US20180353082A1 (en) Photoacoustic apparatus and object information acquiring method
US20180228377A1 (en) Object information acquiring apparatus and display method
EP3326520A1 (en) Photoacoustic apparatus, information processing method
JP2016101419A (en) Photoacoustic apparatus, subject information acquisition method, and program
JP6614910B2 (en) Photoacoustic device
JP2018187234A (en) Photoacoustic apparatus and photoacoustic image generation method
US20160150990A1 (en) Photoacoustic apparatus, subject information acquisition method, and program
JP2016042922A (en) Photoacoustic imaging apparatus
US20180325380A1 (en) Subject information acquisition device and subject information acquisition method
JP7034625B2 (en) Photoacoustic device, control method, program
US20190000322A1 (en) Photoacoustic probe and photoacoustic apparatus including the same
JP2019033806A (en) Photoacoustic apparatus and subject information acquisition method
JP2018201608A (en) Photoacoustic apparatus
JP2018089346A (en) Photoacoustic apparatus, image display method and program
JP2020028390A (en) Image processing system, image processing method, image display method and program
JP2019042002A (en) Photoacoustic apparatus
JP2018086265A (en) Photoacoustic device, information acquisition method, and program
JP2018153604A (en) Photoacoustic apparatus, method for controlling the same and photoacoustic probe
JP2019042003A (en) Photoacoustic apparatus
JP6452410B2 (en) Photoacoustic device
US20190159760A1 (en) Photoacoustic probe
JP2020018466A (en) Information processing device, information processing method, and program