JP2018114166A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2018114166A
JP2018114166A JP2017007770A JP2017007770A JP2018114166A JP 2018114166 A JP2018114166 A JP 2018114166A JP 2017007770 A JP2017007770 A JP 2017007770A JP 2017007770 A JP2017007770 A JP 2017007770A JP 2018114166 A JP2018114166 A JP 2018114166A
Authority
JP
Japan
Prior art keywords
measurement
ultrasonic probe
unit
dimensional
measurement target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017007770A
Other languages
Japanese (ja)
Other versions
JP2018114166A5 (en
JP6510570B2 (en
Inventor
和泉 小山
Izumi Koyama
和泉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koyu Kai
Original Assignee
Koyu Kai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koyu Kai filed Critical Koyu Kai
Priority to JP2017007770A priority Critical patent/JP6510570B2/en
Publication of JP2018114166A publication Critical patent/JP2018114166A/en
Publication of JP2018114166A5 publication Critical patent/JP2018114166A5/ja
Application granted granted Critical
Publication of JP6510570B2 publication Critical patent/JP6510570B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of creating accurate three-dimensional image data with high reproducibility even when measurement is performed by continuously changing the posture of a measurement object, or when measurement is performed by displacing the surface of the measurement object.SOLUTION: An image processing apparatus for processing measurement data acquired by measuring a measurement object and generating three-dimensional image data includes: an acquisition part for acquiring measurement data; a detection part for detecting the position and posture of the measurement object and the acquisition part respectively while tracking the position and posture respectively; a calculation part 121 for calculating the position and posture of the acquisition part with respect to the measurement object based on the position and posture of the measurement object and the acquisition part detected by the detection part; and a generation part 123 for generating the three-dimensional image data based on the measurement data acquired by the acquisition part, and the position and posture of the acquisition part with respect to the measurement object calculated by the calculation part 121.SELECTED DRAWING: Figure 3

Description

本発明は、測定対象を測定して得られる測定データを処理して3次元画像を生成する画像処理装置に関する。   The present invention relates to an image processing apparatus that processes measurement data obtained by measuring a measurement object and generates a three-dimensional image.

この種の装置として、従来、測定対象を超音波測定して得られる測定データと、測定中の超音波プローブの空間的な位置および向き(座標データ)とに基づいて、3次元画像データを生成する画像処理装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、超音波プローブに取り付けられた3次元位置センサによって、超音波プローブの座標データを得る。   Conventionally, this type of device generates 3D image data based on the measurement data obtained by ultrasonic measurement of the measurement object and the spatial position and orientation (coordinate data) of the ultrasonic probe being measured. An image processing apparatus is known (see, for example, Patent Document 1). In the apparatus described in Patent Document 1, the coordinate data of the ultrasonic probe is obtained by a three-dimensional position sensor attached to the ultrasonic probe.

また、予め取得された測定対象の医用画像の目標位置および測定対象が第1位置状態にあるときのプローブ位置の関係と、測定対象が第1位置状態にあるときのプローブ位置および第2位置状態にあるときのプローブ位置の関係とに基づいて、第2位置状態でのプローブ位置に対応する測定対象の医学画像の目標位置を表示する画像処理装置が知られている(例えば特許文献2参照)。特許文献2記載の装置では、測定対象が第1位置状態から第2位置状態に移動したときに、再度の位置決めを行うことで、第2位置状態でのプローブ位置に対応する測定対象の医学画像の目標位置を表示する。   In addition, the relationship between the target position of the medical image of the measurement target acquired in advance and the probe position when the measurement target is in the first position state, and the probe position and second position state when the measurement target is in the first position state An image processing apparatus that displays a target position of a medical image to be measured corresponding to the probe position in the second position state based on the relationship of the probe position when in the position is known (see, for example, Patent Document 2). . In the apparatus described in Patent Document 2, the medical image of the measurement object corresponding to the probe position in the second position state is performed by performing positioning again when the measurement object moves from the first position state to the second position state. Displays the target position.

特開2000−126180号公報JP 2000-126180 A 特開2016−34486号公報Japanese Unexamined Patent Publication No. 2016-34486

しかしながら、上記特許文献1記載の装置では、3次元位置センサによって得られるのは超音波プローブの座標データのみであり、測定対象の姿勢は考慮されない。このため、測定対象が特定の姿勢を維持した状態で測定を行う場合にしか適用することができず、測定対象の姿勢を変えて測定を行う場合や、超音波プローブなどによって測定対象の表面を変位させて測定を行う場合には、再現性の高い正確な3次元画像データを生成することができない。   However, in the apparatus described in Patent Document 1, only the coordinate data of the ultrasonic probe is obtained by the three-dimensional position sensor, and the posture of the measurement target is not considered. For this reason, it can be applied only when measurement is performed in a state where the measurement target maintains a specific posture, and when the measurement target is changed in posture, the surface of the measurement target is measured by an ultrasonic probe or the like. When measurement is performed with displacement, accurate three-dimensional image data with high reproducibility cannot be generated.

また、上記特許文献2記載の装置では、ユーザが測定対象の姿勢の変化を確認し、新たな姿勢の測定対象に対して、再度、超音波プローブなどの位置決めを行う必要があるため、測定対象の姿勢を頻繁に変えて測定を行う場合にはユーザの負担が増大する。また、測定対象の姿勢を連続的に変えて測定を行う場合や、超音波プローブなどによって測定対象の表面を変位させて測定を行う場合には、適用することが困難となる。   Further, in the apparatus described in Patent Document 2, it is necessary for the user to check the change of the posture of the measurement target and to position the ultrasonic probe again with respect to the measurement target of the new posture. The user's burden increases when the posture is frequently changed and measurement is performed. Further, when measurement is performed by continuously changing the posture of the measurement target, or when measurement is performed by displacing the surface of the measurement target using an ultrasonic probe or the like, it is difficult to apply.

本発明の一態様は、測定対象を測定して得られる測定データを処理して3次元画像データを生成する画像処理装置であって、測定データを取得する取得部と、測定対象および取得部の位置および姿勢をそれぞれ追跡しつつ検出する検出部と、検出部によって検出された測定対象および取得部の位置および姿勢に基づいて、測定対象に対する取得部の位置および姿勢を算出する算出部と、取得部によって取得された測定データと、算出部によって算出された測定対象に対する取得部の位置および姿勢とに基づいて、3次元画像データを生成する生成部とを備えることを特徴とする。   One aspect of the present invention is an image processing apparatus that processes measurement data obtained by measuring a measurement target to generate three-dimensional image data, and includes an acquisition unit that acquires measurement data, a measurement target, and an acquisition unit. A detection unit that detects while tracking the position and orientation, a calculation unit that calculates the position and orientation of the acquisition unit with respect to the measurement target based on the measurement target and the position and orientation of the acquisition unit detected by the detection unit, and acquisition And a generation unit that generates three-dimensional image data based on the measurement data acquired by the unit and the position and orientation of the acquisition unit with respect to the measurement target calculated by the calculation unit.

本発明によれば、測定対象に対する取得部の位置および方向に基づいて、測定データを処理して3次元画像データを生成するように構成したので、測定対象の姿勢を連続的に変えて測定を行う場合や、測定対象の表面を変位させて測定を行う場合であっても、再現性の高い正確な3次元画像データを生成することができる。   According to the present invention, since the measurement data is processed and the three-dimensional image data is generated based on the position and direction of the acquisition unit with respect to the measurement object, the measurement object is continuously changed in posture. Even when the measurement is performed or when the measurement target surface is displaced, accurate three-dimensional image data with high reproducibility can be generated.

本発明の実施形態に係る画像処理装置の全体構成を示す概略図。1 is a schematic diagram showing the overall configuration of an image processing apparatus according to an embodiment of the present invention. 図1の超音波プローブの斜視図。The perspective view of the ultrasonic probe of FIG. 図1のコンピュータの処理部の制御構成を示すブロック図。The block diagram which shows the control structure of the process part of the computer of FIG. 図3の位置方向算出部の機能を説明するための説明図。Explanatory drawing for demonstrating the function of the position direction calculation part of FIG. 図3の2次元データ生成部の機能を説明するための説明図。Explanatory drawing for demonstrating the function of the two-dimensional data generation part of FIG. 図3の3次元データ生成部の機能を説明するための説明図。Explanatory drawing for demonstrating the function of the three-dimensional data generation part of FIG. 図3のデータ出力部によってモニタに出力される画面の一例。An example of the screen output to a monitor by the data output part of FIG. 図2に示す処理部で実行される処理の一例を示すフローチャート。The flowchart which shows an example of the process performed by the process part shown in FIG.

以下、図1〜図8を参照して本発明の実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置(以下、装置という)10の概略構成を示す図である。装置10は、測定対象20を超音波測定して得られる測定データを処理して3次元画像を生成する画像処理装置として機能する。装置10は、CPU(処理部)12a、ROM,RAM(メモリ)12b、その他の周辺回路などを有する演算処理装置およびモニタ12cを含んで構成されるコンピュータ12、超音波プローブ14、距離画像センサ16を備える。コンピュータ12と超音波プローブ14、コンピュータ12と距離画像センサ16とは、それぞれ通信ケーブル等の通信部によって互いに接続されており、互いに通信できるようになっている。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus (hereinafter referred to as an apparatus) 10 according to an embodiment of the present invention. The apparatus 10 functions as an image processing apparatus that processes measurement data obtained by ultrasonic measurement of the measurement target 20 and generates a three-dimensional image. The apparatus 10 includes a computer 12, an ultrasonic probe 14, and a distance image sensor 16 including a CPU (processing unit) 12 a, a ROM, a RAM (memory) 12 b, an arithmetic processing unit having other peripheral circuits, and a monitor 12 c. Is provided. The computer 12 and the ultrasonic probe 14, and the computer 12 and the distance image sensor 16 are connected to each other by a communication unit such as a communication cable, and can communicate with each other.

超音波プローブ14は、測定対象20の表面を走査しながら超音波を送受信し、受信波を電気信号に変換して、測定データ14dとしてコンピュータ12に送信する。測定データ14dは、測定対象20の内部構造、特に、測定対象20の臓器の境界を示す断層像に変換することができる。本実施形態では、超音波プローブ14としてリニア電子スキャンプローブを使用する場合を例に説明するが、セクタ電子スキャンプローブなどを使用してもよいし、機械走査方式や手動走査方式のスキャンを使用してもよい。   The ultrasonic probe 14 transmits and receives ultrasonic waves while scanning the surface of the measurement target 20, converts the received waves into electric signals, and transmits the electric signals to the computer 12 as measurement data 14d. The measurement data 14 d can be converted into a tomographic image showing the internal structure of the measurement target 20, in particular, the boundary of the organ of the measurement target 20. In this embodiment, a case where a linear electronic scan probe is used as the ultrasonic probe 14 will be described as an example. However, a sector electronic scan probe or the like may be used, or a mechanical scanning method or a manual scanning method scan may be used. May be.

図2は、超音波プローブ14の斜視図である。超音波プローブ14は、ケース内に振動子、音響整合層、バッキング材、音響レンズなどが収容される。ユーザは、ケース上部14aを把持し、ケース底部14bで測定対象20の表面を走査しながら超音波測定を行う。ケース上部14aとケース底部14bとの間に位置するケース下部14cには、ケース底部14bに平行で、互いに直交する方向に軸を有する、突起15aと突起15bとが配置される。突起15a,15bの形状としては、例えば、底面が二等辺三角形の三角錐が適する。突起15a,15bの材質は、例えば、ケースと同じ材質とすることができるが、測定中に変形しない材質が好ましい。   FIG. 2 is a perspective view of the ultrasonic probe 14. The ultrasonic probe 14 accommodates a vibrator, an acoustic matching layer, a backing material, an acoustic lens, and the like in a case. The user grasps the case upper portion 14a and performs ultrasonic measurement while scanning the surface of the measurement target 20 with the case bottom portion 14b. The case lower part 14c located between the case upper part 14a and the case bottom part 14b is provided with a protrusion 15a and a protrusion 15b having axes in directions orthogonal to each other in parallel to the case bottom part 14b. As the shape of the protrusions 15a and 15b, for example, a triangular pyramid whose bottom surface is an isosceles triangle is suitable. The material of the protrusions 15a and 15b can be, for example, the same material as the case, but a material that does not deform during measurement is preferable.

距離画像センサ16は、卓上に置くための台座16aを有する。距離画像センサ16は、台座16aに代えて、ベッドフレームなどに取り付けるためのクリップを有するようにしてもよい。距離画像センサ16は、図1に示すように、超音波測定中の超音波プローブ14および測定対象20に正面が向かうように配置される。距離画像センサ16は、超音波プローブ14および測定対象20の位置および姿勢を追跡しつつ検出、すなわち、超音波プローブ14および測定対象20の表面を連続的に検出して3次元位置情報16dを取得し、コンピュータ12に送信する。   The distance image sensor 16 has a pedestal 16a for placing on the table. The distance image sensor 16 may have a clip for attaching to a bed frame or the like instead of the pedestal 16a. As shown in FIG. 1, the distance image sensor 16 is disposed so that the front faces the ultrasonic probe 14 and the measurement target 20 during ultrasonic measurement. The distance image sensor 16 performs detection while tracking the positions and postures of the ultrasonic probe 14 and the measurement target 20, that is, continuously detects the surfaces of the ultrasonic probe 14 and the measurement target 20, and acquires the three-dimensional position information 16d. To the computer 12.

距離画像センサ16としては、種々の非接触方式のものを利用することができる。例えば、カメラ2台のステレオ方式、レーザスリット光を走査する方式、レーザスポット光を走査する方式、プロジェクタ等の装置を用いてパターン光を物品に投影する方式、光が投光器から出射されてから物品表面で反射し受光器に入射するまでの飛行時間を利用する方式などが挙げられる。   As the distance image sensor 16, various non-contact types can be used. For example, a stereo system with two cameras, a system that scans laser slit light, a system that scans laser spot light, a system that projects pattern light onto an article using an apparatus such as a projector, and an article after light is emitted from a projector For example, a system that uses the time of flight from the surface to the light receiver.

図3は、コンピュータ12の処理部12aの制御構成を示すブロック図である。処理部12aは、超音波プローブ14から測定対象20を超音波測定して得られた測定データ14dを受信し、距離画像センサ16から超音波プローブ14および測定対象20の表面を検出して得られた3次元位置情報16dを受信する。処理部12aは、受信した測定データ14dと3次元位置情報16dとに基づき所定の処理を実行し、測定対象20の臓器の境界を示す3次元画像に変換可能な3次元データを生成して、メモリ12bおよび/またはモニタ12cに出力する。処理部12aは、機能的構成として、位置方向算出部121と、2次元データ生成部122と、3次元データ生成部123と、データ出力部124と、測定ガイド部125とを有する。   FIG. 3 is a block diagram illustrating a control configuration of the processing unit 12 a of the computer 12. The processing unit 12a receives measurement data 14d obtained by ultrasonic measurement of the measurement target 20 from the ultrasonic probe 14, and is obtained by detecting the surface of the ultrasonic probe 14 and the measurement target 20 from the distance image sensor 16. The three-dimensional position information 16d is received. The processing unit 12a performs predetermined processing based on the received measurement data 14d and the three-dimensional position information 16d, generates three-dimensional data that can be converted into a three-dimensional image showing the boundary of the organ of the measurement target 20, The data is output to the memory 12b and / or the monitor 12c. The processing unit 12a includes a position / direction calculation unit 121, a two-dimensional data generation unit 122, a three-dimensional data generation unit 123, a data output unit 124, and a measurement guide unit 125 as functional configurations.

図4は、位置方向算出部121の機能を説明するための説明図である。位置方向算出部121は、距離画像センサ16から受信した3次元位置情報16dに基づいて、測定対象20、具体的には、測定対象20の表面の3次元形状および骨格(関節)の位置を認識する。位置方向算出部121は、認識結果に基づき、検査内容に応じて、認識された測定対象20の表面に測定領域20aを設定する。検査内容は、例えば、乳腺検査や腹部一般検査などで、ユーザによって選択、入力される。測定領域20aは、検査内容に応じて、一般的な表面形状および骨格に対して予め設定され、メモリ12bに格納される。位置方向算出部121は、予め設定された一般的な表面形状および骨格と、認識された測定対象20の表面形状および骨格とを比較することで、認識された測定対象20の表面に測定領域20aを設定する。   FIG. 4 is an explanatory diagram for explaining the function of the position / direction calculation unit 121. Based on the three-dimensional position information 16 d received from the distance image sensor 16, the position / direction calculation unit 121 recognizes the measurement object 20, specifically, the three-dimensional shape of the surface of the measurement object 20 and the position of the skeleton (joint). To do. Based on the recognition result, the position / direction calculation unit 121 sets the measurement region 20a on the surface of the recognized measurement object 20 according to the inspection content. The examination content is selected and input by the user in, for example, a mammary gland examination or a general abdominal examination. The measurement region 20a is set in advance for a general surface shape and skeleton according to the inspection content, and is stored in the memory 12b. The position / direction calculation unit 121 compares the general surface shape and skeleton set in advance with the surface shape and skeleton of the recognized measurement target 20, thereby measuring the measurement region 20a on the surface of the recognized measurement target 20. Set.

位置方向算出部121によって認識された測定対象20の表面の3次元形状などは、後述するデータ出力部124によってモニタ12cに出力される。測定領域20aを位置方向算出部121によって自動的に設定せずに、モニタ12cに出力された測定対象20の表面に、マウスポインタなどを使用して、ユーザが手動で測定領域20aを設定することもできる。設定された測定領域20aは、測定対象20に関する情報などとともに、測定日時などの今回の測定を特定するために必要な情報に関連付けられて、メモリ12bに格納される。定期検診などで同一の測定対象20に対して定期的に同一内容の測定を行う場合、2回目以降の測定では、メモリ12bに格納された前回の測定領域20aが使用される。なお、浮腫などにより、前回と今回とで測定対象20の大きさが変化することがあるが、そのような変化は単なる縮尺の変化とみなすことができるため、表面形状と骨格とに基づく測定領域20aの設定に与える影響はごく小さい。   The three-dimensional shape of the surface of the measurement target 20 recognized by the position / direction calculation unit 121 is output to the monitor 12c by the data output unit 124 described later. Instead of automatically setting the measurement area 20a by the position / direction calculation unit 121, the user manually sets the measurement area 20a on the surface of the measurement target 20 output to the monitor 12c by using a mouse pointer or the like. You can also. The set measurement area 20a is stored in the memory 12b in association with information necessary for specifying the current measurement such as the measurement date and time, together with information on the measurement object 20, and the like. When the same measurement object 20 is regularly measured for the same measurement object 20 in a periodic checkup or the like, the previous measurement area 20a stored in the memory 12b is used in the second and subsequent measurements. Note that the size of the measurement target 20 may change between the previous time and the current time due to edema or the like, but since such a change can be regarded as a simple change in scale, the measurement region based on the surface shape and the skeleton The influence on the setting of 20a is very small.

位置方向算出部121は、さらに、距離画像センサ16から受信した3次元位置情報16d、より具体的には、測定領域20aおよび超音波プローブ14の3次元位置情報16dに基づいて、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを算出する。位置14pは、超音波プローブ14のケース底部14b(図2)の中心点であり、超音波測定中の超音波プローブ14と測定領域20aとの接点に相当する。方向14nは、位置14pを通ってケース底部14bから離間する方向へ向かう超音波プローブ14の中心軸であり、超音波測定中に超音波プローブ14が超音波を送信する方向に相当する。方向14nは、超音波測定中における測定領域20a(曲面)の位置14pにおける法線と略一致する。   The position / direction calculation unit 121 further applies the measurement area 20a based on the three-dimensional position information 16d received from the distance image sensor 16, more specifically, based on the measurement area 20a and the three-dimensional position information 16d of the ultrasonic probe 14. The position 14p and the direction 14n of the ultrasonic probe 14 are calculated. The position 14p is the center point of the case bottom 14b (FIG. 2) of the ultrasonic probe 14, and corresponds to the contact point between the ultrasonic probe 14 and the measurement region 20a during ultrasonic measurement. The direction 14n is the central axis of the ultrasonic probe 14 that goes in the direction away from the case bottom 14b through the position 14p, and corresponds to the direction in which the ultrasonic probe 14 transmits ultrasonic waves during ultrasonic measurement. The direction 14n substantially coincides with the normal line at the position 14p of the measurement region 20a (curved surface) during ultrasonic measurement.

図2に示すように、超音波プローブ14のケース下部14cには、ケース底部14bに平行で、互いに直交する方向に軸を有する、突起15a,15bが配置される。このため、位置方向算出部121は、3次元位置情報16dに基づいて超音波プローブ14の方向14nを算出するとき、超音波プローブ14の表側と裏側と、右側と左側とを正しく認識することが可能となり、超音波プローブ14の方向14nをより正確に算出することができる。また、突起15a,15bの底面は、底辺が超音波プローブ14のケース底部14b側を向いた二等辺三角形である。このため、位置方向算出部121は、3次元位置情報16dに基づいて超音波プローブ14の方向14nを算出するとき、超音波プローブ14の上側と下側とを正しく認識することが可能となり、超音波プローブ14の方向14nをより正確に算出することができる。   As shown in FIG. 2, the case lower portion 14c of the ultrasonic probe 14 is provided with protrusions 15a and 15b that are parallel to the case bottom portion 14b and have axes in directions orthogonal to each other. Therefore, when calculating the direction 14n of the ultrasonic probe 14 based on the three-dimensional position information 16d, the position / direction calculation unit 121 can correctly recognize the front side and the back side, and the right side and the left side of the ultrasonic probe 14. Thus, the direction 14n of the ultrasonic probe 14 can be calculated more accurately. Further, the bottom surfaces of the protrusions 15 a and 15 b are isosceles triangles whose bottom faces the case bottom 14 b side of the ultrasonic probe 14. Therefore, when calculating the direction 14n of the ultrasonic probe 14 based on the three-dimensional position information 16d, the position / direction calculation unit 121 can correctly recognize the upper side and the lower side of the ultrasonic probe 14, and The direction 14n of the acoustic probe 14 can be calculated more accurately.

超音波測定中、位置方向算出部121は、距離画像センサ16から測定領域20aおよび超音波プローブ14の3次元位置情報16dを連続的に受信する。このため、位置方向算出部121は、測定領域20aを連続的に認識し、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。従って、測定対象20の姿勢を変えて超音波測定を行う場合であっても、測定対象20の姿勢を変える前後で測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを較正する必要がない。また、測定対象20の姿勢を連続的に変えて超音波測定を行う場合であっても、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。   During the ultrasonic measurement, the position / direction calculation unit 121 continuously receives the measurement region 20 a and the three-dimensional position information 16 d of the ultrasonic probe 14 from the distance image sensor 16. Therefore, the position / direction calculation unit 121 can continuously recognize the measurement region 20a and continuously calculate the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a. Therefore, even when the ultrasonic measurement is performed by changing the posture of the measurement target 20, it is not necessary to calibrate the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a before and after changing the posture of the measurement target 20. . Even when the ultrasonic measurement is performed by continuously changing the posture of the measurement target 20, the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a can be calculated continuously.

また、距離画像センサ16によって検出される3次元位置情報16dには、測定領域20aの形状の情報、すなわち、測定領域20aに対する超音波プローブ14の押し込みの程度の情報も含まれる。このため、超音波プローブ14を押し込むことで測定対象20の表面を変位させて、換言すれば、測定領域20aの形状を変化させて測定を行う場合であっても、測定領域20aの形状変化に応じて測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。   Further, the three-dimensional position information 16d detected by the distance image sensor 16 includes information on the shape of the measurement region 20a, that is, information on the degree to which the ultrasonic probe 14 is pushed into the measurement region 20a. For this reason, the surface of the measurement object 20 is displaced by pushing the ultrasonic probe 14, in other words, even when the measurement is performed by changing the shape of the measurement region 20a, the shape of the measurement region 20a is changed. Accordingly, the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a can be continuously calculated.

図5は、2次元データ生成部122の機能を説明するための説明図である。2次元データ生成部122は、超音波プローブ14から受信した測定データ14dに基づいて、測定対象20の内部構造を示す断層像(2次元画像)に変換可能な2次元データ14e2を生成する。2次元データ14e2には、ピクセルごとの2次元座標情報と輝度情報とが含まる。2次元データ14e2は、モニタ12cに出力された場合には、図5に簡略化して示すように、臓器の境界BAを示す断層像として表示される。なお、本実施形態のように超音波プローブ14としてリニア電子スキャンプローブを使用する場合は長方形の断層像が得られるが、断層像の形状は使用する超音波プローブ14の種類によって異なる(例えば、セクタ電子スキャンプローブを使用する場合は扇形の断層像が得られる)。超音波プローブ14の種類は、検査内容とともに、ユーザによって選択、入力される。   FIG. 5 is an explanatory diagram for explaining the function of the two-dimensional data generation unit 122. Based on the measurement data 14 d received from the ultrasound probe 14, the two-dimensional data generation unit 122 generates two-dimensional data 14 e 2 that can be converted into a tomographic image (two-dimensional image) indicating the internal structure of the measurement target 20. The two-dimensional data 14e2 includes two-dimensional coordinate information and luminance information for each pixel. When the two-dimensional data 14e2 is output to the monitor 12c, the two-dimensional data 14e2 is displayed as a tomographic image showing an organ boundary BA as shown in a simplified manner in FIG. Note that when a linear electronic scan probe is used as the ultrasonic probe 14 as in the present embodiment, a rectangular tomographic image is obtained, but the shape of the tomographic image varies depending on the type of the ultrasonic probe 14 used (for example, sector When using an electronic scan probe, a fan-shaped tomogram is obtained). The type of the ultrasonic probe 14 is selected and input by the user together with the examination content.

図6は、3次元データ生成部123の機能を説明するための説明図である。3次元データ生成部123は、位置方向算出部121によって算出された測定領域20aに対する超音波プローブ14の位置14pおよび方向14nと、距離画像センサ16によって検出された測定領域20aに対する超音波プローブ14の押し込みの程度とに基づき(図6(a))、2次元データ生成部122によって生成された2次元データ14e2を合成し(図6(b))、測定対象20の内部構造を示す3次元画像に変換可能な3次元データ14e3を生成する(図6(c),(d))。3次元データ14e3には、ボクセルごとの3次元座標情報と輝度情報とが含まれる。よって、モニタ12cに出力される3次元データ14e3は、所望の方向から見た3次元画像、あるいは、所望の断面の断層像として表示することができる。3次元データ14e3に基づいて、3次元画像上あるいは断層像上の線分の長さ(例えば、リンパ節の長径、短径など)を自動計算することもできる。未測定箇所に対応する3次元画像におけるボクセルまたは所望の断面の断層像におけるピクセルは、輝度情報を有しない。未測定箇所を強調表示させることにより、検査に漏れがないかを確認することができる。   FIG. 6 is an explanatory diagram for explaining the function of the three-dimensional data generation unit 123. The three-dimensional data generation unit 123 includes the position 14p and the direction 14n of the ultrasonic probe 14 relative to the measurement region 20a calculated by the position / direction calculation unit 121 and the ultrasonic probe 14 relative to the measurement region 20a detected by the distance image sensor 16. Based on the degree of pressing (FIG. 6A), the two-dimensional data 14e2 generated by the two-dimensional data generation unit 122 is synthesized (FIG. 6B), and a three-dimensional image showing the internal structure of the measurement target 20 The three-dimensional data 14e3 that can be converted into (3) is generated (FIGS. 6C and 6D). The three-dimensional data 14e3 includes three-dimensional coordinate information and luminance information for each voxel. Therefore, the three-dimensional data 14e3 output to the monitor 12c can be displayed as a three-dimensional image viewed from a desired direction or a tomographic image of a desired cross section. Based on the three-dimensional data 14e3, the length of a line segment on the three-dimensional image or the tomographic image (for example, the major axis or minor axis of the lymph node) can be automatically calculated. A voxel in a three-dimensional image corresponding to an unmeasured location or a pixel in a tomographic image of a desired cross section has no luminance information. By highlighting unmeasured points, it can be confirmed whether there is any omission in the inspection.

図7は、データ出力部124によってモニタ12cに出力される画面の一例である。データ出力部124は、2次元データ生成部122によって生成された2次元データ14e2を、測定時の超音波プローブ14の位置14p、方向14nおよび押し込みの程度とともに、メモリ12bに出力する。また、データ出力部124は、3次元データ生成部123によって生成された3次元データ14e3を、メモリ12bに出力する。2次元データ14e2はすべて、測定時の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に関連付けられてメモリ12bに格納される。一方、3次元データ14e3は、データ出力部124から最後に受信したもののみがメモリ12bに格納される(すなわち、常に最新のものに更新される)。なお、2次元データ14e2および3次元データ14e3は、測定領域20aなどとともに、測定日時などの今回の測定を特定するために必要な情報に関連付けられて、メモリ12bに格納される。   FIG. 7 is an example of a screen output to the monitor 12 c by the data output unit 124. The data output unit 124 outputs the two-dimensional data 14e2 generated by the two-dimensional data generation unit 122 to the memory 12b together with the position 14p of the ultrasonic probe 14 at the time of measurement, the direction 14n, and the degree of pressing. In addition, the data output unit 124 outputs the three-dimensional data 14e3 generated by the three-dimensional data generation unit 123 to the memory 12b. All the two-dimensional data 14e2 are stored in the memory 12b in association with the position 14p, the direction 14n, and the degree of pressing of the ultrasonic probe 14 at the time of measurement. On the other hand, only the last received three-dimensional data 14e3 from the data output unit 124 is stored in the memory 12b (that is, always updated to the latest one). The two-dimensional data 14e2 and the three-dimensional data 14e3 are stored in the memory 12b in association with information necessary for specifying the current measurement such as the measurement date and time, together with the measurement region 20a.

データ出力部124は、3次元データ生成部123によって生成された3次元データ14e3、あるいは、メモリ12bに格納された3次元データ14e3を、測定対象20の内部構造を示す3次元画像に変換して、モニタ12cに出力する(図7左側)。図7に示すように、3次元画像と併せて、現在の超音波プローブ14の位置14pおよび方向14nや、現在の測定面などを表示するようにしてもよい。また、データ出力部124は、2次元データ生成部122によって生成された2次元データ14e2を、測定対象20の内部構造を示す断層像(2次元画像)に変換して、モニタ12cに出力する(図7右上側)。さらに、データ出力部124は、前回の測定においてメモリ12bに格納された2次元データ14e2の中から、現在の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に対応する2次元データ14e2を、測定対象20の内部構造を示す断層像に変換して、モニタ12cに出力する(図7右下側)。   The data output unit 124 converts the three-dimensional data 14e3 generated by the three-dimensional data generation unit 123 or the three-dimensional data 14e3 stored in the memory 12b into a three-dimensional image indicating the internal structure of the measurement target 20. And output to the monitor 12c (left side in FIG. 7). As shown in FIG. 7, the current position 14p and direction 14n of the ultrasonic probe 14, the current measurement surface, and the like may be displayed together with the three-dimensional image. Further, the data output unit 124 converts the two-dimensional data 14e2 generated by the two-dimensional data generation unit 122 into a tomographic image (two-dimensional image) indicating the internal structure of the measurement target 20, and outputs the tomographic image to the monitor 12c ( (Upper right side of FIG. 7). Further, the data output unit 124 selects, from the two-dimensional data 14e2 stored in the memory 12b in the previous measurement, the two-dimensional data 14e2 corresponding to the current position 14p, direction 14n, and push-in degree of the ultrasonic probe 14. Then, it is converted into a tomographic image showing the internal structure of the measuring object 20 and outputted to the monitor 12c (lower right side in FIG. 7).

定期検診などでは、定期的に同一内容の測定が行われる。現在測定中の断層像(図7右上側)と、前回測定された断層像のうち、現在の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に対応する断層像(図7右下側)とを同時に表示することで、ユーザが同一部位について前回と今回との比較を行うことが容易になり、経過観察が容易になる。経過観察したい部位がある場合は、その部位を測定中に、ユーザによる音声入力などにより、現在測定中の超音波プローブ14の位置14p、方向14nおよび押し込みの程度を、次回測定すべき測定面に対応する超音波プローブ14の位置14p、方向14nおよび押し込みの程度として指定し、メモリ12bに記録しておく。   In regular medical examinations, the same content is regularly measured. Among the tomogram currently being measured (upper right side in FIG. 7) and the previously measured tomographic image, the tomographic image corresponding to the current position 14p and direction 14n of the ultrasonic probe 14 and the degree of depression (lower right side in FIG. 7). ) At the same time, it becomes easy for the user to compare the previous part with the previous part for the same part, and the follow-up observation becomes easy. If there is a part to be followed up, the position 14p, the direction 14n, and the degree of push-in of the ultrasonic probe 14 currently being measured are measured on the measurement surface to be measured next time by voice input by the user while measuring the part. The position 14p, direction 14n, and push-in degree of the corresponding ultrasonic probe 14 are designated and recorded in the memory 12b.

測定ガイド部125は、前回の測定中に指定された、今回測定すべき測定面が残っている場合、音声または視覚情報によってその旨をユーザに指示する。測定ガイド部125は、ユーザによる音声入力などによって測定ガイドを要求された場合は、音声または視覚情報によって測定ガイドを行う。具体的には、測定ガイド部125は、現在測定中の超音波プローブ14の位置14p、方向14nおよび押し込みの程度が、今回測定すべき測定面に対応する位置14p、方向14nおよび押し込みの程度となるように、ユーザをガイドする。より具体的には、位置14pおよび押し込みの程度として超音波プローブ14を走査すべき方向を、前後、右左、上下などのように、音声または視覚情報によってガイドする。超音波プローブ14を走査すべき方向として「下」をガイドされた場合は、超音波プローブ14を測定対象20に押し込む。同様に、超音波プローブ14を走査すべき方向として「上」がガイドされた場合は、押し込んだ超音波プローブ14を戻す。位置14pおよび押し込みの程度に続き、視覚情報によって方向14nをガイドする。   When the measurement surface to be measured this time specified during the previous measurement remains, the measurement guide unit 125 instructs the user to that effect by voice or visual information. When a measurement guide is requested by voice input by the user, the measurement guide unit 125 performs the measurement guide by voice or visual information. Specifically, the measurement guide unit 125 is configured such that the position 14p, the direction 14n, and the push-in degree of the ultrasonic probe 14 that is currently being measured correspond to the position 14p, the direction 14n, and the push-in degree corresponding to the measurement surface to be measured this time. Guide the user to be. More specifically, the direction in which the ultrasonic probe 14 is to be scanned as the position 14p and the degree of pressing is guided by sound or visual information such as front and rear, right and left, and up and down. When “down” is guided as the direction in which the ultrasonic probe 14 is to be scanned, the ultrasonic probe 14 is pushed into the measurement target 20. Similarly, when “upper” is guided as the direction in which the ultrasonic probe 14 is to be scanned, the pressed ultrasonic probe 14 is returned. Following the position 14p and the degree of depression, the direction 14n is guided by visual information.

このような測定ガイド機能は、次回の測定を行うユーザが不慣れな場合に特に有効で、ユーザの習熟度によらず、安定的に正確で再現性のある超音波測定を行うことができる。なお、次回測定すべき測定面が少ない場合には、音声または視覚情報によるガイドに代えて、ステントなどの測定治具を作成してもよい。測定治具を作成する場合は、メモリ12bに格納された測定対象20の表面形状や超音波プローブ14の位置14p、方向14nおよび押し込みの程度などのデータを利用することで、3Dプリンタなどを用いて比較的容易に作成することができる。   Such a measurement guide function is particularly effective when the user who performs the next measurement is unfamiliar, and can stably and accurately perform ultrasonic measurement regardless of the user's proficiency level. When there are few measurement surfaces to be measured next time, a measurement jig such as a stent may be created instead of the guide by sound or visual information. When creating a measurement jig, a 3D printer or the like is used by using data such as the surface shape of the measurement object 20 stored in the memory 12b, the position 14p of the ultrasonic probe 14, the direction 14n, and the degree of pressing. Can be created relatively easily.

図8は、処理部12aで実行される処理の一例を示すフローチャートである。まず、ステップS1で、距離画像センサ16から、測定対象20(測定領域20a)に対する超音波プローブ14の押し込みの程度を含む、測定対象20および超音波プローブ14の3次元位置情報16dを受信する。次いで、ステップS2で、位置方向算出部121での処理により、測定対象20の3次元位置情報16dに基づいて測定対象20を認識する。次いで、ステップS3で、認識された測定対象20の表面に測定領域20aを設定する。次いで、ステップS4で、測定領域20aおよび超音波プローブ14の3次元位置情報16dに基づいて、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを算出する。   FIG. 8 is a flowchart illustrating an example of processing executed by the processing unit 12a. First, in step S1, the three-dimensional position information 16d of the measurement target 20 and the ultrasonic probe 14 including the degree of pressing of the ultrasonic probe 14 with respect to the measurement target 20 (measurement region 20a) is received from the distance image sensor 16. Next, in step S <b> 2, the measurement target 20 is recognized based on the three-dimensional position information 16 d of the measurement target 20 by processing in the position / direction calculation unit 121. Next, in step S3, a measurement region 20a is set on the surface of the recognized measurement object 20. Next, in step S4, the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a are calculated based on the three-dimensional position information 16d of the measurement region 20a and the ultrasonic probe 14.

次いで、ステップS5で、超音波プローブ14から測定データ14dを受信する。次いで、ステップS6で、2次元データ生成部122での処理により、測定データ14dに基づいて2次元データ14e2を生成する。次いで、ステップS7で、3次元データ生成部123での処理により、測定領域20aに対する超音波プローブ14の位置14p、方向14nおよび押し込みの程度に基づいて2次元データ14e2を合成し、3次元データ14e3を生成する(図6)。   Next, in step S5, measurement data 14d is received from the ultrasonic probe 14. Next, in step S6, two-dimensional data 14e2 is generated based on the measurement data 14d by processing in the two-dimensional data generation unit 122. Next, in step S7, the processing in the three-dimensional data generation unit 123 synthesizes the two-dimensional data 14e2 based on the position 14p, the direction 14n, and the degree of pressing of the ultrasonic probe 14 with respect to the measurement region 20a, and the three-dimensional data 14e3. Is generated (FIG. 6).

次いで、ステップS8で、データ出力部124での処理により、超音波プローブ14の位置14p、方向14nおよび押し込みの程度、2次元データ14e2、3次元データ14e3を、メモリ12bに出力する。次いで、ステップS9で、2次元データ14e2/3次元データ14e3を断層像/3次元画像に変換してモニタ12cに出力する(図7左側/図7右上側)。次いで、ステップS10で、前回の2次元データ14e2の中から、現在の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に対応する2次元データ14e2を、断層像に変換してモニタ12cに出力する(図7右下側)。なお、前回の測定データがない場合は、ステップS10はスキップする。   Next, in step S8, the position 14p, the direction 14n, and the degree of pressing of the ultrasonic probe 14, the two-dimensional data 14e2, and the three-dimensional data 14e3 are output to the memory 12b by the processing in the data output unit 124. Next, in step S9, the two-dimensional data 14e2 / three-dimensional data 14e3 is converted into a tomographic image / three-dimensional image and output to the monitor 12c (left side in FIG. 7 / upper right side in FIG. 7). Next, in step S10, the two-dimensional data 14e2 corresponding to the current position 14p, direction 14n, and push-in degree of the ultrasonic probe 14 is converted into a tomographic image from the previous two-dimensional data 14e2 and is displayed on the monitor 12c. Output (lower right side in FIG. 7). If there is no previous measurement data, step S10 is skipped.

次いで、ステップS11で、測定ガイド部125での処理により、今回測定すべき測定面が測定済みか否かを判断し、未測定の場合にはユーザに追加測定を指示する。追加測定の指示に対し、ユーザによる音声入力などによって測定ガイドを要求された場合は、ステップS12で、音声または視覚情報によって測定ガイドを実行する。   Next, in step S11, it is determined whether or not the measurement surface to be measured this time has been measured by the processing in the measurement guide unit 125, and if not measured, the user is instructed to perform additional measurement. When a measurement guide is requested by voice input or the like by the user in response to the additional measurement instruction, the measurement guide is executed by voice or visual information in step S12.

本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)画像処理装置(装置)10は、測定対象20を測定して得られる測定データ14dを処理して3次元データ14e3を生成する画像処理装置であって、測定データ14dを取得する取得部(一例として、超音波プローブ14)と、測定対象20および超音波プローブ14の位置および姿勢をそれぞれ追跡しつつ検出する検出部(一例として、距離画像センサ16)と、距離画像センサ16によって検出された測定対象20および超音波プローブ14の位置および姿勢に基づいて、測定対象20(測定領域20a)に対する超音波プローブ14の位置14pおよび方向14nを算出する位置方向算出部121と、超音波プローブ14によって取得された測定データ14dと、位置方向算出部121によって算出された測定領域20aに対する超音波プローブ14の位置14pおよび方向14nとに基づいて、3次元データ14e3を生成する3次元データ生成部123と、を備える。
According to the embodiment of the present invention, the following effects can be obtained.
(1) The image processing apparatus (apparatus) 10 is an image processing apparatus that processes the measurement data 14d obtained by measuring the measurement object 20 to generate the three-dimensional data 14e3, and acquires the measurement data 14d. (As an example, an ultrasonic probe 14), a detection unit (as an example, a distance image sensor 16) that detects while tracking the positions and orientations of the measurement object 20 and the ultrasonic probe 14, and the distance image sensor 16. Based on the position and orientation of the measurement object 20 and the ultrasonic probe 14, the position / direction calculation unit 121 for calculating the position 14p and the direction 14n of the ultrasonic probe 14 relative to the measurement object 20 (measurement region 20a) The measurement data 14d acquired by the above and the measurement region 20a calculated by the position / direction calculation unit 121 It provided that position based on the 14p and direction 14n of the ultrasonic probe 14, a three-dimensional data generation unit 123 to generate three-dimensional data 14E3, the.

すなわち、位置方向算出部121は、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出するため、測定対象20の姿勢を変えて超音波測定を行う場合であっても、測定対象20の姿勢を変える前後で測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを較正する必要がない。また、測定対象20の姿勢を連続的に変えて超音波測定を行う場合であっても、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。よって、測定対象20の姿勢を連続的に変えて超音波測定を行う場合であっても、連続的に算出される超音波プローブ14の位置14pおよび方向14nに基づいて測定データ14dを合成し、正確で再現性のある3次元データ14e3を生成することができる。   That is, since the position / direction calculation unit 121 continuously calculates the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a, even when the ultrasonic measurement is performed by changing the posture of the measurement target 20, It is not necessary to calibrate the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a before and after changing the posture of the measurement object 20. Even when the ultrasonic measurement is performed by continuously changing the posture of the measurement target 20, the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a can be calculated continuously. Therefore, even when ultrasonic measurement is performed by continuously changing the posture of the measurement target 20, the measurement data 14d is synthesized based on the continuously calculated position 14p and direction 14n of the ultrasonic probe 14, Accurate and reproducible three-dimensional data 14e3 can be generated.

(2)取得部は、測定対象20を走査しながら超音波を送受信する超音波プローブ14であるため、測定中の測定対象20に与える負荷が小さい。 (2) Since the acquisition unit is the ultrasonic probe 14 that transmits and receives ultrasonic waves while scanning the measurement target 20, a load applied to the measurement target 20 during measurement is small.

(3)測定対象20は生体であり、距離画像センサ16は、測定対象20(測定領域20a)に対する超音波プローブ14の押し込みの程度をさらに検出し、3次元データ生成部123は、超音波プローブ14によって取得された測定データ14dと、位置方向算出部121によって算出された測定領域20aに対する超音波プローブ14の位置14pおよび方向14nと、距離画像センサ16によって検出された測定領域20aに対する超音波プローブ14の押し込みの程度とに基づいて、3次元データ14e3を生成する。従って、超音波プローブ14を押し込むことで測定対象20の表面を変位させて、換言すれば、測定領域20aの形状を変化させて測定を行う場合であっても、測定領域20aの形状変化に応じて測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することが可能となるため、再現性の高い正確な3次元データ14e3を生成することができる。   (3) The measurement target 20 is a living body, and the distance image sensor 16 further detects the degree of pushing of the ultrasonic probe 14 against the measurement target 20 (measurement region 20a), and the three-dimensional data generation unit 123 uses the ultrasonic probe. 14, the measurement data 14 d acquired by 14, the position 14 p and direction 14 n of the ultrasonic probe 14 with respect to the measurement region 20 a calculated by the position / direction calculation unit 121, and the ultrasonic probe with respect to the measurement region 20 a detected by the distance image sensor 16. The three-dimensional data 14e3 is generated based on the degree of pressing 14. Therefore, even when the measurement is performed by changing the shape of the measurement region 20a by displacing the surface of the measurement target 20 by pushing the ultrasonic probe 14, in other words, according to the shape change of the measurement region 20a. Thus, the position 14p and the direction 14n of the ultrasonic probe 14 with respect to the measurement region 20a can be calculated continuously, and thus accurate three-dimensional data 14e3 with high reproducibility can be generated.

本実施形態では、図1などに示すように、測定対象20を生体として説明したが、測定対象20は物体でもよい。例えば、海底を測定対象20として、船底に搭載された音波探査機14によって同様に測定することができる。具体的には、海底20下の地層情報を得るための従来の音波探査機14に、距離画像センサ16を追加搭載し、海底20に対する音波探査機14の位置14pおよび方向14nを算出する。これにより、船の移動や揺れにかかわらず、測定データ14dを正確に解析できるようになる。さらに、距離画像センサ16によって得られる経時的な3次元位置情報16dに基づいて、測定対象20に対する音波探査機14の相対速度を算出することもできるため、ドップラー現象を考慮して測定データ14dの解析精度を向上させることもできる。   In this embodiment, as illustrated in FIG. 1 and the like, the measurement target 20 has been described as a living body, but the measurement target 20 may be an object. For example, the seabed can be measured in the same manner with the acoustic probe 14 mounted on the ship's bottom as the measurement target 20. Specifically, a distance image sensor 16 is additionally mounted on a conventional acoustic probe 14 for obtaining formation information under the seabed 20, and the position 14 p and the direction 14 n of the acoustic probe 14 with respect to the seabed 20 are calculated. As a result, the measurement data 14d can be accurately analyzed regardless of the movement or shaking of the ship. Furthermore, since the relative speed of the acoustic probe 14 with respect to the measurement target 20 can be calculated based on the three-dimensional positional information 16d with time obtained by the distance image sensor 16, the measurement data 14d can be calculated in consideration of the Doppler phenomenon. Analysis accuracy can also be improved.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態および変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。   The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications unless the features of the present invention are impaired. The constituent elements of the embodiment and the modified examples include those that can be replaced while maintaining the identity of the invention and that are obvious for replacement. That is, other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. Moreover, it is also possible to arbitrarily combine one or more of the above-described embodiments and modified examples.

10 画像処理(装置)、14 超音波プローブ、14d 測定データ、14e3 3次元データ、14n 方向、14p 位置、16 距離画像センサ、20 測定対象、121 位置方向算出部、122 2次元データ生成部、123 3次元データ生成部、124 データ出力部、125 測定ガイド部 DESCRIPTION OF SYMBOLS 10 Image processing (apparatus), 14 Ultrasonic probe, 14d Measurement data, 14e3 3D data, 14n direction, 14p position, 16 distance image sensor, 20 Measurement object, 121 Position direction calculation part, 122 2D data generation part, 123 3D data generation unit, 124 data output unit, 125 measurement guide unit

Claims (3)

測定対象を測定して得られる測定データを処理して3次元画像データを生成する画像処理装置であって、
前記測定データを取得する取得部と、
前記測定対象および前記取得部の位置および姿勢をそれぞれ追跡しつつ検出する検出部と、
前記検出部によって検出された前記測定対象および前記取得部の位置および姿勢に基づいて、前記測定対象に対する前記取得部の位置および姿勢を算出する算出部と、
前記取得部によって取得された前記測定データと、前記算出部によって算出された前記測定対象に対する前記取得部の位置および姿勢とに基づいて、前記3次元画像データを生成する生成部と、を備えることを特徴とする画像処理装置。
An image processing apparatus that processes measurement data obtained by measuring a measurement object and generates three-dimensional image data,
An acquisition unit for acquiring the measurement data;
A detection unit that detects the measurement object and the position and orientation of the acquisition unit while tracking them;
A calculation unit that calculates the position and orientation of the acquisition unit with respect to the measurement target based on the measurement target and the position and orientation of the acquisition unit detected by the detection unit;
A generation unit that generates the three-dimensional image data based on the measurement data acquired by the acquisition unit and the position and orientation of the acquisition unit with respect to the measurement target calculated by the calculation unit; An image processing apparatus.
請求項1に記載の画像処理装置であって、
前記取得部は、前記測定対象を走査しながら超音波を送受信する超音波プローブであることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus, wherein the acquisition unit is an ultrasonic probe that transmits and receives ultrasonic waves while scanning the measurement target.
請求項2に記載の画像処理装置であって、
前記測定対象は生体であり、
前記検出部は、前記測定対象に対する前記取得部の押し込みの程度をさらに検出し、
前記生成部は、前記取得部によって取得された前記測定データと、前記算出部によって算出された前記測定対象に対する前記取得部の位置および姿勢と、前記検出部によって検出された前記測定対象に対する前記取得部の押し込みの程度と、に基づいて、前記3次元画像データを生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The measurement object is a living body,
The detection unit further detects a degree of pushing of the acquisition unit with respect to the measurement target,
The generation unit includes the measurement data acquired by the acquisition unit, the position and orientation of the acquisition unit with respect to the measurement target calculated by the calculation unit, and the acquisition for the measurement target detected by the detection unit. An image processing apparatus that generates the three-dimensional image data based on a degree of pressing of a unit.
JP2017007770A 2017-01-19 2017-01-19 Image processing device Active JP6510570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017007770A JP6510570B2 (en) 2017-01-19 2017-01-19 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017007770A JP6510570B2 (en) 2017-01-19 2017-01-19 Image processing device

Publications (3)

Publication Number Publication Date
JP2018114166A true JP2018114166A (en) 2018-07-26
JP2018114166A5 JP2018114166A5 (en) 2019-01-24
JP6510570B2 JP6510570B2 (en) 2019-05-08

Family

ID=62983509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017007770A Active JP6510570B2 (en) 2017-01-19 2017-01-19 Image processing device

Country Status (1)

Country Link
JP (1) JP6510570B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126180A (en) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd Apparatus of and method for obtaining three-dimensional image
JP2010131053A (en) * 2008-12-02 2010-06-17 Konica Minolta Medical & Graphic Inc Ultrasonic diagnostic imaging system and program for making the same operate
JP2014124309A (en) * 2012-12-26 2014-07-07 Toshiba Corp Ultrasonic diagnostic device
JP2014221175A (en) * 2013-05-14 2014-11-27 健司 三木 Ultrasonic diagnostic system, image processor and control method and control program therefor
JP2015029791A (en) * 2013-08-05 2015-02-16 株式会社東芝 Medical appliance operation support device and ultrasonic diagnostic device
JP2015116215A (en) * 2013-12-16 2015-06-25 日立アロカメディカル株式会社 Ultrasonic diagnostic device and program
WO2015113807A1 (en) * 2014-01-29 2015-08-06 Koninklijke Philips N.V. System and method for imaging using ultrasound
JP2016034486A (en) * 2014-07-31 2016-03-17 株式会社東芝 Medical imaging system, surgery guide system, and medical imaging method
JP2016517746A (en) * 2013-04-30 2016-06-20 トラクトゥス・コーポレーション Method, apparatus and system for complete examination of tissue using a handheld imaging device having position and / or orientation sensors

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126180A (en) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd Apparatus of and method for obtaining three-dimensional image
JP2010131053A (en) * 2008-12-02 2010-06-17 Konica Minolta Medical & Graphic Inc Ultrasonic diagnostic imaging system and program for making the same operate
JP2014124309A (en) * 2012-12-26 2014-07-07 Toshiba Corp Ultrasonic diagnostic device
JP2016517746A (en) * 2013-04-30 2016-06-20 トラクトゥス・コーポレーション Method, apparatus and system for complete examination of tissue using a handheld imaging device having position and / or orientation sensors
JP2014221175A (en) * 2013-05-14 2014-11-27 健司 三木 Ultrasonic diagnostic system, image processor and control method and control program therefor
JP2015029791A (en) * 2013-08-05 2015-02-16 株式会社東芝 Medical appliance operation support device and ultrasonic diagnostic device
JP2015116215A (en) * 2013-12-16 2015-06-25 日立アロカメディカル株式会社 Ultrasonic diagnostic device and program
WO2015113807A1 (en) * 2014-01-29 2015-08-06 Koninklijke Philips N.V. System and method for imaging using ultrasound
JP2016034486A (en) * 2014-07-31 2016-03-17 株式会社東芝 Medical imaging system, surgery guide system, and medical imaging method

Also Published As

Publication number Publication date
JP6510570B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
US9113817B2 (en) System for locating anatomical objects in ultrasound imaging
KR102144671B1 (en) Position correction apparatus of ultrasound scanner for ai ultrasound self-diagnosis using ar glasses, and remote medical-diagnosis method using the same
US11064979B2 (en) Real-time anatomically based deformation mapping and correction
CN108430334B (en) Ultrasound imaging apparatus and ultrasound imaging method for examining a volume of an object
JP5574742B2 (en) Ultrasonic diagnostic equipment
JP5015580B2 (en) Ultrasonic diagnostic apparatus and report image creation method
CN107647880B (en) Medical image processing apparatus and medical image processing method
JP2015171476A (en) Ultrasonic diagnostic device and ultrasonic image processing method
JP2007202829A (en) Ultrasonic diagnostic system
JP2014121434A (en) Ultrasonic diagnostic apparatus and collection state display method of the same
JP2010201049A (en) Ultrasonic diagnostic apparatus
JP4713862B2 (en) Ultrasonic diagnostic equipment
KR20150031091A (en) Method and apparatus for providing ultrasound information using guidelines
JP2014161598A (en) Ultrasonic diagnostic apparatus and control program for the same
CN107690312B (en) Ultrasonic imaging apparatus
US20140236012A1 (en) Ultrasound diagnosis apparatus
JP2014195729A (en) Ultrasound diagnosis system
JP6510570B2 (en) Image processing device
JP4143567B2 (en) Image display apparatus and program
US20150182198A1 (en) System and method for displaying ultrasound images
US11241172B2 (en) Ultrasonic diagnostic apparatus and method of controlling the same
JP6224341B2 (en) Fixing device and ultrasonic diagnostic apparatus
KR102406937B1 (en) Ultrasound imaging apparatus and controlling method of the same
KR20080042334A (en) Ultrasound system and method for forming ultrasound image
JP5421349B2 (en) Ultrasonic diagnostic apparatus and report image creation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181207

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190404

R150 Certificate of patent or registration of utility model

Ref document number: 6510570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250