JP2018114166A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2018114166A JP2018114166A JP2017007770A JP2017007770A JP2018114166A JP 2018114166 A JP2018114166 A JP 2018114166A JP 2017007770 A JP2017007770 A JP 2017007770A JP 2017007770 A JP2017007770 A JP 2017007770A JP 2018114166 A JP2018114166 A JP 2018114166A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- ultrasonic probe
- unit
- dimensional
- measurement target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 34
- 238000005259 measurement Methods 0.000 claims abstract description 224
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 239000000523 sample Substances 0.000 claims description 99
- 238000000034 method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 230000036544 posture Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 206010030113 Oedema Diseases 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 210000001165 lymph node Anatomy 0.000 description 1
- 210000005075 mammary gland Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Description
本発明は、測定対象を測定して得られる測定データを処理して3次元画像を生成する画像処理装置に関する。 The present invention relates to an image processing apparatus that processes measurement data obtained by measuring a measurement object and generates a three-dimensional image.
この種の装置として、従来、測定対象を超音波測定して得られる測定データと、測定中の超音波プローブの空間的な位置および向き(座標データ)とに基づいて、3次元画像データを生成する画像処理装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、超音波プローブに取り付けられた3次元位置センサによって、超音波プローブの座標データを得る。 Conventionally, this type of device generates 3D image data based on the measurement data obtained by ultrasonic measurement of the measurement object and the spatial position and orientation (coordinate data) of the ultrasonic probe being measured. An image processing apparatus is known (see, for example, Patent Document 1). In the apparatus described in Patent Document 1, the coordinate data of the ultrasonic probe is obtained by a three-dimensional position sensor attached to the ultrasonic probe.
また、予め取得された測定対象の医用画像の目標位置および測定対象が第1位置状態にあるときのプローブ位置の関係と、測定対象が第1位置状態にあるときのプローブ位置および第2位置状態にあるときのプローブ位置の関係とに基づいて、第2位置状態でのプローブ位置に対応する測定対象の医学画像の目標位置を表示する画像処理装置が知られている(例えば特許文献2参照)。特許文献2記載の装置では、測定対象が第1位置状態から第2位置状態に移動したときに、再度の位置決めを行うことで、第2位置状態でのプローブ位置に対応する測定対象の医学画像の目標位置を表示する。 In addition, the relationship between the target position of the medical image of the measurement target acquired in advance and the probe position when the measurement target is in the first position state, and the probe position and second position state when the measurement target is in the first position state An image processing apparatus that displays a target position of a medical image to be measured corresponding to the probe position in the second position state based on the relationship of the probe position when in the position is known (see, for example, Patent Document 2). . In the apparatus described in Patent Document 2, the medical image of the measurement object corresponding to the probe position in the second position state is performed by performing positioning again when the measurement object moves from the first position state to the second position state. Displays the target position.
しかしながら、上記特許文献1記載の装置では、3次元位置センサによって得られるのは超音波プローブの座標データのみであり、測定対象の姿勢は考慮されない。このため、測定対象が特定の姿勢を維持した状態で測定を行う場合にしか適用することができず、測定対象の姿勢を変えて測定を行う場合や、超音波プローブなどによって測定対象の表面を変位させて測定を行う場合には、再現性の高い正確な3次元画像データを生成することができない。 However, in the apparatus described in Patent Document 1, only the coordinate data of the ultrasonic probe is obtained by the three-dimensional position sensor, and the posture of the measurement target is not considered. For this reason, it can be applied only when measurement is performed in a state where the measurement target maintains a specific posture, and when the measurement target is changed in posture, the surface of the measurement target is measured by an ultrasonic probe or the like. When measurement is performed with displacement, accurate three-dimensional image data with high reproducibility cannot be generated.
また、上記特許文献2記載の装置では、ユーザが測定対象の姿勢の変化を確認し、新たな姿勢の測定対象に対して、再度、超音波プローブなどの位置決めを行う必要があるため、測定対象の姿勢を頻繁に変えて測定を行う場合にはユーザの負担が増大する。また、測定対象の姿勢を連続的に変えて測定を行う場合や、超音波プローブなどによって測定対象の表面を変位させて測定を行う場合には、適用することが困難となる。 Further, in the apparatus described in Patent Document 2, it is necessary for the user to check the change of the posture of the measurement target and to position the ultrasonic probe again with respect to the measurement target of the new posture. The user's burden increases when the posture is frequently changed and measurement is performed. Further, when measurement is performed by continuously changing the posture of the measurement target, or when measurement is performed by displacing the surface of the measurement target using an ultrasonic probe or the like, it is difficult to apply.
本発明の一態様は、測定対象を測定して得られる測定データを処理して3次元画像データを生成する画像処理装置であって、測定データを取得する取得部と、測定対象および取得部の位置および姿勢をそれぞれ追跡しつつ検出する検出部と、検出部によって検出された測定対象および取得部の位置および姿勢に基づいて、測定対象に対する取得部の位置および姿勢を算出する算出部と、取得部によって取得された測定データと、算出部によって算出された測定対象に対する取得部の位置および姿勢とに基づいて、3次元画像データを生成する生成部とを備えることを特徴とする。 One aspect of the present invention is an image processing apparatus that processes measurement data obtained by measuring a measurement target to generate three-dimensional image data, and includes an acquisition unit that acquires measurement data, a measurement target, and an acquisition unit. A detection unit that detects while tracking the position and orientation, a calculation unit that calculates the position and orientation of the acquisition unit with respect to the measurement target based on the measurement target and the position and orientation of the acquisition unit detected by the detection unit, and acquisition And a generation unit that generates three-dimensional image data based on the measurement data acquired by the unit and the position and orientation of the acquisition unit with respect to the measurement target calculated by the calculation unit.
本発明によれば、測定対象に対する取得部の位置および方向に基づいて、測定データを処理して3次元画像データを生成するように構成したので、測定対象の姿勢を連続的に変えて測定を行う場合や、測定対象の表面を変位させて測定を行う場合であっても、再現性の高い正確な3次元画像データを生成することができる。 According to the present invention, since the measurement data is processed and the three-dimensional image data is generated based on the position and direction of the acquisition unit with respect to the measurement object, the measurement object is continuously changed in posture. Even when the measurement is performed or when the measurement target surface is displaced, accurate three-dimensional image data with high reproducibility can be generated.
以下、図1〜図8を参照して本発明の実施形態について説明する。図1は、本発明の実施形態に係る画像処理装置(以下、装置という)10の概略構成を示す図である。装置10は、測定対象20を超音波測定して得られる測定データを処理して3次元画像を生成する画像処理装置として機能する。装置10は、CPU(処理部)12a、ROM,RAM(メモリ)12b、その他の周辺回路などを有する演算処理装置およびモニタ12cを含んで構成されるコンピュータ12、超音波プローブ14、距離画像センサ16を備える。コンピュータ12と超音波プローブ14、コンピュータ12と距離画像センサ16とは、それぞれ通信ケーブル等の通信部によって互いに接続されており、互いに通信できるようになっている。
Hereinafter, embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus (hereinafter referred to as an apparatus) 10 according to an embodiment of the present invention. The
超音波プローブ14は、測定対象20の表面を走査しながら超音波を送受信し、受信波を電気信号に変換して、測定データ14dとしてコンピュータ12に送信する。測定データ14dは、測定対象20の内部構造、特に、測定対象20の臓器の境界を示す断層像に変換することができる。本実施形態では、超音波プローブ14としてリニア電子スキャンプローブを使用する場合を例に説明するが、セクタ電子スキャンプローブなどを使用してもよいし、機械走査方式や手動走査方式のスキャンを使用してもよい。
The
図2は、超音波プローブ14の斜視図である。超音波プローブ14は、ケース内に振動子、音響整合層、バッキング材、音響レンズなどが収容される。ユーザは、ケース上部14aを把持し、ケース底部14bで測定対象20の表面を走査しながら超音波測定を行う。ケース上部14aとケース底部14bとの間に位置するケース下部14cには、ケース底部14bに平行で、互いに直交する方向に軸を有する、突起15aと突起15bとが配置される。突起15a,15bの形状としては、例えば、底面が二等辺三角形の三角錐が適する。突起15a,15bの材質は、例えば、ケースと同じ材質とすることができるが、測定中に変形しない材質が好ましい。
FIG. 2 is a perspective view of the
距離画像センサ16は、卓上に置くための台座16aを有する。距離画像センサ16は、台座16aに代えて、ベッドフレームなどに取り付けるためのクリップを有するようにしてもよい。距離画像センサ16は、図1に示すように、超音波測定中の超音波プローブ14および測定対象20に正面が向かうように配置される。距離画像センサ16は、超音波プローブ14および測定対象20の位置および姿勢を追跡しつつ検出、すなわち、超音波プローブ14および測定対象20の表面を連続的に検出して3次元位置情報16dを取得し、コンピュータ12に送信する。
The
距離画像センサ16としては、種々の非接触方式のものを利用することができる。例えば、カメラ2台のステレオ方式、レーザスリット光を走査する方式、レーザスポット光を走査する方式、プロジェクタ等の装置を用いてパターン光を物品に投影する方式、光が投光器から出射されてから物品表面で反射し受光器に入射するまでの飛行時間を利用する方式などが挙げられる。
As the
図3は、コンピュータ12の処理部12aの制御構成を示すブロック図である。処理部12aは、超音波プローブ14から測定対象20を超音波測定して得られた測定データ14dを受信し、距離画像センサ16から超音波プローブ14および測定対象20の表面を検出して得られた3次元位置情報16dを受信する。処理部12aは、受信した測定データ14dと3次元位置情報16dとに基づき所定の処理を実行し、測定対象20の臓器の境界を示す3次元画像に変換可能な3次元データを生成して、メモリ12bおよび/またはモニタ12cに出力する。処理部12aは、機能的構成として、位置方向算出部121と、2次元データ生成部122と、3次元データ生成部123と、データ出力部124と、測定ガイド部125とを有する。
FIG. 3 is a block diagram illustrating a control configuration of the
図4は、位置方向算出部121の機能を説明するための説明図である。位置方向算出部121は、距離画像センサ16から受信した3次元位置情報16dに基づいて、測定対象20、具体的には、測定対象20の表面の3次元形状および骨格(関節)の位置を認識する。位置方向算出部121は、認識結果に基づき、検査内容に応じて、認識された測定対象20の表面に測定領域20aを設定する。検査内容は、例えば、乳腺検査や腹部一般検査などで、ユーザによって選択、入力される。測定領域20aは、検査内容に応じて、一般的な表面形状および骨格に対して予め設定され、メモリ12bに格納される。位置方向算出部121は、予め設定された一般的な表面形状および骨格と、認識された測定対象20の表面形状および骨格とを比較することで、認識された測定対象20の表面に測定領域20aを設定する。
FIG. 4 is an explanatory diagram for explaining the function of the position /
位置方向算出部121によって認識された測定対象20の表面の3次元形状などは、後述するデータ出力部124によってモニタ12cに出力される。測定領域20aを位置方向算出部121によって自動的に設定せずに、モニタ12cに出力された測定対象20の表面に、マウスポインタなどを使用して、ユーザが手動で測定領域20aを設定することもできる。設定された測定領域20aは、測定対象20に関する情報などとともに、測定日時などの今回の測定を特定するために必要な情報に関連付けられて、メモリ12bに格納される。定期検診などで同一の測定対象20に対して定期的に同一内容の測定を行う場合、2回目以降の測定では、メモリ12bに格納された前回の測定領域20aが使用される。なお、浮腫などにより、前回と今回とで測定対象20の大きさが変化することがあるが、そのような変化は単なる縮尺の変化とみなすことができるため、表面形状と骨格とに基づく測定領域20aの設定に与える影響はごく小さい。
The three-dimensional shape of the surface of the
位置方向算出部121は、さらに、距離画像センサ16から受信した3次元位置情報16d、より具体的には、測定領域20aおよび超音波プローブ14の3次元位置情報16dに基づいて、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを算出する。位置14pは、超音波プローブ14のケース底部14b(図2)の中心点であり、超音波測定中の超音波プローブ14と測定領域20aとの接点に相当する。方向14nは、位置14pを通ってケース底部14bから離間する方向へ向かう超音波プローブ14の中心軸であり、超音波測定中に超音波プローブ14が超音波を送信する方向に相当する。方向14nは、超音波測定中における測定領域20a(曲面)の位置14pにおける法線と略一致する。
The position /
図2に示すように、超音波プローブ14のケース下部14cには、ケース底部14bに平行で、互いに直交する方向に軸を有する、突起15a,15bが配置される。このため、位置方向算出部121は、3次元位置情報16dに基づいて超音波プローブ14の方向14nを算出するとき、超音波プローブ14の表側と裏側と、右側と左側とを正しく認識することが可能となり、超音波プローブ14の方向14nをより正確に算出することができる。また、突起15a,15bの底面は、底辺が超音波プローブ14のケース底部14b側を向いた二等辺三角形である。このため、位置方向算出部121は、3次元位置情報16dに基づいて超音波プローブ14の方向14nを算出するとき、超音波プローブ14の上側と下側とを正しく認識することが可能となり、超音波プローブ14の方向14nをより正確に算出することができる。
As shown in FIG. 2, the case
超音波測定中、位置方向算出部121は、距離画像センサ16から測定領域20aおよび超音波プローブ14の3次元位置情報16dを連続的に受信する。このため、位置方向算出部121は、測定領域20aを連続的に認識し、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。従って、測定対象20の姿勢を変えて超音波測定を行う場合であっても、測定対象20の姿勢を変える前後で測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを較正する必要がない。また、測定対象20の姿勢を連続的に変えて超音波測定を行う場合であっても、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。
During the ultrasonic measurement, the position /
また、距離画像センサ16によって検出される3次元位置情報16dには、測定領域20aの形状の情報、すなわち、測定領域20aに対する超音波プローブ14の押し込みの程度の情報も含まれる。このため、超音波プローブ14を押し込むことで測定対象20の表面を変位させて、換言すれば、測定領域20aの形状を変化させて測定を行う場合であっても、測定領域20aの形状変化に応じて測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。
Further, the three-dimensional position information 16d detected by the
図5は、2次元データ生成部122の機能を説明するための説明図である。2次元データ生成部122は、超音波プローブ14から受信した測定データ14dに基づいて、測定対象20の内部構造を示す断層像(2次元画像)に変換可能な2次元データ14e2を生成する。2次元データ14e2には、ピクセルごとの2次元座標情報と輝度情報とが含まる。2次元データ14e2は、モニタ12cに出力された場合には、図5に簡略化して示すように、臓器の境界BAを示す断層像として表示される。なお、本実施形態のように超音波プローブ14としてリニア電子スキャンプローブを使用する場合は長方形の断層像が得られるが、断層像の形状は使用する超音波プローブ14の種類によって異なる(例えば、セクタ電子スキャンプローブを使用する場合は扇形の断層像が得られる)。超音波プローブ14の種類は、検査内容とともに、ユーザによって選択、入力される。
FIG. 5 is an explanatory diagram for explaining the function of the two-dimensional
図6は、3次元データ生成部123の機能を説明するための説明図である。3次元データ生成部123は、位置方向算出部121によって算出された測定領域20aに対する超音波プローブ14の位置14pおよび方向14nと、距離画像センサ16によって検出された測定領域20aに対する超音波プローブ14の押し込みの程度とに基づき(図6(a))、2次元データ生成部122によって生成された2次元データ14e2を合成し(図6(b))、測定対象20の内部構造を示す3次元画像に変換可能な3次元データ14e3を生成する(図6(c),(d))。3次元データ14e3には、ボクセルごとの3次元座標情報と輝度情報とが含まれる。よって、モニタ12cに出力される3次元データ14e3は、所望の方向から見た3次元画像、あるいは、所望の断面の断層像として表示することができる。3次元データ14e3に基づいて、3次元画像上あるいは断層像上の線分の長さ(例えば、リンパ節の長径、短径など)を自動計算することもできる。未測定箇所に対応する3次元画像におけるボクセルまたは所望の断面の断層像におけるピクセルは、輝度情報を有しない。未測定箇所を強調表示させることにより、検査に漏れがないかを確認することができる。
FIG. 6 is an explanatory diagram for explaining the function of the three-dimensional
図7は、データ出力部124によってモニタ12cに出力される画面の一例である。データ出力部124は、2次元データ生成部122によって生成された2次元データ14e2を、測定時の超音波プローブ14の位置14p、方向14nおよび押し込みの程度とともに、メモリ12bに出力する。また、データ出力部124は、3次元データ生成部123によって生成された3次元データ14e3を、メモリ12bに出力する。2次元データ14e2はすべて、測定時の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に関連付けられてメモリ12bに格納される。一方、3次元データ14e3は、データ出力部124から最後に受信したもののみがメモリ12bに格納される(すなわち、常に最新のものに更新される)。なお、2次元データ14e2および3次元データ14e3は、測定領域20aなどとともに、測定日時などの今回の測定を特定するために必要な情報に関連付けられて、メモリ12bに格納される。
FIG. 7 is an example of a screen output to the
データ出力部124は、3次元データ生成部123によって生成された3次元データ14e3、あるいは、メモリ12bに格納された3次元データ14e3を、測定対象20の内部構造を示す3次元画像に変換して、モニタ12cに出力する(図7左側)。図7に示すように、3次元画像と併せて、現在の超音波プローブ14の位置14pおよび方向14nや、現在の測定面などを表示するようにしてもよい。また、データ出力部124は、2次元データ生成部122によって生成された2次元データ14e2を、測定対象20の内部構造を示す断層像(2次元画像)に変換して、モニタ12cに出力する(図7右上側)。さらに、データ出力部124は、前回の測定においてメモリ12bに格納された2次元データ14e2の中から、現在の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に対応する2次元データ14e2を、測定対象20の内部構造を示す断層像に変換して、モニタ12cに出力する(図7右下側)。
The
定期検診などでは、定期的に同一内容の測定が行われる。現在測定中の断層像(図7右上側)と、前回測定された断層像のうち、現在の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に対応する断層像(図7右下側)とを同時に表示することで、ユーザが同一部位について前回と今回との比較を行うことが容易になり、経過観察が容易になる。経過観察したい部位がある場合は、その部位を測定中に、ユーザによる音声入力などにより、現在測定中の超音波プローブ14の位置14p、方向14nおよび押し込みの程度を、次回測定すべき測定面に対応する超音波プローブ14の位置14p、方向14nおよび押し込みの程度として指定し、メモリ12bに記録しておく。
In regular medical examinations, the same content is regularly measured. Among the tomogram currently being measured (upper right side in FIG. 7) and the previously measured tomographic image, the tomographic image corresponding to the
測定ガイド部125は、前回の測定中に指定された、今回測定すべき測定面が残っている場合、音声または視覚情報によってその旨をユーザに指示する。測定ガイド部125は、ユーザによる音声入力などによって測定ガイドを要求された場合は、音声または視覚情報によって測定ガイドを行う。具体的には、測定ガイド部125は、現在測定中の超音波プローブ14の位置14p、方向14nおよび押し込みの程度が、今回測定すべき測定面に対応する位置14p、方向14nおよび押し込みの程度となるように、ユーザをガイドする。より具体的には、位置14pおよび押し込みの程度として超音波プローブ14を走査すべき方向を、前後、右左、上下などのように、音声または視覚情報によってガイドする。超音波プローブ14を走査すべき方向として「下」をガイドされた場合は、超音波プローブ14を測定対象20に押し込む。同様に、超音波プローブ14を走査すべき方向として「上」がガイドされた場合は、押し込んだ超音波プローブ14を戻す。位置14pおよび押し込みの程度に続き、視覚情報によって方向14nをガイドする。
When the measurement surface to be measured this time specified during the previous measurement remains, the
このような測定ガイド機能は、次回の測定を行うユーザが不慣れな場合に特に有効で、ユーザの習熟度によらず、安定的に正確で再現性のある超音波測定を行うことができる。なお、次回測定すべき測定面が少ない場合には、音声または視覚情報によるガイドに代えて、ステントなどの測定治具を作成してもよい。測定治具を作成する場合は、メモリ12bに格納された測定対象20の表面形状や超音波プローブ14の位置14p、方向14nおよび押し込みの程度などのデータを利用することで、3Dプリンタなどを用いて比較的容易に作成することができる。
Such a measurement guide function is particularly effective when the user who performs the next measurement is unfamiliar, and can stably and accurately perform ultrasonic measurement regardless of the user's proficiency level. When there are few measurement surfaces to be measured next time, a measurement jig such as a stent may be created instead of the guide by sound or visual information. When creating a measurement jig, a 3D printer or the like is used by using data such as the surface shape of the
図8は、処理部12aで実行される処理の一例を示すフローチャートである。まず、ステップS1で、距離画像センサ16から、測定対象20(測定領域20a)に対する超音波プローブ14の押し込みの程度を含む、測定対象20および超音波プローブ14の3次元位置情報16dを受信する。次いで、ステップS2で、位置方向算出部121での処理により、測定対象20の3次元位置情報16dに基づいて測定対象20を認識する。次いで、ステップS3で、認識された測定対象20の表面に測定領域20aを設定する。次いで、ステップS4で、測定領域20aおよび超音波プローブ14の3次元位置情報16dに基づいて、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを算出する。
FIG. 8 is a flowchart illustrating an example of processing executed by the
次いで、ステップS5で、超音波プローブ14から測定データ14dを受信する。次いで、ステップS6で、2次元データ生成部122での処理により、測定データ14dに基づいて2次元データ14e2を生成する。次いで、ステップS7で、3次元データ生成部123での処理により、測定領域20aに対する超音波プローブ14の位置14p、方向14nおよび押し込みの程度に基づいて2次元データ14e2を合成し、3次元データ14e3を生成する(図6)。
Next, in step S5, measurement data 14d is received from the
次いで、ステップS8で、データ出力部124での処理により、超音波プローブ14の位置14p、方向14nおよび押し込みの程度、2次元データ14e2、3次元データ14e3を、メモリ12bに出力する。次いで、ステップS9で、2次元データ14e2/3次元データ14e3を断層像/3次元画像に変換してモニタ12cに出力する(図7左側/図7右上側)。次いで、ステップS10で、前回の2次元データ14e2の中から、現在の超音波プローブ14の位置14p、方向14nおよび押し込みの程度に対応する2次元データ14e2を、断層像に変換してモニタ12cに出力する(図7右下側)。なお、前回の測定データがない場合は、ステップS10はスキップする。
Next, in step S8, the
次いで、ステップS11で、測定ガイド部125での処理により、今回測定すべき測定面が測定済みか否かを判断し、未測定の場合にはユーザに追加測定を指示する。追加測定の指示に対し、ユーザによる音声入力などによって測定ガイドを要求された場合は、ステップS12で、音声または視覚情報によって測定ガイドを実行する。
Next, in step S11, it is determined whether or not the measurement surface to be measured this time has been measured by the processing in the
本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)画像処理装置(装置)10は、測定対象20を測定して得られる測定データ14dを処理して3次元データ14e3を生成する画像処理装置であって、測定データ14dを取得する取得部(一例として、超音波プローブ14)と、測定対象20および超音波プローブ14の位置および姿勢をそれぞれ追跡しつつ検出する検出部(一例として、距離画像センサ16)と、距離画像センサ16によって検出された測定対象20および超音波プローブ14の位置および姿勢に基づいて、測定対象20(測定領域20a)に対する超音波プローブ14の位置14pおよび方向14nを算出する位置方向算出部121と、超音波プローブ14によって取得された測定データ14dと、位置方向算出部121によって算出された測定領域20aに対する超音波プローブ14の位置14pおよび方向14nとに基づいて、3次元データ14e3を生成する3次元データ生成部123と、を備える。
According to the embodiment of the present invention, the following effects can be obtained.
(1) The image processing apparatus (apparatus) 10 is an image processing apparatus that processes the measurement data 14d obtained by measuring the
すなわち、位置方向算出部121は、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出するため、測定対象20の姿勢を変えて超音波測定を行う場合であっても、測定対象20の姿勢を変える前後で測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを較正する必要がない。また、測定対象20の姿勢を連続的に変えて超音波測定を行う場合であっても、測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することができる。よって、測定対象20の姿勢を連続的に変えて超音波測定を行う場合であっても、連続的に算出される超音波プローブ14の位置14pおよび方向14nに基づいて測定データ14dを合成し、正確で再現性のある3次元データ14e3を生成することができる。
That is, since the position /
(2)取得部は、測定対象20を走査しながら超音波を送受信する超音波プローブ14であるため、測定中の測定対象20に与える負荷が小さい。
(2) Since the acquisition unit is the
(3)測定対象20は生体であり、距離画像センサ16は、測定対象20(測定領域20a)に対する超音波プローブ14の押し込みの程度をさらに検出し、3次元データ生成部123は、超音波プローブ14によって取得された測定データ14dと、位置方向算出部121によって算出された測定領域20aに対する超音波プローブ14の位置14pおよび方向14nと、距離画像センサ16によって検出された測定領域20aに対する超音波プローブ14の押し込みの程度とに基づいて、3次元データ14e3を生成する。従って、超音波プローブ14を押し込むことで測定対象20の表面を変位させて、換言すれば、測定領域20aの形状を変化させて測定を行う場合であっても、測定領域20aの形状変化に応じて測定領域20aに対する超音波プローブ14の位置14pおよび方向14nを連続的に算出することが可能となるため、再現性の高い正確な3次元データ14e3を生成することができる。
(3) The
本実施形態では、図1などに示すように、測定対象20を生体として説明したが、測定対象20は物体でもよい。例えば、海底を測定対象20として、船底に搭載された音波探査機14によって同様に測定することができる。具体的には、海底20下の地層情報を得るための従来の音波探査機14に、距離画像センサ16を追加搭載し、海底20に対する音波探査機14の位置14pおよび方向14nを算出する。これにより、船の移動や揺れにかかわらず、測定データ14dを正確に解析できるようになる。さらに、距離画像センサ16によって得られる経時的な3次元位置情報16dに基づいて、測定対象20に対する音波探査機14の相対速度を算出することもできるため、ドップラー現象を考慮して測定データ14dの解析精度を向上させることもできる。
In this embodiment, as illustrated in FIG. 1 and the like, the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態および変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications unless the features of the present invention are impaired. The constituent elements of the embodiment and the modified examples include those that can be replaced while maintaining the identity of the invention and that are obvious for replacement. That is, other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. Moreover, it is also possible to arbitrarily combine one or more of the above-described embodiments and modified examples.
10 画像処理(装置)、14 超音波プローブ、14d 測定データ、14e3 3次元データ、14n 方向、14p 位置、16 距離画像センサ、20 測定対象、121 位置方向算出部、122 2次元データ生成部、123 3次元データ生成部、124 データ出力部、125 測定ガイド部
DESCRIPTION OF
Claims (3)
前記測定データを取得する取得部と、
前記測定対象および前記取得部の位置および姿勢をそれぞれ追跡しつつ検出する検出部と、
前記検出部によって検出された前記測定対象および前記取得部の位置および姿勢に基づいて、前記測定対象に対する前記取得部の位置および姿勢を算出する算出部と、
前記取得部によって取得された前記測定データと、前記算出部によって算出された前記測定対象に対する前記取得部の位置および姿勢とに基づいて、前記3次元画像データを生成する生成部と、を備えることを特徴とする画像処理装置。 An image processing apparatus that processes measurement data obtained by measuring a measurement object and generates three-dimensional image data,
An acquisition unit for acquiring the measurement data;
A detection unit that detects the measurement object and the position and orientation of the acquisition unit while tracking them;
A calculation unit that calculates the position and orientation of the acquisition unit with respect to the measurement target based on the measurement target and the position and orientation of the acquisition unit detected by the detection unit;
A generation unit that generates the three-dimensional image data based on the measurement data acquired by the acquisition unit and the position and orientation of the acquisition unit with respect to the measurement target calculated by the calculation unit; An image processing apparatus.
前記取得部は、前記測定対象を走査しながら超音波を送受信する超音波プローブであることを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
The image processing apparatus, wherein the acquisition unit is an ultrasonic probe that transmits and receives ultrasonic waves while scanning the measurement target.
前記測定対象は生体であり、
前記検出部は、前記測定対象に対する前記取得部の押し込みの程度をさらに検出し、
前記生成部は、前記取得部によって取得された前記測定データと、前記算出部によって算出された前記測定対象に対する前記取得部の位置および姿勢と、前記検出部によって検出された前記測定対象に対する前記取得部の押し込みの程度と、に基づいて、前記3次元画像データを生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The measurement object is a living body,
The detection unit further detects a degree of pushing of the acquisition unit with respect to the measurement target,
The generation unit includes the measurement data acquired by the acquisition unit, the position and orientation of the acquisition unit with respect to the measurement target calculated by the calculation unit, and the acquisition for the measurement target detected by the detection unit. An image processing apparatus that generates the three-dimensional image data based on a degree of pressing of a unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017007770A JP6510570B2 (en) | 2017-01-19 | 2017-01-19 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017007770A JP6510570B2 (en) | 2017-01-19 | 2017-01-19 | Image processing device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018114166A true JP2018114166A (en) | 2018-07-26 |
JP2018114166A5 JP2018114166A5 (en) | 2019-01-24 |
JP6510570B2 JP6510570B2 (en) | 2019-05-08 |
Family
ID=62983509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017007770A Active JP6510570B2 (en) | 2017-01-19 | 2017-01-19 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6510570B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000126180A (en) * | 1998-10-27 | 2000-05-09 | Mitani Sangyo Co Ltd | Apparatus of and method for obtaining three-dimensional image |
JP2010131053A (en) * | 2008-12-02 | 2010-06-17 | Konica Minolta Medical & Graphic Inc | Ultrasonic diagnostic imaging system and program for making the same operate |
JP2014124309A (en) * | 2012-12-26 | 2014-07-07 | Toshiba Corp | Ultrasonic diagnostic device |
JP2014221175A (en) * | 2013-05-14 | 2014-11-27 | 健司 三木 | Ultrasonic diagnostic system, image processor and control method and control program therefor |
JP2015029791A (en) * | 2013-08-05 | 2015-02-16 | 株式会社東芝 | Medical appliance operation support device and ultrasonic diagnostic device |
JP2015116215A (en) * | 2013-12-16 | 2015-06-25 | 日立アロカメディカル株式会社 | Ultrasonic diagnostic device and program |
WO2015113807A1 (en) * | 2014-01-29 | 2015-08-06 | Koninklijke Philips N.V. | System and method for imaging using ultrasound |
JP2016034486A (en) * | 2014-07-31 | 2016-03-17 | 株式会社東芝 | Medical imaging system, surgery guide system, and medical imaging method |
JP2016517746A (en) * | 2013-04-30 | 2016-06-20 | トラクトゥス・コーポレーション | Method, apparatus and system for complete examination of tissue using a handheld imaging device having position and / or orientation sensors |
-
2017
- 2017-01-19 JP JP2017007770A patent/JP6510570B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000126180A (en) * | 1998-10-27 | 2000-05-09 | Mitani Sangyo Co Ltd | Apparatus of and method for obtaining three-dimensional image |
JP2010131053A (en) * | 2008-12-02 | 2010-06-17 | Konica Minolta Medical & Graphic Inc | Ultrasonic diagnostic imaging system and program for making the same operate |
JP2014124309A (en) * | 2012-12-26 | 2014-07-07 | Toshiba Corp | Ultrasonic diagnostic device |
JP2016517746A (en) * | 2013-04-30 | 2016-06-20 | トラクトゥス・コーポレーション | Method, apparatus and system for complete examination of tissue using a handheld imaging device having position and / or orientation sensors |
JP2014221175A (en) * | 2013-05-14 | 2014-11-27 | 健司 三木 | Ultrasonic diagnostic system, image processor and control method and control program therefor |
JP2015029791A (en) * | 2013-08-05 | 2015-02-16 | 株式会社東芝 | Medical appliance operation support device and ultrasonic diagnostic device |
JP2015116215A (en) * | 2013-12-16 | 2015-06-25 | 日立アロカメディカル株式会社 | Ultrasonic diagnostic device and program |
WO2015113807A1 (en) * | 2014-01-29 | 2015-08-06 | Koninklijke Philips N.V. | System and method for imaging using ultrasound |
JP2016034486A (en) * | 2014-07-31 | 2016-03-17 | 株式会社東芝 | Medical imaging system, surgery guide system, and medical imaging method |
Also Published As
Publication number | Publication date |
---|---|
JP6510570B2 (en) | 2019-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9113817B2 (en) | System for locating anatomical objects in ultrasound imaging | |
KR102144671B1 (en) | Position correction apparatus of ultrasound scanner for ai ultrasound self-diagnosis using ar glasses, and remote medical-diagnosis method using the same | |
US11064979B2 (en) | Real-time anatomically based deformation mapping and correction | |
CN108430334B (en) | Ultrasound imaging apparatus and ultrasound imaging method for examining a volume of an object | |
JP5574742B2 (en) | Ultrasonic diagnostic equipment | |
JP5015580B2 (en) | Ultrasonic diagnostic apparatus and report image creation method | |
CN107647880B (en) | Medical image processing apparatus and medical image processing method | |
JP2015171476A (en) | Ultrasonic diagnostic device and ultrasonic image processing method | |
JP2007202829A (en) | Ultrasonic diagnostic system | |
JP2014121434A (en) | Ultrasonic diagnostic apparatus and collection state display method of the same | |
JP2010201049A (en) | Ultrasonic diagnostic apparatus | |
JP4713862B2 (en) | Ultrasonic diagnostic equipment | |
KR20150031091A (en) | Method and apparatus for providing ultrasound information using guidelines | |
JP2014161598A (en) | Ultrasonic diagnostic apparatus and control program for the same | |
CN107690312B (en) | Ultrasonic imaging apparatus | |
US20140236012A1 (en) | Ultrasound diagnosis apparatus | |
JP2014195729A (en) | Ultrasound diagnosis system | |
JP6510570B2 (en) | Image processing device | |
JP4143567B2 (en) | Image display apparatus and program | |
US20150182198A1 (en) | System and method for displaying ultrasound images | |
US11241172B2 (en) | Ultrasonic diagnostic apparatus and method of controlling the same | |
JP6224341B2 (en) | Fixing device and ultrasonic diagnostic apparatus | |
KR102406937B1 (en) | Ultrasound imaging apparatus and controlling method of the same | |
KR20080042334A (en) | Ultrasound system and method for forming ultrasound image | |
JP5421349B2 (en) | Ultrasonic diagnostic apparatus and report image creation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181207 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181207 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190220 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6510570 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |