JP2014124309A - Ultrasonic diagnostic device - Google Patents
Ultrasonic diagnostic device Download PDFInfo
- Publication number
- JP2014124309A JP2014124309A JP2012282677A JP2012282677A JP2014124309A JP 2014124309 A JP2014124309 A JP 2014124309A JP 2012282677 A JP2012282677 A JP 2012282677A JP 2012282677 A JP2012282677 A JP 2012282677A JP 2014124309 A JP2014124309 A JP 2014124309A
- Authority
- JP
- Japan
- Prior art keywords
- image
- probe
- ultrasonic
- subject
- ultrasonic probe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Description
本発明は、超音波診断装置に関する。 The present invention relates to an ultrasonic diagnostic apparatus.
被験者の測定対象領域に超音波プローブを接触させた状態で超音波を発生させ、反射した超音波を受信して超音波画像として処理する超音波診断装置が知られている。 2. Description of the Related Art There is known an ultrasonic diagnostic apparatus that generates ultrasonic waves in a state where an ultrasonic probe is in contact with a measurement target region of a subject, receives reflected ultrasonic waves, and processes them as ultrasonic images.
超音波診断装置には、表示部が設けられている。操作者は、表示部を確認しながら超音波プローブの位置を動かすことで、被験者の所望の測定対象領域に超音波プローブの位置を調整する。これによって、測定対象領域の超音波画像が得られる。 The ultrasonic diagnostic apparatus is provided with a display unit. The operator moves the position of the ultrasonic probe while checking the display unit, thereby adjusting the position of the ultrasonic probe to the desired measurement target region of the subject. Thereby, an ultrasonic image of the measurement target region is obtained.
超音波診断装置では、超音波画像を、該超音波画像に対応する測定対象領域の部位の略図(ボディーマークと称される場合もある)を表示する。このとき、超音波プローブと、被験者における測定対象領域と、の位置関係を提供することが行われている。 In the ultrasonic diagnostic apparatus, the ultrasonic image is displayed as a schematic diagram (sometimes referred to as a body mark) of the region of the measurement target region corresponding to the ultrasonic image. At this time, providing the positional relationship between the ultrasonic probe and the measurement target region in the subject is performed.
例えば、超音波診断装置に、予め複数種類のボディーマークを登録する技術が開示されている。そして、超音波診断装置では、予め登録された複数種類のボディーマークの内の1つと超音波プローブを示す画像とを重畳した画像を表示することで、被験者の部位と超音波プローブとの位置関係を提供する。また、所望の種類のボディーマークが登録されていない場合には、新規の種類のボディーマークの登録を可能とすることが開示されている。 For example, a technique for registering a plurality of types of body marks in advance in an ultrasonic diagnostic apparatus is disclosed. Then, the ultrasonic diagnostic apparatus displays an image in which one of a plurality of types of body marks registered in advance and an image showing the ultrasonic probe are superimposed, so that the positional relationship between the part of the subject and the ultrasonic probe is displayed. I will provide a. It is also disclosed that when a desired type of body mark is not registered, a new type of body mark can be registered.
また、超音波プローブを被験者の測定対象領域に接触させているときに、被験者の撮影画像を取得する技術も開示されている。この技術によれば、超音波プローブの位置とサーモグラフィーの位置と、を位置計測装置によって検出する。さらに、検出した位置を用いて、超音波画像を、サーモグラフィーを視点とした画像に座標変換する。そして、この座標変換した画像と、サーモグラフィーによって得られた被写体の画像と、を合成した合成画像を提供する。 Further, a technique for acquiring a photographed image of a subject when an ultrasonic probe is in contact with the measurement target region of the subject is also disclosed. According to this technique, the position of the ultrasonic probe and the position of the thermography are detected by the position measuring device. Furthermore, using the detected position, the ultrasound image is coordinate-converted into an image with the thermography as a viewpoint. Then, a composite image obtained by combining the coordinate-converted image and the subject image obtained by thermography is provided.
しかしながら、従来では、超音波プローブと被験者の測定対象領域との位置関係を容易に提供すると共に、被験者のプライバシーを保護することは困難であった。 However, conventionally, it has been difficult to easily provide the positional relationship between the ultrasonic probe and the subject measurement area and to protect the privacy of the subject.
本発明が解決しようとする課題は、超音波プローブと測定対象領域との位置関係を容易に提供すると共に、被験者のプライバシーを保護することができる、超音波診断装置を提供することである。 The problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus that can easily provide a positional relationship between an ultrasonic probe and a measurement target region and protect the privacy of a subject.
実施形態の超音波診断装置は、超音波プローブと、取得部と、検出部と、を備える。超音波プローブは、測定対象領域の超音波画像を取得する。取得部は、前記測定対象領域を含む範囲の距離画像を取得する。検出部は、前記距離画像における前記超音波プローブのプローブ位置を検出する。 The ultrasonic diagnostic apparatus according to the embodiment includes an ultrasonic probe, an acquisition unit, and a detection unit. The ultrasonic probe acquires an ultrasonic image of the measurement target region. The acquisition unit acquires a distance image in a range including the measurement target region. The detection unit detects a probe position of the ultrasonic probe in the distance image.
以下に添付図面を参照して、超音波診断装置の一の実施形態を詳細に説明する。 Hereinafter, an embodiment of an ultrasonic diagnostic apparatus will be described in detail with reference to the accompanying drawings.
図1は、本実施の形態の超音波診断装置10の機能的構成を示すブロック図である。超音波診断装置10は、取得部12、設定部14、検出部16、超音波プローブ18、生成部20、記憶部22、送受信回路24、DSC回路26、フレームメモリ28、合成部30、及び表示部32を備える。
FIG. 1 is a block diagram showing a functional configuration of the ultrasonic
なお、超音波診断装置10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)などを含んで構成されるコンピュータであり、機能部として、取得部12、設定部14、検出部16、超音波プローブ18、生成部20、記憶部22、送受信回路24、DSC回路26、フレームメモリ28、及び合成部30を備える。
The ultrasonic
超音波プローブ18は、測定対象領域の超音波のエコーデータを取得する。測定対象領域は、被験者の身体の部位における測定対象となる領域である。超音波プローブ18は、操作者等の操作によって測定対象領域に接触させて用いる。超音波プローブ18は、超音波を発生し、反射した超音波を受信することで、エコーデータを取得する。
The
超音波プローブ18には、表示部18Aが設けられている。
The
表示部18Aは、公知の表示装置である。表示部18Aは、各種画像や文字等を表示する。本実施の形態では、表示部18Aは、例えば、取得部12で取得した超音波画像、モデル画像(詳細後述)、重畳画像(詳細後述)、合成画像(詳細後述)、等の各種画像を表示する。また、表示部18Aは、他の機器等から取得した画像を表示してもよい。他の機器等から取得した画像は、例えば、CT(Computed Tomography)やMRI(Magnetic Resonance Imaging)等によって得られた画像である。
The
超音波プローブ18は、送受信回路24に電気的に接続されている。送受信回路24は、超音波プローブ18に対して駆動信号を送信する。超音波プローブ18は、送受信回路24から駆動信号を受け付け、該駆動信号に応じた超音波を発生することで、エコーデータを取得する。
The
送受信回路24は、超音波プローブ18及びDSC(Digital Scan Converter)回路26に電気的に接続されている。DSC回路26は、送受信回路24で超音波プローブ18から受信したエコーデータを検波し、検波したエコーデータを二次元の超音波画像に変換する。DSC回路26は、超音波画像をフレームメモリ28へ順次格納する。
The transmission /
取得部12は、測定対象領域を含む範囲の距離画像を取得する。距離画像として取得する範囲は、測定対象領域を含む範囲であればよいが、測定対象範囲と、超音波プローブ18の操作者と、を含む範囲であることが好ましい。
The
距離画像は、デプス画像と称される場合がある。距離画像は、距離画像として取得する範囲の奥行きを示す画像である。言い換えると、距離画像は、該距離画像を構成する画素毎に、該距離画像の取得に用いたセンサからの距離を規定した画像である。 The distance image may be referred to as a depth image. The distance image is an image indicating the depth of a range acquired as a distance image. In other words, the distance image is an image that defines the distance from the sensor used to acquire the distance image for each pixel constituting the distance image.
距離画像の取得に用いるセンサには、公知のセンサを用いる。センサは、暗室であっても超音波プローブ18と被験者の測定対象領域との位置関係を把握可能な情報を取得出来るセンサであればよい。センサには、例えば、Microsoft社のKinect(登録商標)や、赤外線を用いて距離を取得する各種センサを用いる。なお、取得部12は、センサから取得した赤外画像等から、公知のステレオマッチング等の方法を用いて距離画像を作成してもよい。
A known sensor is used as the sensor used for acquiring the distance image. The sensor may be any sensor that can acquire information capable of grasping the positional relationship between the
なお、本実施の形態では、取得部12として、赤外線カメラを用いる場合を説明する。このため、本実施の形態では、取得部12は、取得部12としての赤外線カメラによる撮影範囲の距離画像を取得する。
In the present embodiment, a case where an infrared camera is used as the
取得部12は、予め、被験者の測定対象領域が位置する位置よりも高い(相対的に高度の高い)位置に設置されており、測定対象領域及び操作者によって操作される超音波プローブ18が取得部12の画角内に入る位置に設置されている。例えば、取得部12は、室内の天井部分や、被験者より高い位置等に予め設置される。
The
なお、取得部12は、画角の自動調整機能を備えていてもよい。具体的には、取得部12は、実空間における超音波プローブ18の実位置や、プローブ位置(詳細後述)や、被験者の位置等に応じて、測定対象領域及び超音波プローブ18が画角内に位置するように、画角を自動調整してもよい。また、取得部12の設置場所(位置及び高さ)を自動調整可能な機構を超音波診断装置10に設け、超音波プローブ18のプローブ位置や実位置等に応じて、取得部12の設置位置を機械的に調整してもよい。
Note that the
取得部12は、生成部20に接続されている。取得部12は、距離画像を生成部20へ送信する。
The
検出部16は、超音波プローブ18のプローブ位置を検出する。プローブ位置は、取得部12で取得された距離画像上における超音波プローブ18の位置を示す。
The
検出部16は、例えば、取得部12で取得された距離画像について公知の画像処理を行うことで、距離画像上における超音波プローブ18のプローブ位置を検出する。
For example, the
例えば、超音波プローブ18に可視光を発するLEDや赤外LEDなどの光源を予め設置する。そして、検出部16は、取得部12で取得された距離画像に含まれる光源の位置から、超音波プローブ18のプローブ位置を検出する。
For example, a light source such as an LED or an infrared LED that emits visible light is installed in advance on the
また、検出部16は、超音波プローブ18に設けたセンサ16Aから取得した情報に基づいてプローブ位置を検出してもよい。例えば、検出部16は、センサ16Aから超音波プローブ18の実空間における実位置及び姿勢を取得する。検出部16は、センサ16Aから取得した実位置及び姿勢に基づいて、公知の方法により、プローブ位置を検出する。
The
検出部16が実空間における原点として用いる基準位置は、予め設定した値を用いてもよいし、設定部14から受け付けた基準位置を示す情報を用いてもよい。
As the reference position used as the origin in the real space by the
センサ16Aは、超音波や磁気により位置を検出する空間位置センサ、ジャイロセンサ、加速度センサ、地磁気センサ、及びこれらのセンサの1または複数を組み合わせたものを用いる。また、センサ16Aには、GPS(Global Positioning System)を用いて実空間における超音波プローブ18を検出する各種機器を用いてもよい。また、センサ16Aには、GPS等の位置検出機能を備えた携帯端末を用いてもよい。
The
センサ16Aとして、超音波により位置を検出する空間位置センサを用いた場合、センサ16Aは、以下の方法により超音波プローブ18の実位置を取得する。
When a spatial position sensor that detects a position by ultrasonic waves is used as the
例えば、超音波により位置を検出する空間位置センサが、1つの超音波発振器と、複数の受信機を備えた公知の構成であるとする。この場合、センサ16Aとしての空間位置センサは、各受信機に超音波が到達するまでの時間遅れを計測し、三角測量の原理によって超音波発振器と受信機との位置を求める。これにより、センサ16Aは、超音波プローブ18の実位置を検出する。
For example, it is assumed that a spatial position sensor that detects a position using ultrasonic waves has a known configuration including one ultrasonic oscillator and a plurality of receivers. In this case, the spatial position sensor as the
また、例えば、センサ16Aとして、磁気により位置を検出する空間位置センサを用いた場合、センサ16Aとしての空間位置センサは、磁束の変化によってコイルに生じる起電力を用いて、超音波プローブ18の実位置を検出する。
Further, for example, when a spatial position sensor that detects the position by magnetism is used as the
また、センサ16Aとして地磁気センサを用いた場合、センサ16Aは、検知した地磁気の向きから超音波プローブ18の実空間における実位置を検出する。また、これらのセンサを複数超音波プローブ18に配置して、これらから得られるデータの1または複数を統合することで、超音波プローブ18の実位置及び実姿勢を検出してもよい。
When a geomagnetic sensor is used as the
なお、センサ16Aは、超音波プローブ18の実位置及び姿勢を検出可能な位置に設けられていればよく、超音波プローブ18に設けた構成に限られない。
The
センサ16Aを超音波プローブ18に配置しない場合には、検出部16は、以下の方法により超音波プローブ18の実位置及び姿勢を検出すればよい。例えば、超音波プローブ18に、マーカを配置する。このマーカは、センサ16Aが取得した情報から超音波プローブ18の位置を特定可能なものであればよい。例えば、マーカには、可視光を発するLEDや赤外LEDなどの光源、及び特定の波長領域の光を反射または吸収する色の部材等が挙げられる。そして、センサ16Aは、超音波プローブ18を含む領域の画像を取得し、取得した画像に含まれるマーカ位置を解析することで、超音波プローブ18の実位置を検出してもよい。
When the
設定部14は、ユーザが各種の入力を行うときに操作する。本実施の形態では、設定部14は、検出部16における各種初期設定を行うときにユーザによって操作される。
The setting
生成部20は、取得部12から距離画像を取得する。また、生成部20は、検出部16からプローブ位置を取得する。そして、生成部20は、位置関係画像を生成する。位置関係画像は、距離画像上におけるプローブ位置と、超音波プローブ18による測定対象領域と、の位置関係を示す画像である。
The
位置関係画像は、距離画像上におけるプローブ位置と測定対象領域との位置関係を示す画像であればよいが、例えば、距離画像におけるプローブ位置に超音波プローブ18を示すプローブ画像を重畳した重畳画像や、距離画像における被験者の被験者領域や操作者の操作者領域と、超音波プローブ18を示すプローブ画像と、の重畳画像等である。なお、これらの操作者領域や被験者領域は、検出部16が、距離画像から公知の画像マッチング技術等を用いて検出すればよい。
The positional relationship image may be an image indicating the positional relationship between the probe position and the measurement target region on the distance image. For example, a superimposed image in which a probe image indicating the
生成部20は生成した位置関係画像を合成部30へ出力すると共に、記憶部22へ記憶する。記憶部22は、各種画像等を記憶する公知の記憶媒体である。
The
合成部30は、生成部20で生成された位置関係画像と、フレームメモリ28に格納された超音波画像と、を合成した合成画像を生成する。また、合成部30は、合成画像を記憶部22へ記憶する。また、合成部30は、合成画像を表示部32へ表示する制御を行う。
The synthesizing
次に、超音波診断装置10で実行する画像処理を説明する。
Next, image processing executed by the ultrasonic
図2は、超音波診断装置10で実行する画像処理の手順を示すフローチャートである。
FIG. 2 is a flowchart showing a procedure of image processing executed by the ultrasonic
なお、超音波診断装置10のCPU(制御部)では、図示を省略する電源スイッチが操作指示されると、超音波診断装置10の装置各部に電力が供給されて、図2に示す手順が実行される。図示を省略するCPUは、ROM等から画像処理を実行するためのプログラムを読み出して実行することにより、上記各機能部(取得部12、検出部16、超音波プローブ18、生成部20、送受信回路24、DSC回路26、フレームメモリ28、合成部30等)が主記憶装置上にロードされ、主記憶装置上に生成されるようになっている。
Note that, when a power switch (not shown) is instructed to operate, the CPU (control unit) of the ultrasonic
また、超音波診断装置10のCPUは、図2に示す手順を、画像処理の終了を示す信号を受け付けるまで繰り返し実行する。画像処理の終了を示す信号は、例えば、超音波診断装置10の図示を省略する終了ボタンが操作指示されることで終了を示す指示信号が入力されるようにする。そして、超音波診断装置10のCPUでは、この指示信号を受信したか否かを判別することで、画処理の終了を受け付けたか否かを判断すればよい。
Further, the CPU of the ultrasonic
まず、超音波プローブ18が超音波画像を取得する(ステップS100)。
First, the
詳細には、電力供給された状態で、操作者が超音波プローブ18を被験者の測定対象領域にあてる。この状態で、例えば、超音波プローブ18に設けられた図示を省略する操作ボタンが操作指示されると、送受信回路24が超音波プローブ18へ駆動信号を送信する。
Specifically, the operator applies the
例えば、超音波プローブ18の図示を省略する操作ボタンが操作指示されると、超音波プローブ18は、該操作ボタンが操作指示されたことを示す指示信号を送受信回路24へ送信する。送受信回路24は、該指示信号を超音波プローブ18から受け付けたときに、駆動信号を超音波プローブ18へ送信すればよい。なお、超音波診断装置10の装置各部に電力が供給されたときに、送受信回路24は超音波プローブ18へ駆動信号を送信してもよい。
For example, when an operation button (not shown) of the
超音波プローブ18は、受け付けた駆動信号に応じた超音波を発生することで、エコーデータを取得し、送受信回路24を介してDSC回路26へ送信する。DSC回路26は、受け付けたエコーデータから超音波画像を生成し、順次フレームメモリ28へ記憶する。なお、DSC回路26は、超音波画像の生成に用いたエコーデータの取得時間に対応づけて、生成した超音波画像を順次フレームメモリ28へ記憶する。これによって、超音波画像が得られる。
The
次に、取得部12が、測定対象領域を含む範囲の距離画像を取得する(ステップS102)。そして、取得部12は、取得した距離画像と、該距離画像の取得時間と、を生成部20及び検出部16へ順次送信する。
Next, the
なお、ステップS100及びステップS102の処理は、時間的に並列で実行してもよい。 Note that the processing of step S100 and step S102 may be executed in parallel in time.
次に、検出部16が、超音波プローブ18のプローブ位置を検出する(ステップS104)。
Next, the
詳細には、検出部16は、超音波プローブ18の実空間上における実位置及び姿勢を、センサ16Aから取得する。なお、検出部16は、超音波プローブ18が被験者の測定対象領域に接触したときに、超音波プローブ18の実空間上における実位置及び姿勢を、センサ16Aから取得してもよい。この場合、超音波プローブ18に図示を省略する接触センサを設ける。そして、該接触センサが、超音波プローブ18の測定対象領域への接触を検知したときに、センサ16Aが、検出した超音波プローブ18の実位置及び姿勢を、検出部16へ出力すればよい。
Specifically, the
検出部16は、センサ16Aから取得した、超音波プローブ18の実位置及び姿勢と、取得部12から取得した距離画像と、に基づいて、距離画像における超音波プローブ18のプローブ位置を検出する。なお、検出部16によるプローブ位置の検出方法は、この方法に限られない。
The
次に、生成部20が、重畳画像を生成する(ステップS106)。
Next, the
ステップS106では、生成部20は、まず、取得部12から取得した距離画像を加工し、被験者の測定対象領域と超音波プローブ18のプローブ位置との関係を視認可能な距離画像に変換する。例えば、生成部20は、取得部12から取得した距離画像を加工することで、図3に示す距離画像50を生成する。図3は、距離画像50の一例を示す模式図である。
In step S <b> 106, the
なお、図3に示す距離画像50は、取得部12で取得した距離画像を構成する各画素によって示される距離(奥行き)を、距離が遠いほど低い輝度値(すなわち、距離が遠いほど濃い色)に変更することで得られたものである。このため、図3に示す、加工後の距離画像50は、被験者と超音波プローブ18の操作者の手の位置とが視認可能な画像となっている。
In addition, the
次に、生成部20は、加工後の距離画像(図3中、距離画像50)と、超音波プローブ18を示すプローブ画像と、の重畳画像を生成する。プローブ画像は、超音波プローブ18を示す画像であればよく、例えば、超音波プローブ18を模式的に示した画像を用いる。
Next, the
具体的には、生成部20は、加工後の距離画像(図3中、距離画像50)上における、検出部16から取得したプローブ位置に、超音波プローブ18を示すプローブ画像を配置した画像を重畳画像として生成する。
Specifically, the
なお、生成部20は、超音波プローブ18を示すプローブ画像を、センサ16Aで取得した超音波プローブ18の実空間における姿勢に応じた形態で表示してもよい。例えば、超音波プローブ18の実空間における姿勢に応じて傾いた形状のプローブ画像を距離画像50に重畳する。
The
図4は、重畳画像の一例を示す模式図である。図4に示すように、重畳画像52は、距離画像50上の、超音波プローブ18のプローブ位置にプローブ画像52Bを配置した画像である。
FIG. 4 is a schematic diagram illustrating an example of a superimposed image. As shown in FIG. 4, the
なお、生成部20が生成する重畳画像は、被験者と超音波プローブ18の位置との位置関係を示す位置関係画像であればよく、図4に示すような、加工後の距離画像50上のプローブ位置に超音波プローブ18のプローブ画像を重畳した形態に限られない。
Note that the superimposed image generated by the
例えば、生成部20は、加工後の距離画像50に含まれる被験者の被験者領域を抽出し、被験者を示す色として予め設定した色を該被験者領域に定める。なお、被験者領域の抽出には、公知の方法を用いればよい。具体的には、距離画像50に含まれる固定部材の領域を予め登録しておき、固定部材による領域を距離画像50から除去した残りの画像から、被験者領域を抽出してもよい。固定部材とは、経時による移動の生じない部材であり、例えば、ベットやイス等がある。
For example, the
また、更に、生成部20は、加工後の距離画像50に含まれる、超音波プローブ18の操作者の操作者領域を抽出し、操作者を示す色として予め設定した色を該操作者領域に定める。
Furthermore, the
そして、生成部20は、加工後の距離画像50上に、予め設定した色を定めた被験者領域、及び予め設定した色を定めた操作者領域の少なくとも一方と、超音波プローブ18のプローブ画像と、を重ねることで、重畳画像を生成してもよい。また、生成部20は、距離画像50から、距離画像50における、操作者領域及び被験者領域以外の領域を削除した残りの画像に、超音波プローブ18のプローブ画像を重畳した画像を重畳画像として用いてもよい。
Then, the
また、生成部20は、距離画像50における被験者の被験者位置、距離画像50における被験者領域、被験者の体位、距離画像50における操作者の操作者位置、距離画像50における操作者領域、の少なくとも1つを示す画像を、重畳画像に更に重畳してもよい。
The
なお、被験者位置、被験者領域、被験者の体位、操作者位置、及び操作者領域は、検出部16が、距離画像から公知の画像処理方法を用いて検出すればよい。生成部20は、検出部16で検出された被験者位置、被験者領域、被験者の体位、操作者位置、及び操作者領域を用いて、上記処理を実行すればよい。
Note that the subject position, subject area, subject position, operator position, and operator area may be detected by the
また、生成部20は、複数種類のモデル画像を予め用意して記憶部22に記憶しておいてもよい。モデル画像は、被験者の人体モデルを模式的に示す画像である。生成部20は、これらの複数種類のモデル画像の内の1種類のモデル画像上にプローブ画像を重畳したモデル重畳画像を更に生成してもよい。
The
図5は、モデル重畳画像54の一例を示す模式図である。図5に示すように、モデル重畳画像54は、モデル画像54Aと、プローブ画像52Bと、の重畳画像である。
FIG. 5 is a schematic diagram illustrating an example of the model superimposed
この場合、生成部20は、被験者を模式的に示す複数種類のモデル画像の内、取得部12から取得した距離画像に含まれる被験者に最も近い形状のモデル画像を選択する。このモデル画像の選択には、公知の画像マッチング技術を用いればよい。
In this case, the
そして、生成部20は、距離画像上の超音波プローブ18のプローブ位置が、選択したモデル画像上のどの位置に相当するかを公知の方法により算出し、算出した位置に、プローブ画像を配置する。これによって、生成部20は、モデル重畳画像54を生成してもよい。
Then, the
なお、生成部20は、あらかじめさまざまな人物を映した距離画像から人体モデルの形状を学習することで、複数種類のモデル画像を生成し、予め記憶部22に記憶してもよい。また、生成部20は、人物の骨格情報を出力する公知のセンサを用いて体位情報を得ることで、人体モデルの形状を学習して複数種類のモデル画像を生成し、予め記憶部22に記憶してもよい。また、生成部20は、モデル画像によって特定される人体モデルの形状を、被験者に関する情報(例えば、性別、年齢、身長、体重など)をもとに生成してもよい。
Note that the
また、生成部20は、操作者についても同様に、人体モデルを当てはめ、超音波プローブ18を把持する手の位置を推定することで、該手を示す画像を、距離画像50やモデル重畳画像54における推定された手の位置に更に重畳してもよい。また、生成部20は、手を示す画像を、センサ16Aによって検出された超音波プローブ18の姿勢に応じて変形した上で、重畳してもよい。
Similarly, the
図2に戻り、次に、合成部30が、超音波画像と重畳画像とを合成し、合成画像を生成する(ステップS108)。
Returning to FIG. 2, the combining
ステップS108では、合成部30は、フレームメモリ28から超音波画像を取得する。そして、取得した超音波画像と、取得した超音波画像の取得時間と同一時刻に取得された距離画像から作成された重畳画像またはモデル重畳画像と、を合成する。このとき、合成部30は、重畳画像またはモデル重畳画像を縮小した画像を、超音波画像上に重畳することで、合成画像を生成する。このため、合成画像は、例えば、超音波画像における一部の領域に、重畳画像またはモデル重畳画像を重畳した画像となる。
In step S <b> 108, the
なお、ユーザによる図示を省略する操作部の操作指示によって、合成部30は、距離画像と合成する対象の画像を、重畳画像またはモデル重畳画像に切替えてもよい。
Note that the
次に、合成部30が、生成された合成画像を表示部32に表示する表示制御を行う(ステップS110)。そして、本ルーチンを終了する。
Next, the
なお、上記ステップS108の処理において、合成部30は、超音波画像、及び合成画像を記憶部22に記憶する処理を行ってもよい。なお、合成部30は、図示を省略する操作部がユーザによって操作指示されることで、記憶指示を示す信号を受け付けたときに、超音波画像及び合成画像を記憶部22に記憶してもよい。
In the process of step S108, the
また、合成部30は、超音波画像及び合成画像に、同じタイミングで取得された画像であることを示すヘッダ情報を付加した上で、別々に記憶部22に記憶してもよい。また、合成部30は、生成された複数の超音波画像及び合成画像を時系列に配列した動画像を記憶部22に記憶してもよい。
The combining
以上説明したように、本実施の形態の超音波診断装置10によれば、超音波プローブ18が測定対象領域の超音波画像を取得する。取得部12は、測定対象領域を含む範囲の距離画像を取得する。検出部16は、距離画像における超音波プローブ18のプローブ位置を検出する。
As described above, according to the ultrasonic
ここで、従来では、測定対象領域と超音波プローブ18との位置関係を提供するために、複数種類のモデル画像の登録や、新たな種類のモデル画像の登録等の作業が必要であった。また、従来では、被験者の撮影画像を用いて、被験者の測定対象領域と超音波プローブ18のプローブ位置との位置関係を提供することが行われていた。このため、従来では、被験者のプライバシーの保護を図りつつ、測定対象領域と超音波プローブ18との位置関係を容易に提供することは困難であった。
Here, conventionally, in order to provide the positional relationship between the measurement target region and the
一方、本実施の形態の超音波診断装置10によれば、赤外画像等の可視画像を用いずに、検出部16が、距離画像における超音波プローブ18のプローブ位置を検出する。
On the other hand, according to the ultrasonic
従って、本実施の形態の超音波診断装置10は、超音波プローブ18と測定対象領域との位置関係を容易に提供すると共に、被験者のプライバシーを保護することができる。
Therefore, the ultrasonic
なお、上記には、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although several embodiment of this invention was described above, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
10 超音波診断装置
12 取得部
16 検出部
18 超音波プローブ
20 生成部
30 合成部
DESCRIPTION OF
Claims (10)
前記測定対象領域を含む範囲の距離画像を取得する取得部と、
前記距離画像における前記超音波プローブのプローブ位置を検出する検出部と、
を備えた超音波診断装置。 An ultrasonic probe for acquiring an ultrasonic image of the measurement target region;
An acquisition unit for acquiring a distance image of a range including the measurement target region;
A detection unit for detecting a probe position of the ultrasonic probe in the distance image;
An ultrasonic diagnostic apparatus comprising:
前記生成部は、前記距離画像上における前記プローブ位置に前記姿勢に応じた前記プローブ画像を重畳した前記重畳画像を、前記位置関係画像として生成する、
請求項3に記載の超音波診断装置。 The detection unit further detects the posture of the ultrasonic probe in real space,
The generation unit generates the superimposed image in which the probe image corresponding to the posture is superimposed on the probe position on the distance image as the positional relationship image.
The ultrasonic diagnostic apparatus according to claim 3.
前記検出部は、前記実位置に基づいて前記プローブ位置を検出する、
請求項1に記載の超音波診断装置。 A sensor for acquiring a real position of the ultrasonic probe in real space;
The detector detects the probe position based on the actual position;
The ultrasonic diagnostic apparatus according to claim 1.
前記検出部は、前記実位置及び該姿勢に基づいて、前記プローブ位置を検出する、
請求項5に記載の超音波診断装置。 The sensor further acquires the posture of the ultrasonic probe in real space,
The detection unit detects the probe position based on the actual position and the posture;
The ultrasonic diagnostic apparatus according to claim 5.
前記生成部は、検出された、前記操作者位置、前記操作者領域、前記被験者位置、前記被験者領域、及び前記体位の少なくとも1つを示す画像を、前記距離画像に更に重畳した前記重畳画像を前記位置関係画像として生成する、
請求項3に記載の超音波診断装置。 The detection unit includes, in the distance image, an operator position of an operator who operates the ultrasonic probe, an operator area of the operator, a subject position of a subject to be measured, a subject area of the subject, and the subject area of the subject. Detecting at least one body position from the distance image;
The generator generates the superimposed image obtained by further superimposing the detected image on at least one of the operator position, the operator area, the subject position, the subject area, and the body position on the distance image. Generating as the positional relationship image,
The ultrasonic diagnostic apparatus according to claim 3.
前記生成部は、前記被験者領域を示す画像と、前記操作者領域を示す画像と、前記超音波プローブを示すプローブ画像と、を重畳した前記重畳画像を前記位置関係画像として生成する、
請求項3に記載の超音波診断装置。 The detection unit detects an operator area of an operator who operates the ultrasonic probe in the distance image, and a subject area of a subject to be measured from the distance image,
The generating unit generates the superimposed image obtained by superimposing an image indicating the subject area, an image indicating the operator area, and a probe image indicating the ultrasonic probe as the positional relationship image.
The ultrasonic diagnostic apparatus according to claim 3.
前記生成部は、前記被験者領域に予め定めた色を付与した前記距離画像と、前記超音波プローブを示すプローブ画像と、を重畳した前記重畳画像を前記位置関係画像として生成する、
請求項3に記載の超音波診断装置。 The detection unit detects a subject area of a subject to be measured in the distance image from the distance image,
The generation unit generates the superimposed image obtained by superimposing the distance image obtained by assigning a predetermined color to the subject region and a probe image indicating the ultrasonic probe as the positional relationship image.
The ultrasonic diagnostic apparatus according to claim 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012282677A JP2014124309A (en) | 2012-12-26 | 2012-12-26 | Ultrasonic diagnostic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012282677A JP2014124309A (en) | 2012-12-26 | 2012-12-26 | Ultrasonic diagnostic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014124309A true JP2014124309A (en) | 2014-07-07 |
Family
ID=51404331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012282677A Pending JP2014124309A (en) | 2012-12-26 | 2012-12-26 | Ultrasonic diagnostic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014124309A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018114166A (en) * | 2017-01-19 | 2018-07-26 | 医療法人社団皓有会 | Image processing apparatus |
JP2020005727A (en) * | 2018-07-03 | 2020-01-16 | 健介 久保田 | Display system |
WO2021091282A1 (en) * | 2019-11-06 | 2021-05-14 | 재단법인대구경북과학기술원 | Three-dimensional diagnostic system |
JP2021153774A (en) * | 2020-03-26 | 2021-10-07 | キヤノン株式会社 | Information processing device, information processing method, program and ultrasonic diagnostic device |
-
2012
- 2012-12-26 JP JP2012282677A patent/JP2014124309A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018114166A (en) * | 2017-01-19 | 2018-07-26 | 医療法人社団皓有会 | Image processing apparatus |
JP2020005727A (en) * | 2018-07-03 | 2020-01-16 | 健介 久保田 | Display system |
WO2021091282A1 (en) * | 2019-11-06 | 2021-05-14 | 재단법인대구경북과학기술원 | Three-dimensional diagnostic system |
JP2021153774A (en) * | 2020-03-26 | 2021-10-07 | キヤノン株式会社 | Information processing device, information processing method, program and ultrasonic diagnostic device |
JP7427497B2 (en) | 2020-03-26 | 2024-02-05 | キヤノン株式会社 | Information processing device, information processing method, program, and ultrasound diagnostic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762341B2 (en) | Medical tracking system comprising multi-functional sensor device | |
CN108601578B (en) | In-device fusion of optical and inertial position tracking of ultrasound probes | |
JP6714006B2 (en) | Camera system for automatically measuring patient biometric and physiological parameters for use in medical imaging modalities | |
CN105476634B (en) | Imaging device and positioning device | |
KR101753473B1 (en) | Medical imaging unit, medical imaging device with a medical imaging unit and method for detecting a patient movement | |
KR20140001166A (en) | Method for communication between a control unit and a patient and/or an operator, as well as a medical imaging device for this | |
CN105919595B (en) | System and method for the micro device in pursuit movement object body with magnetic signal | |
CN107105972A (en) | Model register system and method | |
US9766308B2 (en) | Magnetic resonance unit, a magnetic resonance apparatus with the magnetic resonance unit, and a method for determination of a movement by a patient during a magnetic resonance examination | |
US10085710B2 (en) | Radiographing system, method of controlling radiographing system, and recording medium of computer program | |
CA2840189A1 (en) | Ultrasound ct registration for positioning | |
JP2016519995A (en) | Visual prescan patient information for magnetic resonance protocols | |
JP2013192944A (en) | Ultrasonic diagnostic apparatus, and tracking system used for the same | |
JP2011141402A (en) | Simulation device for ultrasonic diagnosis education | |
US9492107B2 (en) | Medical imaging apparatus with a movement detection unit and a method for detecting patient movement | |
JP2010201049A (en) | Ultrasonic diagnostic apparatus | |
JP2014124309A (en) | Ultrasonic diagnostic device | |
JP6363229B2 (en) | Ultrasonic data collection | |
US10076296B2 (en) | User interface for X-ray positioning | |
JP7335899B2 (en) | Measuring system, measuring device, measuring method, and program | |
JP2009207800A (en) | Ultrasonic diagnosing device | |
JP2008142151A (en) | Ultrasonic diagnostic apparatus and ultrasonic diagnostic system | |
JP2012047473A (en) | Radio wave emission source estimation direction display apparatus and radio wave emission source estimation direction display method | |
JP6207894B2 (en) | Imaging apparatus and imaging method | |
JP2012081167A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20151102 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160317 |