JP2014113325A - Image display apparatus and medical image diagnostic apparatus - Google Patents

Image display apparatus and medical image diagnostic apparatus Download PDF

Info

Publication number
JP2014113325A
JP2014113325A JP2012269748A JP2012269748A JP2014113325A JP 2014113325 A JP2014113325 A JP 2014113325A JP 2012269748 A JP2012269748 A JP 2012269748A JP 2012269748 A JP2012269748 A JP 2012269748A JP 2014113325 A JP2014113325 A JP 2014113325A
Authority
JP
Japan
Prior art keywords
position information
image
control unit
operator
information control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012269748A
Other languages
Japanese (ja)
Other versions
JP6245801B2 (en
Inventor
Takuya Sakaguchi
卓弥 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2012269748A priority Critical patent/JP6245801B2/en
Publication of JP2014113325A publication Critical patent/JP2014113325A/en
Application granted granted Critical
Publication of JP6245801B2 publication Critical patent/JP6245801B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To properly display location information indicating a location in a stereoscopic image.SOLUTION: An image display apparatus includes a display control unit and a location information control unit. The display control unit three-dimensionally displays a stereoscopic image on a display part by using a parallax image group generated from three-dimensional image data and also location information indicating a location in the stereoscopic image on the display part. The location information control unit moves the location information in each parallax image included in the parallax image group according to a travel amount received from an operator when receiving an instruction to move the location information towards the depth direction in the stereoscopic image from the operator.

Description

本発明の実施形態は、画像表示装置及び医用画像診断装置に関する。   Embodiments described herein relate generally to an image display apparatus and a medical image diagnostic apparatus.

従来、X線診断装置を用いた血管内治療においては、2名以上の医師で手技を進めることが多い。例えば、手術室内において複数名の医師が共同して手技を進めるケースや、トレーニング中の医師が手術室内において被検体の前に立ち、先輩医師が手術室の外で指導するケースなどがある。例えば、これらの医師は、個別に設けられたモニタ上で同じ画像を見ながら会話をし、合意しながら慎重に作業を進める。   Conventionally, in endovascular treatment using an X-ray diagnostic apparatus, the procedure is often advanced by two or more doctors. For example, there are a case where a plurality of doctors jointly advance a procedure in the operating room, a case where a training doctor stands in front of a subject in the operating room, and a senior doctor gives guidance outside the operating room. For example, these doctors talk while looking at the same image on a monitor provided individually, and proceed carefully with agreement.

例えば、これらの医師は、2Dモニタに表示された画像上で、所望の位置をカーソルで指し示すことで意思疎通を図る。例えば、血管の分岐点において、一方の医師が「この血管分岐の3ミリ先にステントを置こう」と指示する場合、医師は、2Dモニタに表示された画像上でカーソルを動かす。すると、2Dモニタに表示される画像は2次元であるため、画像においてカーソルが指し示す位置は一意に決まる。   For example, these doctors communicate with each other by pointing a desired position with a cursor on an image displayed on a 2D monitor. For example, when one doctor instructs to place a stent 3 mm ahead of this blood vessel branch at the branch point of the blood vessel, the doctor moves the cursor on the image displayed on the 2D monitor. Then, since the image displayed on the 2D monitor is two-dimensional, the position indicated by the cursor in the image is uniquely determined.

特開2006−239253号公報JP 2006-239253 A

本発明が解決しようとする課題は、立体視画像において位置を指し示す位置情報を適切に表示することができる画像表示装置及び医用画像診断装置を提供することである。   The problem to be solved by the present invention is to provide an image display apparatus and a medical image diagnostic apparatus capable of appropriately displaying position information indicating a position in a stereoscopic image.

実施形態の画像表示装置は、表示制御部と、位置情報制御部とを備える。表示制御部は、3次元画像データから生成された視差画像群を用いて立体視画像を表示部に3次元表示するとともに、当該立体視画像中において位置を指し示す位置情報を当該表示部に3次元表示する。位置情報制御部は、前記位置情報を前記立体視画像において奥行き方向に移動する指示を操作者から受付けた場合に、前記視差画像群に含まれる各視差画像内の位置情報を、前記操作者から受付けた移動量に応じて各視差画像内で移動させる。   The image display apparatus according to the embodiment includes a display control unit and a position information control unit. The display control unit three-dimensionally displays a stereoscopic image on the display unit using the parallax image group generated from the three-dimensional image data, and three-dimensionally displays position information indicating a position in the stereoscopic image on the display unit. indicate. The position information control unit receives position information in each parallax image included in the parallax image group from the operator when receiving an instruction from the operator to move the position information in the depth direction in the stereoscopic image. It moves within each parallax image according to the received movement amount.

図1は、第1の実施形態に係るX線診断装置の構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of the X-ray diagnostic apparatus according to the first embodiment. 図2は、第1の実施形態に係る表示部を説明するための一例を示す図である。FIG. 2 is a diagram illustrating an example for explaining the display unit according to the first embodiment. 図3は、第1の実施形態に係る表示部を説明するための別の一例を示す図である。FIG. 3 is a diagram illustrating another example for explaining the display unit according to the first embodiment. 図4は、第1の実施形態に係る表示部を説明するための別の一例を示す図である。FIG. 4 is a diagram illustrating another example for explaining the display unit according to the first embodiment. 図5は、第1の実施形態に係る位置情報制御部による処理動作の一例を示す図である。FIG. 5 is a diagram illustrating an example of a processing operation performed by the position information control unit according to the first embodiment. 図6は、第1の実施形態に係る位置情報制御部による処理動作の別の一例を示す図である。FIG. 6 is a diagram illustrating another example of the processing operation performed by the position information control unit according to the first embodiment. 図7は、第1の実施形態に係る位置情報制御部によるずらし量の制御動作の一例を示す図である。FIG. 7 is a diagram illustrating an example of the shift amount control operation performed by the position information control unit according to the first embodiment. 図8は、第1の実施形態に係る位置情報制御部によるずらし量の制御動作の別の一例を示す図である。FIG. 8 is a diagram illustrating another example of the shift amount control operation performed by the position information control unit according to the first embodiment. 図9は、第1の実施形態に係るX線診断装置による位置情報制御処理の手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a procedure of position information control processing by the X-ray diagnostic apparatus according to the first embodiment. 図10は、第2の実施形態に係る位置情報制御部による自動トレースする手法の一例を示す図である。FIG. 10 is a diagram illustrating an example of an automatic tracing method performed by the position information control unit according to the second embodiment. 図11は、第2の実施形態に係るX線診断装置による位置情報制御処理の手順を示すフローチャートである。FIG. 11 is a flowchart illustrating a procedure of position information control processing by the X-ray diagnostic apparatus according to the second embodiment. 図12は、位置情報が血管の分岐点に到達した場合の位置情報制御部の処理動作の一例を示すである。FIG. 12 shows an example of the processing operation of the position information control unit when the position information reaches the blood vessel branch point. 図13は、コントラストの高い物体に自動フォーカスする機能を設定された場合の位置情報制御部の処理動作の一例を示す図である。FIG. 13 is a diagram illustrating an example of the processing operation of the position information control unit when the function of automatically focusing on an object with high contrast is set. 図14は、第2の実施形態に係るX線診断装置による位置情報制御処理の手順を示すフローチャートである。FIG. 14 is a flowchart illustrating a procedure of position information control processing by the X-ray diagnostic apparatus according to the second embodiment.

以下、図面を参照して、実施形態に係る画像表示装置及び医用画像診断装置を説明する。   Hereinafter, an image display apparatus and a medical image diagnostic apparatus according to an embodiment will be described with reference to the drawings.

(第1の実施形態)
第1の実施形態においては、医用画像診断装置として、X線診断装置を例に挙げて説明する。図1は、第1の実施形態に係るX線診断装置100の構成例を説明するための図である。図1に示すように、X線診断装置100は、架台部10と、計算機システム20とを備える。図1に示すように、架台部10は、寝台11と、架台12と、Cアーム13と、X線源14と、X線検出器15と、表示部16とを備える。なお、X線診断装置100は、被検体Pを含まない。
(First embodiment)
In the first embodiment, an X-ray diagnostic apparatus will be described as an example of a medical image diagnostic apparatus. FIG. 1 is a diagram for explaining a configuration example of an X-ray diagnostic apparatus 100 according to the first embodiment. As shown in FIG. 1, the X-ray diagnostic apparatus 100 includes a gantry unit 10 and a computer system 20. As shown in FIG. 1, the gantry unit 10 includes a bed 11, a gantry 12, a C arm 13, an X-ray source 14, an X-ray detector 15, and a display unit 16. The X-ray diagnostic apparatus 100 does not include the subject P.

寝台11は、垂直方向及び水平方向に移動可能であり、被検体Pが載置される。架台12は、Cアーム13を支持する。Cアーム13は、Z軸を中心に矢印R方向に回転可能であり、X線源14及びX線検出器15を対向して保持する。X線源14は、X線を照射するX線管球と、コリメータとを有する。X線検出器15は、X線源14から照射され、被検体Pを透過したX線を検出する。表示部16は、立体視可能な画像などを表示する。なお、第1の実施形態においては、立体視可能な画像のことを「立体視画像」という。後述するように、立体視画像は、複数の視差画像が表示部16に表示されることによって観察者(例えば、操作者)に立体的に認識される仮想的な画像のことである。   The bed 11 is movable in the vertical direction and the horizontal direction, and the subject P is placed thereon. The gantry 12 supports the C arm 13. The C arm 13 can rotate in the direction of arrow R about the Z axis, and holds the X-ray source 14 and the X-ray detector 15 facing each other. The X-ray source 14 includes an X-ray tube that emits X-rays and a collimator. The X-ray detector 15 detects X-rays irradiated from the X-ray source 14 and transmitted through the subject P. The display unit 16 displays a stereoscopically visible image. In the first embodiment, a stereoscopically viewable image is referred to as a “stereoscopic image”. As will be described later, the stereoscopic image is a virtual image that is stereoscopically recognized by an observer (for example, an operator) by displaying a plurality of parallax images on the display unit 16.

ここで、第1の実施形態に係る表示部16は、操作者が画像を立体的に認識することができる3Dモニタである。例えば、表示部16は、シャッター方式によって画像を3次元表示する。なお、図1中には表示部16が1つである例を示すが、表示部16の数は図1に図示した数に限定されるものではない。   Here, the display unit 16 according to the first embodiment is a 3D monitor that allows the operator to recognize an image in three dimensions. For example, the display unit 16 displays an image three-dimensionally using a shutter method. In addition, although the example which has one display part 16 is shown in FIG. 1, the number of the display parts 16 is not limited to the number shown in FIG.

図2は、第1の実施形態に係る表示部16を説明するための一例を示す図である。図2は、隣り合う2人の操作者が個別に設けられた表示部16をそれぞれ観察する場合を示す。なお、操作者には、医師や技師が含まれる。図2に示す表示部16には、同一の画像が表示され、2人の操作者は、個別に設けられた表示部16に表示される同一の画像を観察する。例えば、一方の医師が表示部16を観察して他方の医師に指示を送り、指示を受けた医師が被検体Pに対して作業を行う。   FIG. 2 is a diagram illustrating an example for explaining the display unit 16 according to the first embodiment. FIG. 2 shows a case where two adjacent operators observe the display unit 16 provided individually. Note that the operator includes a doctor and an engineer. The same image is displayed on the display unit 16 shown in FIG. 2, and the two operators observe the same image displayed on the display unit 16 provided individually. For example, one doctor observes the display unit 16 and sends an instruction to the other doctor, and the doctor who receives the instruction works on the subject P.

図2に示すように、表示部16を観察する医師は、X線防護メガネとの兼用が可能な立体視用メガネとして、シャッターメガネを装着する。この場合、表示部16は、右眼用の画像(以下、右眼画像)と左眼用の画像(以下、左眼画像)とを、例えば120Hzで交互に表示する。また、表示部16は、赤外線出射部を有し、赤外線出射部は、右眼画像と左眼画像とを切り替えるタイミングに合わせて赤外線の出射を制御する。一方、シャッターメガネは、赤外線受光部を有し、赤外線受光部は、赤外線出射部から出射された赤外線を受光し、シャッターメガネの左右それぞれに取り付けられたシャッターの透過状態及び遮光状態を交互に切り替える。   As shown in FIG. 2, a doctor observing the display unit 16 wears shutter glasses as stereoscopic glasses that can also be used as X-ray protective glasses. In this case, the display unit 16 alternately displays an image for the right eye (hereinafter, the right eye image) and an image for the left eye (hereinafter, the left eye image) at 120 Hz, for example. The display unit 16 includes an infrared emitting unit, and the infrared emitting unit controls the emission of infrared rays in accordance with the timing for switching between the right eye image and the left eye image. On the other hand, the shutter glasses have an infrared light receiving unit, and the infrared light receiving unit receives infrared light emitted from the infrared light emitting unit, and alternately switches between a transmission state and a light shielding state of a shutter attached to each of the left and right sides of the shutter glasses. .

なお、3Dモニタはシャッター方式に限られるものではなく、例えば偏光メガネ方式や、レンチキュラーレンズなどの光線制御子を用いることで裸眼による立体視が可能な方式などでもよい。   Note that the 3D monitor is not limited to the shutter system, and may be, for example, a polarizing glasses system or a system capable of stereoscopic viewing with the naked eye by using a light controller such as a lenticular lens.

また、図3に示すように、2人の操作者が対面しながら、個別に設けられた表示部16をそれぞれ観察するようにしてもよい。図3は、第1の実施形態に係る表示部16を説明するための別の一例を示す図である。図3に示す例では、例えば、診療科の異なる医師2名が表示部16を観察しながらそれぞれが独立して被検体Pに対して作業を行う。   Moreover, as shown in FIG. 3, you may make it each observe the display part 16 provided individually, facing two operators. FIG. 3 is a diagram illustrating another example for explaining the display unit 16 according to the first embodiment. In the example illustrated in FIG. 3, for example, two doctors from different medical departments work on the subject P independently while observing the display unit 16.

また、図4に示すように、2人の操作者が異なる場所にいてもよい。図4は、第1の実施形態に係る表示部16を説明するための別の一例を示す図である。図4に示す例では、別室にいる先輩医師が表示部16を観察しながら、手術室にいる後輩医師に指示を出す。そして、手術室にいる後輩医師は、表示部16を観察して先輩医師の指示を確認し、被検体Pに対して作業を行う。なお、別室と手術室とが同じ病院内に設けられていてもよい。また、手術室とは離れた遠隔地に別室を設けてもよい。   Moreover, as shown in FIG. 4, two operators may be in different places. FIG. 4 is a diagram illustrating another example for explaining the display unit 16 according to the first embodiment. In the example shown in FIG. 4, a senior doctor in another room gives instructions to a junior doctor in the operating room while observing the display unit 16. Then, the junior doctor in the operating room observes the display unit 16 to confirm the instruction of the senior doctor, and works on the subject P. Note that the separate room and the operating room may be provided in the same hospital. Further, a separate room may be provided in a remote place away from the operating room.

図1に戻り、計算機システム20は、操作部21と、医用画像データ記憶部22と、制御部23と、医用画像データ収集部24と、Cアーム制御部25と、視差画像群生成部26と、表示制御部27とを備える。   Returning to FIG. 1, the computer system 20 includes an operation unit 21, a medical image data storage unit 22, a control unit 23, a medical image data collection unit 24, a C arm control unit 25, and a parallax image group generation unit 26. The display control unit 27 is provided.

操作部21は、コントロールパネル、フットスイッチ、ジョイスティック、マウス、キネクトなどであり、X線診断装置100に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る操作部21は、3次元画像データなどの画像データの収集指示や、立体視画像の表示指示などを受け付ける。医用画像データ記憶部22は、立体視画像の表示に用いられる3次元画像データなどを記憶する。制御部23は、X線診断装置100の全体制御を行う。   The operation unit 21 is a control panel, a foot switch, a joystick, a mouse, a kinect or the like, and receives input of various operations on the X-ray diagnostic apparatus 100 from an operator. Specifically, the operation unit 21 according to the first embodiment receives an instruction to collect image data such as three-dimensional image data, an instruction to display a stereoscopic image, and the like. The medical image data storage unit 22 stores three-dimensional image data used for displaying stereoscopic images. The control unit 23 performs overall control of the X-ray diagnostic apparatus 100.

医用画像データ収集部24は、3次元画像データなどの画像データを収集する。例えば、医用画像データ収集部24は、3次元画像データの収集指示を受け付けると、X線源14、X線検出装置15、及びCアーム制御部25を制御し、3次元画像データを収集する。医用画像データ収集部24は、収集した3次元画像データを医用画像データ記憶部22に格納する。なお、第1の実施形態においては、X線診断装置100のCアーム13を回転させることで3次元画像データを収集する例を説明したが、実施形態はこれに限られるものではなく、例えば、X線診断装置100とは異なるX線CT(Computed Tomography)装置によって予め収集された3次元画像データを用いてもよい。   The medical image data collection unit 24 collects image data such as three-dimensional image data. For example, when receiving a three-dimensional image data collection instruction, the medical image data collection unit 24 controls the X-ray source 14, the X-ray detection device 15, and the C-arm control unit 25 to collect three-dimensional image data. The medical image data collection unit 24 stores the collected three-dimensional image data in the medical image data storage unit 22. In the first embodiment, the example in which the three-dimensional image data is collected by rotating the C-arm 13 of the X-ray diagnostic apparatus 100 has been described. However, the embodiment is not limited to this, and for example, Three-dimensional image data collected in advance by an X-ray CT (Computed Tomography) apparatus different from the X-ray diagnostic apparatus 100 may be used.

視差画像群生成部26は、3次元画像データから、視差画像群である右眼画像及び左眼画像を生成する。具体的には、視差画像群生成部26は、視差画像群の生成指示を表示制御部27から受け取ると、医用画像データ記憶部22を参照し、予め収集された3次元画像データを取得する。そして、視差画像群生成部26は、取得した3次元画像データから右眼画像及び左眼画像を生成し、生成した右眼画像及び左眼画像を表示制御部27に送る。表示制御部27は、操作部21を介して立体視画像の表示指示を受け付けると、視差画像群の生成指示を視差画像群生成部26に送り、生成された視差画像群を視差画像群生成部26から受け取ると、この視差画像群を用いて立体視画像を表示部16に3次元表示する。   The parallax image group generation unit 26 generates a right eye image and a left eye image that are parallax image groups from the three-dimensional image data. Specifically, when the parallax image group generation unit 26 receives an instruction to generate a parallax image group from the display control unit 27, the parallax image group generation unit 26 refers to the medical image data storage unit 22 and acquires three-dimensional image data collected in advance. Then, the parallax image group generation unit 26 generates a right eye image and a left eye image from the acquired three-dimensional image data, and sends the generated right eye image and left eye image to the display control unit 27. Upon receiving a stereoscopic image display instruction via the operation unit 21, the display control unit 27 sends a parallax image group generation instruction to the parallax image group generation unit 26, and the generated parallax image group is transmitted to the parallax image group generation unit. 26, the stereoscopic image is three-dimensionally displayed on the display unit 16 using the parallax image group.

このようにして表示制御部27によって表示部16に表示された立体視画像を見ながら操作者は作業を行う。ここで、操作者が2名以上である場合、奥行き方向にも物体が存在するため、見る角度や奥行きの認識距離の相違によっては、意思疎通を間違えるリスクがある。そこで、第1の実施形態に係る計算機システム20では、立体視画像中に、立体視画像において位置を示す位置情報(例えば、矢印記号等で表現されるカーソル等)を表示する。具体的には、図1に示す表示制御部27及び位置情報制御部28が、この位置情報の表示を制御する処理を実行する。   In this way, the operator performs work while viewing the stereoscopic image displayed on the display unit 16 by the display control unit 27. Here, when there are two or more operators, there are objects in the depth direction, so there is a risk of miscommunication depending on the difference in the viewing angle and the recognition distance of the depth. Therefore, the computer system 20 according to the first embodiment displays position information (for example, a cursor represented by an arrow symbol or the like) indicating a position in the stereoscopic image in the stereoscopic image. Specifically, the display control unit 27 and the position information control unit 28 shown in FIG. 1 execute processing for controlling the display of the position information.

表示制御部27は、3次元画像データから生成された視差画像群を用いて立体視画像を表示部16に3次元表示するとともに、立体視画像において位置を示す位置情報を表示部16に3次元表示する。   The display control unit 27 displays a stereoscopic image on the display unit 16 using the parallax image group generated from the three-dimensional image data, and three-dimensionally displays position information indicating a position in the stereoscopic image on the display unit 16. indicate.

位置情報制御部28は、位置情報を立体視画像において奥行き方向に移動する指示を操作者から受付けた場合に、視差画像群に含まれる各視差画像内の位置情報を、操作者から受付けた移動量に応じて各視差画像内で移動させる。表示制御部27は、位置情報制御部28によって位置情報が移動された後の視差画像群を用いて、立体視可能な位置情報が重畳された立体視画像を表示部16に3次元表示する。すると、操作者には、位置情報が、仮想的な立体視画像において奥行き方向に移動したように認識される。なお、位置情報制御部28の詳細については後述する。   When the position information control unit 28 receives an instruction to move the position information in the depth direction in the stereoscopic image from the operator, the position information control unit 28 receives the position information in each parallax image included in the parallax image group from the operator. It moves within each parallax image according to quantity. The display control unit 27 uses the parallax image group after the position information is moved by the position information control unit 28 to three-dimensionally display a stereoscopic image on which the stereoscopically visible position information is superimposed on the display unit 16. Then, the operator recognizes that the position information has moved in the depth direction in the virtual stereoscopic image. Details of the position information control unit 28 will be described later.

次に、図5を用いて、第1の実施形態に係る位置情報制御部28による処理動作について説明する。図5は、第1の実施形態に係る位置情報制御部28による処理動作の一例を示す図である。なお、図5において、左眼画像及び右眼画像それぞれには、立体視できるように若干ずらした状態で、血管が描出されている。図5に示すように、位置情報制御部28は、操作部21を介して立体視画像の表示指示を受け付けると、各視差画像内の所定の位置(例えば、初期の位置)に、位置情報を位置付ける。   Next, processing operations performed by the position information control unit 28 according to the first embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a processing operation performed by the position information control unit 28 according to the first embodiment. In FIG. 5, blood vessels are depicted in the left eye image and the right eye image in a state slightly shifted so as to be stereoscopically viewed. As illustrated in FIG. 5, when the position information control unit 28 receives a stereoscopic image display instruction via the operation unit 21, the position information control unit 28 sets the position information to a predetermined position (for example, an initial position) in each parallax image. Position.

図5に示す例では、位置情報制御部28が、初期の位置として位置情報を基準点に表示する場合を説明する。ここで、「基準点」とは、立体視画像内で左右両眼による視差が生じない点であり、例えば、表示部16の表示面上に位置付けられる。また、基準点が位置付けられる立体視画像上の面を「基準面」と呼ぶ。例えば、基準点の位置が表示部16の表示面上である場合、基準面は、表示部16の表示面に相当する。なお、基準点の位置は、表示部16の表示面上に限定されるものではない。   In the example illustrated in FIG. 5, a case will be described in which the position information control unit 28 displays position information as a reference point as an initial position. Here, the “reference point” is a point where no parallax occurs between the left and right eyes in the stereoscopic image, and is positioned on the display surface of the display unit 16, for example. A surface on the stereoscopic image on which the reference point is positioned is referred to as a “reference surface”. For example, when the position of the reference point is on the display surface of the display unit 16, the reference surface corresponds to the display surface of the display unit 16. The position of the reference point is not limited to the display surface of the display unit 16.

図5に示すように、位置情報制御部28は、左眼画像のL1の座標に位置情報を位置付け、右眼画像のR1の座標に位置情報を位置付ける。ここで、左眼画像のL1の座標は、右眼画像のR1の座標と同一である。すなわち、左眼画像と右眼画像との間にずらし量が発生しない。また、立体視画像において位置情報は、操作者の左眼を示すLと座標L1とを結ぶ線と、操作者の右眼を示すRと座標R1とを結ぶ線の交点に結像される。すなわち図5に示す立体視画像において位置情報は、基準点に結像される(図5の立体視画像において矢印の位置)。なお、位置情報制御部28により初期の位置として位置付ける位置情報の位置は、図5に図示した位置に限定されるものではない。   As illustrated in FIG. 5, the position information control unit 28 positions the position information at the L1 coordinate of the left eye image and positions the position information at the R1 coordinate of the right eye image. Here, the L1 coordinate of the left eye image is the same as the R1 coordinate of the right eye image. That is, no shift amount is generated between the left eye image and the right eye image. In the stereoscopic image, the position information is imaged at the intersection of a line connecting L indicating the left eye of the operator and the coordinate L1 and a line connecting R indicating the right eye of the operator and the coordinate R1. That is, the position information is imaged at the reference point in the stereoscopic image shown in FIG. 5 (the position of the arrow in the stereoscopic image of FIG. 5). Note that the position of the position information positioned as the initial position by the position information control unit 28 is not limited to the position illustrated in FIG.

次に、図6を用いて、第1の実施形態に係る位置情報制御部28による処理動作について説明する。図6は、第1の実施形態に係る位置情報制御部28による処理動作の別の一例を示す図である。図6は、基準点に結像された位置情報を基準点から奥行き方向の手前側に移動させる場合の一例を示す。   Next, processing operations performed by the position information control unit 28 according to the first embodiment will be described with reference to FIG. FIG. 6 is a diagram illustrating another example of the processing operation performed by the position information control unit 28 according to the first embodiment. FIG. 6 shows an example of moving the position information imaged on the reference point from the reference point to the near side in the depth direction.

位置情報制御部28は、図5に示した立体視画像において、奥行き方向の手前側へ位置情報を移動させる操作を操作者から受付けた場合、以下の処理を実行する。すなわち、位置情報制御部28は、図6に示すように、左眼画像については、L1より右側の座標であるL2に位置情報を移動させる。また、位置情報制御部28は、図6に示すように、右眼画像については、R1より左側の座標であるR2に位置情報を移動させる。これにより、右眼画像と左眼画像との間に位置情報のずらし量が発生する。この場合、立体視画像において位置情報は、奥行き方向の手前側へ移動する。また、立体視画像において位置情報は、操作者の左眼を示すLと座標L2とを結ぶ線と、操作者の右眼を示すRと座標R2とを結ぶ線の交点に結像される。すなわち図5に示す立体視画像において位置情報は、基準点よりも奥行き方向の手前側の位置に結像される(図6の立体視画像において矢印の位置)。   When the position information control unit 28 receives an operation from the operator to move the position information to the near side in the depth direction in the stereoscopic image illustrated in FIG. 5, the position information control unit 28 performs the following processing. That is, as shown in FIG. 6, the position information control unit 28 moves the position information for the left eye image to L2 which is a coordinate on the right side of L1. Further, as shown in FIG. 6, the position information control unit 28 moves the position information to R2 which is a coordinate on the left side of R1 for the right eye image. Thereby, a shift amount of the position information is generated between the right eye image and the left eye image. In this case, position information moves to the near side in the depth direction in the stereoscopic image. In the stereoscopic image, the position information is imaged at the intersection of a line connecting L indicating the left eye of the operator and the coordinate L2, and a line connecting R indicating the right eye of the operator and the coordinate R2. That is, in the stereoscopic image shown in FIG. 5, the position information is imaged at a position closer to the front side in the depth direction than the reference point (the position of the arrow in the stereoscopic image of FIG. 6).

例えば、マウスの左右上下の動きは従来のしくみを残し、ホイールを動かすことにより、ずらし量を変えた位置情報が表示される。なお、位置情報の操作を受け付ける操作部21は、マウスに限定されるものではなく、例えば、操作者のジェスチャーや音声を検知し、検知した内容に基づいて操作を受け付けるデバイスなどでもよい(例えば、奥行き方向の奥側へ位置情報を移動させる操作は、操作者が手で押し出すジェスチャーをすることで検知されるなど)。   For example, the left / right / up / down movement of the mouse retains the conventional mechanism, and by moving the wheel, position information with the shift amount changed is displayed. The operation unit 21 that receives the operation of the position information is not limited to the mouse, and may be, for example, a device that detects the gesture or voice of the operator and receives the operation based on the detected content (for example, The operation of moving the position information to the depth side in the depth direction is detected by a gesture that the operator pushes out by hand).

このように、位置情報制御部28が、例えば、右眼画像と左眼画像との間に位置情報のずらし量を生じさせ、表示制御部27が、ずらし量が生じた後の右眼画像と左眼画像とを用いて立体視画像を3次元表示することで、位置情報は、立体視画像において奥行き方向に移動する。   Thus, for example, the position information control unit 28 generates a shift amount of the position information between the right eye image and the left eye image, and the display control unit 27 sets the right eye image after the shift amount is generated. By displaying the stereoscopic image three-dimensionally using the left eye image, the position information moves in the depth direction in the stereoscopic image.

ここで、位置情報制御部28が右眼画像と左眼画像とに等しく位置情報のずらし量を生じさせた場合、位置情報は、位置情報を観察する操作者の視点位置と位置情報の座標とによっては奥行き方向の奥側又は手前側に移動せず、斜め方向に移動する場合がある。   Here, when the position information control unit 28 causes the shift amount of the position information to be equal to the right eye image and the left eye image, the position information includes the viewpoint position of the operator who observes the position information and the coordinates of the position information. Depending on the situation, there is a case in which it does not move to the rear side or the front side in the depth direction but moves in an oblique direction.

このようなことから、第1の実施形態において、位置情報制御部28は、操作者の視点位置と、操作者から受け付けた移動量と、各視差画像内において位置情報が位置付けられている座標とに基づいて、各視差画像内において位置情報の移動先となる座標を算出することで、適切なずらし量を求めている。なお、視点位置の検出は、公知の技術を用いて実現することができる。例えば、位置情報制御部28は、カメラを有し、カメラによって撮影された画像と顔のモデル画像とのパターンマッチングにより、操作者が立っている位置(例えば、表示部16との相対的な位置など)を特定することができる。図7及び図8を用いて、第1の実施形態に係る位置情報制御部28によるずらし量の制御動作について説明する。また、図7及び図8では、操作者が表示部16の正面に立っている場合を説明する。   For this reason, in the first embodiment, the position information control unit 28 determines the viewpoint position of the operator, the amount of movement received from the operator, and the coordinates where the position information is positioned in each parallax image. Based on the above, an appropriate shift amount is obtained by calculating coordinates as a movement destination of the position information in each parallax image. The viewpoint position can be detected using a known technique. For example, the position information control unit 28 includes a camera, and pattern matching between an image photographed by the camera and a face model image (for example, a position relative to the display unit 16). Etc.) can be specified. The shift amount control operation by the position information control unit 28 according to the first embodiment will be described with reference to FIGS. 7 and 8. 7 and 8 illustrate a case where the operator is standing in front of the display unit 16.

図7は、第1の実施形態に係る位置情報制御部28によるずらし量の制御動作の一例を示す図である。図7において、Lは操作者の左眼を示し、Rは操作者の右眼を示す。また、図7において、位置情報は、表示部16の真ん中に位置付けられている。すなわち、位置情報は、操作者の左眼と操作者の右眼とのほぼ中央の基準点に位置付けられている。具体的には、位置情報制御部28は、視差画像群生成部26によって生成された左眼画像に対して、座標L1(X1,Y1)に位置情報を位置付け、位置情報が座標L1(X1,Y1)に位置付けられた新たな左眼画像を生成する。また、位置情報制御部28は、視差画像群生成部26によって生成された右眼画像に対して、座標R1(X1,Y1)に位置情報を位置付け、位置情報が座標R1(X1,Y1)に位置付けられた新たな右眼画像を生成する。この場合、右眼画像と左眼画像との間に位置情報のずらし量が発生しない。   FIG. 7 is a diagram illustrating an example of a shift amount control operation performed by the position information control unit 28 according to the first embodiment. In FIG. 7, L indicates the left eye of the operator, and R indicates the right eye of the operator. In FIG. 7, the position information is positioned in the middle of the display unit 16. In other words, the position information is positioned at a reference point substantially in the center between the operator's left eye and the operator's right eye. Specifically, the position information control unit 28 positions the position information at the coordinates L1 (X1, Y1) with respect to the left eye image generated by the parallax image group generation unit 26, and the position information is the coordinates L1 (X1, X1). A new left eye image positioned at Y1) is generated. Further, the position information control unit 28 positions the position information at the coordinates R1 (X1, Y1) with respect to the right eye image generated by the parallax image group generation unit 26, and the position information is at the coordinates R1 (X1, Y1). A new right eye image positioned is generated. In this case, there is no positional information shift amount between the right eye image and the left eye image.

ここで、基準面に位置付けられる位置情報を奥行き方向の手前側に移動させる場合について説明する。この場合、位置情報制御部28は、奥行き方向の手前側で位置情報が結像される位置と左眼の視点位置とを結ぶ線上において、基準面と交差する座標L2に位置情報を移動させるとともに、奥行き方向の手前側で位置情報が結像される位置(図7において点線の円で示す)と右眼の視点位置とを結ぶ線上において、基準面と交差する座標R2に位置情報を移動させる。例えば、位置情報制御部28は、操作者の視点位置を検出する。また、位置情報制御部28は、操作者から受付けた移動量に対応する移動後の位置情報が結像される位置を求める。続いて、位置情報制御部28は、検出した視点位置と、立体視画像の仮想空間内で移動後の位置情報が結像される位置とを結ぶ直線上において、基準面と交差する座標を求める。そして、位置情報制御部28は、各視差画像に対して、求めた座標に位置情報を位置付けるように制御する。例えば、位置情報制御部28は、現在の左眼画像に対して、座標L2(X1+ΔX,Y1)に位置情報を位置付け、位置情報が座標L2(X1+ΔX,Y1)に位置付けられた新たな左眼画像を生成する。また、位置情報制御部28は、現在の右眼画像に対して、座標R2(X1−ΔX,Y1)に位置情報を位置付け、位置情報が座標R2(X1−ΔX,Y1)に位置付けられた新たな右眼画像を生成する。この場合、右眼画像と左眼画像との間に位置情報のずらし量が発生する。したがって、仮想的な立体視画像において位置情報は基準面から手前側に移動する。   Here, the case where the position information positioned on the reference plane is moved to the near side in the depth direction will be described. In this case, the position information control unit 28 moves the position information to the coordinate L2 intersecting the reference plane on the line connecting the position where the position information is imaged on the near side in the depth direction and the viewpoint position of the left eye. The position information is moved to a coordinate R2 that intersects the reference plane on the line connecting the position where the position information is imaged on the near side in the depth direction (indicated by a dotted circle in FIG. 7) and the viewpoint position of the right eye. . For example, the position information control unit 28 detects the viewpoint position of the operator. Further, the position information control unit 28 obtains a position at which the position information after movement corresponding to the movement amount received from the operator is imaged. Subsequently, the position information control unit 28 obtains coordinates that intersect the reference plane on a straight line connecting the detected viewpoint position and the position where the position information after movement in the virtual space of the stereoscopic image is imaged. . Then, the position information control unit 28 performs control so that the position information is positioned at the obtained coordinates for each parallax image. For example, the position information control unit 28 positions position information at coordinates L2 (X1 + ΔX, Y1) with respect to the current left eye image, and a new left eye image in which position information is positioned at coordinates L2 (X1 + ΔX, Y1). Is generated. Further, the position information control unit 28 positions the position information at the coordinate R2 (X1-ΔX, Y1) with respect to the current right eye image, and the position information is positioned at the coordinate R2 (X1-ΔX, Y1). A right-eye image is generated. In this case, a positional information shift amount occurs between the right eye image and the left eye image. Accordingly, in the virtual stereoscopic image, the position information moves from the reference plane to the near side.

続いて、基準面に位置付けられる位置情報を奥行き方向の奥側に移動させる場合について説明する。この場合、位置情報制御部28は、奥行き方向の奥側で位置情報が結像される位置と左眼の視点位置とを結ぶ線上において、基準面と交差する座標L3に位置情報を移動させるとともに、奥行き方向の奥側で位置情報が結像される位置と右眼の視点位置とを結ぶ線上において、基準面と交差する座標R3に位置情報を移動させる。例えば、位置情報制御部28は、現在の左眼画像に対して、座標L3(X1−ΔX´,Y1)に位置情報を位置付け、位置情報が座標L3(X1−ΔX´,Y1)に位置付けられた新たな左眼画像を生成する。また、位置情報制御部28は、現在の右眼画像に対して、座標R3(X1+ΔX´,Y1)に位置情報を位置付け、位置情報が座標R3(X1+ΔX´,Y1)に位置付けられた新たな右眼画像を生成する。この場合、右眼画像と左眼画像との間に位置情報のずらし量が発生する。したがって、仮想的な立体視画像において位置情報は基準面から奥側に移動する。   Next, a case where position information positioned on the reference plane is moved to the back side in the depth direction will be described. In this case, the position information control unit 28 moves the position information to the coordinate L3 intersecting the reference plane on the line connecting the position where the position information is imaged on the far side in the depth direction and the viewpoint position of the left eye. The position information is moved to a coordinate R3 intersecting the reference plane on a line connecting the position where the position information is imaged on the far side in the depth direction and the viewpoint position of the right eye. For example, the position information control unit 28 positions the position information at coordinates L3 (X1-ΔX ′, Y1) with respect to the current left-eye image, and the position information is positioned at coordinates L3 (X1-ΔX ′, Y1). A new left eye image is generated. In addition, the position information control unit 28 positions the position information at the coordinate R3 (X1 + ΔX ′, Y1) with respect to the current right eye image, and the position information is positioned at the coordinate R3 (X1 + ΔX ′, Y1). An eye image is generated. In this case, a positional information shift amount occurs between the right eye image and the left eye image. Accordingly, in the virtual stereoscopic image, the position information moves from the reference plane to the back side.

図8は、第1の実施形態に係る位置情報制御部28によるずらし量の制御動作の別の一例を示す図である。図8において、Lは操作者の左眼を示し、Rは操作者の右眼を示す。また、図8において、位置情報は、表示部16の右眼よりに位置付けられている。すなわち、位置情報は、操作者の右眼の延長線上に位置付けられている。具体的には、位置情報制御部28は、視差画像群生成部26によって生成された左眼画像に対して、座標L1(X1+ΔX,Y1)に位置情報を位置付け、位置情報が座標L1(X1+ΔX,Y1)に位置付けられた新たな左眼画像を生成する。また、位置情報制御部28は、視差画像群生成部26によって生成された右眼画像に対して、座標R1(X1+ΔX,Y1)に位置情報を位置付け、位置情報が座標R1(X1+ΔX,Y1)に位置付けられた新たな右眼画像を生成する。この場合、右眼画像と左眼画像との間に位置情報のずらし量が発生しない。   FIG. 8 is a diagram illustrating another example of the shift amount control operation by the position information control unit 28 according to the first embodiment. In FIG. 8, L indicates the left eye of the operator, and R indicates the right eye of the operator. In FIG. 8, the position information is positioned from the right eye of the display unit 16. That is, the position information is positioned on the extension line of the operator's right eye. Specifically, the position information control unit 28 positions the position information at coordinates L1 (X1 + ΔX, Y1) with respect to the left-eye image generated by the parallax image group generation unit 26, and the position information is coordinates L1 (X1 + ΔX, A new left eye image positioned at Y1) is generated. In addition, the position information control unit 28 positions the position information at coordinates R1 (X1 + ΔX, Y1) with respect to the right eye image generated by the parallax image group generation unit 26, and the position information is at coordinates R1 (X1 + ΔX, Y1). A new right eye image positioned is generated. In this case, there is no positional information shift amount between the right eye image and the left eye image.

ここで、基準面に位置付けられる位置情報を奥行き方向の手前側に移動させる場合について説明する。この場合、位置情報制御部28は、奥行き方向の手前側で位置情報が結像される位置(図8において点線の円で示す)と左眼の視点位置とを結ぶ線上において、基準面と交差する座標L2に位置情報を移動させるとともに、奥行き方向の手前側で位置情報が結像される位置と右眼の視点位置とを結ぶ線上において、基準面と交差する座標R2に位置情報を移動させる。例えば、位置情報制御部28は、現在の左眼画像に対して、座標L2(X1+ΔX+α,Y1)に位置情報を位置付け、位置情報が座標L2(X1+ΔX+α,Y1)に位置付けられた新たな左眼画像を生成する。また、位置情報制御部28は、現在の右眼画像に対しては、位置情報を変更しない(座標R2は、座標R1と同一である)。この場合、右眼画像と左眼画像との間に位置情報のずらし量が発生する。したがって、仮想的な立体視画像において位置情報は基準面から手前側に移動する。   Here, the case where the position information positioned on the reference plane is moved to the near side in the depth direction will be described. In this case, the position information control unit 28 intersects the reference plane on the line connecting the position where the position information is imaged on the near side in the depth direction (indicated by a dotted circle in FIG. 8) and the viewpoint position of the left eye. The position information is moved to the coordinate L2 to be moved, and the position information is moved to the coordinate R2 intersecting the reference plane on the line connecting the position where the position information is imaged on the near side in the depth direction and the viewpoint position of the right eye. . For example, the position information control unit 28 positions the position information at the coordinate L2 (X1 + ΔX + α, Y1) with respect to the current left eye image, and the new left eye image at which the position information is positioned at the coordinate L2 (X1 + ΔX + α, Y1). Is generated. Also, the position information control unit 28 does not change the position information for the current right eye image (the coordinate R2 is the same as the coordinate R1). In this case, a positional information shift amount occurs between the right eye image and the left eye image. Accordingly, in the virtual stereoscopic image, the position information moves from the reference plane to the near side.

続いて、基準面に位置付けられる位置情報を奥行き方向の奥側に移動させる場合について説明する。この場合、位置情報制御部28は、奥行き方向の奥側で位置情報が結像される位置と左眼の視点位置とを結ぶ線上において、基準面と交差する座標L3に位置情報を移動させるとともに、奥行き方向の奥側で位置情報が結像される位置と右眼の視点位置とを結ぶ線上において、基準面と交差する座標R3に位置情報を移動させる。例えば、位置情報制御部28は、現在の左眼画像に対して、座標L3(X1+ΔX−α,Y1)に位置情報を位置付け、位置情報が座標L3(X1+ΔX−α,Y1)に位置付けられた左眼画像を生成する。また、位置情報制御部28は、現在の右眼画像に対しては、位置情報を変更しない(座標R3は、座標R1と同一である)。この場合、右眼画像と左眼画像との間に位置情報のずらし量が発生する。したがって、仮想的な立体視画像において位置情報は基準面から奥側に移動する。   Next, a case where position information positioned on the reference plane is moved to the back side in the depth direction will be described. In this case, the position information control unit 28 moves the position information to the coordinate L3 intersecting the reference plane on the line connecting the position where the position information is imaged on the far side in the depth direction and the viewpoint position of the left eye. The position information is moved to a coordinate R3 intersecting the reference plane on a line connecting the position where the position information is imaged on the far side in the depth direction and the viewpoint position of the right eye. For example, the position information control unit 28 positions the position information at coordinates L3 (X1 + ΔX−α, Y1) with respect to the current left eye image, and the position information is positioned at the coordinates L3 (X1 + ΔX−α, Y1). An eye image is generated. Further, the position information control unit 28 does not change the position information for the current right eye image (the coordinate R3 is the same as the coordinate R1). In this case, a positional information shift amount occurs between the right eye image and the left eye image. Accordingly, in the virtual stereoscopic image, the position information moves from the reference plane to the back side.

このように、第1の実施形態において、位置情報制御部28は、操作者の視点位置と、操作者から受け付けた移動量とに基づいて、各視差画像内において位置情報の移動先となる座標を算出するので、適切なずらし量を求めることができる。なお、第1の実施形態においては、操作者の視点位置を検出して上記処理を行う例を説明したが、実施形態はこれに限られるものではない。例えば、操作者が表示部16の正面に立っていると仮定することにより、位置情報制御部28は、操作者の視点位置を検出せずに、適切なずらし量を求めることができる。   As described above, in the first embodiment, the position information control unit 28 coordinates the position information to be moved in each parallax image based on the viewpoint position of the operator and the movement amount received from the operator. Therefore, an appropriate shift amount can be obtained. In the first embodiment, the example in which the viewpoint position of the operator is detected and the above process is performed has been described. However, the embodiment is not limited thereto. For example, assuming that the operator is standing in front of the display unit 16, the position information control unit 28 can obtain an appropriate shift amount without detecting the operator's viewpoint position.

次に、図9を用いて、第1の実施形態に係るX線診断装置100による位置情報制御処理の手順について説明する。図9は、第1の実施形態に係るX線診断装置100による位置情報制御処理の手順を示すフローチャートである。図9に示すように、第1の実施形態に係るX線診断装置100は、奥行き方向の操作を操作者から受付けたか否かを判定する(ステップS101)。   Next, a procedure of position information control processing by the X-ray diagnostic apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing a procedure of position information control processing by the X-ray diagnostic apparatus 100 according to the first embodiment. As shown in FIG. 9, the X-ray diagnostic apparatus 100 according to the first embodiment determines whether or not an operation in the depth direction has been received from the operator (step S101).

第1の実施形態に係るX線診断装置100は、奥行き方向の操作を操作者から受付けたと判定した場合(ステップS101、Yes)、操作者の視点位置を取得する(ステップS102)。   If the X-ray diagnostic apparatus 100 according to the first embodiment determines that an operation in the depth direction has been received from the operator (step S101, Yes), the operator's viewpoint position is acquired (step S102).

また、第1の実施形態に係るX線診断装置100は、操作者から受付けた移動量に対応する移動後の位置情報が結像される位置を算出する(ステップS103)。例えば、第1の実施形態に係るX線診断装置100は、操作者から受付けた移動量に応じて、位置情報を奥行き方向の手前側に移動させた場合に位置情報が結像される位置或いは位置情報を奥行き方向の奥側に移動させた場合に位置情報が結像される位置を算出する。   In addition, the X-ray diagnostic apparatus 100 according to the first embodiment calculates a position at which the moved position information corresponding to the movement amount received from the operator is imaged (step S103). For example, in the X-ray diagnostic apparatus 100 according to the first embodiment, the position information is imaged when the position information is moved to the near side in the depth direction according to the amount of movement received from the operator. A position where the position information is imaged when the position information is moved to the back side in the depth direction is calculated.

続いて、第1の実施形態に係るX線診断装置100は、検出した視点位置と移動後の位置情報が結像される位置とを結ぶ直線上において、基準面と交差する座標を求める(ステップS104)。そして、位置情報制御部28は、求めた座標に位置情報を位置付けた各視差画像を生成する(ステップS105)。例えば、第1の実施形態に係るX線診断装置100は、求めた座標に位置情報を移動させた左眼画像及び右眼画像を生成する。   Subsequently, the X-ray diagnostic apparatus 100 according to the first embodiment obtains coordinates intersecting the reference plane on a straight line connecting the detected viewpoint position and the position where the position information after movement is imaged (step) S104). Then, the position information control unit 28 generates each parallax image in which the position information is positioned at the obtained coordinates (step S105). For example, the X-ray diagnostic apparatus 100 according to the first embodiment generates a left eye image and a right eye image in which position information is moved to the obtained coordinates.

第1の実施形態に係るX線診断装置100は、ステップS103の処理の終了後、位置情報制御処理を終了する。なお、第1の実施形態に係るX線診断装置100は、奥行き方向の操作を操作者から受付けたと判定しなかった場合(ステップS101、No)、引き続き、ステップS101の判定を繰り返す。   The X-ray diagnostic apparatus 100 according to the first embodiment ends the position information control process after the process of step S103 ends. If the X-ray diagnostic apparatus 100 according to the first embodiment does not determine that an operation in the depth direction has been received from the operator (No in step S101), the determination in step S101 is repeated.

(第1の実施形態の効果)
上述したように、第1の実施形態によれば、位置情報を奥行き方向に移動する指示を操作者から受付けた場合に、視差画像群に含まれる各視差画像内の位置情報を、操作者から受付けた移動量に応じて各視差画像内で移動させることで、立体視画像において、位置情報を奥行き方向に移動させる。これにより、第1の実施形態によれば、立体視画像において位置を指し示す位置情報を適切に表示することができる。そして、操作者は、上下左右方向のみならず、奥行き方向についても、位置情報が指し示す位置を正しく認識することができる。
(Effects of the first embodiment)
As described above, according to the first embodiment, when an instruction to move the position information in the depth direction is received from the operator, the position information in each parallax image included in the parallax image group is received from the operator. By moving within each parallax image according to the received movement amount, the position information is moved in the depth direction in the stereoscopic image. Thereby, according to 1st Embodiment, the positional information which points to a position in a stereoscopic vision image can be displayed appropriately. The operator can correctly recognize the position indicated by the position information not only in the vertical and horizontal directions but also in the depth direction.

また、第1の実施形態によれば、操作者の視点位置と、操作者から受け付けた移動量と、各視差画像内において位置情報が位置付けられている座標とに基づいて、各視差画像内において位置情報の移動先となる座標を算出することで、適切なずらし量を求めている。これにより、第1の実施形態によれば、立体視画像において、位置情報を奥行き方向に適切に移動させることができる。   Further, according to the first embodiment, in each parallax image, based on the viewpoint position of the operator, the movement amount received from the operator, and the coordinates where the position information is positioned in each parallax image. An appropriate shift amount is obtained by calculating the coordinates to which the position information is moved. Thereby, according to the first embodiment, position information can be appropriately moved in the depth direction in the stereoscopic image.

(第2の実施形態)
第1の実施形態では、操作者による操作に従って位置情報を移動させる例を説明した。ところで、例えば、血管内治療を想定した場合、操作者は、血管やステントを指し示す機会が多いと考えられる。ここで、操作者が、血管やステントを指し示しながら奥行き方向へ位置情報を移動させようとした場合、2段階の操作を行うと考えられる。例えば、位置情報を奥行き方向に移動させる第1の段階と、位置情報を奥行き方向に移動させた後に左右方向に位置情報を移動させる第2の段階である。このようなことから、第2の実施形態においては、血管やステント等の対象物に沿って位置情報を移動させる手法を説明する。なお、対象物に沿って位置情報を移動させる手法として、「自動トレースする手法A1」と、「コントラストの高い物体に自動フォーカスする手法A2」とがある。
(Second Embodiment)
In the first embodiment, the example in which the position information is moved according to the operation by the operator has been described. By the way, for example, when endovascular treatment is assumed, it is considered that the operator has many opportunities to point to blood vessels and stents. Here, when the operator tries to move position information in the depth direction while pointing to a blood vessel or a stent, it is considered that a two-step operation is performed. For example, there are a first stage in which the position information is moved in the depth direction and a second stage in which the position information is moved in the left-right direction after the position information is moved in the depth direction. For this reason, in the second embodiment, a method for moving position information along an object such as a blood vessel or a stent will be described. In addition, as a method for moving position information along the object, there are “method A1 for automatically tracing” and “method A2 for automatically focusing on an object with high contrast”.

(自動トレースする手法A1)
血管内治療においては、細い血管や、カテーテル、ワイヤ、リード、ステント等の細いデバイスを表示する場合が多い。このため、操作者は、血管やデバイスに沿って位置情報を動かす操作を行うことがある。そこで、第2の実施形態に係る位置情報制御部28は、血管やデバイスを自動的にトレースする機能を更に有する。
(Method A1 for automatic tracing)
In endovascular treatment, thin blood vessels and thin devices such as catheters, wires, leads, and stents are often displayed. For this reason, an operator may perform an operation of moving position information along a blood vessel or a device. Therefore, the position information control unit 28 according to the second embodiment further has a function of automatically tracing blood vessels and devices.

第2の実施形態に係る位置情報制御部28は、例えば、視差画像群に対して、線画像の線幅を1画素にする細線化処理を行う。続いて、第2の実施形態に係る位置情報制御部28は、細線化した視差画像群において、細線化された画素上(若しくはその近辺を含む)に動きを限定し、マウスの操作を受付ける。そして、第2の実施形態に係る位置情報制御部28は、受付けた移動量に応じて血管に沿って奥行き方向に位置情報を移動させる。なお、第2の実施形態に係る位置情報制御部28は、視差画像群間の座標を対応付けた情報をパターンマッチングにより予め生成し保持する。例えば、左眼画像及び右眼画像それぞれに、立体視できるように若干ずらした状態で血管が描出されているとする。かかる場合、左眼画像と右眼画像との間でパターンマッチングすることで、左眼画像に描出された血管上のある位置を、右眼画像に描出された血管上で特定することができる。すなわち、左眼画像と右眼画像との間で座標を対応付けることができる。なお、第2の実施形態に係る位置情報制御部28は、右眼画像に描出された血管上のある位置を、左眼画像に描出された血管上で特定してもよい。   The position information control unit 28 according to the second embodiment performs, for example, thinning processing on the parallax image group so that the line width of the line image is one pixel. Subsequently, the position information control unit 28 according to the second embodiment limits the movement on the thinned pixels (or the vicinity thereof) in the thinned parallax image group, and accepts a mouse operation. Then, the position information control unit 28 according to the second embodiment moves the position information in the depth direction along the blood vessel according to the received movement amount. Note that the position information control unit 28 according to the second embodiment generates and holds in advance information that associates coordinates between parallax image groups by pattern matching. For example, it is assumed that blood vessels are depicted in the left eye image and the right eye image in a state slightly shifted so as to be stereoscopically viewed. In this case, by performing pattern matching between the left eye image and the right eye image, a certain position on the blood vessel depicted in the left eye image can be specified on the blood vessel depicted in the right eye image. That is, coordinates can be associated between the left eye image and the right eye image. Note that the position information control unit 28 according to the second embodiment may specify a certain position on the blood vessel depicted in the right eye image on the blood vessel depicted in the left eye image.

図10を用いて第2の実施形態に係る位置情報制御部28による自動トレースする手法の具体例を説明する。図10は、第2の実施形態に係る位置情報制御部28による自動トレースする手法の一例を示す図である。図10に示すように、第2の実施形態に係る位置情報制御部28は、左眼画像及び右眼画像を細線化する。そして、第2の実施形態に係る位置情報制御部28は、例えば、左眼画像のL1に位置情報を位置付けた左眼画像を生成し、右眼画像のR1に位置情報を位置付けた右眼画像を生成する。ここで、左眼画像のL1と右眼画像のR1とが同じ位置を指し示す。そして、第2の実施形態に係る位置情報制御部28は、受付けた移動量に応じて、左眼画像の位置情報と右眼画像の位置情報とが同じ位置を指し示しながら、奥行き方向に位置情報を移動させた画像を生成する。   A specific example of a method of automatic tracing by the position information control unit 28 according to the second embodiment will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of an automatic tracing method performed by the position information control unit 28 according to the second embodiment. As illustrated in FIG. 10, the position information control unit 28 according to the second embodiment thins the left eye image and the right eye image. Then, the position information control unit 28 according to the second embodiment generates, for example, a left eye image in which position information is positioned in L1 of the left eye image, and a right eye image in which position information is positioned in R1 of the right eye image. Is generated. Here, L1 of the left eye image and R1 of the right eye image indicate the same position. Then, the position information control unit 28 according to the second embodiment indicates the position information in the depth direction while the position information of the left eye image and the position information of the right eye image indicate the same position according to the received movement amount. An image is generated by moving.

例えば、第2の実施形態に係る位置情報制御部28は、図10に示す立体視画像において、位置情報を手前側に移動する操作を操作者から受付けた場合、位置情報を図10中のA方向に血管中心線に沿って移動させた画像を生成する。具体的には、第2の実施形態に係る位置情報制御部28は、左眼画像において、操作者から受付けた移動量に応じて求めた座標L2に位置情報を位置付ける。続いて、第2の実施形態に係る位置情報制御部28は、左眼画像の座標L2と対応する右眼画像の座標R2をパターンマッチングによって特定する。そして第2の実施形態に係る位置情報制御部28は、右眼画像において座標R2に位置情報を位置付ける。また、第2の実施形態に係る位置情報制御部28は、図10に示す立体視画像において、位置情報を奥側に移動する操作を操作者から受付けた場合、位置情報を図10中のB方向に血管中心線に沿って移動させた画像を生成する。具体的には、第2の実施形態に係る位置情報制御部28は、左眼画像において、操作者から受付けた移動量に応じて求めた座標L3に位置情報を位置付ける。続いて、第2の実施形態に係る位置情報制御部28は、左眼画像の座標L3と対応する右眼画像の座標R3をパターンマッチングによって特定する。そして、第2の実施形態に係る位置情報制御部28は、右眼画像において座標R3に位置情報を位置付ける。   For example, when the position information control unit 28 according to the second embodiment receives an operation to move the position information to the near side from the operator in the stereoscopic image shown in FIG. An image moved in the direction along the blood vessel center line is generated. Specifically, the position information control unit 28 according to the second embodiment positions the position information at the coordinate L2 obtained according to the movement amount received from the operator in the left eye image. Subsequently, the position information control unit 28 according to the second embodiment specifies the coordinate R2 of the right eye image corresponding to the coordinate L2 of the left eye image by pattern matching. Then, the position information control unit 28 according to the second embodiment positions the position information at the coordinate R2 in the right eye image. Further, when the position information control unit 28 according to the second embodiment receives an operation for moving the position information to the back side in the stereoscopic image shown in FIG. An image moved in the direction along the blood vessel center line is generated. Specifically, the position information control unit 28 according to the second embodiment positions the position information at the coordinate L3 obtained according to the movement amount received from the operator in the left eye image. Subsequently, the position information control unit 28 according to the second embodiment specifies the coordinate R3 of the right eye image corresponding to the coordinate L3 of the left eye image by pattern matching. Then, the position information control unit 28 according to the second embodiment positions the position information at the coordinate R3 in the right eye image.

また、第2の実施形態に係る位置情報制御部28は、例えば血管の分岐点等においては、操作者からマウスを左右上下方向に動かす操作を受付けることによって、いずれの血管に沿って位置情報を動かすかを判定する。例えば、第2の実施形態に係る位置情報制御部28は、血管の分岐点Xに到達した場合、マウスを右方向へ動かす操作を受付けたと判定するとC方向へ位置情報を移動した画像を生成し、マウスを下方向へ動かす操作を受付けたと判定するとD方向へ位置情報を移動した画像を生成する。   Further, the position information control unit 28 according to the second embodiment receives position information along any blood vessel by accepting an operation of moving the mouse in the horizontal and vertical directions from the operator, for example, at a branch point of the blood vessel. Determine whether to move. For example, when the position information control unit 28 according to the second embodiment determines that the operation of moving the mouse to the right is accepted when the blood vessel branch point X is reached, an image in which the position information is moved in the C direction is generated. If it is determined that the operation of moving the mouse downward is accepted, an image in which position information is moved in the D direction is generated.

次に、図11を用いて、第2の実施形態に係るX線診断装置100による位置情報制御処理の手順について説明する。図11は、第2の実施形態に係るX線診断装置100による位置情報制御処理の手順を示すフローチャートである。   Next, a procedure of position information control processing by the X-ray diagnostic apparatus 100 according to the second embodiment will be described with reference to FIG. FIG. 11 is a flowchart showing a procedure of position information control processing by the X-ray diagnostic apparatus 100 according to the second embodiment.

図11に示すように、第2の実施形態に係るX線診断装置100は、トレースモードの設定を受付けたか否かを判定する(ステップS201)。そして、第2の実施形態に係るX線診断装置100は、トレースモードの設定を受付けたと判定した場合(ステップS201、Yes)、視差画像群に対して細線化処理を行う(ステップS202)。これにより第2の実施形態に係るX線診断装置100は、例えば、視差画像群から血管を抽出する。なお、第2の実施形態に係るX線診断装置100は、トレースモードの設定を受付けたと判定しなかった場合(ステップS201、No)、ステップS201の判定を繰り返す。   As shown in FIG. 11, the X-ray diagnostic apparatus 100 according to the second embodiment determines whether or not the setting of the trace mode is accepted (step S201). And when it determines with the X-ray diagnostic apparatus 100 which concerns on 2nd Embodiment having received the setting of trace mode (step S201, Yes), it performs a thinning process with respect to a parallax image group (step S202). Thereby, the X-ray diagnostic apparatus 100 according to the second embodiment extracts blood vessels from, for example, a parallax image group. Note that, when the X-ray diagnostic apparatus 100 according to the second embodiment does not determine that the setting of the trace mode has been accepted (No at Step S201), the determination at Step S201 is repeated.

そして、第2の実施形態に係るX線診断装置100は、奥行き方向の操作を操作者から受付ける(ステップS203)。続いて、第2の実施形態に係るX線診断装置100は、受付けた移動量に応じて対象物に沿って位置情報を移動させた画像を生成する(ステップS204)。例えば、第2の実施形態に係るX線診断装置100は、奥行き方向の奥側への操作を受付けた場合、対象物に沿って位置情報を奥行き方向の奥側へ移動させた画像を生成する。また、例えば、第2の実施形態に係るX線診断装置100は、奥行き方向の手前側への操作を受付けた場合、対象物に沿って位置情報を奥行き方向の手前側へ移動させた画像を生成する。   Then, the X-ray diagnostic apparatus 100 according to the second embodiment receives an operation in the depth direction from the operator (step S203). Subsequently, the X-ray diagnostic apparatus 100 according to the second embodiment generates an image in which the position information is moved along the object according to the received movement amount (step S204). For example, when the X-ray diagnostic apparatus 100 according to the second embodiment receives an operation to the back side in the depth direction, the X-ray diagnostic apparatus 100 generates an image in which the position information is moved to the back side in the depth direction along the object. . Further, for example, when the X-ray diagnostic apparatus 100 according to the second embodiment receives an operation to the near side in the depth direction, an image obtained by moving the position information to the near side in the depth direction along the object is displayed. Generate.

第2の実施形態に係るX線診断装置100は、分岐点に到達したか否かを判定する(ステップS205)。例えば、第2の実施形態に係るX線診断装置100は、対象物が血管である場合、血管の分岐点に到達したか否かを判定する。   The X-ray diagnostic apparatus 100 according to the second embodiment determines whether or not the branch point has been reached (step S205). For example, when the target object is a blood vessel, the X-ray diagnostic apparatus 100 according to the second embodiment determines whether the branch point of the blood vessel has been reached.

第2の実施形態に係るX線診断装置100は、分岐点に到達したと判定した場合(ステップS205、Yes)、操作者からの選択を受付ける(ステップS206)。例えば、第2の実施形態に係るX線診断装置100は、血管の分岐点に到達した場合、マウスを左右上下のいずれかに動かす操作を操作者から受付け、受付けた方向に分岐する血管に位置情報を移動させた画像を生成する。   If the X-ray diagnostic apparatus 100 according to the second embodiment determines that the branch point has been reached (step S205, Yes), the selection from the operator is accepted (step S206). For example, when the X-ray diagnostic apparatus 100 according to the second embodiment reaches a blood vessel branch point, the X-ray diagnostic apparatus 100 receives an operation of moving the mouse to the left, right, up, or down from the operator and is positioned in the blood vessel that branches in the received direction. Generate an image with the information moved.

第2の実施形態に係るX線診断装置100は、分岐点に到達したと判定しなかった場合(ステップS205、No)、あるいはステップS206の終了後、操作の終了を受付けたか否かを判定する(ステップS207)。第2の実施形態に係るX線診断装置100は、操作の終了を受付けたと判定しなかった場合(ステップS207、No)、ステップS203に移行する。   The X-ray diagnostic apparatus 100 according to the second embodiment determines whether or not the end of the operation has been accepted when it is not determined that the branch point has been reached (No at Step S205) or after the end of Step S206. (Step S207). When the X-ray diagnostic apparatus 100 according to the second embodiment does not determine that the operation has been completed (No in Step S207), the X-ray diagnostic apparatus 100 proceeds to Step S203.

一方、第2の実施形態に係るX線診断装置100は、操作の終了を受付けたと判定した場合(ステップS207、Yes)、トレースモードでの処理を終了する。第2の実施形態に係るX線診断装置100は、トレースモードでの処理が終了後、第1の実施形態に係るX線診断装置100と同様の処理を行う。すなわち、第2の実施形態に係るX線診断装置100は、立体視画像において位置情報を奥行き方向に移動する指示を操作者から受付けた場合に、視差画像群に含まれる各画像の位置情報を、操作者から受付けた移動量に応じて各画像内で移動させる。   On the other hand, if the X-ray diagnostic apparatus 100 according to the second embodiment determines that the end of the operation has been accepted (step S207, Yes), the process in the trace mode ends. The X-ray diagnostic apparatus 100 according to the second embodiment performs the same process as the X-ray diagnostic apparatus 100 according to the first embodiment after the process in the trace mode is completed. That is, the X-ray diagnostic apparatus 100 according to the second embodiment receives the position information of each image included in the parallax image group when receiving an instruction from the operator to move the position information in the depth direction in the stereoscopic image. The image is moved in each image according to the amount of movement received from the operator.

(自動トレースする手法A1の変形例)
第2の実施形態に係る位置情報制御部28は、例えば血管の分岐点においては、操作が可能な血管の候補をポップアップ表示し、表示した血管の候補の中から操作者から選択された血管に沿って位置情報を動かすようにしてもよい。
(Modification of method A1 for automatic tracing)
The position information control unit 28 according to the second embodiment pops up a candidate blood vessel that can be operated, for example, at a branch point of the blood vessel, and selects the blood vessel candidate selected by the operator from the displayed blood vessel candidates. The position information may be moved along.

図12を用いて位置情報が血管の分岐点に到達した場合の位置情報制御部28の処理動作の一例を示す。図12は、位置情報が血管の分岐点に到達した場合の位置情報制御部28の処理動作の一例を示す図である。図12に示す立体視画像において、位置情報が血管の分岐点Xに到達した場合、第2の実施形態に係る位置情報制御部28は、「右クリック」及び「左クリック」をポップアップ表示する。そして、第2の実施形態に係る位置情報制御部28は、操作者から右クリックの操作を受付けた場合、位置情報を図12中のA方向に血管中心線に沿って移動させる。また、第2の実施形態に係る位置情報制御部28は、操作者から左リックの操作を受付けた場合、位置情報を図12中のB方向に血管中心線に沿って移動させる。   FIG. 12 shows an example of the processing operation of the position information control unit 28 when the position information reaches the blood vessel branch point. FIG. 12 is a diagram illustrating an example of the processing operation of the position information control unit 28 when the position information reaches the branch point of the blood vessel. In the stereoscopic image shown in FIG. 12, when the position information reaches the branch point X of the blood vessel, the position information control unit 28 according to the second embodiment pops up “right click” and “left click”. When the position information control unit 28 according to the second embodiment receives a right click operation from the operator, the position information control unit 28 moves the position information in the direction A in FIG. 12 along the blood vessel center line. Further, the position information control unit 28 according to the second embodiment moves the position information in the B direction in FIG. 12 along the blood vessel center line when the left lick operation is received from the operator.

また、第2の実施形態に係る位置情報制御部28は、例えば血管の分岐点においては、候補となる血管の色を変えて表示するようにしてもよい。   Further, the position information control unit 28 according to the second embodiment may be displayed by changing the color of the candidate blood vessel, for example, at the branch point of the blood vessel.

また、第2の実施形態に係る位置情報制御部28は、例えば血管の分岐点においては、いずれかの血管を選択し、選択した血管に沿うように位置情報を移動してもよい。なお、この場合、第2の実施形態に係る位置情報制御部28は、操作者が観察対象とする血管とは異なる血管を選択した場合、操作者から観察対象とする血管を受付ける。   In addition, for example, the position information control unit 28 according to the second embodiment may select one of the blood vessels at the branch point of the blood vessel and move the position information along the selected blood vessel. In this case, when the operator selects a blood vessel different from the blood vessel to be observed, the position information control unit 28 according to the second embodiment accepts the blood vessel to be observed from the operator.

また、第2の実施形態に係る位置情報制御部28は、細線化処理によって血管やデバイスを視差画像群から抽出する場合を説明したが、2値化処理によって血管やデバイスを視差画像群から抽出してもよい。   Further, the position information control unit 28 according to the second embodiment has described the case where blood vessels and devices are extracted from a parallax image group by thinning processing, but blood vessels and devices are extracted from the parallax image group by binarization processing. May be.

このように第2の実施形態に係る位置情報制御部28は、細線化によって抽出した血管に沿って(血管中心線に沿って)位置情報を視差画像内で移動させる。これにより、操作者は、血管に沿って位置情報を奥行き方向へ移動する操作を容易に行うことができる。   As described above, the position information control unit 28 according to the second embodiment moves the position information in the parallax image along the blood vessel extracted by thinning (along the blood vessel center line). Thereby, the operator can easily perform an operation of moving the position information in the depth direction along the blood vessel.

(コントラストの高い物体に自動フォーカスする手法A2)
血管造影画像でもステント等のデバイスの画像でも、多くはフラットに近い背景に、コントラストの高い長細い物体が写っている画像が多い。そこで、第2の実施形態に係る位置情報制御部28は、コントラストの高い物体に自動フォーカスする手法A2において、近くのコントラストの高い物体(血管)に自動的に奥行きが合うようにする機能を更に有する。
(Method A2 for automatically focusing on an object with high contrast)
In many cases, both angiographic images and images of devices such as stents are images of long and thin objects with high contrast on a flat background. Therefore, the position information control unit 28 according to the second embodiment further has a function of automatically adjusting the depth to a nearby high-contrast object (blood vessel) in the method A2 for automatically focusing on a high-contrast object. Have.

例えば、第2の実施形態に係る位置情報制御部28は、コントラストの高い物体に自動フォーカスする機能を設定された場合、視差画像群においてコントラストの高い物体(血管やデバイス)に位置情報を自動調整する。そして、第2の実施形態に係る位置情報制御部28は、マウスの操作を操作者から受付け、受付けた移動量に応じて血管やデバイスに沿って奥行き方向に位置情報を移動させる。なお、第2の実施形態に係る位置情報制御部28は、視差画像群間の座標を対応付けた情報をパターンマッチングにより予め生成し保持する。   For example, the position information control unit 28 according to the second embodiment automatically adjusts the position information for a high-contrast object (blood vessel or device) in the parallax image group when the function for automatically focusing on a high-contrast object is set. To do. Then, the position information control unit 28 according to the second embodiment receives a mouse operation from the operator, and moves the position information in the depth direction along the blood vessel or the device according to the received movement amount. Note that the position information control unit 28 according to the second embodiment generates and holds in advance information that associates coordinates between parallax image groups by pattern matching.

図13を用いて、コントラストの高い物体に自動フォーカスする機能を設定された場合の位置情報制御部28の処理動作を説明する。図13は、コントラストの高い物体に自動フォーカスする機能を設定された場合の位置情報制御部28の処理動作の一例を示す図である。図13は、血管造影剤を投与後の心臓冠状動脈を撮影した視差画像群を示す。   The processing operation of the position information control unit 28 when the function of automatically focusing on an object with high contrast is set will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of the processing operation of the position information control unit 28 when the function of automatically focusing on an object with high contrast is set. FIG. 13 shows a group of parallax images obtained by photographing the coronary artery after administration of the angiographic agent.

図13に示すように、第2の実施形態に係る位置情報制御部28は、コントラストの高い物体に自動フォーカスする機能を設定された場合、視差画像内の画像値に基づいてコントラストを判定し、血管造影剤の投与によって視差画像内でコントラストの高い血管に位置情報を合わせる。例えば、第2の実施形態に係る位置情報制御部28は、操作者によって最初に置かれた位置情報から最も近い左眼画像のL1に位置情報を位置付けた左眼画像を生成するとともに、右眼画像のR1に位置情報を位置付けた右眼画像を生成する。ここで、左眼画像のL1と右眼画像のR1とが同じ位置を指し示す。そして、第2の実施形態に係る位置情報制御部28は、受付けた移動量に応じて、左眼画像の位置情報と右眼画像の位置情報とが同じ位置を指し示しながら、奥行き方向に位置情報を移動させた画像を生成する。   As illustrated in FIG. 13, the position information control unit 28 according to the second embodiment determines the contrast based on the image value in the parallax image when the function of automatically focusing on an object with high contrast is set, The position information is adjusted to the blood vessel having high contrast in the parallax image by administration of the angiographic contrast agent. For example, the position information control unit 28 according to the second embodiment generates a left eye image in which position information is positioned at L1 of the left eye image that is closest to the position information initially placed by the operator, and the right eye A right eye image in which position information is positioned at R1 of the image is generated. Here, L1 of the left eye image and R1 of the right eye image indicate the same position. Then, the position information control unit 28 according to the second embodiment indicates the position information in the depth direction while the position information of the left eye image and the position information of the right eye image indicate the same position according to the received movement amount. An image is generated by moving.

図13に示す立体視画像において、位置情報を手前側に移動する操作を操作者から受付けた場合、位置情報を図13中のA方向に血管中心線に沿って移動させた画像を生成する。具体的には、第2の実施形態に係る位置情報制御部28は、左眼画像において、操作者から受付けた移動量に応じて求めた座標L2に位置情報を位置付ける。続いて、第2の実施形態に係る位置情報制御部28は、左眼画像の座標L2と対応する右眼画像の座標R2をパターンマッチングによって特定する。そして第2の実施形態に係る位置情報制御部28は、右眼画像において座標R2に位置情報を位置付ける。また、第2の実施形態に係る位置情報制御部28は、図13に示す立体視画像において、位置情報を奥側に移動する操作を操作者から受付けた場合、位置情報を図13中のB方向に血管中心線に沿って移動させた画像を生成する。具体的には、第2の実施形態に係る位置情報制御部28は、左眼画像において、操作者から受付けた移動量に応じて求めた座標L3に位置情報を位置付ける。続いて、第2の実施形態に係る位置情報制御部28は、左眼画像の座標L3と対応する右眼画像の座標R3をパターンマッチングによって特定する。そして、第2の実施形態に係る位置情報制御部28は、右眼画像において座標R3に位置情報を位置付ける。   In the stereoscopic image shown in FIG. 13, when an operation for moving the position information to the near side is received from the operator, an image is generated in which the position information is moved in the direction A in FIG. 13 along the blood vessel center line. Specifically, the position information control unit 28 according to the second embodiment positions the position information at the coordinate L2 obtained according to the movement amount received from the operator in the left eye image. Subsequently, the position information control unit 28 according to the second embodiment specifies the coordinate R2 of the right eye image corresponding to the coordinate L2 of the left eye image by pattern matching. Then, the position information control unit 28 according to the second embodiment positions the position information at the coordinate R2 in the right eye image. In addition, when the position information control unit 28 according to the second embodiment receives an operation for moving the position information to the back side from the operator in the stereoscopic image illustrated in FIG. An image moved in the direction along the blood vessel center line is generated. Specifically, the position information control unit 28 according to the second embodiment positions the position information at the coordinate L3 obtained according to the movement amount received from the operator in the left eye image. Subsequently, the position information control unit 28 according to the second embodiment specifies the coordinate R3 of the right eye image corresponding to the coordinate L3 of the left eye image by pattern matching. Then, the position information control unit 28 according to the second embodiment positions the position information at the coordinate R3 in the right eye image.

また、第2の実施形態に係る位置情報制御部28は、コントラストの高い物体から位置情報が離れそうになった場合、位置情報の移動範囲をコントラストの高い物体に制限する。   In addition, the position information control unit 28 according to the second embodiment restricts the movement range of the position information to an object having a high contrast when the position information is likely to be separated from the object having a high contrast.

次に、図14を用いて、第2の実施形態に係るX線診断装置100による位置情報制御処理の手順について説明する。図14は、第2の実施形態に係るX線診断装置100による位置情報制御処理の手順を示すフローチャートである。   Next, a procedure of position information control processing by the X-ray diagnostic apparatus 100 according to the second embodiment will be described with reference to FIG. FIG. 14 is a flowchart illustrating a procedure of position information control processing by the X-ray diagnostic apparatus 100 according to the second embodiment.

図14に示すように、第2の実施形態に係るX線診断装置100は、コントラストの高い物体に自動フォーカスする機能の設定を受付けたか否かを判定する(ステップS301)。そして、第2の実施形態に係るX線診断装置100は、コントラストの高い物体に自動フォーカスする機能の設定を受付けたと判定した場合(ステップS301、Yes)、コントラストの判定を行う(ステップS302)。例えば、第2の実施形態に係るX線診断装置100は、視差画像群から血管やステント等のデバイスを抽出する。なお、第2の実施形態に係るX線診断装置100は、コントラストの高い物体に自動フォーカスする機能の設定を受付けたと判定しなかった場合(ステップS301、No)、ステップS301の判定を繰り返す。なお、ステップS303からステップS307の処理手順は、図12に示したステップS203からステップS207の処理手順と同様であるので、詳細な説明は省略する。   As illustrated in FIG. 14, the X-ray diagnostic apparatus 100 according to the second embodiment determines whether or not the setting of a function for automatically focusing on an object with high contrast has been received (step S301). If the X-ray diagnostic apparatus 100 according to the second embodiment determines that the setting of a function for automatically focusing an object with high contrast has been accepted (Yes in step S301), the X-ray diagnostic apparatus 100 determines contrast (step S302). For example, the X-ray diagnostic apparatus 100 according to the second embodiment extracts devices such as blood vessels and stents from the parallax image group. Note that the X-ray diagnostic apparatus 100 according to the second embodiment repeats the determination of Step S301 when it is not determined that the setting of the function of automatically focusing on an object with high contrast has been received (No at Step S301). Note that the processing procedure from step S303 to step S307 is the same as the processing procedure from step S203 to step S207 shown in FIG.

このように第2の実施形態に係る位置情報制御部28は、コントラストに基づいて抽出した血管に沿って(血管中心線に沿って)位置情報を視差画像内で移動させる。これにより、操作者は、血管に沿って位置情報を奥行き方向へ移動する操作を容易に行うことができる。   As described above, the position information control unit 28 according to the second embodiment moves the position information in the parallax image along the blood vessel extracted based on the contrast (along the blood vessel center line). Thereby, the operator can easily perform an operation of moving the position information in the depth direction along the blood vessel.

上述したように、第2の実施形態によれば、血管やステント等の対象物に沿って位置情報を奥行き方向に移動することができる。   As described above, according to the second embodiment, position information can be moved in the depth direction along an object such as a blood vessel or a stent.

(第3の実施形態)
図4に示したように、手術室とは離れた場所にいる医者や技師が、モニタを操作することで手術室にいる医師が観察するモニタに指示を出す場合がある。また、手術室にいる医師が観察するモニタに3Dモニタを使用する場合であっても、手術室とは離れた場所にいる医者や技師が使用するモニタに2Dモニタを使用する場合がある。そこで、第3の実施形態として、手術室とは離れた場所にいる医者や技師が2Dモニタを使用する場合に、手術室にいる医師が使用する3Dモニタに位置情報を指示する例を示す。
(Third embodiment)
As shown in FIG. 4, a doctor or engineer located away from the operating room may give an instruction to the monitor observed by the doctor in the operating room by operating the monitor. Even when a 3D monitor is used as a monitor to be observed by a doctor in the operating room, a 2D monitor may be used as a monitor used by a doctor or an engineer located away from the operating room. Therefore, as a third embodiment, an example in which position information is instructed to a 3D monitor used by a doctor in an operating room when a doctor or an engineer who is away from the operating room uses the 2D monitor will be described.

第3の実施形態に係る位置情報制御部28は、別室に設置された2Dモニタを見ている技師がマウスを操作して視差画像群中に位置情報を指定すると、手術室に設置された3Dモニタに表示される立体視画像に自動的に位置情報を表示する。視差画像群が右眼画像と左眼画像との2枚である場合を例に説明する。   The position information control unit 28 according to the third embodiment is configured such that when an engineer who views a 2D monitor installed in a separate room operates the mouse to specify position information in the parallax image group, the 3D installed in the operating room. The position information is automatically displayed on the stereoscopic image displayed on the monitor. An example will be described in which the parallax image group is a right eye image and a left eye image.

例えば、第3の実施形態に係る位置情報制御部28は、右眼画像において対象物のある位置を指し示すように位置情報を移動させる操作を別室にいる操作者から受付けた場合、パターンマッチングによって左眼画像において対応する位置に位置情報を移動させる。この結果、第3の実施形態に係る位置情報制御部28は、手術室に設置された3Dモニタにおいて位置情報を、2Dモニタで指定された位置に移動させて表示する。すなわち、第3の実施形態に係る位置情報制御部28は、対象物のある位置を指し示すように位置情報が位置付けられた右眼画像と、対象物のある位置を指し示すように位置情報が位置付けられた左眼画像とを用いて、手術室に設置された3Dモニタに、立体視画像において対象物のある位置を指し示すように位置付けられた位置情報を表示する。なお、第3の実施形態に係る位置情報制御部28は、左眼画像において対象物のある位置を指し示すように位置情報を移動させる操作を別室にいる操作者から受付けた場合、パターンマッチングによって右眼画像において対応する位置に位置情報を移動させてもよい。また、第3の実施形態に係る位置情報制御部28は、パターンマッチングを行わず、右眼画像において対象物のある位置を指し示すように位置情報を移動させる操作と左眼画像において対象物のある位置を指し示すように位置情報を移動させる操作とを操作者から受付けてもよい。   For example, when the position information control unit 28 according to the third embodiment receives an operation for moving the position information so as to indicate the position of the object in the right eye image from an operator in another room, the position information control unit 28 performs the left by pattern matching. The position information is moved to a corresponding position in the eye image. As a result, the position information control unit 28 according to the third embodiment moves the position information to the position designated by the 2D monitor and displays it on the 3D monitor installed in the operating room. That is, in the position information control unit 28 according to the third embodiment, the right eye image in which the position information is positioned so as to indicate the position where the object is located and the position information are positioned so as to indicate the position where the object is present. Using the left eye image, position information positioned to indicate the position of the object in the stereoscopic image is displayed on the 3D monitor installed in the operating room. When the position information control unit 28 according to the third embodiment receives an operation for moving the position information so as to indicate the position of the object in the left eye image from an operator in another room, the position information control unit 28 performs the right by pattern matching. The position information may be moved to a corresponding position in the eye image. In addition, the position information control unit 28 according to the third embodiment does not perform pattern matching, and there is an operation in the position of moving the position information so as to indicate the position of the object in the right eye image and the object in the left eye image. An operation for moving the position information so as to indicate the position may be received from the operator.

また、第3の実施形態に係る位置情報制御部28は、第2の実施形態で説明した「自動トレースする手法A1」と、「コントラストの高い物体に自動フォーカスする手法A2」とを併用することが可能である。例えば、第3の実施形態に係る位置情報制御部28は、別室に設置された2Dモニタを観察している操作者からトレースモードの設定を受付けた場合、視差画像群を細線化して別室の2Dモニタに表示する。そして、第3の実施形態に係る位置情報制御部28は、視差画像群において位置情報を対象物のある位置を指し示すように移動させる操作を別室にいる操作者から受付けた場合、手術室に設置された3Dモニタにおいて位置情報を、2Dモニタで指定された位置に移動させて表示する。また、第3の実施形態に係る位置情報制御部28は、手術室にいる操作者から位置情報を動かす操作を受付けた場合、対象物の近辺で位置情報を移動させる。   Further, the position information control unit 28 according to the third embodiment uses the “method A1 for automatically tracing” described in the second embodiment and the method A2 for automatically focusing on an object with high contrast in combination. Is possible. For example, when the position information control unit 28 according to the third embodiment receives the setting of the trace mode from an operator observing a 2D monitor installed in a separate room, the parallax image group is thinned and the 2D in the separate room is displayed. Display on the monitor. Then, the position information control unit 28 according to the third embodiment is installed in the operating room when an operation for moving the position information in the parallax image group so as to point to a position where the object is present is received from an operator in another room. In the 3D monitor, the position information is moved to a position designated by the 2D monitor and displayed. In addition, when the position information control unit 28 according to the third embodiment receives an operation of moving the position information from an operator in the operating room, the position information control unit 28 moves the position information in the vicinity of the object.

また、第3の実施形態に係る位置情報制御部28は、別室に設置された2Dモニタを観察している操作者からコントラストの高い物体に自動フォーカスする設定を受付けた場合、視差画像群においてコントラストの高い物体(血管やデバイス)に位置情報を自動調整する。そして、第3の実施形態に係る位置情報制御部28は、別室にいる操作者から対象物のある位置を指し示すように移動させて位置情報を表示する操作を受付けた場合、手術室に設置された3Dモニタにおいて位置情報を、2Dモニタで指定された位置に移動させて表示する。   In addition, when the position information control unit 28 according to the third embodiment receives a setting for automatically focusing an object with high contrast from an operator observing a 2D monitor installed in a separate room, the position information control unit 28 in the parallax image group The position information is automatically adjusted to objects with high height (blood vessels and devices). The position information control unit 28 according to the third embodiment is installed in the operating room when receiving an operation for displaying the position information by moving the operator so as to point to a position where the object is located from an operator in another room. In the 3D monitor, the position information is moved to a position designated by the 2D monitor and displayed.

上述したように、第3の実施形態によれば、手術室とは離れた場所にいる医者や技師が2Dモニタを使用する場合に、手術室にいる医師が使用する3Dモニタに位置情報を指示することができる。   As described above, according to the third embodiment, when a doctor or engineer who is away from the operating room uses the 2D monitor, the position information is instructed to the 3D monitor used by the doctor in the operating room. can do.

また、第2の実施形態では、血管に沿って移動させる例を説明したが、血管に限らず、他の器官等に沿って移動させてもよい。   In the second embodiment, an example of moving along a blood vessel has been described. However, the movement is not limited to a blood vessel, and may be performed along other organs.

X線診断装置100が表示する立体視画像の位置情報を移動させる例を説明したが、実施形態はこれに限定されるものではない。例えば、超音波診断装置、X線CT装置、MRI(Magnetic Resonance Imaging)等の医用画像診断装置は、自装置が収集した3次元画像データを用いて立体視画像を表示する際に、立体視画像の位置情報を移動させてもよい。また、医用画像診断装置は、自装置が収集した3次元画像データを画像表示装置に転送してもよい。すなわち、医用画像診断装置は、3次元画像データを収集する。そして、医用画像診断装置は、3次元画像データから生成された視差画像群を用いて立体視画像を表示部に3次元表示するとともに、立体視画像中における位置を示す位置情報を表示部に表示する。続いて、医用画像診断装置は、立体視画像において位置情報を奥行き方向に移動する指示を操作者から受付けた場合に、視差画像群に含まれる各画像の位置情報を、操作者から受付けた移動量に応じて各視差画像内で移動させることで、位置情報を表示部において奥行き方向に移動させる。これにより、医用画像診断装置は、立体視画像において位置を指し示す位置情報を適切に表示することができる。   Although the example which moves the positional information on the stereoscopic image which the X-ray diagnostic apparatus 100 displays was demonstrated, embodiment is not limited to this. For example, when a medical image diagnostic apparatus such as an ultrasonic diagnostic apparatus, an X-ray CT apparatus, or MRI (Magnetic Resonance Imaging) displays a stereoscopic image using three-dimensional image data collected by itself, the stereoscopic image The position information may be moved. The medical image diagnostic apparatus may transfer the three-dimensional image data collected by the own apparatus to the image display apparatus. That is, the medical image diagnostic apparatus collects three-dimensional image data. The medical image diagnostic apparatus displays a stereoscopic image on the display unit using the parallax image group generated from the three-dimensional image data, and displays position information indicating a position in the stereoscopic image on the display unit. To do. Subsequently, when the medical image diagnostic apparatus receives an instruction to move the position information in the depth direction in the stereoscopic image from the operator, the movement received from the operator is the position information of each image included in the parallax image group. By moving within each parallax image according to the amount, the position information is moved in the depth direction on the display unit. Thereby, the medical image diagnostic apparatus can appropriately display the position information indicating the position in the stereoscopic image.

また、画像表示装置は、3次元画像データから生成された視差画像群を用いて立体視画像を表示部に3次元表示するとともに、立体視画像中における位置を示す位置情報を表示部に表示する。例えば、画像表示装置は、医用画像診断装置により収集された3次元医用画像データから生成された視差画像群を用いて立体視画像を表示部に3次元表示するとともに、立体視画像中における位置を示す位置情報を表示部に表示する。そして、画像表示装置は、立体視画像において位置情報を奥行き方向に移動する指示を操作者から受付けた場合に、視差画像群に含まれる各画像の位置情報を、操作者から受付けた移動量に応じて各視差画像内で移動させることで、位置情報を表示部において奥行き方向に移動させる。これにより、画像表示装置は、立体視画像において位置を指し示す位置情報を適切に表示することができる。なお、3次元画像データは、医用画像診断装置により収集された3次元医用画像データに限定されるものではなく、医療用以外の画像データでもよい。   The image display device displays a stereoscopic image on the display unit using the parallax image group generated from the three-dimensional image data, and displays position information indicating a position in the stereoscopic image on the display unit. . For example, the image display device three-dimensionally displays a stereoscopic image on the display unit using a parallax image group generated from three-dimensional medical image data collected by the medical image diagnostic device, and positions the position in the stereoscopic image. The indicated position information is displayed on the display unit. Then, when receiving an instruction from the operator to move the position information in the depth direction in the stereoscopic image, the image display device sets the position information of each image included in the parallax image group to the amount of movement received from the operator. Accordingly, the position information is moved in the depth direction on the display unit by being moved within each parallax image. Thereby, the image display apparatus can appropriately display position information indicating a position in the stereoscopic image. Note that the three-dimensional image data is not limited to the three-dimensional medical image data collected by the medical image diagnostic apparatus, and may be non-medical image data.

以上述べた少なくとも一つの実施形態の画像表示装置及び医用画像診断装置によれば、立体視画像において位置を指し示す位置情報を適切に表示することができる。   According to the image display device and the medical image diagnostic device of at least one embodiment described above, position information indicating a position in a stereoscopic image can be appropriately displayed.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

27 表示制御部
28 位置情報制御部
100 X線診断装置
27 Display Control Unit 28 Position Information Control Unit 100 X-ray Diagnostic Device

Claims (5)

3次元画像データから生成された視差画像群を用いて立体視画像を表示部に3次元表示するとともに、当該立体視画像において位置を指し示す位置情報を当該表示部に3次元表示する表示制御部と、
前記位置情報を前記立体視画像において奥行き方向に移動する指示を操作者から受付けた場合に、前記視差画像群に含まれる各視差画像内の位置情報を、前記操作者から受付けた移動量に応じて各視差画像内で移動させる位置情報制御部と
を備えたことを特徴とする画像表示装置。
A display control unit that three-dimensionally displays a stereoscopic image on a display unit using a parallax image group generated from three-dimensional image data, and three-dimensionally displays position information indicating a position in the stereoscopic image on the display unit; ,
When an instruction to move the position information in the depth direction in the stereoscopic image is received from an operator, the position information in each parallax image included in the parallax image group depends on the amount of movement received from the operator. An image display device comprising: a position information control unit that moves within each parallax image.
前記位置情報制御部は、操作者の視点位置と、操作者から受け付けた移動量と、各視差画像内において位置情報が位置付けられている座標とに基づいて、各視差画像内において位置情報の移動先となる座標を算出する
ことを特徴とする請求項1に記載の画像表示装置。
The position information control unit moves the position information in each parallax image based on the viewpoint position of the operator, the movement amount received from the operator, and the coordinates where the position information is positioned in each parallax image. The image display device according to claim 1, wherein the coordinates to be used are calculated.
前記位置情報制御部は、前記視差画像群のうち少なくともひとつの視差画像を細線化処理することにより当該視差画像から対象物を抽出し、抽出した前記対象物上若しくは前記対象物の近辺で前記位置情報を移動させる
ことを特徴とする請求項1又は2に記載の画像表示装置。
The position information control unit extracts an object from the parallax image by thinning at least one parallax image in the parallax image group, and the position on the extracted object or in the vicinity of the object The image display apparatus according to claim 1, wherein the information is moved.
前記位置情報制御部は、前記視差画像群のうち少なくともひとつの視差画像におけるコントラストに基づいて当該視差画像から対象物を抽出し、抽出した前記対象物上若しくは前記対象物の近辺で前記位置情報を移動させる
ことを特徴とする請求項1又は2に記載の画像表示装置。
The position information control unit extracts an object from the parallax image based on a contrast in at least one parallax image in the parallax image group, and obtains the position information on the extracted object or in the vicinity of the object. The image display device according to claim 1, wherein the image display device is moved.
3次元画像データを収集する収集部と、
前記3次元画像データから生成された視差画像群を用いて立体視画像を表示部に3次元表示するとともに、当該立体視画像において位置を指し示す位置情報を当該表示部に表示する表示制御部と、
前記位置情報を前記立体視画像において奥行き方向に移動する指示を操作者から受付けた場合に、前記視差画像群に含まれる各視差画像内の位置情報を、前記操作者から受付けた移動量に応じて各視差画像内で移動させる位置情報制御部と
を備えたことを特徴とする医用画像診断装置。
A collection unit for collecting three-dimensional image data;
A display control unit that three-dimensionally displays a stereoscopic image on a display unit using a parallax image group generated from the three-dimensional image data, and displays position information indicating a position in the stereoscopic image on the display unit;
When an instruction to move the position information in the depth direction in the stereoscopic image is received from an operator, the position information in each parallax image included in the parallax image group depends on the amount of movement received from the operator. And a position information control unit that moves within each parallax image.
JP2012269748A 2012-12-10 2012-12-10 Image display apparatus and medical image diagnostic apparatus Active JP6245801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012269748A JP6245801B2 (en) 2012-12-10 2012-12-10 Image display apparatus and medical image diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012269748A JP6245801B2 (en) 2012-12-10 2012-12-10 Image display apparatus and medical image diagnostic apparatus

Publications (2)

Publication Number Publication Date
JP2014113325A true JP2014113325A (en) 2014-06-26
JP6245801B2 JP6245801B2 (en) 2017-12-13

Family

ID=51169982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012269748A Active JP6245801B2 (en) 2012-12-10 2012-12-10 Image display apparatus and medical image diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP6245801B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61253042A (en) * 1985-04-30 1986-11-10 株式会社島津製作所 Stereoscopic x-ray tv fluoroscopic apparatus
JP2001042259A (en) * 1999-08-04 2001-02-16 Hitachi Medical Corp Medical image display device
JP2005137455A (en) * 2003-11-04 2005-06-02 Olympus Corp Insertion supporting system
JP2011211528A (en) * 2010-03-30 2011-10-20 Fa System Engineering Kk 3d caption creation device
JP2012170669A (en) * 2011-02-23 2012-09-10 Fujifilm Corp Device and method for displaying radiation image
JP2012213605A (en) * 2011-03-31 2012-11-08 Fujifilm Corp Stereoscopic display apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61253042A (en) * 1985-04-30 1986-11-10 株式会社島津製作所 Stereoscopic x-ray tv fluoroscopic apparatus
JP2001042259A (en) * 1999-08-04 2001-02-16 Hitachi Medical Corp Medical image display device
JP2005137455A (en) * 2003-11-04 2005-06-02 Olympus Corp Insertion supporting system
JP2011211528A (en) * 2010-03-30 2011-10-20 Fa System Engineering Kk 3d caption creation device
JP2012170669A (en) * 2011-02-23 2012-09-10 Fujifilm Corp Device and method for displaying radiation image
JP2012213605A (en) * 2011-03-31 2012-11-08 Fujifilm Corp Stereoscopic display apparatus

Also Published As

Publication number Publication date
JP6245801B2 (en) 2017-12-13

Similar Documents

Publication Publication Date Title
KR102471422B1 (en) Method and system for non-contact control in surgical environment
US20230266823A1 (en) Robotic system providing user selectable actions associated with gaze tracking
CN110199357B (en) Augmented reality interventional system providing background overlay
CN109394252B (en) Method for operating a medical imaging device and medical imaging device
JP6242569B2 (en) Medical image display apparatus and X-ray diagnostic apparatus
EP2830506B1 (en) Direct control of x-ray focal spot movement
US10255721B2 (en) Multicamera device tracking
JP6279341B2 (en) X-ray diagnostic equipment
EP2750607B1 (en) Live 3d x-ray viewing
JP5486437B2 (en) Stereoscopic image display method and apparatus
US10863960B2 (en) X-ray diagnosis apparatus
US9968320B2 (en) X-ray diagnostic apparatus
US20120249533A1 (en) Stereoscopic display apparatus
JP2014133103A (en) X-ray diagnostic apparatus and medical image display apparatus
JP6245801B2 (en) Image display apparatus and medical image diagnostic apparatus
EP2541947A2 (en) Medical image processing apparatus
JP7264242B2 (en) X-ray imaging device and method of using the X-ray imaging device
CN112397189A (en) Medical guiding device and using method thereof
JP2012200539A (en) Stereovision image display device and stereovision image display method
JP2013106695A (en) Radiographic image display apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151015

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R150 Certificate of patent or registration of utility model

Ref document number: 6245801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350