JP2014113209A - X-ray diagnostic apparatus and control program - Google Patents

X-ray diagnostic apparatus and control program Download PDF

Info

Publication number
JP2014113209A
JP2014113209A JP2012267565A JP2012267565A JP2014113209A JP 2014113209 A JP2014113209 A JP 2014113209A JP 2012267565 A JP2012267565 A JP 2012267565A JP 2012267565 A JP2012267565 A JP 2012267565A JP 2014113209 A JP2014113209 A JP 2014113209A
Authority
JP
Japan
Prior art keywords
operator
image
unit
information
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012267565A
Other languages
Japanese (ja)
Other versions
JP6139118B2 (en
Inventor
Shunpei Ohashi
俊平 大橋
Satoru Oishi
悟 大石
Yoshimasa Kobayashi
由昌 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2012267565A priority Critical patent/JP6139118B2/en
Publication of JP2014113209A publication Critical patent/JP2014113209A/en
Application granted granted Critical
Publication of JP6139118B2 publication Critical patent/JP6139118B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an X-ray diagnostic apparatus improving manipulative efficiency by simplifying operation by an operator: and to provide a control program.SOLUTION: An X-ray diagnostic apparatus includes a gaze point acquisition unit 211 and an object selection unit 212. The gaze point acquisition unit 211 acquires information on a gaze point of an operator. The object selection unit 212 selects a function to be executed and an object for the function to be executed on the basis of the information on the gaze point of the operator which is acquired by the gaze point acquisition unit 211.

Description

本発明の実施形態は、X線診断装置及び制御プログラムに関する。   Embodiments described herein relate generally to an X-ray diagnostic apparatus and a control program.

従来、X線診断装置においては、さまざまな機能を実行するために、それぞれの機能にわりついたボタンが操作される。例えば、画像の再生、拡大、3D画像の回転、透視、撮影、画像保存などのさまざまな機能が、各機能をわりつけたボタンの操作(ハード、ソフト)によって実行される。ここで、このような機能は、機能が適用される対象が複数ある場合には、当該機能の実行に先立って適用される対象が選択される。   Conventionally, in an X-ray diagnostic apparatus, buttons associated with each function are operated in order to execute various functions. For example, various functions such as image reproduction, enlargement, 3D image rotation, fluoroscopy, shooting, and image storage are executed by operating buttons (hardware and software) that are assigned to each function. Here, when there are a plurality of targets to which the function is applied, such a function is selected before the execution of the function.

例えば、複数のモニタにそれぞれ画像が表示されている場合に、画像の拡大や、画像保存などの機能を適用する場合には、まず、どのモニタに表示されている画像に対して機能を適用するか選択された後に、画像の拡大や、画像保存などが各ボタンの操作によって実行される。しかしながら、上述した従来技術においては、操作者による操作が煩雑であり、手技の効率を低下させる場合があった。   For example, when an image is displayed on each of a plurality of monitors, when applying a function such as image enlargement or image storage, the function is first applied to an image displayed on which monitor. After the selection is made, image enlargement, image saving, and the like are executed by operating each button. However, in the above-described prior art, the operation by the operator is complicated, and the efficiency of the procedure may be reduced.

特開2012−179281号公報JP 2012-179281 A

本発明が解決しようとする課題は、操作者による操作を簡略化させて、手技の効率を向上させることを可能にするX線診断装置及び制御プログラムを提供することである。   The problem to be solved by the present invention is to provide an X-ray diagnostic apparatus and a control program that can simplify the operation by the operator and improve the efficiency of the procedure.

一実施形態のX線診断装置は、取得手段と、選択手段とを備える。取得手段は、操作者の注視点の情報を取得する。選択手段は、前記取得手段によって取得された前記操作者の注視点の情報に基づいて、実行する機能と当該実行する機能の対象とを選択する。   The X-ray diagnostic apparatus according to one embodiment includes an acquisition unit and a selection unit. The acquisition unit acquires information on the operator's gaze point. The selection unit selects a function to be executed and a target of the function to be executed based on the operator's gaze information acquired by the acquisition unit.

図1は、第1の実施形態に係るX線診断装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of the X-ray diagnostic apparatus according to the first embodiment. 図2は、第1の実施形態に係るX線診断装置を用いた手技の一例を示す図である。FIG. 2 is a diagram illustrating an example of a procedure using the X-ray diagnostic apparatus according to the first embodiment. 図3は、第1の実施形態に係るシステム制御部の構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of the system control unit according to the first embodiment. 図4は、第1の実施形態に係る注視点取得部による処理の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of processing by the gazing point acquisition unit according to the first embodiment. 図5は、第1の実施形態に係るマウスカーソル設定部による処理の一例を示す図である。FIG. 5 is a diagram illustrating an example of processing performed by the mouse cursor setting unit according to the first embodiment. 図6は、第1の実施形態に係る領域選択部による処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of processing performed by the region selection unit according to the first embodiment. 図7は、第1の実施形態に係る機能選択部による処理の一例を示す図である。FIG. 7 is a diagram illustrating an example of processing performed by the function selection unit according to the first embodiment. 図8は、第1の実施形態に係る機能選択部による処理の一例を示す図である。FIG. 8 is a diagram illustrating an example of processing performed by the function selection unit according to the first embodiment. 図9は、第1の実施形態に係る機能選択部による時間情報を用いた処理の一例を示す図である。FIG. 9 is a diagram illustrating an example of processing using time information by the function selection unit according to the first embodiment. 図10は、第1の実施形態に係る操作者識別部による処理の一例を示す図である。FIG. 10 is a diagram illustrating an example of processing performed by the operator identification unit according to the first embodiment. 図11は、第1の実施形態に係るX線診断装置による処理の手順を示すフローチャートである。FIG. 11 is a flowchart illustrating a processing procedure performed by the X-ray diagnostic apparatus according to the first embodiment.

(第1の実施形態)
まず、第1の実施形態に係るX線診断装置100の構成について説明する。図1は、第1の実施形態に係るX線診断装置100の構成の一例を示す図である。図1に示すように、第1の実施形態に係るX線診断装置100は、高電圧発生器11と、X線管12と、X線絞り装置13と、天板14と、Cアーム15と、X線検出器16とを備える。また、第1の実施形態に係るX線診断装置100は、Cアーム回転・移動機構17と、天板移動機構18と、Cアーム・天板機構制御部19と、絞り制御部20と、システム制御部21と、入力部22と、表示部23とを備える。また、第1の実施形態に係るX線診断装置100は、画像データ生成部24と、画像データ記憶部25と、画像処理部26と、視線認識装置30とを備える。
(First embodiment)
First, the configuration of the X-ray diagnostic apparatus 100 according to the first embodiment will be described. FIG. 1 is a diagram illustrating an example of a configuration of an X-ray diagnostic apparatus 100 according to the first embodiment. As shown in FIG. 1, the X-ray diagnostic apparatus 100 according to the first embodiment includes a high voltage generator 11, an X-ray tube 12, an X-ray diaphragm device 13, a top plate 14, and a C arm 15. And an X-ray detector 16. In addition, the X-ray diagnostic apparatus 100 according to the first embodiment includes a C-arm rotation / movement mechanism 17, a top board movement mechanism 18, a C-arm / top board mechanism control section 19, an aperture control section 20, and a system. A control unit 21, an input unit 22, and a display unit 23 are provided. The X-ray diagnostic apparatus 100 according to the first embodiment includes an image data generation unit 24, an image data storage unit 25, an image processing unit 26, and a line-of-sight recognition device 30.

高電圧発生器11は、システム制御部21による制御のもと、高電圧を発生し、発生した高電圧をX線管12に供給する。X線管12は、高電圧発生器11から供給される高電圧を用いて、X線を発生する。X線絞り装置13は、絞り制御部20による制御のもと、X線管12が発生したX線を、被検体Pの関心領域に対して選択的に照射されるように絞り込む。例えば、X線絞り装置13は、スライド可能な4枚の絞り羽根を有する。X線絞り装置13は、絞り制御部20による制御のもと、これらの絞り羽根をスライドさせることで、X線管12が発生したX線を絞り込んで被検体Pに照射させる。天板14は、被検体Pを載せるベッドであり、図示しない寝台の上に配置される。なお、被検体Pは、X線診断装置100に含まれない。   The high voltage generator 11 generates a high voltage under the control of the system control unit 21 and supplies the generated high voltage to the X-ray tube 12. The X-ray tube 12 generates X-rays using the high voltage supplied from the high voltage generator 11. The X-ray diaphragm 13 narrows the X-ray generated by the X-ray tube 12 under the control of the diaphragm controller 20 so as to selectively irradiate the region of interest of the subject P. For example, the X-ray diaphragm device 13 has four slidable diaphragm blades. The X-ray diaphragm 13 narrows down the X-rays generated by the X-ray tube 12 and irradiates the subject P under the control of the diaphragm controller 20 by sliding these diaphragm blades. The top 14 is a bed on which the subject P is placed, and is placed on a bed (not shown). The subject P is not included in the X-ray diagnostic apparatus 100.

X線検出器16は、被検体Pを透過したX線を検出する。例えば、X線検出器16は、マトリックス状に配列された検出素子を有する。各検出素子は、被検体Pを透過したX線を電気信号に変換して蓄積し、蓄積した電気信号を画像データ生成部24に送信する。   The X-ray detector 16 detects X-rays that have passed through the subject P. For example, the X-ray detector 16 has detection elements arranged in a matrix. Each detection element converts the X-rays that have passed through the subject P into electrical signals and accumulates them, and transmits the accumulated electrical signals to the image data generation unit 24.

Cアーム15は、X線管12、X線絞り装置13及びX線検出器16を保持する。X線管12及びX線絞り装置13とX線検出器16とは、Cアーム15により被検体Pを挟んで対向するように配置される。   The C arm 15 holds the X-ray tube 12, the X-ray diaphragm device 13, and the X-ray detector 16. The X-ray tube 12 and the X-ray diaphragm 13 and the X-ray detector 16 are arranged so as to face each other with the subject P sandwiched by the C arm 15.

Cアーム回転・移動機構17は、Cアーム15を回転及び移動させるための機構であり、天板移動機構18は、天板14を移動させるための機構である。Cアーム・天板機構制御部19は、システム制御部21による制御の下、Cアーム回転・移動機構17及び天板移動機構18を制御することで、Cアーム15の回転や移動、天板14の移動を調整する。絞り制御部20は、システム制御部21による制御の下、X線絞り装置13が有する絞り羽根の開度を調整することで、被検体Pに対して照射されるX線の照射範囲を制御する。   The C-arm rotating / moving mechanism 17 is a mechanism for rotating and moving the C-arm 15, and the top board moving mechanism 18 is a mechanism for moving the top board 14. The C arm / top plate mechanism control unit 19 controls the C arm rotation / movement mechanism 17 and the top plate movement mechanism 18 under the control of the system control unit 21, thereby rotating and moving the C arm 15 and the top plate 14. Adjust the movement. The aperture control unit 20 controls the irradiation range of the X-rays irradiated to the subject P by adjusting the aperture of the aperture blades of the X-ray aperture device 13 under the control of the system control unit 21. .

画像データ生成部24は、X線検出器16によってX線から変換された電気信号を用いて画像データを生成し、生成した画像データを画像データ記憶部25に格納する。例えば、画像データ生成部24は、X線検出器16から受信した電気信号に対して、電流・電圧変換やA(Analog)/D(Digital)変換、パラレル・シリアル変換を行い、画像データを生成する。   The image data generation unit 24 generates image data using the electrical signal converted from the X-rays by the X-ray detector 16, and stores the generated image data in the image data storage unit 25. For example, the image data generation unit 24 performs current / voltage conversion, A (Analog) / D (Digital) conversion, and parallel / serial conversion on the electrical signal received from the X-ray detector 16 to generate image data. To do.

画像データ記憶部25は、画像データ生成部24によって生成された画像データを記憶する。画像処理部26は、画像データ記憶部25が記憶する画像データに対して各種画像処理を行う。例えば、画像処理部26は、被検体Pに対してX線を曝射して収集された撮影データを用いて、被検体のX線透過像である撮影画像を生成する。また、画像処理部26は、撮影データを収集する場合よりも低い線量で収集された透視データを用いて透視画像を生成する。なお、透視画像は、画像データ記憶部25によって記憶されるとは限らない。なお、本実施形態においては、撮影データと透視データとをまとめて画像データと記す場合がある。また、本実施形態においては、撮影画像と透視画像とをまとめて画像と記載する場合がある。   The image data storage unit 25 stores the image data generated by the image data generation unit 24. The image processing unit 26 performs various image processing on the image data stored in the image data storage unit 25. For example, the image processing unit 26 generates a captured image that is an X-ray transmission image of the subject using the captured data collected by exposing the subject P to X-rays. In addition, the image processing unit 26 generates a fluoroscopic image using fluoroscopic data collected at a lower dose than when photographing data is collected. Note that the fluoroscopic image is not always stored in the image data storage unit 25. In the present embodiment, the photographing data and the perspective data may be collectively referred to as image data. In the present embodiment, the captured image and the fluoroscopic image may be collectively described as an image.

入力部22は、X線診断装置100を操作する医師や技師などの操作者から各種指示を受け付ける。例えば、入力部22は、マウス、キーボード、ボタン、トラックボール、ジョイスティック、X線フットスイッチなどを有する。入力部22は、操作者から受け付けた指示を、システム制御部21に転送する。例えば、入力部22は、各種機能(例えば、画像の再生、拡大、3D画像の回転、透視、撮影、画像保存など)がわりあてられた複数のボタンを有し、操作者によって各ボタンが例えば押下されることで、各種指示を受付ける。また、入力部22は、透視又は撮影に係るX線の曝射のオン・オフをきりかえるX線フットスイッチを備え、X線の曝射の指示を受付ける。   The input unit 22 receives various instructions from an operator such as a doctor or engineer who operates the X-ray diagnostic apparatus 100. For example, the input unit 22 includes a mouse, a keyboard, a button, a trackball, a joystick, an X-ray foot switch, and the like. The input unit 22 transfers the instruction received from the operator to the system control unit 21. For example, the input unit 22 has a plurality of buttons to which various functions (for example, image reproduction, enlargement, 3D image rotation, fluoroscopy, shooting, image storage, etc.) are assigned, and each button is pressed by the operator, for example. As a result, various instructions are accepted. The input unit 22 includes an X-ray foot switch that switches on / off of X-ray exposure related to fluoroscopy or radiography, and receives an X-ray exposure instruction.

表示部23は、操作者の指示を受け付けるためのGUI(Graphical User Interface)や、例えば、撮影画像や透視画像などの画像を表示する。例えば、表示部23は、複数のモニタを有し、各モニタにそれぞれ撮影画像や透視画像などを表示する。また、例えば、表示部23の複数のモニタは、それぞれが透視画像専用モニタ、或いは、撮影画像専用モニタとして設定される。   The display unit 23 displays a GUI (Graphical User Interface) for receiving an instruction from the operator, or an image such as a captured image or a fluoroscopic image. For example, the display unit 23 includes a plurality of monitors, and displays a captured image, a fluoroscopic image, and the like on each monitor. For example, each of the plurality of monitors of the display unit 23 is set as a fluoroscopic image dedicated monitor or a captured image dedicated monitor.

システム制御部21は、X線診断装置100全体の動作を制御する。例えば、システム制御部21は、入力部22から転送された操作者の指示に従って高電圧発生器11を制御し、X線管12に供給する電圧を調整することで、被検体Pに対して照射されるX線量やON/OFFを制御する。また、例えば、システム制御部21は、操作者の指示に従ってCアーム・天板機構制御部19を制御し、Cアーム15の回転や移動、天板14の移動を調整する。また、例えば、システム制御部21は、操作者の指示に従って絞り制御部20を制御し、X線絞り装置13が有する絞り羽根の開度を調整することで、被検体Pに対して照射されるX線の照射範囲を制御する。   The system control unit 21 controls the operation of the entire X-ray diagnostic apparatus 100. For example, the system control unit 21 controls the high voltage generator 11 in accordance with an operator instruction transferred from the input unit 22 and adjusts the voltage supplied to the X-ray tube 12, thereby irradiating the subject P. Controls X-ray dose and ON / OFF. Further, for example, the system control unit 21 controls the C arm / top plate mechanism control unit 19 in accordance with an instruction from the operator, and adjusts the rotation and movement of the C arm 15 and the movement of the top plate 14. Further, for example, the system control unit 21 controls the aperture control unit 20 in accordance with an instruction from the operator, and adjusts the aperture of the aperture blades of the X-ray aperture device 13 to irradiate the subject P. The X-ray irradiation range is controlled.

また、システム制御部21は、操作者の指示に従って、画像データ生成部24による画像データ生成処理や、画像処理部26による画像処理、あるいは解析処理などを制御する。また、システム制御部21は、操作者の指示を受け付けるためのGUIや画像データ記憶部25が記憶する画像(例えば、撮影画像や透視画像)などを、表示部23のモニタに表示するように制御する。   Further, the system control unit 21 controls image data generation processing by the image data generation unit 24, image processing by the image processing unit 26, analysis processing, and the like according to an instruction from the operator. Further, the system control unit 21 performs control so that a GUI for receiving an instruction from the operator, an image stored in the image data storage unit 25 (for example, a captured image or a fluoroscopic image), and the like are displayed on the monitor of the display unit 23. To do.

視線認識装置30は、X線診断装置100を操作する医師や技術者などの操作者の視線情報を取得する。具体的には、視線認識装置30は、操作者の視線がX線診断装置100のどこに向けられているかを示す情報を取得する。例えば、視線認識装置30は、操作者を撮影するためのカメラなどである。なお、視線情報に関する詳細は後述する。   The line-of-sight recognition apparatus 30 acquires line-of-sight information of an operator such as a doctor or engineer who operates the X-ray diagnostic apparatus 100. Specifically, the line-of-sight recognition device 30 acquires information indicating where the operator's line of sight is directed on the X-ray diagnostic apparatus 100. For example, the line-of-sight recognition device 30 is a camera for photographing the operator. Details regarding the line-of-sight information will be described later.

以上、第1の実施形態に係るX線診断装置100の構成の一例を説明した。かかる構成のもと、X線診断装置100は、以下、詳細に説明するシステム制御部21による制御によって、操作者による操作を簡略化させて、手技の効率を向上させることを可能にする。図2は、第1の実施形態に係るX線診断装置100を用いた手技の一例を示す図である。第1の実施形態に係るX線診断装置100においては、例えば、図2に示すように、操作者によって複数のモニタが参照されながら、インターベンションなどの手技が実行される。   The example of the configuration of the X-ray diagnostic apparatus 100 according to the first embodiment has been described above. With this configuration, the X-ray diagnostic apparatus 100 can improve the efficiency of the procedure by simplifying the operation by the operator under the control of the system control unit 21 described in detail below. FIG. 2 is a diagram illustrating an example of a procedure using the X-ray diagnostic apparatus 100 according to the first embodiment. In the X-ray diagnostic apparatus 100 according to the first embodiment, for example, as shown in FIG. 2, a procedure such as intervention is performed while referring to a plurality of monitors by an operator.

ここで、操作者は、X線フットスイッチを踏むことでCアーム15から被検体Pに対してX線を曝射させてモニタに透視画像を表示させ、表示された画像を見ながらカテーテルを操作する。さらに、操作者は、スイッチ類を操作することで、画像を拡大したり、保存したりする。このような手技においては、操作者は、なるべく手足を動かさずに装置の機能を利用したいため、より簡潔な操作系が望まれている。   Here, the operator operates the catheter while stepping on the X-ray foot switch to cause the C-arm 15 to emit X-rays to the subject P and display a fluoroscopic image on the monitor. To do. Further, the operator enlarges or saves the image by operating the switches. In such a procedure, since the operator wants to use the function of the apparatus without moving the limbs as much as possible, a simpler operation system is desired.

従来のX線診断装置においては、画像を拡大したり、保存したりする際に、それに先立って操作対象となる画像が表示されたモニタを選択し、選択したモニタに表示された画像の中からさらに操作対象となる画像を選択することが求められる。また、X線フットスイッチなどは、普段視野の外にあるため、操作者は、正しいスイッチを踏むために、足で探ったり、目視で確認したりしなければならず、手技とは直接関係のない余分な動作をすることとなる。   In a conventional X-ray diagnostic apparatus, when an image is enlarged or saved, a monitor on which an image to be operated is displayed is selected prior to the image, and the image displayed on the selected monitor is selected. Furthermore, it is required to select an image to be operated. Also, since X-ray footswitches are usually out of the field of view, the operator must search with their feet or visually confirm the correct switch, which is directly related to the procedure. There will be no extra behavior.

そこで、第1の実施形態に係るX線診断装置100は、図2に示すように、例えば、視線認識装置30としてのカメラを用いて操作者が注視する注視点を検出し、検出した注視点に基づく機能を実行することで、X線診断装置100に備えられた機能を実行する際の操作を簡略化させて、手技の効率を向上させる。   Therefore, as shown in FIG. 2, the X-ray diagnostic apparatus 100 according to the first embodiment detects, for example, a gaze point that the operator gazes using a camera as the gaze recognition apparatus 30 and detects the gaze point that is detected. By executing the function based on the above, the operation at the time of executing the function provided in the X-ray diagnostic apparatus 100 is simplified, and the efficiency of the procedure is improved.

図3は、第1の実施形態に係るシステム制御部21の構成の一例を示す図である。図3に示すように、例えば、システム制御部21は、注視点取得部211と、対象選択部212と、マウスカーソル設定部213と、通知部214と、操作者識別部215とを備え、視線認識装置30によって取得される操作者の視線情報に基づいて、各種処理を実行する。   FIG. 3 is a diagram illustrating an example of the configuration of the system control unit 21 according to the first embodiment. As illustrated in FIG. 3, for example, the system control unit 21 includes a gazing point acquisition unit 211, a target selection unit 212, a mouse cursor setting unit 213, a notification unit 214, and an operator identification unit 215. Various processes are executed based on the operator's line-of-sight information acquired by the recognition device 30.

注視点取得部211は、操作者の注視点の情報を取得する。具体的には、注視点取得部211は、表示部23、表示部23にて表示された画像、画像における領域、又は、保持装置が操作者によって注視された情報を注視点の情報として取得する。より具体的には、注視点取得部211は、表示部23が備えるモニタ、モニタに表示された画像、画像における領域、又は、X線検出器16及びX線管を保持する保持装置(例えばCアーム)に対して操作者が注視した注視点の情報を取得する。   The gaze point acquisition unit 211 acquires information on the operator's gaze point. Specifically, the gazing point acquisition unit 211 acquires, as the gazing point information, the display unit 23, the image displayed on the display unit 23, the area in the image, or the information on which the holding device is gazed by the operator. . More specifically, the gazing point acquisition unit 211 includes a monitor provided in the display unit 23, an image displayed on the monitor, a region in the image, or a holding device that holds the X-ray detector 16 and the X-ray tube (for example, C Information on the gazing point that the operator gazes at (arm) is acquired.

以下、注視点の取得の一例を説明する。例えば、注視点取得部211は、視線認識装置30により取得された情報から、操作者の視線(視線方向)を検出する。このとき、注視点取得部211は、操作者の目の位置を検出する処理も実行する。そして、注視点取得部211は、検出した操作者の視線方向と目の位置とを用いて操作者の視点を検出する。例えば、注視点取得部211は、表示部23の表示面に表示された医用画像上において、操作者が注視する点である注視点を検出する。なお、注視点取得部211による視線検出方法、および、視点検出方法としては、例えば、強膜(白目)と角膜(黒目)との光の反射率の差を利用して眼球運動を測定するリンバストラッキング法(強膜反射法)等、従来から用いられているあらゆる方法を適用することができる。   Hereinafter, an example of acquisition of a gaze point will be described. For example, the gazing point acquisition unit 211 detects the operator's line of sight (gaze direction) from the information acquired by the line-of-sight recognition device 30. At this time, the gazing point acquisition unit 211 also executes a process of detecting the position of the operator's eyes. The gazing point acquisition unit 211 detects the operator's viewpoint using the detected operator's line-of-sight direction and eye position. For example, the gaze point acquisition unit 211 detects a gaze point that is a point on which the operator gazes on the medical image displayed on the display surface of the display unit 23. Note that, as a gaze detection method and a viewpoint detection method by the gazing point acquisition unit 211, for example, a limbus that measures eye movement using a difference in light reflectance between the sclera (white eye) and the cornea (black eye). Any conventionally used method such as a tracking method (sclera reflection method) can be applied.

以下、視線認識装置30としてカメラを用いる場合を一例に挙げて説明する。図4は、第1の実施形態に係る注視点取得部211による処理の一例を説明するための図である。ここで、図4においては、表示部23がモニタA〜モニタEまでの5つのモニタを備え、注視点取得部211がモニタ上の注視点を取得する場合について示す。また、図4に示すx軸及びy軸は、各モニタの表示面上に張られた直交座標系を構成する座標軸である。そして、これらの座標は、視線認識装置30としてのカメラ及び注視点取得部211によって検出可能な視線の領域に配置される。これらの座標の情報は、予め図示しない記憶部などに記憶される。なお、座標の情報は、画像データ記憶部25に記憶される場合であってもよい。   Hereinafter, a case where a camera is used as the line-of-sight recognition device 30 will be described as an example. FIG. 4 is a diagram for explaining an example of processing by the gazing point acquisition unit 211 according to the first embodiment. Here, FIG. 4 shows a case where the display unit 23 includes five monitors from monitor A to monitor E, and the gazing point acquisition unit 211 acquires the gazing point on the monitor. Further, the x axis and the y axis shown in FIG. 4 are coordinate axes that constitute an orthogonal coordinate system stretched on the display surface of each monitor. These coordinates are arranged in a line-of-sight area detectable by the camera as the line-of-sight recognition device 30 and the gazing point acquisition unit 211. Information on these coordinates is stored in advance in a storage unit (not shown). Note that the coordinate information may be stored in the image data storage unit 25.

例えば、注視点取得部211は、図4に示すように、視線認識装置30としてのカメラによって撮像された操作者の映像から操作者の視線を検出し、検出した視線とモニタの表示面との交点1を視線情報として算出する。一例を挙げると、注視点取得部211は、図示しない記憶部、或いは、画像データ記憶部25に記憶されたモニタの表示面に張られた座標の情報を参照して、x軸、y軸で張られた表示面の座標系上において視線と表示面との交点1の座標を算出する。そして、注視点取得部211は、x軸、y軸で張られた座標系上で、算出した交点1の座標に対応するモニタBの情報を座標の情報から取得して、対象選択部212に出力する。   For example, as shown in FIG. 4, the gazing point acquisition unit 211 detects the operator's line of sight from the operator's image captured by the camera as the line-of-sight recognition device 30, and detects the detected line of sight and the display surface of the monitor. The intersection 1 is calculated as line-of-sight information. For example, the gazing point acquisition unit 211 refers to the information on the coordinates stretched on the display surface of the monitor stored in the storage unit (not shown) or the image data storage unit 25, and uses the x-axis and y-axis. The coordinates of the intersection 1 of the line of sight and the display surface are calculated on the coordinate system of the stretched display surface. Then, the gazing point acquisition unit 211 acquires the information of the monitor B corresponding to the calculated coordinates of the intersection 1 on the coordinate system stretched by the x-axis and the y-axis from the coordinate information, and sends it to the target selection unit 212. Output.

上述した例では、操作者の注視点がどのモニタ上にあるかを取得する場合について説明した。次に、モニタにて表示されているどの画像上に注視点があるかを取得する場合について説明する。かかる場合には、上記した例と同様に、注視点取得部211は、視線認識装置30としてのカメラによって撮像された操作者の映像から操作者の視線を検出し、検出した視線とモニタの表示面との交点1の座標を算出する。そして、注視点取得部211は、交点1の座標に対応するモニタBにおける画素において、算出した座標に対応する画素の情報を取得し、取得した画素にて表示されている画像の情報を取得する。   In the above-described example, the case where the monitor on which the operator's gazing point is obtained has been described. Next, a case where it is acquired which image displayed on the monitor has the gazing point will be described. In such a case, similarly to the above-described example, the gazing point acquisition unit 211 detects the operator's line of sight from the operator's image captured by the camera as the line-of-sight recognition device 30, and displays the detected line of sight and the monitor. The coordinates of intersection 1 with the surface are calculated. Then, the gazing point acquisition unit 211 acquires information on the pixel corresponding to the calculated coordinate in the pixel on the monitor B corresponding to the coordinate of the intersection 1 and acquires information on the image displayed on the acquired pixel. .

具体的には、注視点取得部211は、取得した画素にて表示されている画像の情報と、当該画像において、取得した画素にて表示されている位置(領域)の情報を取得する。例えば、注視点取得部211は、取得した画素に対応する画像の位置として、当該位置の画像における座標を取得する。そして、注視点取得部211は、取得した座標の情報を対象選択部212に出力する。   Specifically, the gazing point acquisition unit 211 acquires information on the image displayed on the acquired pixel and information on the position (area) displayed on the acquired pixel in the image. For example, the gazing point acquisition unit 211 acquires the coordinates of the image at the position as the position of the image corresponding to the acquired pixel. Then, the gaze point acquisition unit 211 outputs the acquired coordinate information to the target selection unit 212.

次に、保持装置における注視点を取得する場合について説明する。上述したモニタ及び画像の例では、表示部23(モニタ)の表示面の平面と視線との交点を、表示面上に張られた任意の2次元座標系における点座標として表すための座標情報を用いて注視点を取得する場合について説明した。保持装置における注視点を取得する場合には、例えば、視線認識装置30によって取得された操作者の視点の位置を世界座標系の位置座標で表すための座標情報を用いる。かかる場合には、世界座標系における保持装置の位置座標が予め座標情報に含まれる。なお、この座標情報も図示しない記憶部、或いは、画像データ記憶部25によって記憶される。   Next, a case where a gazing point in the holding device is acquired will be described. In the example of the monitor and the image described above, coordinate information for representing the intersection of the plane of the display surface of the display unit 23 (monitor) and the line of sight as point coordinates in an arbitrary two-dimensional coordinate system stretched on the display surface. The case where a gazing point is acquired by using it has been described. When acquiring the gaze point in the holding device, for example, coordinate information for representing the position of the operator's viewpoint acquired by the line-of-sight recognition device 30 in the position coordinate of the world coordinate system is used. In such a case, the position information of the holding device in the world coordinate system is included in advance in the coordinate information. This coordinate information is also stored in a storage unit (not shown) or the image data storage unit 25.

例えば、注視点取得部211は、視線認識装置30としてのカメラによって撮像された操作者の映像から操作者の視線を検出し、検出した視線と世界座標系において位置座標を有する対象物との交点に保持装置の位置座標が含まれているか否かにより、保持装置における注視点を取得する。すなわち、注視点取得部211は、検出した視線と世界座標系において位置座標を有する対象物との交点が保持装置である場合に、交点の座標を保持装置上の注視点として取得する。   For example, the gazing point acquisition unit 211 detects the operator's line of sight from the operator's image captured by the camera as the line-of-sight recognition device 30, and the intersection of the detected line of sight and the object having position coordinates in the world coordinate system The gazing point in the holding device is acquired depending on whether or not the position coordinates of the holding device are included in. That is, the gazing point acquisition unit 211 acquires the coordinates of the intersection point as a gazing point on the holding device when the intersection point between the detected line of sight and the object having position coordinates in the world coordinate system is the holding device.

図3に戻って、対象選択部212は、モニタ選択部212aと、領域選択部212bと、保持装置選択部212cと、機能選択部212dとを備え、注視点取得部211によって取得された操作者の注視点の情報に基づいて、実行する機能と当該実行する機能の対象とを選択する。具体的には、対象選択部212は、注視点の情報として注視点取得部211によって取得された、表示部23、表示部23にて表示された画像、画像における領域、又は、保持装置の情報に基づいて、実行する機能と当該実行する機能の対象とを選択する。   Returning to FIG. 3, the object selection unit 212 includes a monitor selection unit 212 a, a region selection unit 212 b, a holding device selection unit 212 c, and a function selection unit 212 d, and the operator acquired by the gaze point acquisition unit 211. The function to be executed and the target of the function to be executed are selected on the basis of the information of the gazing point. Specifically, the target selection unit 212 acquires the display unit 23, the image displayed on the display unit 23, the area in the image, or the information on the holding device acquired by the gazing point acquisition unit 211 as gazing point information. Based on the above, the function to be executed and the target of the function to be executed are selected.

以下、注視点取得部211によって取得される注視点を用いることで操作を簡略化させる例を説明する。まず、上述したように、X線診断装置においては、画像を拡大したり、保存したりする際に、それに先立って操作対象となる画像が表示されたモニタを選択することが求められる。しかしながら、本実施形態に係るX線診断装置100では、上述した選択処理を省略することができる。   Hereinafter, an example in which the operation is simplified by using the gazing point acquired by the gazing point acquisition unit 211 will be described. First, as described above, in an X-ray diagnostic apparatus, when an image is enlarged or stored, it is required to select a monitor on which an image to be operated is displayed prior to that. However, in the X-ray diagnostic apparatus 100 according to the present embodiment, the above-described selection process can be omitted.

かかる場合には、操作者は、拡大や保存を実行したい画像が表示されたモニタを見るだけでよい。すなわち、操作者が画像の表示されたモニタを見ることより、注視点取得部211が操作者の注視点を取得し、操作者の見ているモニタの情報を取得する。モニタ選択部212aは、注視点取得部211によって情報が取得されたモニタを操作対象のモニタとして選択する。これにより、操作者は、モニタを選択する操作を行うことなく、スイッチを操作するだけでよい。   In such a case, the operator only needs to look at the monitor on which the image to be enlarged or saved is displayed. That is, when the operator looks at the monitor on which the image is displayed, the gazing point acquisition unit 211 acquires the operator's gazing point, and acquires information on the monitor that the operator is viewing. The monitor selection unit 212a selects the monitor whose information is acquired by the gazing point acquisition unit 211 as the monitor to be operated. Thus, the operator need only operate the switch without performing an operation of selecting the monitor.

一例を挙げると。操作者は、X線動画像が表示されたモニタを見て、マップ画像保存が割り当てられたスイッチを操作するだけで、モニタに表示された画像をマップ画像として保存することができる。なお、マップ画像とは、X線動画像のうち、特定のフレームを静止画として別に記録した画像である。マップ画像は、主に、画像を一時的に保存する場合などに利用される。これに対して、恒久的に保存する画像としてフォト画像が知られている。   Take an example. The operator can save the image displayed on the monitor as a map image simply by looking at the monitor on which the X-ray moving image is displayed and operating a switch assigned to save the map image. A map image is an image in which a specific frame is recorded as a still image among X-ray moving images. The map image is mainly used when the image is temporarily stored. On the other hand, a photo image is known as an image to be permanently stored.

このように、本実施形態に係るX線診断装置100は、操作者によるモニタの選択操作を省略することができる。なお、上記した例では、操作対象として選択されたモニタの画像をマップ画像保存する場合について説明したが、これはあくまでも一例である。すなわち、操作対象として選択されたモニタに対してその他種々の機能を実行させることが可能である。   Thus, the X-ray diagnostic apparatus 100 according to the present embodiment can omit the monitor selection operation by the operator. In the above-described example, the case where the monitor image selected as the operation target is stored as a map image has been described, but this is merely an example. That is, various other functions can be executed on the monitor selected as the operation target.

例えば、操作者は、GUIを操作したいモニタを見ることで、当該モニタにマウスカーソルを移動させることも可能である。図5は、第1の実施形態に係るマウスカーソル設定部213による処理の一例を示す図である。図5に示すように、表示部23が複数のモニタを有する。かかる場合には、1つのマウスカーソルがモニタ間を移動しながら利用される。操作者は、GUIを操作したい場合には、まず、マウスカーソルがどのモニタ上にあるのか探しだし、GUIを操作したいモニタに移動させる必要がある。   For example, the operator can move the mouse cursor to the monitor by looking at the monitor on which the GUI is to be operated. FIG. 5 is a diagram illustrating an example of processing performed by the mouse cursor setting unit 213 according to the first embodiment. As shown in FIG. 5, the display unit 23 includes a plurality of monitors. In such a case, one mouse cursor is used while moving between monitors. When the operator wants to operate the GUI, it is necessary to first find out which monitor the mouse cursor is on and move it to the monitor on which the GUI is to be operated.

そこで、本実施形態に係るX線診断装置100においては、図5に示すように、操作者がGUIを操作したいモニタを見るだけで、マウスカーソルを当該モニタに移動させることができる。すなわち、図5に示すように、操作者がGUIを操作することを所望するモニタCを見ると、注視点取得部211が操作者の注視点を取得し、操作者の見ているモニタCの情報を取得する。マウスカーソル設定部213は、注視点取得部211によって取得されたモニタC内にマウスカーソル2を移動させる。   Therefore, in the X-ray diagnostic apparatus 100 according to the present embodiment, as shown in FIG. 5, the mouse cursor can be moved to the monitor simply by looking at the monitor on which the operator wants to operate the GUI. That is, as shown in FIG. 5, when the operator looks at the monitor C desiring to operate the GUI, the gazing point acquisition unit 211 acquires the gazing point of the operator, and the monitor C that the operator is viewing is displayed. Get information. The mouse cursor setting unit 213 moves the mouse cursor 2 into the monitor C acquired by the gazing point acquisition unit 211.

ここで、マウスカーソル設定部213は、マウスカーソルを移動させる場合に、移動先のモニタ内において最後に配置されていた位置にマウスカーソルを移動させる。すなわち、マウスカーソル設定部213は、モニタ間でマウスカーソルを移動させる場合に、最後にマウスカーソルが配置された座標を取得して、図示しない記憶部に記憶させる。そして、マウスカーソル設定部213は、移動前のモニタに再度マウスカーソルを移動させる場合に、記憶部から最後にマウスカーソルが配置された座標の情報を取得して、取得した座標にマウスカーソルを移動させる。   Here, when moving the mouse cursor, the mouse cursor setting unit 213 moves the mouse cursor to the position that was last arranged in the destination monitor. That is, when the mouse cursor setting unit 213 moves the mouse cursor between monitors, the mouse cursor setting unit 213 acquires the coordinates at which the mouse cursor is finally placed and stores it in a storage unit (not shown). Then, when the mouse cursor setting unit 213 moves the mouse cursor again to the monitor before the movement, the mouse cursor setting unit 213 acquires information on the coordinates where the mouse cursor was last arranged from the storage unit, and moves the mouse cursor to the acquired coordinates. Let

なお、マウスカーソルが最後に配置された位置をモニタごとに記憶して、記憶した位置へのマウスカーソルの移動は、例えば、操作者がスイッチなどを用いてモニタを選択した場合にも適用される。すなわち、操作者が手動でモニタを選択した際にも、マウスカーソル設定部213は、選択されたモニタにマウスカーソルをそのモニタにおける最後の位置に移動させるとともに、移動前のモニタにおけるマウスカーソルの最後の位置を記憶させる。これにより、マウスカーソルを探して、モニタに移動させるという操作を省略することができる。   Note that the position where the mouse cursor was last placed is stored for each monitor, and the movement of the mouse cursor to the stored position is also applied when the operator selects a monitor using a switch or the like, for example. . That is, even when the operator manually selects a monitor, the mouse cursor setting unit 213 moves the mouse cursor to the last position on the monitor on the selected monitor, and at the end of the mouse cursor on the monitor before the movement. Remember the position. Thereby, the operation of searching for the mouse cursor and moving it to the monitor can be omitted.

上述した例では、操作者がモニタを見ることで操作対象となるモニタを選択する場合について説明した。次に、選択されたモニタ内に表示された画像を見ることで、当該画像を操作対象として選択する場合について説明する。図6は、第1の実施形態に係る領域選択部212bによる処理の一例を示す図である。   In the example described above, the case where the operator selects a monitor to be operated by looking at the monitor has been described. Next, a case where the image displayed on the selected monitor is viewed and the image is selected as an operation target will be described. FIG. 6 is a diagram illustrating an example of processing performed by the region selection unit 212b according to the first embodiment.

例えば、操作者は、図6に示すように、画像A1が表示された領域を見ることにより、注視点取得部211が操作者の注視点を取得し、操作者の見ている領域の情報(座標情報)を取得する。領域選択部212bは、注視点取得部211によって情報が取得された領域を操作対象の領域として選択する。これにより、操作者は、領域を選択する操作を行うことなく、スイッチを操作するだけでよい。なお、操作者の注視点と領域とは予め対応付けて図示しない記憶部に記憶される。すなわち、図示しない記憶部は、画像などを表示させる領域ごとに、それに含まれる座標の情報を記憶する。従って、領域選択部212bは、図示しない記憶部によって記憶される領域ごとの座標の情報を参照して、注視点取得部211によって取得された操作者の座標から、当該座標が含まれる領域の情報を取得する。   For example, as shown in FIG. 6, the operator looks at the area where the image A <b> 1 is displayed, so that the gazing point acquisition unit 211 acquires the gazing point of the operator, and information ( Get coordinate information). The area selection unit 212b selects an area for which information has been acquired by the gazing point acquisition unit 211 as an operation target area. Thus, the operator only needs to operate the switch without performing an operation of selecting an area. Note that the operator's gazing point and the area are associated with each other and stored in a storage unit (not shown). That is, a storage unit (not shown) stores information on coordinates included in each area where an image or the like is displayed. Therefore, the area selection unit 212b refers to the coordinate information for each area stored in the storage unit (not shown), and the information on the area including the coordinates from the operator's coordinates acquired by the gazing point acquisition unit 211. To get.

一例を挙げると、操作者は、画像A1を見て、画像回転や拡大などが割り当てられたスイッチ類を操作するだけで、画像A1を回転させたり、拡大させたりすることができる。ここで、仮に画像A2に対しても同様の操作を実行したい場合には、操作者は、画像A2を見るだけで画像A2を操作対象とすることができる。すなわち、操作者は、画像A2を見て同じスイッチ類を操作するだけで、画像A2を回転させたり、拡大させたりすることができる。   For example, the operator can rotate or enlarge the image A1 only by operating the switches to which the image rotation or enlargement is assigned while viewing the image A1. Here, if it is desired to perform the same operation on the image A2, the operator can set the image A2 as an operation target simply by looking at the image A2. That is, the operator can rotate or enlarge the image A2 simply by viewing the image A2 and operating the same switches.

このように、本実施形態に係るX線診断装置100は、操作者による領域(画像)の選択操作を省略することができる。なお、上記した例では、操作対象として選択された画像を回転、拡大する場合について説明したが、これはあくまでも一例である。すなわち、操作対象として選択された領域(画像)に対してその他種々の機能を実行させることが可能である。   As described above, the X-ray diagnostic apparatus 100 according to the present embodiment can omit an area (image) selection operation by the operator. In the example described above, the case where the image selected as the operation target is rotated and enlarged has been described, but this is merely an example. That is, various other functions can be executed on the region (image) selected as the operation target.

ここで、本実施形態に係るX線診断装置100は、Cアームなどの保持装置を操作対象として選択することも可能である。例えば、操作者が図2に示すCアーム15を見ることにより、注視点取得部211が操作者の注視点を取得し、操作者の見ている保持装置の情報を取得する。保持装置選択部212cは、注視点取得部211によって情報が取得された保持装置をアームの回転や移動などの操作対象として選択する。これにより、操作者は、例えば、Cアーム15を選択する操作を行うことなく、回転や移動が割り当てられたスイッチを操作するだけでよい。   Here, the X-ray diagnostic apparatus 100 according to the present embodiment can also select a holding device such as a C-arm as an operation target. For example, when the operator looks at the C-arm 15 illustrated in FIG. 2, the gazing point acquisition unit 211 acquires the operator's gazing point, and acquires information on the holding device that the operator is viewing. The holding device selection unit 212c selects the holding device whose information has been acquired by the gazing point acquisition unit 211 as an operation target such as rotation or movement of the arm. Thus, for example, the operator only has to operate a switch assigned to rotation or movement without performing an operation of selecting the C-arm 15.

これにより、操作者は、保持装置を選択する手順を省略することができ、さらに、単一の操作系を複数の保持装置(例えば、CアームとΩアーム)に対して適用できるので、CアームとΩアームとでそれぞれ異なるスイッチ類を選択する手順も省略することができる。例えば、操作者は、操作したいアーム(例えば、Cアーム)を見ることで、操作系の対象を見たアーム(例えば、Cアーム)に設定する。そして、操作者は、操作系を操作することで、操作の対象が設定されたアーム(例えば、Cアーム)を操作することができる。   Thereby, the operator can omit the procedure of selecting the holding device, and further, a single operation system can be applied to a plurality of holding devices (for example, C arm and Ω arm). The procedure for selecting different switches for the Ω arm and the Ω arm can also be omitted. For example, the operator sets the arm (for example, C arm) in which the target of the operation system is viewed by looking at the arm (for example, C arm) to be operated. And the operator can operate the arm (for example, C arm) by which the operation target was set by operating the operation system.

上述したように、本実施形態に係るX線診断装置100は、操作対象となる保持装置を見ることで選択することができる。言い換えると、操作者によって見られていない保持装置は、操作対象ではないと設定することも可能である。これにより、操作者が間違ってスイッチを操作した場合でも、操作自体を無効にすることができ、手技の効率をさらに向上することができるとともに、安全性を向上させることも可能である。   As described above, the X-ray diagnostic apparatus 100 according to the present embodiment can be selected by looking at the holding device to be operated. In other words, the holding device that is not seen by the operator can be set not to be operated. As a result, even if the operator mistakenly operates the switch, the operation itself can be invalidated, the efficiency of the procedure can be further improved, and the safety can be improved.

次に、操作者によって注視されたものの関連によって操作対象や機能が選択される場合について説明する。具体的には、入力部22が、操作者によって操作を受付けることで、第1の対象に第1の機能を実行させる。そして、機能選択部212dが、注視点取得部211によって取得された操作者の注視点の情報に関連づいた機能に関する情報に基づいて、操作者から受付けた操作に応じて入力部22によって実行される第1の対象に対する第1の機能を第2の機能に変更する。   Next, a description will be given of a case where an operation target or a function is selected depending on the relationship of what is watched by the operator. Specifically, the input unit 22 causes the first target to execute the first function by receiving an operation by the operator. Then, the function selection unit 212d is executed by the input unit 22 according to the operation received from the operator based on the information regarding the function related to the operator's gaze information acquired by the gaze point acquisition unit 211. The first function for the first target is changed to the second function.

図7は、第1の実施形態に係る機能選択部212dによる処理の一例を示す図である。図7においては、モニタAが透視画像専用モニタであり、モニタBが撮影画像専用モニタである場合について示す。例えば、操作者が、図7の(A)に示すように、透視画像専用モニタであるモニタAを見ると、機能選択部212dは、X線フットスイッチを透視用X線フットスイッチに変更する。ここで、操作者がX線フットスイッチを踏むと、透視用のX線が曝射される。   FIG. 7 is a diagram illustrating an example of processing performed by the function selection unit 212d according to the first embodiment. FIG. 7 shows a case where the monitor A is a fluoroscopic image monitor and the monitor B is a captured image monitor. For example, as shown in FIG. 7A, when the operator looks at monitor A, which is a fluoroscopic image dedicated monitor, the function selection unit 212d changes the X-ray foot switch to a fluoroscopic X-ray foot switch. Here, when the operator steps on the X-ray foot switch, fluoroscopic X-rays are exposed.

一方、操作者が、図7の(B)に示すように、撮影画像専用モニタであるモニタBを見ると、機能選択部212dは、X線フットスイッチを撮影用X線フットスイッチに変更する。ここで、操作者がX線フットスイッチを踏むと、撮影用のX線が曝射される。これにより、X線フットスイッチを目視で確認することなく、同じスイッチを透視用及び撮影用の両方に使用することができる。   On the other hand, as shown in FIG. 7B, when the operator looks at monitor B, which is a captured image dedicated monitor, the function selection unit 212d changes the X-ray foot switch to an X-ray foot switch for imaging. Here, when the operator steps on the X-ray foot switch, X-rays for photographing are exposed. Thereby, the same switch can be used for both fluoroscopy and radiography without visually confirming the X-ray foot switch.

また、第1の実施形態に係るX線診断装置100は、画像に関連づいた情報に基づいて、機能を変更することも可能である。図8は、第1の実施形態に係る機能選択部212dによる処理の一例を示す図である。図8においては、画像A1が透視画像であり、画像A2が撮影画像である場合について示す。例えば、操作者が、図8の(A)に示すように、透視画像である画像A1を見ると、機能選択部212dは、X線フットスイッチを透視用X線フットスイッチに変更する。ここで、操作者がX線フットスイッチを踏むと、透視用のX線が曝射される。   Further, the X-ray diagnostic apparatus 100 according to the first embodiment can change the function based on information associated with an image. FIG. 8 is a diagram illustrating an example of processing performed by the function selection unit 212d according to the first embodiment. FIG. 8 shows a case where the image A1 is a perspective image and the image A2 is a captured image. For example, as shown in FIG. 8A, when the operator views an image A1 that is a fluoroscopic image, the function selection unit 212d changes the X-ray foot switch to a fluoroscopic X-ray foot switch. Here, when the operator steps on the X-ray foot switch, fluoroscopic X-rays are exposed.

一方、操作者が、図8の(B)に示すように、撮影画像である画像A2を見ると、機能選択部212dは、X線フットスイッチを撮影用X線フットスイッチに変更する。ここで、操作者がX線フットスイッチを踏むと、撮影用のX線が曝射される。これにより、X線フットスイッチを目視で確認することなく、同じスイッチを透視用及び撮影用の両方に使用することができる。   On the other hand, as shown in FIG. 8B, when the operator views an image A2 that is a captured image, the function selection unit 212d changes the X-ray foot switch to an X-ray foot switch for imaging. Here, when the operator steps on the X-ray foot switch, X-rays for photographing are exposed. Thereby, the same switch can be used for both fluoroscopy and radiography without visually confirming the X-ray foot switch.

上述した例では、モニタ及び画像に関連する機能に基づいて、X線フットスイッチを透視用と撮影用に切替える場合について説明したが、これはあくまでも一例である。例えば、通常視野の外にあるようなスイッチであれば、それを適用することにより効果を得ることが出来る。   In the example described above, the case where the X-ray foot switch is switched between fluoroscopy and radiographing based on the functions related to the monitor and the image has been described, but this is only an example. For example, if the switch is outside the normal field of view, the effect can be obtained by applying it.

次に、操作者によって注視されている時間によって処理を実行する例について説明する。例えば、機能選択部212dは、注視点取得部211によって取得された操作者の注視点の情報が画像における領域であった場合に、当該操作者の注視点が画像における領域に位置する時間を測定し、所定の時間が経過したことを条件に、領域に対して所定の機能を実行する。   Next, an example will be described in which processing is executed according to the time being watched by the operator. For example, when the operator's gazing point information acquired by the gazing point acquisition unit 211 is an area in the image, the function selection unit 212d measures the time when the operator's gazing point is located in the area in the image. Then, a predetermined function is executed on the area on condition that a predetermined time has elapsed.

図9は、第1の実施形態に係る機能選択部212dによる時間情報を用いた処理の一例を示す図である。図9においては、操作者によって画像が注視され、注視された時間が所定の時間を経過したことを条件に、画像が拡大される場合について示す。例えば、操作者が図9の(A)に示すように、画像A1の領域R1内を観察している場合に、機能選択部212dは、モニタA内に残り時間「0:00:20」を表示させる。   FIG. 9 is a diagram illustrating an example of processing using time information by the function selection unit 212d according to the first embodiment. FIG. 9 shows a case where the image is magnified on the condition that the operator gazes at the image and the gaze time has passed a predetermined time. For example, when the operator is observing the area R1 of the image A1 as shown in FIG. 9A, the function selection unit 212d displays the remaining time “0:00:20” in the monitor A. Display.

ここで、操作者が画像A1の領域R1を例えば20秒以上継続して観察した場合には、機能選択部212dは、図9の(B)に示すように、画像A1の領域全体に領域R1を拡大した画像を表示させる。これにより、操作者は、一切の操作なしに、関心領域を拡大表示させることが可能である。なお、所定の時間経過後の機能は、画像の拡大に限られず、操作者によって任意に設定することができる。例えば、X線絞り装置13や、X線減弱フィルター(図示無し)の操作を実行するように設定してもよい。   Here, when the operator observes the region R1 of the image A1 continuously for, for example, 20 seconds or longer, the function selection unit 212d covers the region R1 over the entire region of the image A1, as shown in FIG. 9B. Display an enlarged image of. As a result, the operator can enlarge and display the region of interest without any operation. The function after a predetermined time has elapsed is not limited to image enlargement, and can be arbitrarily set by the operator. For example, you may set so that operation of the X-ray aperture apparatus 13 or an X-ray attenuation filter (not shown) may be performed.

また、本実施形態に係るX線診断装置100は、操作者が注視している間、所定の機能を継続して実行させることも可能である。例えば、操作者が注視している間、動画像を再生するように設定することも可能である。かかる場合には、操作者が動画像を表示するモニタの表示領域を注視すると、注視点取得部211が、注視点を取得する。機能選択部212dは、注視点取得部211によって取得された注視点の情報に基づいて、動画像を再生させる。   In addition, the X-ray diagnostic apparatus 100 according to the present embodiment can continuously execute a predetermined function while the operator is gazing. For example, it is possible to set to play a moving image while the operator is gazing. In such a case, when the operator gazes at the display area of the monitor that displays the moving image, the gazing point acquisition unit 211 acquires the gazing point. The function selection unit 212d reproduces the moving image based on the gazing point information acquired by the gazing point acquisition unit 211.

ここで、注視点取得部211は、操作者の注視点の情報を継続して取得し、注視点がモニタの表示領域から外れたか否かを判定する。機能選択部212dは、注視点取得部211によって操作者の注視点がモニタの表示領域から外れたと判定された場合に、動画像の再生を停止させる。これにより、操作者は、操作なしに動画像を再生させることができる。さらに、視線を離している間は動画像の再生は停止するので、再度、見た場合には、停止した箇所から観察を続けることが可能である。   Here, the gazing point acquisition unit 211 continuously acquires information on the operator's gazing point, and determines whether or not the gazing point is out of the display area of the monitor. The function selection unit 212d stops the reproduction of the moving image when the gaze point acquisition unit 211 determines that the operator's gaze point is out of the display area of the monitor. Thereby, the operator can reproduce a moving image without an operation. Furthermore, since the reproduction of the moving image is stopped while the line of sight is separated, when viewed again, it is possible to continue observation from the stopped position.

上述したように、第1の実施形態に係るX線診断装置100は、注視点取得部211が操作者の注視点を取得して、対象選択部212に含まれる各部が操作対象を選択する。ここで、第1の実施形態に係るX線診断装置100においては、対象選択部212に含まれる各部によって操作対象が選択されると、選択されたモニタや動画を操作者に通知させることができる。   As described above, in the X-ray diagnostic apparatus 100 according to the first embodiment, the gazing point acquisition unit 211 acquires the operator's gazing point, and each unit included in the target selection unit 212 selects an operation target. Here, in the X-ray diagnosis apparatus 100 according to the first embodiment, when an operation target is selected by each unit included in the target selection unit 212, the operator can be notified of the selected monitor or video. .

図3に戻って、通知部214は、対象選択部212に含まれる各部によって操作対象が選択されると、例えば、光や音によって操作対象を操作者に通知する。一例を挙げると、通知部214は、モニタ選択部212aによって操作対象となるモニタが選択されると、選択されたモニタを光などで通知する。通知部214は、同様に、対象選択部212に含まれる各部によって操作対象が選択されると、選択された操作対象すべてについて、操作者に通知することが可能である。   Returning to FIG. 3, when an operation target is selected by each unit included in the target selection unit 212, the notification unit 214 notifies the operator of the operation target by light or sound, for example. For example, when the monitor to be operated is selected by the monitor selection unit 212a, the notification unit 214 notifies the selected monitor with light or the like. Similarly, when an operation target is selected by each unit included in the target selection unit 212, the notification unit 214 can notify the operator of all the selected operation targets.

上述した実施形態では、視線認識装置30の前にいる操作者が一人である場合について説明した。以下、複数の人間の中から操作者を識別する場合について説明する。具体的には、操作者識別部215は、視線認識装置30の前にいる複数人の中から操作者を識別する。図10は、第1の実施形態に係る操作者識別部215による処理の一例を示す図である。   In the above-described embodiment, the case where there is one operator in front of the line-of-sight recognition device 30 has been described. Hereinafter, a case where an operator is identified from a plurality of humans will be described. Specifically, the operator identifying unit 215 identifies an operator from among a plurality of people in front of the line-of-sight recognition device 30. FIG. 10 is a diagram illustrating an example of processing performed by the operator identification unit 215 according to the first embodiment.

例えば、操作者識別部215は、図10に示すように、視線認識装置30としてのカメラの前の所定の位置に立った人物を操作者として識別する。図10において、ユーザU1がいる位置を所定の位置とし、ユーザU2がユーザU1と入れ替わることで、操作者識別部215は、ユーザU2を操作者として識別する。これにより、視線認識装置30は、ユーザU2を操作者として視線の情報を取得する。   For example, as shown in FIG. 10, the operator identifying unit 215 identifies a person standing at a predetermined position in front of the camera as the line-of-sight recognition device 30 as an operator. In FIG. 10, the position where the user U1 is set as a predetermined position, and the user U2 is replaced with the user U1, so that the operator identifying unit 215 identifies the user U2 as the operator. As a result, the line-of-sight recognition device 30 acquires line-of-sight information with the user U2 as an operator.

また、ユーザU2がユーザU1と入れ替わった後、手を挙げるなどして操作者を識別させるようにしてもよい。さらに、所定のジェスチャを実行した人物を操作者とするように設定することも可能である。かかる場合には、操作者識別部215は、所定のジェスチャを認識する機能を有する。   Further, after the user U2 is replaced with the user U1, the operator may be identified by raising a hand. Furthermore, it is possible to set the person who has performed the predetermined gesture as the operator. In such a case, the operator identification unit 215 has a function of recognizing a predetermined gesture.

或いは、予めユーザ登録しておき、ユーザU2が登録されたユーザ一覧から自分を選択するようにしてもよい。また、顔認識機能によって操作者をユーザU2に切替えるようにしてもよい。   Alternatively, user registration may be performed in advance, and the user U2 may be selected from the registered user list. Further, the operator may be switched to the user U2 by the face recognition function.

次に、第1の実施形態に係るX線診断装置100の処理の手順について、図11を用いて説明する。図11は、第1の実施形態に係るX線診断装置100による処理の手順を示すフローチャートである。   Next, a processing procedure of the X-ray diagnostic apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating a processing procedure performed by the X-ray diagnostic apparatus 100 according to the first embodiment.

操作者の注視点によって操作対象や機能を選択するモードである注視点モードであると、視線認識装置30が、操作者の視線情報を取得する(ステップS101)。そして、注視点取得部211が、視線情報に基づいて、操作者の注視点を検出する(ステップS102)。   In the gazing point mode, which is a mode for selecting an operation target and a function according to the gazing point of the operator, the sight line recognition device 30 acquires the sight line information of the operator (step S101). Then, the gazing point acquisition unit 211 detects the gazing point of the operator based on the line-of-sight information (step S102).

その後、対象選択部212に含まれる各部が注視点に基づいて、対象を選択する(ステップS103)。そして、操作者によって操作が実行されると、X線診断装置100は、選択した対象に対して機能を実行する(ステップS104)。   After that, each unit included in the target selection unit 212 selects a target based on the gaze point (step S103). And if operation is performed by the operator, the X-ray diagnostic apparatus 100 will perform a function with respect to the selected object (step S104).

上述したように、第1の実施形態によれば、注視点取得部211は、操作者の注視点の情報を取得する。対象選択部212は、注視点取得部211によって取得された操作者の注視点の情報に基づいて、実行する機能と当該実行する機能の対象とを選択する。従って、第1の実施形態に係るX線診断装置100は、操作者による選択処理を省略することができ、操作を簡略化させて、手技の効率を向上させることを可能にする。   As described above, according to the first embodiment, the gazing point acquisition unit 211 acquires information on the operator's gazing point. The target selection unit 212 selects a function to be executed and a target of the function to be executed based on the operator's gaze point information acquired by the gaze point acquisition unit 211. Therefore, the X-ray diagnostic apparatus 100 according to the first embodiment can omit the selection process by the operator, simplify the operation, and improve the efficiency of the procedure.

また、第1の実施形態によれば、注視点取得部211は、表示部23、表示部23にて表示された画像、画像における領域、又は、保持装置が操作者によって注視された情報を注視点の情報として取得する。そして、対象選択部212は、注視点の情報として注視点取得部211によって取得された、表示部23、表示部23にて表示された画像、画像における領域、又は、保持装置の情報に基づいて、実行する機能と当該実行する機能の対象とを選択する。従って、第1の実施形態に係るX線診断装置100は、X線診断装置100全体を操作対象の候補として設定することができ、幅広い操作を簡略化させることを可能にする。   Further, according to the first embodiment, the gazing point acquisition unit 211 pays attention to the display unit 23, the image displayed on the display unit 23, the area in the image, or the information on which the holding device is watched by the operator. Obtained as viewpoint information. Then, the target selection unit 212 is based on the display unit 23, the image displayed on the display unit 23, the area in the image, or the information on the holding device acquired by the gazing point acquisition unit 211 as gazing point information. The function to be executed and the target of the function to be executed are selected. Therefore, the X-ray diagnostic apparatus 100 according to the first embodiment can set the entire X-ray diagnostic apparatus 100 as a candidate for an operation target, and can simplify a wide range of operations.

また、第1の実施形態によれば、入力部22は、操作者によって操作を受付けることで、第1の対象に第1の機能を実行させる。対象選択部212は、注視点取得部211によって取得された操作者の注視点の情報に関連づいた機能に関する情報に基づいて、操作者から受付けた操作に応じて入力部22によって実行される第1の対象に対する第1の機能を第2の機能に変更する。従って、第1の実施形態に係るX線診断装置100は、操作対象を同一機能で関連付けることができ、効率よく操作を簡略化させることを可能にする。   Further, according to the first embodiment, the input unit 22 causes the first target to execute the first function by receiving an operation by the operator. The object selection unit 212 is executed by the input unit 22 according to an operation received from the operator based on information related to the function related to the operator's gaze information acquired by the gaze point acquisition unit 211. The first function for one object is changed to the second function. Therefore, the X-ray diagnostic apparatus 100 according to the first embodiment can associate the operation targets with the same function, and can simplify the operation efficiently.

また、第1の実施形態によれば、表示部23が複数のモニタを有する場合に、マウスカーソル設定部213は、注視点取得部211によって取得された操作者の注視点の情報が表示部23における複数のモニタのうちの1つであった場合に、注視点の情報が取得されたモニタ内にマウスカーソルを移動させる。従って、第1の実施形態に係るX線診断装置100は、操作者がマウスカーソルを探す手間を省略することを可能にする。   Further, according to the first embodiment, when the display unit 23 has a plurality of monitors, the mouse cursor setting unit 213 indicates that the information of the operator's gaze point acquired by the gaze point acquisition unit 211 is the display unit 23. If the monitor is one of a plurality of monitors, the mouse cursor is moved into the monitor from which the gazing point information is acquired. Therefore, the X-ray diagnostic apparatus 100 according to the first embodiment makes it possible to save the operator from searching for the mouse cursor.

また、第1の実施形態によれば、マウスカーソル設定部213は、マウスカーソルを移動させる場合に、移動先の表示面内において最後に配置されていた位置にマウスカーソルを移動させる。従って、第1の実施形態に係るX線診断装置100は、利用されやすいGUI付近にマウスカーソルを配置することを可能にする。   Further, according to the first embodiment, when the mouse cursor setting unit 213 moves the mouse cursor, the mouse cursor setting unit 213 moves the mouse cursor to the position that was last arranged in the display screen of the movement destination. Therefore, the X-ray diagnostic apparatus 100 according to the first embodiment makes it possible to place a mouse cursor near the GUI that is easy to use.

また、第1の実施形態によれば、対象選択部212は、注視点取得部211によって取得された操作者の注視点の情報が画像における領域であった場合に、当該操作者の注視点が画像における領域に位置する時間を測定し、所定の時間が経過したことを条件に、領域に対して所定の機能を実行する。従って、第1の実施形態に係るX線診断装置100は、ほぼ自動で所定の機能を実行させることを可能にする。   Further, according to the first embodiment, when the information of the operator's gaze point acquired by the gaze point acquisition unit 211 is an area in the image, the target selection unit 212 determines that the gaze point of the operator is The time in the region in the image is measured, and a predetermined function is executed on the region on condition that the predetermined time has passed. Therefore, the X-ray diagnostic apparatus 100 according to the first embodiment can execute a predetermined function almost automatically.

また、第1の実施形態によれば、操作者識別部215は、複数人の中から操作者を識別する。注視点取得部211は、操作者識別部215によって識別された操作者の注視点の情報を取得する。従って、第1の実施形態に係るX線診断装置100は、正確に操作者の視線を取得することを可能にする。   Further, according to the first embodiment, the operator identifying unit 215 identifies an operator from among a plurality of people. The gaze point acquisition unit 211 acquires information on the gaze point of the operator identified by the operator identification unit 215. Therefore, the X-ray diagnostic apparatus 100 according to the first embodiment makes it possible to accurately acquire the operator's line of sight.

(第2の実施形態)
これまで第1の実施形態について説明したが、上述した第1の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Second Embodiment)
Although the first embodiment has been described so far, the present invention may be implemented in various different forms other than the first embodiment described above.

上述した第1の実施形態では、対象選択部212が、モニタ選択部212aと、領域選択部212bと、保持装置選択部212cと、機能選択部212dとを有する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、各部の統合・分離は任意に実行することができる。例えば、モニタ選択部212aと、領域選択部212bと、保持装置選択部212cと、機能選択部212dとをまとめて一つの対象選択部212としてもよい。   In the first embodiment described above, the case where the target selection unit 212 includes the monitor selection unit 212a, the region selection unit 212b, the holding device selection unit 212c, and the function selection unit 212d has been described. However, the embodiment is not limited to this, and the integration / separation of each unit can be arbitrarily executed. For example, the monitor selection unit 212a, the region selection unit 212b, the holding device selection unit 212c, and the function selection unit 212d may be combined into one target selection unit 212.

また、第1の実施形態では、視線認識装置30としてカメラを用いる場合を説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、メガネ方式により操作者の視線情報を取得する場合であってもよい。すなわち、視線認識装置30は、どのような形態で備えられる場合であってもよく、例えば、表示部23と離間して備わっていてもよいし、或いは、表示部23に組み込まれて備えられる場合であってもよい。   Further, in the first embodiment, the case where a camera is used as the line-of-sight recognition device 30 has been described. However, the embodiment is not limited to this, and may be a case where the line-of-sight information of the operator is acquired by a glasses method, for example. That is, the line-of-sight recognition device 30 may be provided in any form, for example, may be provided separately from the display unit 23, or may be provided incorporated in the display unit 23. It may be.

また、第1の実施形態では、操作対象が選択された後、装置に配置されたハード的なスイッチ類を操作する場合を例に挙げて説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、操作対象が選択された後、GUI上に配置されたソフト的なスイッチが操作される場合であってもよい。例えば、操作対象が選択された後、モニタ上に表示されたボタンがクリックされる場合であってもよい。   In the first embodiment, the case where the hardware switches arranged in the apparatus are operated after the operation target is selected has been described as an example. However, the embodiment is not limited to this. For example, after an operation target is selected, a soft switch arranged on the GUI may be operated. For example, the button displayed on the monitor may be clicked after the operation target is selected.

以上述べた少なくともひとつの実施形態のX線診断装置によれば、操作者による操作を簡略化させて、手技の効率を向上させることを可能にする。   According to the X-ray diagnostic apparatus of at least one embodiment described above, it is possible to simplify the operation by the operator and improve the efficiency of the procedure.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

100 X線診断装置
21 システム制御部
211 注視点取得部
212 対象選択部
212a モニタ選択部
212b 領域選択部
212c 保持装置選択部
212d 機能選択部
213 マウスカーソル設定部
214 通知部
215 操作者識別部
DESCRIPTION OF SYMBOLS 100 X-ray diagnostic apparatus 21 System control part 211 Gaze point acquisition part 212 Object selection part 212a Monitor selection part 212b Area selection part 212c Holding | maintenance apparatus selection part 212d Function selection part 213 Mouse cursor setting part 214 Notification part 215 Operator identification part

Claims (8)

操作者の注視点の情報を取得する取得手段と、
前記取得手段によって取得された前記操作者の注視点の情報に基づいて、実行する機能と当該実行する機能の対象とを選択する選択手段と、
を備えたことを特徴とするX線診断装置。
An acquisition means for acquiring operator's attention point information;
Selection means for selecting a function to be executed and a target of the function to be executed based on the operator's attention point information acquired by the acquisition means;
An X-ray diagnostic apparatus comprising:
前記取得手段は、表示部、前記表示部にて表示された画像、前記画像における領域、又は、保持装置が前記操作者によって注視された情報を前記注視点の情報として取得し、
前記選択手段は、前記注視点の情報として前記取得手段によって取得された、前記表示部、前記表示部にて表示された画像、前記画像における領域、又は、保持装置の情報に基づいて、前記実行する機能と当該実行する機能の対象とを選択することを特徴とする請求項1に記載のX線診断装置。
The acquisition means acquires the information displayed on the display unit, the image displayed on the display unit, the area in the image, or the information on which the holding device is watched by the operator as the information on the gazing point,
The selection unit performs the execution based on information on the display unit, an image displayed on the display unit, an area in the image, or a holding device acquired by the acquisition unit as the gazing point information. The X-ray diagnostic apparatus according to claim 1, wherein a function to be performed and a target of the function to be executed are selected.
前記操作者によって操作を受付けることで、第1の対象に第1の機能を実行させる入力手段をさらに備え、
前記選択手段は、前記取得手段によって取得された前記操作者の注視点の情報に関連づいた機能に関する情報に基づいて、前記操作者から受付けた操作に応じて前記入力手段によって実行される前記第1の対象に対する第1の機能を第2の機能に変更することを特徴とする請求項1又は2に記載のX線診断装置。
The apparatus further comprises input means for causing the first object to execute the first function by receiving an operation by the operator.
The selection means is executed by the input means in accordance with an operation received from the operator based on information related to a function related to the operator's attention point information acquired by the acquisition means. The X-ray diagnosis apparatus according to claim 1, wherein the first function for one object is changed to the second function.
前記表示部が複数の表示面を有し、
前記取得手段によって取得された前記操作者の注視点の情報が前記表示部における複数の表示面のうちの1つであった場合に、前記注視点の情報が取得された表示面内にマウスカーソルを移動させるマウスカーソル設定手段をさらに備えることを特徴とする請求項1〜3のいずれか一つに記載のX線診断装置。
The display unit has a plurality of display surfaces;
When the information on the operator's gazing point acquired by the acquisition unit is one of a plurality of display surfaces in the display unit, a mouse cursor is displayed on the display surface on which the gazing point information is acquired. The X-ray diagnostic apparatus according to claim 1, further comprising a mouse cursor setting unit that moves the mouse.
前記マウスカーソル設定手段は、前記マウスカーソルを移動させる場合に、移動先の表示面内において最後に配置されていた位置に前記マウスカーソルを移動させることを特徴とする請求項4に記載のX線診断装置。   5. The X-ray according to claim 4, wherein the mouse cursor setting means moves the mouse cursor to a position where it was last arranged in a display screen of a movement destination when moving the mouse cursor. Diagnostic device. 前記選択手段は、前記取得手段によって取得された前記操作者の注視点の情報が前記画像における領域であった場合に、当該操作者の注視点が前記画像における領域に位置する時間を測定し、所定の時間が経過したことを条件に、前記領域に対して所定の機能を実行することを特徴する請求項1〜5のいずれか一つに記載のX線診断装置。   The selection unit measures the time when the operator's gaze point is located in the region in the image when the operator's gaze point information acquired by the acquisition unit is a region in the image; The X-ray diagnostic apparatus according to claim 1, wherein a predetermined function is executed on the region on condition that a predetermined time has elapsed. 複数人の中から前記操作者を識別する識別手段をさらに備え、
前記取得手段は、前記識別手段によって識別された操作者の注視点の情報を取得することを特徴とする請求項1〜6のいずれか一つに記載のX線診断装置。
Further comprising identification means for identifying the operator among a plurality of persons,
The X-ray diagnostic apparatus according to claim 1, wherein the acquisition unit acquires information on an operator's gazing point identified by the identification unit.
操作者の注視点の情報を取得する取得手順と、
前記取得手順によって取得された前記操作者の注視点の情報に基づいて、実行する機能と当該実行する機能の対象とを選択する選択手順と、
をコンピュータに実行させることを特徴とする制御プログラム。
An acquisition procedure for acquiring the operator's attention point information;
A selection procedure for selecting a function to be executed and a target of the function to be executed based on information on the operator's gaze point acquired by the acquisition procedure;
A control program for causing a computer to execute.
JP2012267565A 2012-12-06 2012-12-06 X-ray diagnostic apparatus and control program Expired - Fee Related JP6139118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012267565A JP6139118B2 (en) 2012-12-06 2012-12-06 X-ray diagnostic apparatus and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012267565A JP6139118B2 (en) 2012-12-06 2012-12-06 X-ray diagnostic apparatus and control program

Publications (2)

Publication Number Publication Date
JP2014113209A true JP2014113209A (en) 2014-06-26
JP6139118B2 JP6139118B2 (en) 2017-05-31

Family

ID=51169882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012267565A Expired - Fee Related JP6139118B2 (en) 2012-12-06 2012-12-06 X-ray diagnostic apparatus and control program

Country Status (1)

Country Link
JP (1) JP6139118B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016041091A (en) * 2014-08-13 2016-03-31 株式会社東芝 X-ray diagnostic apparatus
JP2016158658A (en) * 2015-02-26 2016-09-05 東芝メディカルシステムズ株式会社 X-ray diagnostic apparatus and medical image diagnostic apparatus
JP2017035325A (en) * 2015-08-11 2017-02-16 株式会社島津製作所 Console and radiographic apparatus including the same
WO2017038241A1 (en) * 2015-08-28 2017-03-09 富士フイルム株式会社 Instrument operation device, instrument operation method, and electronic instrument system
JP6262890B1 (en) * 2017-01-13 2018-01-17 株式会社日本エスシーマネージメント Viewing device, underwater space viewing system, and underwater space viewing method
JP2019069343A (en) * 2019-02-13 2019-05-09 キヤノンメディカルシステムズ株式会社 X-ray diagnostic apparatus
JP2020175004A (en) * 2019-04-22 2020-10-29 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08206083A (en) * 1995-02-02 1996-08-13 Hitachi Medical Corp Image diagnosing device
JPH09220200A (en) * 1995-11-06 1997-08-26 Siemens Ag Display unit for high-resolution matrix image obtained by medical diagnostic apparatus
JP2008237369A (en) * 2007-03-26 2008-10-09 Canon Inc Image processing device and image processing method
JP2011092687A (en) * 2009-09-30 2011-05-12 Fujifilm Corp Diagnosis support system, diagnostic support program and diagnostic support method
JP2011257801A (en) * 2010-06-04 2011-12-22 Fujitsu Advanced Engineering Ltd Cursor control program and its device
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08206083A (en) * 1995-02-02 1996-08-13 Hitachi Medical Corp Image diagnosing device
JPH09220200A (en) * 1995-11-06 1997-08-26 Siemens Ag Display unit for high-resolution matrix image obtained by medical diagnostic apparatus
JP2008237369A (en) * 2007-03-26 2008-10-09 Canon Inc Image processing device and image processing method
JP2011092687A (en) * 2009-09-30 2011-05-12 Fujifilm Corp Diagnosis support system, diagnostic support program and diagnostic support method
JP2011257801A (en) * 2010-06-04 2011-12-22 Fujitsu Advanced Engineering Ltd Cursor control program and its device
WO2012145180A1 (en) * 2011-04-21 2012-10-26 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2014514661A (en) * 2011-04-21 2014-06-19 株式会社ソニー・コンピュータエンタテインメント Gaze assist computer interface

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016041091A (en) * 2014-08-13 2016-03-31 株式会社東芝 X-ray diagnostic apparatus
JP2016158658A (en) * 2015-02-26 2016-09-05 東芝メディカルシステムズ株式会社 X-ray diagnostic apparatus and medical image diagnostic apparatus
JP2017035325A (en) * 2015-08-11 2017-02-16 株式会社島津製作所 Console and radiographic apparatus including the same
WO2017038241A1 (en) * 2015-08-28 2017-03-09 富士フイルム株式会社 Instrument operation device, instrument operation method, and electronic instrument system
US10506913B2 (en) 2015-08-28 2019-12-17 Fujifilm Corporation Apparatus operation device, apparatus operation method, and electronic apparatus system
JP6262890B1 (en) * 2017-01-13 2018-01-17 株式会社日本エスシーマネージメント Viewing device, underwater space viewing system, and underwater space viewing method
JP2018113653A (en) * 2017-01-13 2018-07-19 株式会社日本エスシーマネージメント Viewing device, and underwater space viewing system and method for viewing the same
JP2019069343A (en) * 2019-02-13 2019-05-09 キヤノンメディカルシステムズ株式会社 X-ray diagnostic apparatus
JP2020175004A (en) * 2019-04-22 2020-10-29 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus
JP7249856B2 (en) 2019-04-22 2023-03-31 キヤノンメディカルシステムズ株式会社 X-ray CT device

Also Published As

Publication number Publication date
JP6139118B2 (en) 2017-05-31

Similar Documents

Publication Publication Date Title
JP6139118B2 (en) X-ray diagnostic apparatus and control program
US10492873B2 (en) Medical spatial orientation system
US10722200B2 (en) Apparatus and methods for a projection display device on X-ray imaging devices
US9615802B2 (en) Direct control of X-ray focal spot movement
US11497108B2 (en) Radiation imaging system
US11937965B2 (en) Radiographic system
JP2004105643A (en) X-ray diagnostic equipment
EP4335374A1 (en) X-ray diagnostic apparatus and x-ray diagnostic method
JP7504585B2 (en) Image processing device, image processing method, and program
JP7047946B2 (en) Radiation imaging system, console and program
JP5772523B2 (en) Medical image photographing system, medical image processing apparatus, and program
US11344271B2 (en) X-ray diagnostic apparatus and X-ray tube holding device
EP3494884A1 (en) X-ray fluoroscopic imaging apparatus
US11241206B2 (en) X-ray imaging apparatus
JP6780984B2 (en) Medical diagnostic imaging equipment and display equipment
JP6793764B2 (en) X-ray diagnostic equipment
JP6516984B2 (en) X-ray diagnostic device
JP6437212B2 (en) Medical apparatus and medical image diagnostic apparatus
US20240081772A1 (en) X-ray diagnostic apparatus and x-ray diagnostic method
JP7298742B2 (en) radiography system and console
JP2023184162A (en) Control device, control method, and program
JP2023184160A (en) Control device, control method, and program
JP2019147036A (en) Radiographic system, console, and program
JP2006204498A (en) Roentgenography device
JP2018158101A (en) X-ray imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151015

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160928

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R150 Certificate of patent or registration of utility model

Ref document number: 6139118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees