JP2019000589A - X-ray diagnostic apparatus - Google Patents

X-ray diagnostic apparatus Download PDF

Info

Publication number
JP2019000589A
JP2019000589A JP2017120328A JP2017120328A JP2019000589A JP 2019000589 A JP2019000589 A JP 2019000589A JP 2017120328 A JP2017120328 A JP 2017120328A JP 2017120328 A JP2017120328 A JP 2017120328A JP 2019000589 A JP2019000589 A JP 2019000589A
Authority
JP
Japan
Prior art keywords
image information
operator
ray
screen
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017120328A
Other languages
Japanese (ja)
Inventor
吉昭 飯島
Yoshiaki Iijima
吉昭 飯島
岡田 淳
Atsushi Okada
淳 岡田
智 江刺
Satoshi Esashi
智 江刺
稔雄 室井
Toshio Muroi
稔雄 室井
郡司 正則
Masanori Gunji
正則 郡司
伸夫 小倉
Nobuo Ogura
伸夫 小倉
信浩 大賀
Nobuhiro Oga
信浩 大賀
亮一 長江
Ryoichi Nagae
亮一 長江
泰人 早津
Yasuhito Hayatsu
泰人 早津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2017120328A priority Critical patent/JP2019000589A/en
Publication of JP2019000589A publication Critical patent/JP2019000589A/en
Pending legal-status Critical Current

Links

Abstract

To operate an input interface without necessity in which an operator visually confirms an input interface on a hand or a footing of the operator.SOLUTION: An X-ray diagnostic apparatus comprises respective means. The input interface means is operated at a hand or a footing of an operator. Storage means stores first image information which indicates an operation surface of the input interface means. Operation detection means detects an operation of the input interface means. Screen generation means generates operation screen data by superposing second image information which expresses a hand or a foot of the operation on the first image information based on output of the operation detection means. Display means is arranged to be separated from the input interface means, and based on the operation screen data, displays the operation screen visually recognized by the operator.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、X線診断装置に関する。   Embodiments described herein relate generally to an X-ray diagnostic apparatus.

X線診断装置は、医師又は技師といった操作者の操作に応じて、被検体が載置された天板を移動させ、X線管やX線検出器などの撮像系を保持するCアームやΩアームを移動又は回動させ、撮像系による撮像を制御することが可能である。また、撮像により得られた医用画像は、モニタに表示されることにより、操作者から視認される。   The X-ray diagnostic apparatus moves a top plate on which a subject is placed in accordance with an operation of an operator such as a doctor or an engineer, and a C arm or Ω that holds an imaging system such as an X-ray tube or an X-ray detector. It is possible to control the imaging by the imaging system by moving or rotating the arm. Moreover, the medical image obtained by imaging is visually recognized by the operator by being displayed on the monitor.

ここで、X線診断装置は、例えば、前述した操作の一部を可能とするハードウェアコンソール等が天板の側部に配置され、前述した操作の一部を可能とするフットスイッチが天板の下方に配置されている。ハードウェアコンソールは、操作者の手元で操作可能なボタン等のハードウェアスイッチを備えた入力インタフェースである。フットスイッチは、操作者の足元で操作可能なボタン(ペダル)を備えた入力インタフェースである。   Here, in the X-ray diagnostic apparatus, for example, a hardware console that enables a part of the above-described operation is arranged on the side of the top board, and a foot switch that enables a part of the above-described operation is provided on the top board. It is arranged below. The hardware console is an input interface including hardware switches such as buttons that can be operated by an operator. The foot switch is an input interface including a button (pedal) that can be operated with the foot of the operator.

このようなX線診断装置は、天板の横に立った操作者が手元又は足元にある入力インタフェースを視認して操作することにより、天板上に載置された被検体に対して好適な位置や方向からのX線撮影を可能としている。これに加え、X線撮影により得られた医用画像をモニタに表示して、操作者から視認可能としている。   Such an X-ray diagnostic apparatus is suitable for an object placed on a top board by an operator standing next to the top board visually observing and operating an input interface at hand or foot. X-ray imaging from a position and direction is possible. In addition, a medical image obtained by X-ray imaging is displayed on a monitor so that it can be viewed by an operator.

特開2014−223291号公報JP 2014-223291 A

以上のようなX線診断装置は、通常は特に問題ないが、本発明者の検討によれば、モニタを視認している操作者が、入力インタフェースを操作する際に、視線を一時的に手元又は足元に向ける必要がある。このとき、操作者によっては、視線をモニタから一時的に逸らすことを煩わしいと感じる可能性がある。   The X-ray diagnostic apparatus as described above is usually not particularly problematic. However, according to the study of the present inventor, when the operator who is viewing the monitor operates the input interface, he / she temporarily holds his / her line of sight. Or you need to point it at your feet. At this time, depending on the operator, there is a possibility that it is troublesome to temporarily shift the line of sight from the monitor.

従って、本発明者の検討によれば、操作者が手元又は足元の入力インタフェースを視認せずに、入力インタフェースを操作できることが望ましい。これは、タブレット端末等のタッチパネルディスプレイ式の入力インタフェースを天板の側部に配置する場合でも同様である。   Therefore, according to the study of the present inventor, it is desirable that the operator can operate the input interface without visually recognizing the input interface at hand or foot. This is the same even when a touch panel display type input interface such as a tablet terminal is arranged on the side of the top board.

目的は、操作者が手元又は足元の入力インタフェースを視認せずに、入力インタフェースを操作し得るX線診断装置を提供することである。   An object is to provide an X-ray diagnostic apparatus in which an operator can operate an input interface without visually recognizing the input interface at hand or foot.

実施形態に係るX線診断装置は、入力インタフェース手段、記憶手段、操作検出手段、画面生成手段及び表示手段を具備する。
前記入力インタフェース手段は、操作者の手元又は足元で操作される。
前記記憶手段は、前記入力インタフェース手段の操作面を示す第1画像情報を記憶する。
前記操作検出手段は、前記入力インタフェース手段の操作を検出する。
前記画面生成手段は、前記操作検出手段の出力に基づいて、前記第1画像情報上に、前記操作者の手又は足を表す第2画像情報を重畳して操作画面データを生成する。
前記表示手段は、前記入力インタフェース手段とは離間して配置され、前記操作画面データに基づいて、前記操作者に視認される操作画面を表示する。
The X-ray diagnostic apparatus according to the embodiment includes an input interface unit, a storage unit, an operation detection unit, a screen generation unit, and a display unit.
The input interface means is operated by the operator's hand or foot.
The storage means stores first image information indicating an operation surface of the input interface means.
The operation detection means detects an operation of the input interface means.
The screen generation means generates operation screen data by superimposing second image information representing the hand or foot of the operator on the first image information based on the output of the operation detection means.
The display means is disposed apart from the input interface means, and displays an operation screen visually recognized by the operator based on the operation screen data.

一実施形態に係るX線診断装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the X-ray diagnostic apparatus which concerns on one Embodiment. 同実施形態におけるX線診断装置の構成を説明するための斜視図である。It is a perspective view for demonstrating the structure of the X-ray diagnostic apparatus in the embodiment. 同実施形態におけるX線診断装置の構成を説明するための斜視図である。It is a perspective view for demonstrating the structure of the X-ray diagnostic apparatus in the embodiment. 同実施形態における第1カメラの配置を説明するための模式図である。It is a schematic diagram for demonstrating arrangement | positioning of the 1st camera in the embodiment. 同実施形態における第2カメラの配置を説明するための模式図である。It is a schematic diagram for demonstrating arrangement | positioning of the 2nd camera in the embodiment. 同実施形態における操作画面を説明するための模式図である。It is a schematic diagram for demonstrating the operation screen in the embodiment. 同実施形態における操作画面を説明するための模式図である。It is a schematic diagram for demonstrating the operation screen in the embodiment. 同実施形態における操作画面を説明するための模式図である。It is a schematic diagram for demonstrating the operation screen in the embodiment. 同実施形態における入力I/F画像情報L1を説明するための模式図である。It is a schematic diagram for demonstrating the input I / F image information L1 in the embodiment. 同実施形態における入力I/F画像情報L1の切り替え例を説明するための模式図である。It is a schematic diagram for demonstrating the example of switching of the input I / F image information L1 in the embodiment. 同実施形態における操作画面の切り替え表示を説明するための模式図である。It is a schematic diagram for demonstrating the switching display of the operation screen in the embodiment. 同実施形態におけるハードウェアコンソールのレイアウト情報を説明するための模式図である。It is a schematic diagram for demonstrating the layout information of the hardware console in the embodiment. 同実施形態における入力I/F画像情報L1の切り替え例を説明するための模式図である。It is a schematic diagram for demonstrating the example of switching of the input I / F image information L1 in the embodiment. 同実施形態における入力I/F画像情報L1の他の切り替え例を説明するための模式図である。It is a mimetic diagram for explaining other examples of change of input I / F image information L1 in the embodiment. 同実施形態における入力I/F画像情報L1をボタン状態に対応させた例を説明するための模式図である。It is a schematic diagram for demonstrating the example which matched the input I / F image information L1 in the embodiment with the button state. 同実施形態における操作画面を操作者のジェスチャに対応させた例を説明するための模式図である。It is a schematic diagram for demonstrating the example which matched the operation screen in the same embodiment with an operator's gesture. 同実施形態における操作画面を操作者の他のジェスチャに対応させた例を説明するための模式図である。It is a schematic diagram for demonstrating the example which matched the operation screen in the same embodiment with another gesture of an operator. 同実施形態における手/足画像情報L2を含む操作画面の例を示す模式図である。It is a schematic diagram which shows the example of the operation screen containing the hand / foot image information L2 in the embodiment. 同実施形態における手/足画像情報L2を含む操作画面の他の例を示す模式図である。It is a schematic diagram which shows the other example of the operation screen containing the hand / foot image information L2 in the embodiment. 同実施形態における手/足画像情報L2を含む操作画面の他の例を示す模式図である。It is a schematic diagram which shows the other example of the operation screen containing the hand / foot image information L2 in the embodiment. 同実施形態における操作補助画像情報L3を含む操作画面への切り替え例を示す模式図である。It is a schematic diagram which shows the example of a switch to the operation screen containing the operation auxiliary image information L3 in the embodiment. 同実施形態における操作画面から他の操作画面への切り替え表示を説明するための模式図である。It is a schematic diagram for demonstrating the switching display from the operation screen to the other operation screen in the embodiment. 同実施形態における操作画面から他の画面への切り替え例を示す模式図である。It is a schematic diagram which shows the example of a switch from the operation screen in the embodiment to another screen. 同実施形態における動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement in the embodiment. 同実施形態におけるステップST3の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of step ST3 in the same embodiment. 同実施形態におけるステップST4の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of step ST4 in the same embodiment. 同実施形態における動作を説明するための模式図である。It is a schematic diagram for demonstrating the operation | movement in the embodiment. 同実施形態における他の動作を説明するための模式図である。It is a schematic diagram for demonstrating the other operation | movement in the same embodiment.

以下、一実施形態について図面を用いて説明する。   Hereinafter, an embodiment will be described with reference to the drawings.

図1は、一実施形態に係るX線診断装置の構成を示す模式図である。尚、以下の実施形態では、X線発生部及びX線検出器(撮像系)がその端部に装着された床置きCアームを保持部とする循環器用のX線診断装置について述べる。但し、これに限らず、例えば、保持部は天井吊りのCアームやΩアームであってよく、又、循環器診断と消化器診断に対応した汎用のX線診断装置であっても構わない。
図1は、一実施形態に係るX線診断装置の構成を示す模式図である。X線診断装置100は、被検体150に対しX線を照射すると共に被検体150を透過したX線を検出して投影データを生成するX線撮影部1と、投影データに基づいて画像データを生成する画像生成回路6と、得られた画像データを大画面モニタ7aに表示する表示回路7と、X線撮影部1のX線発生部2及びX線検出器3(撮像系)を保持し被検体150の周囲で所定方向に移動あるいは回動させる保持部を備えた保持装置8と、被検体150を載置した天板を所定方向へ移動させる寝台部9を備えている。
FIG. 1 is a schematic diagram illustrating a configuration of an X-ray diagnostic apparatus according to an embodiment. In the following embodiments, an X-ray diagnostic apparatus for a circulator will be described in which an X-ray generation unit and an X-ray detector (imaging system) have a floor-mounted C-arm attached to the ends thereof as a holding unit. However, the present invention is not limited to this. For example, the holding unit may be a ceiling-suspended C-arm or Ω-arm, and may be a general-purpose X-ray diagnostic apparatus that supports cardiovascular diagnosis and digestive organ diagnosis.
FIG. 1 is a schematic diagram illustrating a configuration of an X-ray diagnostic apparatus according to an embodiment. The X-ray diagnostic apparatus 100 irradiates the subject 150 with X-rays and detects X-rays transmitted through the subject 150 to generate projection data, and generates image data based on the projection data. An image generation circuit 6 to be generated, a display circuit 7 for displaying the obtained image data on the large screen monitor 7a, an X-ray generation unit 2 and an X-ray detector 3 (imaging system) of the X-ray imaging unit 1 are held. A holding device 8 including a holding unit that moves or rotates in a predetermined direction around the subject 150 and a bed unit 9 that moves a top plate on which the subject 150 is placed in a predetermined direction are provided.

更に、X線診断装置100は、保持装置8及び寝台部9の各々に設けられた後述の各種移動機構部に対し駆動信号を供給する機構駆動部10と、記憶回路11と、被検体情報の入力、X線照射条件を含むX線撮影条件の設定、各種コマンド信号の入力等を行なう入力インタフェース(I/F)回路12と、第1カメラ13と、第2カメラ14と、上述の各ユニットを統括的に制御して被検体150に対し安全かつ効率のよいX線撮影を可能にする制御回路15を備えている。なお、入力インタフェース回路12は、ハードウェア(H/W)コンソール12H、タブレット端末12T及びフットスイッチ12Fを備えている。タブレット端末12Tは、任意の付加的事項であり、省略可能である。また、タブレット端末12Tは、タッチパネルディスプレイを有する入力端末の一例であり、タッチパネルディスプレイを有する他の種類の入力端末に置き換えてもよい。   Furthermore, the X-ray diagnostic apparatus 100 includes a mechanism drive unit 10 that supplies drive signals to various movement mechanism units described later provided in the holding device 8 and the bed unit 9, a storage circuit 11, and object information. An input interface (I / F) circuit 12 for performing input, setting of X-ray imaging conditions including X-ray irradiation conditions, input of various command signals, the first camera 13, the second camera 14, and the above-described units. And a control circuit 15 that enables safe and efficient X-ray imaging of the subject 150 by comprehensively controlling the above. The input interface circuit 12 includes a hardware (H / W) console 12H, a tablet terminal 12T, and a foot switch 12F. The tablet terminal 12T is an arbitrary additional item and can be omitted. The tablet terminal 12T is an example of an input terminal having a touch panel display, and may be replaced with another type of input terminal having a touch panel display.

X線撮影部1は、図1に示すようにX線発生部2、X線検出器3、投影データ生成回路4及び高電圧発生部5を備え、被検体150を透過したX線量に基づいて投影データを生成する機能を有している。   As shown in FIG. 1, the X-ray imaging unit 1 includes an X-ray generation unit 2, an X-ray detector 3, a projection data generation circuit 4, and a high voltage generation unit 5, and is based on the X-ray dose transmitted through the subject 150. It has a function of generating projection data.

X線発生部2は、天板91上に載置された被検体150に照射するX線を発生する。X線発生部2は、X線管と、X線管から照射されたX線に対してX線錘(コーンビーム)を形成するX線絞り器を備えている。X線管は、X線を発生する真空管であり、陰極(フィラメント)より放出された電子を高電圧によって加速させてタングステン陽極に衝突させX線を発生させる。X線絞り器は、X線管と被検体150の間に位置し、X線管から照射されたX線ビームを所定の照射視野のサイズに絞り込む。   The X-ray generation unit 2 generates X-rays that irradiate the subject 150 placed on the top 91. The X-ray generation unit 2 includes an X-ray tube and an X-ray diaphragm that forms an X-ray weight (cone beam) for the X-rays emitted from the X-ray tube. An X-ray tube is a vacuum tube that generates X-rays, and accelerates electrons emitted from a cathode (filament) by a high voltage to collide with a tungsten anode to generate X-rays. The X-ray restrictor is located between the X-ray tube and the subject 150, and narrows the X-ray beam irradiated from the X-ray tube to a predetermined irradiation field size.

X線検出器3は、被検体150を透過したX線を検出する。このようなX線検出器3としては、X線を直接電荷に変換するものと、光に変換した後、電荷に変換するものとが使用可能であり、ここでは前者を例に説明するが後者であっても構わない。即ち、本実施形態に係るX線検出器3は、被検体150を透過したX線を電荷に変換して蓄積する平面検出器と、この平面検出器に蓄積された電荷を読み出すための駆動パルスを生成するゲートドライバを備えている。   The X-ray detector 3 detects X-rays that have passed through the subject 150. As such an X-ray detector 3, one that directly converts X-rays into electric charges, and one that converts them into light and then converted into electric charges can be used. It does not matter. That is, the X-ray detector 3 according to this embodiment includes a flat panel detector that converts X-rays that have passed through the subject 150 into charges and accumulates them, and a driving pulse for reading out the charges accumulated in the flat detectors. It has a gate driver to generate.

平面検出器は、微小な検出素子を2次元的に配列して構成され、各々の検出素子は、X線を感知し入射X線量に応じて電荷を生成する光電膜と、この光電膜に発生した電荷を蓄積する電荷蓄積コンデンサと、電荷蓄積コンデンサに蓄積された電荷を所定のタイミングで読み出すTFT(薄膜トランジスタ)(何れも図示せず)を備えている。そして、蓄積された電荷はゲートドライバが供給する駆動パルスによって順次読み出される。   The flat panel detector is configured by two-dimensionally arranging minute detection elements. Each detection element senses X-rays and generates a charge according to an incident X-ray dose, and is generated in the photoelectric film. A charge storage capacitor for storing the generated charge, and a TFT (thin film transistor) (not shown) for reading out the charge stored in the charge storage capacitor at a predetermined timing. The accumulated charges are sequentially read out by drive pulses supplied by the gate driver.

次に、投影データ生成回路4は、平面検出器から行単位あるいは列単位でパラレルに読み出された電荷を電圧に変換する電荷・電圧変換器と、この電荷・電圧変換器の出力をデジタル信号に変換するA/D変換器と、デジタル変換されたパラレル信号を時系列的なシリアル信号に変換するパラレル・シリアル変換器を備えている。   Next, the projection data generation circuit 4 converts a charge read out in parallel in a row unit or a column unit from the plane detector into a voltage, and outputs the charge / voltage converter as a digital signal. And an A / D converter for converting the digital signal into a parallel signal that converts the digitally converted parallel signal into a time-series serial signal.

高電圧発生部5は、X線管の陰極から発生する熱電子を加速するために、陽極と陰極の間に印加する高電圧を発生させる高電圧発生器と、制御回路15から供給される指示信号に従い、高電圧発生器における管電流、管電圧、照射時間、照射タイミング等のX線照射条件を制御するX線制御部を備えている。   The high voltage generator 5 is a high voltage generator that generates a high voltage applied between the anode and the cathode in order to accelerate the thermoelectrons generated from the cathode of the X-ray tube, and an instruction supplied from the control circuit 15. An X-ray control unit that controls X-ray irradiation conditions such as tube current, tube voltage, irradiation time, and irradiation timing in the high voltage generator according to the signal is provided.

画像生成回路6は、図示しない投影データ記憶回路と画像演算回路を備える。投影データ記憶回路は、X線撮影部1の投影データ生成回路4から供給される時系列的な投影データを順次保存して2次元投影データを生成する。一方、画像演算回路は、投影データ記憶回路にて生成された2次元投影データに対しフィルタリング処理等の画像処理を行なって画像データを生成し、更に、得られた複数の画像データに対し合成処理や減算(サブトラクション)処理等を行なう。   The image generation circuit 6 includes a projection data storage circuit and an image calculation circuit (not shown). The projection data storage circuit sequentially stores time-series projection data supplied from the projection data generation circuit 4 of the X-ray imaging unit 1 to generate two-dimensional projection data. On the other hand, the image arithmetic circuit performs image processing such as filtering processing on the two-dimensional projection data generated by the projection data storage circuit to generate image data, and further performs synthesis processing on the obtained plurality of image data. And subtraction processing.

表示回路7は、医用画像などを表示するディスプレイとしての大画面モニタ7aと、大画面モニタ7aに表示用の信号を供給する内部回路、大画面モニタ7aと内部回路とをつなぐコネクタやケーブルなどの周辺回路から構成されている。内部回路は、画像生成回路6の画像演算回路から供給される画像データに被検体情報や投影データ生成条件等の付帯情報を重畳して表示データを生成し、得られた表示データに対しD/A変換とTVフォーマット変換を行なって大画面モニタ7aに表示する。これに加え、表示回路7は、入力インタフェース回路12とは離間して配置され、操作画面データに基づいて、操作者に視認される操作画面g2を大画面モニタ7aに表示する。なお、大画面モニタ7aは、「モニタ」又は「ディスプレイ」等のように他の名称で呼んでもよく、必ずしも「大きい」という意味の修飾語を付けなくてもよい。また、大画面モニタ7aは、単一の画面が大きい場合に限らず、複数の通常画面を近接配置して大画面としてもよい。また、大画面モニタ7aは、必ずしも大きい画面である必要はなく、カテーテル手技などに使用可能な程度の大きさの画面であればよい。   The display circuit 7 includes a large screen monitor 7a as a display for displaying medical images and the like, an internal circuit that supplies a display signal to the large screen monitor 7a, a connector and a cable that connect the large screen monitor 7a and the internal circuit, and the like. It consists of peripheral circuits. The internal circuit generates display data by superimposing incidental information such as subject information and projection data generation conditions on the image data supplied from the image calculation circuit of the image generation circuit 6, and performs D / D on the obtained display data. A conversion and TV format conversion are performed and displayed on the large screen monitor 7a. In addition, the display circuit 7 is arranged away from the input interface circuit 12, and displays an operation screen g2 visually recognized by the operator on the large screen monitor 7a based on the operation screen data. The large-screen monitor 7a may be called with another name such as “monitor” or “display”, and the modifier meaning “large” is not necessarily added. Further, the large screen monitor 7a is not limited to a case where a single screen is large, and a large screen may be formed by arranging a plurality of normal screens close to each other. Further, the large screen monitor 7a is not necessarily a large screen, and may be a screen having a size that can be used for a catheter procedure or the like.

一方、機構駆動部10は、撮像系を所望の方向へ移動させるために保持装置8に設けられた各種移動機構部に対して駆動信号を供給する撮像系移動機構駆動部101と、被検体150を載置した天板を所望の方向へ移動させるために寝台部9に設けられた移動機構部に対し駆動信号を供給する天板移動機構駆動部102と、撮像系移動機構駆動部101及び天板移動機構駆動部102を制御する機構駆動制御部103を備えている。   On the other hand, the mechanism driving unit 10 includes an imaging system moving mechanism driving unit 101 that supplies driving signals to various moving mechanism units provided in the holding device 8 in order to move the imaging system in a desired direction, and a subject 150. A top plate moving mechanism driving unit 102 that supplies a driving signal to the moving mechanism unit provided in the bed unit 9 to move the top plate on which the camera is placed in a desired direction, the imaging system moving mechanism driving unit 101, and the top A mechanism drive control unit 103 that controls the plate moving mechanism drive unit 102 is provided.

次に、保持装置8及び寝台部9の構成とこれらを構成する各ユニットの移動あるいは回動につき図2を用いて説明する。図2は、X線発生部2及びX線検出器3(撮像系)がその端部に取り付けられたCアームを保持部81とする保持装置8と被検体150が載置された天板91を有する寝台部9を示しており、この図では、以下の説明を容易にするために被検体150の体軸方向(即ち、天板91の長手方向)をy軸、保持部(Cアーム)81を保持するスタンド83の中心軸(回動軸)方向をz軸、y軸及びz軸と直交する方向をx軸としている。   Next, the structure of the holding device 8 and the bed part 9 and the movement or rotation of each unit constituting them will be described with reference to FIG. FIG. 2 shows a holding device 8 having a C-arm attached to the ends of the X-ray generator 2 and the X-ray detector 3 (imaging system) as a holding unit 81 and a top plate 91 on which a subject 150 is placed. In this figure, in order to facilitate the following description, the body axis direction of the subject 150 (that is, the longitudinal direction of the top 91) is the y axis, and the holding unit (C arm). The center axis (rotation axis) direction of the stand 83 that holds 81 is the z axis, and the y axis and the direction orthogonal to the z axis are the x axis.

即ち、一方の端部(下端部)にX線発生部2が、又、他の端部(上端部)にX線検出器3が対向して取り付けられた保持部81は、保持部ホルダ82を介してスタンド83に保持され、保持部ホルダ82の側面には保持部81が矢印aの方向に対してスライド自在に取り付けられている。一方、保持部ホルダ82は、スタンド83に対し矢印bの方向に回動自在に取りつけられ、この保持部ホルダ82の回動に伴って保持部81もx軸を中心として回動する。又、保持部81の端部には撮像系がe方向に対しスライド自在に取り付けられている。そして、a方向に対する保持部81のスライド、b方向に対する保持部ホルダ82の回動及びe方向に対する撮像系のスライドにより、保持部81の端部に取り付けられた撮像系を天板91に載置された被検体150に対して任意の位置及び方向に設定することができる。   That is, the holding unit 81 having the X-ray generation unit 2 attached to one end (lower end) and the X-ray detector 3 attached to the other end (upper end) is provided with a holding unit holder 82. The holding portion 81 is attached to the side surface of the holding portion holder 82 so as to be slidable in the direction of the arrow a. On the other hand, the holding portion holder 82 is attached to the stand 83 so as to be rotatable in the direction of the arrow b. As the holding portion holder 82 rotates, the holding portion 81 also rotates about the x axis. An imaging system is attached to the end of the holding portion 81 so as to be slidable in the e direction. Then, the imaging system attached to the end of the holding unit 81 is placed on the top 91 by sliding the holding unit 81 in the a direction, rotating the holding unit holder 82 in the b direction, and sliding the imaging system in the e direction. The target 150 can be set at an arbitrary position and direction.

一方、床面160に配置された床旋回アーム84の一方の端部は、床面160に対して回動軸z1(第1の回動軸)で回動自在に取り付けられ、床旋回アーム84の他の端部にはスタンド83が、回動軸z2(第2の回動軸)を中心に回動自在に取り付けられている。この場合、床旋回アーム84の回動軸z1及びスタンド83の回動軸z2は何れもz方向に対して設定される。   On the other hand, one end portion of the floor turning arm 84 disposed on the floor surface 160 is attached to the floor surface 160 so as to be rotatable about a rotation axis z1 (first rotation axis). At the other end, a stand 83 is attached so as to be rotatable about a rotation axis z2 (second rotation axis). In this case, both the rotation axis z1 of the floor turning arm 84 and the rotation axis z2 of the stand 83 are set with respect to the z direction.

即ち、保持部81の両端部に取り付けられた撮像系の位置情報は、保持部ホルダ82に対する保持部81のスライド移動距離、保持部ホルダ82のb方向に対する回動角度、床旋回アーム84のd方向に対する回動角度及びスタンド83のc方向に対する回動角度、保持部81に対する撮像系のスライド移動距離によって一義的に決定される。   That is, the position information of the imaging system attached to both ends of the holding unit 81 includes the sliding movement distance of the holding unit 81 with respect to the holding unit holder 82, the rotation angle of the holding unit holder 82 in the b direction, and d of the floor turning arm 84. The rotation angle with respect to the direction, the rotation angle with respect to the c direction of the stand 83, and the slide movement distance of the imaging system with respect to the holding unit 81 are uniquely determined.

従って、保持部81、保持部ホルダ82、スタンド83及び床旋回アーム84を所定方向へ移動あるいは回動させるために機構駆動部10の撮像系移動機構駆動部101から保持装置8の各種移動機構部(即ち、保持部81をスライド移動させる保持部スライド機構部、保持部ホルダ82をb方向へ回動させる保持部ホルダ回動機構部、スタンド83をc方向へ回動させるスタンド回動機構部、床旋回アーム84をd方向へ回動させる床旋回アーム回動機構部及び撮像系をe方向へスライドさせる撮像系スライド機構部)の各々へ供給される駆動信号を検出(例えば、駆動パルス数を計数)することにより撮像系の位置情報を検出することが可能となる。   Accordingly, in order to move or rotate the holding unit 81, the holding unit holder 82, the stand 83, and the floor turning arm 84 in a predetermined direction, the various moving mechanism units of the holding device 8 from the imaging system moving mechanism driving unit 101 of the mechanism driving unit 10 are used. (I.e., a holding unit slide mechanism unit that slides the holding unit 81, a holding unit holder rotating mechanism unit that rotates the holding unit holder 82 in the b direction, a stand rotating mechanism unit that rotates the stand 83 in the c direction, A drive signal supplied to each of the floor swing arm rotating mechanism unit that rotates the floor swing arm 84 in the d direction and the imaging system slide mechanism unit that slides the imaging system in the e direction is detected (for example, the number of drive pulses is determined). It is possible to detect the position information of the imaging system by counting.

一方、寝台部9の寝台92には、被検体150を載置した天板91を体軸方向(f方向)へ水平移動させるための水平移動機構部とg方向へ垂直移動させるための垂直移動機構部が設けられている。ここで、天板91のx軸に沿った横幅は、被検体150の足部側、胴部側及び頭部側の3段階で異なっており、頭部側に向かうに従って短くなっている。また、天板91の一方の側部には、図3に示すように、入力インタフェース回路12の一部であるハードウェアコンソール12H及びタブレット端末12Tが取り付けられている。また、天板91の他方の側部側の斜め上方には、医用画像g1及び操作画面g2を表示可能な大画面モニタ7aが配置されている。大画面モニタ7aの上部には、ハードウェアコンソール12H及びタブレット端末12Tを撮影するための第1カメラ13が配置されている。天板91の下方には、入力インタフェース回路12の一部であるフットスイッチ12Fが配置されている。フットスイッチ12Fの把持部には、フットスイッチ12Fを撮影するための第2カメラ14が配置されている。なお、第1カメラ13は、大画面モニタ7aの上部に限らず、検査室の天井に配置してもよい。あるいは、第1カメラ13は、図4に示すように、ハードウェアコンソール12H及びタブレット端末12Tの近傍に配置してもよい。また、第1カメラ13としてタブレット端末12Tのカメラ13aを用い、図示しない鏡を付ける等により、ハードウェアコンソール12H及びタブレット端末12Tを撮影するようにしてもよい。第2カメラ14は、図5に示すように、フットスイッチ12Fのペダルに対向する把持部12Fgに配置したが、これに限らず、フットスイッチ12Fを撮影可能であれば、他の位置に配置して構わない。   On the other hand, on the bed 92 of the bed unit 9, the horizontal movement mechanism unit for horizontally moving the table 91 on which the subject 150 is placed in the body axis direction (f direction) and the vertical movement for vertically moving in the g direction. A mechanism is provided. Here, the horizontal width along the x-axis of the top plate 91 is different in three stages of the subject 150 on the foot side, the torso side, and the head side, and becomes shorter toward the head side. Further, as shown in FIG. 3, a hardware console 12H and a tablet terminal 12T, which are a part of the input interface circuit 12, are attached to one side of the top plate 91. A large screen monitor 7a capable of displaying the medical image g1 and the operation screen g2 is disposed obliquely above the other side of the top plate 91. A first camera 13 for photographing the hardware console 12H and the tablet terminal 12T is disposed above the large screen monitor 7a. Below the top plate 91, a foot switch 12F which is a part of the input interface circuit 12 is arranged. A second camera 14 for taking an image of the foot switch 12F is disposed in the grip portion of the foot switch 12F. The first camera 13 is not limited to the upper part of the large screen monitor 7a, and may be arranged on the ceiling of the examination room. Or you may arrange | position the 1st camera 13 in the vicinity of the hardware console 12H and the tablet terminal 12T, as shown in FIG. Alternatively, the camera 13a of the tablet terminal 12T may be used as the first camera 13, and the hardware console 12H and the tablet terminal 12T may be photographed by attaching a mirror (not shown). As shown in FIG. 5, the second camera 14 is disposed in the grip portion 12Fg facing the pedal of the foot switch 12F. However, the second camera 14 is not limited to this, and the foot switch 12F may be disposed at other positions as long as it can be photographed. It doesn't matter.

記憶回路11は、HDD(Hard Disk Drive)など電気的情報を記録するメモリと、それらメモリに付随するメモリコントローラやメモリインタフェースなどの周辺回路とを備えている。記憶回路11は、制御回路15に実行されるプログラムと、プログラムの実行に用いる各種情報を記憶している。各種情報としては、例えば図6A乃至図16に示すように、操作画面g2を生成するための各層の画像情報L1〜L3と、操作者が操作するボタン等のレイアウトを示すレイアウト情報111と、ボタン等に割り当てられた機能を示す割り当て情報112,112a,112a1,112a2,112bとが適宜、使用可能となっている。「操作画面」の用語は、「操作画像」と呼んでもよい。   The storage circuit 11 includes a memory for recording electrical information such as an HDD (Hard Disk Drive), and peripheral circuits such as a memory controller and a memory interface associated with the memory. The storage circuit 11 stores a program executed by the control circuit 15 and various information used for executing the program. As various types of information, for example, as shown in FIGS. 6A to 16, image information L1 to L3 of each layer for generating the operation screen g2, layout information 111 indicating a layout such as buttons operated by the operator, and buttons The allocation information 112, 112a, 112a1, 112a2, and 112b indicating the functions allocated to and the like can be used as appropriate. The term “operation screen” may be called “operation image”.

各層の画像情報としては、図6A〜図6Cに示すように、入力I/F画像情報L1と、ユーザ操作画像情報L2と、操作補助画像情報L3とが適宜、使用可能となっている。入力I/F画像情報L1上にユーザ操作画像情報L2が重畳され、ユーザ操作画像情報L2上に操作補助画像情報L3が重畳されて、操作画面g2が生成される。なお、操作画面g2の生成には少なくとも入力I/F画像情報L1が用いられ、ユーザ操作画像情報L2及び操作補助画像情報L3は、操作状況に応じて付加的に用いられる。ユーザ操作画像情報L2としては、図6Aに示す如き、手又は足を表す模擬的な人体部位画像を含む画像情報が記憶回路11に記憶されていてもよい。あるいは、ユーザ操作画像情報L2としては、図6B又は図6Cに示す如き、第1カメラ13や第2カメラ14の出力としてのライブ画像から抽出された人体部位画像を含む画像情報が用いられてもよい。図6Bに示すユーザ操作画像情報L2内の人体部位画像は、第1カメラ13のライブ画像から抽出された手として、操作者の手首から指先までを表している。図6Cに示すユーザ操作画像情報L2内の人体部位画像は、第1カメラ13のライブ画像から抽出された手として、操作に用いる指のみを表している。なお、図6Cに示す指は、視認性の向上のため、図6Bに示す指の部分を拡大している。但し、これに限らず、図6Cに示す指は、図6Bに示す指の部分と同じ大きさにしてもよい。また、ユーザ操作画像情報L2としては、図示しないが、第2カメラ14のライブ画像から抽出された足として、操作者の靴を表す人体部位画像を含む画像情報が用いられてもよい。また、各々の画像情報L1〜L3の名称「入力I/F画像情報」、「ユーザ操作画像情報」及び「操作補助画像情報」は、説明の便宜上の名称であり、適宜、変更して構わない。例えば、「入力I/F画像情報」、「ユーザ操作画像情報」及び「操作補助画像情報」は、それぞれ「第1画像情報」、「第2画像情報」及び「第3画像情報」と呼んでもよい。あるいは、「入力I/F画像情報」、「ユーザ操作画像情報」及び「操作補助画像情報」は、それぞれ「下位レイヤ情報」、「中間レイヤ情報」及び「上位レイヤ情報」と呼んでもよい。また、重畳して表示することは、オーバーレイ表示と表現してもよい。   As the image information of each layer, as shown in FIGS. 6A to 6C, input I / F image information L1, user operation image information L2, and operation auxiliary image information L3 can be used as appropriate. The user operation image information L2 is superimposed on the input I / F image information L1, and the operation auxiliary image information L3 is superimposed on the user operation image information L2, thereby generating an operation screen g2. Note that at least the input I / F image information L1 is used to generate the operation screen g2, and the user operation image information L2 and the operation auxiliary image information L3 are additionally used according to the operation situation. As the user operation image information L2, as shown in FIG. 6A, image information including a simulated human body part image representing a hand or a foot may be stored in the storage circuit 11. Alternatively, as the user operation image information L2, image information including a human body part image extracted from a live image as an output of the first camera 13 or the second camera 14 as shown in FIG. 6B or 6C may be used. Good. The human body part image in the user operation image information L2 illustrated in FIG. 6B represents the hand extracted from the live image of the first camera 13 from the wrist of the operator to the fingertip. The human body part image in the user operation image information L2 illustrated in FIG. 6C represents only a finger used for the operation as a hand extracted from the live image of the first camera 13. Note that the finger shown in FIG. 6C has an enlarged portion of the finger shown in FIG. 6B in order to improve visibility. However, the present invention is not limited thereto, and the finger shown in FIG. 6C may be the same size as the finger shown in FIG. 6B. Further, as the user operation image information L2, although not shown, image information including a human body part image representing the shoe of the operator may be used as a foot extracted from the live image of the second camera 14. The names “input I / F image information”, “user operation image information”, and “operation auxiliary image information” of the image information L1 to L3 are names for convenience of explanation, and may be changed as appropriate. . For example, “input I / F image information”, “user operation image information”, and “operation auxiliary image information” may be called “first image information”, “second image information”, and “third image information”, respectively. Good. Alternatively, “input I / F image information”, “user operation image information”, and “operation auxiliary image information” may be called “lower layer information”, “intermediate layer information”, and “upper layer information”, respectively. In addition, the superimposed display may be expressed as an overlay display.

入力I/F画像情報L1は、図7に示すように、入力インタフェース回路12であるハードウェアコンソール12H、タブレット端末12T及びフットスイッチ12Fの各々の操作面を表す第1画像情報であり、予め記憶されている。入力I/F画像情報L1としては、ハードウェアコンソール12H及びフットスイッチ12Fの場合には、例えば適宜、抽象化した画像を用いてもよく、予め撮影した外観画像を用いてもよい。入力I/F画像情報L1としては、タブレット端末12Tの場合には、例えば、前述同様に抽象化した画像を用いてもよく、タブレット端末12Tの表示画面の情報を用いてもよい。また、機能毎に、ボタンの絵柄情報を記憶しておき、機能割り当てに応じて各ボタンの絵柄情報を配置することにより、入力I/F画像情報L1を生成してもよい。   As shown in FIG. 7, the input I / F image information L1 is first image information representing the operation surfaces of the hardware console 12H, the tablet terminal 12T, and the foot switch 12F as the input interface circuit 12, and is stored in advance. Has been. As the input I / F image information L1, in the case of the hardware console 12H and the foot switch 12F, for example, an appropriately abstracted image may be used, or an external image taken in advance may be used. As the input I / F image information L1, in the case of the tablet terminal 12T, for example, an abstracted image as described above may be used, or information on a display screen of the tablet terminal 12T may be used. Alternatively, the button I / F image information L1 may be generated by storing the button pattern information for each function and arranging the button pattern information according to the function assignment.

これに加え、入力I/F画像情報L1としては、図8に示すように、レイアウト情報111及び割り当て情報112の各ページPg1〜Pg4に基づき、各ページPg1〜Pg4に対応して機能の割当てを変更してもよい。なお、割り当て情報112は、ボタンID毎に、機能及び操作補助情報を割り当てた情報であり、ページ毎に割り当て内容が異なっている。この場合、図9に示すように、例えばページPg1に対応する入力I/F画像情報L1を含む操作画面g2と、ページPg4に対応する入力I/F画像情報L1を含む操作画面g2とが切り替え表示可能となる。ここでいうページPg1〜Pg4は、例えば、脳、心臓、脚などの部位に対応した割り当て情報112としてもよく、検査単位であるプロトコルに対応した割り当て情報112としてもよい。この場合、部位又はプロトコルに連動した機能割り当てを実現できる。   In addition to this, as the input I / F image information L1, as shown in FIG. 8, function allocation is performed corresponding to each page Pg1 to Pg4 based on each page Pg1 to Pg4 of the layout information 111 and the allocation information 112. It may be changed. The allocation information 112 is information in which functions and operation assistance information are allocated for each button ID, and the allocation contents are different for each page. In this case, as shown in FIG. 9, for example, an operation screen g2 including the input I / F image information L1 corresponding to the page Pg1 and an operation screen g2 including the input I / F image information L1 corresponding to the page Pg4 are switched. It can be displayed. The pages Pg1 to Pg4 mentioned here may be, for example, the allocation information 112 corresponding to a part such as a brain, heart, or leg, or may be the allocation information 112 corresponding to a protocol that is an examination unit. In this case, it is possible to realize function assignment linked to the part or protocol.

なお、レイアウト情報111は、入力インタフェース回路12の操作面に配置されたボタン等のレイアウトを示す情報であり、各々のボタン等を識別するボタンIDの配置を示している。図10に示す例の場合、ハードウェアコンソール12Hの操作面に配置されたボタン等と、レイアウト情報111のボタンIDとが個別に対応している。この例では、レイアウト情報111は、操作面に配置されたボタン等のスイッチ及びその近傍領域と、ボタンIDとを対応付けている。また、ボタン等のスイッチに対応するボタンIDは、ダイヤルやレバーといったボタン以外のスイッチについては、適宜、ダイヤルIDやレバーIDと呼んでもよい。あるいは、「ボタン」、「ダイヤル」及び「レバー」をそれぞれ「ボタンスイッチ」、「ダイヤルスイッチ」及び「レバースイッチ」と呼んでもよい。また、「ボタン」、「ダイヤル」及び「レバー」をそれぞれ「スイッチ」と呼んでもよい。すなわち、「スイッチ」の用語は、「ボタン」、「ダイヤル」及び「レバー」等を包含する。   The layout information 111 is information indicating the layout of buttons and the like arranged on the operation surface of the input interface circuit 12, and indicates the arrangement of button IDs for identifying each button and the like. In the case of the example shown in FIG. 10, the buttons and the like arranged on the operation surface of the hardware console 12H and the button ID of the layout information 111 individually correspond to each other. In this example, the layout information 111 associates a switch such as a button arranged on the operation surface and its vicinity region with a button ID. The button ID corresponding to the switch such as a button may be appropriately called a dial ID or a lever ID for a switch other than the button such as a dial or a lever. Alternatively, “button”, “dial”, and “lever” may be referred to as “button switch”, “dial switch”, and “lever switch”, respectively. Further, the “button”, “dial”, and “lever” may be called “switches”. That is, the term “switch” includes “button”, “dial”, “lever”, and the like.

割り当て情報112は、ボタンID毎に、機能及び操作補助情報を割り当てた情報であり、図11に示すように、他の割り当て情報113と切り替える機能(Auto.Pos)を設定してもよい。他の割り当て情報113は、例えば、ボタンID毎に、数字入力及び操作補助情報を割り当てた情報である。この場合、AutoPosボタンの操作により、ボタンに数字入力を割り当てる場合と、ボタンに機能実行を割り当てる場合とを切り替えることができる。   The allocation information 112 is information in which functions and operation assistance information are allocated for each button ID, and a function (Auto.Pos) for switching to other allocation information 113 may be set as shown in FIG. The other assignment information 113 is, for example, information in which numeric input and operation assistance information are assigned for each button ID. In this case, the operation of the AutoPos button can be switched between assigning numeric input to the button and assigning function execution to the button.

また、割り当て情報112としては、図12に示すように、図11に示すように、他の機能の割り当てを示す割り当て情報112aと切り替える機能(機能の割り当て)を設定してもよい。割り当て情報112aは、例えば、ボタンID毎に、第2機能及び操作補助情報を割り当てた情報である。この場合、例えば、機能の切り替えが割り当てられたボタンID「bt27」のボタンのオンオフ状態に応じて、第1機能の割り当て情報112と、当該第1機能とは別の機能である第2機能の割り当て情報112aとが切り替えられて用いられる。   As the allocation information 112, as shown in FIG. 12, as shown in FIG. 11, a function (function allocation) to be switched to allocation information 112a indicating allocation of other functions may be set. The allocation information 112a is information in which the second function and the operation assistance information are allocated for each button ID, for example. In this case, for example, according to the on / off state of the button with the button ID “bt27” to which the function switching is assigned, the first function assignment information 112 and the second function which is a function different from the first function are included. The allocation information 112a is switched and used.

また、各々の割り当て情報112,113は、図13に示すように、ボタンID毎に、ボタンの状態を更に割り当ててもよい。ボタンの状態としては、例えば、ボタンの色、ボタンの点滅などが適宜、使用可能となっている。ボタンの状態を割り当て可能なことは、第2機能の割り当て情報112aでも同様である。   Further, as shown in FIG. 13, the allocation information 112 and 113 may further allocate a button state for each button ID. As the state of the button, for example, the color of the button, the blinking of the button, etc. can be used as appropriate. The fact that the button state can be assigned is the same as the assignment information 112a of the second function.

ユーザ操作画像情報L2は、操作者の手又は足を表す第2画像情報である。ユーザ操作画像情報L2は、第1カメラ13や第2カメラ14のライブ画像から抽出された手又は足を表す人体部位画像を含む第2画像情報であってもよい。人体部位画像は、当該手として、操作者の手首から指先までを表してもよい。また、人体部位画像は、当該手として、操作に用いる指のみを表してもよい。あるいは、ユーザ操作画像情報L2は、当該手又は足を表す模擬的な人体部位画像を含む第2画像情報であってもよい。ユーザ操作画像情報L2としては、図14A及び図14Bに示すように、操作者のジェスチャ毎に、当該ジェスチャに対応する画像情報を用いてもよい。図14Aに示す例では、ユーザ操作画像情報L2は、操作者200による二本指を伸ばすジェスチャを示す手の画像(人体部位画像)と、タブレット端末12T上を移動するユーザ操作を示す十文字の双方向矢印とを含んでいる。図14Bに示す例では、ユーザ操作画像情報L2は、操作者200による人差し指を伸ばすジェスチャを示す手の画像と、タブレット端末12T上のボタンを指定(機能実行)するユーザ操作を示す円弧形状の画像とを含んでいる。なお、ジェスチャとしては、指の移動やボタンの指定に限らず、任意の内容が設定可能である。伸ばす指の本数としては、1〜5本の間の任意の本数が使用可能となっている。また、双方向矢印や円弧形状の画像の如き、人体部位画像以外の画像は、ユーザ操作画像情報L2から省略してもよい。   The user operation image information L2 is second image information representing the operator's hand or foot. The user operation image information L2 may be second image information including a human body part image representing a hand or a foot extracted from a live image of the first camera 13 or the second camera 14. The human body part image may represent from the wrist of the operator to the fingertip as the hand. Further, the human body part image may represent only the fingers used for the operation as the hand. Alternatively, the user operation image information L2 may be second image information including a simulated human body part image representing the hand or foot. As the user operation image information L2, as shown in FIGS. 14A and 14B, image information corresponding to the gesture may be used for each gesture of the operator. In the example shown in FIG. 14A, the user operation image information L2 includes both an image of a hand (human body part image) indicating a gesture of extending two fingers by the operator 200 and a cross-character indicating a user operation moving on the tablet terminal 12T. And a directional arrow. In the example illustrated in FIG. 14B, the user operation image information L2 includes an image of a hand indicating a gesture of extending the index finger by the operator 200, and an arc-shaped image indicating a user operation for designating (function execution) a button on the tablet terminal 12T. Including. Note that the gesture is not limited to finger movement or button designation, and any content can be set. As the number of fingers to be extended, any number between 1 and 5 can be used. Further, images other than the human body part image such as a bidirectional arrow or an arc-shaped image may be omitted from the user operation image information L2.

また、人体部位画像として手の画像を含むユーザ操作画像情報L2をタブレット端末12Tの入力I/F画像情報L1に重畳させた場合、図15Aに示す如き、操作者200の手による操作に対応する操作画面g2が生成される。同様に、人体部位画像として手の画像を含むユーザ操作画像情報L2をハードウェアコンソール12Hの入力I/F画像情報L1に重畳させた場合、図15Bに示す如き、操作者200の手による操作に対応する操作画面g2が生成される。また同様に、人体部位画像として足の画像を含むユーザ操作画像情報L2をフットスイッチ12Fの入力I/F画像情報L1に重畳させた場合、図15Cに示す如き、操作者200の足による操作に対応する操作画面g2が生成される。   Further, when the user operation image information L2 including the hand image as the human body part image is superimposed on the input I / F image information L1 of the tablet terminal 12T, as shown in FIG. 15A, it corresponds to the operation by the operator 200 by the hand. An operation screen g2 is generated. Similarly, when the user operation image information L2 including the hand image as the human body part image is superimposed on the input I / F image information L1 of the hardware console 12H, the operation by the operator 200 is performed as shown in FIG. 15B. A corresponding operation screen g2 is generated. Similarly, when the user operation image information L2 including a foot image as a human body part image is superimposed on the input I / F image information L1 of the foot switch 12F, an operation with the foot of the operator 200 is performed as shown in FIG. 15C. A corresponding operation screen g2 is generated.

操作補助画像情報L3は、ハードウェアコンソール12H、タブレット端末12T及びフットスイッチ12Fの各々の操作面のスイッチ毎に、操作補助情報を含む第3画像情報である。具体的には例えば、操作補助画像情報L3は、割り当て情報112,112a,113内の操作補助情報(操作面のボタンID毎の操作補助情報)を含む第3画像情報であり、ユーザ操作に応じて選択的に用いられる。操作補助画像情報L3は、例えば、操作補助情報の文字列を記述した吹き出し画像であり、ボタン上で指が待機するユーザ操作に応じて用いられている。操作補助画像情報L3に含まれる操作補助情報は、割り当て情報112,112a,113内の操作補助情報のうち、当該指が待機したボタンのボタンIDに対応する操作補助情報が用いられる。図16に示す例は、図示しない割り当て情報112において、ボタンID「bt21」に対し、「透視マップ:直前に透視収集した画像を、動画で保存」の文字列を含む操作補助情報が対応付けられている場合に対応する。   The operation auxiliary image information L3 is third image information including operation auxiliary information for each operation surface switch of the hardware console 12H, the tablet terminal 12T, and the foot switch 12F. Specifically, for example, the operation auxiliary image information L3 is the third image information including the operation auxiliary information (operation auxiliary information for each button ID on the operation surface) in the allocation information 112, 112a, 113, depending on the user operation. Used selectively. The operation auxiliary image information L3 is, for example, a balloon image describing a character string of the operation auxiliary information, and is used according to a user operation in which a finger stands by on a button. As the operation assistance information included in the operation assistance image information L3, the operation assistance information corresponding to the button ID of the button on which the finger is waiting is used among the operation assistance information in the allocation information 112, 112a, and 113. In the example illustrated in FIG. 16, in the allocation information 112 (not shown), the operation ID information including the character string “perspective map: save the previously fluoroscopically collected image as a moving image” is associated with the button ID “bt21”. Corresponds to the case.

入力インタフェース回路12は、関心領域(ROI)の設定などを行うためのトラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、及び表示画面とタッチパッドとが一体化されたタッチパネルディスプレイ等によって実現される。本実施形態では、入力インタフェース回路12は、操作者の手元又は足元で操作される回路であり、ハードウェアコンソール12H、タブレット端末12T及びフットスイッチ12Fによって実現されている。ハードウェアコンソール12Hは、例えば、プラスチック製の複数のボタン、レバー、ダイヤル等により個別に実装され、操作者に操作されるハードウェアスイッチを備えている。タブレット端末12Tは、ボタン等のソフトウェアスイッチを表示するタッチ操作可能なタッチパネルディスプレイを備えている。タブレット端末12Tのタッチパネルディスプレイは、入力インタフェース回路12の操作を検出する操作検出手段の一例である。但し、本実施形態では、主に、第1カメラ13及び第2カメラ14が操作検出手段である場合を例に挙げて述べる。フットスイッチ12Fは、足踏み操作可能な複数のボタン(ペダル)を備えている。これらの入力インタフェース回路12は、制御回路15に接続されており、操作者から受け取った入力操作を電気信号へ変換し、制御回路15へと出力する。なお、本明細書において入力インタフェース回路12はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路15へ出力する電気信号の処理回路も入力インタフェース回路12の例に含まれる。   The input interface circuit 12 includes a trackball for setting a region of interest (ROI), a switch button, a mouse, a keyboard, a touch pad for performing an input operation by touching an operation surface, and a display screen and a touch pad. This is realized by an integrated touch panel display or the like. In the present embodiment, the input interface circuit 12 is a circuit operated by the operator's hand or foot, and is realized by the hardware console 12H, the tablet terminal 12T, and the foot switch 12F. The hardware console 12H includes hardware switches that are individually mounted by, for example, a plurality of plastic buttons, levers, dials, and the like and operated by an operator. The tablet terminal 12T includes a touch-operable touch panel display that displays software switches such as buttons. The touch panel display of the tablet terminal 12T is an example of an operation detection unit that detects an operation of the input interface circuit 12. However, in the present embodiment, the case where the first camera 13 and the second camera 14 are operation detection means will be mainly described as an example. The foot switch 12F includes a plurality of buttons (pedals) that can be stepped on. These input interface circuits 12 are connected to the control circuit 15, convert the input operation received from the operator into an electrical signal, and output it to the control circuit 15. In the present specification, the input interface circuit 12 is not limited to the one having physical operation parts such as a mouse and a keyboard. For example, an example of the input interface circuit 12 includes an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the apparatus and outputs the electric signal to the control circuit 15. It is.

第1カメラ13及び第2カメラ14は、それぞれ操作検出手段の一例であり、入力インタフェース回路12を撮影することにより、入力インタフェース回路12の操作を検出する。ここで、第1カメラ13は、入力インタフェース回路12のうち、操作者の手元で操作されるハードウェアコンソール12H及びタブレット端末12Tを撮影して動画データを制御回路15に送出する機能をもっている。第1カメラ13が配置される位置は、入力インタフェース回路12を撮影できる位置であればよい。第1カメラ13は、例えば、大画面モニタ7aの上部、検査室の天井、ハードウェアコンソール12Hの近傍、又はタブレット端末12Tの近傍などに配置される。   Each of the first camera 13 and the second camera 14 is an example of an operation detection unit, and detects an operation of the input interface circuit 12 by photographing the input interface circuit 12. Here, the first camera 13 has a function of photographing the hardware console 12 </ b> H and the tablet terminal 12 </ b> T operated by the operator in the input interface circuit 12 and sending the moving image data to the control circuit 15. The position where the first camera 13 is disposed may be a position where the input interface circuit 12 can be photographed. The first camera 13 is disposed, for example, in the upper part of the large screen monitor 7a, the ceiling of the examination room, the vicinity of the hardware console 12H, or the vicinity of the tablet terminal 12T.

第2カメラ14は、入力インタフェース回路12のうち、操作者の足元で操作されるフットスイッチ12Fを撮影して動画データを制御回路15に送出する機能をもっている。第2カメラ14が配置される位置は、入力インタフェース回路12を撮影できる位置であればよい。第2カメラ14は、例えば、フットスイッチ12Fの把持部、又は天板91の下部などに配置される。   The second camera 14 has a function of photographing the foot switch 12F operated by the operator's feet in the input interface circuit 12 and sending moving image data to the control circuit 15. The position where the second camera 14 is disposed may be a position where the input interface circuit 12 can be photographed. The second camera 14 is disposed, for example, at a grip portion of the foot switch 12F or a lower portion of the top plate 91.

制御回路15は、図示しないプロセッサとメモリを備え、入力インタフェース回路12にて入力あるいは設定された上述の各種情報がメモリに保存される。そして、プロセッサは、これらの入力情報や設定情報に基づいてX線診断装置100の各ユニットを統括的に制御し、被検体150に対し安全かつ効率のよいX線撮影を行なう。   The control circuit 15 includes a processor and a memory (not shown), and the above-described various information input or set by the input interface circuit 12 is stored in the memory. The processor comprehensively controls each unit of the X-ray diagnostic apparatus 100 based on these input information and setting information, and performs safe and efficient X-ray imaging on the subject 150.

これに加え、制御回路15のプロセッサは、記憶回路11内のプログラムを呼び出し実行することにより、プログラムに対応する入力処理機能151、画面生成機能152、表示制御機能153及び生成制御機能154を実現する。なお、図1においては単一の制御回路15にて入力処理機能151、画面生成機能152、表示制御機能153及び生成制御機能154が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて制御回路を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。また、入力処理機能151、画面生成機能152、表示制御機能153及び生成制御機能154の分担は、便宜的なものであり、適宜、変更可能である。例えば、入力処理機能151の実行内容(検出など)を画面生成機能152が実行してもよい。   In addition to this, the processor of the control circuit 15 calls and executes a program in the storage circuit 11, thereby realizing an input processing function 151, a screen generation function 152, a display control function 153, and a generation control function 154 corresponding to the program. . In FIG. 1, the input processing function 151, the screen generation function 152, the display control function 153, and the generation control function 154 have been described as being realized by a single control circuit 15, but a plurality of independent processors are combined. The control circuit may be configured so that each processor realizes each function by executing a program. Also, the assignment of the input processing function 151, the screen generation function 152, the display control function 153, and the generation control function 154 is convenient and can be changed as appropriate. For example, the screen generation function 152 may execute the execution contents (detection, etc.) of the input processing function 151.

ここで、入力処理機能151は、入力インタフェース回路12の操作に応じて、入力処理を実行する機能である。入力処理としては、例えば、前述した各層の画像情報L1〜L3、レイアウト情報111、及び割り当て情報112,112a,112a1,112a2,112bといった各種情報を記憶回路11に書き込む処理がある。   Here, the input processing function 151 is a function for executing input processing in accordance with the operation of the input interface circuit 12. As the input process, for example, there is a process of writing various information such as the image information L1 to L3 of each layer, the layout information 111, and the allocation information 112, 112a, 112a1, 112a2, and 112b in the storage circuit 11.

これに加え、入力処理機能151は、第1カメラ13及び第2カメラ14の出力に基づいて操作状況を検出する機能をもっていてもよい。操作状況としては、例えば、(a)操作者の手又は足が移動した状況、(b)X線透視中又はX線撮影中である状況、(c)操作者が所定時間を超えて動かない状況、あるいは、(d)操作者が撮影されていない状況、などが適宜、使用可能となっている。   In addition to this, the input processing function 151 may have a function of detecting an operation state based on outputs of the first camera 13 and the second camera 14. For example, (a) a situation in which the operator's hand or foot has moved, (b) a situation in which X-ray fluoroscopy or radiography is being performed, and (c) an operator does not move beyond a predetermined time. The situation, or (d) the situation where the operator is not photographed can be used as appropriate.

また、入力処理機能151は、第1カメラ13及び第2カメラ14の出力に基づいて、操作者のジェスチャを検出する機能をもっていてもよい。また、入力処理機能151は、タブレット端末12Tの出力に基づいて、操作者のジェスチャを検出する機能をもっていてもよい。   Further, the input processing function 151 may have a function of detecting an operator's gesture based on outputs of the first camera 13 and the second camera 14. The input processing function 151 may have a function of detecting an operator's gesture based on the output of the tablet terminal 12T.

また、入力処理機能151は、第1カメラ13及び第2カメラ14の出力に基づいて、操作者の手又は足が接近したスイッチを検出する機能をもっていてもよい。また、入力処理機能151は、タブレット端末12Tの出力に基づいて、操作者の手が接近したスイッチを検出する機能をもっていてもよい。   Further, the input processing function 151 may have a function of detecting a switch in which the operator's hand or foot is approached based on the outputs of the first camera 13 and the second camera 14. The input processing function 151 may have a function of detecting a switch that the operator's hand approaches based on the output of the tablet terminal 12T.

画面生成機能152は、第1カメラ13及び第2カメラ14(又はタブレット端末12T)の出力に基づいて、入力I/F画像情報L1上にユーザ操作画像情報L2を重畳して操作画面データを生成する機能をもっている。なお、画面生成機能152は、例えば、次の機能(f152a)又は(f152b)を含んでもよい。   The screen generation function 152 generates operation screen data by superimposing user operation image information L2 on the input I / F image information L1 based on the outputs of the first camera 13 and the second camera 14 (or the tablet terminal 12T). It has a function to do. The screen generation function 152 may include, for example, the following function (f152a) or (f152b).

(f152a):検出されたジェスチャに対応するユーザ操作画像情報L2を用いて操作画面データを生成する機能。   (F152a): A function of generating operation screen data using the user operation image information L2 corresponding to the detected gesture.

(f152b):検出されたスイッチに応じた操作補助画像情報L3を重畳して操作画面データを生成する機能。   (F152b): A function of generating operation screen data by superimposing the operation auxiliary image information L3 corresponding to the detected switch.

このような画面生成機能152によれば、例えば図17に示すように、1つの画像情報L1で表現された操作画面g2を、2つ又は3つの画像情報L1〜L2,L1〜L3で表現された操作画面g2に切り替え表示可能となる。また例えば、割り当て情報112のあるページPg1の入力I/F画像情報L1で表現された操作画面g2を、他のページPg4の入力I/F画像情報L1で表現された操作画面gに切り替え表示可能となる。また例えば、図11乃至図13に述べた通り、割り当て情報112,112a,113に基づき、異なる割り当て状態の入力I/F画像情報L1で表現された操作画面g2に切り替え表示可能となる。また例えば、図14A及び図14Bに述べた通り、操作者200のジェスチャに応じた操作画面g2に切り替え表示可能となる。   According to such a screen generation function 152, for example, as shown in FIG. 17, the operation screen g2 expressed by one image information L1 is expressed by two or three pieces of image information L1-L2, L1-L3. The operation screen g2 can be switched and displayed. Further, for example, the operation screen g2 expressed by the input I / F image information L1 of the page Pg1 with the allocation information 112 can be switched to the operation screen g expressed by the input I / F image information L1 of the other page Pg4. It becomes. Further, for example, as described in FIGS. 11 to 13, the operation screen g <b> 2 represented by the input I / F image information L <b> 1 in different assignment states can be switched and displayed based on the assignment information 112, 112 a, 113. Further, for example, as described in FIGS. 14A and 14B, it is possible to switch and display the operation screen g2 according to the gesture of the operator 200.

表示制御機能153は、操作状況に応じて操作画面g2の表示を開始又は終了するように表示回路7を制御する機能をもっている。なお、表示制御機能153は、例えば、次の機能(f153a)又は(f153b)を含んでもよい。   The display control function 153 has a function of controlling the display circuit 7 so as to start or end the display of the operation screen g2 according to the operation status. The display control function 153 may include, for example, the following function (f153a) or (f153b).

(f153a):操作者の手又は足の移動が操作状況として検出されたとき、操作画面g2の表示を開始するように表示回路7を制御する機能。   (F153a): A function of controlling the display circuit 7 to start displaying the operation screen g2 when the movement of the operator's hand or foot is detected as the operation status.

(f153b):X線透視中又はX線撮影中であることが操作状況として検出されたとき、操作画面g2の表示を終了するように表示回路7を制御する機能。これにより、例えば、実行できない操作を表示せず、誤操作を予防することができる。   (F153b): A function of controlling the display circuit 7 to end the display of the operation screen g2 when it is detected as an operation state that X-ray fluoroscopy or X-ray imaging is being performed. Thereby, for example, an operation that cannot be performed is not displayed, and an erroneous operation can be prevented.

なお、表示制御機能153は、操作画面g2の表示を終了するとき、図18に示すように、操作画面g2を他の画面g3に切り替えるように表示回路7を制御してもよい。他の画面g3としては、例えば、被検体150に関する情報画面を用いてもよい。あるいは、操作画面g2の表示を終了するとき、操作画面g2が表示されていた領域に、他の画面g3を表示しなくてもよい。   Note that when the display of the operation screen g2 is ended, the display control function 153 may control the display circuit 7 to switch the operation screen g2 to another screen g3 as shown in FIG. As another screen g3, for example, an information screen related to the subject 150 may be used. Alternatively, when the display of the operation screen g2 is ended, the other screen g3 may not be displayed in the area where the operation screen g2 was displayed.

生成制御機能154は、操作状況に応じてユーザ操作画像情報L2又は操作補助画像情報L3を重畳しないように画面生成機能152を制御する機能をもっている。例えば、生成制御機能154は、操作状況に応じて、1つの画像情報L3を準備しない、又は2つの画像情報L2,L3を準備しない。これにより、準備しない画像情報L2,L3については、重畳しないように画面生成機能152を制御することができる。操作状況としては、例えば、操作者が所定時間を超えて動かない状況、あるいは、操作者が撮影されていない状況、などが適宜、使用可能となっている。これにより、例えば、操作していないときに操作補助画像情報L3を表示するといった無駄な表示を防ぐことができる。   The generation control function 154 has a function of controlling the screen generation function 152 so as not to superimpose the user operation image information L2 or the operation auxiliary image information L3 according to the operation situation. For example, the generation control function 154 does not prepare one piece of image information L3 or two pieces of image information L2 and L3 depending on the operation situation. Accordingly, the screen generation function 152 can be controlled so that the image information L2 and L3 that are not prepared are not superimposed. As the operation situation, for example, a situation in which the operator does not move for a predetermined time or a situation in which the operator is not photographed can be used as appropriate. Thereby, for example, useless display such as displaying the operation auxiliary image information L3 when not operating can be prevented.

また、生成制御機能154は、ユーザ操作画像情報L2を準備する機能として、例えば、次の機能(f154a)〜(f154c)の少なくとも1つを含んでもよい。   The generation control function 154 may include at least one of the following functions (f154a) to (f154c), for example, as a function for preparing the user operation image information L2.

(f154a):入力I/F回路12を撮影するカメラ13,14の出力としてのライブ画像から手又は足を表す人体部位画像を抽出し、当該人体部位画像を含むユーザ操作画像情報L2を準備する機能。ここで、人体部位画像は、手として、操作者の手首から指先までを表してもよい。また、人体部位画像は、手として、操作に用いる指のみを表してもよい。   (F154a): A human body part image representing a hand or a foot is extracted from a live image as an output of the cameras 13 and 14 that captures the input I / F circuit 12, and user operation image information L2 including the human body part image is prepared. function. Here, the human body part image may represent from the wrist of the operator to the fingertip as a hand. Further, the human body part image may represent only fingers used for the operation as hands.

(f154b):人体部位画像が、手として、操作に用いる指のみを表す場合に、ライブ画像に表される手の形状に基づいて、当該操作に用いる指を決定し、当該決定した指を表す人体部位画像を抽出し、当該人体部位画像を含むユーザ操作画像情報L2を準備する機能。   (F154b): When the human body part image represents only the finger used for the operation as a hand, the finger used for the operation is determined based on the shape of the hand represented in the live image, and the determined finger is represented. A function of extracting a human body part image and preparing user operation image information L2 including the human body part image.

(f154c):記憶回路11が、手又は足を表す模擬的な人体部位画像を含むユーザ操作画像情報L2を記憶している場合に、記憶回路11からユーザ操作画像情報L2を読み出して、当該ユーザ操作画像情報L2を準備する機能。   (F154c): When the storage circuit 11 stores user operation image information L2 including a simulated human body part image representing a hand or a foot, the user operation image information L2 is read from the storage circuit 11, and the user A function for preparing the operation image information L2.

次に、以上のように構成されたX線診断装置の動作について図19乃至図23を用いて説明する。なお、以下の説明は、操作者による操作について述べた後、その操作を支援するX線診断装置の動作について述べる。   Next, the operation of the X-ray diagnostic apparatus configured as described above will be described with reference to FIGS. In the following description, after an operation by the operator is described, an operation of the X-ray diagnostic apparatus that supports the operation will be described.

(操作者による操作)
被検体150のX線撮影に先立ち、X線診断装置100の操作者は、入力インタフェース回路12より被検体情報の入力やX線照射条件の設定を行なう。更に、操作者は、入力インタフェース回路12の操作により、保持装置8の保持部(Cアーム)81に取り付けられた撮像系や、被検体150が載置された寝台部9の天板91を所定の位置に移動/回動させる。
(Operation by the operator)
Prior to X-ray imaging of the subject 150, the operator of the X-ray diagnostic apparatus 100 inputs subject information and sets X-ray irradiation conditions from the input interface circuit 12. Furthermore, the operator operates the input interface circuit 12 to operate the imaging system attached to the holding unit (C arm) 81 of the holding device 8 and the top plate 91 of the bed unit 9 on which the subject 150 is placed. Move / turn to position.

次に、操作者は、入力インタフェース回路12においてX線透視の開始コマンドを入力する。これにより、X線診断装置100は、被検体150に対するX線透視を開始し、このときX線撮影部1及び画像生成回路6によって生成される透視画像データの観測下にて撮像系を所望位置に向けて移動させる。   Next, the operator inputs an X-ray fluoroscopic start command in the input interface circuit 12. As a result, the X-ray diagnostic apparatus 100 starts X-ray fluoroscopy with respect to the subject 150, and at this time, the imaging system is moved to a desired position under observation of fluoroscopic image data generated by the X-ray imaging unit 1 and the image generation circuit 6. Move towards.

次いで、X線診断装置100は、X透視画像データの観察下にて撮像系の低速度移動/回動を行なう。操作者は、この撮像系を被検体150の所望位置に設定してX線撮影を開始するように、入力インタフェース回路12の操作により、撮像系の移動/回動を停止させるためのコマンド信号とX線撮影を開始するためのコマンド信号を入力する。   Next, the X-ray diagnostic apparatus 100 performs low-speed movement / rotation of the imaging system under observation of X-ray fluoroscopic image data. The operator sets the imaging system at a desired position of the subject 150 and starts commanding the X-ray imaging so as to stop the movement / rotation of the imaging system by operating the input interface circuit 12. A command signal for starting X-ray imaging is input.

これらのコマンド信号を受信した制御回路15は、予め設定されたX線撮影条件に基づいて被検体150に対するX線撮影を行う。   Upon receiving these command signals, the control circuit 15 performs X-ray imaging on the subject 150 based on preset X-ray imaging conditions.

このように、操作者は、入力インタフェース回路12を操作することにより、X線診断装置100を動作させる。   Thus, the operator operates the X-ray diagnostic apparatus 100 by operating the input interface circuit 12.

(操作を支援するためのX線診断装置100の動作:図19乃至図23)
次に、X線診断装置100は、以上のような操作を支援するため、図19のステップST1〜ST7に示すように動作する。
(Operation of X-ray Diagnostic Apparatus 100 for Supporting Operation: FIGS. 19 to 23)
Next, the X-ray diagnostic apparatus 100 operates as shown in steps ST1 to ST7 in FIG. 19 in order to support the above operation.

ステップST1において、第1カメラ13及び第2カメラ14は、それぞれ入力インタフェース回路12を撮影する。ここで、第1カメラ13は、入力インタフェース回路12のうち、操作者の手元で操作されるハードウェアコンソール12H及びタブレット端末12Tを撮影し、動画データを制御回路15に出力する。第2カメラ14は、入力インタフェース回路12のうち、操作者の足元で操作されるフットスイッチ12Fを撮影し、動画データを制御回路15に出力する。   In step ST1, the first camera 13 and the second camera 14 each photograph the input interface circuit 12. Here, the first camera 13 shoots the hardware console 12 </ b> H and the tablet terminal 12 </ b> T operated by the operator in the input interface circuit 12, and outputs moving image data to the control circuit 15. The second camera 14 takes an image of the foot switch 12 </ b> F that is operated by the operator's feet in the input interface circuit 12, and outputs moving image data to the control circuit 15.

ステップST2において、制御回路15の入力処理機能151は、第1カメラ13及び第2カメラ14の出力に基づいて、操作状況を検出する。操作状況としては、例えば、(a)操作者の手又は足が移動した状況、(b)X線透視中又はX線撮影中である状況、(c)操作者が所定時間を超えて動かない状況、あるいは、(d)操作者が撮影されていない状況、などがある。また、操作状況としては、(e)操作者のジェスチャ、(f)操作者の手又は足が接近したスイッチ、などを含めてもよい。   In step ST <b> 2, the input processing function 151 of the control circuit 15 detects the operation status based on the outputs of the first camera 13 and the second camera 14. For example, (a) a situation in which the operator's hand or foot has moved, (b) a situation in which X-ray fluoroscopy or radiography is being performed, and (c) an operator does not move beyond a predetermined time. There are situations, or (d) situations where the operator is not photographed. Further, the operation status may include (e) an operator's gesture, (f) a switch in which the operator's hand or foot is approached, and the like.

ステップST3〜ST7において、表示制御機能153は、当該操作状況に応じて操作画面g2の表示を開始又は終了するように表示回路7を制御する。例えば、操作画面g2の表示を開始する場合には、操作画面g2を生成するように画面生成機能152を制御する。また、操作画面g2の表示を終了する場合には、操作画面g2を生成しないように画面生成機能152を制御する。なお、これに限らず、常に操作画面g2を生成しておき、操作画面g2を表示するか否かを制御してもよい。以下では、画面生成機能152を制御する場合を例に挙げて述べる。   In steps ST3 to ST7, the display control function 153 controls the display circuit 7 to start or end the display of the operation screen g2 according to the operation status. For example, when the display of the operation screen g2 is started, the screen generation function 152 is controlled so as to generate the operation screen g2. Further, when the display of the operation screen g2 is ended, the screen generation function 152 is controlled so as not to generate the operation screen g2. However, the present invention is not limited to this, and the operation screen g2 may be always generated and whether or not the operation screen g2 is displayed may be controlled. Hereinafter, a case where the screen generation function 152 is controlled will be described as an example.

具体的にはステップST3において、表示制御機能153は、当該操作状況に応じて操作画面g2を表示するか否かを判定し、操作画面g2を表示する場合にはステップST4に進む。ステップST3の判定の結果、否の場合にはステップST1に戻る。このようなステップST3は、例えば図20のステップST3−1〜ST3−5に示すように実行される。   Specifically, in step ST3, the display control function 153 determines whether or not to display the operation screen g2 according to the operation status, and proceeds to step ST4 when displaying the operation screen g2. If the result of determination in step ST3 is no, the process returns to step ST1. Such step ST3 is executed, for example, as shown in steps ST3-1 to ST3-5 in FIG.

すなわち、表示制御機能153は、X線透視中又はX線撮影中の状況(ステップST3−1;Yes)、又は操作者の指及び足が移動しない状況(ステップST3−2;No、ST3−3;No)のとき、操作画面g2を表示しない旨を判定する(ステップST3−4)。また、表示制御機能153は、X線透視中又はX線撮影中でない状況(ステップST3−1;No)であって、操作者の指又は足が移動した状況(ステップST3−2;Yes、ST3−3;Yes)のとき、操作画面g2を表示する旨を判定する(ステップST3−5)。ステップST3−5の後、ステップST4に進む。   That is, the display control function 153 is in a situation during fluoroscopy or radiography (step ST3-1; Yes), or a situation where the operator's finger and foot do not move (step ST3-2; No, ST3-3). ;), It is determined that the operation screen g2 is not displayed (step ST3-4). Further, the display control function 153 is in a situation where X-ray fluoroscopy or X-ray imaging is not being performed (step ST3-1; No), and the operator's finger or foot has moved (step ST3-2; Yes, ST3). -3; Yes), it is determined to display the operation screen g2 (step ST3-5). It progresses to step ST4 after step ST3-5.

ステップST4において、制御回路15の生成制御機能154は、3つの画像情報L1〜L3のうち、操作状況に応じた画像情報を準備する。このようなステップST4は、例えば図21のステップST4−1〜ST4−5に示すように実行される。   In step ST4, the generation control function 154 of the control circuit 15 prepares image information corresponding to the operation status among the three pieces of image information L1 to L3. Such step ST4 is executed, for example, as shown in steps ST4-1 to ST4-5 in FIG.

すなわち、生成制御機能154は、入力I/F画像情報L1を記憶回路11から読み出すことにより、当該入力I/F画像情報L1を準備する(ステップST4−1)。   That is, the generation control function 154 prepares the input I / F image information L1 by reading the input I / F image information L1 from the storage circuit 11 (step ST4-1).

また、生成制御機能154は、操作状況として、操作者の手又は足が検出されていない場合(ステップST4−2;No)には、ステップST5に進む。操作状況として、操作者の手又は足が検出された場合(ステップST4−2;Yes)には、生成制御機能154は、ユーザ操作画像情報L2を記憶回路11から読み出すことにより、当該ユーザ操作画像情報L2を準備する(ステップST4−3)。なお、生成制御機能154は、カメラ13,14の出力としてのライブ画像から手又は足を表す人体部位画像を抽出し、当該人体部位画像を含むユーザ操作画像情報L2を準備してもよい。あるいは、生成制御機能154は、当該ライブ画像に表される手の形状に基づいて、当該操作に用いる指を決定し、当該決定した指を表す人体部位画像を抽出することにより、当該人体部位画像を含むユーザ操作画像情報L2を準備してもよい。また、操作状況として、操作者のジェスチャを検出した場合には、ジェスチャに応じたユーザ操作画像情報L2が準備される。   The generation control function 154 proceeds to step ST5 when the operator's hand or foot is not detected as the operation status (step ST4-2; No). When the operator's hand or foot is detected as the operation status (step ST4-2; Yes), the generation control function 154 reads the user operation image information L2 from the storage circuit 11, thereby the user operation image. Information L2 is prepared (step ST4-3). Note that the generation control function 154 may extract a human body part image representing a hand or a foot from a live image as an output of the cameras 13 and 14, and prepare user operation image information L2 including the human body part image. Alternatively, the generation control function 154 determines a finger to be used for the operation based on the shape of the hand represented in the live image, and extracts the human body part image representing the determined finger, whereby the human body part image User operation image information L2 including may be prepared. Further, when an operator's gesture is detected as the operation status, user operation image information L2 corresponding to the gesture is prepared.

さらに、生成制御機能154は、操作状況として、操作者が所定時間を超えて動かない場合(ステップST4−4;No)には、ステップST5に進む。操作状況として、操作者が所定時間内で動いた場合(ステップST4−4;Yes)には、生成制御機能154は、操作補助画像情報L3を記憶回路11から読み出すことにより、当該操作補助画像情報L3を準備する(ステップST4−5)。なお、操作状況として、操作者の手又は足が接近したボタンを検出した場合には、ボタンに応じた操作補助画像情報L3が準備される。ここで、ボタンに応じた操作補助画像情報L3は、例えば、ボタンのボタンIDに対応する操作補助情報を含む画像情報L3である。いずれにしても、ステップST4−5の後、ステップST5に進む。   Furthermore, the generation control function 154 proceeds to step ST5 when the operator does not move beyond a predetermined time as the operation status (step ST4-4; No). When the operator moves within a predetermined time as the operation status (step ST4-4; Yes), the generation control function 154 reads the operation auxiliary image information L3 from the storage circuit 11, thereby the operation auxiliary image information. L3 is prepared (step ST4-5). Note that, when a button with the operator's hand or foot approaching is detected as the operation status, operation auxiliary image information L3 corresponding to the button is prepared. Here, the operation auxiliary image information L3 corresponding to the button is, for example, image information L3 including the operation auxiliary information corresponding to the button ID of the button. In any case, after step ST4-5, the process proceeds to step ST5.

ステップST5において、制御回路15の画面生成機能152は、ステップST4で準備された画像情報L1〜L3を順に重畳して操作画面データを生成する。すなわち、1つの画像情報L1のみが準備された場合、画面生成機能152は、入力I/F画像情報L1から操作画面データを生成する。2つの画像情報L1,L2のみが準備された場合、画面生成機能152は、入力I/F画像情報L1上にユーザ操作画像情報L2を重畳して操作画面データを生成する。3つの画像情報L1〜L3が準備された場合、画面生成機能152は、入力I/F画像情報L1上にユーザ操作画像情報L2を重畳し、ユーザ操作画像情報L2上に操作補助画像情報L3を更に重畳して操作画面データを生成する。   In step ST5, the screen generation function 152 of the control circuit 15 generates operation screen data by sequentially superimposing the image information L1 to L3 prepared in step ST4. That is, when only one image information L1 is prepared, the screen generation function 152 generates operation screen data from the input I / F image information L1. When only two pieces of image information L1 and L2 are prepared, the screen generation function 152 generates operation screen data by superimposing user operation image information L2 on the input I / F image information L1. When the three pieces of image information L1 to L3 are prepared, the screen generation function 152 superimposes the user operation image information L2 on the input I / F image information L1, and displays the operation auxiliary image information L3 on the user operation image information L2. Further, operation screen data is generated by superimposing.

ステップST6において、表示回路7の大画面モニタ7aは、操作画面データに基づいて、操作者に視認される操作画面g2を表示する。なお、大画面モニタ7aは、操作者の手元又は足元で操作される入力インタフェース回路12とは離間して配置されている。   In step ST6, the large screen monitor 7a of the display circuit 7 displays the operation screen g2 visually recognized by the operator based on the operation screen data. The large screen monitor 7a is disposed away from the input interface circuit 12 operated by the operator's hand or foot.

従って、操作者は、手元又は足元の入力インタフェース回路12を視認せずに、大画面モニタ7aに表示された操作画面g2を視認しながら、入力インタフェース回路12を操作することができる。   Therefore, the operator can operate the input interface circuit 12 while visually recognizing the operation screen g2 displayed on the large screen monitor 7a without visually recognizing the input interface circuit 12 at hand or foot.

このとき、図22に示すように、入力インタフェース回路12のうち、タブレット端末12Tの操作面(ガラス面)に照明光などの映り込みが発生したとする。この場合でも、大画面モニタ7aに表示される操作画面g2は、入力I/F画像情報L1を用いているため、映り込みの影響がなく、視認し易い画面となっている。   At this time, as shown in FIG. 22, it is assumed that illumination light or the like is reflected on the operation surface (glass surface) of the tablet terminal 12T in the input interface circuit 12. Even in this case, since the operation screen g2 displayed on the large screen monitor 7a uses the input I / F image information L1, the screen is not affected by the reflection and is easy to visually recognize.

また、図23に示すように、入力インタフェース回路12のうち、ハードウェアコンソール12Hやタブレット端末12T上にドレープ170を掛けていたとする。この場合でも、大画面モニタ7aに表示される操作画面g2は、入力I/F画像情報L1を用いているため、ドレープ170の影響がなく、視認し易い画面となっている。   Further, as shown in FIG. 23, it is assumed that a drape 170 is hung on the hardware console 12H or the tablet terminal 12T in the input interface circuit 12. Even in this case, since the operation screen g2 displayed on the large screen monitor 7a uses the input I / F image information L1, the screen is not affected by the drape 170 and is easy to visually recognize.

以上のステップST1〜ST6は、X線診断装置100が動作を終了するまで、繰り返し実行される(ステップST7)。   The above steps ST1 to ST6 are repeatedly executed until the operation of the X-ray diagnostic apparatus 100 is completed (step ST7).

上述したように一実施形態によれば、操作者の手元又は足元で操作される入力インタフェース手段の操作面を示す第1画像情報を記憶する。画面生成手段は、入力インタフェース手段の操作を検出する操作検出手段の出力に基づいて、第1画像情報上に、操作者の手又は足を表す第2画像情報を重畳して操作画面データを生成する。表示手段は、入力インタフェース手段とは離間して配置され、操作画面データに基づいて、操作者に視認される操作画面を表示する。   As described above, according to one embodiment, the first image information indicating the operation surface of the input interface means operated at the operator's hand or foot is stored. The screen generation means generates operation screen data by superimposing the second image information representing the hand or foot of the operator on the first image information based on the output of the operation detection means for detecting the operation of the input interface means. To do. The display means is arranged apart from the input interface means, and displays an operation screen visually recognized by the operator based on the operation screen data.

従って、操作者が手元又は足元の入力インタフェースを視認せずに、入力インタフェースを操作することができる。すなわち、従来、カテーテル手技などの際に、操作者は、モニタで医用画像を見た後、フットスイッチやコンソールに視線を移動させてスイッチ操作をしていたので、視線の移動が煩わしい場合があった。これに対し、一実施形態によれば、操作者が手元又は足元の入力インタフェースを視認せずに操作できるので、従来に比べ、視線の移動が少なくて済み、煩わしさを低減させることができる。   Therefore, the operator can operate the input interface without visually recognizing the input interface at hand or foot. That is, conventionally, when performing a catheterization procedure or the like, the operator has viewed the medical image on the monitor, and then moved the line of sight to the foot switch or console to perform the switch operation. It was. On the other hand, according to one embodiment, since the operator can operate without visually recognizing the input interface at the hand or foot, the movement of the line of sight is less than in the conventional case, and the troublesomeness can be reduced.

これに加え、大画面モニタ7aに表示される操作画面g2は、ハードウェアコンソール12Hやフットスイッチ12F等のボタンの画像と、当該ボタンの機能を説明するボタン名又は絵柄などの情報とを入力I/F画像情報L1に含んでいてもよい。この場合、機能を説明する情報が操作画面g2に含まれるため、操作者は機能を理解し易くなる。仮に機能の切り替えが行われても、機能の説明が切り替え表示されるため、操作者はボタンの設定を認識し易くなる。例えば、プロトコルに連動して機能割り当てを変更する場合でも、変更後の機能に関する情報が操作画面g2に表示されるので、操作者は、割り当てられた機能を判断することができる。また、ボタンの状態(色、点滅状態)の設定も可能とする場合には、操作者の好みに応じた入力I/F画像情報L1を含む操作画面g2を表示することができる。また同様に、ボタンに数字入力を割り当てる場合と、ボタンに機能実行を割り当てる場合とを切り替えたとしても、割り当て内容が操作画面g2に表示されるので、操作者は、割り当て内容を判断することができる。また同様に、第1機能を割り当てたボタン配置と、第2機能を割り当てたボタン配置とを切り替えたとしても、割り当て内容が操作画面g2に表示されるので、操作者は、割り当て内容を判断することができる。また、これにより、従来、困難だった機能割り当てのページ送りの如き、ボタン配置単位での機能の割り当て変更が可能となる。   In addition to this, the operation screen g2 displayed on the large screen monitor 7a is used to input an image of a button such as the hardware console 12H or the foot switch 12F and information such as a button name or a picture for explaining the function of the button. / F image information L1 may be included. In this case, since information describing the function is included in the operation screen g2, the operator can easily understand the function. Even if the function is switched, the explanation of the function is switched and displayed, so that the operator can easily recognize the button setting. For example, even when the function assignment is changed in conjunction with the protocol, the information related to the changed function is displayed on the operation screen g2, so that the operator can determine the assigned function. Further, when setting of the button state (color, blinking state) is also possible, the operation screen g2 including the input I / F image information L1 according to the preference of the operator can be displayed. Similarly, even if the number input is assigned to the button and the function execution is assigned to the button, the assigned content is displayed on the operation screen g2, so that the operator can determine the assigned content. it can. Similarly, even if the button arrangement to which the first function is assigned and the button arrangement to which the second function is assigned are switched, the assigned content is displayed on the operation screen g2, so that the operator determines the assigned content. be able to. This also makes it possible to change the function assignment in units of button arrangement, such as page assignment for function assignment, which has heretofore been difficult.

また、第1カメラ13及び第2カメラ14などで撮影した操作者の手又は足を模擬したユーザ操作画像情報L2を、前述した入力I/F画像情報L1に重畳させた操作画面g2を大画面モニタ7a上に表示する。従って、操作者は、ボタンの配置と、手又は足の位置とを把握しやすくなり、医用画像g1や被検体150から少ない目線移動で実行したい機能のボタンを操作することができる。なお、タブレット端末12Tについては、第1カメラ13及び第2カメラ14の出力に代えて、当該タブレット端末12Tの操作面上の指の移動をトレースすることにより、ユーザ操作画像情報L2を準備してもよい。また、ユーザ操作画像情報L2としては、第1カメラ13及び第2カメラ14の出力としてのライブ画像から抽出した手又は足を表す人体部位画像を含む画像情報を用いてもよい。この場合、操作者は、より一層、ボタンの配置と、手又は足の位置とを把握し易くなる。   In addition, an operation screen g2 in which user operation image information L2 simulating an operator's hand or foot photographed by the first camera 13 and the second camera 14 is superimposed on the input I / F image information L1 described above is a large screen. It is displayed on the monitor 7a. Therefore, the operator can easily grasp the button arrangement and the position of the hand or foot, and can operate the button of the function that the user wants to execute from the medical image g1 or the subject 150 with a few eye movements. In addition, about the tablet terminal 12T, it replaces with the output of the 1st camera 13 and the 2nd camera 14, and prepares user operation image information L2 by tracing the movement of the finger on the operation surface of the said tablet terminal 12T. Also good. Further, as the user operation image information L2, image information including a human body part image representing a hand or a leg extracted from live images as outputs of the first camera 13 and the second camera 14 may be used. In this case, it becomes easier for the operator to grasp the arrangement of the buttons and the position of the hand or foot.

また、従来のタブレット端末12Tを視認して操作する場合には、操作者の立ち位置や設置位置によって操作面に映り込みが発生するため、操作面を凝視する必要がある。また、映り込みがある場合でも、タブレット端末12Tは、操作面が平坦なため、手探りでボタン配置を判断できない。これに対し、一実施形態によれば、大画面モニタ7aに操作者の指を示すユーザ操作画像情報L2が操作面を示す入力I/F画像情報L1上に表示されるので、操作者は、映り込みの影響を受けず、指先とボタン配置との位置関係を判断することができる。   Further, when the conventional tablet terminal 12T is viewed and operated, reflection is generated on the operation surface depending on the operator's standing position or installation position, and thus it is necessary to stare at the operation surface. Even when there is a reflection, the tablet terminal 12T cannot determine the button arrangement by groping because the operation surface is flat. On the other hand, according to one embodiment, the user operation image information L2 indicating the operator's finger is displayed on the large screen monitor 7a on the input I / F image information L1 indicating the operation surface. The positional relationship between the fingertip and the button arrangement can be determined without being affected by the reflection.

また、従来、ハードウェアコンソール12Hやタブレット端末12Tの上にドレープ170などの保護シートを掛けて、その上からボタン等を操作する場合、操作者はドレープ170越しに操作面を視認して操作する必要がある。これに対し、一実施形態によれば、入力I/F画像情報L1及びユーザ操作画面情報L2を含む操作画面g2が大画面モニタ7aに表示されるので、操作者は、ドレープ170の影響を受けず、指先とボタン配置との位置関係を判断することができる。   Conventionally, when a protective sheet such as a drape 170 is put on the hardware console 12H or the tablet terminal 12T and a button or the like is operated from the protective sheet, the operator visually operates the drape 170 through the operation surface. There is a need. On the other hand, according to one embodiment, since the operation screen g2 including the input I / F image information L1 and the user operation screen information L2 is displayed on the large screen monitor 7a, the operator is affected by the drape 170. First, the positional relationship between the fingertip and the button arrangement can be determined.

また、一実施形態によれば、操作面の操作補助情報を含む第3画像情報を更に記憶していてもよい。この場合、操作検出手段の出力に基づいて、第2画像情報上に第3画像情報を更に重畳して操作画面データを生成する。これにより、入力I/F画像情報L1に含まれるボタン名や絵柄などによる機能説明が狭い表示範囲に制限されるのに比べ、表示範囲の制限が緩和されるので、より詳しい説明を含む操作補助画像情報L3を表示することができる。   Further, according to an embodiment, third image information including operation assistance information on the operation surface may be further stored. In this case, operation screen data is generated by further superimposing the third image information on the second image information based on the output of the operation detection means. As a result, the limitation of the display range is relaxed compared to the case where the function description based on the button name or the pattern included in the input I / F image information L1 is limited to a narrow display range. Image information L3 can be displayed.

また、一実施形態によれば、操作面のスイッチ毎に、操作補助情報を含む第3画像情報を記憶しておき、操作検出手段の出力に基づいて操作者の手又は足が接近したスイッチを検出し、当該スイッチに応じた第3画像情報を重畳して操作画面データを生成してもよい。これにより、例えば、第1カメラ13又は第2カメラ14の出力から検出される指又は足の先端から、現在選択しようとしているボタンの操作補助情報(例、文字列、ハイライト表示)を含む操作補助画像情報L3を重畳表示できる。従って、操作者の操作状況に応じて、必要な操作補助情報を先行して表示することにより、操作者の操作を支援することができる。また同様に、タブレット端末12Tについては、第1カメラ13及び第2カメラ14の出力に代えて、当該タブレット端末12Tの操作面上の指の移動をトレースすることにより、操作補助画像情報L3を準備してもよい。   Further, according to one embodiment, the third image information including the operation assistance information is stored for each switch on the operation surface, and the switch on which the operator's hand or foot approaches based on the output of the operation detection unit is stored. The operation screen data may be generated by superimposing the third image information corresponding to the detected switch. Thereby, for example, an operation including operation assistance information (e.g., character string, highlight display) of the button to be selected from the tip of the finger or foot detected from the output of the first camera 13 or the second camera 14. The auxiliary image information L3 can be displayed in a superimposed manner. Therefore, the operator's operation can be supported by displaying necessary operation assistance information in advance according to the operation status of the operator. Similarly, for the tablet terminal 12T, instead of the outputs of the first camera 13 and the second camera 14, the operation auxiliary image information L3 is prepared by tracing the movement of the finger on the operation surface of the tablet terminal 12T. May be.

また、一実施形態によれば、操作検出手段は、入力インタフェース手段を撮影するカメラである場合、入力インタフェース手段は、操作者に操作されるハードウェアスイッチを備えてもよい。この場合、タッチ操作可能にスイッチを表示する操作面を持たないハードウェアコンソール12H及びフットスイッチ12Fについても、操作画面g2を表示することができる。   According to one embodiment, when the operation detection unit is a camera that photographs the input interface unit, the input interface unit may include a hardware switch operated by the operator. In this case, the operation screen g2 can also be displayed for the hardware console 12H and the foot switch 12F that do not have an operation surface for displaying the switch so that the touch operation is possible.

また、一実施形態によれば、操作者のジェスチャ毎に、ジェスチャに対応する第2画像情報を記憶してもよい。この場合、検出されたジェスチャに対応する第2画像情報を用いて操作画面データを生成する。これにより、判別したい事項に対応したジェスチャを用いることにより、判別したい事項に対応した第2画像情報に基づく操作画面g2を表示することができる。   According to one embodiment, the second image information corresponding to the gesture may be stored for each gesture of the operator. In this case, operation screen data is generated using the second image information corresponding to the detected gesture. Thus, by using a gesture corresponding to the item to be determined, the operation screen g2 based on the second image information corresponding to the item to be determined can be displayed.

例えば、タブレット端末12T上で、移動操作と機能確定の操作を、異なるジェスチャーに設定する。ジェスチャとしては、例えば、2本指の操作が移動操作を表し、1本指の操作が機能確定の操作を表すように定めておく。この場合、移動操作と機能確定の操作を検出できるようになり、容易に操作者の移動操作と機能確定とを判別することができる。   For example, the movement operation and the function confirmation operation are set to different gestures on the tablet terminal 12T. As the gesture, for example, it is determined that a two-finger operation represents a movement operation and a one-finger operation represents a function determination operation. In this case, it becomes possible to detect the movement operation and the function confirmation operation, and the operator's movement operation and function confirmation can be easily discriminated.

また、一実施形態によれば、操作検出手段の出力に基づいて操作状況を検出し、操作状況に応じて操作画面の表示を開始又は終了するように表示手段を制御してもよい。この場合、操作者の手や足の移動などのモーションを含む操作状況から、表示が必要なタイミングを検出し、操作画面の表示の有無を制御することができる。例えば、操作者の手又は足の移動が操作状況として検出されたとき、操作画面の表示を開始するように表示手段を制御してもよい。また例えば、X線透視中又はX線撮影中であることが操作状況として検出されたとき、操作画面の表示を終了するように表示手段を制御してもよい。   According to one embodiment, the operation state may be detected based on the output of the operation detection unit, and the display unit may be controlled so as to start or end the display of the operation screen according to the operation state. In this case, it is possible to detect the timing at which display is required from the operation status including motion such as the movement of the operator's hands and feet, and to control whether the operation screen is displayed. For example, the display unit may be controlled to start displaying the operation screen when the movement of the operator's hand or foot is detected as the operation status. In addition, for example, when it is detected as an operation state that X-ray fluoroscopy or X-ray imaging is being performed, the display unit may be controlled to end the display of the operation screen.

また、一実施形態によれば、操作検出手段の出力に基づいて操作状況を検出し、操作状況に応じて第3画像情報を重畳しないように画面生成手段を制御してもよい。操作状況としては、操作者が所定時間を超えて動かない状況でもよく、操作者が撮影されていない状況でもよい。これらの場合、操作者の操作状況から、操作補助表示が不要な際には、操作補助画像情報L3を含まないように、操作画面g2を切り替え表示することができる。   Further, according to one embodiment, the operation state may be detected based on the output of the operation detection unit, and the screen generation unit may be controlled so as not to superimpose the third image information according to the operation state. The operation situation may be a situation where the operator does not move for a predetermined time or a situation where the operator is not photographed. In these cases, the operation screen g2 can be switched and displayed so as not to include the operation auxiliary image information L3 when the operation auxiliary display is not required due to the operation status of the operator.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(central processing unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。   The term “processor” used in the above description is, for example, a central processing unit (CPU), a graphics processing unit (GPU), or an application specific integrated circuit (ASIC)), a programmable logic device (for example, It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor implements a function by reading and executing a program stored in the storage circuit. Instead of storing the program in the storage circuit, the program may be directly incorporated in the processor circuit. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit. Note that each processor of the present embodiment is not limited to being configured as a single circuit for each processor, but may be configured as a single processor by combining a plurality of independent circuits to realize the function. Good. Furthermore, a plurality of components in FIG. 1 may be integrated into one processor to realize the function.

一実施形態における入力インタフェース回路12、ハードウェアコンソール12H、タブレット端末12T及びフットスイッチ12Fは、特許請求の範囲における入力インタフェース手段の一例である。一実施形態における記憶回路11は、特許請求の範囲における記憶手段の一例である。一実施形態における第1カメラ13、第2カメラ14及びタブレット端末12Tは、特許請求の範囲における操作検出手段の一例である。一実施形態における制御回路15及び画面生成機能152は、特許請求の範囲における画面生成手段の一例である。一実施形態における表示回路7及び大画面モニタ7aは、特許請求の範囲における表示手段の一例である。一実施形態における入力I/F画像情報L1は、特許請求の範囲における第1画像情報の一例である。一実施形態におけるユーザ操作画像情報L2は、特許請求の範囲における第2画像情報の一例である。一実施形態における操作補助画像情報L3は、特許請求の範囲における第3画像情報の一例である。一実施形態における制御回路15及び入力処理機能151は、特許請求の範囲におけるジェスチャ検出手段、検出手段及び接近検出手段の一例である。一実施形態における制御回路15及び表示制御機能153は、特許請求の範囲における表示制御手段の一例である。一実施形態における制御回路15及び生成制御機能154は、特許請求の範囲における準備手段及び生成制御手段の一例である。   The input interface circuit 12, the hardware console 12H, the tablet terminal 12T, and the foot switch 12F in one embodiment are examples of input interface means in the claims. The storage circuit 11 in one embodiment is an example of a storage unit in the claims. The 1st camera 13, the 2nd camera 14, and tablet terminal 12T in one embodiment are examples of the operation detection means in a claim. The control circuit 15 and the screen generation function 152 in one embodiment are an example of a screen generation unit in the claims. The display circuit 7 and the large screen monitor 7a in one embodiment are examples of display means in the claims. The input I / F image information L1 in one embodiment is an example of the first image information in the claims. The user operation image information L2 in one embodiment is an example of the second image information in the claims. The operation auxiliary image information L3 in the embodiment is an example of third image information in the claims. The control circuit 15 and the input processing function 151 in one embodiment are an example of a gesture detection unit, a detection unit, and an approach detection unit in the claims. The control circuit 15 and the display control function 153 in one embodiment are examples of display control means in the claims. The control circuit 15 and the generation control function 154 in one embodiment are an example of a preparation unit and a generation control unit in the claims.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof in the same manner as included in the scope and gist of the invention.

1…X線撮影部、2…X線発生部、3…X線検出器、4…投影データ生成回路、5…高電圧発生部、6…画像生成回路、7…表示回路、7a…大画面モニタ、8…保持装置、9…寝台部、10…機構駆動部、11…記憶回路、12…入力インタフェース回路、12F…フットスイッチ、12Fg…把持部、12H…ハードウェアコンソール、12T…タブレット端末、13,13a…第1カメラ、14…第2カメラ、15…制御回路、81…保持部、82…保持部ホルダ、83…スタンド、84…床旋回アーム、91…天板、92…寝台、100…X線診断装置、101…撮像系移動機構駆動部、102…天板移動機構駆動部、103…機構駆動制御部、111…レイアウト情報、112,112a,113…割り当て情報、150…被検体、151…入力処理機能、152…画面生成機能、153…表示制御機能、154…生成制御機能、160…床面、200…操作者、g1…医用画像、g2…操作画面、g3…他の画面、L1…入力I/F画像情報、L2…ユーザ操作画像情報、L3…操作補助画像情報。   DESCRIPTION OF SYMBOLS 1 ... X-ray imaging part, 2 ... X-ray generation part, 3 ... X-ray detector, 4 ... Projection data generation circuit, 5 ... High voltage generation part, 6 ... Image generation circuit, 7 ... Display circuit, 7a ... Large screen Monitor, 8 ... Holding device, 9 ... Bed part, 10 ... Mechanism drive part, 11 ... Memory circuit, 12 ... Input interface circuit, 12F ... Foot switch, 12Fg ... Grasping part, 12H ... Hardware console, 12T ... Tablet terminal, DESCRIPTION OF SYMBOLS 13, 13a ... 1st camera, 14 ... 2nd camera, 15 ... Control circuit, 81 ... Holding part, 82 ... Holding part holder, 83 ... Stand, 84 ... Floor turning arm, 91 ... Top plate, 92 ... Bed, 100 DESCRIPTION OF SYMBOLS X-ray diagnostic apparatus 101 ... Imaging system movement mechanism drive part 102 ... Top plate movement mechanism drive part 103 ... Mechanism drive control part 111 ... Layout information 112, 112a, 113 ... Assignment information, 150 ... Subject 151 ... Input processing function, 152 ... Screen generation function, 153 ... Display control function, 154 ... Generation control function, 160 ... Floor surface, 200 ... Operator, g1 ... Medical image, g2 ... Operation screen, g3 ... Other screens, L1... Input I / F image information, L2... User operation image information, L3.

Claims (15)

操作者の手元又は足元で操作される入力インタフェース手段と、
前記入力インタフェース手段の操作面を示す第1画像情報を記憶する記憶手段と、
前記入力インタフェース手段の操作を検出する操作検出手段と、
前記操作検出手段の出力に基づいて、前記第1画像情報上に、前記操作者の手又は足を表す第2画像情報を重畳して操作画面データを生成する画面生成手段と、
前記入力インタフェース手段とは離間して配置され、前記操作画面データに基づいて、前記操作者に視認される操作画面を表示する表示手段と
を具備するX線診断装置。
Input interface means operated at the operator's hand or foot; and
Storage means for storing first image information indicating an operation surface of the input interface means;
Operation detecting means for detecting an operation of the input interface means;
Screen generating means for generating operation screen data by superimposing second image information representing the hand or foot of the operator on the first image information based on the output of the operation detecting means;
An X-ray diagnostic apparatus comprising: a display unit that is disposed apart from the input interface unit and displays an operation screen visually recognized by the operator based on the operation screen data.
前記入力インタフェース手段を撮影するカメラの出力としてのライブ画像から前記手又は足を表す人体部位画像を抽出し、前記人体部位画像を含む前記第2画像情報を準備する準備手段、を更に備え、
前記画面生成手段は、前記準備された第2画像情報を用いて前記操作画面データを生成する、請求項1に記載のX線診断装置。
A preparation means for extracting a human body part image representing the hand or foot from a live image as an output of a camera for photographing the input interface means, and preparing the second image information including the human body part image;
The X-ray diagnosis apparatus according to claim 1, wherein the screen generation unit generates the operation screen data using the prepared second image information.
前記人体部位画像は、前記手として前記操作者の手首から指先までを表す、請求項2に記載のX線診断装置。   The X-ray diagnostic apparatus according to claim 2, wherein the human body part image represents from the wrist of the operator to a fingertip as the hand. 前記人体部位画像は、前記手として前記操作に用いる指のみを表し、
前記準備手段は、前記ライブ画像に表される手の形状に基づいて、前記操作に用いる指を決定し、当該決定した指を表す人体部位画像を抽出する、請求項2に記載のX線診断装置。
The human body part image represents only a finger used for the operation as the hand,
The X-ray diagnosis according to claim 2, wherein the preparation unit determines a finger to be used for the operation based on a hand shape represented in the live image, and extracts a human body part image representing the determined finger. apparatus.
前記記憶手段は、前記手又は足を表す模擬的な人体部位画像を含む前記第2画像情報を更に記憶する、請求項1に記載のX線診断装置。   The X-ray diagnostic apparatus according to claim 1, wherein the storage unit further stores the second image information including a simulated human body part image representing the hand or foot. 前記記憶手段は、前記操作面の操作補助情報を含む第3画像情報を更に記憶しており、
前記画面生成手段は、前記操作検出手段の出力に基づいて、前記第2画像情報上に前記第3画像情報を更に重畳して前記操作画面データを生成する、請求項1乃至請求項5のいずれか一項に記載のX線診断装置。
The storage means further stores third image information including operation assistance information on the operation surface,
The screen generation unit generates the operation screen data by further superimposing the third image information on the second image information based on an output of the operation detection unit. The X-ray diagnostic apparatus according to claim 1.
前記操作検出手段は、前記入力インタフェース手段を撮影するカメラであり、
前記入力インタフェース手段は、前記操作者に操作されるハードウェアスイッチを備えた、請求項1乃至請求項6のいずれか一項に記載のX線診断装置。
The operation detecting means is a camera for photographing the input interface means;
The X-ray diagnostic apparatus according to claim 1, wherein the input interface unit includes a hardware switch operated by the operator.
前記操作検出手段の出力から操作者のジェスチャを検出するジェスチャ検出手段を更に備え、
前記記憶手段は、操作者のジェスチャ毎に、前記ジェスチャに対応する前記第2画像情報を記憶しており、
前記画面生成手段は、前記検出されたジェスチャに対応する前記第2画像情報を用いて前記操作画面データを生成する、請求項1乃至請求項7のいずれか一項に記載のX線診断装置。
Gesture detection means for detecting an operator's gesture from the output of the operation detection means,
The storage means stores the second image information corresponding to the gesture for each gesture of the operator,
The X-ray diagnosis apparatus according to claim 1, wherein the screen generation unit generates the operation screen data using the second image information corresponding to the detected gesture.
前記操作検出手段の出力に基づいて操作状況を検出する状況検出手段と、
前記操作状況に応じて前記操作画面の表示を開始又は終了するように前記表示手段を制御する表示制御手段と、
を更に備えた請求項1乃至請求項8のいずれか一項に記載のX線診断装置。
Situation detection means for detecting an operation situation based on the output of the operation detection means;
Display control means for controlling the display means to start or end display of the operation screen according to the operation status;
The X-ray diagnosis apparatus according to claim 1, further comprising:
前記表示制御手段は、前記操作者の手又は足の移動が前記操作状況として検出されたとき、前記操作画面の表示を開始するように前記表示手段を制御する、請求項9に記載のX線診断装置。   The X-ray according to claim 9, wherein the display control unit controls the display unit to start displaying the operation screen when movement of the operator's hand or foot is detected as the operation state. Diagnostic device. 前記表示制御手段は、X線透視中又はX線撮影中であることが前記操作状況として検出されたとき、前記操作画面の表示を終了するように前記表示手段を制御する、請求項9又は請求項10に記載のX線診断装置。   The said display control means controls the said display means so that the display of the said operation screen is complete | finished, when it is detected as said operation condition during X-ray fluoroscopy or X-ray imaging | photography. Item 11. The X-ray diagnostic apparatus according to Item 10. 前記操作検出手段の出力に基づいて操作状況を検出する状況検出手段と、
前記操作状況に応じて前記第3画像情報を重畳しないように前記画面生成手段を制御する生成制御手段と、
を更に備えた請求項6に記載のX線診断装置。
Situation detection means for detecting an operation situation based on the output of the operation detection means;
Generation control means for controlling the screen generation means so as not to superimpose the third image information according to the operation status;
The X-ray diagnostic apparatus according to claim 6, further comprising:
前記操作状況は、前記操作者が所定時間を超えて動かない状況である、請求項12に記載のX線診断装置。   The X-ray diagnosis apparatus according to claim 12, wherein the operation situation is a situation in which the operator does not move beyond a predetermined time. 前記操作状況は、前記操作者が検出されていない状況である、請求項12又は請求項13に記載のX線診断装置。   The X-ray diagnosis apparatus according to claim 12 or 13, wherein the operation status is a status in which the operator is not detected. 前記操作検出手段の出力に基づいて前記操作者の手又は足が接近したスイッチを検出する接近検出手段を更に備え、
前記記憶手段は、前記操作面のスイッチ毎に、前記操作補助情報を含む第3画像情報を記憶しており、
前記画面生成手段は、前記検出されたスイッチに応じた前記第3画像情報を重畳して前記操作画面データを生成する、請求項6に記載のX線診断装置。
Further comprising an approach detection means for detecting a switch approached by the operator's hand or foot based on the output of the operation detection means;
The storage means stores third image information including the operation assistance information for each switch on the operation surface,
The X-ray diagnosis apparatus according to claim 6, wherein the screen generation unit generates the operation screen data by superimposing the third image information corresponding to the detected switch.
JP2017120328A 2017-06-20 2017-06-20 X-ray diagnostic apparatus Pending JP2019000589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017120328A JP2019000589A (en) 2017-06-20 2017-06-20 X-ray diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017120328A JP2019000589A (en) 2017-06-20 2017-06-20 X-ray diagnostic apparatus

Publications (1)

Publication Number Publication Date
JP2019000589A true JP2019000589A (en) 2019-01-10

Family

ID=65005367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120328A Pending JP2019000589A (en) 2017-06-20 2017-06-20 X-ray diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP2019000589A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020130322A (en) * 2019-02-14 2020-08-31 コニカミノルタ株式会社 Ultrasound diagnostic apparatus, program, and console guide display method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007296177A (en) * 2006-05-01 2007-11-15 Shimadzu Corp Radiographic and fluoroscopic x-ray apparatus
JP2009042796A (en) * 2005-11-25 2009-02-26 Panasonic Corp Gesture input device and method
JP2009056098A (en) * 2007-08-31 2009-03-19 Toshiba Corp X-ray apparatus
JP2009254665A (en) * 2008-04-18 2009-11-05 Ge Medical Systems Global Technology Co Llc Control unit for diagnostic imaging equipment and diagnostic imaging system
JP2014059637A (en) * 2012-09-14 2014-04-03 Nec System Technologies Ltd Input display control device, thin client system, input display control method and program
JP2014068819A (en) * 2012-09-28 2014-04-21 Hitachi Aloka Medical Ltd Portable ultrasonic imaging apparatus
JP2014223291A (en) * 2013-04-18 2014-12-04 株式会社東芝 Medical apparatus, and medical image diagnostic apparatus
JP2015146885A (en) * 2014-02-06 2015-08-20 株式会社日立メディコ X-ray imaging apparatus
JP2016052429A (en) * 2014-09-03 2016-04-14 株式会社東芝 Medical operation device and x-ray diagnostic apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042796A (en) * 2005-11-25 2009-02-26 Panasonic Corp Gesture input device and method
JP2007296177A (en) * 2006-05-01 2007-11-15 Shimadzu Corp Radiographic and fluoroscopic x-ray apparatus
JP2009056098A (en) * 2007-08-31 2009-03-19 Toshiba Corp X-ray apparatus
JP2009254665A (en) * 2008-04-18 2009-11-05 Ge Medical Systems Global Technology Co Llc Control unit for diagnostic imaging equipment and diagnostic imaging system
JP2014059637A (en) * 2012-09-14 2014-04-03 Nec System Technologies Ltd Input display control device, thin client system, input display control method and program
JP2014068819A (en) * 2012-09-28 2014-04-21 Hitachi Aloka Medical Ltd Portable ultrasonic imaging apparatus
JP2014223291A (en) * 2013-04-18 2014-12-04 株式会社東芝 Medical apparatus, and medical image diagnostic apparatus
JP2015146885A (en) * 2014-02-06 2015-08-20 株式会社日立メディコ X-ray imaging apparatus
JP2016052429A (en) * 2014-09-03 2016-04-14 株式会社東芝 Medical operation device and x-ray diagnostic apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020130322A (en) * 2019-02-14 2020-08-31 コニカミノルタ株式会社 Ultrasound diagnostic apparatus, program, and console guide display method
JP7200728B2 (en) 2019-02-14 2023-01-10 コニカミノルタ株式会社 GUIDE DISPLAY METHOD OF ULTRASOUND DIAGNOSTIC DEVICE, PROGRAM AND CONSOLE

Similar Documents

Publication Publication Date Title
US8971601B2 (en) Medical image diagnosis device and medical image processing method
JP5637775B2 (en) Medical device
JP6139118B2 (en) X-ray diagnostic apparatus and control program
JP2009136518A (en) X-ray radiographing apparatus and x-ray radiographing method
US7991118B2 (en) System and method for providing lateral and frontal X-ray images of a patient
US20150157282A1 (en) Mammographic apparatus
JP2001070293A (en) Radio-diagnostic device
JP7363878B2 (en) Radiographic image display device and image display method
US9526469B2 (en) X-ray diagnostic apparatus
JP2004105643A (en) X-ray diagnostic equipment
JP4738022B2 (en) Stereoscopic image reconstruction device
JP4648783B2 (en) X-ray imaging device
JP2019000589A (en) X-ray diagnostic apparatus
JP5300350B2 (en) X-ray diagnostic apparatus and image display method thereof
WO2014132896A1 (en) X-ray diagnostic device
JP5134873B2 (en) X-ray fluoroscopic equipment
US11241206B2 (en) X-ray imaging apparatus
WO2019107318A1 (en) X-ray diagnosis device and x-ray tube holding device
JP2004209018A (en) X-ray image diagnostic apparatus and radiography method
JP6804491B2 (en) X-ray diagnostic equipment
JP7262968B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
JP7339722B2 (en) X-ray diagnostic device and foot switch
JP2018158101A (en) X-ray imaging apparatus
JP2023073627A (en) X-ray diagnostic device and x-ray image collection method
JP2014217615A (en) X-ray diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220329