JP6366898B2 - Medical device - Google Patents

Medical device Download PDF

Info

Publication number
JP6366898B2
JP6366898B2 JP2013087800A JP2013087800A JP6366898B2 JP 6366898 B2 JP6366898 B2 JP 6366898B2 JP 2013087800 A JP2013087800 A JP 2013087800A JP 2013087800 A JP2013087800 A JP 2013087800A JP 6366898 B2 JP6366898 B2 JP 6366898B2
Authority
JP
Japan
Prior art keywords
unit
user terminal
display
image
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013087800A
Other languages
Japanese (ja)
Other versions
JP2014210053A (en
JP2014210053A5 (en
Inventor
由康 林
由康 林
茂如 石井
茂如 石井
弘祐 坂上
弘祐 坂上
坂口 卓弥
卓弥 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2013087800A priority Critical patent/JP6366898B2/en
Publication of JP2014210053A publication Critical patent/JP2014210053A/en
Publication of JP2014210053A5 publication Critical patent/JP2014210053A5/en
Application granted granted Critical
Publication of JP6366898B2 publication Critical patent/JP6366898B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施の形態は、医用装置及びX線診断装置に関する。   Embodiments described herein relate generally to a medical apparatus and an X-ray diagnostic apparatus.

従来、医療現場においては、種々の情報を表示する複数の表示装置が利用されている。例えば、脳や心臓などの循環器系の診断・治療において利用されるX線アンギオグラフィシステムにおいては、被検体に対して手技が実施される検査室と、X線診断装置を操作する操作室とにそれぞれディスプレイが設置される。そして、検査室及び操作室それぞれにいる複数の観察者が、各ディスプレイに表示された情報を観察する。一例を挙げると、検査室においては、手技を実施する術者などが、検査室に設置されたディスプレイに表示された透視画像などを観察する。また、例えば、操作室においては、術者の指示に応じてX線診断装置を操作する操作者などが、操作室に設置されたディスプレイに表示された各種情報を観察する。   2. Description of the Related Art Conventionally, a plurality of display devices that display various types of information are used in medical practice. For example, in an X-ray angiography system used in the diagnosis and treatment of a circulatory system such as the brain and heart, an examination room in which a procedure is performed on a subject, an operation room in which an X-ray diagnostic apparatus is operated, Each has a display. A plurality of observers in each of the examination room and the operation room observe the information displayed on each display. For example, in an examination room, an operator who performs a procedure observes a fluoroscopic image displayed on a display installed in the examination room. Further, for example, in the operation room, an operator who operates the X-ray diagnostic apparatus according to an operator's instruction observes various information displayed on a display installed in the operation room.

また、近年、サーバ装置と複数のユーザ端末とが通信ネットワークを介して接続されるマルチユーザ対応の医用情報処理システムが知られている。医用情報処理システムとしては、例えば、操作室に配置された操作端末(例えば、ワークステーションなど)に対して、検査室内で利用される複数のユーザ端末が接続され、ユーザ端末によって操作端末を操作するシステムなどが知られている。しかしながら、上述した従来技術においては、ユーザ端末を用いた操作の操作性が低下する場合があった。   In recent years, there has been known a multi-user medical information processing system in which a server device and a plurality of user terminals are connected via a communication network. As a medical information processing system, for example, a plurality of user terminals used in an examination room are connected to an operation terminal (for example, a workstation) arranged in an operation room, and the operation terminal is operated by the user terminal. Systems are known. However, in the above-described conventional technology, the operability of the operation using the user terminal may be deteriorated.

特開2012−223500号公報JP 2012-223500 A 特開2012−247905号公報JP 2012-247905 A

本発明が解決しようとする課題は、ユーザ端末を用いた操作の操作性を向上させることを可能にする医用装置及びX線診断装置を提供することである。   The problem to be solved by the present invention is to provide a medical apparatus and an X-ray diagnostic apparatus that can improve the operability of an operation using a user terminal.

実施の形態の医用装置は、タッチパネルと、表示部と、記憶手段と、制御手段とを備え、X線診断に使用される。タッチパネルは、GUI(Graphical User Interface)を表示するとともに、使用者によるタッチ操作を受け付ける。表示部は、前記タッチパネルとは異なる装置であって、X線診断装置による撮像が行われる検査室内に設置され、前記X線診断装置によって撮像される医用画像を表示する。記憶手段は、前記タッチパネルによって受け付けられる複数指による所定の操作に、前記タッチパネルとは異なる前記表示部に表示される医用画像を対象とする機能を対応付けて記憶する。制御手段は、前記タッチパネルによって前記複数指による所定の操作を受け付ける場合において、前記タッチパネルに表示されたGUIに対する一本指による操作に対応する機能を実行せず、前記所定の操作に対応付けられた前記機能を前記記憶手段から読み出して実行する。 The medical device of the embodiment, a touch panel, a display unit, a storage unit, and control means, Ru is used in X-ray diagnosis. The touch panel displays a GUI (Graphical User Interface) and accepts a touch operation by the user. The display unit is an apparatus different from the touch panel, and is installed in an examination room where imaging is performed by the X-ray diagnostic apparatus, and displays a medical image captured by the X-ray diagnostic apparatus . The storage unit stores a function for a medical image displayed on the display unit different from the touch panel in association with a predetermined operation by a plurality of fingers received by the touch panel . The control unit does not execute a function corresponding to an operation with one finger on the GUI displayed on the touch panel when the predetermined operation with the plurality of fingers is received by the touch panel, and is associated with the predetermined operation. The function is read from the storage means and executed.

図1Aは、第1の実施形態に係るX線アンギオグラフィシステムの一例を説明するための図である。FIG. 1A is a diagram for explaining an example of an X-ray angiography system according to the first embodiment. 図1Bは、第1の実施形態に係るX線アンギオグラフィシステムの一例を説明するための図である。FIG. 1B is a diagram for explaining an example of the X-ray angiography system according to the first embodiment. 図2は、第1の実施形態に係るユーザ端末が適用されるX線アンギオグラフィシステムの構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of an X-ray angiography system to which the user terminal according to the first embodiment is applied. 図3は、第1の実施形態に係るユーザ端末及び操作端末の構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of the user terminal and the operation terminal according to the first embodiment. 図4は、第1の実施形態に係るユーザ端末の一例を示す図である。FIG. 4 is a diagram illustrating an example of a user terminal according to the first embodiment. 図5は、第1の実施形態に係る制御部の制御対象となる画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a screen to be controlled by the control unit according to the first embodiment. 図6Aは、第1の実施形態に係る変換部による処理の一例を説明するための図である。FIG. 6A is a diagram for explaining an example of processing by the conversion unit according to the first embodiment. 図6Bは、第1の実施形態に係る変換部による処理の一例を説明するための図である。FIG. 6B is a diagram for explaining an example of processing by the conversion unit according to the first embodiment. 図6Cは、第1の実施形態に係る変換部による処理の一例を説明するための図である。FIG. 6C is a diagram for explaining an example of processing by the conversion unit according to the first embodiment. 図7は、第1の実施形態に係るユーザ端末による処理の手順を示すフローチャートである。FIG. 7 is a flowchart illustrating a processing procedure performed by the user terminal according to the first embodiment. 図8は、第2の実施形態に係るユーザ端末及び操作端末の構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a configuration of a user terminal and an operation terminal according to the second embodiment. 図9は、第2の実施形態に係る算出部による処理に基づくポインタ操作の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of a pointer operation based on processing by the calculation unit according to the second embodiment. 図10は、第2の実施形態に係る算出部による処理に基づく画像の表示変更の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of image display change based on processing by the calculation unit according to the second embodiment. 図11は、第2の実施形態に係る算出部による処理に基づく3Dロードマップの位置合わせの一例を説明するための図である。FIG. 11 is a diagram for explaining an example of the alignment of the 3D road map based on the processing by the calculation unit according to the second embodiment. 図12は、第2の実施形態に係るユーザ端末による処理の手順を示すフローチャートである。FIG. 12 is a flowchart illustrating a processing procedure performed by the user terminal according to the second embodiment.

以下、添付図面を参照して、医用装置及びX線診断装置の実施形態を詳細に説明する。なお、以下では、本願に係る医用装置をX線アンギオシステムに適用する場合を例に挙げて説明する。   Hereinafter, embodiments of a medical device and an X-ray diagnostic apparatus will be described in detail with reference to the accompanying drawings. In the following, a case where the medical apparatus according to the present application is applied to an X-ray angio system will be described as an example.

(第1の実施形態)
まず、図1A及び図1Bを用いて、第1の実施形態に係るX線アンギオグラフィシステムの一例を説明する。図1A及び図1Bは、第1の実施形態に係るX線アンギオグラフィシステムの一例を説明するための図である。例えば、X線アンギオグラフィシステムは、図1Aに示すように、脳や心臓等の循環器系の診断・治療が実施される検査室R1にアームや天板を備える装置本体が配置される。そして、図1Aに示す操作室R2に、装置本体を制御するための操作を実行する操作端末が配置される。
(First embodiment)
First, an example of the X-ray angiography system according to the first embodiment will be described with reference to FIGS. 1A and 1B. 1A and 1B are diagrams for explaining an example of an X-ray angiography system according to the first embodiment. For example, in the X-ray angiography system, as shown in FIG. 1A, an apparatus main body including an arm and a top plate is arranged in an examination room R1 in which diagnosis and treatment of a circulatory system such as a brain and a heart are performed. In the operation room R2 shown in FIG. 1A, an operation terminal for performing an operation for controlling the apparatus main body is arranged.

そして、検査室R1及び操作室R2においては、複数の検査室ディスプレイと、複数の操作室ディスプレイとがそれぞれ設置される。例えば、検査室ディスプレイは、手技を実施する術者や看護師などによって観察される。また、操作室ディスプレイは、装置本体を制御するための操作を実行する操作者によって観察される。   In the examination room R1 and the operation room R2, a plurality of examination room displays and a plurality of operation room displays are respectively installed. For example, the laboratory display is observed by a surgeon or nurse performing the procedure. The operation room display is observed by an operator who performs an operation for controlling the apparatus main body.

ここで、第1の実施形態に係る医用装置は、ユーザ端末を用いた操作の操作性を向上させることを可能にする。例えば、図1Aに示すようなX線アンギオグラフィシステムにおいては、近年、操作室R2に配置された操作端末に対してユーザ端末を接続することで遠隔操作する技術が応用され始めている。例えば、携帯端末からWiFi(登録商標)で操作端末にアクセスして、操作端末のマウス及びキーボードを遠隔操作するアプリケーション「Splashtop Touchpad」などが利用され始めている。   Here, the medical device according to the first embodiment makes it possible to improve the operability of the operation using the user terminal. For example, in an X-ray angiography system as shown in FIG. 1A, in recent years, a technique of remotely operating a user terminal by connecting a user terminal to an operation terminal arranged in the operation room R2 has begun to be applied. For example, an application “Splashtop Touchpad” that accesses an operation terminal from a portable terminal with WiFi (registered trademark) and remotely operates a mouse and a keyboard of the operation terminal is being used.

かかる技術においては、例えば、携帯端末と操作端末とが無線通信によって接続され、携帯端末によって受け付けられた操作を、無線を介して操作端末が受信することで、操作端末のマウスやキーボードが遠隔操作される。一例を挙げると、検査室R1にいる術者が、携帯端末のタッチパネルをタッチパッドとして用いて検査室ディスプレイに表示されたポインタを操作することで、検査室ディスプレイ上に表示されたGUIに対して入力操作を実行する。   In this technology, for example, the mobile terminal and the operation terminal are connected by wireless communication, and the operation terminal receives the operation accepted by the mobile terminal via wireless, so that the mouse and keyboard of the operation terminal can be operated remotely. Is done. For example, an operator in the examination room R1 operates the pointer displayed on the examination room display by using the touch panel of the portable terminal as a touch pad, thereby allowing the GUI displayed on the examination room display to be displayed. Perform input operations.

しかしながら、このようなシステムにおいては、ユーザ端末を用いた操作の操作性が低下する場合がある。例えば、携帯端末を術者が操作する場合には、検査室R1に設置された検査室ディスプレイを見ながら、検査室ディスプレイに表示されたポインタを操作するためのタッチ操作を実行することとなる。ここで、術者は、摩擦係数の高いゴム手袋を装着しており、素手のときのような滑らかな操作を実行することが困難であるために、操作性が低下する場合がある。例えば、指の向きに滑らせる場合に、摩擦抵抗を受けて操作性が低下する。   However, in such a system, the operability of the operation using the user terminal may deteriorate. For example, when an operator operates a portable terminal, a touch operation for operating a pointer displayed on the examination room display is performed while looking at the examination room display installed in the examination room R1. Here, the surgeon wears rubber gloves having a high coefficient of friction, and it is difficult to perform a smooth operation as in the case of bare hands, so the operability may be reduced. For example, when sliding in the direction of a finger, operability is reduced due to frictional resistance.

このように、従来の技術においては、ユーザ端末を用いた操作の操作性が低下する場合がある。そこで、第1の実施形態に係る医用装置は、「上向きのドラッグ操作」を低減することにより、ユーザ端末を用いた操作の操作性を向上させることを可能にする。以下、第1の実施形態に係る医用装置の一実施形態について詳細を説明する。なお、以下では、医用装置としてのユーザ端末を一例に挙げて説明する。図2は、第1の実施形態に係るユーザ端末が適用されるX線アンギオグラフィシステム1の構成の一例を示す図である。   As described above, in the conventional technique, the operability of the operation using the user terminal may be deteriorated. Therefore, the medical device according to the first embodiment can improve the operability of the operation using the user terminal by reducing the “upward drag operation”. Hereinafter, the details of one embodiment of the medical device according to the first embodiment will be described. In the following, a user terminal as a medical device will be described as an example. FIG. 2 is a diagram illustrating an example of a configuration of the X-ray angiography system 1 to which the user terminal according to the first embodiment is applied.

図2に示すように、第1の実施形態に係るX線アンギオグラフィシステム1は、装置本体100と操作端末200とを備える。装置本体100は、図2に示すように、高電圧発生器11と、X線管12と、X線絞り装置13と、天板14と、Cアーム15と、X線検出器16と、Cアーム回転・移動機構17と、天板移動機構18と、Cアーム・天板機構制御部19と、絞り制御部20と、表示部23aとを備え、検査室R1に配置される。操作端末200は、図2に示すように、システム制御部21と、入力部22と、表示部23bと、画像データ生成部24と、画像データ記憶部25と、画像処理部26とを備え、操作室R2に配置される。そして、操作端末200は、ユーザ端末300と通信を行い、ユーザ端末300によって受け付けられた入力操作に応じた処理を実行する。ここで、本願のユーザ端末300は、以下、詳細に説明する構成により、入力操作の操作性を向上させる。   As shown in FIG. 2, the X-ray angiography system 1 according to the first embodiment includes an apparatus main body 100 and an operation terminal 200. As shown in FIG. 2, the apparatus main body 100 includes a high voltage generator 11, an X-ray tube 12, an X-ray diaphragm device 13, a top plate 14, a C arm 15, an X-ray detector 16, and C The arm rotation / movement mechanism 17, the top plate movement mechanism 18, the C arm / top plate mechanism control unit 19, the aperture control unit 20, and the display unit 23 a are provided and arranged in the examination room R <b> 1. As illustrated in FIG. 2, the operation terminal 200 includes a system control unit 21, an input unit 22, a display unit 23 b, an image data generation unit 24, an image data storage unit 25, and an image processing unit 26. Arranged in the operation room R2. Then, the operation terminal 200 communicates with the user terminal 300 and executes processing according to the input operation accepted by the user terminal 300. Here, the user terminal 300 of this application improves the operativity of input operation by the structure demonstrated in detail below.

なお、ユーザ端末300の詳細については、後に詳述する。また、図2においては、1台のユーザ端末が検査室R1に配置されているが、実施形態はこれに限定されるものではなく、例えば、2台以上のユーザ端末が配置される場合であってもよい。また、ユーザ端末300は、検査室R1及び操作室R2にそれぞれ配置される場合であってもよく、或いは、操作室に配置される場合であってもよい。また、図示していないが、X線アンギオグラフィシステム1は、被検体Pに挿入されたカテーテルから造影剤を注入するためのインジェクターなども備える。   Details of the user terminal 300 will be described later. In FIG. 2, one user terminal is arranged in the examination room R1, but the embodiment is not limited to this. For example, two or more user terminals are arranged. May be. In addition, the user terminal 300 may be disposed in the examination room R1 and the operation room R2, or may be disposed in the operation room. Although not shown, the X-ray angiography system 1 also includes an injector for injecting a contrast medium from a catheter inserted into the subject P.

高電圧発生器11は、システム制御部21による制御の下、高電圧を発生し、発生した高電圧をX線管12に供給する。X線管12は、高電圧発生器11から供給される高電圧を用いて、X線を発生する。   The high voltage generator 11 generates a high voltage under the control of the system control unit 21 and supplies the generated high voltage to the X-ray tube 12. The X-ray tube 12 generates X-rays using the high voltage supplied from the high voltage generator 11.

X線絞り装置13は、絞り制御部20による制御の下、X線管12が発生したX線を、被検体Pの関心領域に対して選択的に照射されるように絞り込む。例えば、X線絞り装置13は、スライド可能な4枚の絞り羽根を有する。X線絞り装置13は、絞り制御部20による制御の下、これらの絞り羽根をスライドさせることで、X線管12が発生したX線を絞り込んで被検体Pに照射させる。なお、X線管12と、X線絞り装置13とをまとめてX線管装置とも呼ぶ。天板14は、被検体Pを載せるベッドであり、図示しない寝台の上に配置される。なお、被検体Pは、装置本体100に含まれない。   The X-ray diaphragm 13 narrows the X-rays generated by the X-ray tube 12 under the control of the diaphragm controller 20 so that the region of interest of the subject P is selectively irradiated. For example, the X-ray diaphragm device 13 has four slidable diaphragm blades. The X-ray diaphragm 13 narrows down the X-rays generated by the X-ray tube 12 and irradiates the subject P by sliding these diaphragm blades under the control of the diaphragm controller 20. The X-ray tube 12 and the X-ray diaphragm device 13 are collectively referred to as an X-ray tube device. The top 14 is a bed on which the subject P is placed, and is placed on a bed (not shown). Note that the subject P is not included in the apparatus main body 100.

X線検出器16は、被検体Pを透過したX線を検出する。例えば、X線検出器16は、マトリックス状に配列された検出素子を有する。各検出素子は、被検体Pを透過したX線を電気信号に変換して蓄積し、蓄積した電気信号を画像データ生成部24に送信する。   The X-ray detector 16 detects X-rays that have passed through the subject P. For example, the X-ray detector 16 has detection elements arranged in a matrix. Each detection element converts the X-rays that have passed through the subject P into electrical signals and accumulates them, and transmits the accumulated electrical signals to the image data generation unit 24.

Cアーム15は、X線管12、X線絞り装置13及びX線検出器16を保持する。X線管12及びX線絞り装置13とX線検出器16とは、Cアーム15により被検体Pを挟んで対向するように配置される。   The C arm 15 holds the X-ray tube 12, the X-ray diaphragm device 13, and the X-ray detector 16. The X-ray tube 12 and the X-ray diaphragm 13 and the X-ray detector 16 are arranged so as to face each other with the subject P sandwiched by the C arm 15.

Cアーム回転・移動機構17は、Cアーム15を回転及び移動させるための機構であり、天板移動機構18は、天板14を移動させるための機構である。Cアーム・天板機構制御部19は、システム制御部21による制御の下、Cアーム回転・移動機構17及び天板移動機構18を制御することで、Cアーム15の回転や移動、天板14の移動を調整する。絞り制御部20は、システム制御部21による制御の下、X線絞り装置13が有する絞り羽根の開度を調整することで、被検体Pに対して照射されるX線の照射範囲を制御する。   The C-arm rotating / moving mechanism 17 is a mechanism for rotating and moving the C-arm 15, and the top board moving mechanism 18 is a mechanism for moving the top board 14. The C arm / top plate mechanism control unit 19 controls the C arm rotation / movement mechanism 17 and the top plate movement mechanism 18 under the control of the system control unit 21, thereby rotating and moving the C arm 15 and the top plate 14. Adjust the movement. The aperture control unit 20 controls the irradiation range of the X-rays irradiated to the subject P by adjusting the aperture of the aperture blades of the X-ray aperture device 13 under the control of the system control unit 21. .

画像データ生成部24は、X線検出器16によってX線から変換された電気信号を用いて画像データを生成し、生成した画像データを画像データ記憶部25に格納する。例えば、画像データ生成部24は、X線検出器16から受信した電気信号に対して、電流・電圧変換やA(Analog)/D(Digital)変換、パラレル・シリアル変換を行い、画像データを生成する。   The image data generation unit 24 generates image data using the electrical signal converted from the X-rays by the X-ray detector 16, and stores the generated image data in the image data storage unit 25. For example, the image data generation unit 24 performs current / voltage conversion, A (Analog) / D (Digital) conversion, and parallel / serial conversion on the electrical signal received from the X-ray detector 16 to generate image data. To do.

そして、画像データ生成部24は、生成した画像データからX線画像を生成して、生成したX線画像を画像データ記憶部25に格納する。画像データ記憶部25は、画像データ生成部24によって生成された画像データを記憶する。   Then, the image data generation unit 24 generates an X-ray image from the generated image data, and stores the generated X-ray image in the image data storage unit 25. The image data storage unit 25 stores the image data generated by the image data generation unit 24.

画像処理部26は、画像データ記憶部25が記憶する画像データに対して各種画像処理を行う。例えば、画像処理部26は、画像データ記憶部25が記憶する時系列に沿った複数のX線画像を処理することにより、動画像を生成する。   The image processing unit 26 performs various image processing on the image data stored in the image data storage unit 25. For example, the image processing unit 26 generates a moving image by processing a plurality of X-ray images along the time series stored in the image data storage unit 25.

入力部22は、X線アンギオグラフィシステム1を操作する操作者から各種指示を受け付ける。例えば、入力部22は、マウス、キーボード、ボタン、トラックボール、ジョイスティックなどを有する。入力部22は、操作者から受け付けた指示を、システム制御部21に転送する。   The input unit 22 receives various instructions from an operator who operates the X-ray angiography system 1. For example, the input unit 22 includes a mouse, a keyboard, a button, a trackball, a joystick, and the like. The input unit 22 transfers the instruction received from the operator to the system control unit 21.

表示部23a及び表示部23bは、操作者の指示を受け付けるためのGUI(Graphical User Interface)や、画像データ記憶部25が記憶する画像データなどを表示する。例えば、表示部23aは、検査室ディスプレイであり、表示部23bは、操作室ディスプレイである。なお、表示部23a及び表示部23bは、複数のディスプレイをそれぞれ有してもよい。ここで、表示部23a及び表示部23bにおいては、それぞれ同一の内容が表示される。例えば、表示部23a及び表示部23bはリアルタイムの透視画像や、3次元ロードマップ(3DRM:3 Dimensional Road Map)などを表示する。なお、3DRMは、装置本体100によって収集されたボリュームデータから生成された投影画像に対してリアルタイムの透視画像を重畳させた画像である。   The display unit 23a and the display unit 23b display a GUI (Graphical User Interface) for receiving an instruction from the operator, image data stored in the image data storage unit 25, and the like. For example, the display unit 23a is an examination room display, and the display unit 23b is an operation room display. The display unit 23a and the display unit 23b may each include a plurality of displays. Here, the same contents are displayed on the display unit 23a and the display unit 23b, respectively. For example, the display unit 23a and the display unit 23b display a real-time perspective image, a three-dimensional road map (3DRM), and the like. Note that 3DRM is an image in which a real-time perspective image is superimposed on a projection image generated from volume data collected by the apparatus main body 100.

システム制御部21は、X線アンギオグラフィシステム1全体の動作を制御する。例えば、システム制御部21は、入力部22から転送された操作者の指示に従って高電圧発生器11を制御し、X線管12に供給する電圧を調整することで、被検体Pに対して照射されるX線量やON/OFFを制御する。また、例えば、システム制御部21は、操作者の指示に従ってCアーム・天板機構制御部19を制御し、Cアーム15の回転や移動、天板14の移動を調整する。また、例えば、システム制御部21は、操作者の指示に従って絞り制御部20を制御し、X線絞り装置13が有する絞り羽根の開度を調整することで、被検体Pに対して照射されるX線の照射範囲を制御する。   The system control unit 21 controls the operation of the entire X-ray angiography system 1. For example, the system control unit 21 controls the high voltage generator 11 in accordance with an operator instruction transferred from the input unit 22 and adjusts the voltage supplied to the X-ray tube 12, thereby irradiating the subject P. Controls X-ray dose and ON / OFF. Further, for example, the system control unit 21 controls the C arm / top plate mechanism control unit 19 in accordance with an instruction from the operator, and adjusts the rotation and movement of the C arm 15 and the movement of the top plate 14. Further, for example, the system control unit 21 controls the aperture control unit 20 in accordance with an instruction from the operator, and adjusts the aperture of the aperture blades of the X-ray aperture device 13 to irradiate the subject P. The X-ray irradiation range is controlled.

また、システム制御部21は、操作者の指示に従って、画像データ生成部24による画像データ生成処理や、画像処理部26による画像処理、あるいは解析処理などを制御する。また、システム制御部21は、操作者の指示を受け付けるためのGUIや画像データ記憶部25が記憶する画像などを、表示部23a及び表示部23bのディスプレイに表示するように制御する。また、システム制御部21は、インジェクターに対して、造影剤注入開始及び終了の信号を送信することで、造影剤の注入を制御する。   Further, the system control unit 21 controls image data generation processing by the image data generation unit 24, image processing by the image processing unit 26, analysis processing, and the like according to an instruction from the operator. In addition, the system control unit 21 performs control so that a GUI for receiving an instruction from the operator, an image stored in the image data storage unit 25, and the like are displayed on the displays of the display unit 23a and the display unit 23b. Further, the system control unit 21 controls the injection of the contrast agent by transmitting signals of the start and end of the contrast agent injection to the injector.

ここで、第1の実施形態に係るX線アンギオグラフィシステム1の操作端末200においては、ユーザ端末300によって受け付けられた指示に従って、上述した各制御を行う。すなわち、第1の実施形態に係るシステム制御部21は、入力部22によって受け付けられる操作者の指示に加えて、ユーザ端末300によって受け付けられる指示に従って、各種制御を実行する。ここで、第1の実施形態に係るユーザ端末300は、ユーザ端末300による操作の操作性を向上させるように構成される。   Here, in the operation terminal 200 of the X-ray angiography system 1 according to the first embodiment, each control described above is performed in accordance with an instruction received by the user terminal 300. That is, the system control unit 21 according to the first embodiment executes various controls in accordance with instructions accepted by the user terminal 300 in addition to operator instructions accepted by the input unit 22. Here, the user terminal 300 according to the first embodiment is configured to improve the operability of the operation by the user terminal 300.

図3は、第1の実施形態に係るユーザ端末300及び操作端末200の構成の一例を示す図である。図3に示すように、操作端末200は、入力部22、表示部23b、システム制御部21に加えて、通信部210と、記憶部220とを備える。なお、図3においては、画像データ生成部24、画像データ記憶部25及び画像処理部26が図示されていないが、実際には、図2に示すように、操作端末200内に画像データ生成部24、画像データ記憶部25及び画像処理部26が備えられる。   FIG. 3 is a diagram illustrating an example of the configuration of the user terminal 300 and the operation terminal 200 according to the first embodiment. As illustrated in FIG. 3, the operation terminal 200 includes a communication unit 210 and a storage unit 220 in addition to the input unit 22, the display unit 23 b, and the system control unit 21. In FIG. 3, the image data generation unit 24, the image data storage unit 25, and the image processing unit 26 are not shown, but actually, as shown in FIG. 24, an image data storage unit 25 and an image processing unit 26 are provided.

入力部22は、上述したように、種々の入力操作を受け付ける。また、表示部23bは、上述したように、各種情報を表示する。通信部210は、NIC(Network Interface Card)等であり、ネットワークを介してユーザ端末300との間で通信を行う。具体的には、通信部210は、ユーザ端末300の通信部330との間で各種通信を実行する。   As described above, the input unit 22 receives various input operations. The display unit 23b displays various information as described above. The communication unit 210 is a NIC (Network Interface Card) or the like, and communicates with the user terminal 300 via a network. Specifically, the communication unit 210 performs various communications with the communication unit 330 of the user terminal 300.

記憶部220は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などであり、システム制御部21によって用いられる情報などを記憶する。ここで、記憶部220は、画像データ記憶部25が利用される場合であってもよい。   The storage unit 220 is, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk, and stores information used by the system control unit 21. To do. Here, the storage unit 220 may be a case where the image data storage unit 25 is used.

システム制御部21は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、上述したようにX線アンギオグラフィシステム1の全体制御を行なう。   The system control unit 21 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Thus, overall control of the X-ray angiography system 1 is performed.

ユーザ端末300は、図3に示すように、入力部310と、表示部320と、通信部330と、記憶部340と、制御部350とを備える。ユーザ端末300は、例えば、PC(Personal Computer)などの据え置き型情報処理装置、或いは、タブレットPC、PGAなどの携帯型情報処理装置である。なお、以下では、ユーザ端末がタブレットPCである場合の例を挙げて説明する。   As illustrated in FIG. 3, the user terminal 300 includes an input unit 310, a display unit 320, a communication unit 330, a storage unit 340, and a control unit 350. The user terminal 300 is, for example, a stationary information processing device such as a PC (Personal Computer), or a portable information processing device such as a tablet PC or PGA. Hereinafter, an example in which the user terminal is a tablet PC will be described.

入力部310は、平板状の外形を備えるタッチパネルなどであり、ユーザ端末を操作する術者や看護師などの操作者からの入力操作を受け付ける。例えば、入力部310は、タッチ操作やフリック操作、スワイプ操作などを受け付けることにより、各種指示を受け付ける。表示部320は、後述する制御部350によって設定された内容を含む表示情報を表示する。例えば、表示部320は、液晶パネルなどの表示装置であり、入力部310と組み合わされて形成され、入力部310によって入力操作を受け付けるためのGUIを表示する。   The input unit 310 is a touch panel or the like having a flat outer shape, and receives an input operation from an operator such as an operator or a nurse who operates the user terminal. For example, the input unit 310 receives various instructions by receiving a touch operation, a flick operation, a swipe operation, and the like. The display unit 320 displays display information including contents set by the control unit 350 described later. For example, the display unit 320 is a display device such as a liquid crystal panel, is formed in combination with the input unit 310, and displays a GUI for receiving an input operation by the input unit 310.

図4は、第1の実施形態に係るユーザ端末の一例を示す図である。なお、図4においては、ユーザ端末300の概観図を示す。図4に示すように、例えば、ユーザ端末300は、タッチパネルにより各種操作が実行されるタブレットPCであり、術者や、補助者、看護師などによってそれぞれ操作される。   FIG. 4 is a diagram illustrating an example of a user terminal according to the first embodiment. FIG. 4 shows an overview of the user terminal 300. As shown in FIG. 4, for example, the user terminal 300 is a tablet PC on which various operations are performed by a touch panel, and each is operated by an operator, an assistant, a nurse, or the like.

一例を挙げると、図4の(A)に示すように、ユーザ端末300のタッチパネルがタッチパッドとなり、検査室R1にいる術者が、タッチパッドを用いて検査室ディスプレイに表示されたポインタを操作することで、検査室ディスプレイ上に表示されたGUIに対して入力操作を実行する。また、ユーザ端末300は、図4の(A)に示すように、検査室ディスプレイ或いは操作室ディスプレイに表示される「Image」などを表示することも可能である。   For example, as shown in FIG. 4A, the touch panel of the user terminal 300 becomes a touch pad, and an operator in the examination room R1 operates the pointer displayed on the examination room display using the touch pad. As a result, an input operation is performed on the GUI displayed on the examination room display. Further, as shown in FIG. 4A, the user terminal 300 can also display “Image” or the like displayed on the examination room display or the operation room display.

また、ユーザ端末300は、図4の(A)に示すように、タッチパネルと同一面にインカメラを備え、図4の(B)に示すように、反対側の面にリアカメラを備える。そして、ユーザ端末300においては、各カメラで撮影した映像などをタッチパネルに表示することができる。   Further, the user terminal 300 includes an in-camera on the same surface as the touch panel as shown in FIG. 4A, and a rear camera on the opposite surface as shown in FIG. 4B. And in the user terminal 300, the image | video etc. which were image | photographed with each camera can be displayed on a touch panel.

通信部330は、NIC等であり、ネットワークを介して操作端末200との間で通信を行う。具体的には、通信部330は、操作端末200の通信部210との間で各種通信を実行する。   The communication unit 330 is a NIC or the like, and performs communication with the operation terminal 200 via a network. Specifically, the communication unit 330 performs various types of communication with the communication unit 210 of the operation terminal 200.

記憶部340は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などであり、制御部350によって用いられる情報などを記憶する。   The storage unit 340 is, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk, and stores information used by the control unit 350.

制御部350は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ユーザ端末300の全体制御を行なう。制御部350は、図3に示すように、変換部351と、表示制御部352とを備え、例えば、図5に示すような、画面に対する操作の操作性を向上させる。   The control unit 350 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), and the user terminal 300 Perform overall control. As shown in FIG. 3, the control unit 350 includes a conversion unit 351 and a display control unit 352, and improves the operability of operations on the screen as shown in FIG.

図5は、第1の実施形態に係る制御部350の制御対象となる画面の一例を示す図である。例えば、制御部350による制御は、図5に示すように、操作端末200の表示部23bにて表示された複数の画像表示領域や、操作領域を含む画面が対象となる。一例を挙げると、制御部350は、図5の右側の領域に示す操作領域において、縦方向のドラッグ操作を横方向のドラッグ操作に変換するように制御する。以下、各部による処理の一例を説明する。   FIG. 5 is a diagram illustrating an example of a screen to be controlled by the control unit 350 according to the first embodiment. For example, as shown in FIG. 5, the control by the control unit 350 targets a plurality of image display areas displayed on the display unit 23 b of the operation terminal 200 and a screen including the operation area. For example, the control unit 350 performs control so that a vertical drag operation is converted into a horizontal drag operation in the operation region shown in the right region of FIG. Hereinafter, an example of processing by each unit will be described.

図3に戻って、変換部351は、タッチパネルによって受け付けられた所定の入力操作において、横方向の操作を縦方向の操作に変換する。具体的には、変換部351は、横方向の操作のうち、横方向のドラッグ操作を縦方向のドラッグ操作に変換する。図6Aは、第1の実施形態に係る変換部351による処理の一例を説明するための図である。例えば、変換部351は、図6Aに示すように、縦方向にスライドするスクロールバーを横方向にスライドするスクロールバーに変換する。   Returning to FIG. 3, the conversion unit 351 converts a horizontal operation into a vertical operation in a predetermined input operation received by the touch panel. Specifically, the conversion unit 351 converts a horizontal drag operation into a vertical drag operation among the horizontal operations. FIG. 6A is a diagram for explaining an example of processing by the conversion unit 351 according to the first embodiment. For example, as illustrated in FIG. 6A, the conversion unit 351 converts a scroll bar that slides in the vertical direction into a scroll bar that slides in the horizontal direction.

一例を挙げると、変換部351は、縦方向にスライドさせるスクロールバーの上方向への移動を横方向の右スライドに変換し、下方向への移動を横方向の左スライドに変換する。すなわち、操作者が、タッチパネル上で右方向にドラッグ操作を実行した場合に、変換部351は、実行されたドラッグ操作の距離と同様の上方向のスライドが実行されるように操作情報を変換する。同様に、操作者が、タッチパネル上で左方向にドラッグ操作を実行した場合に、変換部351は、実行されたドラッグ操作の距離と同様の下方向のスライドが実行されるように操作情報を変換する。   For example, the conversion unit 351 converts the upward movement of the scroll bar to be slid in the vertical direction into a right slide in the horizontal direction, and converts the downward movement into a left slide in the horizontal direction. That is, when the operator performs a drag operation in the right direction on the touch panel, the conversion unit 351 converts the operation information so that an upward slide similar to the distance of the executed drag operation is performed. . Similarly, when the operator performs a drag operation in the left direction on the touch panel, the conversion unit 351 converts the operation information so that a downward slide similar to the distance of the performed drag operation is executed. To do.

上述した操作は、検査室の術者が検査室ディスプレイに表示された縦方向にスライドさせるスクロールバーを見ながら実行される場合であってもよく、或いは、ユーザ端末300のタッチパネルに表示された縦方向にスライドさせるスクロールバーを見ながら実行される場合であってもよい。すなわち、後述する表示制御部352が表示部320にスクロールバーを表示させる場合であってもよい。また、縦方向にスライドさせるスクロールバーに対応する横方向のスクロールバーを表示部320に表示させてもよい。かかる場合は、後述する表示制御部352が、表示部320に横方向のスクロールバーを表示させる。そして、操作者は、表示された横方向のスクロールバーを横方向に操作して、表示内容を縦方向にスライドさせる。   The operation described above may be performed while an operator in the laboratory is performed while looking at the scroll bar that is slid in the vertical direction displayed on the laboratory display, or may be the vertical operation displayed on the touch panel of the user terminal 300. It may be executed while looking at a scroll bar that slides in the direction. That is, the display control unit 352 described later may display a scroll bar on the display unit 320. In addition, a horizontal scroll bar corresponding to the scroll bar to be slid in the vertical direction may be displayed on the display unit 320. In such a case, the display control unit 352 described later causes the display unit 320 to display a horizontal scroll bar. Then, the operator operates the displayed horizontal scroll bar in the horizontal direction to slide the display content in the vertical direction.

また、変換部351は、タッチパネルにて表示されるコンボボックスに含まれる選択項目を横方向に配置するようにコンボボックスを変換する。図6Bは、第1の実施形態に係る変換部351による処理の一例を説明するための図である。例えば、変換部351は、図6Bに示すように、縦方向のコンボボックスを横方向のコンボボックスに変換する。これのより、例えば、図6Bに示すコンボボックスで選択項目の「Cardiac」を選択する場合に、右方向のドラッグ操作で選択することが可能である。   Also, the conversion unit 351 converts the combo box so that the selection items included in the combo box displayed on the touch panel are arranged in the horizontal direction. FIG. 6B is a diagram for explaining an example of processing performed by the conversion unit 351 according to the first embodiment. For example, as illustrated in FIG. 6B, the conversion unit 351 converts a vertical combo box into a horizontal combo box. From this, for example, when the selection item “Cardiac” is selected in the combo box shown in FIG. 6B, the selection can be made by a drag operation in the right direction.

また、変換部351は、タッチパネルに表示される表示内容全体が90度傾いた状態で表示されるように前記表示内容全体の表示方法を変換する。図6Cは、第1の実施形態に係る変換部351による処理の一例を説明するための図である。例えば、変換部351は、図6Cに示すように、縦方向のスクロールバーを含む表示内容全体を90度右に回転させた表示内容全体の表示方法を変換して、横方向のコンボボックスに変換する。これにより、例えば、図6Cに示す縦方向のスクロールバーと選択領域を横方向の動きに変換することができ、横方向のドラッグ操作で容易に選択することが可能である。   In addition, the conversion unit 351 converts the display method of the entire display content so that the entire display content displayed on the touch panel is displayed in a tilted state of 90 degrees. FIG. 6C is a diagram for describing an example of processing by the conversion unit 351 according to the first embodiment. For example, as illustrated in FIG. 6C, the conversion unit 351 converts the display method of the entire display content including the vertical scroll bar by rotating 90 degrees to the right, and converts the display method into a horizontal combo box. To do. Thereby, for example, the vertical scroll bar and the selection area shown in FIG. 6C can be converted into a horizontal movement, and can be easily selected by a horizontal drag operation.

図3に戻って、表示制御部352は、タッチパネルによって受け付けられた所定の入力操作に対応する処理を実行させるための制御を実行する。具体的には、表示制御部352は、変換部351によって変換された縦方向の操作を実行させるように制御する。すなわち、表示制御部352は、変換部351によって変換された縦方向のドラッグ操作に対応する処理を実行させる。   Returning to FIG. 3, the display control unit 352 executes control for executing processing corresponding to a predetermined input operation received by the touch panel. Specifically, the display control unit 352 performs control so that the operation in the vertical direction converted by the conversion unit 351 is executed. In other words, the display control unit 352 executes processing corresponding to the vertical drag operation converted by the conversion unit 351.

例えば、表示制御部352は、図6Aの右側に示す横方向のスクロールバーのスライドに応じて、対応する表を縦方向に移動させて表示する。また、例えば、表示制御部352は、図6Aの右側に示す横方向のスクロールバーを表示部320に表示させる。また、表示制御部352は、図6Bに示す選択項目が横方向に配置されたコンボボックスを表示させる。また、表示制御部352は、図6Cに示すように、表示内容全体を90度右に回転させた表示内容全体を表示するように制御する。   For example, the display control unit 352 moves and displays the corresponding table in the vertical direction in accordance with the slide of the horizontal scroll bar shown on the right side of FIG. 6A. Further, for example, the display control unit 352 causes the display unit 320 to display a horizontal scroll bar shown on the right side of FIG. 6A. In addition, the display control unit 352 displays a combo box in which the selection items illustrated in FIG. 6B are arranged in the horizontal direction. Further, as shown in FIG. 6C, the display control unit 352 controls to display the entire display content obtained by rotating the entire display content to the right by 90 degrees.

上述した例では、縦方向のドラッグ操作を横方向のドラッグ操作に変換する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、縦方向のフリック操作や、ピンチイン操作、ピンチアウト操作を、横方向のフリック操作、ピンチイン操作、ピンチアウト操作で実行できるように変換する場合であってもよい。   In the above-described example, the case where the vertical drag operation is converted into the horizontal drag operation has been described. However, the embodiment is not limited to this. For example, the vertical flick operation, the pinch-in operation, and the pinch-out operation are converted to be executed by the horizontal flick operation, the pinch-in operation, and the pinch-out operation. It may be the case.

次に、図7を用いて、第1の実施形態に係るユーザ端末300の処理について説明する。図7は、第1の実施形態に係るユーザ端末300による処理の手順を示すフローチャートである。図7に示すように、縦方向の操作を横方向の操作に変換する入力モードへ変更されると(ステップS101肯定)、変換部351は、タッチパネル上で実行された横方向の動きを画面上で縦方向の動きに変換する(ステップS102)。なお、入力モードが変更されるまで、ユーザ端末300は通常の入力操作を受け付ける(ステップS101否定)。   Next, processing of the user terminal 300 according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating a processing procedure performed by the user terminal 300 according to the first embodiment. As shown in FIG. 7, when the input mode for converting the vertical operation into the horizontal operation is changed (Yes in step S101), the conversion unit 351 displays the horizontal movement performed on the touch panel on the screen. Is converted into a vertical motion (step S102). Note that the user terminal 300 accepts a normal input operation until the input mode is changed (No in step S101).

そして、表示内容を横方向に変更する表示切替が実行されると(ステップS103肯定)、表示制御部352は、スクロールバー、コンボボックス、或いは、画面全体を横方向に変更して表示する(ステップS104)。なお、上述した例では、入力モードと表示切替をそれぞれ受け付ける場合について説明したが、実施形態はこれに限定されるものではなく、例えば、一回のモード変更操作でそれぞれ変更される場合であってもよい。なお、表示切替が実行されるまで、ユーザ端末300は、表示内容を通常の表示方向(縦方向)で表示する(ステップS103否定)。   When display switching is performed to change the display content in the horizontal direction (Yes at Step S103), the display control unit 352 changes the scroll bar, combo box, or the entire screen to display in the horizontal direction (Step S103). S104). In the above-described example, the case where the input mode and the display switching are respectively received has been described. However, the embodiment is not limited to this, and for example, the mode is changed by a single mode change operation. Also good. Note that the user terminal 300 displays the display content in the normal display direction (vertical direction) until display switching is executed (No in step S103).

上述したように、第1の実施形態によれば、入力部310は、通信先の操作端末を操作するための所定の入力操作を受け付ける。制御部350は、入力部310によって受け付けられた所定の入力操作に対応する処理を実行させるための制御を実行する。従って、第1の実施形態に係るユーザ端末300は、入力操作に応じた処理を実行させることができ、ユーザ端末による操作の操作性を向上させることを可能にする。   As described above, according to the first embodiment, the input unit 310 accepts a predetermined input operation for operating a communication destination operation terminal. The control unit 350 performs control for executing processing corresponding to a predetermined input operation received by the input unit 310. Therefore, the user terminal 300 according to the first embodiment can execute processing according to the input operation, and can improve the operability of the operation by the user terminal.

また、第1の実施形態によれば、変換部351は、タッチパネルである入力部310によって受け付けられた所定の入力操作において、横方向の操作を縦方向の操作に変換する。制御部350は、変換部351によって変換された縦方向の操作を実行させるように制御する。従って、第1の実施形態に係るユーザ端末300は、縦方向の処理を横方向の操作で実行させることができ、ユーザ端末による操作の操作性をより向上させることを可能にする。例えば、摩擦係数が高いゴム手袋を装着した指で、カバーされたタッチパネル上を操作する場合であっても、縦方向の処理を容易に実行させることができる。   Further, according to the first embodiment, the conversion unit 351 converts a horizontal operation into a vertical operation in a predetermined input operation received by the input unit 310 that is a touch panel. The control unit 350 performs control such that the vertical operation converted by the conversion unit 351 is executed. Therefore, the user terminal 300 according to the first embodiment can execute the vertical processing by the horizontal operation, and can further improve the operability of the operation by the user terminal. For example, even in the case of operating the covered touch panel with a finger wearing rubber gloves having a high friction coefficient, it is possible to easily execute the vertical processing.

また、第1の実施形態によれば、変換部351は、横方向の操作のうち、横方向のドラッグ操作を縦方向のドラッグ操作に変換する。制御部350は、変換部351によって変換された縦方向のドラッグ操作に対応する処理を実行させるように制御する。従って、第1の実施形態に係るユーザ端末300は、縦方向の処理を横方向のドラッグ操作で実行させることができ、ユーザ端末による操作の操作性をより向上させることを可能にする。   Further, according to the first embodiment, the conversion unit 351 converts a horizontal drag operation into a vertical drag operation among the horizontal operations. The control unit 350 performs control so that processing corresponding to the vertical drag operation converted by the conversion unit 351 is executed. Therefore, the user terminal 300 according to the first embodiment can execute the vertical processing by the horizontal drag operation, and can further improve the operability of the operation by the user terminal.

また、第1の実施形態によれば、変換部351は、タッチパネルにて表示されるコンボボックスに含まれる選択項目を横方向に配置するようにコンボボックスを変換する。従って、第1の実施形態に係るユーザ端末300は、コンボボックスの選択操作を横方向のドラッグ操作で実行させることができ、ユーザ端末による操作の操作性をより向上させることを可能にする。   According to the first embodiment, the conversion unit 351 converts the combo box so that the selection items included in the combo box displayed on the touch panel are arranged in the horizontal direction. Therefore, the user terminal 300 according to the first embodiment can execute the combo box selection operation by a horizontal drag operation, and can further improve the operability of the operation by the user terminal.

また、第1の実施形態によれば、変換部351は、タッチパネルに表示される表示内容全体が90度傾いた状態で表示されるように表示内容全体の表示方法を変換する。従って、第1の実施形態に係るユーザ端末300は、タッチパネルに表示される縦方向の操作全てを横方向の操作で実行させることができ、ユーザ端末による操作の操作性をさらに向上させることを可能にする。   Further, according to the first embodiment, the conversion unit 351 converts the display method of the entire display content so that the entire display content displayed on the touch panel is displayed in a tilted state of 90 degrees. Accordingly, the user terminal 300 according to the first embodiment can execute all the vertical operations displayed on the touch panel by the horizontal operation, and can further improve the operability of the operation by the user terminal. To.

(第2の実施形態)
上述した第1の実施形態では、縦方向の処理を横方向の操作で実行させる場合について説明した。第2の実施形態では、タッチパネル上での操作をすることなく、ポインタ操作、画像の表示変更、3Dロードマップの位置合わせを実行させる場合について説明する。図8は、第2の実施形態に係るユーザ端末及び操作端末の構成の一例を示す図である。図8に示すように、第2の実施形態に係るユーザ端末300は、第1の実施形態に係るユーザ端末300と比較して、カメラ360と、算出部353を新たに有する点が異なる。以下、これらを中心に説明する。
(Second Embodiment)
In the above-described first embodiment, the case where the vertical processing is executed by the horizontal operation has been described. In the second embodiment, a case will be described in which a pointer operation, an image display change, and a 3D road map alignment are executed without performing an operation on the touch panel. FIG. 8 is a diagram illustrating an example of a configuration of a user terminal and an operation terminal according to the second embodiment. As illustrated in FIG. 8, the user terminal 300 according to the second embodiment is different from the user terminal 300 according to the first embodiment in that a camera 360 and a calculation unit 353 are newly included. Hereinafter, these will be mainly described.

カメラ360は、通信先の情報処理を操作するための所定の入力操作を受け付ける。例えば、カメラ360は、図4の(A)に示すインカメラや、図4の(B)に示すリアカメラであり、画像の撮影操作を受け付ける。カメラ360によって撮影された画像に基づいて、以下、詳細に説明する算出部353が、ポインタ操作、画像の表示変更、3Dロードマップの位置合わせの処理を実行する。なお、以下では、ポインタ操作、画像の表示変更、3Dロードマップの位置合わせについて、それぞれ順に説明する。   The camera 360 accepts a predetermined input operation for operating information processing of a communication destination. For example, the camera 360 is an in-camera illustrated in FIG. 4A or a rear camera illustrated in FIG. 4B, and accepts an image capturing operation. Based on the image photographed by the camera 360, the calculation unit 353, which will be described in detail below, executes pointer operation, image display change, and 3D roadmap alignment processing. In the following, pointer operations, image display changes, and 3D roadmap alignment will be described in order.

まず、ポインタ操作について説明する。かかる場合には、算出部353は、カメラ360によって撮影された画像に基づいて、撮影前後の自装置の移動量を算出する。図9は、第2の実施形態に係る算出部353による処理に基づくポインタ操作の一例を説明するための図である。例えば、算出部353は、図9の(A)に示すように、カメラ360によって撮影された画像に基づいて、ユーザ端末300の実空間における移動量を算出する。   First, the pointer operation will be described. In such a case, the calculation unit 353 calculates the amount of movement of the own device before and after shooting based on the image shot by the camera 360. FIG. 9 is a diagram for explaining an example of a pointer operation based on processing by the calculation unit 353 according to the second embodiment. For example, as illustrated in FIG. 9A, the calculation unit 353 calculates the movement amount of the user terminal 300 in the real space based on an image captured by the camera 360.

ここで、算出部353は、カメラ360(例えば、リアカメラ)によって撮影された画像に含まれる物を基準としてユーザ端末300の移動量を算出する。例えば、算出部353は、検査室R1内の天板や、アーム、検査室ディスプレイなどのうち、焦点があっている物を基準として、ユーザ端末300の移動量を算出する。すなわち、算出部353は、カメラ360によって撮影される実空間の座標において、基準物の座標の移動量を算出する。なお、ここでいう移動量とは、移動した向きと距離に相当する。そして、算出部353は、算出した移動量に応じたポインタの移動量を算出して、算出した移動量を表示制御部352に通知する。なお、ポインタの移動量は、基準物の座標の移動量をそのまま用いる場合であってもよく、或いは、基準物の座標の移動量に所定の値を積算する場合であってもよい。   Here, the calculation unit 353 calculates the amount of movement of the user terminal 300 with reference to an object included in an image captured by the camera 360 (for example, a rear camera). For example, the calculation unit 353 calculates the movement amount of the user terminal 300 with reference to a focused object among the top plate, the arm, and the examination room display in the examination room R1. That is, the calculation unit 353 calculates the movement amount of the coordinates of the reference object in the coordinates of the real space photographed by the camera 360. The amount of movement here corresponds to the direction and distance of movement. Then, the calculation unit 353 calculates a pointer movement amount according to the calculated movement amount, and notifies the display control unit 352 of the calculated movement amount. The movement amount of the pointer may be the case where the movement amount of the coordinates of the reference object is used as it is, or the case where a predetermined value is added to the movement amount of the coordinates of the reference object.

ここで、ポインタの操作において、算出部353は、ジャイロセンサを用いてユーザ端末300の傾きの影響を排除する。すなわち、ユーザ端末300が基準物に対して平行移動する場合には、2次元平面上の適切な移動量を算出することができるが、ユーザ端末300が傾きをもって移動した場合には、カメラ360によって撮影される基準物の正確な移動量を算出することができない。そこで、算出部353は、ユーザ端末300の傾きをジャイロセンサによって撮影時のユーザ端末300の傾きの情報を取得し、取得した傾きを用いて、ユーザ端末300の傾きを補正した後、移動量を算出する。   Here, in the operation of the pointer, the calculation unit 353 eliminates the influence of the tilt of the user terminal 300 using the gyro sensor. That is, when the user terminal 300 moves in parallel with the reference object, an appropriate amount of movement on the two-dimensional plane can be calculated, but when the user terminal 300 moves with an inclination, the camera 360 The exact amount of movement of the reference object to be photographed cannot be calculated. Therefore, the calculation unit 353 acquires information on the inclination of the user terminal 300 at the time of photographing with the gyro sensor of the inclination of the user terminal 300, corrects the inclination of the user terminal 300 using the acquired inclination, and then calculates the movement amount. calculate.

第2の実施形態に係る表示制御部352は、算出部353から通知された移動量に応じてポインタを移動させる。例えば、表示制御部352は、図9の(B)に示すように、操作端末200の表示部23bにて表示されたポインタ40を通知された移動量に応じて移動させる。すなわち、上述したポインタの操作では、カメラ360によって撮影された画像における基準物の動きと同様にポインタが動くこととなる。例えば、検査室R1に配置された表示部23aにおいて、操作端末200の表示部23bと同様の画面が表示された状態で、ユーザ端末300の操作者が表示部23aを観察しながら、ユーザ端末300を移動させて表示部23aに表示されたポインタ40を移動させることで、表示部23bにて表示されたポインタ40を移動させる。   The display control unit 352 according to the second embodiment moves the pointer according to the movement amount notified from the calculation unit 353. For example, as shown in FIG. 9B, the display control unit 352 moves the pointer 40 displayed on the display unit 23b of the operation terminal 200 according to the notified movement amount. That is, in the above-described operation of the pointer, the pointer moves in the same manner as the movement of the reference object in the image taken by the camera 360. For example, in the display unit 23a arranged in the examination room R1, the user terminal 300 is observing the display unit 23a while the operator of the user terminal 300 is observing the same screen as the display unit 23b of the operation terminal 200. The pointer 40 displayed on the display unit 23b is moved by moving the pointer 40 displayed on the display unit 23a.

ユーザ端末300を動かすことによるポインタの操作は上述した例に限られるものではなく、例えば、加速度センサを用いる場合であってもよく、或いは、ジャイロセンサを用いる場合であってもよい。すなわち、ユーザ端末300の加速度や、傾きを用いてポインタを操作する場合であってもよい。   The operation of the pointer by moving the user terminal 300 is not limited to the above-described example. For example, an acceleration sensor may be used, or a gyro sensor may be used. That is, the pointer may be operated using the acceleration or inclination of the user terminal 300.

次に、画像の表示変更について説明する。かかる場合には、算出部353は、カメラ360、ジャイロセンサ、加速度センサなどによって取得される情報を用いて、ユーザ端末300の前後方向の移動量及び傾きにおける移動量を算出する。そして、表示制御部352は、3次元の医用画像データから生成され、表示部320にて表示された医用画像を、算出部353によって算出された移動量で生成位置を変化させて3次元の医用画像データから生成された医用画像に変更する。図10は、第2の実施形態に係る算出部353による処理に基づく画像の表示変更の一例を説明するための図である。なお、図10において、X線アンギオグラフィシステム1によって収集された3次元画像データから生成した直交3断面のMPR画像(アキシャル面、コロナル面、サジタル面)と、3次元画像データに対して所定の視点位置から投影した投影画像(右下)とを示す。   Next, image display change will be described. In such a case, the calculation unit 353 calculates the movement amount in the front-rear direction and the inclination amount of the user terminal 300 using information acquired by the camera 360, the gyro sensor, the acceleration sensor, and the like. Then, the display control unit 352 changes the generation position of the medical image generated from the three-dimensional medical image data and displayed on the display unit 320 by the amount of movement calculated by the calculation unit 353, and the three-dimensional medical image. Change to a medical image generated from image data. FIG. 10 is a diagram for explaining an example of image display change based on processing by the calculation unit 353 according to the second embodiment. In FIG. 10, predetermined three-dimensional MPR images (axial plane, coronal plane, sagittal plane) generated from three-dimensional image data collected by the X-ray angiography system 1 and predetermined three-dimensional image data. A projected image (lower right) projected from the viewpoint position is shown.

図10の(A)に示すように、算出部353は、ユーザ端末300の傾きを含む移動量を算出する。ここで、算出部353は、XY平面の2次元平面における移動量だけではなく、Z軸方向の移動量を算出する。なお、Z軸方向の移動量は、画像の拡大及び縮小の程度により算出される。そして、制御部350は、算出された移動量で生成位置を変更した直交3断面のMPR画像を生成する。すなわち、制御部350は、図10の(B)に示すアキシャル面、コロナル面、サジタル面の直交3断面のMPR画像の生成位置を移動前のユーザ端末300の位置とし、3次元画像データにおける生成位置から算出部353によって算出された移動量の分移動させた位置で直交3断面のMPR画像を生成するように制御する。そして、表示制御部352は、図10の(B)に示す各MPR画像を、制御部350の制御のもと生成された直交3断面のMPR画像に更新する。   As illustrated in FIG. 10A, the calculation unit 353 calculates the movement amount including the inclination of the user terminal 300. Here, the calculation unit 353 calculates not only the movement amount in the two-dimensional plane of the XY plane but also the movement amount in the Z-axis direction. Note that the amount of movement in the Z-axis direction is calculated based on the degree of enlargement and reduction of the image. And the control part 350 produces | generates the MPR image of 3 orthogonal cross sections which changed the production | generation position with the calculated movement amount. That is, the control unit 350 uses the generation position of the MPR image of the three orthogonal cross sections of the axial plane, coronal plane, and sagittal plane shown in FIG. 10B as the position of the user terminal 300 before the movement, and generates the three-dimensional image data. Control is performed so that an MPR image having three orthogonal cross sections is generated at a position shifted from the position by the movement amount calculated by the calculation unit 353. Then, the display control unit 352 updates each MPR image shown in FIG. 10B to an MPR image having three orthogonal cross sections generated under the control of the control unit 350.

また、制御部350は、算出部353によって算出された傾きの分だけ視線位置を変化させた投影画像を生成するように制御する。すなわち、制御部350は、図10の(B)の表示部23bの右下の領域に示す投影画像が生成された際の視点位置を算出された傾きの分だけ移動させた後、移動後の位置を視点位置として投影した投影画像を生成するように制御する。そして、表示制御部352は、図10の(B)に示す投影画像を、制御部350の制御のもと生成された投影画像に更新する。ここで、投影画像の反転機能を用いることで、360°の観察を行うことができる。例えば、検査室R1に配置された表示部23aにおいて、操作端末200の表示部23bと同様の画面が表示された状態で、ユーザ端末300の操作者が表示部23aを観察しながら、ユーザ端末300を移動させて表示部23aに表示される投影画像の位置を変化させることで、表示部23a(及び表示部23b)にて表示される投影画像を所望の画像に変化させる。   In addition, the control unit 350 performs control so as to generate a projection image in which the line-of-sight position is changed by the amount of inclination calculated by the calculation unit 353. That is, the control unit 350 moves the viewpoint position when the projection image shown in the lower right region of the display unit 23b in FIG. 10B is generated by the calculated inclination, and then moves the position after the movement. Control is performed to generate a projection image in which the position is projected as the viewpoint position. Then, the display control unit 352 updates the projection image shown in FIG. 10B to a projection image generated under the control of the control unit 350. Here, 360 ° observation can be performed by using the projection image inversion function. For example, in the display unit 23a arranged in the examination room R1, the user terminal 300 is observing the display unit 23a while the operator of the user terminal 300 is observing the same screen as the display unit 23b of the operation terminal 200. Is moved to change the position of the projected image displayed on the display unit 23a, thereby changing the projected image displayed on the display unit 23a (and the display unit 23b) to a desired image.

次に、3Dロードマップの位置合わせについて説明する。3Dロードマップの位置合わせは、事前に撮影された3D画像と、透視画像との重畳させる際の位置合わせを意味する。かかる場合には、カメラ360は、ユーザ端末300の表示部320にて表示された3次元画像と、操作端末200の表示部23bにて表示された透視画像又は前記透視画像が撮影された被検体とを、ユーザ端末300の表示部320内で位置合わせするための位置合わせ操作を受け付ける。具体的には、カメラ360は、表示部23a又は表示部23bにて表示された透視画像又は被検体を撮影するための操作を受け付ける。以下、表示部23bに表示された透視画像を撮影して位置合わせする場合について説明する。   Next, alignment of the 3D road map will be described. The alignment of the 3D road map means the alignment when superimposing the 3D image captured in advance with the fluoroscopic image. In such a case, the camera 360 captures the three-dimensional image displayed on the display unit 320 of the user terminal 300 and the fluoroscopic image displayed on the display unit 23b of the operation terminal 200 or the subject on which the fluoroscopic image is captured. Are received for alignment operation within the display unit 320 of the user terminal 300. Specifically, the camera 360 receives an operation for photographing a fluoroscopic image or a subject displayed on the display unit 23a or the display unit 23b. Hereinafter, a case where the fluoroscopic image displayed on the display unit 23b is captured and aligned will be described.

図11は、第2の実施形態に係る算出部353による処理に基づく3Dロードマップの位置合わせの一例を説明するための図である。図11の(A)に示すように、まず、表示部23bは、透視画像の静止画像を表示する。例えば、表示部23bは、LIH(Last Image Hold)を表示する。ここで、システム制御部21は、表示部23bに表示させたLIHの情報(被検体に対してどの角度から撮影した画像であるかなどの情報)をユーザ端末300に送信する。さらに、システム制御部21は、ユーザ端末300に対して、事前に撮影された3次元画像を送信する。このとき、システム制御部21は、送信した3次元画像の情報(3次元画像データに対してどの方向から生成した画像であるかなどの情報)を同時に送信する。   FIG. 11 is a diagram for explaining an example of alignment of a 3D road map based on processing by the calculation unit 353 according to the second embodiment. As shown in FIG. 11A, first, the display unit 23b displays a still image of a fluoroscopic image. For example, the display unit 23b displays LIH (Last Image Hold). Here, the system control unit 21 transmits to the user terminal 300 information on the LIH displayed on the display unit 23b (information such as an angle taken with respect to the subject). Furthermore, the system control unit 21 transmits a 3D image captured in advance to the user terminal 300. At this time, the system control unit 21 transmits simultaneously the information of the transmitted three-dimensional image (information such as from which direction the image is generated with respect to the three-dimensional image data).

そして、表示制御部352は、図11の(A)に示すように、3次元画像を表示部320に表示する。その後、ユーザ端末300の操作者は、カメラ360によって表示部23bに表示されたLIHを撮影する。ここで、表示制御部352は、表示部320内の仮想空間内で3次元画像を固定して、固定された3次元画像に対してユーザ端末300を平行移動させたり、平面回転させたりすることで、撮影したLIHを3次元画像に合わせるように制御する。すなわち、表示部320内の仮想空間に固定した3次元画像に対して、操作者がユーザ端末300を平行移動させたり、平面回転させたりすることで、図11の(B)に示すように、位置合わせを行う。ここで、撮影されたLIHは、ユーザ端末300の動きと連動して動く。   Then, the display control unit 352 displays a three-dimensional image on the display unit 320 as illustrated in FIG. Thereafter, the operator of the user terminal 300 captures the LIH displayed on the display unit 23b by the camera 360. Here, the display control unit 352 fixes the three-dimensional image in the virtual space in the display unit 320, and translates or rotates the user terminal 300 with respect to the fixed three-dimensional image. Then, control is performed so that the photographed LIH is matched with the three-dimensional image. That is, as shown in FIG. 11B, the operator translates or rotates the user terminal 300 with respect to the three-dimensional image fixed in the virtual space in the display unit 320. Perform alignment. Here, the photographed LIH moves in conjunction with the movement of the user terminal 300.

算出部353は、上述した位置合わせにおいて3次元画像と、LIHとを位置合わせするための補正値を算出する。具体的には、算出部353は、まず、LIHを撮影した際の表示部23bの位置と、ユーザ端末300との位置関係を算出する。ここで、例えば、表示部23bにARマーカーを付けておいたり、パターンマッチングを行ったりすることで、撮影空間における表示部23bの位置が算出される。   The calculation unit 353 calculates a correction value for aligning the three-dimensional image and the LIH in the above-described alignment. Specifically, the calculation unit 353 first calculates the positional relationship between the position of the display unit 23b when the LIH is captured and the user terminal 300. Here, for example, the position of the display unit 23b in the imaging space is calculated by attaching an AR marker to the display unit 23b or performing pattern matching.

このとき、表示部23bに表示されたLIHの情報を受信していることから、算出部353は、撮影空間におけるLIHの位置や角度(ユーザ端末300に対するLIHの位置や角度)を算出することができる。さらに、算出部353は、表示部320にて表示させている3次元画像の情報を受信していることから、ユーザ端末300で表示されている3次元画像の状態を参照することで、LIHと3次元画像との現在(透視画像が撮影された時点)の位置関係を算出することができる。これにより、以下の位置合わせは、最初に生成されたLIHと3次元画像とを対象とすることができる。   At this time, since the LIH information displayed on the display unit 23b is received, the calculation unit 353 can calculate the position and angle of the LIH in the imaging space (the position and angle of the LIH with respect to the user terminal 300). it can. Furthermore, since the calculation unit 353 receives the information of the three-dimensional image displayed on the display unit 320, the calculation unit 353 refers to the state of the three-dimensional image displayed on the user terminal 300, so that LIH The current positional relationship with the three-dimensional image (when the fluoroscopic image is taken) can be calculated. Thereby, the following alignment can target the LIH and the three-dimensional image that are generated first.

そして、算出部353は、操作者の操作(平行移動や、平面回転)によって透視画像と3次元画像とが位置合わせされた際に、ユーザ端末300(連動する透視画像)がどの程度動かされたかを算出することで、透視画像と3次元画像とを位置合わせするための補正値を算出する。なお、ユーザ端末300の動きは、上述したようにカメラ360や、ジャイロセンサなどにより算出する。   Then, the calculation unit 353 determines how much the user terminal 300 (the associated fluoroscopic image) is moved when the fluoroscopic image and the three-dimensional image are aligned by an operation (parallel movement or plane rotation) of the operator. To calculate a correction value for aligning the fluoroscopic image and the three-dimensional image. Note that the movement of the user terminal 300 is calculated by the camera 360, the gyro sensor, or the like as described above.

算出部353は、算出した補正値を操作端末200に送信することで、操作端末200において位置合わせが可能となる。また、ユーザ端末300は、算出した補正値を用いることで、リアルタイムで収集された透視画像との位置合わせを実行することができる。なお、透視画像の情報は、撮影時の機械系の情報(透視の角度など)が用いられる。すなわち、リアルタイムの場合には、現時点の機械系の情報が送信され、過去の透視画像の場合には、そのときの機械系の情報が送信される。   The calculation unit 353 transmits the calculated correction value to the operation terminal 200, thereby enabling alignment on the operation terminal 200. Further, the user terminal 300 can execute alignment with the fluoroscopic image collected in real time by using the calculated correction value. Note that the information on the fluoroscopic image is information on a mechanical system at the time of photographing (such as a fluoroscopic angle). That is, in the case of real time, information on the current mechanical system is transmitted, and in the case of a past fluoroscopic image, information on the mechanical system at that time is transmitted.

上述した実施形態では、表示部23bに表示された透視画像を撮影する場合について説明したが、実施形態はこれに限定されるものではなく、例えば、被検体が撮影される場合であってもよい。かかる場合においても上記と同様に、ユーザ端末300と被検体との位置関係を算出して、算出した位置関係のもと、撮影された画像による位置合わせが実行される。   In the above-described embodiment, the case where the fluoroscopic image displayed on the display unit 23b is captured has been described. However, the embodiment is not limited to this, and for example, the subject may be captured. . Even in such a case, similarly to the above, the positional relationship between the user terminal 300 and the subject is calculated, and alignment based on the captured image is executed based on the calculated positional relationship.

次に、図12を用いて、第2の実施形態に係るユーザ端末300による処理について説明する。図12は、第2の実施形態に係るユーザ端末300による処理の手順を示すフローチャートである。   Next, processing by the user terminal 300 according to the second embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating a processing procedure performed by the user terminal 300 according to the second embodiment.

図12に示すように、ポインタ操作モードである場合には(ステップS201肯定)、算出部353は、カメラ360によって撮影された映像から自装置の移動量を算出し(ステップS202)、算出した移動量に応じてポインタを移動させる(ステップS203)。   As shown in FIG. 12, in the pointer operation mode (Yes at Step S201), the calculation unit 353 calculates the movement amount of the own apparatus from the video imaged by the camera 360 (Step S202), and the calculated movement. The pointer is moved according to the amount (step S203).

ポインタ操作モードではない場合には(ステップS201否定)、算出部353は位置合わせモードであるか否かを判定する(ステップS204)。ここで、位置合わせモードである場合には(ステップS204肯定)、表示部320は3D画像を表示する(ステップS205)。そして、算出部353は、透視画像が表示されたディスプレイが撮影されたか否かを判定する(ステップS206)。   When it is not the pointer operation mode (No at Step S201), the calculation unit 353 determines whether or not it is the alignment mode (Step S204). Here, in the case of the alignment mode (Yes at Step S204), the display unit 320 displays a 3D image (Step S205). Then, the calculation unit 353 determines whether or not the display on which the fluoroscopic image is displayed has been photographed (Step S206).

ここで、透視画像が表示されたディスプレイが撮影された場合には(ステップS206肯定)、算出部353は、透視画像の撮影時の機械系の情報を取得して(ステップS207)、ずれを算出して位置合わせを実行する(ステップS208)。なお、透視画像が表示されたディスプレイが撮影されるまで、ユーザ端末300は、待機状態である(ステップS206否定)。   Here, when the display on which the fluoroscopic image is displayed is photographed (Yes at Step S206), the calculation unit 353 acquires information on the mechanical system at the time of photographing the fluoroscopic image (Step S207), and calculates the deviation. Then, alignment is executed (step S208). Note that the user terminal 300 is in a standby state until a display on which a fluoroscopic image is displayed is photographed (No at Step S206).

一方、ステップS204において、位置合わせモードではない場合には(ステップS204)、算出部353は、カメラ360によって撮影された映像から自装置の移動量を算出し(ステップS209)、算出した移動量に応じて表示を変更する(ステップS210)。   On the other hand, when it is not the alignment mode in step S204 (step S204), the calculation unit 353 calculates the movement amount of the own apparatus from the video imaged by the camera 360 (step S209), and the calculated movement amount is obtained. The display is changed accordingly (step S210).

上述したように、第2の実施形態によれば、算出部353は、カメラ360によって撮影された画像に基づいて、撮影前後のユーザ端末300の移動量を算出する。制御部350は、算出部353によって算出された移動量に対応する処理を実行させるよう制御する。従って、第2の実施形態に係るユーザ端末300は、タッチパネルを用いずに、ユーザ端末300を動かすだけで処理を実行させることができ、操作性をより向上させることを可能にする。   As described above, according to the second embodiment, the calculation unit 353 calculates the movement amount of the user terminal 300 before and after shooting based on the image shot by the camera 360. The control unit 350 controls to execute processing corresponding to the movement amount calculated by the calculation unit 353. Therefore, the user terminal 300 according to the second embodiment can execute the process only by moving the user terminal 300 without using the touch panel, and can further improve the operability.

また、第2の実施形態によれば、制御部350は、表示部320にて表示されたポインタを、算出部353によって算出された移動量で移動させる。従って、第2の実施形態に係るユーザ端末300は、容易にポインタを移動させることを可能にする。   Further, according to the second embodiment, the control unit 350 moves the pointer displayed on the display unit 320 by the movement amount calculated by the calculation unit 353. Therefore, the user terminal 300 according to the second embodiment can easily move the pointer.

また、第2の実施形態によれば、カメラ360は、ユーザ端末300の表示部320にて表示された3次元画像と、他装置の表示部23bにて表示された透視画像又は透視画像が撮影された被検体とを、ユーザ端末300の表示部320内で位置合わせするための位置合わせ操作を受け付ける。算出部353は、カメラ360によって受け付けられた位置合わせ操作時の3次元画像と透視画像とのずれを算出する。表示制御部352は、算出部353によって算出されたずれを補正して、3次元画像と透視画像とを重畳させた重畳画像を表示させる。従って、第2の実施形態に係るユーザ端末300は、タッチ操作を行わずに3Dロードマップの位置合わせを行うことを可能にする。   Further, according to the second embodiment, the camera 360 captures a three-dimensional image displayed on the display unit 320 of the user terminal 300 and a fluoroscopic image or a fluoroscopic image displayed on the display unit 23b of the other device. An alignment operation for aligning the target object within the display unit 320 of the user terminal 300 is accepted. The calculation unit 353 calculates a deviation between the three-dimensional image and the fluoroscopic image at the time of the alignment operation received by the camera 360. The display control unit 352 corrects the deviation calculated by the calculation unit 353 and displays a superimposed image in which the three-dimensional image and the fluoroscopic image are superimposed. Therefore, the user terminal 300 according to the second embodiment makes it possible to perform alignment of the 3D road map without performing a touch operation.

制御部350は、3次元の医用画像データから生成され、表示部320にて表示された医用画像を、算出部353によって算出された移動量で生成位置を変化させて3次元の医用画像データから生成された医用画像に変更する。従って、第2の実施形態に係るユーザ端末300は、3次元画像の表示を容易に変更することを可能にする。   The control unit 350 generates the medical image generated from the three-dimensional medical image data and changes the generation position with the movement amount calculated by the calculation unit 353 from the three-dimensional medical image data. Change to the generated medical image. Therefore, the user terminal 300 according to the second embodiment makes it possible to easily change the display of the three-dimensional image.

(第3の実施形態)
さて、これまで第1及び第2の実施形態について説明したが、上述した第1及び第2の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Third embodiment)
Although the first and second embodiments have been described so far, the present invention may be implemented in various different forms other than the first and second embodiments described above.

上述した第2の実施形態では、ユーザ端末300の移動量に基づいて、3次元画像の表示を変更する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、カメラ360によって撮影した画像に基づいて、3次元画像の表示を変更する場合であってもよい。   In the second embodiment described above, the case where the display of the three-dimensional image is changed based on the movement amount of the user terminal 300 has been described. However, the embodiment is not limited to this. For example, the display of a three-dimensional image may be changed based on an image captured by the camera 360.

例えば、カメラ360は、アームを撮影するための操作を受け付ける。そして、算出部は、カメラ360によって撮影されたアームの画像に基づいて、当該アームの角度情報を算出する。そして、表示制御部352は、算出部353によって算出されたアームの角度情報に対応する角度で3次元の医用画像データから医用画像を生成するように制御する。従って、第3の実施形態に係るユーザ端末300は、現時点で透視している角度での3次元画像を容易に表示することを可能にする。   For example, the camera 360 receives an operation for photographing the arm. Then, the calculation unit calculates the angle information of the arm based on the image of the arm taken by the camera 360. The display control unit 352 controls to generate a medical image from the three-dimensional medical image data at an angle corresponding to the arm angle information calculated by the calculation unit 353. Accordingly, the user terminal 300 according to the third embodiment can easily display a three-dimensional image at an angle that is currently viewed through.

また、上述した第1及び第2の実施形態においては、ユーザ端末300による操作の操作性を向上させるために、ユーザ端末300の移動量を用いたり、カメラ360によって撮影された画像を用いる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、ユーザ端末300の表示面を見ることなく操作することも可能である。   In the first and second embodiments described above, in order to improve the operability of the operation by the user terminal 300, the amount of movement of the user terminal 300 or the image taken by the camera 360 is used. explained. However, the embodiment is not limited to this. For example, the user terminal 300 can be operated without looking at the display surface.

かかる場合には、記憶部340は、タッチパネルによって受け付けられる所定の入力操作ごとに、所定の機能を対応付けて記憶する。そして、制御部350は、タッチパネルによって所定の入力操作を受け付けた場合に、記憶部340によって記憶された当該所定の入力操作に対応する所定の機能を実行するように制御する。   In such a case, the storage unit 340 stores a predetermined function in association with each predetermined input operation received by the touch panel. Then, when a predetermined input operation is received by the touch panel, the control unit 350 controls to execute a predetermined function corresponding to the predetermined input operation stored in the storage unit 340.

一例を挙げると、記憶部340は、ピンチインや、ピンチアウト、複数本の指によるワイプなどに対応付けて、画像の保存や、画像の切り替え、関心領域の拡大など記憶する。そして、タッチパネルにおいて、ピンチインや、ピンチアウト、複数本の指によるワイプなどが実施された場合に、制御部350は、対応する処理を実行するように制御する。 By way of example, the storage unit 340, and pinch, pinch-out, in association like swipe by a plurality of fingers, the image storage and the switching of the image, and stores and the expansion of the region of interest. Then, the touch panel, or pinch, the pinch-out, when such swipe is performed by a plurality of fingers, the control unit 350 controls to execute the corresponding processing.

ここで、例えば、ピンチインや、ピンチアウト、複数本の指によるワイプなどが実施された場合には、制御部350は、現時点で表示されているGUI操作は無視される。例えば、なんらかのボタンが表示されている場合に、複数本の指によるスワイプが実行されると、仮に、指の一本がボタンにタッチした場合であっても、対応する機能は実行されない。また、各機能が割り当てられる所定の操作は、通常の操作で用いない操作が用いられる。これにより、操作者は、タッチパネルに目を向けることなく、検査室ディスプレイに表示された画像を注視した状態で、所定の処理を実行することができる。 Here, for example, when or pinch, the pinch-out, such as swipe by a plurality of fingers is performed, the control unit 350, GUI operation being displayed at present is ignored. For example, if a swipe with a plurality of fingers is executed when any button is displayed, the corresponding function is not executed even if one finger touches the button. In addition, a predetermined operation to which each function is assigned is an operation that is not used in a normal operation. Thereby, the operator can perform a predetermined | prescribed process in the state which observed the image displayed on the laboratory display, without looking at a touch panel.

また、上述した実施形態では、ユーザ端末300が1台である場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、2台以上用いられる場合であってもよい。   In the above-described embodiment, the case where there is one user terminal 300 has been described. However, the embodiment is not limited to this, and for example, two or more units may be used.

また、上述した実施形態に係るユーザ端末300及び操作端末200の構成はあくまでも一例であり、各部の統合及び分離は適宜行うことができる。例えば、変換部351と、算出部353とを統合することが可能である。   In addition, the configurations of the user terminal 300 and the operation terminal 200 according to the above-described embodiment are merely examples, and the integration and separation of each unit can be performed as appropriate. For example, the conversion unit 351 and the calculation unit 353 can be integrated.

以上説明したとおり、第1、第2及び第3の実施形態によれば、本実施形態の医用装置及びX線診断装置は、ユーザ端末を用いた操作の操作性を向上させることを可能にする。   As described above, according to the first, second, and third embodiments, the medical apparatus and the X-ray diagnostic apparatus of the present embodiment can improve the operability of the operation using the user terminal. .

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 X線アンギオグラフィシステム
200 操作端末
300 ユーザ端末
310 入力部
320 表示部
351 変換部
352 表示制御部
353 算出部
360 カメラ
DESCRIPTION OF SYMBOLS 1 X-ray angiography system 200 Operation terminal 300 User terminal 310 Input part 320 Display part 351 Conversion part 352 Display control part 353 Calculation part 360 Camera

Claims (2)

GUI(Graphical User Interface)を表示するとともに、使用者によるタッチ操作を受け付けるタッチパネルと、
前記タッチパネルとは異なる装置であって、X線診断装置による撮像が行われる検査室内に設置され、前記X線診断装置によって撮像される医用画像を表示する表示部と、
前記タッチパネルによって受け付けられる複数指による所定の操作に、前記タッチパネルとは異なる前記表示部に表示される医用画像を対象とする機能を対応付けて記憶する記憶手段と、
前記タッチパネルによって前記複数指による所定の操作を受け付ける場合において、前記タッチパネルに表示されたGUIに対する一本指による操作に対応する機能を実行せず、前記所定の操作に対応付けられた前記機能を前記記憶手段から読み出して実行する制御手段と、
を備える、X線診断に使用される医用装置。
A touch panel that displays a GUI (Graphical User Interface) and receives a touch operation by a user;
A display unit that is a device different from the touch panel, is installed in an examination room where imaging is performed by an X-ray diagnostic apparatus, and displays a medical image captured by the X-ray diagnostic apparatus ;
Storage means for storing a function associated with a medical image displayed on the display unit different from the touch panel in association with a predetermined operation by a plurality of fingers received by the touch panel;
When accepting a predetermined operation with the plurality of fingers by the touch panel, the function corresponding to the operation with one finger on the GUI displayed on the touch panel is not executed, and the function associated with the predetermined operation is Control means for reading from the storage means and executing;
A medical device used for X-ray diagnosis .
前記表示部に表示される医用画像を対象とする機能は、画像の保存、画像の切り替え及び関心領域の拡大のうちいずれかである請求項1に記載の医用装置。   The medical apparatus according to claim 1, wherein the function for the medical image displayed on the display unit is any one of image storage, image switching, and region of interest expansion.
JP2013087800A 2013-04-18 2013-04-18 Medical device Active JP6366898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013087800A JP6366898B2 (en) 2013-04-18 2013-04-18 Medical device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013087800A JP6366898B2 (en) 2013-04-18 2013-04-18 Medical device

Publications (3)

Publication Number Publication Date
JP2014210053A JP2014210053A (en) 2014-11-13
JP2014210053A5 JP2014210053A5 (en) 2016-06-02
JP6366898B2 true JP6366898B2 (en) 2018-08-01

Family

ID=51930307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013087800A Active JP6366898B2 (en) 2013-04-18 2013-04-18 Medical device

Country Status (1)

Country Link
JP (1) JP6366898B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021078824A (en) * 2019-11-20 2021-05-27 キヤノンメディカルシステムズ株式会社 X-ray diagnostic apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110310126A1 (en) * 2010-06-22 2011-12-22 Emil Markov Georgiev Method and system for interacting with datasets for display
US9075903B2 (en) * 2010-11-26 2015-07-07 Hologic, Inc. User interface for medical image review workstation
CN103648387B (en) * 2011-07-22 2017-02-08 东芝医疗系统株式会社 Medical image control system and portable terminal

Also Published As

Publication number Publication date
JP2014210053A (en) 2014-11-13

Similar Documents

Publication Publication Date Title
US8971601B2 (en) Medical image diagnosis device and medical image processing method
JP5637775B2 (en) Medical device
CN105120754B (en) Supporter and radiographic apparatus
CN111481222B (en) Image display device and radiographic imaging system
JP2013233413A (en) X-ray diagnostic apparatus
JP6355317B2 (en) Imaging control apparatus, X-ray imaging apparatus, imaging control method, and program
US8903039B2 (en) Tomographic image generation device and method
US20120050277A1 (en) Stereoscopic image displaying method and device
US20140107474A1 (en) Medical manipulator system
US8848874B2 (en) System for recovering from collision of components of an X-ray imaging unit
JP2015511520A (en) Direct control of X-ray focal spot motion
US9968320B2 (en) X-ray diagnostic apparatus
US11122250B2 (en) Three-dimensional image projection apparatus, three-dimensional image projection method, and three-dimensional image projection control program
JP2015167826A (en) X-ray image diagnostic apparatus
JP2022022249A (en) Radiographic image display apparatus and image display method
JP6366898B2 (en) Medical device
JP6382006B2 (en) X-ray diagnostic apparatus, image processing apparatus, and image processing method
JP6662943B2 (en) X-ray diagnostic equipment
JP2019180685A (en) Radiation image processing device, radiation image processing method, and program
US20230052910A1 (en) Image processing device, display control method, and recording medium
JP2015171480A (en) Portable console, operation method of portable console, and operation program of portable console
JP2021133170A (en) Medical image processing apparatus, medical image processing method and medical image processing program
JP6147615B2 (en) X-ray diagnostic equipment
JP2013031169A (en) Stereoscopic image display device and operation method therefor
JP2021108935A (en) Magnification calculation device, long-length imaging system, program and magnification calculation method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160405

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160513

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180704

R150 Certificate of patent or registration of utility model

Ref document number: 6366898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150